10.14718/ACP.2023.26.2.10


Artículo


Evaluación de las propiedades psicométricas de la Escala de Curiosidad Epistémica de Litman en hispanohablantes

Evaluation of the Psychometric Properties of Litman s Epistemic Curiosity Scale in Spanish Speakers


María Esmeralda Sánchez Navarro1
Francisco José Álvarez-Montero2*
Hiram Reyes-Sosa3

1 0000-0002-8812-2189 Facultad de Ciencias de la Educación, Universidad Autónoma de Sinaloa (UAS), México

2 0000-0002-9729-7319 Facultad de Ciencias de la Educación, Universidad Autónoma de Sinaloa (UAS), México

3 0000-0001-6763-847X Facultad de Psicología, Universidad Autónoma de Coahuila (UAdeC), México

* Autor de correspondencia. Universidad Autónoma de Sinaloa, Facultad de Ciencias de la Educación, Avenida Cedros y Calle Sauces S/N, Fracc. Los Fresnos. C.P. 80034. Culiacán, Sinaloa (México). francisco_alvarez_montero@uas.edu.mx


Recibido, febrero 11/2022
Concepto de evaluación, octubre 3/2022
Aceptado, febrero 17/2023


Cómo citar este artículo: Sánchez Navarro, M., Álvarez-Montero, F., & Reyes-Sosa, H. (2023). Evaluación de las propiedades psicométricas de la Escala de Curiosidad Epistémica de Litman en hispanohablantes. Acta Colombiana de Psicología, 26(2), 114-127. https://www.doi.org/10.14718/ACP.2023.26.2.10



Resumen

La Curiosidad Epistémica (CE) es el deseo que motiva a las personas a adquirir nuevo conocimiento. La escala de ce de Litman fue desarrollada para operacionalizar este constructo, y aunque su estructura latente ha sido validada en varios estudios, estos se han realizado en su mayoría en Alemania, EE. UU. y los Países Bajos, que son sociedades educadas, industrializadas, ricas y democráticas. Por consiguiente, el presente estudio evaluó las propiedades psicométricas de la escala de CE, en una muestra de adultos del noroeste de México (N = 334) con edades de 18 a 50 años. Al igual que en investigaciones previas, se compararon dos modelos: unidimensional y bidimensional, mediante análisis factoriales confirmatorios. Adicionalmente, se incluyeron los residuales correlacionados significativos, como parte de ambos modelos, y se examinó si el instrumento tiene invarianza de medición. Los resultados muestran que el modelo bifactorial presentó el mejor ajuste. La consistencia interna fue aceptable, y se comprobó que la escala posee invarianza configural, métrica, escalar y estricta. Usos potenciales de este constructo emergente incluyen su estudio como un factor motivacional relevante, en el nivel de involucramiento y las estrategias de formación de los estudiantes, así como su papel mediador en varios tipos de ansiedad en el aprendizaje.

Palabras clave: Curiosidad epistémica, análisis factorial confirmatorio, residuales correlacionados, invarianza.



Abstract

Epistemic Curiosity (EC) is the desire that motivates people to acquire new knowledge. Litman's EC scale was developed to operationalize this construct, and although its latent structure has been validated in several studies, these have been conducted mostly in Germany, the Netherlands, and the United States, which are educated, industrialized, wealthy, and democratic societies. Therefore, the present study evaluated the psychometric properties of the EC scale in a sample of adults from northwestern Mexico (N = 334) aged 18 to 50 years. As in previous research, two models were compared: one unidimensional and one bidimensional, using Confirmatory Factor Analysis. Additionally, significantly correlated residuals were included as part of both models, and it was examined whether the instrument has measurement invariance. The results show that the bifactor model presented the best fit. The internal consistency was acceptable, and the scale was found to have configural, metric, scalar, and strict invariance. Potential uses of this emerging construct include its study as a relevant motivational factor in students' level of engagement and study strategies, as well as its mediating role in various types of learning anxiety.

Keywords: epistemic curiosity, confirmatory factor analysis, correlated residuals, invariance.



Introducción

La curiosidad ha sido un tema ampliamente analizado durante más de un siglo en el campo de la psicología (Kashdan & Silvia, 2009), debido al impacto positivo y negativo que tiene sobre el comportamiento humano durante todas las etapas del desarrollo y su importante implicación en la educación. Las investigaciones sobre la curiosidad se dividen en dos grandes etapas (Loewenstein, 1994). La primera a inicios de la década de 1960, centrándose específicamente en tres cuestiones: (1) determinar las causas subyacentes de la curiosidad, (2) reflexionar sobre el porqué las personas buscan deliberadamente la curiosidad y (3) identificar los determinantes situacionales de la curiosidad. Aunque este período de investigaciones terminó sin lograr un gran impacto en la psicología, más adelante, a partir de 1970 y hasta finales de la década de 1980, la segunda etapa se centró en medir la curiosidad, y aunque no se logró producir escalas confiables y válidas, se hicieron aportes teóricos que intentaron definir a qué hace referencia la curiosidad, desarrollando diversas clasificaciones de este concepto.

No obstante, una deficiencia esencial de las tres grandes vertientes teóricas sobre curiosidad —las teorías pulsionales, la perspectiva de la incongruencia y el enfoque de la competencia—, desarrolladas en el período mencionado, es que, por separado, proporcionan una perspectiva incompleta de la curiosidad humana, y aún más importante, parece que las causas subyacentes de la curiosidad quedan sin respuesta (Loewenstein, 1994). Con base en estas limitaciones, Litman y Jimerson (2004) desarrollaron la noción de Curiosidad Epistémica (CE), originalmente propuesta por Berlyne (1954). El concepto ce hace referencia al deseo que motiva a las personas a adquirir nuevo conocimiento (i.e., conceptos, ideas y hechos), y eliminar lagunas de información con la finalidad de estimular sentimientos positivos de interés intelectual para reducir los estados indeseables de falta de información (Litman, 2008, 2019). Las fuentes de motivación para la CE son dos (Litman, 2005, 2007). Por un lado, tal como propone la teoría del nivel óptimo de excitación, las personas pueden ser curiosas porque consideran el aprendizaje de algo nuevo como algo emocionalmente gratificante y placentero (CE Tipo-I). Por otro, como asumen los teóricos de la pulsión, las lagunas de información producen sentimientos desagradables de incertidumbre, que las personas buscan reducir mediante la exploración y el aprendizaje (CE Tipo-D). La Tabla 1 muestra una perspectiva general de este constructo.

Tabla 1.


Características de la Curiosidad Epistémica Tipo-I y Tipo-D


Investigaciones previas muestran que, en el contexto escolar la ce Tipo-I está asociada con metas de logro orientadas a la maestría, las cuales conducen a un mayor interés y compromiso; mientras que la Tipo-D predice las metas orientadas al desempeño o rendimiento, para las que la corrección, precisión y relevancia del conocimiento recién adquirido son aspectos fundamentales (Litman, 2008).

En el lugar de trabajo, la evidencia disponible señala que la CE Tipo-I estimula la motivación para desarrollar nuevas habilidades, y la Tipo-D impulsa la búsqueda de información necesaria para hacer frente a problemas o situaciones novedosas (Litman et al., 2010).

De manera adicional, estudios recientes señalan a la curiosidad como una de las virtudes cognitivas o epistémicas que los ciudadanos de una sociedad democrática moderna deben poseer (Kahan et al., 2017; Orona & Pritchard, 2022). En particular, porque las personas con un alto nivel de curiosidad tienden a explorar múltiples fuentes de información que pueden contradecir sus creencias prestablecidas, poniendo en marcha estrategias cognitivas y metacognitivas que les permiten informar sus juicios epistémicos (Barzilai & Chinn, 2018). Esto hace que la curiosidad sea un elemento importante, en un mundo en el que la adopción de creencias epistémicamente injustificadas (Lobato et al., 2014), como la ideología de la tierra plana (Landrum et al., 2021) y la confianza en las noticias falsas (Molina et al., 2022), son fenómenos que van en aumento. Tendencia que ha promovido esfuerzos para incorporarla, como parte del currículo escolar y la formación de los individuos (Chinn et al., 2021; Orona & Pritchard, 2022).

Dicho lo anterior, es importante contar con escalas de curiosidad que hayan sido validadas psicométricamente, en el mayor número de contextos posible. En este sentido, la de Litman ha sido analizada en siete estudios (Huang et al., 2010; Karandikar et al., 2021; Litman, 2008; Litman et al., 2010; Litman & Mussel, 2013; Piotrowski et al., 2014), utilizando su versión original en inglés, así como traducciones al alemán, chino, hindi y neerlandés. En todos ellos, se contrastó un modelo unifactorial con uno bifactorial y se encontró que el segundo tuvo siempre un mejor ajuste. Adicionalmente, la consistencia interna fue muy buena (α ≥ .70), al igual que las cargas factoriales (> .45).

Los hallazgos de estas investigaciones indican que, muy probablemente, la escala de CE I/D posee: (1) la estructura teórica propuesta, (2) una buena consistencia interna en sus dos dimensiones, así como (3) ítems con correlaciones entre moderadas y altas con la ce. No obstante, la mayoría de las validaciones psicométricas del inventario de CE (71%) se han realizado en sociedades educadas, industrializadas, ricas y democráticas, como las de EE. UU., Alemania y los Países Bajos, y sólo dos en comunidades de otra índole como China (Huang et al., 2010) e India (Karandikar et al., 2021). En consecuencia, es necesario evaluar la escala fuera de contextos anglosajones o europeos, pues la evidencia señala que la estructura de constructos que se creían universales, como la de los cinco grandes factores de la personalidad, no se ha podido replicar, cuando se han estudiado en sociedades de pequeña escala, en algunos países de bajos ingresos y para ciertas lenguas (Smaldino et al., 2019).

El presente estudio representa el primer esfuerzo que evalúa psicométricamente el inventario de ce I/D en un contexto mexicano e hispanohablante. Los objetivos de la investigación son los siguientes: (1) comparar dos modelos estructurales de ce, el unidimensional y el bidimensional, que han sido evaluados en estudios previos; (2) examinar los residuales correlacionados entre ítems, pues este tipo de asociaciones se han observado en las versiones china (Huang et al., 2010) y neerlandesa (Piotrowski et al., 2014) del inventario, lo que puede afectar negativamente el ajuste de los modelos y producir estimaciones de consistencia interna infladas (Flora, 2020; Heene et al., 2012; Pascual-Ferrá & Beatty, 2015); (3) evaluar la invarianza configural, métrica, escalar y estricta (Putnick & Bornstein, 2016; Van de Schoot et al., 2012), con respecto al género o sexo.


Método

Diseño o tipología del estudio

Aunque existen varios sistemas de clasificación para los diseños de investigación empírica en psicología, en este estudio se utilizó la desarrollada por Ato et al. (2013). En tal sentido, se realizó una investigación instrumental, que es una categoría en la que se incluyen todos aquellos trabajos que analizan las propiedades psicométricas de nuevos instrumentos de medida o de pruebas ya existentes, que han sido traducidas y adaptadas.


Participantes

El presente estudio utilizó una muestra de conveniencia compuesta por 334 personas mayores de edad (245 mujeres y 89 hombres) de la zona urbana de la ciudad de Culiacán, capital del estado de Sinaloa, en el noroeste de México. El rango de edad fue de 18 años a 50 años (M=33, DE = 9). La escolaridad de los participantes se distribuyó de la siguiente manera: 6% primaria, 14% secundaria, 20% bachillerato, 6% carrera técnica, 58% licenciatura y el 1% posgrado. Por lo que la muestra no es representativa de la población en la que se aplicó el instrumento, ya que no se implementó ninguno de los tipos de muestreo probabilístico reconocidos en la literatura (Sarstedt et al., 2018). No obstante, aun con sus limitaciones, el muestreo por conveniencia es un método de captación de participantes aceptado en investigaciones en educación y psicología (Mosleh et al., 2021; Wootton et al., 2022). Únicamente se incluyeron personas mayores de edad, debido a que el inventario original en inglés está diseñado para esta categoría de individuos, y no hay adaptaciones para niños y adolescentes.


Instrumentos

Se utilizó la Escala de Curiosidad Epistémica (Epistemic Curiosity Scale, SCE) de Litman et al. (2010), traducida al español de México. La escala está conformada por 10 ítems, divida en dos subdimensiones: CE Tipo-I (5 ítems) y CE Tipo-D (5 ítems). El intervalo de respuesta en la escala Likert es de 1 = casi nunca, 2 = a veces, 3 = a menudo y 4 = casi siempre. La Tabla 2 muestra ejemplos de ítems para ambos tipos de ce.

Tabla 2.


Ítems traducidos de la Escala de Curiosidad Epistémica de Litman


Procedimiento

La adaptación lingüística de la escala se hizo en cuatro etapas. En la primera, un grupo de investigadores —hablantes nativos de español del campo de la educación, con dominio del idioma inglés—, realizó una traducción directa de la escala del inglés al español (American Educational Research Association et al., 2014; Gonzáles-Bueno et al., 2017). En la segunda etapa, otro grupo de investigadores —hablantes nativos de inglés con dominio del español— hizo una traducción inversa o retrotraducción del español al inglés (Sierra et al., 2013), para verificar y precisar la estructura semántica de los ítems. En un tercer momento, considerando las modificaciones surgidas de las traducciones se implementó la estrategia de jueces inter pares, con la finalidad de llegar a un consenso en la estructura del instrumento. Por último, se realizó una prueba piloto con el objetivo de detectar problemas de claridad y compresión en el instrumento (Reyes-Sosa & Molina-Coloma, 2018; Streiner & Norman, 2008), concluyéndose, con base en los comentarios obtenidos, que no se debía alterar la redacción de los ítems.

El cuestionario en su versión final se administró mediante la plataforma Google Forms y se envió a los participantes a través del correo electrónico y WhatsApp, entre el 20 y el 31 de agosto del 2021. Es importante especificar que previo al envío del cuestionario, a cada participante se le presentó el estudio y su finalidad. Así, una vez autorizaban participar se les solicitaba su información para enviarles el cuestionario. Al inicio del cuestionario se presentó una explicación del propósito de la investigación, y se les invitó a evaluar cada enunciado según su respuesta conforme a la escala. Además, se presentó un formato de consentimiento informado en donde se explicaba a los participantes que todas sus respuestas eran anónimas y que los resultados del estudio serían utilizados solo con fines académicos.


Aspectos éticos

El consentimiento informado y el procedimiento de la investigación se ciñeron a los lineamientos éticos de la Declaración y Acuerdos de Helsinki, los de la Sociedad Mexicana de Psicología (2010) y de la American Psychological Association (2020), para la investigación con humanos a través de medios digitales. Dado que la investigación es de tipo instrumental —que reúne datos totalmente anónimos a través de Internet y no evalúa constructos psicológicos clínicos—, se considera que no representa riesgos conocidos para los participantes (Sánchez-Villena et al., 2022).


Análisis estadístico de datos

Todos los análisis se hicieron en la versión 4.1.2, del lenguaje R para cálculo estadístico y RStudio como interfaz gráfica. Los análisis factoriales se realizaron mediante los paquetes lavaaan (Rosseel, 2012) y semTools (Jorgensen et al., 2021), en sus versiones 0.6-9 y 0.5-5 respectivamente. La normalidad de los datos se evaluó mediante el paquete mvnormalTest (Zhang et al., 2020), aplicando el test de Mardia para la de tipo multivariante, y el de Shapiro-Wilk para la univariante. No se realizó un Análisis Factorial Exploratorio (AFE), ya que es un método que se debe utilizar si no existe una fuerte justificación a priori para un modelo teórico particular (Auerswald & Moshagen, 2019), y la estructura latente de la escala de Litman ha sido evaluada en siete estudios. Por tanto, se procedió a realizar Análisis Factoriales Confirmatorios para contrastar los modelos.

Sin embargo, el método de estimación no fue el de Máxima Verosimilitud o ML (Maximum Likehood). Este estimador asume que los datos son continuos y se ajustan a una distribución normal multivariada, lo que frecuentemente no es así en las ciencias sociales y del comportamiento. En estas áreas a menudo se emplean escalas con opciones de respuesta que siguen una escala ordinal tipo Likert, las cuales deben tratarse como datos discretos (Shi et al., 2020). Aplicar el estimador ml a la matriz de covarianza de datos categóricos ordenados, introduce errores en la especificación del modelo, produciendo estimaciones de parámetros sesgadas, errores estándar inexactos y una estadística de x2 engañosa (Sellbom & Tellegen, 2019; Shi et al., 2020; Verhulst & Neale, 2021; Xia & Yang, 2019). Por estas razones, las recomendaciones recientes (DiStefano et al., 2019; Sellbom, & Tellegen, 2019) indican que es mejor realizar un análisis factorial ordinal, mediante una versión con corrección robusta del estimador dwls (Diagonally Weighted Least Squares), que para este estudio fue el de medias ajustadas wlsm (Weighted Least Squares Means adjusted).


Factores que afectan el ajuste del modelo

Existe una serie de factores que pueden afectar sustancialmente los resultados de los análisis factoriales, y dar lugar a soluciones inadmisibles, como son las cargas factoriales bajas, entre otras consecuencias indeseables. Uno de estos elementos son los valores atípicos multivariantes, es decir, casos con puntaciones extremas en múltiples variables o un patrón atípico de puntuaciones; la recomendación es buscar estos valores antes de realizar análisis factoriales (Bowen & Guo, 2012; Kline, 2015). Para este estudio, los datos atípicos se analizaron mediante el paquete myn de R (Korkmaz et al., 2014), aplicando el método cuantílico ajustado, basado en la distancia de Mahalanobis, en el que los valores por encima del cuantil 97.5 de la distribución x2 son considerados atípicos (Filzmoser et al., 2014).

Otro factor importante que afecta negativamente el ajuste, así como la consistencia interna, son los residuales correlacionados o correlaciones residuales, es decir, la diferencia entre las covarianzas o correlaciones observadas y las predichas por el modelo, entre cualquier par de ítems (Flora, 2020; Kline, 2015). Estas asociaciones fueron explícitamente modeladas, después de realizar un primer análisis factorial sin ellas, si presentaban valores ≥ | .100| (Bowen & Guo, 2012; Heene et al., 2012; Kline, 2015), comparando posteriormente, los modelos con y sin residuales modelados. Así mismo, debido a que este tipo de correlaciones produce alfas de Cronbach (a) inexactos e inflados (Pascual-Ferrá & Beatty, 2015), se decidió incluir el Omega de McDonald (œ), ya que al añadir estas asociaciones en el modelo factorial, œ es más confiable que a (Flora, 2020; McNeish, 2018). Se puede argumentar que, para datos categóricos el alfa ordinal es un mejor indicador. No obstante, aunque atractiva, esta estadística de fiabilidad es cuestionable y su uso debe evitarse (Chalmers, 2018; Flora, 2020).


Criterios utilizados para evaluar el ajuste del modelo

Para determinar el nivel de ajuste de los modelos se utilizaron los valores propuestos por Doğan y Özdamar (2017), así como por Sideridis y Jaffari (2021), para los índices de bondad de ajuste con excepción del srmr. Para este último, se usó el valor recomendado por Heene et al. (2011) y por McNeish y Wolf (2021). Adicionalmente, se incorporó el ecyi {Expected Cross-Validation Index), como medida de comparación entre el modelo unidimensional y el bidimensional, en el que el mejor modelo es el que presenta un valor más bajo (King-Kallimanis et al., 2011).

La invarianza configural se evaluó utilizando los valores citados en el párrafo anterior. Sin embargo, no hay consenso acerca de qué índices denotan un mejor ajuste, ni existe un conjunto de valores que puedan ser útiles para todas las situaciones con respecto a la invarianza métrica, la escalar y la estricta (Putnick & Bornstein, 2016). Por tanto, se utilizó la significancia de Δx2 (p > .05), así como las pautas propuestas por Chen (2007) para cuando los tamaños de muestra son desiguales y el tamaño de cada grupo es menor que 300. Para la invarianza métrica, el modelo tuvo que cumplir con los siguientes requisitos: ΔCFI ≥ -.005, ΔRMSEA ≤ .010, y ΔSRMR ≤ .025. A la invarianza escalar y estricta, se les aplicaron los mismos criterios, con la excepción de ΔRMSEA, que tuvo un umbral más riguroso (≤ .005). Adicionalmente, se consideraron valores de CFI y TLI ≥ .95, junto con un SRMR ≤ .10 (Rutkowski & Svetina, 2014).


Resultados

Análisis descriptivos de los ítems

La Tabla 3 expone los valores del análisis descriptivo y de normalidad de los ítems, el ítem 5 muestra el mayor puntaje promedio (M = 3.25), y el ítem 2 muestra el valor más bajo (M = 2.11).

Tabla 3.


Medias, desviaciones estándar, asimetría y curtosis de la Escala de Curiosidad Epistémica

Nota. Min = Mínimo; Max = Máximo; As =Asimetría; Curt =Curtosis.


Aunque los valores de asimetría y curtosis de la Tabla 3 están por debajo del límite de ±3 para el primer indicador, y de ±10 para el segundo, recomendados por Kline (2015), los valores p del test de Mardia para normalidad multivariante, así como los de la prueba de Shapiro-Wilk para la univariante fueron < .05, indicando la ausencia de normalidad en los datos, lo que justifica el estimador utilizado para el análisis factorial de este estudio.


Evaluación del modelo unifactorial de Curiosidad Epistémica

No se identificaron valores atípicos. No obstante, el Análisis Factorial Confirmatorio (AFC) no tuvo un buen ajuste. Varios de los índices tuvieron valores subóptimos, incluyendo el CFI, el NNFI-TLI y el RMSEA. La consistencia interna evaluada mediante el α de Cronbach y el ω de McDonald fue satisfactoria. Sin embargo, el análisis de correlaciones residuales identificó diecinueve duplas de este tipo de asociaciones (véase Tabla 4).

Tabla 4.


Correlaciones residuales entre ítems para el modelo unifactorial


Después de agregar las correlaciones de la Tabla 4 al modelo, los índices indicaron un ajuste excelente, con excepción del ω de McDonald que disminuyó su valor de .79 a .67. La Tabla 5 presenta una comparación de los análisis factoriales de ambos modelos. A su vez, mientras que todos los ítems del modelo sin residuales correlacionados tuvieron cargas factoriales ≥ .398, al incluirlas en el modelo tres ítems tuvieron cargas factoriales < .374 (véase Tabla 6).

Tabla 5.


Resultados del análisis para los modelos unifactoriales sin y con correlaciones residuales modeladas

Nota. N = 334, gl = grados de libertad.


Tabla 6.


Cargas factoriales para los modelos unifactoriales con y sin correlaciones residuales modeladas


La invarianza de medición se evaluó utilizando el modelo con correlaciones, y se pudo comprobar que el modelo unidimensional posee invarianza configural, métrica, escalar y estricta. La Tabla 7 presenta los índices de bondad y el cambio o incremento (A) para cada tipo de invarianza.

Tabla 7.


Índices de bondad de ajuste y cambio o incremento para cada clase de invarianza del modelo unifactorial

Nota. N = 334; grupo 1 (Hombres) n = 89; grupo 2 (Mujeres) n = 245.


Evaluación del modelo bifactorial de Curiosidad Epistémica

Al igual que en el caso del modelo unifactorial, no se identificaron valores atípicos. La correlación entre la CE Tipo-I y la Tipo-D fue moderada (.54), y todos los índices de bondad, excepto la significancia de X2, indicaron un ajuste aceptable. El a de Cronbach y el ω de McDonald también tuvieron valores satisfactorios. No obstante, se identificaron seis correlaciones residuales que se incorporaron al modelo estructural. Al volver a ejecutar el AFC, se examinaron de nuevo estas asociaciones, encontrándose que la del ítem 4 con el 9, así como la del ítem 5 con el 7 —que originalmente eran de .083 y .093, respectivamente—, aumentaron hasta ser mayores que .116. Por tanto, se incluyeron en el modelo factorial (véase Tabla 8).

Tabla 8.


Correlaciones residuales entre ítems para el modelo bifactorial


Una vez que las correlaciones de la Tabla 8 se incorporaron al modelo estructural, la asociación entre ambos tipos de ce siguió estando moderada (.45), todos los índices, incluyendo la significancia de X2, mostraron un mejor ajuste, el ECYI disminuyó su valor con respecto al modelo bifactorial inicial, y el ω de McDonald no se vio afectado por el modelado de correlaciones. La Tabla 9 presenta los resultados del análisis para ambos modelos. Adicionalmente, a diferencia del caso del modelo unidimensional, en el que después de modelar los residuales correlacionados, tres ítems presentaron cargas < .398, en el bidimensional, todos los ítems tuvieron cargas ≥ .495 (véase Tabla 10).

Tabla 9.


Resultados del análisis para los modelos bifactoriales con y sin correlaciones residuales modeladas

Nota. N = 334, gl = grados de libertad.


Tabla 10.


Cargas factoriales para los modelos bifactoriales sin y con correlaciones residuales modeladas


La invarianza de medición se evaluó utilizando el modelo con correlaciones residuales modeladas. Los resultados indican que el modelo estructural propuesto tiene invarianza configural, métrica, escalar y estricta. La Tabla 11 muestra los índices de bondad y el cambio o incremento (Δ) para cada categoría de invarianza.

Tabla 11.


Índices de bondad de ajuste y cambio o incremento para cada clase de invarianza del modelo bifactorial

Nota. N = 334; grupo 1 (Hombres) n = 89; grupo 2 (Mujeres) n = 245.


Discusión

La presente investigación evaluó las propiedades psicométricas de la escala de CE I/D de 10 ítems desarrollada por Litman (2008), en un contexto mexicano e hispanohablante. Al igual que en estudios previos, se probó un modelo unifactorial y otro bifactorial. Inicialmente, el afc indicó que el segundo modelo tenía un mejor ajuste que el primero. Sin embargo, el examen de los residuales correlacionados encontró que el unidimensional tenía 19 asociaciones significativas de este tipo y el bidimensional, 8. Estas correlaciones se incorporaron como parte de los análisis factoriales y el ajuste mejoró de manera sustancial, en particular para el modelo unidimensional. Si bien, a partir de los índices de ajuste, se podría concluir que el modelo unidimensional es mejor que el bidimensional (véase Tabla 12), esta apreciación sería engañosa, como se explica a continuación.

Tabla 12.


Resultados del análisis para los modelos unifactorial y bifactorial con residuales correlacionados modelados

Nota. N = 334, gl = grados de libertad.


En primer lugar, el ECVI indica que el modelo bidimensional es ligeramente mejor que el de un factor. En segundo, el número de correlaciones residuales que hay que controlar es 58% menor en el modelo bifactorial (8 vs. 19). En tercero, la inclusión de un número tan alto de residuales correlacionados, como parte del modelo unidimensional, tuvo dos efectos perjudiciales significativos. Por un lado, la consistencia interna evaluada mediante el ω de McDonald se redujo sustancialmente, mientras que el a Cronbach se mantuvo constante, lo que indica que, ante la presencia de este fenómeno, a no es una medida confiable de consistencia interna (Flora, 2020; Pascual-Ferrá & Beatty, 2015). Por otro, tres ítems tuvieron un decremento importante en sus cargas factoriales, causando que la media de las cargas factoriales del modelo unifactorial fuese .485 y la del bifactorial .620 (véase Tabla 13).

Tabla 13.


Cargas factoriales para los modelos unifactorial y bifactorial con residuales correlacionados modelados


La invarianza de medición de la Escala de CE también se puso a prueba, y ambos modelos mostraron tener in-varianza con respecto al género de los participantes. Esto significa que los hombres y mujeres de la muestra: (1) conceptualizan la estructura factorial incluyendo los ítems de la misma manera (invarianza configural); (2) interpretan los ítems de forma idéntica (invarianza métrica), y (3) utilizan la escala de la misma manera (invarianza escalar). Además, se comprobó la equivalencia completa del modelo de medición (invarianza estricta), lo que garantiza la comparación de resultados entre los grupos analizados. En este sentido, es importante señalar que, de las siete evaluaciones psicométricas mencionadas en la introducción, solo dos intentaron comprobar la invarianza del inventario (Huang et al., 2010; Karandikar et al., 2021), lo que indica que este sigue siendo un tema poco estudiado con respecto a la Escala de ce de Litman.

En resumen, los resultados de esta investigación muestran que el modelo bidimensional de ce presenta un mejor ajuste que el modelo unidimensional, incluso cuando las correlaciones residuales han sido modeladas coincidiendo con estudios previos, y que posiblemente, la escala sea invariante con respecto al sexo de las personas. La Figura 1 muestra este modelo de primer orden con dos factores correlacionados.

Figura 1.


Modelo de primer orden con factores correlacionados de la Escala de ge


Ahora bien, esta investigación presenta dos grandes limitaciones que se exponen a continuación. Primero, aunque este es el primer estudio en un contexto latinoamericano, la muestra no fue representativa de la población, pues los participantes provienen de la zona urbana de una ciudad en el noroeste de México, y el número de hombres y mujeres fue desigual. Por tanto, los resultados no deben generalizarse a la población mexicana, ni a otras poblaciones hispanohablantes. Futuros estudios deberían utilizar una muestra más amplia y balanceada para evaluar las propiedades psicométricas de este inventario.

Segundo, si bien la inclusión de residuos correlacionados es un tema controvertido (Bandalos, 2021), la especificación post hoc de estos elementos es a menudo necesaria (Sellbom & Tellegen 2019), pues ignorar correlaciones sustanciales puede distorsionar en gran medida la solución (Ferrando et al., 2022). No obstante, su incorporación en los análisis realizados no se justificó teóricamente, lo que constituye una limitación (Domínguez-Lara, 2019) que debe ser subsanada en investigaciones subsecuentes, incluyendo el valor umbral para determinar si una correlación residual es significativa, ya que el usado en este estudio posiblemente haya sido demasiado bajo (Wahl et al., 2022).




Referencias

American Educational Research Association, American Psychological Association, & National Council on Measurement in Education. (2014). The Standards for Educational and Psychological Testing. American Educational Research Association; American Psychological Association; National Council on Measurement in Education.

American Psychological Association [APA]. (2020). Guidelines for the practice of telepsychology. American Psychological Association.

Ato, M., López-García, J. J., & Benavente, A. (2013). Un sistema de clasificación de los diseños de investigación en psicología. Anales de Psicología, 29(3), 1038-1059. https://doi.org/10.6018/analesps.29.3.178511

Auerswald, M., & Moshagen, M. (2019). How to determine the number of factors to retain in exploratory factor analysis: A comparison of extraction methods under realistic conditions. Psychological Methods, 24(4), 468-491. https://doi.org/10.1037/met0000200

Bandalos, D. L. (2021). Item meaning and order as causes of correlated residuals in confirmatory factor analysis. Structural Equation Modeling: A Multidisciplinary Journal, 28(6), 903-913. https://doi.org/10.1080/10705511.2021.1916395

Barzilai, S., & Chinn, C. A. (2018). On the goals of epistemic education: Promoting apt epistemic performance. Journal of the Learning Sciences, 27(3), 353-389. https://doi.org/10.1080/10508406.2017.1392968

Berlyne, D. E. (1954). A theory of human curiosity. British Journal of Psychology. General Section, 45(3), 180-191. https://doi.org/10.1111/j.2044-8295.1954.tb01243.x

Bowen, N. K., & Guo, S. (2012). Structural equation modeling. Oxford University Press.

Chalmers, R. P. (2018). On misconceptions and the limited usefulness of ordinal alpha. Educational and Psychological Measurement, 78(6), 1056-1071. https://doi.org/10.1177/0013164417727036

Chen, F. F. (2007). Sensitivity of goodness of fit indexes to lack of measurement invariance. Structural Equation Modeling: A Multidisciplinary Journal, 14(3), 464-504. https://doi.org/10.1080/10705510701301834

Chinn, C. A., Barzilai, S., & Duncan, R. G. (2021). Education for a "post-truth" world: New directions for research and practice. Educational Researcher, 50(1), 51-60. https://doi.org/10.3102/0013189X20940683

DiStefano, C., McDaniel, H. L., Zhang, L., Shi, D., & Jiang, Z. (2019). Fitting large factor analysis models with ordinal data. Educational andPsychologicalMeasurement, 79(3), 417-436. https://doi.org/10.1177/0013164418818242

Doğan, L, & Òzdamar, K. (2017). The effect of different data structures, sample sizes on model fit measures. Communications in Statistics-Simulation and Computation, 46(9), 7525-7533. https://doi.org/10.1080/03610918.2016.1241409

Domínguez-Lara, S. (2019). Correlation between residuals in confirmatory factor analysis: A brief guide to their use and interpretation. Interacciones. Revista de Avances en Psicología, 5(3), Article e207. https://doi.org/10.24016/2019.v5n3.207

Ferrando, P. J., Hernández-Dorado, A., & Lorenzo-Seva, U. (2022). Detecting correlated residuals in exploratory factor analysis: New proposals and a comparison of procedures. Structural Equation Modeling: A Multidisciplinary Journal, 29(4), 630-638. https://doi.org/10.1080/10705511.2021.2004543

Filzmoser, P., Ruiz-Gazen, A., & Thomas-Agnan, C. (2014). Identification of local multivariate outliers. Statistical Papers, 55(1), 29-47. https://doi.org/10.1007/s00362-013-0524-z

Flora, D. B. (2020). Your coefficient alpha is probably wrong, but which coefficient omega is right? A tutorial on using R to obtain better reliability estimates. Advances in Methods and Practices in Psychological Science, 3(4), 484-501. https://doi.org/10.1177/2515245920951747

Gonzáles-Bueno, J., Calvo-Cidoncha, E., Sevilla-Sánchez, D., Espaulella-Panicot, J., Cordina-Jané, C., & Santos-Ramos, B. (2017). Traducción y adaptación transcultural al español del cuestionario arms para la medida de adherencia en pacientes pluripatológicos. Atención Primaria, 49(8), 459-464. http://dx.doi.org/10.1016lj.aprim.2016.11.008

Heene, M., Hilbert, S., Draxler, C., Ziegler, M., & Bühner, M. (2011). Masking misfit in confirmatory factor analysis by increasing unique variances: A cautionary note on the usefulness of cutoff values of fit indices. Psychological Methods, 16(3), 319-336. https://doi.org/10.1037/a0024917

Heene, M., Hilbert, S., Freudenthaler, H. H., & Bühner, M. (2012). Sensitivity of sem fit indexes with respect to violations of uncorrelated errors. Structural Equation Modeling: A Multidisciplinary Journal, 19(1), 36-50. https://doi.org/10.1080/10705511.2012.634710

Huang, D., Wang, L., Zhou, M., & Zhang, J. (2010). Gender difference in motives of knowledge searching: Measurement invariance and factor mean comparison of the interest/deprivation epistemic curiosity. In 2010 ieee 2nd Symposium on Web Society (pp. 258-263). ieee. https://doi.org/10.1109/SWS.2010.5607444

Jorgensen, T. D., Pornprasertmanit, S., Schoemann, A. M., Rosseel, Y., Miller, P., Quick, C., Garnier-Villareal, M., Selig, J., Boulton, A., Preacher, K., Coffman, D., Rhemtulla, M., Robitzsch, A., Enders, C., Arslan, R., Clinton, B., Panko, P., Merkle, E., Chesnut, S., ... & Johnson, A. R. (2021). semTools: Useful tools for structural equation modeling (R package version 0.5-5). cran. https://cran.r-project.org/web/packages/semTools/index.html

Kahan, D. M., Landrum, A., Carpenter, K., Helft, L., & Hall Jamieson, K. (2017). Science curiosity and political information processing. Political Psychology, 38, 179-199. https://doi.org/10.1111/pops.12396

Karandikar, S., Kapoor, H., & Litman, J. (2021). Why so curious? Validation and cross-cultural investigation of the Hindi Epistemic Curiosity Scale. Asian Journal of Social Psychology, 24(1), 69-82. https://doi.org/10.1111/ajsp.12425

Kashdan, T. B., & Silvia, P. J. (2009). Curiosity and interest: The benefits of thriving on novelty and challenge. In S. J. Lopez & C. R. Snyder (Eds.), Oxford handbook of positive psychology (pp. 367-374). Oxford University Press.

King-Kallimanis, B. L., Oort, F. J., Nolte, S., Schwartz, C. E., & Sprangers, M. A. (2011). Using structural equation modeling to detect response shift in performance and health-related quality of life scores of multiple sclerosis patients. Quality of Life Research, 20(10), 1527-1540. https://doi.org/10.1007/s11136-010-9844-9

Kline, R. B. (2015). Principles and practice of structural equation modeling (4th Edition). Guilford publications.

Korkmaz, S., Goksuluk, D., & Zararsiz, G. (2014). myn: An R package for assessing multivariate normality. The R Journal, 6(2), 151-162. https://doi.org/10.32614/RJ-2014-031

Landrum, A. R., Olshansky, A., & Richards, O. (2021). Differential susceptibility to misleading flat earth arguments on Youtube. Media Psychology, 24(1), 136-165. https://doi.org/10.1080/15213269.2019.1669461

Litman J. (2005). Curiosity and the pleasures of learning: Wanting and liking new information. Cognition & Emotion, 19(6), 793-814. https://doi.org/10.1080/02699930541000101

Litman, J. A. (2007). Curiosity as a feeling of interest and feeling of deprivation: The I/D model of curiosity. In P. R. Zelick (Ed.), Issues in the psychology of motivation (pp. 149-156). Nova Science Publishers.

Litman, J. A. (2008). Interest and deprivation factors of epistemic curiosity. Personality and Individual Differences, 44(7), 1585-1595. https://doi.org/10.1016/j.paid.2008.01.014

Litman, J. (2019). Curiosity: Nature, dimensionality, and determinants. In K. A. Renninger & S. E. Hidi (Eds.), The Cambridge handbook of motivation and learning (pp. 418-442). Cambridge University Press. https://doi.org/10.1017/9781316823279.019

Litman, J. A., & Jimerson, T. L. (2004). The measurement of curiosity as a feeling of deprivation. Journal of Personality Assessment, 82(2), 147-157. https://doi.org/10.1207/s15327752jpa8202_3

Litman, J. A., & Mussel, P. (2013). Validity of the inter-est-and deprivation-type epistemic curiosity model in Germany. Journal of Individual Differences, 34(2), 59-68. https://doi.org/10.1027/1614-0001/a000100

Litman, J. A., Crowson, H. M., & Kolinski, K. (2010). Validity of the interest-and deprivation-type epistemic curiosity distinction in non-students. Personality and Individual Differences, 49(5), 531-536. https://doi.org/10.1016/j.paid.2010.05.021

Lobato, E., Mendoza, J., Sims, V, & Chin, M. (2014). Examining the relationship between conspiracy theories, paranormal beliefs, and pseudoscience acceptance among a university population. Applied Cognitive Psychology, 28(5), 617-625. https://doi.org/10.1002/acp.3042

Loewenstein, G. (1994). The psychology of curiosity: A review and reinterpretation. Psychological Bulletin, 116(1), 75-98. https://doi.org/10.1037/0033-2909.116.1.75

McNeish, D. (2018). Thanks coefficient alpha, we'll take it from here. Psychological Methods, 23(3), 412-433. https://doi.org/10.1037/met0000144

McNeish, D., & Wolf, M. G. (2021). Dynamic fit index cutoffs for confirmatory factor analysis models. Psychological Methods. Advance online publication. https://doi.org/10.1037/met0000425

Molina, M. D., Wang, J., Sundar, S. S., Le, T., & DiRusso, C. (2022). Reading, commenting and sharing of fake news: How online bandwagons and bots dictate user engagement. Communication Research, Article 00936502211073398. https://doi.org/10.1177/00936502211073398

Mosleh, M., Pennycook, G., Arechar, A. A., & Rand, D. G. (2021). Cognitive reflection correlates with behavior on Twitter. Nature Communications, 12(1), 1-10. https://doi.org/10.1038/s41467-020-20043-0

Orona, G. A., & Pritchard, D. (2022). Inculcating curiosity: Pilot results of an online module to enhance undergraduate intellectual virtue. Assessment & Evaluation in Higher Education, 47(3), 375-389. https://doi.org/10.1080/02602938.2021.1919988

Pascual-Ferrá, P., & Beatty, M. J. (2015). Correcting internal consistency estimates inflated by correlated item errors. Communication Research Reports, 32(4), 347-352. https://doi.org/10.1080/08824096.2015.1089858

Piotrowski, J. T., Litman, J. A., & Valkenburg, P. (2014). Measuring epistemic curiosity in young children. Infant and Child Development, 23(5), 542-553. https://doi.org/10.1002/icd.1847

Putnick, D. L., & Bornstein, M. H. (2016). Measurement invariance conventions and reporting: The state of the art and future directions for psychological research. Developmental Review, 41, 71-90. https://doi.org/10.1016/j.dr.2016.06.004

Reyes-Sosa, H., & Molina-Coloma, V. (2018). Análisis psicométrico de una escala para medir el miedo al delito en jóvenes ecuatorianos. Acta colombiana de Psicología, 21(1), 290-299. https://doi.org/10.14718/ACP.2018.21.1.13

Rosseel, Y. (2012). Lavaan: An R Package for structural equation modeling. Journal of Statistical Software, 48(2), 1-36. https://doi.org/10.18637/jss.v048.i02

Rutkowski, L., & Svetina, D. (2014). Assessing the hypothesis of measurement invariance in the context of large-scale international surveys. Educational and Psychological Measurement, 74(1), 31-57. https://doi.org/10.1177/0013164413498257

Sánchez-Villena, A. R., Cedrón, E. F., De-la-Fuente-Figuerola, V., & Chávez-Ravines, D. (2022). Estructura factorial y datos normativos del Inventario de Depresión de Beck (BDI-II) en población general peruana. Acta Colombiana de Psicología, 25(2), 158-170. https://doi.org/10.14718/ACP.2022.25.2.10

Sarstedt, M., Bengart, P., Shaltoni, A. M., & Lehmann, S. (2018). The use of sampling methods in advertising research: A gap between theory and practice. International Journal of Advertising, 37(4), 650-663. https://doi.org/10.1080/02650487.2017.1348329

Sellbom, M., & Tellegen, A. (2019). Factor analysis in psychological assessment research: Common pitfalls and recommendations. Psychological Assessment, 31(12), 1428-1441. https://doi.org/10.1037/pas0000623

Shi, D., Maydeu-Olivares, A., & Rosseel, Y. (2020). Assessing fit in ordinal factor analysis models: SRMR VS. RMSEA. Structural Equation Modeling: A Multidisciplinary Journal, 27(1), 1-15. https://doi.org/10.1080/10705511.2019.1611434

Sideridis, G. D., & Jaffari, F. (2022). An R function to correct fit indices and omnibus tests in confirmatory factor analysis. Measurement and Evaluation in Counseling and Development, 55(1), 48-70. https://doi.org/10.1080/07481756.2021.1906159

Sierra, F. A., Sánchez, R., & Ibáñez, C. (2013). Adaptación transcultural de la escala Daily Spiritual Experience Scale para su uso en Colombia. Revista Colombiana de Cancerología, 17(4), 149-157. https://doi.org/10.1016/S0123-9015(13)70162-8

Smaldino, P. E., Lukaszewski, A., Von Rueden, C., & Gurven, M. (2019). Niche diversity can explain cross-cultural differences in personality structure. Nature Human Behaviour, 3(12), 1276-1283. https://doi.org/10.1038/s41562-019-0730-3

Sociedad Mexicana de Psicología. (2010). Código ético del psicólogo. Trillas.

Streiner, D. l., & Norman G. R. (2008). Health measurement scales. A practical guide to their development and use. Oxford University Press.

Van de Schoot, R., Lugtig, P., & Hox, J. (2012). A checklist for testing measurement invariance. European Journal of Developmental Psychology, 9(4), 486-492. https://doi.org/10.1080/17405629.2012.686740

Verhulst, B., & Neale, M. C. (2021). Best practices for binary and ordinal data analyses. Behavior Genetics, 51(3), 204-214. https://doi.org/10.1007/s10519-020-10031-x

Wahl, A. K., Hermansen, Â., Tschamper, M. B., Osborne, R. H., Helseth, S., Jacobsen, R., & Larsen, M. H. (2022). The Parent Health Literacy Questionnaire (HLQ-Parent). Adaptation and validity testing with parents of children with epilepsy. Scandinavian Journal of Public Health, Article 14034948221123436. https://doi.org/10.1177/14034948221123436

Wootton, A. R., Rice, D. R., McKowen, A. L. W., & Veldhuis, C. (2022). A mixed-methods and prospective approach to understanding coping behaviors, depression, hopelessness, and acute stress in a us convenience sample during the coviD-19 pandemic. Health Education & Behavior, 49(2), 219-230. https://doi.org/10.1177/10901981221084272

Xia, Y., & Yang, Y. (2019). rmsea, cm, and tli in structural equation modeling with ordered categorical data: The story they tell depends on the estimation methods. Behavior Research Methods, 51(1), 409-428. https://doi.org/10.3758/s13428-018-1055-2

Zhang, Y., Zhou, M., Shao, Y., & Zhang, M. Y. (2020). mv-normalTest: Powerful Tests for Multivariate Normality. cran. https://CRAN.R-project.org/package=mvnormalTest




Inicio