Está en la página 1de 3

La siguiente información fue adaptada en su totalidad por Luis A. León H. de: Kline, R.B. (1998).

Principles and practice of Structural Equation Modeling. Nueva York: The Guilford Press.

CONFIABILIDAD

Los adjetivos que describen la confiabilidad de una medición incluyen: consistencia, precisión y
repetibilidad. Las puntuaciones en las medidas confiables no se ven influenciadas en gran medida
por el error aleatorio. Debido a que hay diferentes tipos de error aleatorio, a menudo es necesario
evaluar diferentes aspectos de la confiabilidad en la medición. Hay cuatro tipos básicos de
confiabilidad: test-retest, formas alternas (o paralelas), interevaluadores y la confiabilidad
relacionada con conceptos como dos mitades (split-half) y la consistencia interna.

La confiabilidad test-retes implica la readministración de una medición al mismo grupo de sujetos


en una segunda ocasión. Si los dos puntajes están altamente correlacionados, indica que la
influencia del error aleatorio causado por sucesos que se produjeron en una sesión puede ser
mínima. La longitud del intervalo entre las evaluaciones debe ser adecuada a la medida; por
ejemplo, un intervalo de un año entre la primera y la segunda aplicación de un cuestionario sobre
el estado anímico de una persona, puede ser demasiado extenso; sin embargo, para una prueba
que supuestamente mide una variable más estable, un intervalo de un año puede que no sea
excesivamente largo para esperar altas correlaciones en el test-retest.

La confiabilidad de formas alternas consiste en la administración de diferentes mediciones que


miden la misma variable, ya sea dentro de una misma sesión (administración inmediata= o dentro
de un corto intervalo de tiempo (administración retardada). Las formas alternas, en teoría, cubren
la misma variable pero con un conjunto diferente de ítems. Si la correlación entre las dos
mediciones es alta, entonces el desempeño del sujeto puede verse poco afectado por los ítems
seleccionados para evaluar el constructo.
La confiabilidad interevaluadores es especialmente relevante para las mediciones evaluadas de
manera subjetiva: si los observadores independientes no concuerdan de manera consistente en
sus puntuaciones, los examinadores específicamente pueden ser un factor que contribuye a la
variabilidad de los resultados de la prueba.

El cuarto tipo se refiere a la consistencia de las respuestas de los sujetos dentro de una sola
prueba. La consistencia interna se refiere a la coherencia en las respuestas de cada ítem; mientras
que la confiabilidad dos mitades (split-half) se refiere a la estabilidad de las respuestas de los
sujetos a través de mitades separadas de la prueba. Ambos tipos de confiabilidad reflejan si el
contenido de la prueba puede ser tan heterogéneo que introduce inconsistencia de los sujetos. Si
es así, entonces una puntuación total general puede no ser la mejor unidad de análisis debido a
que los ítems no son unidemnsionales.

Algunos factores que pueden afectar la confiabilidad son la longitud de la prueba, las mediciones
con más ítems presentan tendencia a aumentar su validez. Debido a que la confiabilidad refleja
correlaciones, también tiende a aumentar cuando el rango de las diferencias individuales entre los
puntajes de los sujetos es mayor.

VALIDEZ

Mientras que la fiabilidad se refiere a la coherencia de los resultados, la validez se refiere –a


grandes rasgos- a la forma en que se deben interpretar. Un indicador puede ser confiable sin ser
válido; pero para que una medición sea válida, debe ser confiable.
Del mismo modo que la fiabilidad no se refiere a un único atributo de una prueba, el concepto de
validez es también multifacético. Hay cuatro tipos de validez descritos en la literatura de la
psicometría: validez de contenido, validez relativa al criterio, validez convergente y discriminante,
y validez de constructo.

La validez de constructo se refiere a si un indicador realmente mide el constructo que el


investigador supone; la validez de contenido, la validez relativa al criterio, y la validez convergente
y discriminante involucran aspectos particulares de esta cuestión y los métodos de evaluación de
la misma. Se obtiene mediante el análisis factorial y la matriz multirasgo-multimétodo.

La validez del contenido se refiere a si los ítems de un indicador realmente son representativos del
aspecto que se supone deberían medir. Su valoración no es una cuestión estadística, en su lugar la
opinión de los expertos sobre la representatividad de los ítems proporciona la base para evaluarla.
Es más relevante para constructos con dominios que son relativamente simples de delinear, sin
embargo el contenido exacto de muchos otros constructos estudiados por los científicos sociales
puede no ser tan claramente delineado. Cuando el constructo específico de algún dominio no está
bien delineado, es trabajo del investigador crear una definición operacional específica. Estas
definiciones no sólo guían la selección de indicadores, pues también permite evaluar si el
contenido de los indicadores es consistente con la definición propuesta por el investigador. Se
puede obtener mediante el jueceo de expertos.

La validez relativa al criterio analiza si una medida se relaciona con un patrón externo contra el
cual pueda ser evaluada. Estas relaciones son comúnmente evaluadas con correlaciones que son
llamadas coeficiente de validez, los cuales suelen representarse con el símbolo rXY’, donde l X se
refiere al predictor (la medida evaluada) y las Y a los criterios externos; si la correlación entre
ambos es alta, el resultado es evidencia positiva de validez relativa al criterio. De ella surgen la
validez concurrente es utilizada cuando las puntuaciones de del predictor y del criterio son
recolectadas al mismo tiempo; la validez predicitva, cuando el criterio es medido después; y, la
validez postdictiva, cuando el criterio es medido antes que el predictor. Se obtiene mediante la
fórmula general del coeficiente de validez.

Los conceptos de validez convergente y validez discriminante involucra la medición de varios


indicadores del constructo con distintos métodos. Cuando las mediciones de los indicadores
muestran validez convergente, es porque su intercorrelación es al menos moderada. Por otro lado,
si las mediciones de varios indicadores medidas por el mismo método muestran una
intercorrelación significativamente menor al compararla con la intercorrelación que muestran las
medidas del mismo indicador con diferentes métodos, hay evidencia de validez discriminante. Se
obtiene mediante la matriz multirrasgo-multimétodo.

También podría gustarte