Está en la página 1de 10

Técnicas Psicométricas

Conceptos Centrales
Evaluación Psicológica: Proceso de toma decisiones cuyo objetivo es apuntar, con validez y confiabilidad, a
la tarea de solucionar un problema (individual, social, ambiental) a través de la recopilación, integración,
comparación de datos cuanti y cualitativos por medio de técnicas objetivas y proyectivas. El
psicodiagnóstico es una subárea de las evaluaciones psicológicas que tiene como objetivo dar sentido
aquello registrado y enunciado por el entrevistado. Los psicodiagnósticos posibilitan arribar a un

OM
diagnóstico y elaboración de un pronóstico y establecer estrategias de abordaje.

La cátedra sigue el modelo ecológico: Cuya formulación teórica explicita que la conducta se da la función
del sujeto y del ambiente, en influencia mutua. Como objetivo de este modelo se busca conocer la forma
en que el sujeto maneja las demandas del ambiente la manera en que actúa sobre el ambiente. Como
objeto, tiene la relación recíproca entre variables personales y contextuales.

- .C
Cuatro características sobre la perspectiva ecológica:

- Multicontextual: Se analizan las variables multicontextuales.


Ecológico: Se analiza la conducta del sujeto en el propio contexto en que se produce.
DD
- Plurivariable: Se analizan características del sujeto, considerado como un contexto (intrapersonal)
- Interaccional: Se analiza relaciones de interdependencia entre variables, en busca de líneas de
conducta.

Psicodiagnóstico: subárea de las evaluaciones psicológicas que tiene como objetivo dar sentido aquello
LA

registrado y enunciado por el entrevistado. Posibilita arribar a un diagnóstico y elaboración de un


pronóstico y establecer estrategias de abordaje.

Confiabilidad
FI

La confiabilidad tiene que ver con que la prueba mida bien más allá de lo que mida. Una prueba confiable
es la que consistentemente genera la misma puntuación o una similar en el caso de un individuo. Una
medición puede ser confiable sin ser válida, pero no puede ser válida sin ser confiable. Permite evaluar si


una misma técnica funcionará de igual forma bajo diferentes condiciones.

Métodos para determinar la confiabilidad:

1. Test-re test: Se obtiene aplicando la misma prueba a los mismos individuos en dos ocasiones diferentes.
Si la correlación entre resultados de las diferentes aplicaciones es altamente positiva, el instrumento es
confiable. El intervalo debe ser lo suficientemente largo para que la primera prueba ejerza una influencia
mínima en la segunda, pero no debe ser tan largo que el rasgo medido pueda sufrir un cambio verdadero
entre ambas. Desventaja: Siempre es la misma así que no evalúa cambios en el contenido en la prueba.
También el evaluado puede llegar acordarse de lo que contestó la primera vez que se le evaluó la prueba, o
equivocarse en la primera y después contestar bien en la segunda.

2. Confiabilidad entre calificadores: Se evalúa a quienes califican la prueba. Mínimo dos personas califican
la prueba y luego se correlacionan las puntuaciones que asigno cada calificador.

Este archivo fue descargado de https://filadd.com


3. Confiabilidad de la forma alterna, paralela o equivalente: Exige que haya dos formas de la prueba,
mismas que deben ser iguales o muy similares en términos de la cantidad de reactivos, límites de tiempo,
específicos de contenido. El estudio consiste en aplicar ambas formas de la prueba que los mismos
examinados y ver si hay correlación. Desventaja: Reduce, pero no elimina el efecto de la práctica. Es
costoso y no hay muchas pruebas que tengan formas alternas.

4. Consistencia Interna: Se utiliza cuando se interesa saber si los ítems o las partes del cuestionario
responden a las mismas especificaciones y si los ítems son representativos del constructo a estudiar. Es
importante que las partes del cuestionario representen al mismo dominio, además de que los ítems estén
bien construidos.

Hay distintos métodos de medir consistencia interna:

OM
A. División por mitades: La aplicación es de una sola prueba, pero se califica la misma por dos mitades y se
correlacionan. Mediante el método non-par y luego se correlaciona para obtener el valor de la
confiabilidad total de la prueba

B. Coeficiente de alfa de Cronbach y fórmulas de Kuder-Richardson: Son procedimientos estadísticos que


evalúan cuan homogénea es la prueba. Cuanta más correlación más estable es. Se utiliza el alfa de

.C
Cronbach cuando los ítems son politómicos y Kuder-Richardson cuando los ítems son dicotómicos

Error en el estándar de medición: El error estándar de medición tiene una relación inversa con la
DD
confiabilidad. Un instrumento altamente confiable, tiene un nivel de error pequeño. Un instrumento con
confiabilidad baja, mide su objeto con un alto índice de error. Por lo tanto, el mayor índice de error de
medición, menor confiabilidad, y viceversa. Es la diferencia de las puntuaciones observadas con respecto a
las puntuaciones verdaderas de las personas.
LA

Es importante distinguir distintos tipos de errores que se pueden llegar a dar:


Error constante: es aquel que genera una puntuación sistemáticamente elevada o baja en una persona al
margen de la constancia que haya en la persona en el rasgo medido. Estos errores son aleatorios, constantes
y no sistematizados que no afectan a la confiabilidad (por ejemplo: si a niño de lengua materna español se
FI

le evalúa ingles obtendrá un puntaje inferior a sus capacidades de forma constante). Puede afectar a todas
las observaciones por igual y ser un error constante, o afectar a cierto tipo de observaciones, y ser un sesgo.
Es difícil predecir y controlar ya que está relacionado a factores casuales. Se suele decir que son tendencias
que desplazan las puntuaciones en una determinada dirección.


Error no sistemático: estos sí son los errores que dan problemas de confiabilidad. Las principales fuentes de
error son:

• Calificación de prueba: surge de la falta de acuerdo entre calificadores en los criterios para calificar
las puntuaciones de las personas en las pruebas. Cuanto más juicio (deliberación, pensar sobre ello,
cuanto más subjetivo) exija la calificación, más será posible la falta de confiabilidad. Para que esto no
suceda se debe contar con criterios de calificación claros y explícitos a fin de que se reduzca al mínimo
las variaciones entre calificaciones.
• Contenido de la prueba: las variaciones del muestreo de los reactivos de una prueba pueden generar
un error no sistemático en las puntuaciones. Las puntuaciones aumentan o disminuyen no por
diferencias reales sino por cambios aleatorios en el conjunto de los reactivos que se presentan a la
prueba (por ejemplo: de 6 temas, un alumno estudia los primeros 3 y el otro alumno estudia los otros
3; la profesora pregunta sobre los primeros 4 temas, los dos estudiaron la misma cantidad de temas
pero al primero le va mejor).

Este archivo fue descargado de https://filadd.com


• Aplicación de una prueba: se da por las variaciones de las aplicaciones, por ejemplo en cómo se da
la instrucción, los límites de tiempo, la luz, el ruido o las disposiciones físicas. Para esto, la prueba
debe contar con procedimientos estandarizados de aplicación donde deban ser controladas todas las
variables contaminantes.
• Condiciones personales: las condiciones de las personas varían de un día a otro. Pero las variaciones
en estos factores no generan automáticamente inestabilidad o falta de confiabilidad

Validez
La validez refiere a lo que mide una prueba, es decir si la prueba mide lo que dice medir. Es una cuestión
de grado. Se debe ofrecer evidencia de que las puntuaciones en una prueba son indicadores del rasgo o
constructo de interés.

OM
Validez Aparente: La prueba “parece” medir su constructo meta. Nunca sustituirá la validez empírica, no
es posible tan solo ver una prueba y saber su grado de validez. Esto se utiliza en el caso de que dos pruebas
contengan una validez establecida en forma empírica, es preferible utilizar la que tiene mejor validez
aparente.

Validez de Constructo: Permite saber los ítems son representativos del constructo, es decir, si el


.C
constructo fue correctamente operacionalizado. Los métodos para corroborar esta validez son:

Consistencia interna: como en la confiabilidad se utiliza la fórmula Kunder-Richardson o de


DD
Cronbach, si el coeficiente da superior, es que la prueba mide de manera consistente en su
constructo.
• Análisis Factorial: Se evalúa la correlación de los ítems con las dimensiones de la definición del
constructo que se quiere estudiar.
• Efecto de variables experimentales: Se administra la técnica a dos grupos opuestos y se evalúa si
LA

hay correlación.
• Correlación con otras pruebas: Se correlaciona la técnica con otra que mida el mismo constructo.

Validez de Criterio: Consiste en establecer el vínculo entre el desempeño en la prueba y en algún otro
criterio que se toma como indicador importante del constructo de interés, es decir, establecer la relación
FI

entre el desempeño en la prueba y la posición en algún otro constructo.

Hay dos criterios generales para la validez de criterio:




Validez Predictiva: Cuando la prueba busca pronosticar la condición de algún criterio a futuro. Se
correlaciona el desempeño en la prueba con algún otro criterio externo establecido a futuro
(ejemplo: aplico una prueba a un grado escolar, espero todo el año escolar y correlaciono los
puntajes del instrumento con las notas escolares obtenidas).
• Validez Concurrente: Se revisa la concordancia entre el desempeño en la prueba y la condición
actual en alguna otra variable. No se deja pasar tiempo entre la aplicación del instrumento y la
correlación con el criterio externo.

Los tres empleos comunes de la validez de criterio suponen el uso de:

• Criterio externo: criterio externo que ofrece una definición realista del constructo de interés,
define lo que en específico se quiere conocer.
• Grupos de contraste: Se quiere demostrar que la prueba diferencia a un grupo de otro, cuanto
mejor sea la diferenciación entre grupos más valida será la prueba.

Este archivo fue descargado de https://filadd.com


• Correlación con otras pruebas: Se utiliza cuando es probable que la nueva tenga mejores normas o
procedimientos de calificación más eficaces.

Validez de Contenido: Tiene que ver con la relación entre el contenido de una prueba y cierto campo de
conocimiento o comportamiento definido. Se puede hacer analizando los contenidos de la prueba a través
de diferentes jueces o comparar los resultados con otra prueba validada para saber si correlacionan.

Validez Ecológica: Se garantiza la representatividad de las características sociales de la población de la que


se extrajeron los sujetos experimentales. Trata de la semejanza entre las condiciones de investigación y las
condiciones que se encuentran en el mundo real.

Elaboración de pruebas

OM
1) Definición de la finalidad de la prueba: consiste en el o los rasgos que se medirán y la audiencia meta de
la prueba. Se debe determinar si ya existe una prueba apropiada. Se plantean las preguntas de porqué, para
qué construirlo. Se define el dominio del test. Se hace un análisis del dominio o rasgo a medir, así como un
rastreo de bibliografía sobre el constructo.
2) Aspectos de diseño preliminares: tomar decisiones sobre el diseño del instrumento. Deben abordarse los

.C
siguientes aspectos del diseño:

• Modo de aplicación: se aplicará de forma individual o grupal, la colectiva será más eficaz pero la
individual permite más adaptabilidad en los formatos de los reactivos y la observación clínica.
DD
• Duración: ¿cuánto durara la prueba? ¿será breve? ¿con qué período de aplicación? Una breve es más
eficaz, pero tendrá menos confiabilidad que una extensa
• Formato de reactivos: ¿qué formato se utilizará? Serán de opción múltiple, verdadero/falso,
construcción de respuestas (es más rica y más flexible pero más difícil de calificar)
• Cantidad de puntuaciones: ¿Cuántas puntuaciones generará la prueba?
LA

• Informes de las puntuaciones: ¿qué clase de reportes de puntuaciones se producirán? ¿se hará un
registro simple escrito a mano o un conjunto elaborado de informes? ¿Se informará solamente el
puntaje total de la prueba o el desempeño en conjuntos de reactivos?
• Capacitación del aplicador: ¿Cuánta capacitación necesitará para la aplicación y calificación de la
FI

prueba? ¿Quiénes implementan la prueba? ¿requieren adiestramiento profesional exhaustivo para


aplicar, calificar e interpretar el instrumento?
• Investigación de antecedentes: investigación de antecedentes sobre el ámbito que se probara, una
búsqueda de bibliografía estándar.


¿Qué motiva la elaboración de pruebas nuevas?

• Necesidad práctica
• Necesidad teórica
• Revisar o adaptar las pruebas existentes: la idea es conservar lo más posible la estructura
fundamental del instrumento, pero con una modificación para poblaciones especiales

3) Preparación de reactivos: No debe realizarse hasta que se haya definido la finalidad de la prueba u
explorado de manera minuciosa las consideraciones de diseño preliminares.

• Consideraciones para redactar los reactivos: Una regla práctica consiste en preparar 2 o 3 veces más
reactivos de los necesarios para la prueba final. Deben tener claridad semántica, adecuación al nivel
madurativo y educativo de la población, utilizar la cantidad suficiente de reactivos, etc.

Este archivo fue descargado de https://filadd.com


• Edición y revisión de los reactivos: Una vez redactados los reactivos, se someten a una revisión desde
varias perspectivas. Primero se revisan en función de su claridad, corrección gramatical y
conformidad con las reglas para la redacción de reactivos. En segundo lugar se hace una revisión de
la corrección de contenido. Y en tercer lugar se revisan en busca de posibles sesgos de género,
raciales, étnicos, etc. Luego son revisados por jueces especializados y se evalúa la validez de
contenido, permite saber si los ítems representan al constructo.
El reactivo de una prueba posee cuatro partes:
Estímulo: Se denomina a menudo la base del reactivo, ya que es a lo que responde el examinado. Puede ser
una pregunta, una imagen acompañada por una pregunta oral, etc. El reactivo debe tener una instrucción,
sino está incompleto.

OM
Formato de respuesta: Incluye factores respecto de si este es un reactivo de opción múltiple o de
construcción de respuesta.
Condiciones que rigen la respuesta: Se hallan variables como el límite de tiempo para responder o si quien
aplica la prueba puede sondear las respuestas ambiguas y cómo se registra.
El procedimiento para calificar: Por ejemplo, si es opción múltiple podría calificarse como correcto o

.C
incorrecto, o que se de crédito parcial por elegir ciertas opciones (por ejemplo, en el WAIS si se ofrece buena
respuesta es 2 sino 1 o 0).
Tipos de reactivos de las pruebas
DD
Reactivos de selección de respuesta: Al examinado se le presentan al menos dos opciones de respuesta de
las cuales debe elegir una. 3 ventajas: dado que la calificación no exige juicio, la confiabilidad entre los
calificadores o entre jueces es en esencia perfecta; eficacia temporal y por último la eficacia de la calificación,
ya que un empleado o escáner electrónico pueden calificar estos reactivos de manera veloz.
LA

Reactivos de construcción de respuesta: Se presenta un estímulo, pero no se restringe al examinado a elegir


un conjunto fijo de respuestas (él mismo debe crear o construir la respuesta). La calificación plantea desafíos
especiales ya que las respuestas pueden ser muy variadas. Hay dos factores clave para crear puntuaciones:
el primero consiste en asegurar la confiabilidad entre calificadores, el segundo es concebir un esquema de
FI

clasificación que varía dependiendo el tipo de prueba (ejemplo: WAIS).

4) Análisis de los reactivos: etapa crucial que conlleva el análisis de datos obtenidos al someter a prueba los
reactivos. Los reactivos se eligen para su inclusión en la prueba final con base en este análisis, el cual consiste


en diversos procesos.
Prueba de reactivos: una etapa formal y otra informal. Los datos del análisis de reactivos se basan en la
prueba formal. Sin embargo antes de realizar esta, se lleva a cabo una prueba informal de los reactivos del
instrumento. Esta aplicación informal se le pide a los individuos que comenten los reactivos y las
instrucciones o que piensen en voz alta, así el creador puede identificar formulaciones ambiguas,
interpretaciones inesperadas de un reactivo, confusión sobre métodos de respuesta, etc. La prueba formal
supone aplicar los nuevos reactivos de la prueba a muestras de examinados que sean representativas de la
población meta del instrumento.

5) Programas de estandarización y de investigación auxiliar: El programa de estandarización genera las


normas de la prueba. Se trata de un importante aspecto de la diligencia que se emprende al elaborar una
prueba. Pueden llevarse a cabo varios tipos de estudios como, por ejemplo, el test-retest sobre confiabilidad,

Este archivo fue descargado de https://filadd.com


entre otros. Hay 3 tipos de programas de equivalencia que podrían realizarse como parte o al mismo tiempo
que el programa de estandarización:

• Si la prueba tiene formas alternas, para que las normas se apliquen a todas las formas, éstas deben
corresponderse.
• Si el instrumento posee más de un nivel, entonces es menester hacer que se correspondan.
• Si la prueba recién estandarizada es una revisión de un instrumento estandarizado de manera previa,
hay que ofrecer cuadros en los que se haga corresponder las normas de las ediciones anteriores con
las normas de la nueva.

6) Preparación de los materiales finales y publicación: la etapa final del proceso de elaboración de una
prueba es la publicación. Tiene que ver con las instrucciones de aplicación e interpretación, los manuales

OM
técnicos, los reportes de puntuaciones y otros materiales complementarios. Una prueba publicada cuenta
con un manual técnico que es la fuente de información fundamental sobre la finalidad, los fundamentos y la
estructura de la prueba, mismo que debe contener información acerca de la confiabilidad, validez y
procedimiento de normalización del instrumento. El proceso nunca está completo ya que, al momento de
su publicación, no hay prueba para la que se haya hecho una demostración exhaustiva de su validez. Además,
siempre surgen interrogantes sobre su aplicación a diversas poblaciones especiales. Una prueba publicada

.C
siempre está sujeta a investigaciones adicionales. Las pruebas se revisan de forma periódica para determinar
si necesitan revisiones.
DD
Construcción
1. Definición del dominio del test:

• Definición del objetivo: Se establece cuál o cuáles serán los objetivos que se evaluarán a través de
la prueba (por ejemplo: la habilidad de comprensión, que incluye respuestas que se refieren
LA

únicamente a una comprensión de los mensajes literales contenidos en la comunicación)


• Descripción del objetivo: Se define en términos de conductas observables el o los objetivos a ser
evaluados (por ejemplo: se especificaría un objetivo)
• Especificación de las características de la situación de evaluación: Aquí se especifican todos
FI

aquellos aspectos a tener en cuenta en la situación de evaluación (por ejemplo: en un texto de


divulgación científica, marcar párrafo e identificar oración donde se expresa intención del autor)
• Características de la respuesta: Se especifica cual es la respuesta que se espera del sujeto


2. Selección y elaboración de las escalas: La medición significa “asignar valores numéricos definidos por
escalas de medición, siendo estas las reglas por las cuales se asignan esos valores”. Se denomina
escalamiento al “proceso por el cual se transforman las puntuaciones en respuestas, puesto que las escalas
contribuyen instrumentos para medir algo, un rasgo o atributo”. Las escalas pueden clasificarse a lo largo
de un continuo del nivel de medición y denominarse por su naturaleza como nominales, ordinales, de
intervalo o de razón. El método de elaboración de escalas dependerá de las variables que se van a medir, el
grupo para el cual se pretende la prueba (los niños pueden requerir un método menos complicado que los
adultos) y de las preferencias del elaborador de la prueba.

3. Redacción de ítems: Existen pautas convencionales para la redacción de ítems de prueba. Estas incluyen
recomendaciones tales como: redactar ítems congruentes con el objetivo de medición y evitar los ítems
demasiado largos, las oraciones complejas con ambigüedades de sentido, las frases con dobles negaciones,
el uso de expresiones extremas (nunca, todos, siempre) y utilizar el lenguaje más apropiado al nivel de
maduración y educativo de la población. Los dos errores mas comunes son: ambigüedad (preguntas difusas

Este archivo fue descargado de https://filadd.com


que admites varias respuestas) y trivalidad (centrarse en aspectos poco importantes del rasgo o dominio
en cuestión). Existe el formato de construcción de respuesta o de selección de respuesta.

4. Revisión del test por expertos: La mayoría de los autores recomiendan que los ítems preliminares de un
test sean revisados por expertos en construcción de pruebas, en el dominio o rasgo a medir y en el nivel de
comprensión de la población a la cual se apunta con la prueba.

5. Análisis y selección de ítems: Existen varios procedimientos de análisis de los ítems de una prueba
preliminar, que se ocupan de la distribución de los puntajes en cada ítem y de la relación estadística entre
el ítem y la prueba total. El primer paso para obtener información psicométrica sobre los ítems de pruebas
homogéneas consiste en administrar los elementos preliminares a una muestra amplia representativa de la
población que se quiere evaluar en la prueba final. Para descartar ítems que no funcionan bien debe

OM
contarse con una cantidad de sujetos cinco veces superior al número inicial de reactivos y el doble de ítems
de los que aparecerán en la versión definitiva. Una vez aplicada la prueba piloto se podrán tomar
decisiones sobre cuáles de los ítems deberán integrarse a la forma final del test. El objetivo es que todos
los reactivos se relacionen con un núcleo común de medición que es el constructo o dominio. El análisis
factorial es un método para agrupar las variables que se correlacionan fuertemente entre sí y cuyas
correlaciones con las variables de otros agrupamientos es menor. Antes de realizar un análisis factorial

.C
debe determinarse si los ítems están suficientemente interrelacionados.

Adaptación
DD
Métodos de adaptación de test: Actualmente se reconoce que la adaptación de un test es un proceso más
complejo que la mera traducción de ese test a un idioma diferente. Se establecieron 3 niveles de
adaptación de las pruebas psicológicas:

• Aplicación: la simple traducción de un test de un idioma a otro. Este método asume la equivalencia
LA

de constructo. Desafortunadamente es el método más común y el más utilizado.


• Adaptación: la traducción se agrega a la transformación, adición o sustracción de algunos ítems de
la escala original. Algunos ítems pueden cambiar su significado (eliminación o modif.)
• Ensamble: puede emerger al momento de adaptar un instrumento, en este caso el instrumento
FI

original ha sido modificado tan profundamente que prácticamente se ha transformado en un nuevo


instrumento. Esto ocurre cuando mucho de los ítems son evidentemente inadecuados para
representar el constructo a medir.


Técnicas de traducción: Existen dos métodos

• Traducción directa: un traductor o un grupo de traductores traducen el test desde el idioma


original al nuevo. Luego, otro grupo de traductores juzga la equivalencia entre las dos versiones.
• Traducción inversa: el más utilizado, donde un grupo de traductores realiza una traducción desde
el idioma original al nuevo idioma, luego un segundo grupo toma el test traducido y lo vuelven a
traducir al idioma original. Se realizan comparaciones entre las dos versiones.

Métodos para establecer la equivalencia entre test: una vez realizada la traducción se debe realizar el
estudio para establecer si esa traducción es equivalente a la original. Tres métodos:

• Administración de la prueba en el idioma original y de la prueba traducida a sujetos bilingües: se


aplica ambas versiones de las pruebas a sujetos que hablan ambos idiomas. La ventaja es que se
pueden controlar las diferencias de las características de los participantes en el test ya que ambas

Este archivo fue descargado de https://filadd.com


pruebas se administran a las mismas personas. La desventaja es que se basa en la premisa de que
los sujetos son igualmente competentes en ambos idiomas
• Administración de la versión original y su traducción inversa a monolingües en el idioma original:
se compara el desempeño de cada sujeto en cada ítem de ambas versiones. La ventaja nuevamente
está en el control de características de los participantes, y la desventaja está en que el diseño no
permite obtener datos con la versión del idioma meta. Además, puede existir un efecto de
aprendizaje entre la primera y la segunda prueba.
• Administración de la versión original a monolingües que hablan el idioma original y de la versión
traducida a monolingües que hablan el idioma meta.

Para realizar la adaptación de un instrumento se debería contemplar los siguientes pasos.

OM
1.Traducción: Al menos cuatro traductores con conocimientos académicos en psicología deben traducir en
forma independiente.

2.Adaptación: Se someterá a cada ítem traducido al análisis de un grupo de al menos cinco jueces bilingües.
Ellos deberán evaluar en cada escala de cuatro puntos la equivalencia conceptual respondiendo a la consigna:

• Idéntico .C
comparando con el significado del ítem original, el significado del ítem que se ha traducido.
DD
• Bastante similar
• Bastante diferente
• Diferente
LA

3. Luego, dos investigadores o especialistas estudiarán los resultados obtenidos y seleccionarán los ítems
adaptados. Además, se deberán realizar los cambios necesarios en los ítems que así lo requieran a fin de
obtener la versión final del instrumento.
FI

4. Se realiza la Prueba Piloto a cargo de dos investigadores especialistas con entrevistas semidirigidas que
permitirán conocer la opinión de los participantes respecto de los ítems que presentan dificultad en el
instrumento.


5. A través de la administración y el estudio del funcionamiento de la versión final obtenida se buscará la


consistencia interna de la prueba y estudiar la equivalencia de constructo que consiste en analizar hasta qué
punto las pruebas evalúan lo mismo en ambos grupos culturales.
6. Construcción de Baremos (Equivalencia métrica) luego de analizada la validez y confiabilidad de la prueba

Fuentes de Sesgo: “sesgo” es un error constante o sistemático (no al azar).

Sesgo de Constructo: Cuando es constructo medido no es idéntico a través de los diferentes grupos
culturales que se estudian.

Sesgo Metodológico:

- Sesgo de Muestra: Muestras incomparables entre sí.

Este archivo fue descargado de https://filadd.com


- Sesgo en el Instrumento: Familiaridad que los sujetos tienen con los estímulos presentados o el
idioma
- Sesgo de Administración: Incluye problemas tales como dificultades en la comunicación, o
alteraciones en la manera de administrar las pruebas.

Tests
Test Constructo Extra
NEO-PIR Es un instrumento de medida de la La personalidad es el conjunto de
personalidad; es decir, una prueba rasgos y cualidades que configuran
la manera de ser de una persona y
que evalúa la personalidad.
la diferencian de las demás.

OM
Concretamente, evalúa 5 factores
de personalidad; a su vez, cada
factor se compone de seis rasgos o
dimensiones.
WAIS Evalúa el constructo inteligencia,

.C definida como la capacidad para


actuar intencionalmente, pensar
DD
racionalmente y enfrentarse
efectivamente con el entorno.
Validez del tipo predictiva

LISRES-A Permite obtener un panorama


LA

integrado de los contextos


cotidianos de vida de un sujeto, es
decir, tanto de los sucesos de vida
FI

estresores que ponen en peligro su


bienestar. como de los recursos
disponibles con los que cuenta para


enfrentar dichos problemas, su red


social de apoyo que atenúa el
impacto negativo del estresor.

CRI-A Analiza la interacción entre el


individuo y su entorno a partir del
afrontamiento definido como
aquellos esfuerzos cognitivos y
conductuales constantemente
cambiantes que se desarrollan para
manejar las demandas específicas
externas y /o internas.

Este archivo fue descargado de https://filadd.com


BDI Test de screening, identificar
depression mayor.

OM
.C
DD
LA
FI


Este archivo fue descargado de https://filadd.com

También podría gustarte