Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Conceptos Centrales
Evaluación Psicológica: Proceso de toma decisiones cuyo objetivo es apuntar, con validez y confiabilidad, a
la tarea de solucionar un problema (individual, social, ambiental) a través de la recopilación, integración,
comparación de datos cuanti y cualitativos por medio de técnicas objetivas y proyectivas. El
psicodiagnóstico es una subárea de las evaluaciones psicológicas que tiene como objetivo dar sentido
aquello registrado y enunciado por el entrevistado. Los psicodiagnósticos posibilitan arribar a un
OM
diagnóstico y elaboración de un pronóstico y establecer estrategias de abordaje.
La cátedra sigue el modelo ecológico: Cuya formulación teórica explicita que la conducta se da la función
del sujeto y del ambiente, en influencia mutua. Como objetivo de este modelo se busca conocer la forma
en que el sujeto maneja las demandas del ambiente la manera en que actúa sobre el ambiente. Como
objeto, tiene la relación recíproca entre variables personales y contextuales.
- .C
Cuatro características sobre la perspectiva ecológica:
Psicodiagnóstico: subárea de las evaluaciones psicológicas que tiene como objetivo dar sentido aquello
LA
Confiabilidad
FI
La confiabilidad tiene que ver con que la prueba mida bien más allá de lo que mida. Una prueba confiable
es la que consistentemente genera la misma puntuación o una similar en el caso de un individuo. Una
medición puede ser confiable sin ser válida, pero no puede ser válida sin ser confiable. Permite evaluar si
1. Test-re test: Se obtiene aplicando la misma prueba a los mismos individuos en dos ocasiones diferentes.
Si la correlación entre resultados de las diferentes aplicaciones es altamente positiva, el instrumento es
confiable. El intervalo debe ser lo suficientemente largo para que la primera prueba ejerza una influencia
mínima en la segunda, pero no debe ser tan largo que el rasgo medido pueda sufrir un cambio verdadero
entre ambas. Desventaja: Siempre es la misma así que no evalúa cambios en el contenido en la prueba.
También el evaluado puede llegar acordarse de lo que contestó la primera vez que se le evaluó la prueba, o
equivocarse en la primera y después contestar bien en la segunda.
2. Confiabilidad entre calificadores: Se evalúa a quienes califican la prueba. Mínimo dos personas califican
la prueba y luego se correlacionan las puntuaciones que asigno cada calificador.
4. Consistencia Interna: Se utiliza cuando se interesa saber si los ítems o las partes del cuestionario
responden a las mismas especificaciones y si los ítems son representativos del constructo a estudiar. Es
importante que las partes del cuestionario representen al mismo dominio, además de que los ítems estén
bien construidos.
OM
A. División por mitades: La aplicación es de una sola prueba, pero se califica la misma por dos mitades y se
correlacionan. Mediante el método non-par y luego se correlaciona para obtener el valor de la
confiabilidad total de la prueba
.C
Cronbach cuando los ítems son politómicos y Kuder-Richardson cuando los ítems son dicotómicos
Error en el estándar de medición: El error estándar de medición tiene una relación inversa con la
DD
confiabilidad. Un instrumento altamente confiable, tiene un nivel de error pequeño. Un instrumento con
confiabilidad baja, mide su objeto con un alto índice de error. Por lo tanto, el mayor índice de error de
medición, menor confiabilidad, y viceversa. Es la diferencia de las puntuaciones observadas con respecto a
las puntuaciones verdaderas de las personas.
LA
le evalúa ingles obtendrá un puntaje inferior a sus capacidades de forma constante). Puede afectar a todas
las observaciones por igual y ser un error constante, o afectar a cierto tipo de observaciones, y ser un sesgo.
Es difícil predecir y controlar ya que está relacionado a factores casuales. Se suele decir que son tendencias
que desplazan las puntuaciones en una determinada dirección.
Error no sistemático: estos sí son los errores que dan problemas de confiabilidad. Las principales fuentes de
error son:
• Calificación de prueba: surge de la falta de acuerdo entre calificadores en los criterios para calificar
las puntuaciones de las personas en las pruebas. Cuanto más juicio (deliberación, pensar sobre ello,
cuanto más subjetivo) exija la calificación, más será posible la falta de confiabilidad. Para que esto no
suceda se debe contar con criterios de calificación claros y explícitos a fin de que se reduzca al mínimo
las variaciones entre calificaciones.
• Contenido de la prueba: las variaciones del muestreo de los reactivos de una prueba pueden generar
un error no sistemático en las puntuaciones. Las puntuaciones aumentan o disminuyen no por
diferencias reales sino por cambios aleatorios en el conjunto de los reactivos que se presentan a la
prueba (por ejemplo: de 6 temas, un alumno estudia los primeros 3 y el otro alumno estudia los otros
3; la profesora pregunta sobre los primeros 4 temas, los dos estudiaron la misma cantidad de temas
pero al primero le va mejor).
Validez
La validez refiere a lo que mide una prueba, es decir si la prueba mide lo que dice medir. Es una cuestión
de grado. Se debe ofrecer evidencia de que las puntuaciones en una prueba son indicadores del rasgo o
constructo de interés.
OM
Validez Aparente: La prueba “parece” medir su constructo meta. Nunca sustituirá la validez empírica, no
es posible tan solo ver una prueba y saber su grado de validez. Esto se utiliza en el caso de que dos pruebas
contengan una validez establecida en forma empírica, es preferible utilizar la que tiene mejor validez
aparente.
Validez de Constructo: Permite saber los ítems son representativos del constructo, es decir, si el
•
.C
constructo fue correctamente operacionalizado. Los métodos para corroborar esta validez son:
hay correlación.
• Correlación con otras pruebas: Se correlaciona la técnica con otra que mida el mismo constructo.
Validez de Criterio: Consiste en establecer el vínculo entre el desempeño en la prueba y en algún otro
criterio que se toma como indicador importante del constructo de interés, es decir, establecer la relación
FI
•
Validez Predictiva: Cuando la prueba busca pronosticar la condición de algún criterio a futuro. Se
correlaciona el desempeño en la prueba con algún otro criterio externo establecido a futuro
(ejemplo: aplico una prueba a un grado escolar, espero todo el año escolar y correlaciono los
puntajes del instrumento con las notas escolares obtenidas).
• Validez Concurrente: Se revisa la concordancia entre el desempeño en la prueba y la condición
actual en alguna otra variable. No se deja pasar tiempo entre la aplicación del instrumento y la
correlación con el criterio externo.
• Criterio externo: criterio externo que ofrece una definición realista del constructo de interés,
define lo que en específico se quiere conocer.
• Grupos de contraste: Se quiere demostrar que la prueba diferencia a un grupo de otro, cuanto
mejor sea la diferenciación entre grupos más valida será la prueba.
Validez de Contenido: Tiene que ver con la relación entre el contenido de una prueba y cierto campo de
conocimiento o comportamiento definido. Se puede hacer analizando los contenidos de la prueba a través
de diferentes jueces o comparar los resultados con otra prueba validada para saber si correlacionan.
Elaboración de pruebas
OM
1) Definición de la finalidad de la prueba: consiste en el o los rasgos que se medirán y la audiencia meta de
la prueba. Se debe determinar si ya existe una prueba apropiada. Se plantean las preguntas de porqué, para
qué construirlo. Se define el dominio del test. Se hace un análisis del dominio o rasgo a medir, así como un
rastreo de bibliografía sobre el constructo.
2) Aspectos de diseño preliminares: tomar decisiones sobre el diseño del instrumento. Deben abordarse los
.C
siguientes aspectos del diseño:
• Modo de aplicación: se aplicará de forma individual o grupal, la colectiva será más eficaz pero la
individual permite más adaptabilidad en los formatos de los reactivos y la observación clínica.
DD
• Duración: ¿cuánto durara la prueba? ¿será breve? ¿con qué período de aplicación? Una breve es más
eficaz, pero tendrá menos confiabilidad que una extensa
• Formato de reactivos: ¿qué formato se utilizará? Serán de opción múltiple, verdadero/falso,
construcción de respuestas (es más rica y más flexible pero más difícil de calificar)
• Cantidad de puntuaciones: ¿Cuántas puntuaciones generará la prueba?
LA
• Informes de las puntuaciones: ¿qué clase de reportes de puntuaciones se producirán? ¿se hará un
registro simple escrito a mano o un conjunto elaborado de informes? ¿Se informará solamente el
puntaje total de la prueba o el desempeño en conjuntos de reactivos?
• Capacitación del aplicador: ¿Cuánta capacitación necesitará para la aplicación y calificación de la
FI
• Necesidad práctica
• Necesidad teórica
• Revisar o adaptar las pruebas existentes: la idea es conservar lo más posible la estructura
fundamental del instrumento, pero con una modificación para poblaciones especiales
3) Preparación de reactivos: No debe realizarse hasta que se haya definido la finalidad de la prueba u
explorado de manera minuciosa las consideraciones de diseño preliminares.
• Consideraciones para redactar los reactivos: Una regla práctica consiste en preparar 2 o 3 veces más
reactivos de los necesarios para la prueba final. Deben tener claridad semántica, adecuación al nivel
madurativo y educativo de la población, utilizar la cantidad suficiente de reactivos, etc.
OM
Formato de respuesta: Incluye factores respecto de si este es un reactivo de opción múltiple o de
construcción de respuesta.
Condiciones que rigen la respuesta: Se hallan variables como el límite de tiempo para responder o si quien
aplica la prueba puede sondear las respuestas ambiguas y cómo se registra.
El procedimiento para calificar: Por ejemplo, si es opción múltiple podría calificarse como correcto o
.C
incorrecto, o que se de crédito parcial por elegir ciertas opciones (por ejemplo, en el WAIS si se ofrece buena
respuesta es 2 sino 1 o 0).
Tipos de reactivos de las pruebas
DD
Reactivos de selección de respuesta: Al examinado se le presentan al menos dos opciones de respuesta de
las cuales debe elegir una. 3 ventajas: dado que la calificación no exige juicio, la confiabilidad entre los
calificadores o entre jueces es en esencia perfecta; eficacia temporal y por último la eficacia de la calificación,
ya que un empleado o escáner electrónico pueden calificar estos reactivos de manera veloz.
LA
4) Análisis de los reactivos: etapa crucial que conlleva el análisis de datos obtenidos al someter a prueba los
reactivos. Los reactivos se eligen para su inclusión en la prueba final con base en este análisis, el cual consiste
en diversos procesos.
Prueba de reactivos: una etapa formal y otra informal. Los datos del análisis de reactivos se basan en la
prueba formal. Sin embargo antes de realizar esta, se lleva a cabo una prueba informal de los reactivos del
instrumento. Esta aplicación informal se le pide a los individuos que comenten los reactivos y las
instrucciones o que piensen en voz alta, así el creador puede identificar formulaciones ambiguas,
interpretaciones inesperadas de un reactivo, confusión sobre métodos de respuesta, etc. La prueba formal
supone aplicar los nuevos reactivos de la prueba a muestras de examinados que sean representativas de la
población meta del instrumento.
• Si la prueba tiene formas alternas, para que las normas se apliquen a todas las formas, éstas deben
corresponderse.
• Si el instrumento posee más de un nivel, entonces es menester hacer que se correspondan.
• Si la prueba recién estandarizada es una revisión de un instrumento estandarizado de manera previa,
hay que ofrecer cuadros en los que se haga corresponder las normas de las ediciones anteriores con
las normas de la nueva.
6) Preparación de los materiales finales y publicación: la etapa final del proceso de elaboración de una
prueba es la publicación. Tiene que ver con las instrucciones de aplicación e interpretación, los manuales
OM
técnicos, los reportes de puntuaciones y otros materiales complementarios. Una prueba publicada cuenta
con un manual técnico que es la fuente de información fundamental sobre la finalidad, los fundamentos y la
estructura de la prueba, mismo que debe contener información acerca de la confiabilidad, validez y
procedimiento de normalización del instrumento. El proceso nunca está completo ya que, al momento de
su publicación, no hay prueba para la que se haya hecho una demostración exhaustiva de su validez. Además,
siempre surgen interrogantes sobre su aplicación a diversas poblaciones especiales. Una prueba publicada
.C
siempre está sujeta a investigaciones adicionales. Las pruebas se revisan de forma periódica para determinar
si necesitan revisiones.
DD
Construcción
1. Definición del dominio del test:
• Definición del objetivo: Se establece cuál o cuáles serán los objetivos que se evaluarán a través de
la prueba (por ejemplo: la habilidad de comprensión, que incluye respuestas que se refieren
LA
2. Selección y elaboración de las escalas: La medición significa “asignar valores numéricos definidos por
escalas de medición, siendo estas las reglas por las cuales se asignan esos valores”. Se denomina
escalamiento al “proceso por el cual se transforman las puntuaciones en respuestas, puesto que las escalas
contribuyen instrumentos para medir algo, un rasgo o atributo”. Las escalas pueden clasificarse a lo largo
de un continuo del nivel de medición y denominarse por su naturaleza como nominales, ordinales, de
intervalo o de razón. El método de elaboración de escalas dependerá de las variables que se van a medir, el
grupo para el cual se pretende la prueba (los niños pueden requerir un método menos complicado que los
adultos) y de las preferencias del elaborador de la prueba.
3. Redacción de ítems: Existen pautas convencionales para la redacción de ítems de prueba. Estas incluyen
recomendaciones tales como: redactar ítems congruentes con el objetivo de medición y evitar los ítems
demasiado largos, las oraciones complejas con ambigüedades de sentido, las frases con dobles negaciones,
el uso de expresiones extremas (nunca, todos, siempre) y utilizar el lenguaje más apropiado al nivel de
maduración y educativo de la población. Los dos errores mas comunes son: ambigüedad (preguntas difusas
4. Revisión del test por expertos: La mayoría de los autores recomiendan que los ítems preliminares de un
test sean revisados por expertos en construcción de pruebas, en el dominio o rasgo a medir y en el nivel de
comprensión de la población a la cual se apunta con la prueba.
5. Análisis y selección de ítems: Existen varios procedimientos de análisis de los ítems de una prueba
preliminar, que se ocupan de la distribución de los puntajes en cada ítem y de la relación estadística entre
el ítem y la prueba total. El primer paso para obtener información psicométrica sobre los ítems de pruebas
homogéneas consiste en administrar los elementos preliminares a una muestra amplia representativa de la
población que se quiere evaluar en la prueba final. Para descartar ítems que no funcionan bien debe
OM
contarse con una cantidad de sujetos cinco veces superior al número inicial de reactivos y el doble de ítems
de los que aparecerán en la versión definitiva. Una vez aplicada la prueba piloto se podrán tomar
decisiones sobre cuáles de los ítems deberán integrarse a la forma final del test. El objetivo es que todos
los reactivos se relacionen con un núcleo común de medición que es el constructo o dominio. El análisis
factorial es un método para agrupar las variables que se correlacionan fuertemente entre sí y cuyas
correlaciones con las variables de otros agrupamientos es menor. Antes de realizar un análisis factorial
.C
debe determinarse si los ítems están suficientemente interrelacionados.
Adaptación
DD
Métodos de adaptación de test: Actualmente se reconoce que la adaptación de un test es un proceso más
complejo que la mera traducción de ese test a un idioma diferente. Se establecieron 3 niveles de
adaptación de las pruebas psicológicas:
• Aplicación: la simple traducción de un test de un idioma a otro. Este método asume la equivalencia
LA
Métodos para establecer la equivalencia entre test: una vez realizada la traducción se debe realizar el
estudio para establecer si esa traducción es equivalente a la original. Tres métodos:
OM
1.Traducción: Al menos cuatro traductores con conocimientos académicos en psicología deben traducir en
forma independiente.
2.Adaptación: Se someterá a cada ítem traducido al análisis de un grupo de al menos cinco jueces bilingües.
Ellos deberán evaluar en cada escala de cuatro puntos la equivalencia conceptual respondiendo a la consigna:
• Idéntico .C
comparando con el significado del ítem original, el significado del ítem que se ha traducido.
DD
• Bastante similar
• Bastante diferente
• Diferente
LA
3. Luego, dos investigadores o especialistas estudiarán los resultados obtenidos y seleccionarán los ítems
adaptados. Además, se deberán realizar los cambios necesarios en los ítems que así lo requieran a fin de
obtener la versión final del instrumento.
FI
4. Se realiza la Prueba Piloto a cargo de dos investigadores especialistas con entrevistas semidirigidas que
permitirán conocer la opinión de los participantes respecto de los ítems que presentan dificultad en el
instrumento.
Sesgo de Constructo: Cuando es constructo medido no es idéntico a través de los diferentes grupos
culturales que se estudian.
Sesgo Metodológico:
Tests
Test Constructo Extra
NEO-PIR Es un instrumento de medida de la La personalidad es el conjunto de
personalidad; es decir, una prueba rasgos y cualidades que configuran
la manera de ser de una persona y
que evalúa la personalidad.
la diferencian de las demás.
OM
Concretamente, evalúa 5 factores
de personalidad; a su vez, cada
factor se compone de seis rasgos o
dimensiones.
WAIS Evalúa el constructo inteligencia,
OM
.C
DD
LA
FI