Está en la página 1de 13

INTRODUCCIÓN A LA MEDICIÓN PSICOLÓGICA JULIE

La Medición es un problema inherente al desarrollo de la Psicometría y de la Psicología científica.

Hoy en día la medición se toma, en general, como la asignación de números a entidades o eventos
con el fin de representar sus propiedades y relaciones.

La polémica surgió cuando en lugar de querer medir atributos físicos, se intentaron medir atributos
psicológicos. La mayoría de los atributos psicológicos son conceptos abstractos, constructos
teóricos (variables latentes), cuya medición no puede llevarse a cabo de forma directa, sino que
debe inferirse a través de la medición de una serie de conductas representativas de dicho constructo.
Este tipo de medición suele llamarse medición por indicadores.

La escala psicológica es una: Técnica de valoración empleada en estudios relacionados con la


medición o cuantificación de ciertas capacidades psicológicas de un individuo. Las escalas
psicológicas suelen ser de dos tipos: de sujetos y de objetos. En las escalas psicológicas de sujetos,
el individuo lleva a cabo una valoración de distintos aspectos acerca de sí mismo como, por
ejemplo, su carácter, comportamiento, destrezas, etc. En las escalas psicológicas de objetos la
valoración se realiza con respecto a elementos u objetos pertenecientes a la realidad que rodea al
individuo.

ORIGEN Y DESARROLLO DE LA PSICOMETRÍA DAIIIII

Se puede situar el origen de la Psicometría hacia la mitad del S. XIX (primera formulación de los
problemas científicos en términos matemáticos), que se va a desarrollar a través de dos vías:

La Psicofísica, que permitió el escalamiento de estímulos, y

Los estudios acerca de las diferencias individuales, que posibilitaron el escalamiento de los
sujetos.

En la Psicometría clásica se distinguía entre Escalamiento y Teoría de los Tests.

En la actualidad esta distinción, aunque se mantiene por cuestiones didácticas, está superada gracias
al desarrollo de nuevas teorías de la medición y de numerosas técnicas estadísticas comunes a
ambas vertientes de la Psicometría.

Los métodos de escalamiento

El escalamiento es el campo de la Psicometría cuyo objetivo es la construcción de escalas de


medida.

1- Hay dos supuestos básicos en todos los métodos:

la existencia de un continuo latente, subyacente, a lo largo del cual varían los objetos psicológicos
que se van a escalar, que los objetos psicológicos (sujetos, estímulos o respuestas) pueden situarse
de forma ordenada a lo largo de ese continuo.

2- El Escalamiento de Estímulos

La respuesta de los sujetos es una respuesta subjetiva que nos va a permitir diferenciarlos y
escalarlos.
El valor que se asigna a cada uno de ellos suele venir determinado por algún índice de tendencia
central (media, mediana).

Los sujetos que han emitido juicios han actuado como instrumentos de medida.

Se denominan Métodos de Juicio según Fechner,Stevens,Thurstone

El Escalamiento de Sujetos

Se utiliza una muestra representativa de sujetos.

Los estímulos son combinados de alguna manera para proporcionar una puntuación numérica para
cada sujeto.

Se asume que los estímulos presentados son interpretados de la misma forma por todos los sujetos.

Los estímulos han actuado como instrumento de medida.

Se denominan Métodos de Respuesta (Thurstone,Likert,Osgood)

El Escalamiento simultáneo de Estímulos y Sujetos

Las variaciones encontradas en las respuestas se atribuyen tanto a los sujetos como a los
estímulos. (Guttman,Coombs)

1860 Ley de Weber-Fechner

La ley psicofísica de Weber-Fechner establece una relación cuantitativa entre la magnitud de un


estímulo físico y cómo es percibido. Fue propuesta en primer lugar por Ernst Heinrich Weber
(1795-1878) en 1860 en su libro Elemente der Psychophysik y elaborada hasta su forma actual por
Gustav Theodor Fechner (1801-1887). Weber estableció su ley de la sensación (o Ley de Weber) en
la que formulaba la relación matemática que existía entre la intensidad de un estímulo y la
sensación producida por este. Estos y otros descubrimientos llevaron a la convicción de que todos
los actos humanos se podían explicar mediante principios físico-químicos, lo que permitió
considerar a la psicología, y más particularmente a la psicofísica, como probables ciencias
incipientes. La ley de Weber-Fechner puede también enunciarse así: «Si un estímulo crece en
progresión geométrica, la percepción evolucionará en progresión aritmética».

1887 Métodos de Escalamiento Psicofísico


1. Ley de Weber

WEBER es el iniciador de los primeros estudios en la Psicofísica, que tiene por objeto el estudio de
las relaciones entre los estímulos físicos y las sensaciones que dichos estímulos suscitan en los
sujetos, así como las razones de esas relaciones.

Críticas a la ley de Weber:

Los estímulos de muy alta o muy baja intensidad no se ajustan bien a ella.

Tampoco lo hacen todos los sistemas sensoriales.

2. Modelo de Fechner

A partir de Weber, Fechner desarrolló una serie de métodos denominados métodos psicofísicos
indirectos, que permitían elaborar unas escalas psicofísicas.
En el escalamiento psicofísico se tienen dos continuos: un continuo físico, a lo largo del cual varían
los estímulos y un continuo psicológico, a lo largo del cual variarán las sensaciones que dichos
estímulos producen en los sujetos.

El Umbral Absoluto es la magnitud física del estímulo que se requiere para que se produzca una
sensación.

El Umbral Diferencial es el incremento mínimo, en la magnitud del estímulo, que se requiere para
que el sujeto perciba un cambio en la sensación.

De ello se deduce que mientras la estimulación aumenta en progresión geométrica, la sensación lo


hace en progresión aritmética.

Los Métodos Psicofísicos utilizan tres tipos fundamentales de tareas:

Medición de la Capacidad de Detección:

se mide a través del cálculo de los umbrales absolutos

la capacidad de reconocer una señal sobre fondo de ruido

Medición de la Capacidad de Discriminación:

se mide a través del cálculo de los umbrales diferenciales

detectar un cambio en la estimulación, que va a indicarnos que se produce un cambio cuantitativo


en la sensación.

Fechner desarrolló tres métodos para estimar los umbrales absoluto y diferencial:

Método de los Límites (de los cambios mínimos)

Es el experimentador el que manipula la intensidad del estímulo

El sujeto se limita a emitir juicios (si, no, mayor, igual, menor)

Críticas a la Ley de Fechner:

Los estímulos de muy alta o muy baja intensidad no se ajustan bien a ella

Tampoco lo hacen todos los sistemas sensoriales.

1928 La figura más importante es Thurstone. ADANA

Desarrolló un modelo basado en:

La variabilidad perceptual de los sujetos, y en la limitación que tienen los sujetos para percibir
diferencias entre dos estímulos, cuando éstas son muy pequeñas.

Desarrolló dos modelos: la Ley del juicio comparativo y la Ley del juicio categórico.

La escala de Thurstone fue creada por Louis Leon Thurstone en 1928 con el objetivo, al principio,
de medir una actitud hacia la religión. Esta escala, a diferencias de otras que se centran en el sujeto
o persona, se centra en el estímulo.

A partir de Thurstone se desarrollaron otros modelos:


 Guttman (Modelo del Escalograma),
 Coombs (Modelo del Despliegue)
 Las escalas Thurstone y Guttman son dos de las escalas de medición de actitudes más
utilizadas para referir el comportamiento de los encuestados

Las encuestas de medición de actitudes son un parámetro importante para entender los
pensamientos y opiniones sobre una muestra objetivo.

Existen algunas diferencias entre la escala de Thurstone y la escala de Guttman. La escala


Thurstone fue diseñada en un intento de equiparar la escala de medición de intervalos con la escala
de actitudes e introducir una escala con declaraciones que aparecen en intervalos iguales. Mientras
que la escala de Guttman es una escala acumulativa que se utiliza para analizar el proceso continuo
en el tema de investigación, es decir, si en una lista de 10 preguntas el encuestado está de acuerdo
con la octava afirmación, esto indica que también está de acuerdo con las preguntas anteriores y no
está de acuerdo con las afirmaciones 9 y 10.

1932 La escala de Likert JULIE

(También denominada método de evaluaciones sumarias) publicada en 1932 por Rensis


Likert, es una escala psicométrica comúnmente utilizada en las investigaciones de ciencias
sociales que emplean cuestionarios.

Es el enfoque más utilizado para ordenar por gradiente las respuestas en la investigación por
encuestas, de modo que el término "escalas tipo Likert se usa a menudo de forma
intercambiable con "escala de valoración", aunque existen otros tipos de escalas de
valoración.

Al responder a un ítem de Likert, los encuestados especifican su nivel de acuerdo o


desacuerdo en una escala simétrica de acuerdo-desacuerdo para una serie de afirmaciones.
Por lo tanto, el rango captura la intensidad de sus sentimientos para un elemento
determinado.6 Como tales, las escalas Likert han encontrado aplicación en psicología y
sociología así como en estadística, negocios y marketing.

El formato de un elemento Likert típico de cinco niveles, por ejemplo, podría ser:

Totalmente en desacuerdo

En desacuerdo

Ni de acuerdo ni en desacuerdo

De acuerdo

Totalmente de acuerdo

La escala Likert es un método de valoración bipolar, que mide la respuesta positiva o negativa
a una declaración. En ocasiones se utiliza una escala con un número par de puntos, donde la
opción intermedia de "ni de acuerdo ni en desacuerdo" no está disponible. Esto a veces se
denomina método de "elección forzada", ya que se elimina la opción neutral.10 La opción
neutral puede verse como una opción fácil de tomar cuando un encuestado no está seguro, por
lo que es cuestionable si es una opción verdaderamente neutral. Un estudio de 1987 encontró
diferencias insignificantes entre el uso de "indeciso" y "neutral" como la opción intermedia
en una escala Likert de cinco puntos.
Ventajas

Ofrece mayor confiabilidad que otras escalas, ya que contiene más items.

DESVENTAJA El proceso para realizar esta escala es largo y complejo

VENTAJA Es más precisa que otras escalas debido a que la puntuación que se le otorga a
cada ítem se basa en una ponderación previa que llevan a cabo los expertos.

DESVENTAJA Su contenido la convierte en una escala ordinal

VENTAJA Permite conocer la distribución de los valores de un grupo en torno a la actitud


investigada.

DESVENTAJA Se puede ejercer influencia en la valoración de los ítems

o 1946 Modelo de Stevens MEL

STEVENS realiza una reformulación de la Psicofísica fechneriana, proponiendo una función nueva,
la Función Potencial:

A los métodos de Stevens se les conoce como métodos directos de escalamiento, ya que los sujetos
realizan estimaciones subjetivas, en lugar de tareas de detección o discriminación.

Asume la presencia de dos continuos: uno físico (estímulos) y otro psicológico (las respuestas), y
establece que cuando el estímulo crece en proporciones iguales, la sensación aumenta, asimismo, en
proporciones iguales.

El valor de “n” expresa la capacidad de discriminación de un sistema sensorial. Cuanto menor sea
“n”, mayor será la capacidad de discriminación.

Supuestos del Modelo:

Asume la ley de Weber.

Asume que el incremento de la sensación es función lineal de la estimulación.

Se le presenta al sujeto un estímulo, que va a servir de estímulo estándar, a partir del cual habrá de
estimar los valores del resto de estímulos.

Es decir, el sujeto empareja los números con los estímulos.

Stevens propone a partir de su definición clásica de asignar números a objetos o acontecimientos de


acuerdo con reglas, cuatro escalas nominal, ordinal, de intervalo y de razón, que posteriormente
aumenta a cinco con la escala de intervalo logarítmico.

Sus características son:

Escala Nominal.

Su fin es identificar sujetos/objetos dentro de una distribución, por lo que únicamente podremos
establecer las relaciones de igualdad/desigualdad entre los sujetos/objetos de una distribución. Un
ejemplo es el nombre de las ciudades: solo podemos diferenciarlas entre sí de acuerdo con esta
escala. El número de los jugadores de fútbol o de baloncesto nos proporciona la misma
información: solo sirve para identificarlos y diferenciarlos del resto de jugadores, no podemos
establecer ningún tipo de orden o de gradación en función de este número.

Escala Ordinal.

Este tipo de escala está destinada a ordenar a los sujetos/objetos de una distribución en función de
alguna característica. Cabe señalar que la distancia entre sus unidades no es uniforme. De esta
forma, podemos decir que A está por encima que B, pero no que sea el doble o que sea la mitad uno
que otro. Un ejemplo es el orden de llegada en una carrera. Además del atributo de
igualdad/desigualdad, en esta escala podemos añadir el ordenamiento de sus componentes.

Escala de Intervalo.

En esta escala la distancia entre las unidades de medida sí es uniforme, de forma que podemos decir
que D es el doble que A, por ejemplo. Por ello, permite realizar operaciones matemáticas, como
suma, resta, multiplicación o división. El cero es arbitrario, no indica la ausencia de atributo. Como
ejemplo puede servir la escala de tiempo que utilizamos: el cero es arbitrario, puesto en el
nacimiento de Cristo, o la escala para medir la temperatura en grados centígrados, en la que el cero
es también relativo.

Escala de Razón.

Similar a la de intervalo, con la única diferencia que el cero en esta escala sí indica la ausencia de
atributo, es cero absoluto. Como ejemplo podemos señalar la altura en centímetros, o el peso en
gramos. En ambos casos 4 es doble que 2 (2+2=4), o 4 es la mitad que 8, por ejemplo, debido a que
la distancia entre sus unidades de medida es uniforme.

1950 ESCALOGRAMA DE GUTTMAN

El análisis de escalograma de Guttman es una técnica cuantitativa que mide las actitudes y su
intensidad, junto con la escala de Likert y la escala de Thurstone, es un método de investigación
del comportamiento.
Se trata de una técnica centrada en la respuesta de los entrevistados y que en la escala de Guttman
será la actitud. Siendo la actitud la predisposición que se expresa para responder positiva o
negativamente a una idea, un hecho, un objeto o los símbolos y que se relaciona de forma directa
con los comportamientos que manifiestan las personas hacia ellos.
Características de la escala Guttman

Las diferencias con otros métodos de estudios del comportamiento y escalas se aprecian en sus
propiedades.

Propiedad unidireccional

Las afirmaciones miden una sola respuesta, así en un cuestionario de 10 preguntas, si el encuestado
responde a las 6 primeras es porque está de acuerdo con ellas y no lo está con las 4 preguntas
siguientes.

Propiedad unidimensional

Cada afirmación mide la misma dimensión (objeto de la encuesta) con distinta intensidad.

Condición correlativa de la información

Las preguntas están ordenadas de menor a mayor intensidad.


Escala acumulativa

Se trata de un modelo concluyente o determinístico. Si estás de acuerdo con una afirmación, estás
de acuerdo con la anterior. Acepta sólo preguntas reproducibles.

Sin embargo, además de las propiedades descritas, utilizar la escala de Guttman tiene las
siguientes ventajas:

o Es fácil de aplicar
o Permite medir aspectos muy concretos
o Se puede combinar con otras técnicas de investigación o con otras encuestas
1950 (1950), el escalamiento de Coombs 1957 OSGOOD JULIE

La escala de Osgood es una escala de calificación que se utiliza para entender las actitudes o los
sentimientos de los encuestados hacia un objeto o evento.

Esta escala consiste en evaluar un producto, servicio o marca en una escala de valoración de
múltiples puntos que tiene adjetivos opuestos en cada extremo.

La versatilidad de la escala de Osgood aumenta su aplicación en la investigación de mercados.


También ayuda a desarrollar una campaña publicitaria y estrategias promocionales en los estudios
de desarrollo de nuevos productos.

Ventajas de la escala de Osgood

A continuación. tenemos para ti las principales ventajas de utilizar la escala de Osgood en tu


próxima encuesta de investigación:

Es un proceso sencillo para los encuestados

El principal beneficio de usar la Escala de Osgood es la simplicidad de entender esta herramienta


por parte de los participantes.

Casi todas las personas se han encontrado con este tipo de encuesta. Debido a que es una escala que
conecta adjetivos extremadamente opuestos, los encuestados pueden expresar más específicamente
sus opiniones con la ayuda de mediciones específicas.

Da una imagen objetiva

Ya que las encuestas que incluyen una escala de Osgood son fáciles de contestar, los participantes
pueden expresar su opinión en su totalidad. Esto ayuda a que los resultados sean precisos y
estadísticamente significativos.

Facilita el proceso de investigación

La escala de Osgood permite que los investigadores ahorren una gran cantidad de tiempo durante el
proceso de recolección de datos, gracias a que solo necesita encontrar dos términos opuestos para
usarla como herramienta de medición para que una encuesta funcione.

Torgerson (1958) DAIIIIIIII

Sólo los métodos centrados en los estímulos y en las respuestas permiten realizar pruebas de
bondad de ajuste entre las observaciones empíricas y las pronosticadas por los distintos modelos
propuestos. Por lo que también obtendríamos las ventajas que supone poder aplicar pruebas de
bondad de ajuste en la obtención de evidencias de validación de contenido

ORIGEN Y DESARROLLO DE LOS TESTS

El intento de apreciar de forma sistemática las diferencias individuales llevó al Método de los Tests
y a las distintas Teorías de los Tests.

China, Platón, Hipócrates, Huarte de San Juan.

Hubo que esperar a la mitad del S.XIX para que se desarrollaran procedimientos
formalizados para la evaluación de las diferencias individuales: los tests.

Un Test es un instrumento de medición diseñado especialmente para estudiar de un modo objetivo y


sistemático el nivel de los sujetos respecto a algún atributo, característica o dominio de
conocimientos y, a partir de las puntuaciones que obtienen los sujetos en el test, poder analizar las
diferencias existentes entre ellos.

Hay tres factores decisivos en el desarrollo de los tests:

La apertura del laboratorio antropométrico de Galtón en Londres.

El desarrollo de la correlación de Pearsón.

La interpretación que Spearman hace de ella

Galton

Medio primo de Darwin.

Wundt no está de acuerdo con evolucionismo, lo que propició la separación entre Psicología
Experimental y Psicología Diferencial.

Galton todavía creía que la medición de las características mentales estaba estrechamente
relacionada con las características físicas.

Comenzó elaborando distribuciones de frecuencias: la distribución normal. Fue el primero en


aplicar el concepto estadístico de distribución normal, la media, la mediana, varianza y correlación
de datos psicológicos.

Construyó los primeros tests psicométricos, pero caracterizados por un fuerte carácter
antropométrico, sensorial y motor.

 Primeros tests mentales

Cattell utilizó por primera vez el término Tests Mental. Pero los tests, al igual que los de Galtón,
tenían carácter sensorial y motor fundamentalmente.

Fue necesario llegar a finales del S. XIX para aceptar que estos tests que no medían la inteligencia.

 Primeros tests de inteligencia

Binet fue el primero en darse cuenta de que era necesario centrarse en el estudio de los procesos
mentales superiores.
Realizó, junto a Simón, la primera escala de inteligencia, que se ocupaba de la capacidad de
comprensión y razonamiento de los niños.

(1960), o los modelos elaborados desde la Teoría de Respuesta al Ítem. MEL

La Teoría de Respuesta al Ítem es un área de desarrollo de la Psicometría que trata de medir rasgos
latentes a través de una serie de modelos matemáticos.

En general, los modelos de variables latentes son modelos de regresión multivariantes que enlazan
una variable respuesta con otra no observada.

La teoría de respuesta al ítem (TRI o IRT por sus siglas más conocidas, en inglés),12 teoría del
rasgo latente (TRL) o teoría de respuesta al reactivo (TRR), es una teoría psicométrica, utilizada
para la construcción de test y pruebas psicológicas.

Describe la relación entre un conjunto de datos obtenidos en un proceso de medición (las respuestas
a los ítems de una prueba) con determinadas variables latentes, como por ejemplo los rasgos de
personalidad de los sujetos a quienes se ha administrado. El tipo de variables o propiedades latentes
que se pretende medir pueden ser cuantitativas o cualitativas y según esto se distingue entre el
modelo aquí descrito y los modelos de clases latentes. Dado el carácter estocástico de la relación
que estudia, también se conoce el modelo como «teoría probabilística de los test».

El origen de la Teoría de respuesta al ítem se asocia con el trabajo


del matemático danés Georg Rasch (1960), como así mismo con los desarrollos de Birnbaum,
Lord y Novik (1968),3 Fischer (1974),4 Hambleton y otros.3 Las ideas sobre las que se
fundamenta este modelo, sin embargo, habían sido expuestas antes, incluso muy
tempranamente, por parte de los fundadores del campo de la psicometría (Louis Leon
Thurstone, 1912 y Alfred Binet, 1905).

Expositores recientes recalcan que esta teoría busca ser aristotélica (en el sentido de poner
más atención a los datos y la manera como los seres humanos responden a instrumentos de
medición) que platónica (es decir, basada en una idealización de condiciones cuyos
presupuestos casi nunca se verifican) como sería el caso de la teoría clásica de los tests, la
teoría psicométrica más conocida.

La teoría clásica de los tests (TCT) ADANA

es la teoría de los tests con la que empezó la psicometría. El énfasis del modelo de la teoría clásica
está puesto en lograr la exactitud de la medida, o en su defecto, la determinación precisa del error de
medición. Por eso se le denomina con frecuencia también «teoría del error de medición». Esta teoría
pretende explicar la manera en que a partir de un valor de test medido de una persona se puede
concluir el «valor verdadero» de la manifestación de la característica o rasgo de personalidad que se
quiere medir.

1960 EN ADELANTE : Modelos psicométricos


alternativos[ ADANA
Desde los años 60 comenzaron a desarrollarse modelos alternativos o complementarios a la
TCT para la evaluación de los datos psicométricos, como la Teoría de la Generalizabilidad
propuesta por Cronbach, y, sobre todo, la teoría de respuesta al ítem (TRI), basada en los
modelos del rasgo latente o Latent-Trait (por ejemplo, el Modelo de Rasch). La TRI pretende
dar respuesta a los problemas que se han señalado como inevitables en el modelo de la teoría
clásica, principalmente el hecho de que la medición de las variables dependa del instrumento
utilizado, y el hecho de que las propiedades de los instrumentos de medida dependan del tipo
de sujetos que se haya utilizado para establecerlas. Los modelos basados en la TRI posibilitan
dar una solución a ambos problemas, además de aportar importantes avances tecnológicos
para el proceso de elaboración y análisis de tests.
La adaptación más conocida fue la realizada por Termán.

La finalidad inicial de la escala era detectar a los sujetos que presentaran algún tipo de retraso
intelectual. Para poder interpretar las puntuaciones desarrolló el concepto de Edad Mental, que
equivale a la edad cronológica de los más intelectualmente normales, cuya media en la escala es
igual a la puntuación obtenida por el niño examinado.

Termán utiliza como medida de la inteligencia el concepto de Cociente Intelectual acuñado por
Stern, que es igual a la Edad Mental dividida por le Edad Cronológica y multiplicado por 100.

CONCLUSIONES BREVES SOBRE LA MEDICIÓN PSICOMETRICA STEFIIIII

Los tests colectivos

La entrada de Estados Unidos en la 1ª Guerra Mundial, y la necesidad de seleccionar y clasificar el


contingente de personas disponibles, hizo que encargaran a Yerkes el diseño de las formas Alpha
(para la población general) y Beta (para los reclutas analfabetos y para aquellos que no dominaban
el inglés). Fue el comienzo de los Tests Colectivos.

Cattell fundó la primera empresa especializada en la publicación masiva de tests.

En 1938 apareció el Test de Wechsler para medir la inteligencia en adultos, y en 1949 la versión
para niños Wisc.

¿Qué es lo que miden realmente los tests? ¿Existen realmente los rasgos que dicen medir los
tests?.

Para dar respuesta a estas preguntas se desarrollaron el Coeficiente de Correlación de Pearson y las
técnicas correlacionales conocidas como Análisis Factorial (Spearman).

La influencia del análisis factorial fue doble:

dio fundamentación teórica a la utilización de los tests

los resultados subrayan la importancia de estudiar otras aptitudes más específicas en el campo de la
inteligencia.

Las baterías de aptitud múltiple

Su finalidad era proporcionar una medida de la posición de cada sujeto en un cierto número de
rasgos.

Batería de Aptitudes Mentales de Thurstone.

Los tests de personalidad

KRAEPELIN es el precursor de los tests de personalidad.

El prototipo de cuestionario personalidad con carácter psicométrico es la Hoja de Datos Personales


de Woodward.
De los primeros tests hay tres que han sobrevivido en la actualidad:

una serie desarrollada por Guiford y cols.

otra serie desarrollada por Cattell y cols.

se usan ambas en poblaciones normales,

están basadas en el análisis factorial,

están orientadas hacia los rasgos.

el MMPI de Hathaway y Mckinsky:

no utilizaba escalas derivadas del análisis factorial,

está orientada hacia una clasificación psiquiátrica.

Durante la primera mitad del S.XX se desarrollaron los Tests Proyectivos. Rorschach diseñó
el primero el primero (Test de las Manchas de Tinta).

Su utilización ha ido disminuyendo por una serie de causas:

un aumento del escepticismo en torno a estos instrumentos,

el desarrollo de procedimientos alternativos,

la asociación de estas técnicas con el psicoanálisis.

A pesar de todo el Test de Rorschach sigue mostrando su utilidad.

La medición de intereses y actitudes

SVIB de Srong, la Escala de Preferencias de Kuder.

Respecto a las actitudes Thurstone desarrolló dos modelos: la Ley de Juicio Comparativo y la Ley
del Juicio Categórico

Años más tarde Likert elaboró otra técnica más fácil de elaborar que las de Thurstone

Con el fin de medir el significado connotativo que determinados estímulos tienen para los sujetos,
Osgood desarrolló el Diferencial Semántico (Tema 3).

Los tests referidos al criterio

Hasta los años 60 y 70 del S. XX los tests que se habían desarrollado servían para evaluar el grado
de aptitud en un determinado rasgo, pero interpretando los resultados en relación a los que se habían
obtenido en su grupo normativo (Tests referidos a las normas).

No servían para satisfacer la necesidad de averiguar si los sujetos habían alcanzado o no los
objetivos mínimos a nivel educativo, inquietud surgida en las décadas mencionadas. Por ello se
desarrollaron otros tipos de tests: Tests referidos al criterio. Se trataba de averiguar hasta qué punto
los alumnos dominaban el contenido de determinadas materias.

GLASER fue el primero que distinguió entre ambas aproximaciones. Hay grandes diferencias entre
los T.R.N. y los T.R.C.:
La finalidad de la evaluación:En los T.R.N1. el objetivo es poner de manifiesto las diferencias
individuales en el rasgo medido.

En los T.R.C. el objetivo es estimar el rendimiento o conducta del sujeto en los objetivos que mide
el test.

La construcción del test:

En los T.R.N. se suele recurrir a las teorías sobre el rasgo medido.

En los T.R.C2. lo primero es especificar de una manera clara el dominio de contenidos que se
quieren evaluar.

Desarrollo de la teoría de los tests

Cuando se aplica un test a una muestra de sujetos se pueden plantear varias preguntas:

¿En qué medida las puntuaciones reflejan el nivel de cada sujeto en la característica medida?

¿Cómo estar seguros de que la puntuación obtenida es la que le corresponde a cada sujeto
realmente?

¿Qué error está afectando a esas puntuaciones?

Analizar hasta qué punto las puntuaciones obtenidas por los sujetos en un test equivalen a sus
puntuaciones verdaderas y cuál es la cuantía del error de medida, se realiza a través de la Fiabilidad
de las puntuaciones

La validez de las inferencias o conclusiones que se pueden sacar a partir de las puntuaciones, se
estudia a través de la Validez de las puntuaciones

Para dar respuesta a estos problemas se desarrolló un marco teórico, la Teoría de los Tests, que va a
permitir establecer una relación funcional entre las variables observables (puntuaciones empíricas)
y las variables inobservables (puntuaciones verdaderas).

Ello significa establecer una función matemática o modelo. Los que más incidencia han tenido han
sido la Teoría de los Tests (T.C.T.) y la Teoría de Respuesta al Ítem (T.R.I.)

La TCT: TEORIA CLASICA DE LOS TEST

Se desarrolló fundamentalmente a partir de las aportaciones de GALTON, PEARSON y


SPEARMAN.

Gira en torno a tres conceptos: puntuaciones empíricas (X), puntuaciones verdaderas (V) y
puntuaciones debidas al error (E). Entre ellas establece una relación lineal: X = V + E; es el Modelo
Lineal de Spearman

El objetivo de la T.C.T. es estudiar el error de medida presente en cualquier medición realizada en


el campo psicológico y educativo, para inferir (estimar) el nivel real de los sujetos en el rasgo que
mide el test. Estos errores son aleatorios y pueden provenir de numerosas fuentes.

1
TEST REFERIDOS A LAS NORMAS
2
TEST REFERIDOS AL CRITERIO
Se han realizado algunos intentos de sistematizar y clasificar el error en función de las posibles
fuentes. El más ambicioso y global fue la Teoría de la Generalizabilidad de CRONBACH, que tiene
en cuenta todas las posibles fuentes de error, e intenta diferenciarlas mediante la aplicación de los
procedimientos clásicos de Análisis de Varianza.

La T.G. suele ser considerada más una extensión de la T.C.T. que un modelo alternativo.

La TRI

Tres críticas a la T.C.T.:

Que la puntuación obtenida dependía del conjunto de ítems o tests utilizados.

Que los estadísticos de los ítems (índice de dificultad, índice de discriminación), dependían de la
muestra de sujetos utilizados.

La indiferenciación del error.

A la tercera crítica trata de dar respuesta la Teoría de la Generalizabilidad.

A las dos primeras trataron de dar respuesta Gulliksen y Lord con la formulación de la Teoría de
Respuesta al Ítem, que proporciona una serie de modelos que asumen una relación funcional entre
los valores de la variable que miden los ítems y la probabilidad de que los sujetos, en función de sus
habilidades, acierten cada ítem

El desarrollo de estos modelos supuso un gran avance en la Teoría de los Tests. La necesidad de
utilizar los ordenadores fue la causa de que su desarrollo no llegara hasta finales del S. XX.

También podría gustarte