Está en la página 1de 28

Grado en Psicología

Psicometría, curso 2018/2019

Introducción
Introducción: índice de cuestiones a tratar

1. Registro, organización y tratamiento de la información en situaciones con


incertidumbre: experimentos aleatorios, variables aleatorias, y distribuciones de
probabilidad.

2. La medida en la ciencia: Concepción tradicional. Concepción


representacional.

3. La medida en la Psicología. Los tests. Teoría de tests: valoración de la


calidad de las medidas.

PSICOMETRÍA: principios de la construcción y la utilización de tests.

2
Introducción: lecturas

- Sobre la concepción tradicional de la medición (y su papel en la Psicología):


Michell, J.(1997). Quantitative science and the definition of measurement in
psychology. British Journal of Psychology, 88, 353-383 (especialmente pp. 356-359 y
383).

- Sobre la concepción representacional de la medición:


Weitzenhoffer, A.M.(1951). Mathematical structures and psychological
measurements. Psychometrika, 16 (4), 387-406 (especialmente pp. 388-393).

- Sobre la concepción de Stevens, y su tipología de escalas de medida:


Stevens, S.S.(1946). On the theory of scales of measurement. Science, 103 (2684),
677-680. [hay traducción al castellano en el Campus Virtual]

- Sobre los tests y sus fundamentos (características, usos, etc.):


Martínez Arias, M.R., Hernández Lloreda, M.J., y Hernández Lloreda, M.V.(2006).
Psicometría. Madrid: Alianza, pp. 15-25.

3
Introducción: el marco de referencia (1)

Ciencia: modo de conocimiento mediante el que el individuo humano se


aproxima a la realidad (cambiante) con el objetivo de observar, describir,
entender y explicar cómo son las cosas, y, a partir de ello, predecir cómo
pueden ser en el futuro (es decir, para poder vivir en esa realidad de un modo
ventajoso).

Se caracteriza porque
(I) tiene en la realidad el origen de sus preguntas y el aval para sus respuestas
(metodología empírica),
(II) se sirve de herramientas formales cuyo referente último es la lógica
(metodología hipotético-deductiva).

A menudo, las situaciones de la realidad sobre las que se pretende establecer


algún conocimiento científico están afectadas por incertidumbre. Entonces,
una herramienta de trabajo fundamental es la Estadística. La Estadística parte
de representaciones de la realidad que son los modelos estocásticos.
Introducción: el marco de referencia (2)

Un modelo es una representación idealizada y tratable de un cierto aspecto


de la realidad (se trata de simplificar algo para hacerlo accesible al
conocimiento -más allá de lo evidente-).

Un modelo matemático es una representación en términos matemáticos.


Son componentes de un modelo matemático:
(1) las partes separables y significativas/constitutivas del aspecto de la
realidad abordado: las variables.
(2) las relaciones características que existen (hipotéticamente) entre esas
partes: las ecuaciones.
(3) detalles/condiciones particulares relevantes: los supuestos.

Un modelo estocástico es el que se utiliza cuando la información disponible


sobre el aspecto de la realidad considerado, por mucha que sea, no permite
formular una regla para determinar con total certeza los resultados del proceso
de estudio, aunque sí se observa cierta regularidad estadística (hay
incertidumbre -aleatoriedad-, aunque estos resultados sí son predecibles “a la
larga”).
Introducción: el marco de referencia (3)

Cuando se elabora y utiliza un modelo estocástico para tratar un proceso de


registro de información, es necesario encontrar respuestas adecuadas a varios
problemas prácticos:
(1) la identificación de todos los resultados (observables) posibles,
(2) la identificación de todos los resultados relevantes,
(3) la formalización/cuantificación de tales resultados (aquí entra en juego el
concepto, fundamental, de probabilidad).

Un proceso de registro de información en situaciones con


incertidumbre (que son el área de trabajo de la Estadística) es un
experimento aleatorio:
(a) proceso de registro de información bien delimitado, cuyos posibles
resultados son conocidos de antemano,
(b) cuyo resultado concreto en cada caso NO se puede anticipar con
seguridad,
(c) que puede ser repetido en condiciones más o menos idénticas,
(d) en el que, a lo largo de un número elevado de repeticiones, SÍ es
posible identificar patrones de resultados (tendencias o regularidades
estadísticas).
Introducción: la organización de la información (1)

(1) Probabilidad: medida de la (in)certidumbre (o magnitud, o importancia, o


presencia, o tamaño,…) de cada resultado de un experimento aleatorio.
Se expresa con un número, generalmente la frecuencia relativa con que
aparece ese resultado, r, a lo largo de n repeticiones del experimento aleatorio,
es decir, el cociente entre el número de veces que aparece ese resultado (nf(r)) y
el número total de repeticiones (n, grande):
p(r) = nf(r)/n.

Kolmogorov establece que, siempre:


(a) p(r) ≥0.
(b) p(E) = 1, donde E es el conjunto de todos los resultados posibles del e.a.
(c) para cualquier conjunto de resultados posibles, r, s, t… que sean
mútuamente excluyentes*: p(r∪s∪t∪…) = p(r)+p(s)+p(t)+…

______________________________
(*) mútuamente excluyentes (incompatibles): sin ningún elemento común.
Introducción: la organización de la información (2)

(2) Variable aleatoria: función que asigna un número (distinto) a todos y cada
uno de los resultados (distintos) de un experimento aleatorio (forma de
representar o codificar la información).
(3) A la función que asocia a todos y cada uno de los valores de una
variable aleatoria una probabilidad correspondiente se le conoce como
distribución de probabilidad (inducida) de la v.a., f(x) = P(X=x). En el caso
de que la v.a sea discreta (tome solo valores enteros) se habla de función de
probabilidad, mientras que cuando la v.a. es continua (toma valores reales) se
habla de función de densidad de probabilidad ( y el concepto es un poco más
sutil).

(4) A la función que asocia a todos y cada uno de los valores de una
variable aleatoria la suma de su probabilidad asociada mediante f(x) más
las probabilidades igualmente asociadas mediante f(x) a todos los valores
que están por debajo (según un orden creciente) se le conoce como
función de distribución de la v.a., F(x) = P(X≤x).
Existe una relación de mútua especificación entre f(X) y F(X): Sean x1<x2.
P(x1<X≤x2) = F(x2)–F(x1).
P(X>x) = 1-P(X≤x) = 1-F(x).
V. a. discretas: Distribución de Bernoulli

Se genera en un proceso tal que:


(1) se puede considerar como un experimento aleatorio que consiste en una
única realización (un solo ensayo), y
(2) que presenta únicamente dos únicos resultados (sucesos) posibles, que son
mútuamente excluyentes (incompatibles), y se denominan (por convención):
éxito, acierto,...: x=1.
fracaso, error,...: x=0.
Expresado de otra manera, una distribución de Bernouilli es la (más básica)
correspondiente a una v.a. binaria o dicotómica.
Función de probabilidad:
Ber(p) = f(xi) = P(X=x) = pxq(n-x) → f(1) = p, f(0) = q.
Función de distribución (si procede):
F(x) = P(X≤xk) = ∑ kpxiq(n-xi) → F(0) = q, F(1) = q+p =1.
i=1
Parámetros: E(X)=p.
VAR(X)=pq.
V.a. discretas: Distribución Binomial

Se genera en un proceso tal que:


(1) se puede considerar como un experimento aleatorio que consiste en una
sucesión de n realizaciones (ensayos) independientes de un experimento
aleatorio con distribución de Bernoulli (lo que significa que cada ensayo tiene dos
únicos resultados posibles, mútuamente excluyentes, y que se denominan por
convención: éxito, acierto,...: 1; fracaso, error,...: 0).
(2) la probabilidad de éxito, p, se mantiene constante a lo largo de todos los n
ensayos (lógicamente, también la de fracaso, q=1-p).
Expresado de otra manera, una distribución Binomial es una suma de n v.a.
dicotómicas (distribuciones de Bernouilli con p constante). Permite estimar la
probabilidad de obtener un cierto número x de éxitos a lo largo de los n ensayos.

Función de probabilidad:
B(n,p) = f(xi) = P(X=x) = [n!/(x!(n-x)!)]pxq(n-x)
Función de distribución:
k
F(x) = P(X≤xk) = ∑ [n!/(xi!(n-xi)!)]pxiq(n-xi)
i=1

Parámetros: E(X)=np.
VAR(X)=npq.
V.a. discretas: Distribución de Poisson

Se genera en un proceso del tipo binomial, B(n,p), cuando n es muy grande y p


es muy pequeña. Asimismo, cuando un suceso aparece un número promedio de
veces igual a λ en un cierto intervalo (de tiempo, espacio,...), el número de
apariciones del suceso en ese intervalo o un múltiplo k del mismo sigue la
distribución de Poisson.
En tales casos, la probabilidad de que aparezca el suceso un número x de
veces en un número n de ensayos o en un intervalo dado es igual a:
X → Po(λ) = P(X=x) = e-λ(λx/x!).
Parámetros: E(X)=λ.
VAR(X)=λ.
Ejemplo: Cada uno de los 5 comerciales de un concesionario de una marca de
automóviles de lujo vende un promedio de 2 ejemplares por semana. Es decir,
λ = 2x5x52 = 520 automóvlies se venden al año en el concesionario.
A partir de esta información, ¿cuál es la probabilidad de que se venda en el
concesionario al menos un automóvil cada día?
X → Po(520/365) ≡ P(X≥1) = 1-P(X<1) = 1-P(X=0) =
= 1-[e-1.424657531.424657530/0!] ≈ 1-0.24 ≈ 0.76.
V. a. discretas: Distribución geométrica o de Pascal

Se genera en un proceso del tipo binomial, B(n,p), cuando lo que se requiere es


estimar la probabilidad de que ocurra un número x de intentos “fallidos” (número
de “0s”) antes de que aparezca el primer “éxito” (“1”):
X → G(p) = P(X=x) = p(1-p)(x-1).
Parámetros: E(X)=1/p.
VAR(X)=(1-p)/p2.
Ejemplo: Si la probabilidad de tener una hija es 0.55, y una pareja que tiene dos
hijos varones decide seguir buscando la niña, ¿cuál es la probabilidad de que lo
consiga en el tercer intento?
X → G(0.55) ≡ p(X=2) = p(1-p)(x-1) = 0.55x(1-0.55)(2-1) ≈ 0.2475.
V.a. discretas: Distribución hipergeométrica

Se genera en un proceso del tipo binomial, B(n,p), cuando se trata de estimar la


probabilidad de encontrar x éxitos en una muestra de r observaciones o
ensayos (elegidos al azar):
H(n,r,p) = P(X=x) = [(n1)!/x!(n1-x)!][(n-n1)!/(r-x)!([n-n1]-[r+x])!]/[n!/r!(n-r)!],
n1=np
Parámetros: E(X)=rp.
VAR(X)=rp(1-p)[(n-r)/(n-1)].
Ejemplo: En un grupo de n=40 estudiantes de 1º de Psicología hay n1=5 a
quienes gusta la Estadística. Si se elige al azar un grupo de r=4 estudiantes,
¿cuál es la probabilidad de que a la mitad de los 4 componentes les guste la
Estadística (x=2)?
H(40,4,0.125) = P(X=2) = [5!/2!(5-2)!][(40-5)!/(4-2)!(35-2)!]/[40!/4!(40-4)!] =
= 5950/91390 ≈ 0.06510559142.

V.a. continuas: Distribución normal o gaussiana: X→N(µ,σ2)

Función de densidad de probabilidad:


2
f(x)=(1/[σ√(2π)])e-(1/2)([X-µ]/σ) .
Parámetros: E(X)=µ.
VAR(X)=σ2.
Características:
- máximo en X=µ.
- simétrica respecto
de X=µ → µ=Mdn=Mo.
- asintótica respecto
de X.
- puntos de inflexión en:
X=µ-σ y X=µ+σ.

- La distribución normal estandarizada: zX→N(0,1).


V.a. continuas: Distribución normal o gaussiana: X→N(µ,σ2)

Función de distribución:

f(x) F(x)

0’5

µ xi X µ-2σ µ-1σ µ µ+1σ µ+2σ


V.a. continuas: Distribución

Z1, Z2 ... Zn, son variables N(0,1) e


independientes entre si.

n=10

n=30

n=60

20 40 60 80
V.a. continuas: Distribución

Parámetros: E(X)=n.
VAR(X)=2n.
Características:
- Suma de n distribuciones normales tipificadas al cuadrado.
- Uniparamétrica: grados de libertad, n.
- Sólo toma valores mayores o iguales a 0.
- Asimétrica positiva.
- Asintótica respecto al eje de abscisas.
- Si n→∞, la distribución se aproxima a la normal.
- Se utiliza para comparar distribuciones.
V.a. continuas: Distribución tn

Es una distribución derivada de una distribución normal y otra


Se utiliza en inferencias acerca de la media, etc.

-4 -3 -2 -1 0 1 2 3 4
V.a. continuas: Distribución tn

Parámetros: E(X)=0.
VAR(X)=n/(n-2).
Características:
- Simétrica respecto a tn=0.
- Tiene un máximo en tn= 0.
- Asintótica respecto al eje de abscisas.
- Si n→∞, la distribución se aproxima a la normal.
- Desarrollada por Gossett (Student), se utiliza en vez de la normal con
muestras pequeñas.
V.a. continuas: Distribución F de Fisher-Snedecor

Es una distribución derivada de dos


Se utiliza en inferencias acerca de la varianza, etc.

n1=20 y n2=40

n1=10 y n2=20

n1=5 y n2=10

0 1 2 3 4 5 6
V.a. continuas: Distribución F de Fisher-Snedecor

Parámetros: E(X)=n2/(n1-2).
VAR(X)=[2n22(n1+n2-2)]/[n1(n2-4)(n2-2)2].

Características:
- Sólo toma valores mayores o iguales a cero.
- Asimétrica positiva.
- Asintótica respecto al eje de abscisas.
- Si n1 y n2→∞, la distribución se aproxima a la normal.
Introducción: la medición

La medición es un procedimiento especializado de registro de información


(en busca de información fidedigna, confiable).

(1) Concepción tradicional de la medición:


La medición es un proceso (cualificado) de registro de información,
llevado a cabo por un observador para estimar la magnitud de cada
manifestación de un atributo (v.a.) cuantitativo, por comparación con una
manifestación de referencia (unidad de medida) y expresada por medio de un
número real (la medida). En la práctica, toda medida es inherentemente
imprecisa.

(2) Concepción representacional de la medición (Russell):


La medición es un proceso por el que se asigna un número real a
cada manifestación de un atributo cuantitativo siguiendo reglas, de tal
manera que entre los numerales queden representadas las relaciones
(cuantitativas) que existen entre las manifestaciones del atributo.
Introducción: los inicios de la medición en la Psicología

- Fechner y la Psicofísica (Psicología General).


- Galton y el interés en las diferencias individuales (Psicología Diferencial y
Psicometría).

El TEST: colección de estímulos (ítems) que permiten “desencadenar” y


registrar comportamientos a través de los cuales se ponen de manifiesto los
diversos aspectos que definen una cierta característica psicológica, no
observable directamente (v. latente o consructo).
• procedimiento sistemático.
• muestra de comportamientos representativos.
• medida objetiva.
• base comparativa (grupo normativo).
• uso predictivo.

11
Introducción: el impulso a los tests

- Binet, Spearman y el estudio de la inteligencia humana.


- El énfasis en la utilidad práctica.
- Thorndike (1918) y el imperativo cuantitativo.

- Thurstone y las condiciones de la medida en la Psicología:


• unidimensionalidad.
• linealidad (proporcionalidad, aditividad,...).
• abstracción (unidad de medida: alguna clase de proceso).
• invariabilidad:
o calibración del instrumento independiente de los sujetos.
o medición para cada sujeto independiente de los aspectos concretos del
instrumento.

Guttman y la condición de escalamiento (transitividad conjunta): un test


proporciona una escala de medida si para todo sujeto A que tiene un nivel
superior a otro sujeto B en la variable que se pretende medir, el sujeto A NO
tiene una puntuación inferior al sujeto B en ninguno de los ítems
Introducción: la polémica

- Las turbulencias: el informe del comité Ferguson (1940).


- La respuesta: Stevens (1946):

(3) Concepción representacional de la medición de Stevens:


La medición es un proceso por el que se asigna un numeral a cada
manifestación de un atributo siguiendo reglas, de tal manera que entre los
numerales queden representadas las relaciones que existan entre las
manifestaciones del atributo.

13
Introducción: la medición siguiendo a Stevens (I)

En la práctica, medir un atributo es construir una escala de medida para él.

Una escala de medida es una terna, ξ=‹E,N,f›, formada por:


• un sistema empírico, E, formado por las manifestaciones del atributo y las
relaciones existentes entre ellas,
• un sistema numérico, N, formado por los números que se asignan y las
relaciones existentes entre ellos, y
• una regla de asignación de un número a cada manifestación del atributo
(aplicación), que garantice que N represente a E.
[lo ideal sería que esta aplicación fuese biyectiva (estrictamene uno-a-uno), lo
que llevaría a una representación isomórfica, pero lo más frecuente, en la
práctica, es trabajar con una aplicación inyectiva (muchos-a-uno), construyendo
una representación homomórfica]
Introducción: la medición siguiendo a Stevens (II)

Tipos de escalas de medida (Stevens, 1946):

Relaciones Tipo de escala Transform. Análisis


existentes de medida admisibles estadíst.
Equivalencia (=) Nominal Inyectivas Mo, C

Orden débil (≥,≤) Ordinal Monótonas Mdn, estadist. rangos…

Orden débil, Intervalo Afines, µx, σx2, ρxy…


origen y unidad (razón entre Y=bX+a.
convencionales distancias)

Orden débil, Razón Lineales, todo.


origen y unidad (razón entre Y=bX
empíricos magnitudes)
Introducción: contenidos de la Psicometría

1. Teoría de tests: conjunto de modelos, métodos y técnicas asociados a los


procesos de construcción, evaluación y utilización de tests.
Objetivo principal: valoración de la precisión de las medidas.
Punto de partida: modelo de medida:
TCT: X=V+ε, ρxx’ [σv.x] → V’.
TRI: Pi(θj)=f(θj,i), f: mnd, σθj=I(θj)1/2 → θj’.
2. Validez (aspectos empíricos y teóricos)
3. Algunas cuestiones básicas relacionadas con la construcción y la
utilización de los tests:
Baremos.
Equiparación.
Sesgo (dif).