Está en la página 1de 5

Tema 1

Introducción a la Psicometría
Glosario:
E(x)= Esperanza matemática
VAR(X)= Varianza
EA= Experimento aleatorio
v.a= Variable aleatoria
f(x)= Distribución de probabilidad
F(x)= Función de distribución
x!= x factorial (x+todos los números por debajo hasta 0)
n→∞= n tiende al infinito

1. Marco de referencia
● Ciencia: modo de conocimiento para aproximarse a la realidad (cambiante) con el objetivo
de observar, describir, entender y explicar cómo son las cosas, y, a partir de ello, predecir
cómo pueden ser en el futuro. Características:
➢ Origen real (empírico) de sus preguntas y respuestas
➢ Herramientas formales lógicas (método hipotético-deductivo). Pone a prueba
hipótesis de modo experimental (control de VI) para rechazarlas o reafirmarlas.
● Las situaciones reales están a menudo influidas por la incertidumbre, por lo que la ciencia se
vale de la estadística para representarla mediante los modelos estocásticos. El fin último de
la ciencia es aplicar los resultados matemáticos a la realidad, ya sea para explicar o predecir
un fenómeno real. En las medidas psicológicas, asumimos que existe un error, es decir, que
esperamos encontrar una medida aproximada del rendimiento del sujeto en el test (Xj=Vj+Ej,
modelo débil de Spearman) ya que debemos tener en cuenta la incertidumbre (que es
independiente de la medición verdadera y de los errores de otros sujetos). Este error es el
que pretendemos reducir mediante la estadística. Se espera que la media o la esperanza de
los errores a lo largo de un número infinito de medidas sea 0 [E(Ej)=0].
● Un modelo es una representación idealizada y tratable de un cierto aspecto de la realidad
(simplificación accesible al conocimiento). En un modelo matemático se incluyen:
➢ Las partes separables y significativas de la realidad (Variables)
➢ Relaciones características que existen (hipotéticamente) entre las partes
(ecuaciones)
➢ Detalles o condiciones particulares relevantes (supuestos)
● Un modelo estocástico se utiliza para reducir la incertidumbre o aleatoriedad de los datos
reales hallando una cierta regularidad estadística. Se espera que responda a ciertos
problemas prácticos:
➢ Identificación de todos los resultados posibles
➢ “” resultados relevantes
➢ Formalización/Cuantificación de resultados (probabilidad)
● Experimento aleatorio (EA)
➢ Proceso de registro de información bien delimitado cuyos posibles resultados son
conocidos de antemano
➢ Los resultados NO se pueden anticipar con seguridad
➢ Puede ser replicado
➢ Es posible identificar patrones de resultados (tendencias) a lo largo de muchas
repeticiones
2. Organización de la información
● Probabilidad: medida de la incertidumbre de cada resultado de un EA. Se expresa con un nº,
(frecuencia relativa, r), a lo largo de N repeticiones, es decir, el cociente entre el nº de veces
que aparece ese resultado (n) y el nº total de repeticiones (N) (p=n/N). Kolmogorov establece
que:
➢ P>=0
➢ P(E)=1
➢ Para r, s, t independientes entre sí: p(s) U p(t) U p(r)= p(s) + p(t) + p(r)
● Variable aleatoria (v.a): función que asigna un nº (distinto) a todos y cada uno de los
resultados de un EA (representación de la info).
● Distribución de probabilidad: Función que asocia a cada valor de la v.a una frecuencia
determinada [f(x) = p(X=x)].
➢ Variable discreta: Función de probabilidad
➢ Variable continua: Función de densidad de probabilidad
● Función de distribución: Función que asocia a cada valor su probabilidad correspondiente y
todas las probabilidades asociadas a valores menores [F(x) = P(X≤x)]. f(x) y F(x) mantienen
una relación biunívoca (se corresponden).
3. Variables discretas
● Bernoulli:
➢ EA con 1 solo ensayo
➢ Variable binaria: Sólo 2 resultados posibles mutuamente excluyentes (acierto=1,
fallo=0) ej: tirar una moneda
➢ Es la distribución más básica
➢ f(1) = p, f(0) = q
➢ f(x) = P(X=x) = pxq(n-x)
➢ F(0) = q, F(1) = q+p =1.
➢ F(x) = P(X≤xk) = ∑i= pxiq(n-xi)
➢ Parámetros: E(X)=p. VAR(X)=pq.
● Binomial:
➢ Bernoulli con n repeticiones
➢ f(xi) = P(X=x) = [n!/(x!(n-x)!)]pxq(n-x)
➢ F(x) = P(X≤xk) = ∑i=[n!/(xi!(n-xi)!)]pxiq(n-xi)
➢ Parámetros: E(X)=np. VAR(X)=npq
● Poisson
➢ Binomial con n muy grande y p muy pequeña
➢ λ= nº de veces que esperamos que ocurra el suceso multiplicado por la frecuencia
normal de ocurrencia
➢ P=e-λ(λx/x!).
➢ Parámetros: E(X)=VAR(X)= λ
● Distribución Geométrica o de Pascal
➢ Binomial que busca obtener la probabilidad de que ocurra un 1 después de un nº
determinado de 0
➢ P(X=x) = p(1-p)(x-1)
➢ Parámetros: E(X)= 1/p. VAR(X)= (1-p)/p2.
● Distribución Hipergeométrica
➢ Binomial que busca x éxitos en r observaciones
➢ n1=np
➢ P(X=x) = [(n1)!/x!(n1-x)!][(n-n1)!/(r-x)!([n-n1]-[r+x])!]/[n!/r!(n-r)!]
➢ Parámetros: E(X)=rp. VAR(X)=rp(1-p)[(n-r)/(n-1)].
● Distribución Normal o Gaussiana
➢ Máx en X=µ
➢ Simétrica respecto de X=µ →
µ=Mdn=Mo
➢ Asintótica respecto de X.
➢ Puntos de inflexión en: X=µ-σ y X=µ+σ.
➢ Parámetros: E(X)=µ. VAR(X)=σ2.

4. Variables continuas
● Distribución
➢ Suma de n distribuciones normales
tipificadas al cuadrado
➢ Uniparamétrica: grados de libertad, n
➢ Sólo toma valores >=0
➢ Asimétrica +
➢ Asintótica respecto al eje de abscisas
➢ Si n→∞, la distribución se aproxima a
N(0,1)
➢ Se utiliza para comparar distribuciones.
➢ Parámetros: E(X)=n. VAR(X)=2n.

● Distribución t de Student
➢ Derivada de N y
➢ Se utiliza en inferencias acerca de la media
➢ Simétrica respecto a tn=0.
➢ Tiene un máximo en tn= 0
➢ Asintótica respecto al eje de abscisas
➢ Si n→∞, la distribución se aproxima a la normal
➢ Desarrollada por Gossett (Student), se utiliza en vez de la normal con muestras
pequeñas.
➢ Parámetros: E(X)=0. VAR(X)=n/(n-2).
● Distribución F de Fisher
➢ Derivada de 2
➢ Se utiliza en inferencias sobre la
varianza
➢ Sólo toma valores >=0
➢ Asimétrica +
➢ Asintótica respecto al eje de abscisas
➢ Si n1 y n2→∞, la distribución se
aproxima N(0,1)
➢ Parámetros: E(X)=n2/(n1-2). ·
VAR(X)=[2n22(n1+n2-2)]/[n1(n2-4)(n2-2)2]


5. La medición
● Es un procedimiento especializado de registro de información confiable.
● Concepción tradicional: Proceso (cualificado) de registro de información, llevado a cabo por
un observador para estimar la magnitud de cada manifestación de un atributo (v.a.)
cuantitativo, por comparación con una manifestación de referencia (unidad de medida) y
expresada por medio de un número real (la medida). En la práctica, toda medida es
inherentemente imprecisa.
● Concepción representacional de la medición (Russell): Proceso por el que se asigna un
número real a cada manifestación de un atributo cuantitativo siguiendo reglas,
representando las relaciones que existen entre las manifestaciones del atributo.
● La medición en psicología
➢ Fechner y la Psicofísica (Psicología General).
➢ Galton y el interés en las diferencias individuales (Psicología Diferencial y
Psicometría)
➢ El TEST: colección de ítems que permiten “desencadenar” y registrar
comportamientos para medir los diversos aspectos que definen una cierta
característica psicológica, no observable directamente (v. latente o constructo).
- Procedimiento sistemático
- Muestra de comportamientos representativos
- Medida objetiva
- Base comparativa (grupo normativo)
- Uso predictivo.
6. El impulso a los test
● Binet, Spearman y el estudio de la inteligencia humana
● El énfasis en la utilidad práctica
● Thorndike (1918) y el imperativo cuantitativo.
● Thurstone y las condiciones de la medida en la Psicología
➢ unidimensionalidad
➢ Linealidad (proporcionalidad, aditividad,...)
➢ Abstracción (unidad de medida: alguna clase de proceso)
➢ Invariabilidad:
- Calibración del instrumento independiente de los sujetos.
- Medición para cada sujeto independiente de los aspectos concretos del
instrumento.
➢ Guttman y la condición de escalamiento (transitividad conjunta): un test
proporciona una escala de medida si para todo sujeto A que tiene un nivel superior a
otro sujeto B en la variable que se pretende medir, el sujeto A NO tiene una
puntuación inferior al sujeto B en ninguno de los ítems
● La polémica de las turbulencias: el informe del comité Ferguson (1940).
➢ Concepción representacional de la medición de Stevens (1946): La medición es un
proceso por el que se asigna un numeral a cada manifestación de un atributo
siguiendo reglas, de tal manera que entre los numerales queden representadas las
relaciones que existan entre las manifestaciones del atributo. Por tanto, medir un
atributo es construir una escala de medida para él. Una escala de medida es una
terna formada por:
- Sistema empírico, E, formado por las manifestaciones del atributo y las
relaciones existentes entre ellas
- Sistema numérico, N, formado por los números que se asignan y las
relaciones existentes entre ellos
- Regla de asignación de un número a cada manifestación del atributo
(aplicación), que garantice que N represente a E
➢ Cuando construimos una escala esta puede ser:
- Isomórfica (aplicación biyectiva o uno-a-uno, es decir, cada valor tiene un nº
ÚNICO asociado, que no comparte con ningún otro). Es la manera ideal de
medir
- Homomórfica (aplicación inyectiva o muchos-a-uno, es decir, asignamos un
nº a un cierto valor y dicho nº se aplica a todos los sujetos que compartan el
valor). Es la manera más frecuente de medir.

También podría gustarte