Está en la página 1de 40

RESUMEN ESTADÍSTICA

Unidad 6: Modelos Binomial y Normal

Guía de estudios
- Modelo de distribución Binomial. Condiciones que deben cumplirse para que una variable tenga
esta distribución. Significado de los parámetros n y p. Botella 13.2.2., pág. 313 y 314. Ejemplos de
variables con distribución binomial.
- Modelo de distribución Normal. Sus características. Tipo de variables a las que se aplica.
Significado de los parámetros µ y σ. Importancia de este modelo. Botella 13.3.2, pág. 318-322.
Ejemplos de variables para las cuales este modelo parece razonable.

Estadística inferencial
Se llama así porque a través de sus procedimientos realizamos inferencias a nivel
poblacional, y para hacerlas se basa en la idea de probabilidad.
Modelos de distribución de probabilidades
En psicología es común el uso de modelos teóricos para explicar las regularidades del
comportamiento o funcionamiento mental. Así tenemos modelos que, por ejemplo,
explican el funcionamiento de la memoria o cómo se desarrollan ciertos trastornos.
En estadística también se usan, pero estos modelos teóricos describen el comportamiento
de las variables, describen cómo se presentaría la variable de interés en la población que
es objeto de estudio.
Un modelo es una construcción teórica, una representación simplificada de la realidad
que posibilita una mejor comprensión de la misma, facilita su análisis e interpretación, y
permite también formular conclusiones y realizar predicciones. Contar con un modelo para
una variable le permite al investigador deducir conclusiones que luego confrontará con la
realidad observada, es decir, pondrá a prueba para ver si explican o predicen bien lo que
sucede en la realidad.
Ejemplo: si tuviéramos que pensar un modelo de cómo se presenta usualmente la
variable “Sexo” en la población de alumnos de nuestra facultad, podríamos decir, basados
en la experiencia (recorrer las aulas, halls y pasillos) que hay más mujeres que varones, y
podríamos arriesgar alguna idea más precisa. No hace falta decir la cantidad concreta de
varones y mujeres que hay, generalmente no tenemos ese dato, y aquí no es necesario.
Lo que queremos expresar, se puede plantear perfectamente indicando qué porcentaje de
mujeres y varones creemos que hay. Algunos podrían decir que suponen que hay un
60% de mujeres contra un 40% de hombres. Otros podrían creer que hay un 70% de
mujeres y un 30% de varones, por ejemplo. Estos son distintos modelos que podemos
tener de esa realidad. No son la realidad, sino que son una construcción teórica que trata
de describirla. Luego podremos ver cuál de estos modelos explica o describe mejor la
realidad de los alumnos.
Entonces, no estamos hablando de la cantidad concreta de varones y mujeres que hay.
Por más que tuviéramos ese dato, se trataría de valores que cambian de un año a otro. El
modelo trata de ser una explicación general de lo que usualmente podemos esperar que
se de en una población determinada, y en este sentido, es más adecuado pensar en qué
proporción se darían los distintos valores de la variable. Lo que queremos expresar se
representa mejor con las frecuencias relativas. Recordemos que éstas nos informan qué
parte del todo corresponde a cada valor de la variable. Las frecuencias porcentuales
representan lo mismo que éstas, pero multiplicado por 100.
La tabla dice “frecuencia relativa teórica”, porque esta frecuencia relativa es supuesta, no
se fundamenta en la observación directa, no es la que surgió de la realidad de contar
todos los casos reales, sino que son postuladas. La experiencia previa justifica los valores
propuestos, o es deducida a partir de ciertas condiciones teóricas (es lo que suponemos
en base a la experiencia o a la teoría que manejamos). No es un dato de la muestra como
el que veníamos trabajando hasta ahora.

A las frecuencias relativas teóricas las vamos a llamar probabilidades. De esta manera,
las diferenciamos más de las frecuencias relativas muestrales. La probabilidad de un valor
de la variable es la proporción de casos que se espera que ese valor de la variable tenga
en una población. Entonces, la probabilidad de un valor de la variable puede interpretarse
como una medida de la posibilidad de que dicho valor sea observado en la población. A
esta medida, desde sus orígenes, se la ha representado en tantos * 1, es decir, en
proporciones. Entonces:

→ Un valor de la variable imposible de ser observado en una población, tendría una


probabilidad igual a 0.
→ Los valores de la variable posibles pero raros, tendrán valores de probabilidad
cercanos a 0.
→ Los que son casi seguros de que se van a dar, tendrán valores de probabilidad
cercanos a 1.
No obstante, a veces se utilizan números expresados en tantos * 100 para indicar
probabilidades (porcentajes). Aunque el sentido que se pretende dar es el mismo,
estrictamente hablando, estos valores no son probabilidades, sino porcentajes de
posibilidades que expresan cuántas de cada 100 veces se espera que ocurra el suceso
buscado.
Lo de la imagen es un Modelo de cómo podría presentarse la variable “Sexo” en la
población de alumnos de Psicología en nuestra facultad. Podemos ver que los Modelos
en estadística son distribuciones de frecuencias relativas teóricas, y como dijimos que a
este tipo de frecuencias las llamamos probabilidades, podremos decir que lo que tenemos
aquí es un Modelo de Probabilidades para dicha variable. Podemos ver que esta es una
construcción teórica simplificada de la realidad que nos permite comprender cómo se
presentaría la variable en la población, con qué proporción suponemos se dan los valores
de esta variable. A partir de este Modelo podemos sacar conclusiones y realizar
predicciones.
Aclaración importante: a partir de ahora vamos a estar trabajando con variables que son
aleatorias, es decir que sus valores dependen del azar. El azar tiene que ver con
aquellos eventos cuyo resultado no podemos predecir con certeza. Por ejemplo, cuando
elegimos al azar a un individuo de la población de los alumnos de Psicología, no sabemos
si va a ser varón o mujer. Otro ejemplo es cuando elegimos al azar a un individuo de la
población para preguntarle su opinión sobre una cuestión de actualidad, que puede ser
favorable o desfavorable. Esto no quiere decir que la opinión del encuestado sea algo
aleatorio, sino que posiblemente una opinión formada al respecto y su respuesta no
depende del azar. Lo que depende del azar, en este contexto, es el procedimiento de
elección de un individuo, y sólo uno, de la población. La incertidumbre se refiere a si el
individuo extraído al azar será de los que tiene una opinión favorable o de los que están
en contra.
La probabilidad de un valor de la variable tiene las mismas propiedades que la frecuencia
relativa, es decir:

→ Es una cantidad no negativa.

→ La suma de las probabilidades asignadas al conjunto de los valores de la variable


es igual a 1.
Este es otro ejemplo de cómo la misma variable puede distribuirse de dos maneras
diferentes. Tenemos dos modelos de probabilidades distintos para la misma variable que
es “Puntaje en Ansiedad”.
• MODELO 1: se observa una distribución simétrica, ya que según este modelo es
más probable encontrar los valores intermedios en ansiedad que los valores más
extremos.
• MODELO 2: presenta asimetría negativa, ya que es más probable que se den los
valores altos de la variable que los puntajes bajos.
El M1 podría ser el que modeliza o describe la ansiedad de una población en una
situación neutra, mientras que el M2 podría estar modelizando el comportamiento de la
ansiedad de esa población frente a una situación estresante como, por ejemplo, un
examen. Por eso es más probable que se encuentren valores altos de ansiedad.
En estos ejemplos podemos entender qué significado damos a las probabilidades:
podemos decir que para una muestra elegida al azar de una población modelizada con el
M1, se espera que el 40% de los individuos de la muestra tenga un puntaje en ansiedad
igual a 2. Como dijimos antes, la probabilidad correspondiente a un valor de la variable
puede interpretarse como una medida de la posibilidad de que dicho valor sea observado
en una muestra elegida al azar de una población. Es decir, si tomamos una muestra al
azar de esta población, se espera que esa muestra presente una distribución de
frecuencias parecida a esta.
En los modelos se pueden calcular las MTC y medidas de variabilidad. Para M1, la moda
es el puntaje 2 en ansiedad. Como es simétrico, también es la media y la mediana. La
media y la varianza pueden calcularse de la siguiente manera cuando trabajamos con
modelos de probabilidad:

→ Media (μ): se obtiene sumando los productos de los valores de la variable por sus
correspondientes probabilidades. De esta manera, la diferenciamos de la media
muestral.
→ Varianza (σ2): se obtiene sumando los cuadrados de los desvíos a la media por la
probabilidad correspondiente. De esta manera, la diferenciamos de la varianza
muestral.
Como el desvío es la raíz cuadrada de la varianza, se simboliza con la letra σ.
Estos resúmenes se simbolizan con letras griegas, ya que se tratan de parámetros: son
propiedades descriptivas de la población.
La moda y la mediana se calculan en forma similar a como se lo hace cuando se tiene
una distribución de frecuencias observada. Por lo tanto, al trabajar con modelo podemos
calcular los resúmenes que conocemos, y de esta manera podremos saber qué media y
desvío son las esperadas en la población según el modelo planteado.
Como vimos hasta acá, contar con un modelo de probabilidades para las variables que
estudiamos, nos permite describir su comportamiento en la población, y sacar
conclusiones que luego puedan ser puestas a prueba comparándolas con la realidad. Si la
realidad que conocemos a través de las muestras coincide con lo planteado por el
modelo, podremos decir que el modelo se sostiene.
La estadística ha desarrollado una gran variedad de modelos de probabilidades. Estos
describen el comportamiento de distintos tipos de variables. Cada tipo de modelo tiene su
nombre propio, dos de ellos son: el modelo binomial (variables cuantitativas discretas) y
el modelo normal (variables cuantitativas continuas).

Modelo Binomial
Una variable sigue un modelo de probabilidad binomial si es una variable cuantitativa
discreta que cuenta la cantidad de éxitos que ocurren en n observaciones de una
variable dicotómica de parámetro p, que son independientes y con la misma probabilidad
de éxito p. IMPORTANTE: estas variables siempre empiezan con “cantidad de…”,
“número de…”.
Ejemplo: se tira cuatro veces un dado al aire y se registra el número de veces que sale “2”
en las cuatro tiradas. Entonces, el resultado obtenido en cada lanzamiento puede
considerarse una variable dicotómica con probabilidad de éxito 1/6 (una en seis). Luego,
la cantidad de “2” en cuatro tiradas del dado es una variable binomial de parámetros n = 4
y p = 1/6.
Otro ejemplo:
→ Se aplica sobre variables dicotómicas. Esta variable dicotómica no es aún la
variable binomial, pero su presencia es imprescindible para que ésta se genere.
Entonces, las variables dicotómicas son variables que admiten sólo dos valores
(habitualmente 0 y 1), y pueden ser auténticas variables dicotómicas o
dicotomizadas artificialmente.
→ Los valores de una variable binomial van desde 0 (ninguno) a n (todos). Es decir,
el recorrido de la variable es n + 1.
→ ¿Cómo se obtienen las probabilidades
asociadas a cada uno de los valores de la
variable binomial? A través de la aplicación
de una fórmula matemática de la cual hay que informar los parámetros:
• Uno es П (probabilidad de éxito). En los ejercicios, puede aparecer como
porcentaje, proporción, o dar explícitamente la probabilidad de éxito.
• El otro es n (tamaño del grupo con el que se va a trabajar).
Condiciones necesarias para aplicar el modelo Binomial.
1) Condición de estabilidad. La probabilidad de éxito debe permanecer constante
en las observaciones n de la variable dicotómica. En el primer ejemplo, la
probabilidad de que salga 2 en cada tirada del dado es 1/6. No va cambiando por
cada tirada, sino que se mantiene constante la probabilidad de éxito. Al contrario,
si con cada tirada se retirara un dado, esta condición no se cumpliría.
En el segundo ejemplo, la probabilidad de que un paciente de los 7 consultados
termine el tratamiento es 0,6. Si por alguna razón esta probabilidad aumenta o
disminuye durante el tratamiento, la probabilidad de éxito cambia, y no se
mantendría la condición de estabilidad.
2) Condición de independencia. La probabilidad de éxito en una observación no
aumenta ni disminuye si se conoce el resultado de otra observación. En el primer
ejemplo, la probabilidad de que salga 2 en la tercera tirada no cambia si se sabe
que en los lanzamientos anteriores salió 2.
En el segundo ejemplo, la probabilidad de conocer que un paciente terminó su
tratamiento, por ejemplo el quinto, nada informa acerca de si el sexto o séptimo lo
harán. Es decir, conocer los resultados de ensayos anteriores no modifica mi
probabilidad de predecir los ensayos que van a venir.
Ejercicios:

→ Definir las modalidades es decir cuál es el éxito y cuál es el fracaso (en


probabilidades, o sea, frecuencia relativa teórica). Es importante distinguir
probabilidad de fracaso de la probabilidad de éxito. Éxito = p. Fracaso (1 – p) = q.
→ Para definir la variable binomial siempre empieza con “cantidad de…” (variable
cuantitativa discreta).
→ Para definir los parámetros hay que identificar n y p.
X ~ B (10; 0,475) 🡪 La variable X se distribuye aproximadamente de manera
binomial, con dichos parámetros: n = 10 y p = 0,475.
→ Para conocer la distribución de probabilidades, se necesitan los valores y las
probabilidades de cada uno. Si n = 10, el recorrido de la variable (sus valores) es
10 + 1. Tendrá 11 valores. Siempre los valores de la variable son n + 1 (porque
hay que contar también el 0).
→ Cuando se calcula probabilidad con la app, los “éxitos de la prueba” es el valor
de X (el valor de la variable) para el cual estamos queriendo calcular la
probabilidad. La aplicación sólo da probabilidades puntuales, no las acumuladas.
→ Para el punto 1 d, hay que hacer la tabla de frecuencias relativas teóricas
acumuladas.
i. Hay que buscar: p (x = 8)
ii. Hay que buscar: p (x = 10) Pide las puntuales
iii. Hay que buscar: p (x = 0)
iv. “A lo sumo” 3, la probabilidad me dice “como máximo 3”. Entonces x va a ser
menor o igual que 3. IMPORTANTE (parcial): Como en el ejercicio dice “que
no alcance el éxito”, se usa de parámetro q (no éxito) para sacar las
probabilidades de cada valor. No como en los anteriores, que como el
enunciado decía “alcanza el éxito” se usaba de parámetro p (probabilidad de
éxito). Hay que buscar: p (x ≤ 3)
Se suman entonces las probabilidades de: p (x = 0) + p (x = 1) + p (x = 2) +
p (x = 3)
v. “Por lo menos 4”. Vuelve a decir “alcancen el éxito”, el parámetro de vuelta es
p. Entonces, 4 es el mínimo, es el piso, y está incluido. X va a ser mayor o
igual a 4. Hay que buscar: p (x ≥ 4)
Se puede encontrar de dos formas:
1. Sumando las probabilidades de p (x = 4) hasta p (x = 10). Sería
entonces: p (x ≥ 4).
2. Restando las probabilidades que no se incluyen, o sea las que sean
menores o iguales a 3. Sería entonces: 1 – p (x ≤ 3).
vi. “Más de 6 pacientes alcancen el éxito”. No incluye el 6. Entonces, hay que
buscar: p (x > 6). Se suma desde la probabilidad de p (x = 7) hasta p (x = 10)
vii. “Menos de 7 pacientes no alcancen el éxito”. No incluye el 7. Entonces, se
vuelve a trabajar con parámetro q, y hay que buscar: p (x < 7)
viii. “La mitad de los pacientes no alcance el éxito”. Si n es 10, la mitad es 5. Se
usa q de parámetro. Hay que buscar: p (x = 5)
ix. “Entre 2 y 7 no alcancen el éxito”. Se usa q de parámetro. Como pide entre dos
valores hay que buscar: p (2 ≤ x ≤ 7). O sea, se suman las probabilidades de
p (x = 2) hasta p (x = 7)
x. “La mayoría alcance el éxito”. Se vuelve a trabajar con p de parámetro. La
mayoría es la mitad + 1. En este caso, como es 10, la mayoría es 5 + 1 = 6.
Hay que buscar: p (x ≥ 6)
→ Ejercicio c: la moda es el valor con mayor probabilidad. La asimetría es positiva
porque la mayor tendencia se ve hacia los menores valores (es sutil la diferencia,
pero la hay).

Modelo Normal
Cuando se habla de un modelo de distribución se refiere a una forma que adquieren los
datos debido a la variabilidad que presentan, y dependiendo de cómo es esa forma se
pueden derivar probabilidades teóricas de ocurrencia de un evento. Podemos tener
distintos patrones según la forma. Uno de esos patrones o formas es la distribución
normal.
Esta distribución normal tiene una forma característica y un modelo de probabilidad
asociado teórico que tiene determinadas características:

→ Sus parámetros son μ (media poblacional) y σ (desvío poblacional). Cuando


hablamos de parámetros, hablamos de propiedades descriptivas de las
poblaciones. La distribución que se ajusta a un modelo normal queda definida por
estos parámetros, es decir, vamos a tener una distribución normal con sus
parámetros correspondientes, y esa combinación de parámetros es la que nos va
a terminar dando esa forma o patrón mencionado. Es decir: N (μ y σ)
→ Dentro de la psicología tenemos varias variables que se ajustan a este modelo, las
más conocidas son la inteligencia, tiempo de redacción, aptitudes, rendimiento
escolar, etc., por lo que este modelo es muy utilizado en nuestra disciplina. Esto es
importante porque a la hora de realizar otros cálculos más complejos, muchos van
a requerir como supuesto inicial que la distribución sea normal.
→ La curva normal tiene forma de campana (Campana de Gauss) en la cual los
valores de mayor frecuencia son los que se encuentran al medio, es decir, la gran
mayoría de las personas obtienen valores intermedios y es muy poco probable
obtener pocos valores que se van acercando a los extremos de la curva.
→ Es un modelo para variables cuantitativas continuas.

En este modelo nos encontramos con esta representación gráfica:


Básicamente esta curva nos habla de que en las características que se ajustan a este
modelo, la mayoría de las personas obtenemos valores medios, y muy pocos se destacan
en algo y muy pocos tienen serias dificultades en alguna variable. A medida que nos
alejamos del centro, la probabilidad asociada a observar ese valor va disminuyendo.
Entre un desvío por encima de la media y uno por debajo, se encuentra el 68,26% de los
valores de la distribución. Si nos vamos a los dos desvíos por encima y por debajo, ya
nuestra curva va a cubrir al 95,45% de los valores de nuestra variable. Si nos vamos
aún más lejos, si incluimos entre tres desvíos por debajo y por encima de la media,
tenemos un 99,73% de los datos de nuestra distribución. Esto nos permite saber en
qué posición se encuentra una variable y qué probabilidad acumulada deja hacia abajo.

→ Propiedades de la distribución normal:

Esto es algo que ya veíamos cuando hablábamos de las medidas de asimetría, y


decíamos que una distribución era simétrica cuando la dividíamos en dos y nos quedaban
dos partes exactamente iguales. En el caso de la distribución normal, en la parte media
van a estar ubicadas las tres MTC (media, mediana y moda).

Esto quiere decir que la curva no toca el eje x (horizontal), salvo en ±∞. Como hemos
visto, la curva se va acercando hacia el eje de las x, pero se mantiene un poquito
distanciado, y recién va a ser igual a 0 cuando lleguemos a ±∞.

También se encuentra como distribución normal estándar. La diferencia con respecto a


las otras es que acá conocemos de antemano su media y su desviación típica.
Los puntos en donde la curva cambia de cóncava a convexa y viceversa, los puntos de
inflexión, van a estar dados en 1 desvío por encima y 1 desvío por debajo de la media
poblacional.

Aspectos prácticos de la distribución normal para resolver ejercicios.


Lo que necesitamos para empezar a pensar la resolución de un problema de distribución
normal es:

→ Poder identificar claramente cuáles son los parámetros de esa distribución. Esto
es, identificar μ (media poblacional) y σ (desvío estándar poblacional).

→ Tener en claro cuál es la información que necesito obtener: si lo que pide el


ejercicio es obtener un área o un puntaje.
→ Definir si la incógnita requiere que se tipifiquen puntajes o que se destipifiquen.

Fórmula de tipificación.

Fórmula de destipificación.

→ No es lo mismo la puntuación Z que el valor de la puntuación original. A veces


parecen equivalentes, pero están medidos en escalas diferentes.
→ Cuando usemos la app, debemos tener en cuenta que las áreas o probabilidades
que vamos a obtener, son respecto a un valor hacia la izquierda.
Hay dos tipos de cálculos:
1) Cuánta área deja por debajo de sí determinado valor de x. Entonces, te dan el
valor de x y te preguntan por el área, que sabemos que es una probabilidad. Ese
valor de x hay que pasarlo a puntaje Z (hay que tipificarlo – fórmula de
tipificación) y busco la probabilidad para ese puntaje típico (la probabilidad que
da la app siempre es la que está por debajo de ese valor, o sea, hacia la
izquierda).
IMPORTANTE: La probabilidad que queda por debajo de un valor, si se la
multiplica por 100, da como resultado el rango percentilar.
Cuando pide el área por encima del valor de x, a la probabilidad total (1) se le
resta la probabilidad obtenida para el valor de Z (el valor de x ya tipificado).
2) Te dan el valor del área (probabilidad) para calcular cuánto vale x. En la
aplicación, cuando se ingresa la probabilidad que me dieron como dato, da el valor
de Z (puntaje típico), por lo que hay que pasar de Z a x (pasaje inverso – fórmula
de destipificación). Esta fórmula se obtiene despejando x en la fórmula anterior
de tipificación.
Unidad 7: Contraste de Hipótesis

Guía de estudios
- Distribución de la media muestral según el Teorema Central del Límite. Importancia de este
resultado. PDF de la Cátedra sobre Distribución de la Media Muestral.
- Inferencia estadística. Objetivo y métodos. Pardo pág. 127 y 128.
- Contraste de hipótesis. En qué consiste y cuál es su lógica. Pardo 3.1, pág. 128, 129 y 130
- Hipótesis estadística. Qué es y cómo se vincula con una hipótesis científica. Ejemplificar. Pardo
3.1.1, pág. 131, 132 y 133.
- Estadístico de contraste y regla de decisión. Conceptos. Pardo 3.1.3 y 3.1.4, pág. 135 a 139.
- Qué se entiende por "mantener" y por "rechazar" la hipótesis nula. Pardo 3.1.5., pág. 140 y 141.
- Posibles consecuencias que se siguen de una prueba de hipótesis: decisiones correctas, errores
de tipo I y II. Conceptos de nivel de significación y de potencia. Relación entre α y β. Pardo 3.2.,
pág. 143 a 148. Concepto de nivel crítico y su utilidad. Pardo 3.4., pág. 154 a 158.
- Supuestos que fundamentan cada una de las pruebas de hipótesis. Hoja de la Cátedra
"Esquemas de pruebas de hipótesis". Pardo 3.1.2., pág. 133, 134 y 135.

Distribución de la Media Muestral


Principal objetivo de la estadística inferencial: establecer conclusiones relativas a los
parámetros poblacionales a partir de los estadísticos muestrales. Para ello es necesario
conocer la relación que hay entre ambos.

→ Parámetro: propiedad descriptiva de una población. Es una característica fija,


generalmente numérica, de la población de observaciones de los valores de una
variable. Se simbolizan con letras griegas, por ejemplo: µ (promedio, media
poblacional), σ2 (varianza poblacional), П (proporción a nivel poblacional).
→ Estadístico: propiedad que describe a una muestra. Es una característica
muestral que se calcula en función de las observaciones muestrales. Por lo tanto,
su valor dependerá de los valores de la variable que tomen los individuos
seleccionados para ser parte de la muestra. Por ejemplo:  (media muestral), S2
(varianza muestral), p (proporción muestral).
Estadísticos como variables aleatorias
Como el valor del estadístico varía de muestra en muestra, entonces podemos considerar
que un estadístico también es una variable, porque sus valores dependen de la muestra
que sea seleccionada (piense que dada una población pueden extraerse muchas
muestras diferentes).
Media, varianza y proporción muestrales son estadísticos, ya que se calculan sobre la
base de las observaciones de la muestra. Cada muestra de valores de una variable X
brinda un valor medio, una varianza y una proporción de ocurrencias de algún suceso de
interés determinado para esa muestra. Si se cambia la muestra cambian los valores de
los estadísticos antes mencionados.
La media muestral es una variable, y al igual que cualquier otra variable, tiene su propia
distribución de probabilidad. Si somos capaces de saber cuál es esa distribución,
entonces podremos calcular las probabilidades asociadas a los posibles valores de ese
estadístico. La distribución que empareja posibles valores de un estadístico con las
probabilidades de verificación recibe el nombre de distribución muestral de un
estadístico. Cada uno de los estadísticos que hemos estudiado tiene su propia
distribución muestral. Como toda distribución, tiene un centro y una variabilidad. La
desviación típica de la distribución muestral de un estadístico recibe el nombre de error
típico.
Distribución de la media muestral: es una distribución teórica que asigna una
probabilidad concreta a cada uno de los valores que puede tomar la media muestral en
todas las muestras del mismo tamaño que es posible extraer de una determinada
población.
• El centro de la distribución muestral de  es el mismo que el de la distribución
poblacional de la variable X 🡪 µ = µX
• La variabilidad de la distribución muestral de  es menor a la de la variable X.
¿Cuánto menor? Esto dependerá del tamaño de la muestra:
✔ Cuanto más grande sea el n de la muestra, más se parecerá la media
muestral a la poblacional, y por lo tanto la variabilidad o dispersión de las
 con respecto a la media poblacional será menor, y las medias
muestrales variarán menos.
✔ Por eso la varianza de la distribución muestral de  es igual a la varianza
poblacional de X dividida por el tamaño de la muestra 🡪 σ2 = σ2X / n
✔ Como la desviación típica es la raíz cuadrada de la varianza, la desviación
típica de la distribución de  es igual a la desviación típica poblacional de
X dividida por la raíz cuadrada del tamaño de la muestra 🡪 σ = σX / √n

Es importante no confundir la distribución original de la variable X con la distribución


muestral del estadístico . Las figuras muestran con claridad que la distribución original
de la variable X (izquierda) es mucho más ancha y dispersa que la distribución de la
variable media muestral (derecha). Esto significa que para conocer las probabilidades
asociadas en los valores de la variable X, hay que tener presente que la desviación típica
de su distribución es σ, mientras que para conocer las probabilidades asociadas al
estadístico  hay que tener presente que la desviación típica o error típico de su
distribución es σ.
Texto “media y varianza muestral como variables aleatorias”.
• Primer conclusión: la media muestral es una variable aleatoria, porque varía de
muestra a muestra.
• Segunda conclusión: la varianza muestral es una variable aleatoria.
• Tercera conclusión: la media muestral () es un estimador insesgado de µ (media
poblacional). El promedio de todas las medias muestrales es igual a la media de la
variable.
• Cuarta conclusión: la varianza muestral (S2) también es un estimador insesgado
de la varianza poblacional. La varianza muestral va a ser igual a la varianza
poblacional (de x) sobre n.
• Quinta conclusión: si la variable original tiene distribución normal, entonces la
media muestral también tiene distribución normal con parámetros µ y σ sobre raíz
de n. Esto es importante porque esto es crucial para hacer la prueba de hipótesis.
• Sexta conclusión: teorema central de límite. Si la variable original no tiene
distribución normal, pero n es mayor que 30, entonces la media muestral tiene
distribución normal, lo que permite continuar con el procedimiento de hipótesis.

Contraste de hipótesis
Es habitual que en una investigación se pretenda determinar el grado de veracidad de una
afirmación en la población de referencia. Por ejemplo:

“¿Es la técnica terapéutica A más apropiada que la B para aliviar los síntomas de los
pacientes depresivos?”

“¿Son los sujetos que se sienten inseguros más agresivos que los que sienten seguros?”

“¿Es el tratamiento aplicado contra el insomnio efectivo?”

Si se pudiera acceder a la información de todos los individuos de la población en cuestión,


tendríamos la certeza de determinar la veracidad de estas hipótesis sin ningún tipo de
error. Sin embargo, como en la mayoría de los casos es imposible obtener esta
información de todos los individuos de la población, lo que se hace es evaluar la
veracidad de estas afirmaciones en una muestra, para determinar si las conclusiones
obtenidas sobre esos datos muestrales son luego válidas para toda la población de
referencia.
Para poder hacer esto se necesita que la muestra sea representativa de la población. No
toda muestra sirve para hacer inferencias. Esta debe reproducir en pequeño,
internamente, las principales características de la población de la cual fue extraída para
ser una muestra utilizable desde el punto de vista de la estadística inferencial.
Debe considerarse también la aplicación de métodos de inferencia estadística que
permitan decidir sobre la veracidad de la información, es decir, debe analizarse desde la
utilización de estos métodos, esencialmente porque éstos permiten determinar el nivel de
error o la probabilidad de equivocarse con la decisión que se está tomando.
Contraste de hipótesis (prueba estadística, prueba de significación, test de hipótesis,
método de toma de decisiones):
Es el instrumento estadístico que permite evaluar a partir de los datos de una muestra
representativa, la veracidad de las afirmaciones hechas sobre una población. También
puede verse y se denomina habitualmente como regla de decisión o método de toma
de decisiones, porque permite decidir sobre la veracidad de una afirmación a partir de un
criterio especificado y a partir de la información provista por una muestra aleatoria.
En la prueba de hipótesis existen dos hipótesis estadísticas que forman parte de ese
procedimiento, las cuales son mutuamente excluyentes y colectivamente exhaustivas
(no hay una tercera opción). Estas son las mismas características de los valores de la
variable.

→ Hipótesis científica: es una afirmación referida a una o varias características de


una población. No es directamente evaluable a partir de los datos muestrales y la
aplicación sobre ellos de un método estadístico, sino que es necesario transformar
esta hipótesis en una hipótesis estadística.
→ Hipótesis estadística: tiene que ser completamente equivalente a la original, pero
representada de forma tal que en éstas sí sea factible analizar los datos
muestrales mediante un método de inferencia estadística y poder determinar su
veracidad.
Ejemplo: se sabe que una persona con diagnóstico de insomnio duerme en promedio 4 hs
por noche. Un grupo de investigadores desarrolló un tratamiento para paliar los efectos
del insomnio, y tiene la certeza de que su tratamiento es efectivo. Sin embargo, necesita
saber si esto es realmente así en la población de insomnes.
Hipótesis científica 🡪 el tratamiento es efectivo. Esta hipótesis científica, que puede ser
verdadera o falsa, define una hipótesis complementaria.
Hipótesis complementaria 🡪 el tratamiento no es efectivo. Cuando hablamos de
hipótesis complementarias lo hacemos en términos de la veracidad de la hipótesis
científica, en cuanto a que si una de ellas es verdadera en la población, necesariamente
la otra tiene que ser falsa. Esto es muy importante en lo que es el desarrollo técnico de los
contrastes.
Para poder transformar una hipótesis científica en una hipótesis estadística a la cual se
pueda evaluar a partir de la utilización de métodos de estadística inferencial, es necesario
definir la variable que mide aquella característica a la que la hipótesis científica hace
referencia, para poder expresar dicha hipótesis en términos de alguno de los parámetros
de la variable en cuestión.
X: cantidad de horas dormidas luego de aplicado el tratamiento.
µ: promedio poblacional de horas dormidas.
Hipótesis científica 🡪 el tratamiento es efectivo: µ > 4
Hipótesis complementaria 🡪 el tratamiento no es efectivo: µ ≤ 4
La teoría de contraste de hipótesis hace referencia a dos hipótesis y las denomina:

→ Hipótesis nula (H0): esta es la única que vamos a poder rechazar o no rechazar
(mantener, corroborar). Todo el procedimiento recae sobre la hipótesis nula. Esta
hipótesis se conoce popularmente, aunque no es algo general, como la hipótesis
de la igualdad (cuando aparece el = la hipótesis seguramente sea nula). Esa
igualdad tiene que ver con mantener lo normativo o lo instituido, mantener el status
quo, mantener lo histórico. Básicamente, mantener la hipótesis nula dice que nada
cambia.
→ Hipótesis alternativa, complementaria de la anterior (H1): en general es la hipótesis
de investigación, la que quiere probar quien sea que esté usando estadística para
tomar decisiones. Esta hipótesis, a diferencia de la nula, tiene otras opciones (<, >,
≠).
Siguiendo el ejemplo, sería:
H0: µ ≤ 4
H1: µ > 4
Tenemos entonces dos hipótesis que contrastar. En la teoría de los contrastes de
hipótesis, siempre la decisión tomada va a estar referenciada a H0, es decir que cuando
los datos de la muestra nos hagan decidir que H0 no es verdadera, hablaremos de
rechazar H0, y cuando los datos nos hagan decidir que H0 es verdadera, hablaremos
entonces de aceptar o no rechazar H0.
La particular característica que tienen los contrastes de hipótesis que es decidir sobre la
veracidad de una hipótesis o afirmación a nivel de población a partir de la información que
provee una muestra hace que sea posible que la decisión tomada pueda ser errónea.
Esto es independiente de cuán buena y representativa sea la muestra, depende
solamente de esta particularidad que es decidir sobre el todo a partir de la información de
una parte. Por esto es posible cometer un error al decidir rechazar o aceptar H0 utilizando
un contraste de hipótesis. Estos dos tipos de errores son:
• Error de tipo 1: rechazar H0 cuando es verdadera.
• Error de tipo 2: aceptar H0 cuando es falsa.

Tipos de errores

→ La probabilidad de error de tipo 1 se denomina nivel de significación (α).

→ La probabilidad de error de tipo 2 se denomina β.


→ α se fija a priori en el enunciado (0.05, 0.01 son los valores habituales).

→ β depende del tamaño de la muestra considerada. Su valor no puede ser fijado a


priori.
Esta incertidumbre hace necesario que para definir contrastes de hipótesis que puedan
controlar estos errores sea necesario basarlos en una serie de supuestos, la mayoría
probabilísticos. Estos son un conjunto de afirmaciones que se toman como válidas y que
hacen referencia a la variable que se está midiendo, a parámetros de ésta y cuestiones
vinculadas a la selección de la muestra. Estos supuestos conforman las condiciones
teóricas necesarias para el desarrollo de los contrastes de hipótesis.
Supuestos:
• Es habitual en la teoría de los contrastes de hipótesis, hacer un supuesto sobre la
distribución poblacional de la variable X. El supuesto usual es el de normalidad:
suponer que X se distribuye normalmente en la población que uno está
estudiando. Cuando X es normal aparecen una serie de propiedades que permiten
desarrollar métodos muy efectivos. Si la variable no es normal también hay
condiciones en las cuales uno puede desarrollar métodos de contraste de
hipótesis para variables que no son normales, o aplicar métodos que son
desarrollados para variables con distribución normal a variables que no lo son, por
ejemplo, a través del teorema central del límite.
¿Cómo se sabe que está bien suponer normalidad? La estadística brinda
herramientas para analizar si los supuestos que se están aplicando son válidos en
la muestra que uno tiene. Directamente tenemos que pensar que nuestra variable
se distribuye normalmente.
• Otro supuesto importante es el supuesto basado en la muestra. Ésta debe ser
aleatoria, es decir que los individuos seleccionados para la muestra han sido
elegidos al azar (independientes entre sí y sin ningún tipo de sesgo en su
selección).
Cuando uno utiliza estos supuestos, µ no es sólo el promedio poblacional de horas
dormidas, siguiendo el ejemplo, sino que además, al ser la media de X, es el µ de una
distribución normal.
µ: promedio poblacional de horas dormidas = media de X
Esto hace que estemos en uno de los tipos de contraste de hipótesis: contraste de
hipótesis para la media de una distribución normal. Este contraste se resuelve de dos
formas diferentes (varianza poblacional conocida – desconocida), lo cual implica
considerar un supuesto adicional.
Estadístico de contraste o prueba 🡪 es un indicador numérico que puede ser calculado
a partir de la información de la muestra, y además tiene una formulación matemática
vinculado a los elementos de la muestra. Por esto, el estadístico de prueba tiene siempre
una distribución de probabilidad conocida que permite luego realizar consideraciones
respecto a el control de la probabilidad de error de tipo 1. Adicionalmente a eso, su
cálculo permite decidir si uno va a rechazar o no H0.
Regla de decisión 🡪 los contrastes de hipótesis tienen definida una regla de decisión, es
decir, un esquema que permite determinar si H0 debe ser rechazada o no. Esta regla de
decisión depende del estadístico de prueba, de su distribución, del tipo de hipótesis
alternativa que se está considerando, y también depende del α o nivel de significación o
probabilidad de error de tipo 1 que se haya fijado. Puede fijarse de dos formas:
1) Definición de la zona de rechazo del contraste de hipótesis. La ZR es el conjunto
de valores del estadístico de prueba que hacen que se decida rechazar H0. Así
como existe una ZR, existe una zona de aceptación, que se define como el
conjunto de valores del estadístico que hacen que se decida no rechazar H0.
2) Calcular directamente la probabilidad de rechazar la H0 cuando es verdadera
teniendo en cuenta el valor que ha tomado el estadístico en la muestra que
nosotros tenemos disponible. Esta probabilidad se llama valor P o P value.

→ Regla de decisión basada en la zona de rechazo

Consiste en la comparación de esta probabilidad comparación del estadístico con la ZR,


entonces:
• Si el valor del estadístico pertenece a la ZR: se rechaza H0.
• Si el valor del estadístico no pertenece a la ZR: no se rechaza H0.

→ Regla de decisión basada en el valor P

Consiste en la comparación de esta probabilidad con el nivel de α que el investigador


haya fijado a priori, entonces:
• Si el valor de P es menor que α: se rechaza H0.
• Si el valor de P es mayor que α: no se rechaza H0.

→ Cuando la decisión es no rechazar la H0, se dice que no hay evidencia suficiente


en los datos como para hacerlo.
• De ser una decisión errónea, se comete error de tipo 2.
→ Cuando la decisión es rechazar H0, decimos que hay evidencia suficiente en los
datos como para hacerlo.
• Si esta decisión fuera errónea, se comete error de tipo 1.

Contraste de hipótesis para la media de una distribución normal con sigma conocido
Este tipo de contraste es usado cuando es necesario verificar hipótesis que pueden
representarse a partir de la media de una variable. Para el desarrollo de esta técnica nos
basaremos en el supuesto de normalidad de la variable, es decir, vamos a suponer que
la variable que es necesario medir para conocer información sobre la hipótesis que
estamos trabajando tiene una distribución normal cuya media es µ y su desvío es σ en la
población. Además, supondremos que la hipótesis científica del investigador puede ser
expresada como una hipótesis estadística utilizando el parámetro µ.
Es importante considerar que las muestras aleatorias pueden verse de dos formas
diferentes:
1) Como un conjunto de números, cuando efectivamente las mediciones sobre X ya
han sido hechas y se tienen esos valores.
2) Antes de que las mediciones se hagan, los valores pertenecientes a una muestra
aleatoria pueden pensarse como si fueran variables todas idénticas a la variable X
que se está midiendo y con la misma distribución que esta variable tiene.
Esto hace que cualquier cuenta que pueda hacerse sobre los valores de una muestra,
tenga también este carácter dual de ser un número y una variable cuando los valores de
la muestra son también variables. Esto hace que uno pueda calcular estimadores de los
parámetros de una distribución normal si es que cuenta con una muestra aleatoria, y es
así como sabemos que:
• Si se quiere estimar la media µ de una variable normal de una muestra, su
estimador óptimo es el promedio: .
• Si se quiere estimar el desvío σ, su estimador óptimo es el desvío estándar
de la muestra: S.
Otro resultado de gran importancia está vinculado a la distribución del promedio en el
caso de contar con una muestra aleatoria de una distribución normal. Este resultado
teórico dice que el promedio () también tiene distribución normal, y los valores de la
muestra provienen de una distribución normal. Además de eso, el
valor medio del promedio es el mismo µ original y el desvío de 
es σ dividido la raíz cuadrada de n (tamaño de la muestra).
Otro resultado que se deduce del enunciado anteriormente, dice
que al tipificar , es decir, al restarle su media y al dividirlo por su
desvío, obtenemos una distribución normal unitaria.
Hipótesis científica: el tratamiento es efectivo.
Hipótesis complementaria: el tratamiento no es efectivo.
X: cantidad de horas dormidas luego de aplicado el tratamiento.
µ: promedio poblacional de horas dormidas luego del tratamiento.
Supuestos:
• Se tiene una muestra aleatoria de tamaño 25.
• X tiene distribución normal.
• σ: es conocido y su valor es 1.2 hs.
µ: promedio poblacional de horas dormidas luego del tratamiento es desconocido.
“El tratamiento es efectivo” 🡪 µ > 4
“El tratamiento no es efectivo” 🡪 µ ≤ 4
Una vez expresadas las hipótesis en términos de µ, es necesario decidir cuál será H0 y
cuál H1. La norma habitualmente utilizada es poner como H1 aquella hipótesis que es del
interés del investigador. Esto se basa en el hecho de que, como sólo uno de los
posibles errores puede controlarse, poner la hipótesis del investigador en H1 hace que el
error controlado sea la probabilidad de que el investigador se equivoque al afirmar la
veracidad de su hipótesis (error de tipo 2).
Otro detalle para destacar es que, por convención, siempre en la H0 se expresará como
una igualdad entre µ y el valor crítico contra el cual se compara, en este caso 4 hs. Esto
es totalmente equivalente a la expresión formal que vemos arriba (imagen) y que muestra
la complementariedad entre las dos hipótesis que se contrastan.
¿Cómo decidir si H0 debe o no ser rechazada?
Las hipótesis están expresadas en términos de µ, y µ es un parámetro poblacional
desconocido. Pero el hecho de haber supuesto que nuestra variable sigue la distribución
normal y al tener una muestra de esa población, sabemos que aun cuando µ sea
desconocido, su valor puede estimarse con suma precisión utilizando . Entonces, una
primera forma de comparar es decir, no conozco µ pero sé que  siempre es muy
próximo a su valor. Se compara  con el valor crítico (4) y si su valor es mayor se
rechaza H0 y si no es mayor no rechazo H0. Esto sería una regla de decisión basada en la
muestra.
Este razonamiento es correcto pero insuficiente, porque no hay forma de asegurar que la
probabilidad de rechazar H0 cuando esta sea verdadera (error de tipo 2) sea igual a α.
La solución a este problema es generar una regla de decisión no sólo basada en el valor
de , sino en su distribución (que sabemos que es normal) cuando H0 es verdadera.
Cuando esto ocurre,  tiene una distribución normal que es conocida, porque si
suponemos que H0 es verdadera, el valor de µ también lo suponemos igual a 4. Habrá un
montón de valores de  mayores que 4 que siguen siendo probables de obtener aun
cuando H0 es verdadera. Lo que tenemos que determinar es cuán grande tiene que ser 
para que decidamos rechazar H0 y que la probabilidad de equivocarnos sea del α fijado.

Lo que tenemos que encontrar es cuál es el valor de  que hace que la probabilidad de
que el valor muestral de  sea mayor que ese número, sea igual a α. Una vez
encontrado ese valor, vamos a definir como la ZR al conjunto de  que sean mayores
que ese valor prefijado.
Criterio de decisión con valor P
Ventaja de que ya no es necesario conocer la ZR que depende de la h1 considerada, sino
q directamente al calcular el valor p y compararlo con el nivel de significación q se usa en
el problema, puede decidir rechazar o no h0.

Contraste de hipótesis para la media de una distribución normal con sigma desconocido
Aquí supondremos que la variable X del problema estará distribuida de forma normal con
media µ y desvío σ, ambos parámetros desconocidos, y además, la hipótesis científica
puede ser expresada como una hipótesis estadística utilizando µ.
¿Dónde aparecen las diferencias en el método?
El principal problema que tenemos es la imposibilidad de calcular el estadístico de prueba
del test. La solución que da la estadística es reemplazar σ por su estimador natural:
desvío estándar de la muestra (S). Ahí obtenemos el estadístico de prueba para este
contraste. Esto tiene un efecto en lo que es la distribución del estadístico de prueba, el
cual deja de tener distribución normal (0,1) y pasa a tener otra distribución de probabilidad
que es la denominada t de student. Esta distribución es simétrica y centrada en 0, muy
similar a la normal, pero no igual. La normal depende de dos parámetros (µ y σ), sin
embargo la t de student depende de un solo parámetro que se denomina grados de
libertad, y es el que se pone como subíndice de la distribución. En este caso particular,
los grados de libertad son “n – 1”, es decir, el tamaño muestral menos 1: tn-1
Al cambiar el estadístico de prueba y al tener éste una distribución de probabilidad
diferente, necesariamente las zonas críticas del test van a variar.

Hipótesis científica: el nuevo método de enseñanza es más eficaz.


Hipótesis complementaria: el nuevo método de enseñanza no es más eficaz.
X: puntaje en matemáticas obtenido luego del nuevo método de enseñanza.
µ: puntaje promedio poblacional en matemáticas luego del nuevo método de enseñanza.
“El método es más eficaz” 🡪 µ > 6.4
“El método no es más eficaz” 🡪 µ ≤ 6.4
H0: µ = 6.4
H1: µ > 6.4
Contraste de hipótesis para comparación de medias poblacionales
Es una técnica frecuentemente utilizada para evaluar el comportamiento de una variable
en dos poblaciones distintas. Por ejemplo, si se está estudiando el rendimiento escolar en
matemática en niños de 4to grado, se podría estar interesado en evaluar las posibles
diferencias que puede haber entre los chicos de 4to grado de la ciudad de Buenos Aires y
los de la ciudad de La Plata.
Es ideal para evaluar la eficacia de un tratamiento, y esto puede hacerse utilizando dos
tipos de contraste de hipótesis distintos:

→ Si se quisiera evaluar la eficacia de un tratamiento contra la ansiedad, podrían


tomarse dos muestras de sujetos con diagnóstico de ansiedad y a uno de los
grupos aplicarle esta técnica, y al otro aplicarle una técnica de placebo (grupo
control), y luego de esto medir los niveles de ansiedad de ambos y comparar. La
comparación inferencial debería hacerse utilizando el contraste de hipótesis
para medias de poblaciones independientes.
→ Se puede también considerar un único grupo de sujetos con diagnóstico de
ansiedad, medir sus niveles de ansiedad previos y posteriores a la aplicación del
tratamiento, y comparar los resultados obtenidos. La comparación inferencial
debería hacerse utilizando un contraste de hipótesis para medias de
poblaciones relacionadas o de muestras apareadas.

Contraste de hipótesis para medias de poblaciones independientes


Se considera que se tiene una variable de interés que es medida en las dos poblaciones
que quieren compararse. Además de ello, esta variable objetivo se supone que sigue una
distribución normal en cada una de las poblaciones, donde los parámetros de estas
normales son distintos entre las dos poblaciones.
Se considera también que se tiene:
• Una muestra (x1, x2, … x11n) de una de las poblaciones con media µ1 y desvío σ1.
• Una muestra (no necesariamente del mismo tamaño que la anterior: (x21, x20, …
x2m) de la otra población con media µ2 y desvío σ2.
En principio, entonces, no se consideran similares.
Los contrastes de hipótesis para comparación de medias tienen siempre el siguiente
aspecto:

La comparación de medias se hace a través de la resta entre ellas, y entonces la H0


presenta el caso de la igualdad o no innovación y H1 alguna de las tres posibles
alternativas que son habituales en todos los contrastes. Por supuesto que las hipótesis a
contrastar deben ser excluyentes y complementarias.
Cuando los desvíos poblacionales pueden considerarse conocidos, el estadístico de
prueba de estos tests tiene el siguiente aspecto:

Adicionalmente, por el hecho de suponer normalidad en ambas poblaciones, el estadístico


de prueba también tiene una distribución normal que permite calcular el valor P para
decidir si rechazar o no H0 en cada caso.
Cuando los desvíos no son conocidos, lo que suele hacerse es suponer que los σ son
iguales, es decir, desconocidos pero iguales. Así, el estadístico toma la siguiente forma:

Cabe destacar que los σ han sido sacados de la formula y reemplazados por un
estimador de los desvíos (Sp) que es una combinación lineal de los desvíos muestrales
calculados para las muestras disponibles. Este estadístico de prueba, al ser los desvíos
desconocidos, deja de tener distribución normal y pasa a tener una distribución t de
student donde los grados de libertad también están relacionados con los tamaños de las
muestras respectivas.
En este caso será necesario utilizar el estadístico que supone que los desvíos son
desconocidos, y deberemos agregar el supuesto de que aún siendo desconocidos
suponemos que son iguales entre sí. Por lo tanto nos queda el siguiente estadístico:

En este caso particular, d = 0, ya que decimos que es un test de igualdad de medias


contra diferencia de medias.
Contraste de hipótesis para medias de poblaciones relacionadas o muestras apareadas
Aquí se considera que la muestra de individuos es única, y es la que provee las
mediciones de la variable antes y después de aplicación del tratamiento en cuestión.
Cada valor pre tratamiento está vinculado a un valor post tratamiento, ya que esas
mediciones son tomadas siempre sobre los mismos individuos.
Al ser las muestras apareadas, el estadístico de prueba está basado en la diferencia del
valor post respecto al valor pre tratamiento, y el aspecto es el siguiente:

Tiene una distribución t de student con n – 1 grados de libertad cuando H0 es verdadera.


Aquí puede verse que la mayoría de los valores están en negativo, es decir, como aquí
está restando post tratamiento menos pre tratamiento, los valores negativos significarían
que los valores en la escala de ansiedad eran mayores antes de la aplicación del
tratamiento. Sobre estas diferencias, entonces, es que se calcula luego el estadístico de
prueba del test que nos permite decidir si hay o no diferencia en los puntajes promedio en
escala de ansiedad previos y posteriores al tratamiento.
Coeficiente de Correlación R de Pearson
Descubrir la relación entre variables es uno de los objetivos de la psicología, y la
estadística ha desarrollado instrumentos adecuados para detectar y cuantificar esta
relación entre series de observaciones. Por ejemplo, un grupo de investigadores puede
desear explorar si la cantidad de acciones solidarias en una muestra de adultos se asocia
con un mayor nivel de felicidad. En otro caso, se puede querer saber si la cantidad de
alcohol consumido en una muestra de adolescentes se asocia con un bajo nivel de
autoestima.
El coeficiente de correlación de Pearson, representado habitualmente con la letra R, es
un índice que mide la relación lineal (asociación) entre dos variables cuantitativas. Puede
valer entre -1 y 1 y no tiene dimensión, es decir, no tiene unidad de medida.
Es importante destacar que el R informa acerca de si las variables se asocian linealmente,
pero dicha asociación no supone causalidad.
¿Cómo se interpretan los coeficientes R de Pearson? Hay que separar dos aspectos
distintos:

→ Cuantía: refiere al grado en que la relación entre dos variables queda bien
descripta con un índice de asociación lineal como el R.
→ Sentido: se refiere al tipo de relación (directa o inversa).
En cuantía, un valor de ±1 indica un grado perfecto de asociación entre las dos
variables. En la medida en que el coeficiente de relación se acerca a 0, la relación entre
las dos variables está más débil.
En sentido, la dirección de la relación es indicada por el signo del coeficiente: signo
positivo – relación directa, signo negativo – relación inversa o negativa entre las dos
variables.
Los gráficos asociados al coeficiente de relación R de Pearson se denominan diagramas
de dispersión o dispersogramas, y la configuración de puntos resultante se denomina
nube de puntos.

• Relación lineal directa o positiva


Se detecta entre dos variables cuando co-varían en el mismo sentido, es decir, cuando
valores bajos de una de ellas corresponden a valores bajos de la otra; a valores medios
de una corresponden a valores medios de la otra; y a valores altos de una, corresponden
también valores altos de la otra. Por ejemplo, podemos evaluar la asociación entre la
cantidad de acciones solidarias en el último mes y el puntaje del participante en la escala
de felicidad de Lima.

Por ejemplo, podemos encontrar un R de 0,7 entre estas dos variables. Esto quiere decir
que están asociadas en forma positiva, y además que esta asociación está relativamente
cerca de 1, o sea es relativamente alta.

• Relación lineal inversa o negativa


Se detecta cuando las dos variables co-varían pero en sentido contrario. Por ejemplo,
cuando a valores bajos de una de ellas, corresponden valores altos de la otra. Podemos
evaluar así la asociación entre la cantidad de alcohol consumido en el último mes por una
muestra de adolescentes y su puntaje en una escala de autoestima. Si encontramos una
relación inversa, significaría que están asociadas un mayor consumo de alcohol con un
menor puntaje en la escala de autoestima.

• Relación lineal nula


Un R de aproximadamente 0 implica una relación lineal nula. Esto puede deberse a dos
grandes casos:
1) Que las dos variables sean independientes. Son dos variables que no están
relacionadas entre sí. Por ejemplo, la altura de una persona adulta y el puntaje en
inteligencia en el test de Waiss.

2) Las dos variables están relacionadas, pero no de manera lineal, de manera


que el R de Pearson no capta esa relación.
Si tenemos todos los puntos del diagrama perfectamente
alineados en una recta creciente, esto nos habla de una R = 1.
Es decir, de una relación directa perfecta.

Si los puntos del diagrama tienden a ubicarse en torno a una


recta creciente, hablamos de una relación directa que no llega
a tener un R = 1, pero que es positiva.

Si los puntos están distribuidos en el plano sin ninguna


estructura en particular, hablamos de un R de
aproximadamente 0, y podemos pensar que estas dos
variables son independientes, no están relacionadas una con
la otra.

Si los puntos del diagrama están perfectamente alineados en


una recta decreciente, se relaciona con un R = -1, que sería
una relación inversa perfecta.

Si los puntos tienden a ubicarse en torno a una recta


decreciente, hablamos de un R que tiene signo negativo pero
no llega a ser -1, pudiendo tener mayor o menor intensidad.

También podría gustarte