Documentos de Académico
Documentos de Profesional
Documentos de Cultura
T de Student
I. Prueba t de Student dos muestras relacionadas
La prueba t de Student para muestras relacionadas permite comparar las medias de dos series de mediciones
realizadas sobre las mismas unidades estadísticas. Por ejemplo: la tasa fotosintética de 30 plantas es medida
en dos momentos durante el día: mañana y tarde. Se puede utilizar la prueba t de Student para muestras
relacionadas para detectar un cambio en la fotosíntesis entre los dos momentos. Decimos ‘”relacionadas”,
ya que cada planta se midió dos veces, por lo que los datos se organizan por parejas. Si tuviéramos 30
plantas para las mediciones de la mañana y otras 30 plantas diferentes para las mediciones de la tarde, sería
más apropiada la prueba t para muestras independientes.
Una vez que se ha activado XLSTAT-Pro, seleccione el comando XLSTAT / Pruebas paramétricas /
Pruebas t y z para dos muestras, o bien haga clic en el botón correspondiente del menú Pruebas
paramétricas (véase siguiente captura de pantalla).
Una vez haya hecho clic en el botón, aparece el cuadro de diálogo. A continuación, puede seleccionar los
datos en la hoja de cálculo de Excel. Seleccione la opción Muestras relacionadas.
Seleccione una de las muestras en el campo Muestra 1 y la otra muestra en el campo Muestra 2.
En la pestaña Opciones, escribimos 0 en el campo Diferencia supuesta (D). Esto refleja la hipótesis nula de
que queremos someter a prueba: media(muestra 1) menos media(muestra 2) igual a 0.
Después de haber hecho clic en el botón OK, los resultados se muestran en una nueva hoja de cálculo
de Excel.
Los primeros resultados que se muestran son los estadísticos de las muestras.
Estos resultados son seguidos por los resultados de la prueba t para muestras relacionadas:
El intervalo de confianza del 95% de la diferencia entre las dos medias (116.792) no incluye la
diferencia supuesta que elegimos (cero), lo que indica que la diferencia media entre las dos medias es
poco probable que sea cero. El valor p aporta una información similar: p < 0.0001, que es más bajo
que el nivel de significación alfa (0.05). Esto significa que podemos rechazar la hipótesis nula con un
riesgo muy bajo de equivocarnos. En otras palabras, la diferencia entre las dos medias es
estadísticamente significativa.
Al igual que sucede con todas las pruebas paramétricas, la prueba t de Student para dos muestras
relacionadas es fiable sólo si las diferencias emparejadas siguen una distribución normal. Es posible
calcular esas diferencias y luego seguir el manual XLSTAT manual sobre pruebas de normalidad. Si esta
condición no se cumple, una solución sería utilizar una prueba no paramétrica de Wilcoxon en su lugar.
Los datos son de [Fisher M. (1936), The Use of Multiple Measurements in Taxonomic Problems. Annals of
Eugenics, 7, 179 -188], y corresponden a 100 flores Iris, definidas por cuatro variables (longitud del sépalo,
anchura del sépalo, longitud del pétalo, anchura del pétalo) y sus especies. El conjunto de datos original
contiene 150 flores y 3 especies, pero hemos aislado para este tutorial las observaciones que pertenecen a
las especies Versicolor y Virginica. Nuestro objetivo es poner a prueba si existe una clara diferencia entre
las dos especies en las cuatro variables evaluadas.
Una vez abierto XLSTAT, seleccione el comando XLSTAT / Pruebas paramétricas / Pruebas t y z
para dos muestras, o bien haga clic en el botón correspondiente de la barra de herramientas Pruebas
paramétricas (véase siguiente captura de pantalla).
Si estuviéramos ejecutando la prueba para una variable única (de las cuatro variables evaluadas), también
podríamos tener una columna para cada especie. El tercer formato es para muestras relacionadas o apareadas
(en ese caso, debe haber una columna por muestra).
Los cálculos empiezan una vez haya hecho clic en OK. Los resultados se mostrarán a continuación en una
nueva hoja.
C. Interpretación de los resultados de una prueba t de Student para dos muestras independientes
Los primeros resultados que aparecen son los estadísticos de las muestras. A continuación, se muestran las
pruebas de t y los diagramas de dominancia para cada dimensión, una tras otra.
Los resultados de la primera de las cuatro variables se muestran a continuación.
Prueba de ANOVA (One way)
Introducción
El análisis de varianza de una vía (ANOVA) se utiliza para determinar si hay diferencias estadísticamente
significativas entre las medias de dos o más grupos independientes (no relacionados) (aunque usted tiende
a verlo solo cuando hay un mínimo de tres, en lugar de dos grupos). Por ejemplo, podría usar un ANOVA
de una sola vía para comprender si el desempeño del examen difirió según los niveles de ansiedad en los
exámenes entre los estudiantes, dividiendo a los estudiantes en tres grupos independientes (por ejemplo,
estudiantes con estrés bajo, medio y alto). Además, es importante darse cuenta de que el ANOVA de una
vía es un ómnibusprueba estadística y no puede decirle qué grupos específicos fueron estadísticamente
diferentes entre sí; solo le dice que al menos dos grupos eran diferentes. Dado que puede tener tres, cuatro,
cinco o más grupos en el diseño de su estudio, es importante determinar cuál de estos grupos difieren entre
sí. Puede hacerlo utilizando una prueba post hoc (NB, analizamos las pruebas post hoc más adelante en esta
guía).
A. Pruebas para la homocedasticidad
Para que este contraste de hipótesis, basado en la F, lo sea de la igualdad de medias es necesario que todas
las muestras provengan de una población con la misma varianza (s2), de la que MSE y MSA son
estimadores. Por lo tanto es necesario comprobarlo antes de realizar el contraste. Del mismo modo que no
se puede usar repetidamente la prueba basada en la en la t para comparar más de dos medias, tampoco se
puede usar la prueba basada en la F para comparar más de dos varianzas. La prueba más usada para
contrastar si varias muestras son homocedásticas (tiene la misma varianza) es la prueba de Bartlett.
Otras pruebas para contrastar la homocedasticidad de varias muestras son la de Cochran y lade la F del
cociente máximo, ambas similares y de cálculo más sencillo pero restringidas al caso de iguales tamaños
muestrales. La de Cochran es particularmente útil para detectar si una varianza es mucho mayor que las
otras
En el caso de que las muestras no sean homocedásticas, no se puede, en principio, realizar el análisis de la
varianza.
Existen, sin embargo, soluciones alternativas: Sokal y Rohlf describen una prueba aproximada, basada en
unas modificaciones de las fórmulas originales.
Hay situaciones en que la heterocedasticidad es debida a falta de normalidad. En estos casos existen
transformaciones de los datos que estabilizan la varianza: la raíz cuadrada en el caso de Poisson, el arco
seno de la raíz cuadrada de p para la binomial, el logaritmo cuando la desviación estándar es proporcional
a la media.
En la práctica, si las pruebas de homocedasticidad obligan a rechazar la hipótesis nula, se prueba si con
alguna de estas transformaciones los datos son homocedásticos, en cuyo caso se realiza el anova con los
datos transformados.
Hay que tener en cuenta que estas pruebas van "al reves"de lo habitual. La hipótesis nula es lo que se quiere
probar, en consecuencia hay que usarlas con precaución.
B. Pruebas para distribuciones normales
ANOVA no presupone que la toda la columna de respuesta sigue una distribución normal. ANOVA parte
del supuesto de que los residuos del modelo ANOVA siguen una distribución normal. Debido a que
ANOVA presupone que los residuos siguen una distribución normal, generalmente el análisis de los
residuos va acompañado de un análisis ANOVA. Grafique los residuos y utilice otros estadísticos de
diagnóstico para determinar si se cumplen los supuestos del ANOVA.
Se puede evaluar el supuesto de que los residuos siguen una distribución normal de los datos de respuesta
cuando los datos no incluyen una covariable. En ANOVA, toda la columna de respuesta es generalmente
no normal porque los diferentes grupos en los datos tienen medias diferentes. Si los datos de cada grupo
individual siguen una distribución normal, entonces los datos cumplen el supuesto de que los errores siguen
una distribución normal. Esta condición es típicamente más fuerte que la condición de que los residuos
siguen una distribución normal. Si los grupos contienen suficientes datos, puede utilizar gráficas de
probabilidad normal y pruebas de normalidad en cada grupo.
NOTA: El procedimiento ANOVA con factores fijos y tamaños de las muestras iguales funciona bastante
bien incluso cuando se viola el supuesto de normalidad, a menos que una o más de las distribuciones sean
altamente asimétricas o las varianzas sean muy diferentes.
Una comparación simultánea: ANOVA
Necesitamos poder comparar simultáneamente todas las medias. El test que lo permite es el test ANOVA
(de ANalysis Of VAriance).
Como su nombre indica, compara varianzas aunque lo que contrastamos sean medias. Para ello parte de 3
requisitos previos:
Independencia: las k muestras son independientes,
Normalidad: Xi ∼ N(µi , σ2/i ), i = 1, . . . , k, y
Homocedasticidad: σ 2 /1 = σ 2/ 2 = · · · = σ 2/ k = σ/ 2 .
Fundamentos del ANOVA (1)
Obsérvese que (1) describe la variabilidad dentro de los grupos, mientras que (2) y (3) describen la
variabilidad entre los grupos.
La tabla ANOVA
Todo se reduce a obtener el valor del estadístico (4) que bajo las condiciones iniciales de independencia,
normalidad y homocedasticidad, se distribuye como una Fk−1,n−k. La comparación con el valor teórico
correspondiente nos dirá si debemos aceptar o rechazar H0.
Un método computacional conocido como tabla ANOVA facilita los cálculos. Se trata de disponer en forma
de tabla ciertas cantidades que conducen a la obtención de F. El método está incorporado en los paquetes
estadísticos más habituales.
Análisis de los datos de los tenores
En primer lugar habrá que comprobar que los requisitos iniciales se cumplen.
Donde n1 y n2 son los tamaños respectivos de cada muestra; R1 y R2 es la suma de los rangos de las
observaciones de las muestras 1 y 2 respectivamente.
El estadístico U se define como el mínimo de U1 y U2.
Los cálculos tienen que tener en cuenta la presencia de observaciones idénticas a la hora de ordenarlas. No
obstante, si su número es pequeño, se puede ignorar esa circunstancia.
Esta prueba estadística es útil cuando las mediciones se pueden ordenar en escala ordinal (es decir, cuando
los valores tienden a una variable continua, pero no tienen una distribución normal) y resulta aplicable
cuando las muestras son independientes.
Este procedimiento es una buena alternativa cuando no se puede utilizar la prueba t de Student, en razón de
no cumplir con los requisitos que esta prueba exige.
La fórmula es la siguiente:
Pasos:
Determinar el tamaño de las muestras (n1 y n2). Si n1 y n2 son menores que 20, se consideran
muestras pequeñas, pero si son mayores que 20, se consideran muestras grandes.
Arreglar los datos en rangos del menor al mayor valor. En caso de que existan ligas o empates de
rangos iguales, se deberán detectar para un ajuste posterior.
Calcular los valores de U1 y U2, de modo que se elija el más pequeño para comparar con los
críticos de U Mann-Whitney de la tabla de probabilidades asociadas con valores pequeños como
los de U en la prueba de Mann-Whitney.
En caso de muestras grandes, calcular el valor Z, pues en estas condiciones se distribuye
normalmente.
Decidir si se acepta o rechaza la hipótesis.
Ejemplo
Supóngase que se dispone de dos muestras pareadas, de las que no se conoce el tipo de distribución de las
poblaciones de las que proceden y cuyo tamaño es demasiado pequeño para determinar si siguen una
distribución normal. ¿Existe una diferencia significativa?
Nota: Se emplea un ejemplo con muestras pequeñas para poder ilustrar fácilmente los pasos, no significa
que con muestras tan pequeñas el Wilcoxon Signed-rank test sea muy preciso.
antes <- c( 2, 5, 4, 6, 1, 3 )
despues <- c( 5, 6, 2, 7, 1, 6 )
1.Hipotesis
Ha: La mediana de las diferencias entre cada par de datos es diferente de cero. Mediana(diferencias)≠0.
Se asigna al valor absoluto de cada diferencia un número de posición, siendo la posición 1 para el valor más
pequeño. En caso de haber valores repetidos, fenómeno conocido como ligadura o ties, se les asigna como
valor de posición la media de las posiciones que ocupan. En la asignación de posiciones se ignoran las
diferencias que sean 0.
rangosdiferencias <- rank(abs(diferencias[diferencias != 0]))
# La función rank() de R calcula las posiciones automáticamente, solucionando las
# ligaduras en caso de que las haya.
rangosdiferencias <- c(rangosdiferencias[1:4], 0, rangosdiferencias[5])
# Se incorpora un 0 en la posición que ocupan las diferencias nulas para cuadrar
# las posiciones.
Se compila toda la información:
tabla <- data.frame(antes = antes, despues = despues, signo = sign(diferencias),
diferencia = abs(diferencias), rangos = rangosdiferencias)
tabla
4 2 1 2
6 7 -1 1
1 1 0 0
3 6 -1 3
C. H. Kruskal Wallis
Introducción
Un problema común en la estadística practica es decidir si varias muestras deberían ser consideradas que
provienen de la misma población.
La forma típica de atacar este tipo de problemas era con el análisis de la varianza con un criterio de
clasificación, sin embargo, surgió´ La prueba de Kruskal-Wallis, propuesta por William Henry Kruskal (1919-
2005) y W. Allen Wallis (1912-1998) en el artículo “Use of ranks in one-criterion variance analysis”publicado
en el “Journal of American Statistics Association” en 1952.
La prueba de Kruskal-Wallis es una alternativa a la prueba F (que compara dos o ma´s varianzas muéstrales)
para diseños de clasificación simple. En este caso se comparan varios grupos pero usando la mediana de cada
uno de ellos, en lugar de las medias.
El test de Kruskal-Wallis es el test adecuado cuando los datos tienen un orden natural, es decir, cuando para
darles sentido tienen que estar ordenados o bien cuando no se satisfacen las condiciones para poder aplicar un
ANOVA.
Por ejemplo, si se quiere estudiar la diferencia entre hombres y mujeres en una carrera, se puede disponer de
dos tipos de datos: los tiempos de cada participante (análisis con ANOVA) o las posiciones en las que ha
terminado la carrera cada participante (análisis con Kruskal-Wallis test). Se trata de una extensión del test de
Mann-Whitney para más de dos grupos.
Prueba de Kruskal-Wallis
Es un test estadístico no paramétrico que emplea rangos para contrastar la hipótesis de que k muestras han sido
obtenidas de una misma población, es decir, compara varias poblaciones.
El test de Kruskal-Wallis contrasta si las diferentes muestras están equidistribuidas y que por lo tanto
pertenecen a una misma distribución (población).
Supóngase que se dispone de k grupos, cada uno con n observaciones (total de datos). Si se ordenan todas las
observaciones de menor a mayor y se le asigna a cada una de ellas su rango, cuando se obtenga la suma de
rangos para cada uno de los grupos (Ri) es de esperar que, si se cumple la hipótesis nula, todos los grupos
tengan un valor similar. Partiendo de esta idea se calcula el estadístico H como:
k
12 X R i2
H = − 3( n +1)
n ( n +1) ni
i =1
Siendo:
k = el número de muestras.
ni = el número de observaciones en la i−ésima muestra. n = Xni el número total de observaciones de todas las
muestras.
Se puede mostrar que si los tamaños de cada grupo son mayores que 5, entonces H se distribuye como una
Chi-Cuadrada con k − 1 grados de libertad.
Se combinan todas las n1 + n2 + ... + nk = n observaciones y se clasifican desde 1 (la más pequeña) hasta n (la
más grande). Si dos o más observaciones están empatadas para el mismo rango, entonces el promedio de los
rangos que se hubieran asignado a estas observaciones se asigna a cada miembro del grupo empatado.
Con Ri se denota la suma de los rangos de las observaciones de la población i y con R¯i = Ri/ni se denota el
promedio correspondiente de los rangos. Si R¯ es igual al promedio general de todos los rangos, se considera
el rango análogo SST (suma de cuadrados del tratamiento), que se calcula usando los rangos en lugar de los
valores reales de las mediciones:
Si la hipótesis nula es verdadera y las poblaciones no difieren en localización, se esperaría que los valores R¯i
fueran aproximadamente iguales y el valor resultante de V fuera relativamente pequeños. Si la hipótesis
alternativa es verdadera, se esperaríamos que esto se refleje en las diferencias entre los valores de R¯i que llevan
a un valor grande para V .
(suma de los primeros n enteros) [n(n+1)/2] (n+1)
Observe que R = n = n = 2 y que
La hipótesis nula de localizaciones iguales es rechazada a favor de la alternativa de que las poblaciones difieren
en localización si el valor de H es grande. Así, la correspondiente prueba de nivel a pide el rechazo de la
hipótesis nula a favor de la alternativa si H > h(α), donde h(α) es tal que, cuando H0 es verdadera, P[H > h(α)]
= α.
* No es necesario que las muestras que se comparan provengan de una distribución normal.
Para ello se hace uso del coeficiente de correlación de Pearson, definido como la covarianza que se da
entre dos variables tipificadas y se calcula con la siguiente expresión:
Cuando es menor a cero (r < 0) Se dice que hay correlación negativa: Las variables se correlacionan
en un sentido inverso.
A valores altos en una de las variables, le suelen corresponder valores bajos en la otra variable y viceversa.
Cuánto el valor esté más próximo a -1 dicho coeficiente de correlación más evidente será la covariación
extrema.
Si r= -1 se habla de correlación negativa perfecta, la cual supone una determinación absoluta entre ambas
variables, en sentido directo coexiste una relación lineal perfecta de pendiente negativa.
Cuando es mayor a cero (r > 0) Se dice que hay correlación positiva: Ambas variables se
correlacionan en un sentido directo.
A valores altos en una de las variables, le corresponden valores altos en la otra variable e igualmente en una
situación inversa sucede con los valores bajos. Cuánto más próximo a +1 se encuentre el coeficiente de
correlación más evidente será la covariación.
Si r = 1 Se habla de correlación positiva perfecta, la cual supone una determinación absoluta entre las
variables, en sentido directo coexiste una relación lineal perfecta de pendiente positiva).
Cuando es igual a cero (r = 0) Se dice que las variables están incorrectamente relacionadas, no puede es
posible establecer algún sentido de covariación.
No existe relación lineal, pero esto no implica necesariamente que las variables sean independientes,
pudiendo existir relaciones no lineales entre las variables.
Cuando las dos variables son independientes se dice que no están correlacionadas, aunque el resultado de
reciprocidad no es necesariamente cierto.
Para concluir se puede decir que se ve más difícil de lo que resulta ser, sobre todo si se cuenta con tecnología
avanzada, pues hoy día existen múltiples programas que facilitan esta labor de cálculo e interpretación del
coeficiente de Pearson.
Asociaciones no paramétricas
La prueba de ji-cuadrado
The chi-square
Resumen
El estadístico ji-cuadrado (o chi cuadrado), que tiene distribución de probabilidad del mismo nombre, sirve
para someter a prueba hipótesis referidas a distribuciones de frecuencias. En términos generales, esta prueba
contrasta frecuencias observadas con las frecuencias esperadas de acuerdo con la hipótesis nula. En este
artículo se describe el uso del estadístico ji-cuadrado para probar la asociación entre dos variables utilizando
una situación hipotética y datos simulados. Luego se describe su uso para evaluar cuán buena puede resultar
una distribución teórica, cuando pretende representar la distribución real de los datos de una muestra
determinada. A esto se le llama evaluar la bondad de un ajuste. Probar la bondad de un ajuste es ver en qué
medida se ajustan los datos observados a una distribución teórica o esperada. Para esto, se utiliza una
segunda situación hipotética y datos simulados.
Del mismo modo que los estadísticos “z”, con su distribución normal y “t”, con su distribución t de Student,
nos han servido para someter a prueba hipótesis que involucran a promedios y porcentajes, el estadístico ji-
cuadrado (o chi cuadrado), que tiene distribución de probabilidad del mismo nombre, nos servirá para
someter a prueba hipótesis referidas a distribuciones de frecuencias.
En primer lugar usaremos el estadístico ji-cuadrado para probar la asociación entre dos variables, y luego
lo usaremos para evaluar en qué medida se ajusta la distribución de frecuencias obtenida con los datos de
una muestra, a una distribución teórica o esperada.
En términos generales, esta prueba contrasta frecuencias observadas con las frecuencias esperadas de
acuerdo con la hipótesis nula. Al igual que en el caso de las pruebas anteriormente presentadas, ilustraremos
con ejemplos.
Supongamos que un investigador está interesado en evaluar la asociación entre uso de cinturón de seguridad
en vehículos particulares y el nivel socioeconómico del conductor del vehículo. Con este objeto se toma una
muestra de conductores a quienes se clasifica en una tabla de asociación, encontrando los siguientes
resultados:
¿Permiten estos datos afirmar que el uso del cinturón de seguridad depende del nivel socioeconómico?
Usaremos un nivel de significación alfa=0,05.
Los pasos del análisis estadístico en este caso son los siguientes:
En esta prueba estadística siempre la hipótesis nula plantea que las variables analizadas son independientes.
Estas son las frecuencias que debieran darse si las variables fueran independientes, es decir, si fuera cierta
la hipótesis nula.
Las frecuencias esperadas se obtendrán de la distribución de frecuencias del total de los casos, 51 personas
de un total de 94 usan el cinturón y 43 de 94 no lo usan. Esa misma proporción se debería dar al interior de
los tres grupos de nivel socioeconómico, de manera que el cálculo responde al siguiente razonamiento: si
de 94 personas 51 usan cinturón; de 21 personas, ¿cuántas debieran usarlo?
La respuesta a esta pregunta se obtiene aplicando la “regla de tres” y es 11,4. Este procedimiento debe
repetirse con todas las frecuencias del interior de la tabla.
Estas son las frecuencias que debieran presentarse si la hipótesis nula fuera verdadera y, por consiguiente,
las variables fueran independientes.
Estos valores los anotamos en una tabla con las mismas celdas que la anterior; así tendremos una tabla con
los valores observados y una tabla con los valores esperados, que anotaremos en cursiva, para identificarlos
bien.
En este caso, el estadístico de prueba es Ji-cuadrado que, como dijimos al comienzo, compara las frecuencias
que entregan los datos de la muestra (frecuencias observadas) con las frecuencias esperadas, y tiene la
siguiente fórmula cálculo:
De este modo el valor del estadístico de prueba para este problema será:
Entonces Este es el valor de nuestro estadístico de prueba que ahora, siguiendo el procedimiento
de problemas anteriores (paso 4), debemos comparar con un valor de la tabla de probabilidades para ji-
cuadrado (x2). Esta tabla es muy parecida a la tabla t de student, pero tiene sólo valores positivos porque ji-
cuadrado sólo da resultados positivos.