Está en la página 1de 21

PRUEBAS PARAMETRICAS

T de Student
I. Prueba t de Student dos muestras relacionadas
La prueba t de Student para muestras relacionadas permite comparar las medias de dos series de mediciones
realizadas sobre las mismas unidades estadísticas. Por ejemplo: la tasa fotosintética de 30 plantas es medida
en dos momentos durante el día: mañana y tarde. Se puede utilizar la prueba t de Student para muestras
relacionadas para detectar un cambio en la fotosíntesis entre los dos momentos. Decimos ‘”relacionadas”,
ya que cada planta se midió dos veces, por lo que los datos se organizan por parejas. Si tuviéramos 30
plantas para las mediciones de la mañana y otras 30 plantas diferentes para las mediciones de la tarde, sería
más apropiada la prueba t para muestras independientes.

A. Datos para la prueba t de Student para dos muestras relacionadas


Los datos corresponden a un experimento en el que se estudia la depresión. Los pacientes han sido
evaluados en dos momentos diferentes (0: pre-test y 6: 6 meses de seguimiento). La variable a comparar
es la puntuación en depresión.
El objetivo de este manual es comparar los dos momentos de evaluación con respecto a la puntuación
en depresión.

B. Configuración de la prueba t de Student para dos muestras relacionadas

Una vez que se ha activado XLSTAT-Pro, seleccione el comando XLSTAT / Pruebas paramétricas /
Pruebas t y z para dos muestras, o bien haga clic en el botón correspondiente del menú Pruebas
paramétricas (véase siguiente captura de pantalla).

Una vez haya hecho clic en el botón, aparece el cuadro de diálogo. A continuación, puede seleccionar los
datos en la hoja de cálculo de Excel. Seleccione la opción Muestras relacionadas.

Seleccione una de las muestras en el campo Muestra 1 y la otra muestra en el campo Muestra 2.
En la pestaña Opciones, escribimos 0 en el campo Diferencia supuesta (D). Esto refleja la hipótesis nula de
que queremos someter a prueba: media(muestra 1) menos media(muestra 2) igual a 0.

Después de haber hecho clic en el botón OK, los resultados se muestran en una nueva hoja de cálculo
de Excel.

C. Interpretación de los resultados de la prueba t de Student para dos muestras relacionadas

Los primeros resultados que se muestran son los estadísticos de las muestras.
Estos resultados son seguidos por los resultados de la prueba t para muestras relacionadas:
El intervalo de confianza del 95% de la diferencia entre las dos medias (116.792) no incluye la
diferencia supuesta que elegimos (cero), lo que indica que la diferencia media entre las dos medias es
poco probable que sea cero. El valor p aporta una información similar: p < 0.0001, que es más bajo
que el nivel de significación alfa (0.05). Esto significa que podemos rechazar la hipótesis nula con un
riesgo muy bajo de equivocarnos. En otras palabras, la diferencia entre las dos medias es
estadísticamente significativa.

Al igual que sucede con todas las pruebas paramétricas, la prueba t de Student para dos muestras
relacionadas es fiable sólo si las diferencias emparejadas siguen una distribución normal. Es posible
calcular esas diferencias y luego seguir el manual XLSTAT manual sobre pruebas de normalidad. Si esta
condición no se cumple, una solución sería utilizar una prueba no paramétrica de Wilcoxon en su lugar.

II. Prueba t de Student dos muestras independientes


Este pequeño manual de aplicación le mostrará cómo comparar dos medias observadas (muestras
independientes), usando las pruebas de t y z para dos muestras, en Excel con XLSTAT.

A. Datos para ejecutar la prueba t de Student para dos muestras independientes.

Los datos son de [Fisher M. (1936), The Use of Multiple Measurements in Taxonomic Problems. Annals of
Eugenics, 7, 179 -188], y corresponden a 100 flores Iris, definidas por cuatro variables (longitud del sépalo,
anchura del sépalo, longitud del pétalo, anchura del pétalo) y sus especies. El conjunto de datos original
contiene 150 flores y 3 especies, pero hemos aislado para este tutorial las observaciones que pertenecen a
las especies Versicolor y Virginica. Nuestro objetivo es poner a prueba si existe una clara diferencia entre
las dos especies en las cuatro variables evaluadas.

B. Configuración de la prueba t de Student para dos muestras independientes

Una vez abierto XLSTAT, seleccione el comando XLSTAT / Pruebas paramétricas / Pruebas t y z
para dos muestras, o bien haga clic en el botón correspondiente de la barra de herramientas Pruebas
paramétricas (véase siguiente captura de pantalla).

Una vez haya hecho clic en el botón, aparece el cuadro de diálogo.

El formato del conjunto de datos es una variable por columna.

Si estuviéramos ejecutando la prueba para una variable única (de las cuatro variables evaluadas), también
podríamos tener una columna para cada especie. El tercer formato es para muestras relacionadas o apareadas
(en ese caso, debe haber una columna por muestra).

Elegimos ejecutar solo la Prueba t de Student.


En la pestaña Opciones, dejamos las opciones predeterminadas. En la pestaña Gráficos, activamos la
opción para el Diagrama de dominación.

Los cálculos empiezan una vez haya hecho clic en OK. Los resultados se mostrarán a continuación en una
nueva hoja.

C. Interpretación de los resultados de una prueba t de Student para dos muestras independientes

Los primeros resultados que aparecen son los estadísticos de las muestras. A continuación, se muestran las
pruebas de t y los diagramas de dominancia para cada dimensión, una tras otra.
Los resultados de la primera de las cuatro variables se muestran a continuación.
Prueba de ANOVA (One way)
Introducción
El análisis de varianza de una vía (ANOVA) se utiliza para determinar si hay diferencias estadísticamente
significativas entre las medias de dos o más grupos independientes (no relacionados) (aunque usted tiende
a verlo solo cuando hay un mínimo de tres, en lugar de dos grupos). Por ejemplo, podría usar un ANOVA
de una sola vía para comprender si el desempeño del examen difirió según los niveles de ansiedad en los
exámenes entre los estudiantes, dividiendo a los estudiantes en tres grupos independientes (por ejemplo,
estudiantes con estrés bajo, medio y alto). Además, es importante darse cuenta de que el ANOVA de una
vía es un ómnibusprueba estadística y no puede decirle qué grupos específicos fueron estadísticamente
diferentes entre sí; solo le dice que al menos dos grupos eran diferentes. Dado que puede tener tres, cuatro,
cinco o más grupos en el diseño de su estudio, es importante determinar cuál de estos grupos difieren entre
sí. Puede hacerlo utilizando una prueba post hoc (NB, analizamos las pruebas post hoc más adelante en esta
guía).
A. Pruebas para la homocedasticidad
Para que este contraste de hipótesis, basado en la F, lo sea de la igualdad de medias es necesario que todas
las muestras provengan de una población con la misma varianza (s2), de la que MSE y MSA son
estimadores. Por lo tanto es necesario comprobarlo antes de realizar el contraste. Del mismo modo que no
se puede usar repetidamente la prueba basada en la en la t para comparar más de dos medias, tampoco se
puede usar la prueba basada en la F para comparar más de dos varianzas. La prueba más usada para
contrastar si varias muestras son homocedásticas (tiene la misma varianza) es la prueba de Bartlett.

La prueba se basa en que, en la hipótesis nula de igualdad de varianzas y poblaciones normales, un


estadístico calculado a partir de las varianzas muestrales y MSE sigue una distribución

Otras pruebas para contrastar la homocedasticidad de varias muestras son la de Cochran y lade la F del
cociente máximo, ambas similares y de cálculo más sencillo pero restringidas al caso de iguales tamaños
muestrales. La de Cochran es particularmente útil para detectar si una varianza es mucho mayor que las
otras

En el caso de que las muestras no sean homocedásticas, no se puede, en principio, realizar el análisis de la
varianza.

Existen, sin embargo, soluciones alternativas: Sokal y Rohlf describen una prueba aproximada, basada en
unas modificaciones de las fórmulas originales.

Hay situaciones en que la heterocedasticidad es debida a falta de normalidad. En estos casos existen
transformaciones de los datos que estabilizan la varianza: la raíz cuadrada en el caso de Poisson, el arco
seno de la raíz cuadrada de p para la binomial, el logaritmo cuando la desviación estándar es proporcional
a la media.

En la práctica, si las pruebas de homocedasticidad obligan a rechazar la hipótesis nula, se prueba si con
alguna de estas transformaciones los datos son homocedásticos, en cuyo caso se realiza el anova con los
datos transformados.

Hay que tener en cuenta que estas pruebas van "al reves"de lo habitual. La hipótesis nula es lo que se quiere
probar, en consecuencia hay que usarlas con precaución.
B. Pruebas para distribuciones normales
ANOVA no presupone que la toda la columna de respuesta sigue una distribución normal. ANOVA parte
del supuesto de que los residuos del modelo ANOVA siguen una distribución normal. Debido a que
ANOVA presupone que los residuos siguen una distribución normal, generalmente el análisis de los
residuos va acompañado de un análisis ANOVA. Grafique los residuos y utilice otros estadísticos de
diagnóstico para determinar si se cumplen los supuestos del ANOVA.
Se puede evaluar el supuesto de que los residuos siguen una distribución normal de los datos de respuesta
cuando los datos no incluyen una covariable. En ANOVA, toda la columna de respuesta es generalmente
no normal porque los diferentes grupos en los datos tienen medias diferentes. Si los datos de cada grupo
individual siguen una distribución normal, entonces los datos cumplen el supuesto de que los errores siguen
una distribución normal. Esta condición es típicamente más fuerte que la condición de que los residuos
siguen una distribución normal. Si los grupos contienen suficientes datos, puede utilizar gráficas de
probabilidad normal y pruebas de normalidad en cada grupo.
NOTA: El procedimiento ANOVA con factores fijos y tamaños de las muestras iguales funciona bastante
bien incluso cuando se viola el supuesto de normalidad, a menos que una o más de las distribuciones sean
altamente asimétricas o las varianzas sean muy diferentes.
Una comparación simultánea: ANOVA
Necesitamos poder comparar simultáneamente todas las medias. El test que lo permite es el test ANOVA
(de ANalysis Of VAriance).
Como su nombre indica, compara varianzas aunque lo que contrastamos sean medias. Para ello parte de 3
requisitos previos:
Independencia: las k muestras son independientes,
Normalidad: Xi ∼ N(µi , σ2/i ), i = 1, . . . , k, y
Homocedasticidad: σ 2 /1 = σ 2/ 2 = · · · = σ 2/ k = σ/ 2 .
Fundamentos del ANOVA (1)

Fundamentos del ANOVA (2)


El ANOVA se basa en la comparación de la variabilidad media que hay entre los grupos con la que hay
dentro de los grupos. ¿Por qu´e? Recordemos que la media y la varianza muestral verifican
lo que nos permite dos estimaciones diferentes para σ 2 cuando disponemos de k muestras de una misma
población,

Fundamentos del ANOVA (3)


En la tabla anterior, si las k muestras provienen de la misma población todas la medias son iguales, (H0 es
cierta) y tanto (1) como (2) son válidos.
¿Qué ocurre cuando las medias no son iguales?
Si suponemos que µi = µ + αi entonces:

Obsérvese que (1) describe la variabilidad dentro de los grupos, mientras que (2) y (3) describen la
variabilidad entre los grupos.

La tabla ANOVA
Todo se reduce a obtener el valor del estadístico (4) que bajo las condiciones iniciales de independencia,
normalidad y homocedasticidad, se distribuye como una Fk−1,n−k. La comparación con el valor teórico
correspondiente nos dirá si debemos aceptar o rechazar H0.
Un método computacional conocido como tabla ANOVA facilita los cálculos. Se trata de disponer en forma
de tabla ciertas cantidades que conducen a la obtención de F. El método está incorporado en los paquetes
estadísticos más habituales.
Análisis de los datos de los tenores

En primer lugar habrá que comprobar que los requisitos iniciales se cumplen.

 La independencia es el investigador quien debe garantizarla mediante una adecuada toma de


muestras.
 La normalidad debe contrastarse mediante un test apropiado, por ejemplo el de Kolmogorv-
Smirnov.
 La homocedasticidad debe tambi´en contrastarse con un test apropiado: el de la F o el de Levene
PRUEBAS NO PARAMETRICAS
A. Prueba de U Mann-Whitney
Las pruebas no-paramétricas se necesitan cuando no se tienen información sobre la composición de los datos
poblacionales, esto es no se tiene conocimiento sobre su distribución de probabilidad. Se utilizan cuando no
se cumplen las condiciones exigidas para la aplicación de las paramétricas. También cuando las muestras
son pequeñas y falta información respecto de la densidad de probabilidad.
Dentro de las pruebas no-paramétricas, una muy utilizada es la Prueba de Suma de Rangos de Wilcoxon o
también llamada prueba "U" de Mann-Whitney, la cual es una alternativa a la paramétrica "t" bimuestral.
En estadística la prueba U de Mann-Whitney (también llamada de Mann-Whitney-Wilcoxon, prueba de
suma de rangos Wilcoxon, o prueba de Wilcoxon-Mann-Whitney) es una prueba no paramétrica aplicada a
dos muestras independientes. Es, de hecho, la versión no paramétrica de la habitual prueba "t" de Student.
Fue propuesto inicialmente en 1945 por Frank Wilcoxon para muestras de igual tamaños y extendido a
muestras de tamaño arbitrario como en otros sentidos por Henry B. Mann y D. R. Whitney en 1947.
Planteamiento de la prueba
La prueba de Mann-Whitney se usa para comprobar la heterogeneidad de dos muestras ordinales. El
planteamiento de partida es:
Las observaciones de ambos grupos son independientes
Las observaciones son variables ordinales o continuas.
Bajo la hipótesis nula, la distribución de partida de ambos grupos es la misma y,
Bajo la hipótesis alternativa, los valores de una de las muestras tienden a exceder a los de la otra: P(X > Y)
+ 0.05 P(X = Y) > 0.05.
Cálculo estadístico.
Para calcular el estadístico U se asigna a cada uno de los valores de las dos muestras su rango para construir

Donde n1 y n2 son los tamaños respectivos de cada muestra; R1 y R2 es la suma de los rangos de las
observaciones de las muestras 1 y 2 respectivamente.
El estadístico U se define como el mínimo de U1 y U2.
Los cálculos tienen que tener en cuenta la presencia de observaciones idénticas a la hora de ordenarlas. No
obstante, si su número es pequeño, se puede ignorar esa circunstancia.

Distribución del estadístico.


La prueba calcula el llamado estadístico U, cuya distribución para muestras con más de 20 observaciones
se aproxima bastante bien a la distribución normal.
La aproximación a la normal, z, cuando tenemos muestras lo suficientemente grandes viene dada por la
expresión:
Donde mU y sU son la media y la desviación estándar de U si la hipótesis nula es cierta, y vienen dadas por
las siguientes fórmulas:

Esta prueba estadística es útil cuando las mediciones se pueden ordenar en escala ordinal (es decir, cuando
los valores tienden a una variable continua, pero no tienen una distribución normal) y resulta aplicable
cuando las muestras son independientes.
Este procedimiento es una buena alternativa cuando no se puede utilizar la prueba t de Student, en razón de
no cumplir con los requisitos que esta prueba exige.
La fórmula es la siguiente:

Pasos:
 Determinar el tamaño de las muestras (n1 y n2). Si n1 y n2 son menores que 20, se consideran
muestras pequeñas, pero si son mayores que 20, se consideran muestras grandes.
 Arreglar los datos en rangos del menor al mayor valor. En caso de que existan ligas o empates de
rangos iguales, se deberán detectar para un ajuste posterior.
 Calcular los valores de U1 y U2, de modo que se elija el más pequeño para comparar con los
críticos de U Mann-Whitney de la tabla de probabilidades asociadas con valores pequeños como
los de U en la prueba de Mann-Whitney.
 En caso de muestras grandes, calcular el valor Z, pues en estas condiciones se distribuye
normalmente.
Decidir si se acepta o rechaza la hipótesis.

B. Prueba de los rangos con signo de Wilcoxon


Introducción
El test no paramétrico prueba de los rangos con signo de Wilcoxon, también conocido como Wilcoxon
signed-rank test, permite comparar poblaciones cuando sus distribuciones (normalmente interpretadas a
partir de las muestras) no satisfacen las condiciones necesarias para otros test paramétricos. Es una
alternativa al t-test de muestras dependientes cuando las muestras no siguen una distribución normal
(muestran asimetría o colas) o cuando tienen un tamaño demasiado reducido para poder determinar si
realmente proceden de poblaciones normales.
A la hora de elegir entre t-test o Wilcoxon signed-rank test, es importante tener en cuenta que, el problema
de las muestras pequeñas, no se soluciona con ninguno de los dos. Si el tamaño de las muestras es pequeño,
también lo es la calidad de la inferencia que se puede hacer con ellas. Ahora bien, existen dos situaciones
en las que, a priori, se puede recomendar utilizar un Wilcoxon signed-rank test antes que un t-test:
 Si el tamaño de las muestras es suficientemente grande para determinar (por métodos gráficos o
contrastes de hipótesis) que la distribución de las poblaciones a comparar no es de tipo normal, en
tal caso, los t-test no son adecuados, por lo que mejor emplear un Wilcoxon signed-rank test
(Bootstrapping, regresión cuantílica, o test de permutación también podrían ser otras alternativa).
 Si el tamaño de las muestras no permite determinar con seguridad si las poblaciones de las que
proceden se distribuyen de forma normal, y no se dispone de información que pueda orientar sobre
la naturaleza de las poblaciones de origen (estudios anteriores, que sea un tipo de variable que se
sabe que se distribuye casi siempre de forma normal…), entonces es más apropiado el Wilcoxon
signed-rank test ya que no requiere asumir la normalidad de las poblaciones.

El test Wilcoxon signed-rank test se caracteriza por:


 Es frecuente encontrar descrito que, el Wilcoxon signed-rank test, compara la mediana de las
diferencias, sin embargo, esto solo es correcto bajo determinadas condiciones. A modo general, el
Wilcoxon signed-rank test compara si las diferencias entre pares de datos siguen una distribución
simétrica entorno a un valor. Si dos muestras proceden de la misma población, es de esperar que las
diferencias entre cada par de observaciones se distribuyan de forma simétrica entorno al cero.
 Trabajan sobre rangos de orden, es decir, utilizan las posiciones que ocupan los datos una vez
ordenados. Por lo tanto, solo es aplicable a variables cuyos valores se pueden ordenar.
 Tienen menos poder estadístico (menor probabilidad de rechazar la hipótesis nula cuando realmente
es falsa) ya que ignoran valores extremos. En el caso de los t-test, al trabajar con medias, sí los
tienen en cuenta. Esto a su vez, hace que el Wilcoxon signed-rank test sean una prueba más robusta
que el t-test.

Condiciones para la prueba de los rangos con signo de Wilcoxon


 Los datos tienen que ser dependientes.
 Los datos tienen que ser ordinales, se tienen que poder ordenar de menor a mayor o viceversa.
 No es necesario asumir que las muestras se distribuyen de forma normal o que proceden de
poblaciones normales. Pero sea cual sea el tipo de distribución de las diferencias, tiene que ser
simétrica.
 A pesar de considerarse el equivalente no paramétrico del t-test, el Wilcoxon signed-rank test trabaja
con medianas, no con medias.
 Preferible al t-test cuando hay valores atípicos, no hay normalidad de los datos o el tamaño de las
muestras es pequeño.

Ejemplo

Supóngase que se dispone de dos muestras pareadas, de las que no se conoce el tipo de distribución de las
poblaciones de las que proceden y cuyo tamaño es demasiado pequeño para determinar si siguen una
distribución normal. ¿Existe una diferencia significativa?

Nota: Se emplea un ejemplo con muestras pequeñas para poder ilustrar fácilmente los pasos, no significa
que con muestras tan pequeñas el Wilcoxon Signed-rank test sea muy preciso.
antes <- c( 2, 5, 4, 6, 1, 3 )

despues <- c( 5, 6, 2, 7, 1, 6 )

1.Hipotesis

H0: La mediana de las diferencias de cada par de datos es cero. Mediana(diferencias)=0.

Ha: La mediana de las diferencias entre cada par de datos es diferente de cero. Mediana(diferencias)≠0.

2.Cálculo de las diferencias y ordenación de las observaciones

Se calcula la diferencia de cada par de observaciones.

diferencias <- c(antes - despues)


rbind(antes, despues, diferencias)
## [,1] [,2] [,3] [,4] [,5] [,6]
## antes 2 5 4 6 1 3
## despues 5 6 2 7 1 6
## diferencias -3 -1 2 -1 0 -3

Se asigna al valor absoluto de cada diferencia un número de posición, siendo la posición 1 para el valor más
pequeño. En caso de haber valores repetidos, fenómeno conocido como ligadura o ties, se les asigna como
valor de posición la media de las posiciones que ocupan. En la asignación de posiciones se ignoran las
diferencias que sean 0.
rangosdiferencias <- rank(abs(diferencias[diferencias != 0]))
# La función rank() de R calcula las posiciones automáticamente, solucionando las
# ligaduras en caso de que las haya.
rangosdiferencias <- c(rangosdiferencias[1:4], 0, rangosdiferencias[5])
# Se incorpora un 0 en la posición que ocupan las diferencias nulas para cuadrar
# las posiciones.
Se compila toda la información:
tabla <- data.frame(antes = antes, despues = despues, signo = sign(diferencias),
diferencia = abs(diferencias), rangos = rangosdiferencias)
tabla

antes despues signo diferencia


<dbl> <dbl> <dbl> <dbl>
2 5 -1 3
antes despues signo diferencia
<dbl> <dbl> <dbl> <dbl>
5 6 -1 1

4 2 1 2

6 7 -1 1

1 1 0 0

3 6 -1 3

3. Cálculo del estadístico W


W=min(W+,W−)W=min(W+,W−)

 W+W+ = suma de los rangos con signo positivo


 W−W− = suma de los rangos con signo negativo

C. H. Kruskal Wallis
Introducción
Un problema común en la estadística practica es decidir si varias muestras deberían ser consideradas que
provienen de la misma población.
La forma típica de atacar este tipo de problemas era con el análisis de la varianza con un criterio de
clasificación, sin embargo, surgió´ La prueba de Kruskal-Wallis, propuesta por William Henry Kruskal (1919-
2005) y W. Allen Wallis (1912-1998) en el artículo “Use of ranks in one-criterion variance analysis”publicado
en el “Journal of American Statistics Association” en 1952.
La prueba de Kruskal-Wallis es una alternativa a la prueba F (que compara dos o ma´s varianzas muéstrales)
para diseños de clasificación simple. En este caso se comparan varios grupos pero usando la mediana de cada
uno de ellos, en lugar de las medias.
El test de Kruskal-Wallis es el test adecuado cuando los datos tienen un orden natural, es decir, cuando para
darles sentido tienen que estar ordenados o bien cuando no se satisfacen las condiciones para poder aplicar un
ANOVA.
Por ejemplo, si se quiere estudiar la diferencia entre hombres y mujeres en una carrera, se puede disponer de
dos tipos de datos: los tiempos de cada participante (análisis con ANOVA) o las posiciones en las que ha
terminado la carrera cada participante (análisis con Kruskal-Wallis test). Se trata de una extensión del test de
Mann-Whitney para más de dos grupos.

Prueba de Kruskal-Wallis
Es un test estadístico no paramétrico que emplea rangos para contrastar la hipótesis de que k muestras han sido
obtenidas de una misma población, es decir, compara varias poblaciones.
El test de Kruskal-Wallis contrasta si las diferentes muestras están equidistribuidas y que por lo tanto
pertenecen a una misma distribución (población).

Planteamiento de las hipótesis:


H0 : Todas las muestras provienen de la misma población (distribución).
Ha : Al menos una muestra proviene de una población con una distribución distinta.

Supóngase que se dispone de k grupos, cada uno con n observaciones (total de datos). Si se ordenan todas las
observaciones de menor a mayor y se le asigna a cada una de ellas su rango, cuando se obtenga la suma de
rangos para cada uno de los grupos (Ri) es de esperar que, si se cumple la hipótesis nula, todos los grupos
tengan un valor similar. Partiendo de esta idea se calcula el estadístico H como:
k
12 X R i2
H = − 3( n +1)
n ( n +1) ni
i =1

Siendo:
k = el número de muestras.

ni = el número de observaciones en la i−ésima muestra. n = Xni el número total de observaciones de todas las

muestras.

Ri = la suma de los rangos en la i−ésima muestra.

Se puede mostrar que si los tamaños de cada grupo son mayores que 5, entonces H se distribuye como una
Chi-Cuadrada con k − 1 grados de libertad.

Luego, la hipótesis nula se rechaza si al hacer la prueba de Kruskal-Wallis H > χ2k−1,α.

De forma más teórica:


Suponemos que muestras aleatorias independientes han sido tomadas de k poblaciones que difieren sólo en
localización, aunque no es necesario suponer que estas poblaciones poseen distribuciones normales. Para una
generalización completa, se permite que los tamaños muéstrales sean desiguales y con ni, para i = 1, 2, ..., k,
representamos el tamaño de la muestra tomada de la i-ésima población.

Se combinan todas las n1 + n2 + ... + nk = n observaciones y se clasifican desde 1 (la más pequeña) hasta n (la
más grande). Si dos o más observaciones están empatadas para el mismo rango, entonces el promedio de los
rangos que se hubieran asignado a estas observaciones se asigna a cada miembro del grupo empatado.

Con Ri se denota la suma de los rangos de las observaciones de la población i y con R¯i = Ri/ni se denota el
promedio correspondiente de los rangos. Si R¯ es igual al promedio general de todos los rangos, se considera
el rango análogo SST (suma de cuadrados del tratamiento), que se calcula usando los rangos en lugar de los
valores reales de las mediciones:
Si la hipótesis nula es verdadera y las poblaciones no difieren en localización, se esperaría que los valores R¯i
fueran aproximadamente iguales y el valor resultante de V fuera relativamente pequeños. Si la hipótesis
alternativa es verdadera, se esperaríamos que esto se refleje en las diferencias entre los valores de R¯i que llevan
a un valor grande para V .
(suma de los primeros n enteros) [n(n+1)/2] (n+1)
Observe que R = n = n = 2 y que

En lugar de concentrarse en V , Kruskal y Wallis (1952) consideraron el estadístico , que se


puede reescribir como

La hipótesis nula de localizaciones iguales es rechazada a favor de la alternativa de que las poblaciones difieren
en localización si el valor de H es grande. Así, la correspondiente prueba de nivel a pide el rechazo de la
hipótesis nula a favor de la alternativa si H > h(α), donde h(α) es tal que, cuando H0 es verdadera, P[H > h(α)]
= α.

Condiciones y Características de la Prueba


* Esta se emplea cuando se quieren comparar dos o más poblaciones.

* Es el equivalente a un análisis de varianza de una sola v´ıa.

* Procedimiento paramétrico: Diseño completamente al azar.

* No requiere supuesto de varianzas iguales (homogeneidad de varianzas).

* No es necesario que las muestras que se comparan provengan de una distribución normal.

* Si el tamaño de grupos k es igual a 3 y el número de observaciones en cada uno no es mayor que 5, se


recurre a tablas tabuladas con valores teóricos de H
* En el resto de casos se asume que el estadístico H sigue una distribución χ2 con k−1 grados de libertad
(siendo k el número de grupos a comparar).
Asociaciones paramétricas
Coeficiente de correlación (Pearson)
El Coeficiente de Correlación de Pearson es una medida de la correspondencia o relación lineal entre dos
variables cuantitativas aleatorias. En palabras más simples se puede definir como un índice utilizado para
medir el grado de relación que tienen dos variables, ambas cuantitativas.
Teniendo dos variables, la correlación facilita que se hagan estimaciones del valor de una de ellas, con
conocimiento del valor de la otra variable.
Este coeficiente es una medida que indica la situación relativa de los sucesos respecto a las dos variables,
es decir, representa la expresión numérica que indica el grado de correspondencia o relación que existe entre
las 2 variables. Estos números varían entre límites de +1 y -1.

Para contar con una guía que permita:

 Establecer la variación contigua de las dos variables


 Comparar los distintos casos entre sí

Para ello se hace uso del coeficiente de correlación de Pearson, definido como la covarianza que se da
entre dos variables tipificadas y se calcula con la siguiente expresión:

Su dimensión indica el nivel de asociación entre las variables.

 Cuando es menor a cero (r < 0) Se dice que hay correlación negativa: Las variables se correlacionan
en un sentido inverso.
A valores altos en una de las variables, le suelen corresponder valores bajos en la otra variable y viceversa.
Cuánto el valor esté más próximo a -1 dicho coeficiente de correlación más evidente será la covariación
extrema.

Si r= -1 se habla de correlación negativa perfecta, la cual supone una determinación absoluta entre ambas
variables, en sentido directo coexiste una relación lineal perfecta de pendiente negativa.

 Cuando es mayor a cero (r > 0) Se dice que hay correlación positiva: Ambas variables se
correlacionan en un sentido directo.
A valores altos en una de las variables, le corresponden valores altos en la otra variable e igualmente en una
situación inversa sucede con los valores bajos. Cuánto más próximo a +1 se encuentre el coeficiente de
correlación más evidente será la covariación.

Si r = 1 Se habla de correlación positiva perfecta, la cual supone una determinación absoluta entre las
variables, en sentido directo coexiste una relación lineal perfecta de pendiente positiva).

Cuando es igual a cero (r = 0) Se dice que las variables están incorrectamente relacionadas, no puede es
posible establecer algún sentido de covariación.
No existe relación lineal, pero esto no implica necesariamente que las variables sean independientes,
pudiendo existir relaciones no lineales entre las variables.
Cuando las dos variables son independientes se dice que no están correlacionadas, aunque el resultado de
reciprocidad no es necesariamente cierto.
Para concluir se puede decir que se ve más difícil de lo que resulta ser, sobre todo si se cuenta con tecnología
avanzada, pues hoy día existen múltiples programas que facilitan esta labor de cálculo e interpretación del
coeficiente de Pearson.
Asociaciones no paramétricas
La prueba de ji-cuadrado
The chi-square

Resumen
El estadístico ji-cuadrado (o chi cuadrado), que tiene distribución de probabilidad del mismo nombre, sirve
para someter a prueba hipótesis referidas a distribuciones de frecuencias. En términos generales, esta prueba
contrasta frecuencias observadas con las frecuencias esperadas de acuerdo con la hipótesis nula. En este
artículo se describe el uso del estadístico ji-cuadrado para probar la asociación entre dos variables utilizando
una situación hipotética y datos simulados. Luego se describe su uso para evaluar cuán buena puede resultar
una distribución teórica, cuando pretende representar la distribución real de los datos de una muestra
determinada. A esto se le llama evaluar la bondad de un ajuste. Probar la bondad de un ajuste es ver en qué
medida se ajustan los datos observados a una distribución teórica o esperada. Para esto, se utiliza una
segunda situación hipotética y datos simulados.

Del mismo modo que los estadísticos “z”, con su distribución normal y “t”, con su distribución t de Student,
nos han servido para someter a prueba hipótesis que involucran a promedios y porcentajes, el estadístico ji-
cuadrado (o chi cuadrado), que tiene distribución de probabilidad del mismo nombre, nos servirá para
someter a prueba hipótesis referidas a distribuciones de frecuencias.

En primer lugar usaremos el estadístico ji-cuadrado para probar la asociación entre dos variables, y luego
lo usaremos para evaluar en qué medida se ajusta la distribución de frecuencias obtenida con los datos de
una muestra, a una distribución teórica o esperada.

En términos generales, esta prueba contrasta frecuencias observadas con las frecuencias esperadas de
acuerdo con la hipótesis nula. Al igual que en el caso de las pruebas anteriormente presentadas, ilustraremos
con ejemplos.

Ji- cuadrado como prueba de asociación

Supongamos que un investigador está interesado en evaluar la asociación entre uso de cinturón de seguridad
en vehículos particulares y el nivel socioeconómico del conductor del vehículo. Con este objeto se toma una
muestra de conductores a quienes se clasifica en una tabla de asociación, encontrando los siguientes
resultados:

Tabla I. Tabla de asociación, valores observados.

¿Permiten estos datos afirmar que el uso del cinturón de seguridad depende del nivel socioeconómico?
Usaremos un nivel de significación alfa=0,05.

Los pasos del análisis estadístico en este caso son los siguientes:

1. En primer lugar se debe plantear las hipótesis que someteremos a prueba

H0: “El uso de cinturón de seguridad es independiente del nivel socioeconómico”.


H1: “El uso de cinturón de seguridad depende del nivel socioeconómico”.

En esta prueba estadística siempre la hipótesis nula plantea que las variables analizadas son independientes.

2. En segundo lugar, obtener (calcular) las frecuencias esperadas

Estas son las frecuencias que debieran darse si las variables fueran independientes, es decir, si fuera cierta
la hipótesis nula.

Las frecuencias esperadas se obtendrán de la distribución de frecuencias del total de los casos, 51 personas
de un total de 94 usan el cinturón y 43 de 94 no lo usan. Esa misma proporción se debería dar al interior de
los tres grupos de nivel socioeconómico, de manera que el cálculo responde al siguiente razonamiento: si
de 94 personas 51 usan cinturón; de 21 personas, ¿cuántas debieran usarlo?

La respuesta a esta pregunta se obtiene aplicando la “regla de tres” y es 11,4. Este procedimiento debe
repetirse con todas las frecuencias del interior de la tabla.

El detalle de los cálculos es el siguiente:

Nivel bajo: (21x51/94)=11,4-(21x43/94)=9,6


Nivel medio: (31x51/94)=16,8-(31x43/94)=14,2
Nivel alto: (42x51/94)=22,8-(42x43/94)=19,2

Estas son las frecuencias que debieran presentarse si la hipótesis nula fuera verdadera y, por consiguiente,
las variables fueran independientes.

Estos valores los anotamos en una tabla con las mismas celdas que la anterior; así tendremos una tabla con
los valores observados y una tabla con los valores esperados, que anotaremos en cursiva, para identificarlos
bien.

Tabla II. Tabla de asociación, valores esperados.

3. En tercer lugar se debe calcular el estadístico de prueba

En este caso, el estadístico de prueba es Ji-cuadrado que, como dijimos al comienzo, compara las frecuencias
que entregan los datos de la muestra (frecuencias observadas) con las frecuencias esperadas, y tiene la
siguiente fórmula cálculo:

donde O¡ representa a cada frecuencia observada y E¡ representa a cada frecuencia esperada.

De este modo el valor del estadístico de prueba para este problema será:
Entonces Este es el valor de nuestro estadístico de prueba que ahora, siguiendo el procedimiento
de problemas anteriores (paso 4), debemos comparar con un valor de la tabla de probabilidades para ji-
cuadrado (x2). Esta tabla es muy parecida a la tabla t de student, pero tiene sólo valores positivos porque ji-
cuadrado sólo da resultados positivos.

También podría gustarte