Está en la página 1de 52

Principales técnicas estadísticas

paramétricas y no paramétricas

ESTADÍSTICA BÁSICA Y APLICADA A LA INVESTIGACIÓN EN


TRASTORNOS MENTALES
PREGUNTA DE INVESTIGACIÓN

¿Se sostiene determinada


¿Cuál es el valor de un parámetro?
hipótesis a la luz de los datos?
INTERVALOS DE CONFIANZA
CONTRASTE DE HIPTOESIS

Una variable Dos variables

Dos
nominales Dos ordinales Dos de intervalo / razón Una nominal /ordinal
V. Cualitativa V. Cuantitativa y una de razón
G. independientes Grupos relacionados
Rho de Correlación
Spearman Pearson
Prueba t
Chi cuadrado Más de 2 regresión
de una 2 grupos
(bondad Chi grupos
media
ajuste) cuadrado
Prueba Prueba Q
McNemar Cochran

Dos
Más de dos Más de dos
Dos grupos grupos
grupos grupos
independientes relacionad
independientes relacionados
os

Se cumplen Se cumplen
Se cumplen los No se cumplen Se cumplen los No se cumplen No se cumplen No se cumplen
los los
supuestos los supuestos supuestos los supuestos los supuestos los supuestos
supuestos supuestos

Prueba t de U de Mann Prueba t de Prueba ANOVA Prueba de ANOVA Prueba de


medias - Whitney medias de completamente Krustall medidas Friedman
independientes relacionadas Wilcoxon aleatorizado Wallis repetidas
Qué prueba estadística debo elegir
• http://www.ats.ucla.edu/stat/stata/whatstat/
UNA VARIABLE
• Este tipo de problema es menos frecuente a la
practica clínica. Sería un tipo de problema como
este:
– Queremos saber si la puntuación media de un grupo
de personas en un test está en torno a un valor (ej. CI
en torno a 100)
– Queremos saber si la distribución de la variable sexo
es homogenea: mitad de hombres, mitad de mujeres.
• Cuando la variable que contrastamos en
cuantitativa: prueba T de una media
• Cuando la variable que contrastamos es
cualitativa: chi - cuadrado
CONTRASTE DE UNA MEDIA
• Abre el siguiente fichero usando el comando
directamente en STATA:
• use http://www.ats.ucla.edu/stat/stata/notes/hsb2
• El programa abre directamente desde internet el
fichero (contando con que tenemos conexión!)
• Podemos por ejemplo verificar la siguiente
hipótesis:
– La puntuación media de los estudiantes de EEUU en
comprensión lectora está en torno a 50 puntos
• Usa el comando ttest
CONTRASTE DE UNA MEDIA

One-sample t test

Variable Obs Mean Std. Err. Std. Dev. [95% Conf. Interval]

read 200 52.23 .7249921 10.25294 50.80035 53.65965

mean = mean(read) t = 3.0759


Ho: mean = 50 degrees of freedom = 199

Ha: mean < 50 Ha: mean != 50 Ha: mean > 50


Pr(T < t) = 0.9988 Pr(|T| > |t|) = 0.0024 Pr(T > t) = 0.0012
DOS VARIABLES
• Para analizar la relación entre dos variables, lo primero hay que ver
el tipo de variable:
– Dos variables cualitativas:
• Grupos independientes: Chi - cuadrado
• Grupos relacionados: McNemar (2 grupos) y Cochran (mas
de dos grupos)
– Dos variables cuantitativas
• Correlación de Pearson, Spearman, Regresión…
– Una variable cualitativa y una cuantitativa (cumplimiento de
normalidad)
• Grupos independientes
– Dos grupos: Prueba de T de medias independientes
– Mas de dos grupos: ANOVA de 1 factor CA
• Grupos relacionados:
– Dos grupos: Prueba T de medias relacionadas
– Más de dos grupos: ANOVA de 1 factor MR
DOS VARIABLES
– Una variable cualitativa y una cuantitativa (no
cumplimiento de normalidad)
• Grupos independientes
– Dos grupos: U de Mann- Whitney
– Mas de dos grupos: Krustall-Wallis
• Grupos relacionados:
– Dos grupos: Wilcoxon
– Más de dos grupos: Friedman

• Por tanto, lo importante es saber identificar ante que caso estamos


y si se cumplen los supuestos de normalidad
CHI CUADRADO
• Ejemplo:
• Vamos a ver si el tipo de escuela hace variar la
distribución de los estudiantes según su etnia

• VI: tipo de escuela (pública y privada)


• VD: raza
• Nivel de medición de las dos variables: nominal
• H0: No hay diferencias en la distribución de razas entre
las escuelas públicas y privadas (P1=P2)

• Usa el comando tabulate para hacer tablas de doble


entrada, incluyendo el nombre de las dos variables
Análisis de la relación entre dos variables
cualitativas: tablas de contingencia
• Cuando se analiza la relación entre dos variables cualitativas la distribución
conjunta de frecuencias se suele presentar mediante una tabla: tabla de
contingencia

type of race
school hispanic asian african-a white Total

public 22 10 18 118 168


private 2 1 2 27 32

Total 24 11 20 145 200

• Para analizar la relación entre ambas variables compararemos las dos


distribuciones condicionales. Ambas distribuciones parecen muy diferentes.

• Cuando se realizan comparaciones entre distribuciones condicionales en


una tabla de contingencia deberíamos comparar proporciones (o
porcentajes).
Estadísticos de asociación entre dos variables cualitativas
Chi cuadrado
Las proporciones comparadas pueden diferir en todas las categorías, o sólo en algunas, y estas
diferencias pueden ser mayores o menores,
Necesitamos un indicador global de la intensidad de la relación entre variables cualitativas. El
estadístico más usual para evaluar la relación entre dos variables cualitativas es la chi-cuadrado (X2).

Chi-cuadrado es un estadístico que compara las frecuencias observadas con las frecuencias que se
esperarían si no hubiera relación entre las variables. Cuanto mayor sea la diferencia entre frecuencias
observadas y frecuencias esperadas, más intensa será la relación entre variables.

( f oij  f eij ) 2 f o  Frecuencia observada


  
2

f eij f e  Frecuencia esperada


i 1 j 1

Para cada celda de la tabla tendremos que calcular la diferencia entre


la frecuencia observada y la frecuencia esperada, elevarla al cuadrado,
y finalmente dividir por la frecuencia esperada. Chi cuadrado es la
suma de los resultados obtenidos en todas las celdas.
Cálculo de las frecuencias esperadas
¿Cómo se calculan las frecuencias esperadas? La frecuencia esperada en una celda es el
producto los marginales de la celda dividido por el número total de casos.

f i.  f. j
f eij 
n
type of school
race public private Total

hispanic 22 2 24
asian 10 1 11
african-amer 18 2 20
white 118 27 145

Total 168 32 200


Cálculo de las frecuencias esperadas
¿Cómo se calculan las frecuencias esperadas? La frecuencia esperada en una celda es el
producto los marginales de la celda dividido por el número total de casos.

f i.  f. j
f eij 
n
Públicas Privadas

Hispano 24 168 fo = 24
fe  
200

Asiatico fo = fo = 11

Afroamericano fo = fo = 20

Blanco fo = 50 fo = 10 145

168 32
Cálculo de las frecuencias esperadas
¿Cómo se calculan las frecuencias esperadas? La frecuencia esperada en una celda es el
producto los marginales de la celda dividido por el número total de casos.

f i.  f. j
f eij 
n
type of race
school hispanic asian african-a white Total

public 22 10 18 118 168


20.2 9.2 16.8 121.8 168.0

private 2 1 2 27 32
3.8 1.8 3.2 23.2 32.0

Total 24 11 20 145 200


24.0 11.0 20.0 145.0 200.0

Con el comando tabulate schtyp race, chi2 obtenemos el valor de Chi-cuadrdado

Pearson chi2(3) = 2.7170 Pr = 0.437


Estadísticos de asociación entre dos variables cualitativas
Chi cuadrado
Las proporciones comparadas pueden diferir en todas las categorías, o sólo en algunas, y estas
diferencias pueden ser mayores o menores,
Necesitamos un indicador global de la intensidad de la relación entre variables cualitativas. El
estadístico más usual para evaluar la relación entre dos variables cualitativas es la chi-cuadrado (X2).

Chi-cuadrado es un estadístico que compara las frecuencias observadas con las frecuencias que se
esperarían si no hubiera relación entre las variables. Cuanto mayor sea la diferencia entre frecuencias
observadas y frecuencias esperadas, más intensa será la relación entre variables.

( f oij  f eij ) 2 f o  Frecuencia observada


  
2

f eij f e  Frecuencia esperada


i 1 j 1

Para cada celda de la tabla tendremos que calcular la diferencia entre la frecuencia
observada y la frecuencia esperada, elevarla al cuadrado, y finalmente dividir por la
frecuencia esperada.

Chi cuadrado es la suma de los resultados obtenidos en todas las celdas.


Interpretación de chi-cuadrado
Para interpretar el valor de chi-cuadrado debemos tener en cuenta que

1. χ2 = 0 Relación nula

2. Cuanto mayor sea el valor de χ2 , más intensa será la relación entre las
variables.

3. Independientemente del grado de asociación entre dos variables, el valor de χ2


depende del número de filas y columnas de la tabla de contingencia así como del tamaño de la
muestra.

Por todo ello un valor concreto de χ2 diferente de 0 es difícil de interpretar. Para solucionar
este problema se han propuesto otros estadísticos, basados en χ2, pero que son más
fácilmente interpretables.

Uno de estos estadísticos es la V de Cramer

Cálculo de la V en el ejemplo anterior

2 n = tamaño de la muestra
V L = mínimo (filas, columnas) V
1.62
 0.10
n( L  1) 150(2  1)
Interpretación de V de Cramer
Para interpretar el valor de la V de Cramer debemos tener en cuenta que

V=0 Relación nula

V=1 Relación perfecta

Para interpretar los valores intermedios de V, podemos seguir las


recomendaciones de Cohen (1988)1:

V de Cramer Intensidad de la relación


0,1 Débil
0,3 Media
0,5 Alta

En el ejemplo anterior, dado que V = 0.10, diríamos que existe una débil
elación entre sexo y orientación profesional

1
Estas recomendaciones sólo son aplicables a tablas de contingencia 2x2, 2x3, 2x4,…, y deben ser aplicadas con
cautela
OBSERVACIÓN RESPECTO A
CHI-CUADRADO
• Si alguna de las casillas de la tabla tiene una frecuencia
esperada menor de 5, no es muy conveniente usar este
estadístico.
• Es mejor usar el estadístico exacto de Fisher, con el
siguiente comando
• tabulate schtyp race, exact
• De hecho, en nuestro ejemplo habia casillas con menos
de 5 sujetos, cuando pedimos el estadistido exacto de
Fisher obtenemos esto:
• Fisher's exact = 0.597
• El dato que aparece es directamente el p valor, sobre el
que se puede tomar una decisión.
COEFICIENTE PHI
• La función de la correlación de Phi es determinar si
existe una relación lineal entre dos variables a nivel
nominal con dos valores cada una (dicotómico) y que
esta relación no sea debida al azar; es decir, que la
relación sea estadísticamente significativa.

• Problema
• Se desea saber si existe relación entre el consumo de
alcohol del padre y el consumo de alcohol de
estudiantes de preparatoria.

• VD, VI, Ho
COEFICIENTE PHI
Prueba de McNemar
• La prueba de McNemar se utiliza para decidir si puede o no aceptarse
que determinado ''tratamiento'' induce un cambio en la respuesta
dicotómica o dicotomizada de los elementos sometidos al mismo, y es
aplicable a los diseños del tipo ''antes-después'' en los que cada elemento
actúa como su propio control.
• Los resultados correspondientes a una muestra de n elementos se
disponen en una tabla de frecuencias 2 x 2 para recoger el conjunto de
las respuestas de los mismos elementos antes y después.
• El aspecto general de dicha tabla, en la que los signos + y - se utilizan
para representar las diferentes respuestas, es el siguiente:

Después
- +
Antes - a b
+ c d
Prueba de McNemar
• a es el número de elementos cuya respuesta es la misma, -
• b es el número de elementos cuya respuesta es - antes del ''tratamiento''
y + después de éste;
• c es el número de elementos que han cambiado de + a -;
• d es el número de elementos que mantienen la respuesta +.
• b+c es el número total de elementos cuyas respuestas han cambiado, y
son los únicos que intervienen en el contraste.

Después
+ -
Antes + a b
- c d
Prueba de McNemar
• La hipótesis nula es que el ''tratamiento'' no induce cambios significativos
en las respuestas, es decir, los cambios observados en la muestra se
deben al azar, de forma que es igualmente probable un cambio de + a -
que un cambio de - a +.
• Si H0 es cierta, de los b+c elementos cuya respuesta ha cambiado es de
esperar que (b+c)/2 hayan pasado de + a -, y (b+c)/2 hayan pasado de - a
+.
• En otras palabras, si H0 es cierta, la frecuencia esperada en las
correspondientes celdas es (a+b)/2.

Después

+ -
Antes + a b
- c d
Prueba de McNemar
• Para contrastar la significación de los cambios interesan sólo las celdas
que recogen cambios, por tanto el estadístico puede expresarse como

• Si H0 es cierta, el estadístico tiene distribución aproximadamente chi-


cuadrado con 1 grado de libertad
• La hipótesis nula, de que ambos tipos de cambio son igualmente
probables, se rechaza si el valor del estadístico se encuentra en la región
crítica.

Después
+ -
Antes + a b
- c d
Prueba de McNemar
• Problema
• Se desea conocer si la participación en un taller de socialización
cambia el sentirse sólo en pacientes con esquizofrenia, para ello se
pregunta a los pacientes si se sienten solos o no antes y después
del taller.

• Decisiones para seleccionar la prueba de McNemar


– Es un problema de Comparación
– VI: taller de socialización 2 grupos relacionados (sentirse sólo antes y
después del taller)
– VD: sentirse sólo
– Nivel de medición de la variable dependiente: nominal
– Ho: No hay diferencias en la proporción de pacientes que se sienten
solos antes y después del taller de socialización (P1=P2)
– Prueba estadística: Prueba de McNemar
– Regla de decisión: Sip≤0.05 se rechaza Ho
Prueba de McNemar
PRUEBA DE MCNEMAR EN
STATA
• Statistics > Epidemiology and related >
Tables for epidemiologists > Matched
case-control studies
• El comando sería
• mmc variablepretest variable posttest
• Ambas variables deben ser dicotómicas,
del tipo positivo/negativo
PRUEBA Q COCHRAN
• Es una prueba no paramétrica de comparación de proporciones para tres
o más muestras relacionadas, debe cumplir las siguientes características:
• Nivel nominal de la variable dependiente
• Su función es comparar el cambio en la distribución de proporciones
entre más de dos mediciones de una variable dicotómica y determinar
que la diferencia no se deba al azar (que las diferencias es
estadísticamente significativa)

• Problema
• Se desea evaluar la efectividad de un programa para eliminar el consumo
en usuarios de drogas, para ello se registra si los usuarios consumen
drogas al finalizar el programa, y se hace un seguimiento a 3 y 6 meses en
que se les vuelve a preguntar si consumen drogas.

• ¿Cuál sería la VI, VD, y la Ho?


PRUEBA Q COCHRAN

Esta prueba no viene esta incluida en Stata, hay que instalar un paquete
package cochran from http://fmwww.bc.edu/RePEc/bocode/c
DOS VARIABLES
• Para analizar la relación entre dos variables, lo primero hay que ver
el tipo de variable:
– Dos variables cualitativas:
• Grupos independientes: Chi - cuadrado
• Grupos relacionados: McNemar (2 grupos) y Cochran (mas
de dos grupos)
– Dos variables cuantitativas
• Correlación de Pearson, Spearman, Regresión…
– Una variable cualitativa y una cuantitativa (cumplimiento de
normalidad)
• Grupos independientes
– Dos grupos: Prueba de T de medias independientes
– Mas de dos grupos: ANOVA de 1 factor CA
• Grupos relacionados:
– Dos grupos: Prueba T de medias relacionadas
– Más de dos grupos: ANOVA de 1 factor MR
Análisis de la relación entre
una variable cualitativa y una
cuantitativa
DOS VARIABLES
• Para analizar la relación entre dos variables, lo primero hay que ver
el tipo de variable:
– Dos variables cualitativas:
• Grupos independientes: Chi - cuadrado
• Grupos relacionados: McNemar (2 grupos) y Cochran (mas
de dos grupos)
– Dos variables cuantitativas
• Correlación de Pearson, Spearman, Regresión…
– Una variable cualitativa y una cuantitativa (cumplimiento de
normalidad)
• Grupos independientes
– Dos grupos: Prueba de T de medias independientes
– Mas de dos grupos: ANOVA de 1 factor CA
• Grupos relacionados:
– Dos grupos: Prueba T de medias relacionadas
– Más de dos grupos: ANOVA de 1 factor MR
T de Student
• Es una prueba paramétrica de comparación de dos muestras
independientes, debe cumplir las siguientes características:
• Asignación aleatoria de los grupos
• Homocedasticidad (homogeneidad de las varianzas de la variable
dependiente de los grupos)
• Distribución normal de la variable dependiente en los dos grupos
• Nivel intervalo o de razón de la variable dependiente
• Su función es comparar dos grupos de puntuaciones (medias
aritméticas) y determinar que la diferencia no se deba al azar (que las
diferencia sea estadísticamente significativa).

• Problema:
• Queremos saber si chicos y chicas difieren en su capacidad de redacción,
• Hipótesis:
• Las chicas tienen mejore habilidades de redacción que los chicos

• Usa el fichero estudiantes.dta


T de Student
Usando el comando: graph box write, over (female)

70
60
writing score
50
40
30

male female
T de Student
Usando el comando: ttest write, by(female)

Two-sample t test with equal variances

Group Obs Mean Std. Err. Std. Dev. [95% Conf. Interval]

male 91 50.12088 1.080274 10.30516 47.97473 52.26703


female 109 54.99083 .7790686 8.133715 53.44658 56.53507

combined 200 52.775 .6702372 9.478586 51.45332 54.09668

diff -4.869947 1.304191 -7.441835 -2.298059

diff = mean(male) - mean(female) t = -3.7341


Ho: diff = 0 degrees of freedom = 198

Ha: diff < 0 Ha: diff != 0 Ha: diff > 0


Pr(T < t) = 0.0001 Pr(|T| > |t|) = 0.0002 Pr(T > t) = 0.9999
DOS VARIABLES
• Para analizar la relación entre dos variables, lo primero hay que ver
el tipo de variable:
– Dos variables cualitativas:
• Grupos independientes: Chi - cuadrado
• Grupos relacionados: McNemar (2 grupos) y Cochran (mas
de dos grupos)
– Dos variables cuantitativas
• Correlación de Pearson, Spearman, Regresión…
– Una variable cualitativa y una cuantitativa (cumplimiento de
normalidad)
• Grupos independientes
– Dos grupos: Prueba de T de medias independientes
– Mas de dos grupos: ANOVA de 1 factor CA
• Grupos relacionados:
– Dos grupos: Prueba T de medias relacionadas
– Más de dos grupos: ANOVA de 1 factor MR
T de Student medias relacionadas
• Cuando tenemos varias mediciones de los mismos sujetos,
principalmente como evaluación pretest – postest, podemos usar el
contraste de dos medias relacionadas.
• En la base de estudiantes.dta, no tenemos pretest postest, pero
tenemos varias mediciones (lectura y escritura), vamos a tomarla
como dos mediciones para ejemplificar el analisis.
• ttest read = write
Paired t test

Variable Obs Mean Std. Err. Std. Dev. [95% Conf. Interval]

read 200 52.23 .7249921 10.25294 50.80035 53.65965


write 200 52.775 .6702372 9.478586 51.45332 54.09668

diff 200 -.545 .6283822 8.886666 -1.784142 .6941424

mean(diff) = mean(read - write) t = -0.8673


Ho: mean(diff) = 0 degrees of freedom = 199

Ha: mean(diff) < 0 Ha: mean(diff) != 0 Ha: mean(diff) > 0


Pr(T < t) = 0.1934 Pr(|T| > |t|) = 0.3868 Pr(T > t) = 0.8066
Y cuando tenemos más de dos
grupos…
• Cuando trabajamos con una VI que tiene más de dos
niveles, ya no podemos seguir usando el contraste de
dos medias o prueba T
• En este caso usaremos el ANOVA (Análisis de la
Varianza).
• La hipótesis nula traducirá la idea de que en los
diferentes grupos (tres, cuatro o los grupos que sean)
las medias son similares y por tanto no hay efecto de
esa VI.
• La hipotesis alternativa por el contrario dara una idea de
que las diferencias encontradas entre los grupos son
mayores que las esperadas por puro azar y por tanto se
espera un efecto de la VI
ANOVA DE 1 FACTOR
• Hay diferentes modelos de ANOVA, Según el número de
factores (VI)
– - 1 VI: ANOVA de un factor
– - 2 VI: ANOVA de dos factores
• Según el tipo de aleatorización: (forma en que los sujetos se
asignan a las condiciones)
– - Completamente aleatorizado
– - Aleatorizado en bloques
– - Medidas repetidas
• Según el muestreo de niveles:
– - De efectos fijos: se estudian todos los niveles
– - De efectos aleatorios: se aleatorizan los niveles, no hay interés
en niveles particulares de factor
– - Mixto
ANOVA DE 1 FACTOR
• El término ANOVA procede de la expresión inglesa Analysis Of
Variance
• Es la técnica de análisis de datos más utilizada en la investigación
psicológica
• Se utiliza cuando se quieren comparar las medias de más de dos
grupos y permite por tanto analizar la relación entre una variable
dependiente y una variable independiente, cuando la VI tiene más
de dos niveles.
• Problema de la replicación
• El ANOVA descompone la variabilidad de observada VD en varios
componentes

Variabilidad Variabilidad
Variabilidad debida a debida a
observada factores factores no
en la VD = tenidos en + controlados
cuenta (error)
4.1. ANOVA DE 1 FACTOR
COMPLETAMENTE ALEATORIZADO
• 1.- Hipótesis:
– Ho: µ1 = µ2 = … = µn (las medias poblacionales son iguales)
– H1: µj ≠ µj’ (alguna media es diferente)

• 2.- Supuestos:
– - Independencia: las J muestras son aleatorias y las N observaciones
independientes entre si
– - Normalidad: las J poblaciones son normales
– - Homocedasticidad: esas J poblaciones tienen la misma varianza

• 3.- Estadístico de contraste: F = MCinter / MCerror


Sumas de cuadrados Grados de Medias Cuadráticas
F
(SC) libertad (GL) (MC)
Intergrupos SCinter j-1 SCinter/glinter MCinter/MCerror
Error SCerror N-j SCerror/glerror
Total SCtotal N-1
ANOVA EN STATA
• Pongamos que seguimos con el fichero estudiantes.dta
y queremos contrastar la siguiente hipótesis:
• Las puntuaciones en matemáticas difieren en los
estudiantes según el programa de estudios que estén
cursando
• Usando los siguientes comandos, obtendremos el
ANOVA
• oneway math prog
• oneway math prog, tabulate
• tabulate prog, sumarize (math)
• Realiza también un gráfico de caja y otro de barras
ANOVA EN STATA
Analysis of Variance
Source SS df MS F Prob > F

Between groups 4002.10389 2 2001.05194 29.28 0.0000


Within groups 13463.6911 197 68.3436097

Total 17465.795 199 87.7678141

type of Summary of math score


program Mean Std. Dev. Freq.

general 50.022222 7.4421676 45


academic 56.733333 8.7302157 105
vocation 46.42 7.95418 50

Total 52.645 9.3684478 200


80
ANOVA EN STATA

60
70

40
mean of math
60
math score
50

20
40

0
general academic vocation
30

general academic vocation


COMPARACIONES MÚLTIPLES
• La hipótesis nula que somete a contraste el ANOVA es una
hipótesis global referida al conjunto de medias de los diferentes
grupos.
– Ho: Todas las medias son iguales
– H1: Al menos una de las medias es diferente

• Esto no permite concluir acerca de qué medias difieren de cuales.


En realidad el estadístico F es un primer paso del análisis.

• Tras determinar el efecto global de la VI, queda por aclarar entre


qué grupos se encuentran diferencias. Esto se consigue a través de
las comparaciones múltiples, que ademas se agrupan en:

– Comparaciones planeadas o a priori:


– Comparaciones post hoc o a posteriori
COMO COMPARAMOS
VARIOS GRUPOS
• Por ejemplo para una VI con tres niveles (a1, a2 y a3),
se pueden hacer las siguientes comparaciones:
– C1: a1 – a2
– C2: a1 – a3
– C3: a2 – a3
– C4: a1 – (a2+a3)/2
– C5: a2 – (a1+a3)/2
– C6: a3 – (a2+a3)/2
• Para cada una de esas comparaciones se podría hacer
un contraste de dos medias (como una prueba T de
Student).
COMO COMPARAMOS
VARIOS GRUPOS
• En cada una de esas comparaciones hay dos términos
a comparar, aunque algunos de esos términos puedan
ser agrupaciones de niveles.
• Para hacer estas comparaciones el procedimiento
habitual es multiplicar la media de cada nivel por un
coeficiente o peso que represente su estatus en la
comparación.
• Posteriormente haremos una T de Student corregida
con esos pesos.
• Vamos a ver como se sacan esos pesos.
COMO COMPARAMOS
VARIOS GRUPOS
• Por ejemplo para la comparación C1: a1 – a2, la
hipótesis que someteriamos a contraste sería
– Ho: μ1= μ2 o lo que es lo mismo Ho: μ1- μ2 = 0
• Para la comparación C4: a1 – (a2+a3)/2, la hipótesis
que someteríamos a contraste sería:
– Ho: μ1= (μ2+ μ3)/2 , es decir Ho: a1 – (a2+a3)/2 = 0

• Estaríamos haciendo una prueba T de Student, usando


pesos corregidos para cada grupo que comparemos
PRUEBA DE DUNN-BONFERRONI

• En realidad se trata del estadístico T de Student ya


estudiado, acompañado de una estrategia de control de
la tasa de error tipo 1
• Se basa en la siguiente afirmación:
– Al realizar K comparaciones, la tasa de error total siempre es
igual o menor que la suma de las tasas de error de cada
comparación individual.

• Si cada comparación usa un α=0,05/k, la tasa de error


total siempre será 0,05 o menor.
COMPARACIONES A POSTERIORI
• Hay numerosos procedimientos de
comparaciones múltiples a posteriori
Procedimientos de A posteriori
comparación
No ortogonales No ortogonales robustos

Controlan la Tasa de Error A POSTERIORI - Prueba de Scheffé


tipo 1 -Diferencia Honestamente - Procedimiento de Brown
significativa (HSD o WSD) Forsythe

A PRIORI
IMPLEMENTADOS COMO A
POSTERIORI
-Prueba de Dunn-Bonferroni
-- Prueba de Dunnet
No controlan la Tasa de - Diferencia Mínima
Error tipo 1 significativa (DMS o LSD en
ingles) de Fisher
COMPARACIONES A
POSTERIORI CON STATA
Comparison of math score by type of program
(Scheffe)
Row Mean-
Col Mean general academic

academic 6.71111
0.000

80
vocation -3.60222 -10.3133

70
0.108 0.000

60
math score
50 40

oneway math prog, scheffe


30

general academic vocation


SI TENEMOS MÁS DE UNA VD O
MÁS DE UNA VI… MANOVA
• Si queremos analizar el efecto de una VI
sobre diferentes VD en un solo análisis
podemos realizar un analisis de varianza
multivariante:

También podría gustarte