Está en la página 1de 29

13/10/2017

Mª Carmen Rosa Garrido


Técnico en Metodología y Estadística

𝐻 : 𝑒𝑙 𝑎𝑐𝑢𝑠𝑎𝑑𝑜 𝑒𝑠 𝑖𝑛𝑜𝑐𝑒𝑛𝑡𝑒
ቊ 0
𝐻1 : 𝑒𝑙 𝑎𝑐𝑢𝑠𝑎𝑑𝑜 𝑒𝑠 𝑐𝑢𝑙𝑝𝑎𝑏𝑙𝑒

 Error Alfa: declarar a un inocente como culpable


 Error Beta: declarar inocente a un culpable
 Relación entre Alfa y Beta (para un mismo tamaño
de muestra): El aumento de uno implica la
disminución del otro
Estado real
Inocente Culpable
Decisión
Inocente Error tipo II (Beta)
correcta
Decisión
Error tipo I
Culpable Decisión correcta
(Alfa)

1
13/10/2017

Relación entre tamaño muestral y los errores:


 Para un tipo de error fijado, a más tamaño de
muestra menor valor del otro error.
 Fijar Alfa=0.05 y cualquier tamaño de muestra:
◦ Si p<0.05 se rechaza H0, error bajo.
◦ Si p>0.05 no se rechaza H0, pero ¿cuál es el error
cometido?
 Fijar Alfa=0.05 y Beta=0.20
◦ Calcular tamaño de muestra necesario

 Un contraste de hipótesis es una prueba que se basa


en los datos de una muestra mediante la cuál
podemos rechazar una hipótesis en favor de una
hipótesis contraria.

 La prueba se basa en un estadístico de contraste.

 Se rechazará la hipótesis cuando el valor del


estadístico se sitúa en la región de rechazo.

2
13/10/2017

 El contraste de hipótesis implica una toma de


decisión, esto conlleva un riesgo a equivocarnos
al decidir. Estos errores son:
◦ Error tipo I.
◦ Error tipo II, 𝛽.

 Otros términos asociados a los errores:


◦ Nivel de significación, 𝛼.
◦ Nivel de confianza, 1- 𝛼.
◦ Potencia, 1- 𝛽.

Objetivo al realizar un contraste: acotar el error


tipo I y tratar de minimizar el error tipo II.

Estado real
H0 H1
H0 Decisión correcta Error tipo II (Beta)
Decisión en
el contraste
H1 Error tipo I (Alfa) Decisión correcta

3
13/10/2017

 p-valor, el máximo nivel de significación con el que


la hipótesis nula sería rechazada en favor de la
alternativa.

 Regla de decisión en un contraste, dado el p-valor,


sería la siguiente:
◦ Si p < 0,05, rechazamos 𝐻0 en favor de 𝐻1 con más de un
95% de confianza.
◦ Si p≥0,05, no podemos rechazar 𝐻0 en favor de 𝐻1 con al
menos un 95% de confianza.

 El Intervalo de Confianza es un rango de valores en


el que se encuentra el valor verdadero del
parámetro, con un nivel de confianza 1 − α .

 Se calculan los IC al 95% de confianza.

 De 100 muestras seleccionadas, al menos 95 de


ellas contienen el verdadero valor del parámetro.

 Son imprescindibles para acompañar estimaciones


puntuales.

4
13/10/2017

 Los test paramétricos han de cumplir condiciones


para su aplicación . Las condiciones más usuales
son:
◦ Los datos de la muestra se distribuyen de forma
NORMAL.
◦ Existe IGUALDAD de varianzas en los diferentes
grupos.

 Los test NO paramétricos no es necesario el


cumplimiento ninguna condición previa para si
utilización.

 Aplicar el test de Kolmogorov-Smirnov y el test de


Shapiro-Wilk. Contraste de hipótesis que se evalúa:

𝐻0 : 𝑋 ⟶ 𝑁 𝜇; 𝜎

𝐻1 : 𝑋 ↛ 𝑁 𝜇; 𝜎

◦ Si p_valor<0,05 entonces la variable NO se


distribuye según la Normal.

◦ Si p_valor≥0,05 entonces la variable SÍ se


distribuye según la Normal.

5
13/10/2017

Para contrastar la homogeneidad de varianzas


entre los grupos de contraste se utiliza el Test
de Levene.
𝐻 : 𝑙𝑎𝑠 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎𝑠 𝑠𝑜𝑛 𝑖𝑔𝑢𝑎𝑙𝑒𝑠 𝑒𝑛 𝑙𝑜𝑠 𝑔𝑟𝑢𝑝𝑜𝑠
ቊ 0
𝐻1 : 𝑒𝑥𝑖𝑠𝑡𝑒𝑛 𝑑𝑖𝑓𝑒𝑟𝑒𝑛𝑐𝑖𝑎𝑠 𝑒𝑛𝑡𝑟𝑒 𝑙𝑎𝑠 𝑣𝑎𝑟𝑖𝑎𝑛𝑧𝑎𝑠

◦ Si p_valor <0,05 entonces NO existe igualdad de varianzas.


◦ Si p_valor ≥0,05 entonces SÍ existe igualdad de varianzas.

Test para
Muestras Muestras
comparación de Independientes Dependientes
2 medias
T de Student para T de Student para
Test Paramétricos
muestras independientes muestras relacionadas

Prueba de rangos de
Test No Paramétricos U de Mann Whitney
Wilcoxon

6
13/10/2017

Test para
Muestras Muestras
comparación de Independientes Dependientes
3 o más medias
ANOVA para medidas
Test Paramétricos ANOVA
repetidas

Test No Paramétricos Kruskall-Wallis Test de Friedman

 Para contrastar si las medias de una variable


presentan diferencias entre dos grupos.

𝐻0 : 𝑙𝑎𝑠 𝑚𝑒𝑑𝑖𝑎𝑠 𝑠𝑜𝑛 𝑖𝑔𝑢𝑎𝑙𝑒𝑠 𝑒𝑛 𝑙𝑜𝑠 𝑑𝑜𝑠 𝑔𝑟𝑢𝑝𝑜𝑠



𝐻1 : 𝑙𝑎𝑠 𝑚𝑒𝑑𝑖𝑎𝑠 𝑁𝑂 𝑠𝑜𝑛 𝑖𝑔𝑢𝑎𝑙𝑒𝑠 𝑒𝑛 𝑙𝑜𝑠 𝑑𝑜𝑠 𝑔𝑟𝑢𝑝𝑜𝑠

◦ Si p_valor<0,05, existen diferencias estadísticamente


significativas.
◦ Si p_valor≥0,05, no existen diferencias estadísticamente
significativas.

 Requisitos: Normalidad y la Homogeneidad de


Varianzas.

7
13/10/2017

Para calcular el test:


1. Analizar->Comparar medias->Prueba T para
muestras independientes...
2. Introducir la variable cuantitativa en Contrastar
variables, y la variable cualitativa en Variable de
agrupación.
3. Definir grupos..., en esta ventana hay que indicar
los códigos de las categorías a contratar.
4. Continuar y Aceptar.

Paso1

Paso2

Paso3

8
13/10/2017

En los resultados proporcionados por SPSS en primer lugar


aparece el contraste de igualdad de varianzas de Levene. En
este caso, podemos asumir que las varianzas son iguales en
los dos grupos, p_valor=0,757.
En los resultados de la Prueba T se comprueba que el
p_valor=0,002, menor que 0,005. Por lo que se puede
concluir que existen diferencias estadísticamente
significativas en los tamaños medios del tumor entre los
pacientes fumadores y no fumadores.

Si no hay igualdad de varianzas el p_valor de


referencia de la prueba T es el de la segunda fila

 Se aplica para contrastar la igualdad de las puntuaciones en


los dos grupos. Las hipótesis de contraste son:

𝐻0 : 𝐿𝑎𝑠 𝑝𝑢𝑛𝑡𝑢𝑎𝑐𝑖𝑜𝑛𝑒𝑠 𝑑𝑒 𝑙𝑜𝑠 𝑑𝑜𝑠 𝑔𝑟𝑢𝑝𝑜𝑠 𝑠𝑜𝑛 𝑖𝑔𝑢𝑎𝑙𝑒𝑠



𝐻1 : 𝐸𝑥𝑖𝑠𝑡𝑒𝑛 𝑑𝑖𝑓𝑒𝑟𝑒𝑛𝑐𝑖𝑎𝑠 𝑒𝑛𝑡𝑟𝑒 𝑙𝑎𝑠 𝑝𝑢𝑛𝑡𝑢𝑎𝑐𝑖𝑜𝑛𝑒𝑠 𝑑𝑒 𝑙𝑜𝑠 𝑑𝑜𝑠 𝑔𝑟𝑢𝑝𝑜𝑠

◦ Si p_valor<0,05, diferencias estadísticamente significativas.


◦ Si p_valor≥0,05, no existen diferencias estadísticamente
significativas.

 No requiere que se cumple ninguna hipótesis previa.

9
13/10/2017

Para calcular el test:


1. Analizar->Pruebas no paramétricas->2 muestras
independientes...
2. Introducir la variable cuantitativa en Contrastar
variables, y la variable cualitativa en Variable de
agrupación.
3. Definir grupos..., en esta ventana hay que indicar
los códigos de las categorías a contrastar.
4. Continuar y Aceptar.

Paso1

Paso2

Paso3

10
13/10/2017

En los resultados proporcionados por SPSS se


comprueba que el p_valor del test es de 0,001, menor
que 0,05. Por lo que se puede concluir que existen
diferencias estadísticamente significativas en el tamaño
del tumor entre los pacientes fumadores y no
fumadores.

 Para contrastar si las medias de una variable presentan


diferencias entre tres o más grupos. Las hipótesis de
contraste son:

𝐻0 : 𝐿𝑎𝑠 𝑚𝑒𝑑𝑖𝑎𝑠 𝑠𝑜𝑛 𝑖𝑔𝑢𝑎𝑙𝑒𝑠 𝑒𝑛 𝑙𝑜𝑠 𝑑𝑖𝑓𝑒𝑟𝑒𝑛𝑡𝑒𝑠 𝑔𝑟𝑢𝑝𝑜𝑠



𝐻1 : 𝑁𝑜 𝑡𝑜𝑑𝑎𝑠 𝑙𝑎𝑠 𝑚𝑒𝑑𝑖𝑎𝑠 𝑠𝑜𝑛 𝑖𝑔𝑢𝑎𝑙𝑒𝑠 𝑒𝑛 𝑙𝑜𝑠 𝑑𝑖𝑓𝑒𝑟𝑒𝑛𝑡𝑒𝑠 𝑔𝑟𝑢𝑝𝑜𝑠

◦ Si p_valor<0,05, existen diferencias estadísticamente


significativas.
◦ Si p_valor≥0,05, no existen diferencias estadísticamente
significativas.

 Requisitos: Normalidad y la Homogeneidad de Varianzas.

11
13/10/2017

Para calcular el test:


1. Analizar->Comparar medias->ANOVA de un
factor...
2. Introducir la variable cuantitativa en Dependientes,
y la variable cualitativa en Factor.
3. En Opciones se puede pedir que se muestren los
Descriptivos y la prueba de homogeneidad de
varianzas.
4. Continuar y Aceptar.

Paso1

Paso2

Paso3

12
13/10/2017

En los resultados proporcionados por SPSS se


muestran:
 Los estadísticos descriptivos de la variable según las
categorías.

 Se comprueba no existe homogeneidad de varianzas


en los grupos a través del test de Levene, en este
caso no se puede asumir la igualdad.

 Los resultados del test ANOVA, en el que se comprueba


que existen diferencias estadísticamente significativas
en el tamaño medio del tumor según el nivel
histológico, siendo el p_valor=0,000, menor que 0,05.

 En este caso al violarse la hipótesis de igualdad de


varianzas, se debe utilizar como alternativa el test
ANOVA el test de Welch:

13
13/10/2017

 Para contrastar la igualdad de las puntuaciones en los tres


o más grupos. Las hipótesis de contraste son:

𝐻0 : 𝐿𝑎𝑠 𝑝𝑢𝑛𝑡𝑢𝑎𝑐𝑖𝑜𝑛𝑒𝑠 𝑑𝑒 𝑙𝑜𝑠 𝑔𝑟𝑢𝑝𝑜𝑠 𝑠𝑜𝑛 𝑖𝑔𝑢𝑎𝑙𝑒𝑠



𝐻1 : 𝐸𝑥𝑖𝑠𝑡𝑒𝑛 𝑑𝑖𝑓𝑒𝑟𝑒𝑛𝑐𝑖𝑎𝑠 𝑒𝑛𝑡𝑟𝑒 𝑙𝑎𝑠 𝑝𝑢𝑛𝑡𝑢𝑎𝑐𝑖𝑜𝑛𝑒𝑠 𝑑𝑒 𝑙𝑜𝑠 𝑔𝑟𝑢𝑝𝑜𝑠

◦ Si p_valor<0,05, existen diferencias estadísticamente


significativas.
◦ Si p_valor≥0,05, no existen diferencias estadísticamente
significativas.

 No requiere que se cumple ninguna hipótesis previa.

Para calcular el test:


1. Analizar->Pruebas no paramétricas->k muestras
independientes...
2. Introducir la variable cuantitativa en Contrastar
variables, y la variable cualitativa en Variable de
agrupación.
3. Definir grupos..., en esta ventana hay que indicar el
código de la primera categoría y de la última.
4. Continuar y Aceptar

14
13/10/2017

Paso1

Paso2

Paso3

En los resultados proporcionados por SPSS se


comprueba que el p_valor del test es de 0,000, menor
que 0,05. Por lo que se puede concluir que existen
diferencias estadísticamente significativas en el
tamaño del tumor según el nivel histológico.

15
13/10/2017

Para este tipo de contrastes es necesario que la


variable cuantitativa se distribuya de forma Normal en
todos los grupos de contraste. Así es estudio de la
normalidad habrá de hacerse teniendo en cuenta las
categorías de la variable cualitativa.
1. Así la variables cuantitativa se introduce en
Dependientes, y la cualitativa en Factores.
2. En Gráficos indicar que se calculen los Gráficos con
pruebas de normalidad.
3. En Opciones marcar la opción, Excluir casos según
pareja.
De este modo se obtendrá el estudio de la normalidad
por grupos y la representación gráfica de la variable
cuantitativa según las categorías de la cualitativa.

Paso1 Paso2

Paso3

16
13/10/2017

 Pruebas de Normalidad: se comprueba la variable Tamaño del tumor


no se distribuye de forma normal en ninguno de los grupos de la
variable Tabaco.

‣ Gráfica: la gráfica de los dos


diagramas de cajas y bigotes
permiten representar los
valores de la variable Tamaño
del tumor según si el paciente
es o no fumador.

Relación entre
Muestras Muestras
dos variables Independientes Dependientes
numéricas
Coeficiente de
Test Paramétricos Regresión lineal
Correlación de Pearson
Regresión de Cox (var.
Coeficiente de Dependiente tiempo)
Test No Paramétricos
Correlación de Spearman

17
13/10/2017

 Para estudiar si existe relación lineal entre dos


variables numéricas. Las hipótesis de contraste son:

𝐻0 : 𝑙𝑎𝑠 𝑑𝑜𝑠 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑠𝑜𝑛 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠(ρ = 0)



𝐻1 : 𝑙𝑎𝑠 𝑑𝑜𝑠 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑒𝑠𝑡á𝑛 𝑟𝑒𝑙𝑎𝑐𝑖𝑜𝑛𝑎𝑑𝑎𝑠 (ρ ≠ 0)

◦ Si p_valor<0,05, existen relación lineal significativa entre


las variables.
◦ Si p_valor≥0,05, no existen relación lineal significativa
entre las variables.

 Requisitos: las dos variables presentan distribución Normal.

Para calcular el test:


1. Analizar->Correlaciones->Bivariadas...
2. Introducir las variables cuantitativas en Variables.
3. Dejar activo el coeficiente de correlación de
Pearson.
4. Seleccionar la opción de contraste bilateral y
Marcar correlaciones significativas (esta última
opción sirve para que en los resultados las
correlaciones significativas se indiquen con un
asterisco).
5. Aceptar.

18
13/10/2017

Paso1

Pasos 2-5

En los resultados proporcionados por SPSS se comprueba


que el p_valor del test es de 0,000, menor que 0,05. Por
lo que se puede concluir que existe una relación lineal
estadísticamente significativa entre las variables. Pero el
coeficiente de Pearson presenta un valor de 0,267, por lo
tanto la relación es significativa pero débil.
Nota: la tabla de resultados es siempre simétrica y se
representa con un asterisco las relaciones con p_valor asociado
inferior a 0,05, y con dos asteriscos las relaciones con p_valor
inferior a 0,01.

19
13/10/2017

 Para estudiar si existe relación lineal entre dos


variables numéricas. Las hipótesis de contraste son:

𝐻0 : 𝑙𝑎𝑠 𝑑𝑜𝑠 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑠𝑜𝑛 𝑖𝑛𝑑𝑒𝑝𝑒𝑛𝑑𝑖𝑒𝑛𝑡𝑒𝑠(ρ = 0)



𝐻1 : 𝑙𝑎𝑠 𝑑𝑜𝑠 𝑣𝑎𝑟𝑖𝑎𝑏𝑙𝑒𝑠 𝑒𝑠𝑡á𝑛 𝑟𝑒𝑙𝑎𝑐𝑖𝑜𝑛𝑎𝑑𝑎𝑠 (ρ ≠ 0)

◦ Si p_valor<0,05, existen relación lineal significativa entre


las variables.
◦ Si p_valor≥0,05, no existen relación lineal significativa
entre las variables.

 No requiere que se cumple ninguna hipótesis previa.

Para calcular el test:


1. Analizar->Correlaciones->Bivariadas...
2. Introducir las variables cuantitativas en Variables.
3. Desactivar el coef. de corr. de Pearson y activar el
de Spearman.
4. Seleccionar la opción de contraste bilateral y
Marcar correlaciones significativas (esta última
opción sirve para que en los resultados las
correlaciones significativas se indiquen con un
asterisco).
5. Aceptar.

20
13/10/2017

Paso1

Pasos 2-5

En los resultados proporcionados por SPSS se comprueba que el


p_valor es menor que 0,05. Por lo que se puede concluir que
existe una relación lineal estadísticamente significativa entre las
variables. Pero el coeficiente de Spearman presenta un valor de
0,177, por lo tanto la relación es significativa pero débil.

Nota: la tabla de resultados es siempre simétrica y se


representa con un asterisco las relaciones con p_valor asociado
inferior a 0,05, y con dos asteriscos las relaciones con p_valor
inferior a 0,01.

21
13/10/2017

 Herramienta estadística para analizar conjuntamente


dos variables cualitativas.
 La variable por FILA será la independiente o factor de
riesgo/exposición.
 La variable por COLUMNA será la variable dependiente o
efecto.
 Ejemplo:
Estado

Tabaco Vivo Muerto Total

No Fumador 891 12 903

Fumador 244 60 304

Total 1.135 72 1.207

 Calcular porcentajes por:


◦ Filas
◦ Columnas
◦ Total

22
13/10/2017

 Este test se utiliza para:

◦ Estudiar si dos grupos de tratamiento


responden de forma diferente al tratamiento,
es decir, presentan diferencias en el efecto.

◦ Estudiar si existe relación entre dos variables


cualitativas medidas a la misma muestra.

 Para aplicarlo de forma fiable es necesario que


se cumplan una serie de premisas:

◦ Ninguna casilla puede tener frecuencias


esperadas menores o iguales a 1.

◦ Menos del 20% de las celdas presentan frecuencia


esperada inferior a 5.

◦ En tablas 2x2 utilizar el Corrector por


Continuidad.

23
13/10/2017

Muestras
Muestras Independientes
Dependientes

Chi-cuadrado
<20% frecuencias con corrección
menores que 5 por continuidad
Tablas 2x2 de Yates Mc Nemar
>20% frecuencias Test exacto de
menores que 5 Fisher
<20% frecuencias
Chi-cuadrado
menores que 5
Tablas rxn Cochran (r=n)
>20% frecuencias Agrupar
menores que 5 categorías

Para calcular el test:


1. Analizar->Estadísticos descriptivos->Tablas de
contingencia...
2. Introducir en Columnas la variable dependiente o
efecto y en Filas la variable independiente o factor
de exposición.
3. Pulsar en Estadísticos... y seleccionar Chi-
cuadrado.
4. Pulsar en Casillas... y seleccionar los porcentajes
que se desean mostrar.
5. Continuar y Aceptar.

24
13/10/2017

Paso1 Paso3

Paso2

Paso4

 En los resultados proporcionados por SPSS en primer lugar aparece


la tabla de contingencia que muestra los casos según el cruce de
ambas variables:

 Esta es una tabla 2x2 y no presenta casillas con frecuencias


esperadas inferiores a 5, por lo que se puede aplicar el test Chi-
cuadrado con corrección por continuidad de Yates. Su
p_valor=0,000 , por lo que existe asociación estadísticamente
significativa entre ambas variables.

25
13/10/2017

Para obtener una gráfica que resuma la información de


la tabla de contingencias solo hay que marcar Mostrar
gráficos de barras agrupadas, y se obtendrá un gráfico
de barras como este:

Efecto No efecto Total

Exposición a b n1

No Exposición c d n0
Total m1 m0 n

 Riesgo Relativo: incidencia de expuestos entre


incidencia de los no expuestos.

 Odds Ratio: medida de la magnitud de la asociación, (es


una aproximación al Riesgo Relativo).

 Miden la fuerza y el sentido de la asociación entre la


exposición y el efecto.

 Valores de 0 a infinito.

 Asociación más fuerte cuanto más se aleje de 1 y más


débil cuanto más se acerque a 1

26
13/10/2017

 OR,RR<1, la exposición es un factor de protección ante el


efecto.

 OR,RR>1, la exposición es un factor de riesgo ante el efecto.

 Acompañar del Intervalo de Confianza. Si el IC contiene al 1


entonces no existe asociación estadísticamente significativa.

 Más de una variable como factores de riesgo de un efecto.


Estudiar el OR,RR conjunto a través de la Regresión Logística.

 Tener en cuenta posibles factores de confusión.

Para calcular el test:


1. Analizar->Estadísticos descriptivos->Tablas de
contingencia...
2. Introducir en Columnas la variable dependiente o
efecto y en Filas la variable independiente o factor
de exposición.
3. Pulsar en Estadísticos... y seleccionar Riesgo.
4. Continuar y Aceptar.

27
13/10/2017

El efecto de interés ha de
aparecer en primera posición

El factor de
exposición o de
riesgo ha de
aparecer en
primera posición

OR=18,25 IC (9,66-34,48)
RR=14,85 IC (8,10-27,22)

 Causalidad: relación entre una exposición y un efecto,


o entre una intervención y su resultado.

 Criterios de causalidad: (Bradford Hill 1965):


1. Fuerza de la asociación.
2. Secuencia temporal.
3. Efecto dosis-respuesta.
4. Consistencia.
5. Coherencia con los conocimiento científicos ya conocidos.
6. Especificidad de la asociación.
7. Evidencia experimental.

28
13/10/2017

 Regresión lineal múltiple


◦ Cuando la variable respuesta es continua.
 Ejemplo: Colesterol Total, IMC,...

 Regresión logística multivariante


◦ Cuando la variable respuesta es categórica.
 Ejemplo: Diabético/No diabético, enfermo/sano,...

 Análisis de supervivencia
◦ Cuando en la variable respuesta es el tiempo
hasta que ocurre un evento.
 Ejemplo: tiempo hasta la recaída, tiempo hasta exitus,...

También podemos realizar otros análisis de


datos más específicos y complejos:

◦ MANCOVA
◦ Regresión de Cox
◦ Análisis Cluster
◦ Meta-análisis
◦ Ecuaciones Estructurales
◦ ...

29

También podría gustarte