Está en la página 1de 19

CURSO ESTADÍSTICA CON ‘R’ PARA PROFESIONALES DE LA SALUD,

Antonio Vaamonde Liste y Ricardo Luaces Pazos NOV 2018 UNIDAD 5

UNIDAD 5. Intervalos de confianza, contraste de


hipótesis. Análisis de la varianza.

Leeremos desde R Commander, una vez configurada la carpeta o directorio de trabajo


(Fichero  Cambiar directorio de trabajo  C:\CURSO R), el archivo de datos, que
contiene alguna variable añadida al utilizado en unidades anteriores, “datosC.RData”
mediante la opción Datos  cargar conjunto de datos.

5.1 Intervalos de confianza

Los resultados estadísticos que obtenemos con nuestros datos, por ejemplo el valor
medio de tensión arterial o de colesterol del conjunto estudiado, o la proporción de
pacientes diabéticos, son estimaciones o aproximaciones al verdadero valor de esas
cantidades en la población global de la que procede la muestra. Esa aproximación está
sometida al error de muestreo (las distintas muestras posibles dan resultados diferentes,
y la nuestra es solo una muestra más). En la mayoría de los casos se puede medir la
precisión o fiabilidad de esas estimaciones mediante intervalos de confianza.

Un intervalo de confianza es en general un margen de error “e” en torno al valor


observado del promedio o estadístico calculado, asociado a una probabilidad o “nivel de
confianza”, que suele fijarse a priori (muy frecuentemente 0,95). Interesa que el error
“e” sea pequeño, lo que depende fundamentalmente de dos cosas: del tamaño de la
muestra (cuanto mayor sea la muestra más pequeño será el error), y de la variabilidad de
la característica muestreada: cuanto más pequeña sea la dispersión, cuanto más
homogénea sea la variable, menor será tambien el error. Además suponemos que la
muestra utilizada es representativa de la población: para ello debe haberse obtenido de
forma razonablemente aleatoria.

Para determinar intervalos de confianza se utiliza la distribución de probabilidad del


estadístico correspondiente. En general se supone que la variable muestreada tiene
distribución Normal, lo cual es cierto para un número amplio de variables: la mayoría de
las características que podemos medir en los seres humanos, o en los seres vivos en
general, tienen distribución Normal (peso, talla, perímetro de cintura, tensión arterial,...),
pero esto no es una afirmación universal: existen variables con otra distribución distinta.

Por otra parte, algunos estadísticos de uso general, como la media o la proporción,
tienen distribución aproximadamente Normal, y por lo tanto los intervalos de confianza
serán válidos, aunque la variable muestreada no sea Normal, siempre que el tamaño de
muestra sea suficientemente grande (por ejemplo mayor que 100).

Existen pruebas o contrastes específicos para comprobar si una variable tiene


distribución Normal, supuesto habitual en muchas técnicas estadísticas, aunque en
general se admite una pequeña desviación de la Normalidad, que no invalida la
interpretación de los resultados obtenidos. R Commander contiene una prueba de
Normalidad, Shapiro-Wilk, que podemos utilizar para cualquiera de nuestras variables:
Estadísticos  Resumenes  test de Normalidad de Shapiro-Wilk.
CURSO ESTADÍSTICA CON ‘R’ PARA PROFESIONALES DE LA SALUD,
Antonio Vaamonde Liste y Ricardo Luaces Pazos NOV 2018 UNIDAD 5

Sin embargo estas pruebas no suelen ser muy útiles en la práctica, ya que con muestras
grandes (por ejemplo superiores a 100) tienden a rechazar la hipótesis de Normalidad si
existe una mínima desviación, es decir nos dirá que no es Normal prácticamente
cualquier variable real; y con muestras muy pequeñas, al contrario, tienden a aceptar
prácticamente cualquier variable como Normal (incluso cuando sabemos con seguridad
que no lo es).

Por este motivo se suelen utilizar, con resultados más razonables, comprobaciones
basadas en gráficos. En general es suficiente con un histograma que nos permita apreciar
la forma aproximada de campana típica de esta distribución, y otras características de
forma: si es claramente asimétrica no será Normal; si es muy aplastada, con forma
rectangular (o lo contrario, muy apuntada) no será Normal.

Tambien se emplean gráficos específicos, como el gráfico de cuantiles (Q-Q plot) que
representa los cuantiles de nuestra variable frente a los cuantiles de una variable teórica
Normal, de modo que cuando es Normal los puntos se sitúan a lo largo de la diagonal;
hemos empleado este gráfico para justificar la distribución Normal de los residuos de la
regresión lineal en una unidad anterior. Si queremos aplicarlo a cualquiera de nuestras
variables debemos elegir la opción de menú Gráficas  gráfica de comparación de
cuantiles; seleccionamos por ejemplo la variable “colesterol” y dejamos la opción por
defecto “Normal”, pulsando aceptar.

Las líneas rojas punteadas nos ayudan a ver algunos puntos que se alejan de la diagonal,
solamente en la parte extrema de la derecha (hay valores altos de colesterol que se
apartan de la Normalidad, aunque solo ligeramente). Con ese gráfico aceptaremos que la
variable es razonablemente Normal, aunque la prueba de Shapiro-Wilk indique lo
contrario por el elevado tamaño de la muestra.
CURSO ESTADÍSTICA CON ‘R’ PARA PROFESIONALES DE LA SALUD,
Antonio Vaamonde Liste y Ricardo Luaces Pazos NOV 2018 UNIDAD 5

Podemos obtener intervalos de confianza con R Commander. Veamos algunas


posibilidades:

A) Media: calcularemos intervalos de confianza para la media de la variable


“colesterol”.

Utilizamos la opción de menú: Estadísticos  Medias  Test t para una muestra

Elegimos en el cuadro de diálogo la variable de interés “colesterol”, mantenemos todas


los opciones por defecto (podríamos cambiar el nivel de confianza), y pulsamos
<aceptar>

data: Dataset$colesterol
t = 146.2676, df = 872, p-value < 2.2e-16
alternative hypothesis: true mean is not equal to 0
95 percent confidence interval:
223.9913 230.0843
sample estimates:
mean of x
227.0378

La media es 227,0378 y el intervalo al 95%: 223,99 – 230,08. Entre esos límites debe
estar el valor medio de colesterol en la población de la cual se ha obtenido la muestra
con nivel de confianza 0,95. Nos equivocaremos en esta afirmación, y el verdadero valor
estará fuera del intervalo, un 5% de las veces, una de cada veinte, al utilizar ese nivel de
confianza.

Como el tamaño de la muestra es muy grande (873 valores válidos), no debemos


preocuparnos excesivamente acerca de si la variable colesterol tiene distribución Normal
o no, pero un histograma (o preferiblemente el gráfico Q-Q visto anteriormente) nos dirá
que sí tiene distribución Normal, y por lo tanto el intervalo sería válido aunque la
muestra fuese pequeña.

with(Dataset, Hist(colesterol, scale="frequency", breaks=30, col="darkgray"))


CURSO ESTADÍSTICA CON ‘R’ PARA PROFESIONALES DE LA SALUD,
Antonio Vaamonde Liste y Ricardo Luaces Pazos NOV 2018 UNIDAD 5

150
100
frequency

50
0

100 200 300 400

colesterol

B) Proporción: calcularemos intervalos de confianza para la proporción de


consumidores de alcohol. Utilizamos la opción de menú:

Estadísticos  Proporciones  Test de proporciones para una muestra


CURSO ESTADÍSTICA CON ‘R’ PARA PROFESIONALES DE LA SALUD,
Antonio Vaamonde Liste y Ricardo Luaces Pazos NOV 2018 UNIDAD 5

Elegimos en el cuadro de diálogo la variable de interés “alcohol”, mantenemos todas los


opciones por defecto (de nuevo podríamos cambiar el nivel de confianza) y pulsamos
<aceptar>.
alcohol
no si
374 507

X-squared = 20.0783, df = 1, p-value = 0.000007433


alternative hypothesis: true p is not equal to 0.5
95 percent confidence interval:
0.3922765 0.4574141
sample estimates: p 0.4245176

Los resultados muestran la tabla de frecuencias, la proporción p = 0,4245 de NO consu-


midores de alcohol (R Commander toma siempre la primera proporción para calcular el
intervalo), y el intervalo de confianza correspondiente al nivel 0,95: 0,392 – 0,457

En el caso de la proporción no es necesario verificar la distribución de la variable


original como hacíamos con la media, pero si el tamaño de muestra es pequeño, o el
número de casos (frecuencia) en alguna de las dos casillas es 5 o menos, es preferible
marcar la opción: “binomial exacto” en el cuadro de diálogo, ya que en esos casos la
aproximación Normal utilizada para el cálculo del intervalo no es suficientemente
precisa.

C) Coeficientes de regresión.

Cuando ajustamos un modelo de regresión, lineal por ejemplo, los coeficientes


obtenidos son tambien estimaciones, para las cuales podemos calcular intervalos.
Repetiremos el modelo lineal del ejemplo de la unidad anterior:
CURSO ESTADÍSTICA CON ‘R’ PARA PROFESIONALES DE LA SALUD,
Antonio Vaamonde Liste y Ricardo Luaces Pazos NOV 2018 UNIDAD 5

Estadísticos  Ajuste de modelos  Regresión lineal


(variable dependiente: tas, variables explicativas: imc y peso)

Coefficients:
Estimate Std. Error t value Pr(>|t|)
(Intercept) 135.88052 3.97784 34.159 < 2e-16 ***
imc 0.98913 0.20755 4.766 2.21e-06 ***
peso -0.27468 0.07555 -3.636 0.000294 ***
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Para construir intervalos para los coeficientes utilizamos la opción de menú:

Modelos  Intervalos de confianza

> Confint(RegModel.2, level=0.95)


Estimate 2.5 % 97.5 %
(Intercept) 135.8805180 128.0731543 143.6878817
imc 0.9891296 0.5817594 1.3964997
peso -0.2746769 -0.4229574 -0.1263963

Cuando el modelo es escasamente predictivo, y la variabilidad explicada es solo una


pequeña proporción del total como en este ejemplo (2,3%), los intervalos de confianza
para los coeficientes serán relativamente amplios, imprecisos.

El hecho de que los intervalos, aunque sean amplios, no incluyan el cero significa que
podemos descartar razonablemente ese valor: cuando el coeficiente es cero la variable
explicativa no tiene ningún efecto sobre la variable dependiente, pero cuando no es cero,
concluimos que el efecto existe, es estadísticamente significativo, aunque pueda ser
pequeño o débil.

5.2 Contraste de hipótesis

A menudo debemos decidir o resolver sobre cuestiones específicas de interés, a la luz de


los datos disponibles: ¿Está la diabetes relacionada con el índice cintura-cadera, con el
consumo de tabaco, con la edad, o con el peso? ¿Cuáles son los factores que influyen de
forma significativa en la eficacia de un medicamento? ¿Cuáles son los factores de riesgo
más relevantes en la aparición de una determinada enfermedad? ¿Qué conclusiones
podemos deducir razonablemente de nuestros datos?

Algunas de estas preguntas se pueden plantear de forma relativamente simple en


términos de las variables disponibles, de los modelos que podemos utilizar, o de las
medidas estadísticas existentes: Si la diabetes no se relaciona con el icc, el coeficiente
de correlación lineal entre hba1c e icc debe ser nulo, y también lo será el coeficiente del
modelo de regresión lineal que relaciona a ambas variables.

Podemos por lo tanto plantear una hipótesis (que se denomina hipótesis nula, H0): r = 0,
o bien b1 = 0 en el modelo de regresión lineal, y comprobar a continuación si los datos
CURSO ESTADÍSTICA CON ‘R’ PARA PROFESIONALES DE LA SALUD,
Antonio Vaamonde Liste y Ricardo Luaces Pazos NOV 2018 UNIDAD 5

observados son razonablemente compatibles con ella o por el contrario esos datos
observados serían sumamente improbables si H0 fuese cierta.

Existen numerosos contrastes que la ciencia estadística ha ido elaborando para resolver
situaciones específicas como las indicadas a título de ejemplo anteriormente. Para cada
hipótesis H0 se utiliza un estadístico de prueba, cuyo valor se calcula con los datos de la
muestra, y cuya distribución de probabilidad es conocida en el supuesto de que H0 sea
cierta. Esa distribución de probabilidad permite conocer la probabilidad (valor P) de que
el estadístico tome valores como los que se están observando, y si P es muy pequeño, es
decir si la situación observada es altamente improbable, concluimos que la hipótesis es
falsa.

Podemos equivocarnos. Quizás H0 es cierta y el estadístico de prueba toma un valor raro


(del cual deducimos que es falsa), o al revés, H0 es falsa, pero el estadístico de contraste
toma un valor razonable compatible con ella, por lo que decidimos que es cierta. Se
denomina error de tipo I al primero y de tipo II al segundo. Naturalmente es conveniente
minimizar ambos, aunque en general no tienen igual importancia y se suele prestar
mayor atención al primero.

DECISIÓN ESTADÍSTICA

NO RECHAZAR H0 RECHAZAR H0

H0 CIERTA ACIERTO ERROR TIPO I


REALIDAD
H0 FALSA ERROR TIPO II ACIERTO

Rechazaremos H0 si P es pequeño, pero debemos establecer un valor de comparación –


nivel de significación- para decidir cuando consideramos que es suficientemente
pequeño. Ese valor, denominado habitualmente α (alfa), es la probabilidad de error de
tipo I. Se suele denominar β (beta) a la probabilidad de error de tipo II. Si reducimos α
estaremos incrementando inevitablemente β, por lo que conviene establecer un valor
equilibrado: habitualmente se utiliza 0,05 o 0,01. Se pueden reducir simultáneamente
ambos tipos de error aumentando la información, es decir el tamaño de la muestra.

La aplicación real de los contrastes es en general muy sencilla, cualquiera que sea la
prueba: la mayoría de los programas estadísticos, R también, proporcionan el valor P del
contraste en cada aplicación, que puede interpretarse de forma simple y directa: un valor
muy pequeño (típicamente P = 0,0000) indica una fuerte evidencia de que H0 debe ser
rechazada. Naturalmente es crucial saber cual es la hipótesis nula H0 en cada contraste.

El valor P que los programas estadísticos proporcionan como resultado de la prueba es


la probabilidad de que el valor del estadístico de contraste se aleje de lo esperado (de lo
que afirma la hipótesis nula) más allá del valor observado en la muestra.

En algunos casos se presentan dos valores P, correspondientes a un contraste unilateral o


bilateral, o como suelen decir los especialistas, de una o de dos colas, y es necesario
decidir cual debemos emplear: esto dependerá de la hipótesis alternativa H1.
CURSO ESTADÍSTICA CON ‘R’ PARA PROFESIONALES DE LA SALUD,
Antonio Vaamonde Liste y Ricardo Luaces Pazos NOV 2018 UNIDAD 5

En la mayoría de los casos, H1 es lo contrario de H0. Si H0 es que el coeficiente de


correlación vale cero, H1 es que sea distinto de cero; si el coeficiente observado es
grande y positivo se aleja del mismo modo que si es grande y negativo. El contraste es
bilateral.

Sin embargo podemos tener información que nos permita afirmar que solo caben dos
opciones: o es cero o es mayor que cero, ya que no tiene sentido que esas dos variables
concretas se relacionen negativamente (o al contrario), y por lo tanto el planteamiento
correcto es con una hipótesis alternativa unilateral, H1: r mayor que cero. Eso permite
utilizar mejor la información de la muestra, ya que el valor P unilateral es más pequeño
que el bilateral, y por lo tanto el contraste es más preciso si está correctamente
especificado. Si tenemos dudas acerca de si debemos utilizar una alternativa uni o
bilateral podemos elegir siempre esta última, ya que la decisión de rechazar H0 será de
este modo correcta en cualquier caso.

Hemos visto en la unidad anterior algunos contrastes de hipótesis: contraste de nulidad


del coeficiente de correlación lineal, contraste de nulidad de los coeficientes de la
regresión. Veamos alguno más:

1) Comparación de las medias de dos grupos independientes

¿Es igual el nivel de colesterol en hombres y mujeres? La hipótesis nula H0 es que la


diferencia de ambas medias es cero, y la alternativa que esa diferencia es distinta de cero
(positiva o negativa, bilateral).

El test compara la media de la variable colesterol de los dos grupos (hombres y


mujeres). El contraste de hipótesis es diferente si suponemos que la variabilidad o
dispersión es igual en ambos grupos o si esta dispersión es distinta. Debemos comprobar
esta circunstancia en primer lugar, para lo cual utilizamos la opción de menú:

Estadísticos  Varianzas  Test F para dos varianzas

Elegimos la variable “colesterol”, variable explicada, en el cuadro de la derecha, y


“sexo”, factor que identifica los dos grupos, en el de la izquierda.

>var.test(colesterol~sexo,alternative='two.sided',conf.level=.95,
data=Dataset)

F test to compare two variances

data: colesterol by sexo


F = 1.0626, num df = 514, denom df = 357, p-value = 0.5383
alternative hypothesis: true ratio of variances is not equal to 1
95 percent confidence interval:
0.876150 1.284339
sample estimates:
ratio of variances
1.062562

El valor P = 0,5383, mayor que el nivel de significación 0,05, nos permite aceptar que
las varianzas son iguales (no rechazamos la hipótesis nula).
CURSO ESTADÍSTICA CON ‘R’ PARA PROFESIONALES DE LA SALUD,
Antonio Vaamonde Liste y Ricardo Luaces Pazos NOV 2018 UNIDAD 5

Ahora que sabemos que las varianzas son iguales utilizamos, para contrastar si el nivel
de colesterol es distinto, la opción de menú:

Estadísticos  Medias  Test t para muestras independientes

Elegimos la variable explicada, colesterol, y la variable de agrupación, sexo. El nivel de


confianza (por defecto 0,95) es 1-α. Marcamos “Si” en la opción “¿suponer varianzas
iguales?”.

> t.test(colesterol~sexo, alternative='two.sided', conf.level=.95,


var.equal=TRUE, data=Dataset)

Two Sample t-test


data: colesterol by sexo
t = 3.3175, df = 871, p-value = 0.0009458
alternative hypothesis: true difference in means is not equal to 0
95 percent confidence interval:
4.251385 16.568911
sample estimates:
mean in group mujer mean in group varón
231.3068 220.8966
CURSO ESTADÍSTICA CON ‘R’ PARA PROFESIONALES DE LA SALUD,
Antonio Vaamonde Liste y Ricardo Luaces Pazos NOV 2018 UNIDAD 5

El valor P = 0,0009458 nos obliga a rechazar la hipótesis nula. Es por lo tanto


significativamente distinto el nivel de colesterol (más alto en las mujeres, como
podemos ver en los valores medios de cada grupo).

Si ya sabemos de antemano que el colesterol es igual o mayor en las mujeres, podemos


utilizar un contraste unilateral; en el cuadro de diálogo anterior marcaríamos, en lugar de
“bilateral” la opción “diferencia > 0” como hipótesis alternativa. El valor P ahora es p-
value = 0.0004729.

En este ejemplo nuestra decisión no cambia, y parece irrelevante que utilicemos una u
otra hipótesis alternativa, pero podría ocurrir que uno de los valores P fuese mayor que
el nivel de significación y el otro no, con lo que nuestra conclusión dependería de la
opción elegida.

Esta prueba requiere que la variable tenga distribución Normal, lo que ha sido
comprobado ya con anterioridad para la variable “colesterol”.

2) Comparación de las medias de dos muestras relacionadas

En algunas ocasiones disponemos de dos variables que corresponden a la misma medida


realizada en dos momentos distintos de tiempo: hemos repetido la medida de la variable
“glucemia”, obteniendo la variable “glucemia2”, y queremos saber si las medidas
terapéuticas son efectivas, en cuyo caso la segunda debe ser significativamente menor
que la primera (incluso aunque la diferencia sea pequeña). No se trata de dos muestras
independientes, como en el ejemplo anterior, sino que los valores están asociados por
pares que corresponden al mismo individuo; se trata de muestras relacionadas o
pareadas.

Estadísticos  Medias  Test t para datos relacionados

Marcamos las dos variables a comparar. Como suponemos que la segunda medida debe
ser menor que la primera, la diferencia será entre ambas positiva, por lo que marcamos
como hipótesis alternativa “Diferencia > 0”
CURSO ESTADÍSTICA CON ‘R’ PARA PROFESIONALES DE LA SALUD,
Antonio Vaamonde Liste y Ricardo Luaces Pazos NOV 2018 UNIDAD 5

>t.test(Dataset$glucemia, Dataset$glucemia2, alternative='greater',


conf.level=.95, paired=TRUE)

Paired t-test

data: Dataset$glucemia and Dataset$glucemia2


t = 27.0244, df = 876, p-value < 2.2e-16
alternative hypothesis: true difference in means is greater than 0
95 percent confidence interval:
1.820318 Inf
sample estimates:
mean of the differences
1.938426

El valor P del contraste, prácticamente cero (2.2e-16), indica que efectivamente existe
una diferencia significativa entre ambas.

Este contraste requiere que la distribución de la variable sea Normal. Lo comprobamos


mediante un gráfico de comparación de cuantiles (Q-Q plot) para la variable
“glucemia”:

qqPlot(Dataset$glucemia, dist="norm", ylab="glucemia")


CURSO ESTADÍSTICA CON ‘R’ PARA PROFESIONALES DE LA SALUD,
Antonio Vaamonde Liste y Ricardo Luaces Pazos NOV 2018 UNIDAD 5

El gráfico muestra que la variable no sigue una distribución Normal, ya que los puntos
se alejan claramente de la diagonal; por lo tanto es muy discutible la aplicación de esta
prueba y no será válida la interpretación que hemos realizado de los resultados
obtenidos. En la próxima unidad didáctica encontraremos un modo de resolver este
problema.

3) Comparación de proporciones

¿Es igual la proporción de consumidores de alcohol en hombres y mujeres? La hipótesis


nula H0 es que ambas proporciones son iguales, y la alternativa que son distintas
(bilateral). Utilizamos la opción de menú:

Estadísticos  Proporciones  Test de proporciones para dos muestras


CURSO ESTADÍSTICA CON ‘R’ PARA PROFESIONALES DE LA SALUD,
Antonio Vaamonde Liste y Ricardo Luaces Pazos NOV 2018 UNIDAD 5

> rowPercents(.Table)
alcohol
sexo no si Total Count
mujer 53.6 46.4 100 519
varón 26.5 73.5 100 362

>prop.test(.Table,alternative='two.sided',conf.level=.95,correct=FALSE)
2-sample test for equality of proportions without continuity correction
data: .Table
X-squared = 63.8488, df = 1, p-value = 1.343e-15
alternative hypothesis: two.sided
95 percent confidence interval:
0.2079311 0.3329731
sample estimates:
prop 1 prop 2
0.5356455 0.2651934

La proporción de consumidores de alcohol es significativamente distinta entre hombres


(73,5%) y mujeres (46,4%), ya que el valor p es prácticamente cero (p-value = 0,0000).
CURSO ESTADÍSTICA CON ‘R’ PARA PROFESIONALES DE LA SALUD,
Antonio Vaamonde Liste y Ricardo Luaces Pazos NOV 2018 UNIDAD 5

5.3 Análisis de la varianza (ANOVA).

Es una técnica estadística muy potente para determinar el efecto de uno o más factores
(variables cualitativas) sobre una variable cuantitativa. Utiliza un modelo lineal muy
simple, según el cual el valor de la variable dependiente cuantitativa es igual a la suma
de una constante más un valor fijo asociado al nivel que tenga cada factor, a lo que debe
sumarse un residuo cuya distribución es Normal.

Suponiendo una variable cuantitativa de interés Y, que creemos que depende de dos
factores cualitativos A y B:

Y=M +A+B+e

M es una constante (la media de Y), A es un valor fijo distinto para cada nivel que tenga
el factor, lo mismo que B, y e es el residuo aleatorio.

Puede incorporarse opcionalmente un factor adicional AB, que representa la interacción


entre los factores A y B, que se incluye como un elemento más del modelo aditivo:

Y = M + A + B + AB + e

La suma de los cuadrados de las desviaciones entre Y y su media M, o suma total de


cuadrados, se descompone en sumas de cuadrados atribuibles a cada uno de los
elementos del modelo:

SCT = SCA + SCB + SCAB + SCe

Cada una de las sumas de cuadrados se puede convertir, dividiendo por el número de
elementos independientes que la forman, en una media de cuadrados, o cuadrado medio:

CMT , CMA , CMB , CMAB , CMe

Si el factor A no tiene influencia sobre la variable, su cuadrado medio CMA será similar
al cuadrado medio del error CMe; si es mucho más grande ello significa que la
contribución del factor a la variabilidad de Y es importante. Esto es válido para
cualquier otro elemento del modelo. El cociente entre cuadrados medios CMA/CMe tiene
una distribución conocida (F de Snedecor) si el efecto es nulo, lo que permite contrastar
esa hipótesis.

Se utilizan dos supuestos, que es necesario comprobar siempre: los residuos tienen
distribución Normal, y las varianzas de los residuos son homogeneas o similares para los
distintos niveles de los factores. Ambos requisitos son importantes, y si no se cumplen
no es válida la interpretación de los contrastes correspondientes.
CURSO ESTADÍSTICA CON ‘R’ PARA PROFESIONALES DE LA SALUD,
Antonio Vaamonde Liste y Ricardo Luaces Pazos NOV 2018 UNIDAD 5

Veamos un ejemplo. Queremos saber si la variable “colesterol” depende de los factores


sexo e índice cintura-cadera recodificado (icc2):

Estadísticos  Medias  ANOVA de múltiples factores

Podemos modificar (no es necesario) el nombre del modelo que R Commander pone por
defecto. Elegimos la variable explicada “colesterol” y los factores (marcamos el
segundo con Ctrl + botón izquierdo).

> AnovaModel.6 <- (lm(colesterol ~ icc2*sexo, data=Dataset))

> Anova(AnovaModel.6)
Anova Table (Type II tests)

Response: colesterol
Sum Sq Df F value Pr(>F)
icc2 29903 2 7.2322 0.0007713 ***
sexo 17027 1 8.2363 0.0042147 **
icc2:sexo 76 2 0.0183 0.9819036
Residuals 1649750 798
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1

Se muestran las sumas de cuadrados del modelo para los cuatro elementos (icc2, sexo,
interacción icc2:sexo, y residuos), y los valores del estadístico de contraste F value
(cociente entre cuadrados medios), así como el valor P que permite contrastar la
hipótesis de que cada uno de los efectos es nulo. Vemos como los efectos sobre el
colesterol de icc2 (P = 0,0007713) y sexo (P = 0,0042147) son claramente significativos,
pero no lo es la interacción icc2:sexo (P=0,9819), es decir que el efecto del índice
cintura-cadera no es distinto para cada categoría (hombre/mujer) del segundo factor,
sino que simplemente se añade a éste.
CURSO ESTADÍSTICA CON ‘R’ PARA PROFESIONALES DE LA SALUD,
Antonio Vaamonde Liste y Ricardo Luaces Pazos NOV 2018 UNIDAD 5

Los resultados muestran tambien el valor medio y desviación típica de la variable colesterol
para cada combinación de niveles de los factores, así como el número de casos:

# means
sexo
icc2 mujer varón
alto 234.4892 225.0513
medio 220.8532 211.3605
bajo 248.5000 247.0000

# std. deviations
sexo
icc2 mujer varón
alto 46.66831 45.09082
medio 43.85811 42.86557
bajo 14.84924 64.09368

# counts
sexo
icc2 mujer varón
alto 370 234
medio 109 86
bajo 2 3

Para comprobar los supuestos de Normalidad de residuos y homogeneidad de varianzas


(de los residuos) utilizamos:

Modelos  Gráficas  Gráficas básicas de diagnóstico


CURSO ESTADÍSTICA CON ‘R’ PARA PROFESIONALES DE LA SALUD,
Antonio Vaamonde Liste y Ricardo Luaces Pazos NOV 2018 UNIDAD 5

El primer gráfico (residuals vs fitted) nos permite comprobar que la variabilidad de los
residuos no es muy diferente para las seis combinaciones de niveles de los dos factores,
y el segundo (Normal Q-Q) que los residuos son razonablemente Normales, ya que los
puntos se ajustan aproximadamente a la diagonal. Por lo tanto ambos requisitos se
cumplen aceptablemente.

El tercer gráfico (scale-location) representa la raiz cuadrada del residuo estandarizado y


se interpreta de forma similar al primero, y el cuarto –leverage o valores de influencia-
se suele emplear para buscar casos que puedan estar distorsionando los resultados (y que
quizás debieran ser excluidos del análisis). Esos casos, identificados por su número,
estarían representados fuera de las líneas rojas punteadas (no hay ninguno en nuestros
datos).

Hemos comprobado que los dos factores tienen efecto significativo. Cuando el factor
tiene dos niveles (como sexo) está claro que ambos son diferentes, pero cuando tiene
más de dos niveles (como icc2, que tiene tres), solo sabemos que alguno de ellos es
significativamente distinto de otro, sin que sepamos cuales. Para profundizar en este
análisis podemos utilizar contrastes múltiples con comparaciones dos a dos. Para ello
elegimos en el menú de R Commander:

Estadísticos  Medias  ANOVA de un factor

Indicamos la variable dependiente o explicada “colesterol” y el factor que tiene más de


dos niveles “icc2” marcando además la opción “comparaciones dos a dos de las
medias”.
CURSO ESTADÍSTICA CON ‘R’ PARA PROFESIONALES DE LA SALUD,
Antonio Vaamonde Liste y Ricardo Luaces Pazos NOV 2018 UNIDAD 5

> summary(.Pairs) # pairwise tests

Simultaneous Tests for General Linear Hypotheses

Multiple Comparisons of Means: Tukey Contrasts

Fit: aov(formula = colesterol ~ icc2, data = Dataset)

Linear Hypotheses:
Estimate Std. Error t value Pr(>|t|)
medio - alto == 0 -14.166 3.757 -3.770 0.0004 ***
bajo - alto == 0 16.767 20.485 0.819 0.6664
bajo - medio == 0 30.933 20.661 1.497 0.2631
---
Signif. codes: 0 '***' 0.001 '**' 0.01 '*' 0.05 '.' 0.1 ' ' 1
(Adjusted p values reported -- single-step method)

El valor P de estos contrastes dos a dos, corregido frente al problema ya comentado


anteriormente de las comparaciones múltiples, nos dice cuales son distintos (cuando P
es muy pequeño): solamente el nivel medio y el nivel alto del índice cintura-cadera son
significativamente distintos, con P = 0,0004, aunque debe notarse que existen muy
pocos casos en el nivel bajo restante (solo 5 de 804), y por lo tanto los dos niveles
distintos incluyen prácticamente a toda la muestra.

R representa tambien un gráfico que nos ayuda a ver mejor estas diferencias entre grupos:

Cuando tenemos más de dos factores, el ANOVA realizado con el menú de R


Commander solo nos permite utilizar el modelo completo, con todas las interacciones, lo
que puede ser confuso (con cinco factores el modelo tiene 32 elementos). El manejo de
las órdenes adecuadas –más allá del alcance de este curso introductorio- permite
simplificar fácilmente las condiciones del modelo eliminando interacciones sin interés, y
utilizando por ejemplo únicamente los efectos simples.
CURSO ESTADÍSTICA CON ‘R’ PARA PROFESIONALES DE LA SALUD,
Antonio Vaamonde Liste y Ricardo Luaces Pazos NOV 2018 UNIDAD 5

TAREA 5:

1) Inicie R y R Commander. Lea el archivo de datos “datosC.RData” (mediante la


opción Datos  cargar conjunto de datos).

2) Calcule intervalos de confianza para la media de las variables trigl y hba1c, y para
la proporción de hipertensión diagnosticada hta2.

3) Decida, mediante un contraste de hipótesis adecuado, si es igual la variable urico


entre los consumidores y no consumidores de alcohol.

4) Mediante un análisis de la varianza investigue el efecto de sexo y hta2 sobre la


variable glucemia

Se debe elaborar un informe de prácticas con los resultados obtenidos, añadiendo


comentarios personales del alumno con su interpretación de los resultados, en un
archivo pdf (puede utilizarse otro editor de texto alternativo si no es posible pdf).
Tambien deberán añadirse las órdenes utilizadas (se pueden copiar desde la ventana de
ordenes de R Commander) con el fin de documentar el trabajo realizado.

El archivo, cuyo nombre debe ser el primer apellido del alumno con los caracteres T5 a
continuación (ej. GarciaT5.pdf), debe enviarse antes de las 23,55h del día 1 de
diciembre a través de la opción “enviar tarea” en la plataforma del curso.

También podría gustarte