Está en la página 1de 8

TEMA-6.

pdf

julsgarri2

Estadística para Ciencias de la Salud

1º Grado en Enfermería

Escuela Universitaria de Enfermería y Fisioterapia


Universidad de Castilla-La Mancha

Reservados todos los derechos.


No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
TEMA 6: ASOCIACION ENTRE VARIABLES. REGRESION Y CORRELACION
1. ASOCIACION ENTRE VARIABLES NOMINALES
En ocasiones, puede resultar de interés estudiar si hay más coincidencias de ciertas categorías de una variable con

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
categorías de otra.

Por ejemplo, consideramos dos variables: gravedad del paciente (leve, moderado, grave) y sistema de acceso a los
servicios de salud (atención primaria, especialista, urgencias)  NOMINAL (*)

Cabe pensar que los pacientes que acuden a urgencias están más graves que los que acuden a un es especialista.
Asimismo, cabe pensar que los que acuden a un especialista están más graves que los que acuden a atención
primaria.

Atención primaria (mayoría leves) – especialista (mayoría moderados) - urgencias (mayoría graves)

¿Sería posible responder con estadística?

Si, formalmente, esto se traduce en términos estadísticos:

Reservados todos los derechos.


H0: NO existe asociación entre las dos variables (son independientes)

H1: existe asociación entre las dos variables (son dependientes)

¿Qué prueba estadística utilizar?  prueba de Chi-cuadrado

1.1. Prueba Chi-cuadrado

El estadístico de chi-cuadrado se calcula: donde 𝑜𝑖𝑗 representa los valores observados en la


categoría i-esima de la primera variable y j-esima de la segunda (recuento en la muestra) y 𝑒𝑖𝑗 los “valores
esperados”, lo que cabría esperar si no hubiera dependencia (reparto equilibrado en todas las casillas).

Valores grandes de este estadístico son indicador de grandes discrepancias entre valores observados y esperados.
Por tanto, las variables no serían independientes entre sí.

Verificación de supuestos:

 Para que los resultados del test de chi-cuadrado sean de confianza, todas las casillas deben tener más de 4
casos (n ≥ 5)
 Debe aplicarse cuando al menos una de las dos variables es nominal
 Si la tabla de contingencia es 2x2, resulta más adecuado considerar el p-valor de la fila. Corrección por
continuidad para el contraste.
Contraste de hipótesis:

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-3743263
2. ASOCIACION ENTRE VARIABLES ORDINALES
Si tenemos dos variables ordinales o bien, una cuantitativa y una ordinal y nuestro propósito es estudiar si existe
asociación entre las mismas, podremos extraer aun más información de este análisis debido a la “existencia de
orden” entre las categorías. Al existir una variable nominal (caso anterior) solo podíamos decir si existe relación o no.
Sin embargo, ahora podemos añadir, en caso de existir relación que coincidencias hay en las categorías “mayores”
(en orden) de una variable con las “mayores” de la otra y lo mismo con las menores.
Por ejemplo, consideremos de nuevo la variable gravedad del paciente (leve, moderado, grave) y el grado de acceso
a un sistema de atención sanitaria (totalmente accesible, moderadamente accesible, inaccesible). En este caso,
además de preguntarnos si existe asociación/relación entre estas dos variables, cabría preguntarse:
Gravedad del paciente ¿ acceso al sistema sanitario o  acceso al sistema sanitario?

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
2.1. Coeficiente de Spearman
El coeficiente de correlación de spearman es un estadístico que mide la existencia de asociación entre dos variables,
la fortaleza y el sentido de la asociación. Se calcula:

Donde 𝐷𝑖 es la diferencia entre los órdenes asignados a las categorías de variables que obtuvo el sujeto i-ésimo. Para
calcular esta diferencia se les asigna un orden a cada categoría (de cada variable). Por ejemplo, en el caso de la
gravedad del paciente seria, leve  1, moderado  2, grave 3 .
Los posibles valores que puede tomar oscilan entre -1 y 1. Es un estadístico adimensional.

Reservados todos los derechos.


Interpretación

Como hemos estudiado anteriormente, los estadísticos como el coeficiente de correlacion de Sperman nos dan
información acerca de relación existente en los datos de la muestra. Pero, ¿Qué podemos concluir sobre la relación
estudiada en la población?
Contraste la hipótesis:

donde 𝜌𝑆 es el coeficiente de correlación de Spearman poblacional.


Si 𝑝≤𝛼  Rechazo H0. Por tanto, se puede afirmar que existe relación entre las dos variables en la población. En caso
contrario, se dice que las variables están incorreladas, no existe relación entre las variables.

Descarga la app de Wuolah desde tu store favorita


a64b0469ff35958ef4ab887a898bd50bdfbbe91a-3743263
3. ASOCIACION ENTRE VARIABLES CUANTITATIVAS
Como hemos referido en otras ocasiones, las variables cuantitativas son las que “más información” nos reportan
estadísticamente hablando. Además de poder deducir, como en la sección anterior, la fortaleza y el sentido de la
asociación, también podremos “cuantificar”, en caso que exista asociación, “cuanto crece/decrece” una variable en
función de lo que crece/decrece la otra.
Existe un tipo de gráficos, denominados gráficos de dispersión-puntos, que nos ayudan a detectar de una forma
visual asociaciones con variables cuantitativas.

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Tipos de asociación

Reservados todos los derechos.


3.1. Coeficiente de correlación de Pearson
El coeficiente de correlación de Pearson es un estadístico que mide el grado de asociación lineal entre dos variables
cuantitativas, X y Y, la fortaleza y el sentido de asociación. Se calcula:

Donde 𝑆x y 𝑆y son las desviaciones típicas de las variables X e Y respectivamente y Sxy es la covarianza, que se
calcula y representa el grado de variación conjunta de dos variables respecto a sus medias.

Los posibles valores que puede tomar oscilan entre -1 y 1. Es un estadístico adimensional.

Descarga la app de Wuolah desde tu store favorita


a64b0469ff35958ef4ab887a898bd50bdfbbe91a-3743263
Interpretación

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
¡¡¡¡La misma que el coeficiente de correlación de Spearman!!!!

¿Y la población?

Reservados todos los derechos.


Donde Pp es el coeficiente de correlación de Pearson poblacional.
Si p ≤ 𝛼  rechazo Ho, existen asociación LINEAL entre las variables.

¡Ojo! Que no exista asociación LINEAL, no significa que no exista asociación entre las variables. Podría existir de otro
tipo: curvilínea, exponencial, etc.

¿Podemos aplicar SIEMPRE Pearson con cuantitativas?  NO


¡Tiene que verificarse N>60 o normalidad!

Correlación NO implica causalidad


Si estudiásemos la correlación entre las variables número de contagios y numero de aplausos acumulados a las 20h
desde el inicio de la crisis sanitaria, obtendríamos:
 Existe correlación
 Es muy fuerte
 Es directa (a medida que aumenta el nº de aplausos, aumenta el nº de contagios-9.
Y, sin embargo, ¿Crees que la causa del aumento en el número de contagios se debe a los aplausos?  No. El
análisis de correlación entre el avance de la crisis sanitaria (aumento de contagios) y dar mayor reconocimiento a los
que trabajan por nuestro bienestar (medido en términos de los aplausos). Pero NO implica que sea la causa de la
expansión de la enfermedad.

a64b0469ff35958ef4ab887a898bd50bdfbbe91a-3743263
4. REGRACIÓN LINEAL SIMPLE
En el ejemplo anterior concluíamos que la mayor parte de los deportistas que realizaron mayor número de
entrenamiento por sobrecarga excéntrica veían reducidos sus tiempos de recuperación de la rotura fibrilar.

Pero, ¿Sería posible cuantificar explícitamente en número de días que se ve reducida su recuperación al realizar una
sesión extra de sobrecarga excéntrica? ¿y el tiempo que tarda en recuperarse una persona que ha realizado 7
sesiones de este tipo de entrenamiento?

¿Sería posible responder con estadística?

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
Si. El estudio de regresión lineal simple consiste en construir una recta, la que mejor se ajuste a los datos, con objeto
de realizar predicciones.

Reservados todos los derechos.


Como realizar el estudio de regresión
IDENTIFICAR ROLES DE LAS VARIABLES
A diferencia del estudio de asociación/correlación, en regresión las dos variables implicadas juegan dos papeles
diferentes:
- Variable explicativa: a partir de los valores de esta variable se pretende predecir los valores de la otra. Se
conoce como variable independiente.
- Variable explicada: es la variable sobre la que pretender hacerse las predicciones. El objetivo es averiguar su
valor a partir de la recta construida. Se conoce como variable dependiente

CONSTRUIR LA RECTA DE MEJOR AJUSTE


Existen tantos modelos explicativos como funciones puedas imaginar. Sin embargo, en este curso… ¡SOLO
ESTUDIAREMOS MODELOS LINEALES!
Recta de regresión lineal simple 

Donde:
a= termino constante (valor de y cuando x=0)
b= pendiente (tasa de variación de la y por unidad de la x)
x= variable explicativa
y= variable explicada
y= valor pronóstico de la variable explicada
e= errores de predicción (residuos)= Yreal – y^
¿Cuáles son los valores de a y b que mejor ajustan?

Descarga la app de Wuolah desde tu store favorita


a64b0469ff35958ef4ab887a898bd50bdfbbe91a-3743263
VERIFICACION DE SUPUESTOS
 Asociación lineal: si al realizar un estudio de correlación se concluye que no hay relación lineal entre las
variables (𝑟𝑠2 = 𝑅 2  bondad de ajuste)  no tiene sentido realizar la recta de regresión. Puede construirse,
pero su capacidad predictiva será nula y, por tanto, su utilidad.
Luego, es de estudio de regresión solo ofrecerá resultados de confianza si existe correlación moderada-
fuerte y es significativa.

 Errores independientes:
∑(𝑒𝑖 −𝑒𝑖−1 )2

No se permite la explotación económica ni la transformación de esta obra. Queda permitida la impresión en su totalidad.
El estadístico de Durbin-Watson, d= , nos permite averiguar si los errores asociados a dos
∑𝑒𝑖2
observaciones distintas son independientes. Si d(1.5, 2.5)  los errores son independientes.

 Errores normales
Se definen los errores como la diferencia entre los valores reales de la y obtenidos y los pronosticados:
E= errores de predicción= 𝑦𝑟𝑒𝑎𝑙 – y^
También se conocen como residuos.
Para que los resultados del análisis de regresión sean de confianza, los errores deben seguir una distribución
normal:
- Si N ≥60  no hace falta probarlo

Reservados todos los derechos.


- Si N<60  test de K-S o S-W sobre los residuos.

ESTUDIAR LA UTILIDAD DE LA RECTA


 ¿Describe adecuadamente los datos muéstrales?
El coeficiente de determinación (o R cuadrado), 𝑅 2 , representa el porcentaje de variabilidad de la variable y
que queda explicado por la variable x a través de la recta de regresión. Puede darse en tanto por uno o en
tanto por cien.
- Interpretación: expresado en tanto por uno, cuando más próximo a 1 sea, mejor será la bondad del
ajuste para explicar los datos muestrales.
- Como se calcula: es el cuadrado del coeficiente de correlación de Pearson 𝑅2 = 𝑟𝑠2 . Por tanto, cuanto
mayor sea el grado de asociación lineal, mayor será la bondad del ajuste.

 ¿Describe adecuadamente los datos poblacionales?


La pregunta anterior reviste la capacidad predictiva de la recta. Se responde a partir del contraste:

¿Qué significa aceptar la hipótesis nula? ¿Qué quiere decir aceptar que b=0? En tal caso, asumiríamos que la
recta puede escribirse de forma: y= a + 0 . x= a.
Luego… ¡La variable y no puede explicarse a partir de la x!
Y, por tanto, la recta no sería adecuada para predecir. En caso contrario la recta ofrece resultados de
confianza.

Descarga la app de Wuolah desde tu store favorita


a64b0469ff35958ef4ab887a898bd50bdfbbe91a-3743263

También podría gustarte