Está en la página 1de 26

Asignatura:

Estadística aplicada

MÓDULO III:
MEDIDAS DE ASOCIACIÓN
ENTRE VARIABLES

Docente: Mg. Walter Bernia


León
INTRODUCCION

Las medidas de asociación tratan de estimar la magnitud con la que dos


fenómenos se relacionan. Dicha asociación no implica
necesariamente causalidad. Ejemplos de medidas de asociación son:

•El riesgo relativo, utilizado en los estudios de cohortes (observación y


análitica). Compara la ocurrencia o incidencia acumulada de un suceso entre
quienes están expuestos a un factor de riesgo y quienes no.

•La razón de tasas, compara tasas de incidencia, es decir, la velocidad a la


que ocurre un determinado fenómeno entre personas expuestas y no
expuestas a un factor de riesgo.

•El odds ratio, que se usa en los estudios de casos y controles, y que nos
permite relacionar cuánto más probable es que se produzca una exposición
determinada entre las personas enfermas (casos) que entre las sanas
(controles).
Típicos estadísticos de asociación son la regresión y la correlación.
ANÁLISIS DE CORRELACIÓN

Mide la asociación o relación lineal que puede existir entre dos variables aleatorias
cuantitativas y determina su grado de relación y sentido. El coeficiente de correlación
poblacional se obtiene:

Específicamente evalúa la tendencia (creciente o decreciente) en los datos de las


variables.
Estimación del coeficiente de correlación (muestra)
De manera análoga podemos calcular este coeficiente sobre un estadístico muestral, denotado como
rxy a:

El valor del índice de correlación varía en el intervalo [-1,1], indicando el signo el sentido de la
relación:

•Si r = 1, existe una correlación positiva perfecta. El índice indica una dependencia total entre las dos
variables denominada relación directa: cuando una de ellas aumenta.

•Si 0 < r < 1, existe una correlación positiva.

•Si r = 0, no existe relación lineal. Pero esto no necesariamente implica que las variables
son independientes: pueden existir todavía relaciones no lineales entre las dos variables.

•Si -1 < r < 0, existe una correlación negativa.

•Si r = -1, existe una correlación negativa perfecta. El índice indica una dependencia total entre las
dos variables llamada relación inversa: cuando una de ellas aumenta, la otra disminuye en
proporción constante.
Para tener una idea cuando dos variables cuantitativas están correlacionadas se
recurre al DIAGRAMA DE DISPERSIÓN O NUBE DE PUNTOS, que consiste en
graficar los puntos en un plano cartesiano. A continuación presentamos
gráficamente cuando dos variables cuantitativas están correlacionadas:
Evaluación de la significancia del coeficiente de correlación muestral
ANÁLISIS DE REGRESIÓN SIMPLE

Es la relación funcional entre dos variables uno conocida como variable dependiente “Y” y la otra como
independiente “X”

El Modelo de Regresión Lineal Simple

Es la relación funcional entre dos variables uno conocida como variable dependiente
“Y” y la otra como independiente “X”

El Modelo de Regresión Lineal Simple


Objetivos

• Establecer una relación cuantitativa entre dos variables relacionadas.

• PREDECIR y/o EXPLICAR el valor de una variable (v. Dependiente), dado el valor
de la otra variable relacionada (v. Independiente).

Supuestos

-Normalidad
-Homogeneidad
-Independencia
-Linealidad

Modelo estimado
Interpretación del coeficiente de regresión “b”

Si b>0; indica que por cada unidad que se incremente en X, Y aumenta en promedio en b
unidades.

Si b<0; indica que por cada unidad que se incremente en X, Y disminuye en promedio en
b unidades.

Para obtener los coeficientes “a” y “b” del modelo de regresión estimado, se aplica el
método de mínimos cuadrado obteniendo los valores:
Conociendo b es posible hallar el valor de a con la ecuación:

Sin embargo, aún con la ecuación, como todos los puntos no están exactamente
sobre una línea recta, se cometen errores en el ajuste

Coeficiente de determinación

Para medir la bondad de ajuste de los puntos a la recta utilizamos el coeficiente de


determinación: R 2 = r²*100 nos indica que porcentaje de la variabilidad de los
valores de Y es explicada por la regresión. 0≤ R2 ≤ 100%
Ejemplo:

Interés: Determinar la correlación entre el número de hijos en la familia y el coeficiente de


inteligencia promedio de los hijos. Mediante un estudio transversal se obtuvo los siguientes
resultados:

Interpretación:
Hay una correlación inversa de las variables en estudio.
Graficando mediante el diagrama de dispersión:

Comentario:
Del gráfico se aprecia que hay una correlación inversa de las variables en estudio
con tendencia lineal.
Para obtener el coeficiente de correlación estimado, primero se realiza los siguientes
cálculos preliminares:
Interpretación:
Existe una correlación lineal inversa intensa entre el número de hijos en la familia
y el coeficiente de inteligencia promedio de los hijos; es decir; a medida que
aumenta el número de hijos entonces el coeficiente de inteligencia promedio
disminuye.

Para evaluar si el coeficiente de correlación es o no significativo, aplicamos la


prueba estadística t- de student siguiendo los pasos:
-9.3
APLICACIONES DE CHI CUADRADO
Se utiliza para variables cualitativas con escala de medición nominal. Fórmula de trabajo:

Mide el grado de concordancia entre los pares de frecuencias observadas y


esperadas de las celdas, dado que la Ho sea verdadera.
Ejemplo:
Para estudiar la dependencia entre la práctica de algún deporte y la hipertensión, se
seleccionó una muestra aleatoria simple de 100 personas, con los siguientes
resultados:

Solución

1. Verificar que sean variables cualitativas


2. Planteamiento de hipótesis
3. Determinación del nivel de
significación α = 0.05
4. Cálculo de frecuencias esperadas y X2
5. Decisión y conclusión: Decisión: Siendo
p < 0.05, se rechaza Ho. Conclusión: La
Hipertensión Arterial está asociada con
la práctica Deportiva.
Ejemplo:
Evaluar la presencia de hipertensión arterial en pacientes provenientes de tres distritos de la
ciudad de Talara (Diciembre del 2006).

¿Los 3 distritos son homogéneos respecto a la HTA?


1. Planteamiento de la hipótesis 4. Decisión y conclusión:
Ho: Las muestras provienen de poblaciones
homogéneas según la presencia de hipertensión Decisión: Siendo p < 0.05 se rechaza
arterial. la hipótesis nula.

H1: Las muestras no provienen de poblaciones Conclusión: las muestras no


homogéneas según la presencia de hipertensión provienen de poblaciones
arterial. homogéneas.

2. Nivel de significación: α = 0.05 Es decir, la presencia de hipertensión


arterial es distinta en los tres
3. Frecuencias esperadas y cálculo de X2 : distritos de la ciudad

Valor de p. Consultando la tabla de 2 = 59.34;


con g.l.= 2 ; se observa p < 0.005
ODDS RATIO Y RIESGO RELATIVO
Las medidas de frecuencia relativa solamente expresan el riesgo absoluto de enfermar. se tienen
dos tipos básicos de indicadores para medir la fuerza de asociación:

• El riesgo relativo, utilizado en los estudios de cohortes. Compara la ocurrencia


o incidencia acumulada de un suceso entre quienes están expuestos a un factor de
riesgo y quienes no.
• El odds ratio, que se usa en los estudios de casos y controles, y que nos permite
relacionar cuánto más probable es que se produzca una exposición determinada
entre las personas enfermas (casos) que entre las sanas (controles).
Ejemplo:
Se tiene interés en evaluar si el uso de anticonceptivos orales es un factor de riesgo del infarto
miocárdico en mujeres casadas menores de 45 años de edad. Para tal efecto se realiza un estudio
comparativo tipo caso control y se obtienen los siguientes resultados:

Se pide calcular e interpretar el odds ratio (OR):

Interpretación:

Por lo tanto, será un factor de riesgo el uso


de anticpnceptivos
Ejemplo
Evaluar si niveles altos de colesterol sérico (>250) se considera factor de riesgo de un
infarto del miocardio. Por consiguiente se realiza un estudio comparativo de
cohortes y se obtiene los siguientes resultados:

Se pide calcular e interpretar el riesgo relativ


Conclusiones
- La forma más simple de visualizar una correlación
es elaborando un diagrama de dispersión.
- Recordemos que correlación cero, sugiere que no
existe relación entre dos variables, si el valor es
negativo las variables tienen una relación inversa
y si es positiva las variables tienen una relación
directa.
- La regresión lineal es útil ya que nos permite
predecir una vez que hemos encontrado la
pendiente m y el intercepto b. Permite analizar
patrones de secuencia.

También podría gustarte