Está en la página 1de 58

MODULO III

MEDIDAS DE ASOCIACIÓN ENTRE


VARIABLES
Correlación. Aplicaciones. Regresión. Aplicaciones. Chi cuadrado.
Aplicaciones. Odds Ratio y Riesgo Relativo. Aplicaciones

Docente
Dr. Paul Rubén Alfaro Fernández
Planteamiento de hipótesis
POUNDS PER SQUARE INCH
POUNDS PER SQUARE INCH

(Libras por pulgada al cuadrado o pounds per square inch)


Diagrama de Dispersión
CORRELACIÓN
1. Informa únicamente si existe relación entre dos variables y cómo se
modifica una de ellas con cambios de la otra.
• Estudia asociación entre dos variables cuantitativas y establece cuál es la
dirección y la magnitud.
• Nos informa de cómo cambia de forma sistemática una de las variables con
los cambios en la otra, sin suponer ningún tipo de dependencia entre las dos.
• Correlación no es sinónimo de causalidad ni de dependencia.
• La dirección de correlación nos indicará el sentido de los cambios de una
variable respecto a la otra.
• Cuando las dos variables cambien en el mismo sentido, hablaremos de
correlación directa o positiva, mientras que cuando lo hagan en sentidos
opuestos, diremos que existe una correlación inversa o negativa.
CORRELACIÓN
2. Esta asociación es su magnitud o intensidad, que se cuantificará
mediante el uso de coeficientes de correlación.
3. Esta asociación sería su forma, que nos indica el tipo de línea que
mejor se ajusta a la representación gráfica de los pares de valores
de las dos variables. En este artículo nos centraremos en la forma
más sencilla, en la que el ajuste se realiza con una línea recta, por lo
que hablaremos de correlación lineal.
SUPUESTOS PARA USO DE CORRELACIÓN DE PEARSON
1. La relación entre las dos variables debe ser lineal. Dibujando un
diagrama de puntos o dispersión entre las dos variables se ve línea
recta.
2. Ambas variables deben seguir una distribución normal en la
población. Realizar la prueba numérica Kolmogorov-Smirnov o
Shapiro-Wilk. Siempre complementarla con histograma.
3. Debe existir homocedasticidad, lo que quiere decir que la varianza
de la variable “y” debe ser constante a lo largo de los valores de la
variable “x”. Podemos comprobar dibujando el diagrama de
dispersión donde la nube de puntos se dispersa de forma similar a
lo largo de los valores de la variable “x”
REGRESIÓN
• No solo explica la relación entre las variables, sino que trata de
construir un modelo que nos permita predecir el valor de una de las
variables (la dependiente o criterio) en función del valor que tome la
otra variable (la independiente o explicativa).
• Existen numerosos modelos de regresión que, a su vez, pueden
clasificarse en simples o múltiples en función del número de variables
independientes que lo componen.
• Los modelos de regresión simple son los que incluyen dos variables,
una dependiente y otra independiente.
• Por su parte, los modelos de regresión múltiple incluyen una variable
dependiente y más de una variable independiente.
Modelos de regresión
• Si tomamos una variable independiente “x” y una variable dependiente “y”, todos los
modelos de regresión simple se ajustan a la siguiente ecuación:
• Función(y) = a + bx + e.
• El componente “Función(y)” dependerá del tipo de variable dependiente del modelo, lo
que nos condicionará el modelo de regresión concreto que tendremos que utilizar.
• El componente “a” representa el valor de “y” cuando “x” vale 0.
• Suele denominarse interceptor, ya que es el punto donde la representación gráfica de la
línea de regresión cruza el eje de ordenadas (eje y).
• El componente “b” representa la pendiente de la línea y nos informa de en cuántas
unidades aumenta la variable “y” por cada unidad que aumenta la variable “x”.
• Por último, el cuarto componente, “e”, representa la variabilidad aleatoria del modelo.
• Esta variabilidad será la responsable de la diferencia que se produzca entre la predicción
del modelo de regresión y el valor real observado en el estudio.
Correlación r = -0.957
Coeficiente de determinación R= r al cuadrado x 100
R= 0.9158 x 100
R= 91.58 por ciento de la variabilidad de los valores de Y es
explicada por la regresión.
PRUEBA DE SIGNIFICANCIA
CHI CUADRADO
¿Qué es la Chi Cuadrada?
• Es una prueba estadística para evaluar hipótesis acerca de
la relación entre dos variables categóricas

• Se simboliza por χ2

• Hipótesis a probar : Correlaciónales


( H0 : no hay asociación y H1 hay asociación)

• Variables involucradas: Dos, esta prueba no considera


relaciones causales

• Nivel de medición de las variables: Nominal u ordinal


Otras características
• Es una distribución asimétrica

• Sólo toma valores positivos y es asintótica con respecto al


eje de las x positivas ( 0 < χ2 < +∞)

• Está caracterizada por un único parámetro “ n” llamado


“grados de libertad” adoptando formas distintas según el
valor de “n”

• El área comprendida entre la curva y el eje de las x es 1 ó


100%
Aplicaciones
Entre las aplicaciones más frecuentes de esta
distribución en el área de salud, podemos señalar:

1. La prueba de asociación, la cual permite al investigador


determinar si existe asociación entre dos variables en
escala de medición nominal u ordinal. También aparece
en la literatura con el nombre de “tablas de
contingencia”

2. La prueba de “bondad de ajuste”


PROCEDIMIENTO
• Se calcula a través de una tabla de contingencia o
tabulación cruzada.

• Es una tabla de dos dimensiones y cada dimensión


contienen una variable

• Cada variable se subdivide en dos o más categorías.

• Ejemplo: tabla 2x2 => cada dígito indica una variable y el


valor de este indica el número de categorías de la variable

También podría gustarte