VARIABLES Correlación. Aplicaciones. Regresión. Aplicaciones. Chi cuadrado. Aplicaciones. Odds Ratio y Riesgo Relativo. Aplicaciones
Docente Dr. Paul Rubén Alfaro Fernández Planteamiento de hipótesis POUNDS PER SQUARE INCH POUNDS PER SQUARE INCH
(Libras por pulgada al cuadrado o pounds per square inch)
Diagrama de Dispersión CORRELACIÓN 1. Informa únicamente si existe relación entre dos variables y cómo se modifica una de ellas con cambios de la otra. • Estudia asociación entre dos variables cuantitativas y establece cuál es la dirección y la magnitud. • Nos informa de cómo cambia de forma sistemática una de las variables con los cambios en la otra, sin suponer ningún tipo de dependencia entre las dos. • Correlación no es sinónimo de causalidad ni de dependencia. • La dirección de correlación nos indicará el sentido de los cambios de una variable respecto a la otra. • Cuando las dos variables cambien en el mismo sentido, hablaremos de correlación directa o positiva, mientras que cuando lo hagan en sentidos opuestos, diremos que existe una correlación inversa o negativa. CORRELACIÓN 2. Esta asociación es su magnitud o intensidad, que se cuantificará mediante el uso de coeficientes de correlación. 3. Esta asociación sería su forma, que nos indica el tipo de línea que mejor se ajusta a la representación gráfica de los pares de valores de las dos variables. En este artículo nos centraremos en la forma más sencilla, en la que el ajuste se realiza con una línea recta, por lo que hablaremos de correlación lineal. SUPUESTOS PARA USO DE CORRELACIÓN DE PEARSON 1. La relación entre las dos variables debe ser lineal. Dibujando un diagrama de puntos o dispersión entre las dos variables se ve línea recta. 2. Ambas variables deben seguir una distribución normal en la población. Realizar la prueba numérica Kolmogorov-Smirnov o Shapiro-Wilk. Siempre complementarla con histograma. 3. Debe existir homocedasticidad, lo que quiere decir que la varianza de la variable “y” debe ser constante a lo largo de los valores de la variable “x”. Podemos comprobar dibujando el diagrama de dispersión donde la nube de puntos se dispersa de forma similar a lo largo de los valores de la variable “x” REGRESIÓN • No solo explica la relación entre las variables, sino que trata de construir un modelo que nos permita predecir el valor de una de las variables (la dependiente o criterio) en función del valor que tome la otra variable (la independiente o explicativa). • Existen numerosos modelos de regresión que, a su vez, pueden clasificarse en simples o múltiples en función del número de variables independientes que lo componen. • Los modelos de regresión simple son los que incluyen dos variables, una dependiente y otra independiente. • Por su parte, los modelos de regresión múltiple incluyen una variable dependiente y más de una variable independiente. Modelos de regresión • Si tomamos una variable independiente “x” y una variable dependiente “y”, todos los modelos de regresión simple se ajustan a la siguiente ecuación: • Función(y) = a + bx + e. • El componente “Función(y)” dependerá del tipo de variable dependiente del modelo, lo que nos condicionará el modelo de regresión concreto que tendremos que utilizar. • El componente “a” representa el valor de “y” cuando “x” vale 0. • Suele denominarse interceptor, ya que es el punto donde la representación gráfica de la línea de regresión cruza el eje de ordenadas (eje y). • El componente “b” representa la pendiente de la línea y nos informa de en cuántas unidades aumenta la variable “y” por cada unidad que aumenta la variable “x”. • Por último, el cuarto componente, “e”, representa la variabilidad aleatoria del modelo. • Esta variabilidad será la responsable de la diferencia que se produzca entre la predicción del modelo de regresión y el valor real observado en el estudio. Correlación r = -0.957 Coeficiente de determinación R= r al cuadrado x 100 R= 0.9158 x 100 R= 91.58 por ciento de la variabilidad de los valores de Y es explicada por la regresión. PRUEBA DE SIGNIFICANCIA CHI CUADRADO ¿Qué es la Chi Cuadrada? • Es una prueba estadística para evaluar hipótesis acerca de la relación entre dos variables categóricas
• Se simboliza por χ2
• Hipótesis a probar : Correlaciónales
( H0 : no hay asociación y H1 hay asociación)
• Variables involucradas: Dos, esta prueba no considera
relaciones causales
• Nivel de medición de las variables: Nominal u ordinal
Otras características • Es una distribución asimétrica
• Sólo toma valores positivos y es asintótica con respecto al
eje de las x positivas ( 0 < χ2 < +∞)
• Está caracterizada por un único parámetro “ n” llamado
“grados de libertad” adoptando formas distintas según el valor de “n”
• El área comprendida entre la curva y el eje de las x es 1 ó
100% Aplicaciones Entre las aplicaciones más frecuentes de esta distribución en el área de salud, podemos señalar:
1. La prueba de asociación, la cual permite al investigador
determinar si existe asociación entre dos variables en escala de medición nominal u ordinal. También aparece en la literatura con el nombre de “tablas de contingencia”
2. La prueba de “bondad de ajuste”
PROCEDIMIENTO • Se calcula a través de una tabla de contingencia o tabulación cruzada.
• Es una tabla de dos dimensiones y cada dimensión
contienen una variable
• Cada variable se subdivide en dos o más categorías.
• Ejemplo: tabla 2x2 => cada dígito indica una variable y el
valor de este indica el número de categorías de la variable
Mentalidades matemáticas: Cómo liberar el potencial de los estudiantes mediante las matemáticas creativas, mensajes inspiradores y una enseñanza innovadora