Está en la página 1de 5

REGRESIÓN LINEAL

La técnica estadística que consiste en modelar la relación lineal entre una variable dependiente aleatoria Y
, y un conjunto de variables explicativas X1, X2, Xk….., estas variables se suponen que son no aleatorias,
o que tienen una aleatoriedad mínima.
OBJETIVOS
1.- Probar estadísticamente que las variables regresoras X1, X2, X3…Xk están relacionadas de
manera lineal con la variable respuesta Y.
2.- Predecir los valores de la variable respuesta Y0, conociendo valores de las variables regresoras:
X1, X2, X3…Xk. Puede ser: Regresión Lineal Simple y Múltiple
Se llevan a cabo los 10 pasos para comprobar la hipótesis y llegar a cumplir un objetivo:
1.- DATOS: Datos cuantitativos continuos o discretos de variables aleatorias independientes, una
dependiente y otra independiente.
2.-SUPUESTOS
• Los valores de Variable X son fijos.
• Para cada valor de X existe una subpoblación de valores Y que siguen una Distribución Normal.
• Todas las subpoblaciones Y son iguales.
• La relación entre las dos variables es lineal.
MODELO: Y= α + βx + e
Y= Valor representativo de una subpoblación de Y
α= Coeficiente de ordenada al origen o intercepto
β= Coeficiente de pendiente de la recta
e= Error que se involucra en la medición de una variable
3.- DIAGRAMA DE DISPERSIÓN: Para observar la variabilidad de los datos y el tipo de relación entre
variables.
OBTENCIÓN DE ECUACIÓN DE LA RECTA POR MÉTODO DE MÍNIMOS CUADRADOS
Y= a + βxi; i= 1,2,3…n
Y= valores de variable dependiente en el eje vertical
x= valores de variable independiente en el eje horizontal
a= Ordenada al origen
b= Pendiente de la recta
4.- HIPÓTESIS

La hipótesis nula establece que la variable regresora (X) no está relacionada de manera lineal con la
variable respuesta (Y), es decir

Si se rechaza Ho= Existe una relación lineal entre ambas variables.

No se rechaza la Ho= No existe una relación lineal entre ambas variables, porque i= 1

5.- ESTADISTICO DE PRUEBA Y SU DISTRIBUCIÓN

• Aplica cuando la varianza (Ꝺ2) de ambas variables es desconocida


• La distribución es t-Student con n-2 grados de libertad
6.- REGLA DE DECISIÓN
Se calcula los valores críticos de t- Student, los cuales son para α= 0.05/ 2= 0.025.
V.C de t- Student= +1.9840
Se rechaza Ho cuando: t > o = V.C. t- Student
7.- CALCULO DEL ESTADISTICO t: En tabla de ANOVA
8.- DECISIÓN ESTADISTICA: Se rechaza Ho, porque t= 14.74 > V.C de t= 1.9840
9.- CONCLUSIÓN: Se concluye que la pendiente de la recta de regresión verdadera no es 0, es decir,
existe una relación lineal entre las variables independientes (tejido adiposo) y la variable dependiente
(circunferencia de la cintura), y esta es positiva β (5.44).

EL COEFICIENTE DE REGRESIÓN LINEAL O R2.


Es útil para estimar el grado de ajuste de los datos a una relación lineal.

CONCLUSIÓN
El coeficiente de regresión mide el cambio de la variable Y (dependiente) por cada unidad de cambio de
la variable X (independiente). Lo que se concluye en un problema de regresión lineal es:
1) El tipo de relación entre las variables.
2)Si es positiva, es decir, cuando β > 0, cada aumento de X corresponde un aumento de Y, ó si es
negativa, es decir, cuando β < 0, Y decrece a medida que X aumenta.
3)Si los datos se ajustan al modelo de regresión lineal con el coeficiente r2

CORRELACIÓN LINEAL Es la técnica estadística que permite valorar la asociación entre dos
variables aleatorias dependientes (Y vs X), es decir, dos variables no fijas.
OBJETIVO es probar Estadísticamente la dirección y fuerza de la asociación entre dos variables
cuantitativas ( Y vs X).
Puede ser Correlación lineal simple o múltiple.
COEFICIENTE DE CORRELACIÓN DE PEARSON El índice que mide si los puntos tienen tendencia a
disponerse en una línea recta. Puede tomar valores entre -1 y +1, cuando las variables cumplen el criterio
de normalidad.
PROPIEDADES DEL COEFICIENTE DE PEARSON

*Carece de unidad de medida (adimensional)


*Toma solo valores comprendidos entre -1 y +1
* Cuando r ≈ 1=

➢ r= +1 es una recta lineal creciente de izquierda a derecha.

➢ r= -1 es una recta lineal decreciente.

* Para ambos casos existe una relación lineal muy fuerte entre las variables.
* Cuando r≈0, puede afirmarse que no existe relación lineal entre ambas variables. Se dice en este caso
que las variables son incorreladas.

1.- DATOS: Son cuantitativos discretos o continuos de variables aleatorias dependientes.

2.- SUPUESTOS:

1. Para cada valor de X existe una subpoblación de valores de Y que siguen una distribución normal.
2. Para cada valor de Y, existe una subpoblación de valores de X que sigue una distribución normal.
3. La distribución conjunta de X y Y es una distribución normal llamada distribución normal bivariada.
4. Todas las subpoblaciones de los valores de Y tienen la misma variancia.
5. Todas las subpoblaciones de los valores de X tienen la misma variancia.

3.- GRAFICO DE DISPERSIÓN: Si existe una correlación

4.- HIPÓTESIS

p= Coeficiente de correlación

5.- ESTADISTICO DE PRUEBA Y SU DISTRIBUCIÓN

Distribución t de Student con n-2 grados de libertad

6.- REGLA DE DECISIÓN

Si t > Valores críticos de t de Student, se rechaza la Ho. Cuando α= 0.05/2 = 0.025, los valores críticos
son ± 2.0639.

7.- CÁLCULO DE ESTADISTICO DE PRUEBA: t en TABLA ANOVA

8.- DECISIÓN ESTADISTICA

Como t (5.3595) es > que V.C de t- Student (2.0639), se rechaza la Ho.


9.- CÁLCULO DE P VALUE

Con un t (5.3595) y V.C de t- Student (2.0639), por interpolación el valor de p ̴ 0.01 a un α= 0.05.

10.- CONCLUSIÓN

Se debe concluir:

• Tipo de asociación: positiva creciente o negativa creciente

Grado de asociación: con un coeficiente de correlación de Pearson de 0.738, se puede concluir que es
fuerte.

ESTADISTICA NO PARAMETRICA Son las pruebas estadísticas que se realizan cuando, las afirmaciones para
probar la hipótesis no están relacionadas con los parámetros de la población.

Ventajas de uso:

1. Cuando se desconoce la distribución de la población.

2. Fácil y rápido de calcular a diferencia de las paramétricas, principalmente para tamaño pequeño de muestras.

3. Cuando los datos constan de categorías simples, es decir, no tienen una escala de medición concreta.

DIFERENCIAS ENTRE ESTADISTICA PARAMETRICA Y NO PARAMETRICA

La estadística paramétrica, es la que prueba la hipótesis a partir de parámetros poblacionales como media, varianza,
desviación estándar, proporciones, etc., con supuestos de aplicación, mientras que la No paramétrica prueban la
hipótesis con clasificaciones y signos, donde se aplican supuestos cuando se aplica para dos muestras o más.

Las pruebas No paramétricas, pueden ser seleccionadas por los siguientes puntos:

• Población sin distribución normal


• Variables continuas y categóricas
• Muestras no homogéneas
• Tamaño de muestras muy pequeñas o muy grandes
• De libre distribución
TIPOS DE PRUEBAS

1. Prueba de signos
2. Prueba de Wilcoxon
3. Prueba de la mediana
4. Prueba de Mann-Whitney
5. Prueba de bondad de ajuste
6. Prueba de Kolmogorov
7. Prueba de Kruskal Wallis
8. Prueba de Friendman
9. Correlación con coeficiente de Spearman

También podría gustarte