Está en la página 1de 4

Regresión lineal múltiple.

Armando Ortiz Rodriguez.


Una extensión natural del modelo de regresión lineal simple consiste en considerar
más de una variable explicativa.
1) Los modelos de regresión múltiple estudian la relación entre una variable de
interés Y (variable respuesta o dependiente) y un conjunto de variables
explicativas o regresoras X1, X2, . . . , Xp.
En el modelo de regresión lineal múltiple se supone que la función de regresión
que relaciona la variable dependiente con las variables independientes es
lineal, es decir: Y = β0 + β1X1 + β2X2 + · · · + βpXp + ε.
Las hipótesis comunes entre las regresiones lineal y múltiple son
: a) Normalidad: u N(0, ) 2 i ε σ
b) Linealidad: E(ui ) = 0
c) Homocedasticidad: Var(ui ) = 0
d) Independencia:  ui son independientes (i =1,2, L ,n)
En el modelo de regresión lineal múltiple se supone que la función de regresión
que relaciona la variable dependiente con las variables independientes es lineal,
es decir:
Y = β0 + β1X1 + · · · + βpXp + ε
β0 es el termino independiente. Es el valor esperado de Y cuando X1, . . . , Xp
son cero.
I β1, β2, . . . βp son los coeficientes parciales de la regresión:
1) β1 mide el cambio en Y por cada cambio unitario en X1, manteniendo X2,
X3, . . . , Xp constantes.
2) β2 mide el cambio en Y por cada cambio unitario en X2, manteniendo X1,
X3, . . . , Xp constantes.
3) βp mide el cambio en Y por cada cambio unitario en Xp , manteniendo
X1, . . . , Xp−1 constantes.
4) ε es el error de observación debido a variables no controladas
En resumen;
La regresión lineal múltiple es la gran técnica estadística para comprobar hipótesis
y relaciones explicativas.
A)La variable dependiente (resultado) debe ser ordinal o escalar, es decir, que las
categorías de la variable tengan orden interno o jerarquía, p.ej. nivel de ingresos,
peso, número de hijos, justificación del aborto en una escala de 1-nunca a 10-
siempre.
B)Las variables independientes (explicaciones) deben ser ordinales o escalares o
dummy.
C)Hay otras condiciones como: las variables independientes no puede estar
altamente correlacionadas entre sí, las relaciones entre las causas y el resultado
deben ser lineales, todas variables deben seguir la distribución normal y deben
tener varianzas iguales. Estas condiciones son importantes, pero hay maneras de
tratar los datos si se incumple alguna de ellas. Sobre ello volveremos en futuras
entradas.
Análisis de regresión lineal.
1 – Significación de F-test: si es menor de 0,05 es que el modelo es
estadísticamente significativo y por tanto las variables independientes explican
“algo” la variable dependiente, cuánto “algo” es la R-cuadrado
2 – R cuadrado: es cuánto las variables independientes explican la variable
dependiente, indica el porcentaje de la varianza de la variable dependiente
explicado por el conjunto de variables independientes. Cuanto mayor sea la R-
cuadrado más explicativo y mejor será el modelo explicativo.
Los dos siguientes pasos hacen referencia a la influencia de cada una de las
variables independientes:
3 – Significación de t-test: si es menor de 0,05 es que esa variable
independiente se relaciona de forma significativa con la variable dependiente, por
tanto, influye sobre ella, es explicativa, ayuda a predecirla
4 – Coeficiente beta (β): indica la intensidad y la dirección de la relación entre
esa variable independiente (VI) y la variable dependiente (VD):
 Cuanto más se aleja de 0 más fuerte es la relación.
 El signo indica la dirección (signo + indica que al aumentar los valores de la
VI aumentan los valores de la VD; signo – indica que al aumentar los
valores de la VI, los valores de la VD descienden).
Resumen

Estadísticas de la regresión
Coeficiente de correlación múltiple 0.501516660562026
Coeficiente de determinación R^2 0.251518960821286
R^2 ajustado 0.157958830923947
Error típico 1.6641453797554
Observaciones 10

ANÁLISIS DE VARIANZA
Grados de libertad Suma de cuadrados
Promedio de los cuadradosF
Regresión 1 7.44496124031 7.44496124 2.688313
Residuos 8 22.15503875969 2.76937984
Total 9 29.6

Coeficientes Error típico Estadístico t Probabilid


Intercepción -6.30232558139533 20.43991026141 -0.3083343 0.76570
Variable X 1 0.75968992248062 0.463336387667 1.63960773 0.139717

También podría gustarte