Está en la página 1de 11

Regresión lineal múltiple y

correlación
Unidad 2
2.1 MODELO DE REGRESIÓN MÚLTIPLE

• La regresión múltiple estudia la relación de una variable dependiente con dos o más variables
independientes. Para denotar el número de variables independientes se suele usar p. A la ecuación que
describe cómo está relacionada la variable dependiente y con las variables independientes x1, x2, ..., xp se
le conoce como modelo de regresión múltiple.

• En el modelo de regresión múltiple, β0, β1, β2……βp son parámetros y el término del error ε (la letra griega
épsilon) es una variable aleatoria. Examinando con atención este modelo se ve que, y es una función lineal
de x1, x2, . . ., xp (la parte β0 + β1x1 + β2x2 + …+ βpxp ) más el término del error ε. El término del error
corresponde a la variabilidad en y que no puede atribuirse o explicarse al efecto lineal de las p variables
independientes.
2.1 MODELO DE REGRESIÓN MÚLTIPLE

• Para el modelo de regresión múltiple y para ε. Uno de los supuestos es que la media o valor
esperado de ε es cero. Una consecuencia de este supuesto es que la media o valor esperado
de y, que se denota E(y), es igual a β0 + β1x1 + β2x2 + …+ βpxp. A la ecuación que describe cómo
está relacionada la media de y con x1, x2, . . ., xp se le conoce como ecuación de regresión
múltiple.
2.1 MODELO DE REGRESIÓN MÚLTIPLE

• Si se conocen los valores de β0, β1, β2,..βp. Se puede utilizar la ecuación pasada para calcular la media de las
y para valores dados de x1, x2, . . ., xp se le conoce como ecuación de regresión múltiple.
Desafortunadamente, los valores de estos parámetros no suelen conocerse, es necesario estimarlos a
partir de datos muestrales. Para calcular los valores de los estadísticos muestrales b1, b2, . . ., bp, que se
usan como estimadores puntuales de los parámetros β0, β1, β2,..βp. se emplea una muestra aleatoria
simple. Con los estadísticos muestrales se obtiene la siguiente ecuación de regresión múltiple estimada.
2.1 MODELO DE REGRESIÓN MÚLTIPLE

• Para estimar los parámetros de la regresión se utiliza el método de mínimos cuadrados. El método de
mínimos cuadrados determina la ecuación del plano de regresión minimizando la suma de los cuadrados
de las distancias verticales entre los valores reales de Y y los valores pronosticados para Y.

• El método de mínimos cuadrados emplea datos muestrales para obtener los valores de b0, b1, b2, . . ., bp
que hacen que la suma de los cuadrados de los residuales [las diferencias entre los valores observados de
la variable dependiente (yi ) y los valores estimados de la variable dependiente ] sea un mínimo.
2.1 MODELO DE REGRESIÓN MÚLTIPLE

• Su expresión general se basa en la ecuación de una recta y = mx + b. Donde m es la pendiente y b el


punto de corte, y vienen expresadas de la siguiente manera:

• Σ es el símbolo sumatoria de todos los términos, mientas (x, y) son los datos en estudio y n la cantidad de
datos que existen.

• El método de mínimos cuadrados calcula a partir de los N pares de datos experimentales (x, y), los valores
m y b que mejor ajustan los datos a una recta. Se entiende por el mejor ajuste aquella recta que hace
mínimas las distancias d de los puntos medidos a la recta.

• Teniendo una serie de datos (x, y), mostrados en un gráfico o gráfica, si al conectar punto a punto no se
describe una recta, debemos aplicar el método de mínimos cuadrados, basándonos en su expresión
general:
2.1 MODELO DE REGRESIÓN MÚLTIPLE

• Cuando se haga uso del método de mínimos cuadrados se debe buscar una línea de mejor ajuste que
explique la posible relación entre una variable independiente y una variable dependiente. En el análisis de
regresión, las variables dependientes se designan en el eje y vertical y las variables independientes se
designan en el eje x horizontal.
2.2 ESTIMACIÓN DE LA ECUACIÓN DE REGRESIÓN MÚLTIPLE
2.2 ESTIMACIÓN DE LA ECUACIÓN DE REGRESIÓN MÚLTIPLE

• Los valores estimados de la variable dependiente se calculan empleando la ecuación de regresión múltiple
estimada:
2.3 MATRIZ DE VARIANZA-COVARIANZA
• Una matriz de varianzas-covarianzas es una matriz
cuadrada que contiene las varianzas y covarianzas
asociadas con diferentes variables. Los elementos
de la diagonal de la matriz contienen las varianzas
de las variables, mientras que los elementos que se
encuentran fuera de la diagonal contienen las
covarianzas entre todos los pares posibles de
variables.

• Sabiendo que hay m columnas, los puntos suspensivos indican que se ha obviado representar las
columnas entre la segunda y la última columna. Del mismo modo, sabiendo que hay n filas, los puntos
suspensivos indican que se ha obviado representar las filas entre la segunda y la última fila.
• Esta matriz es muy popular en econometría dado que se usa principalmente en el cálculo matricial de los
coeficientes de la regresión lineal mediante Mínimos Cuadrados Ordinarios, entre otros usos. En finanzas,
se utiliza para tener una imagen general de la volatilidad de los activos financieros.
2.3 MATRIZ DE VARIANZA-COVARIANZA
Los requisitos para que una matriz sea de varianza-covarianza son los siguientes:
• Matriz cuadrada: mismo número de filas (n) que columnas (m), entonces, n=m, y por tanto, la dimensión de
esta matriz puede expresarse tanto nxm como nxn.
• En la diagonal principal están las varianzas:

• Fuera de la diagonal principal están las covarianzas:

También podría gustarte