Documentos de Académico
Documentos de Profesional
Documentos de Cultura
DEFINICIONES
ESTADÍSTICA
Ing. Carlos Balseca
DEPARTAMENTO DE CIENCIAS EXACTAS - ESPE
CLASE Nro. 14
CONTENIDO
Introducción: Es una generalización de la regresión lineal simple a una situación en la que hay más
Es decir, cuando la variable de respuesta Y depende linealmente de dos o más variables entonces se
𝑌 = 𝛽0 + 𝛽1 𝑥1 + 𝛽2 𝑥2 + ⋯ + 𝛽𝑘 𝑥𝑘 + 𝜖 𝑀𝑜𝑑𝑒𝑙𝑜 𝑡𝑒ó𝑟𝑖𝑐𝑜
Donde:
𝛽1 representa el cambio esperado en Y por unidad de cambio en 𝑥1 , manteniendo constante los demás
valores de 𝑥2 , 𝑥3 , ⋯ , 𝑥𝑘 .
𝛽2 representa el cambio esperado en Y por unidad de cambio en 𝑥2 , manteniendo constante los demás
valores de 𝑥.
𝜖 término de error representa la variabilidad de Y que no puede explicarse por el efecto lineal de las k
variables independientes, considerando los supuestos de que el error sigue una distribución normal con
Se emplea el termino lineal puesto que Y será una función lineal de los parámetros 𝛽0 , 𝛽1 , 𝛽2 , ⋯ , 𝛽𝑘 .
Por lo general los parámetros 𝛽0 , 𝛽1 , 𝛽2 , ⋯ , 𝛽𝑘 , suelen ser desconocidos por lo que es necesario poder
̂0 + 𝛽
𝑌̂ = 𝛽 ̂1 𝑥1 + 𝛽
̂2 𝑥2 + ⋯ + 𝛽
̂𝑘 𝑥𝑘 𝑀𝑜𝑑𝑒𝑙𝑜 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜
CLASE Nro. 14
Donde:
̂0 , 𝛽
𝛽 ̂1 , 𝛽̂ ̂
2, ⋯ , 𝛽𝑘 , son estimaciones puntuales de los parámetros 𝛽0 , 𝛽1 , 𝛽2 , ⋯ , 𝛽𝑘 , y 𝑌̂ es el valor
El método de mínimos cuadrados, permite obtener la ecuación de regresión lineal múltiple estimada,
que mejor aproxima la relación lineal entre las variables dependiente e independientes.
Suponer que se tienen n observaciones (filas) y sea 𝑥𝑖𝑗 la iésima observación de la variable 𝑥𝑗 las
observaciones serán:
𝑗 = 1, 2, 3, ⋯ , 𝑘 (columnas)
Si se toma por ejemplo la observación i, se tendrán los siguientes valores teóricos, estimados y residuos:
𝑦𝑖 = 𝛽0 + ∑ 𝛽𝑗 𝑥𝑖𝑗 + 𝜖𝑖 ; para 𝑖 = 1, 2, 3, ⋯ , 𝑛
𝑗=1
̂0 + 𝛽
𝑦̂𝑖 = 𝛽 ̂1 𝑥𝑖1 + 𝛽
̂2 𝑥𝑖2 + ⋯ + 𝛽
̂𝑘 𝑥𝑖𝑘 ; 𝑝𝑎𝑟𝑎 𝑦̂𝑖 𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜
2
̂0 + 𝛽
𝐿 = ∑ ∈𝑖 2 = ∑ (𝑦𝑖 − (𝛽 ̂1 𝑥𝑖1 + 𝛽
̂2 𝑥𝑖2 + ⋯ + 𝛽
̂𝑘 𝑥𝑖𝑘 ))
2
̂0 − 𝛽
= ∑ ∈𝑖 2 = ∑(𝑦𝑖 − 𝛽 ̂1 𝑥𝑖1 − 𝛽
̂2 𝑥𝑖2 − ⋯ − 𝛽
̂𝑘 𝑥𝑖𝑘 )
𝑛
𝜕𝐿
| ̂0 − 𝛽
= −2 ∑(𝑦𝑖 − 𝛽 ̂1 𝑥𝑖1 − 𝛽
̂2 𝑥𝑖2 − ⋯ − 𝛽
̂𝑘 𝑥𝑖𝑘 ) = 0; 𝑦
𝜕𝛽0 𝛽̂ ,𝛽̂ ,⋯,𝛽̂
0 1 𝑘 𝑖=1
𝑛
𝜕𝐿
| ̂0 − 𝛽
= −2 ∑(𝑦𝑖 − 𝛽 ̂1 𝑥𝑖1 − 𝛽
̂2 𝑥𝑖2 − ⋯ − 𝛽
̂𝑘 𝑥𝑖𝑘 ) 𝑥𝑖𝑗 = 0; 𝑗 = 1, 2, 3, ⋯ , 𝑘
𝜕𝛽𝑗 ̂ ̂2 ,⋯,𝛽
̂𝑘
𝛽1 ,𝛽 𝑖=1
CLASE Nro. 14
Simplificando las ecuaciones anteriores, se obtienen p ecuaciones normales de mínimos cuadrados,
# observación 𝒚 𝒙𝟏 𝒙𝟐 ⋯ 𝒙𝒌
⋮ ⋮ ⋮ ⋮ ⋮ ⋮
Los modelos de regresión lineal múltiple: 𝑦𝑖 = 𝛽0 + ∑𝑘𝑗=1 𝛽𝑗 𝑥𝑖𝑗 + 𝜖𝑖 , son sistemas de n ecuaciones
𝒚 = 𝑿𝜷 + 𝝐
𝑿(𝒏×𝒑) matriz de variables independientes (asumiendo que el intercepto está siempre multiplicado por
una constante de valor unitario. La matriz 𝑿 generalmente es llamada matriz del modelo.
𝝐𝟏
𝝐𝟐
𝑳 = 𝒎𝒊𝒏 ∑ 𝝐𝒊 𝟐 = [𝝐𝟏 + 𝝐𝟐 + ⋯ + 𝝐𝒏 ] ∙ [ ⋮ ] ≡ ( ∈𝑻 ∙∈)
𝝐𝒏
𝒚 = 𝑿𝜷 + 𝝐
𝝐 = 𝒚 − 𝑿𝜷
𝑳 = ( ∈𝑻 ∙∈)
𝑳 = (𝒚 − 𝑿𝜷)𝑻 ∙ (𝒚 − 𝑿𝜷)
parcialmente L:
𝜕𝐿
|=0
𝜕𝛽
̂
̂=𝑿𝜷
𝒚
̂ . Es decir:
que al ser multiplicado por la matriz 𝑿𝑻 , permite despejar el vector de coeficientes 𝜷
𝑿𝑻 𝒚 ̂
̂ = 𝑿𝑻 𝑿 𝜷
−𝟏
Donde: 𝑿𝑻 𝑿, es una matriz cuadrada, por lo que se podrá multiplicar por su inversa (𝑿𝑻 𝑿) .
−𝟏 −𝟏
(𝑿𝑻 𝑿) (𝑿𝑻 𝒚
̂) = (𝑿𝑻 𝑿) ̂
(𝑿𝑻 𝑿) 𝜷
CLASE Nro. 14
−𝟏
(𝑿𝑻 𝑿) (𝑿𝑻 𝒚 ̂
̂) = 𝑰 𝜷
Obteniéndose finalmente la forma matricial de las ecuaciones normales que son idénticas a las
La matriz 𝑿𝑻 𝑿, es una matriz simétrica (𝑝 × 𝑝), su diagonal representa las sumas de los cuadrados de
los elementos de las columnas de 𝑿, y los elementos de están fuera de la diagonal son las sumas de los
productos cruzados de los elementos de las columnas de 𝑿. Además el vector 𝑿𝑻 𝒚 , es un vector columna
de (𝑝 × 1) y son las sumas de los productos cruzados de las columnas de 𝑿 y las observaciones 𝑦𝑖 .
REFERENCIAS BIBLIOGRÁFICAS