Está en la página 1de 17

Temas a desarrollar

1. Operadores de sumatoria y producto


2. Espacio muestral, puntos muestrales y sucesos
3. Probabilidad y variables aleatorias
4. Función de densidad de probabilidad (FDP)
5. Caracterı́sticas de las distribuciones de probabilidad
6. Algunas distribuciones de probabilidad teóricas importantes
7. Inferencia estadı́stica: Estimación
8. Inferencia estadı́stica: Pruebas de hipótesis
C.1 Modelo de regresión lineal con k variables
I El FRP(Funcion de regresion poblacional) para k variables es
la siguiente:
FRP: Yi = B1 + B2X2i + B3X3i +· · ·+BkXki + ui, para
i=1,2,3,...n.
En algunos libros se empieza por un b0, B2 a BK =
coeficientes parciales de pendientes, u =término de
perturbación estocástica e i=i-ésima observación, con n como
tamaño de la población.
I De forma Matricial seria:
Y=XB+U
Donde y= es un vector columna n*1 de observaciones sobre la
variable dependiente Y
X=matriz n × k, con n observaciones sobre las k−1 variables
desde X2 a Xn , y la primera columna de números 1
representa el término del intercepto. (Esta matriz se conoce
también como matriz de datos.) = vector columna k × 1 de
los parámetros desconocidos B1, B2, . . . , Bk u =vector
columna n × 1 de n perturbaciones u (i).
C.2 Supuestos del modelo clásico de regresión lineal en
notación matricial

I Notación escalar:
1. E(ui)=0.
2. E(ui,uj)=0=σ 2 .
3. X2, X3, . . . , Xk son fijas o no estocásticas.
4.No hay relación lineal exacta entre las variables X; es decir,
no hay multicolinealidad.
5.Para las pruebas de hipótesis se usa:
u∼N(0,σ 2 )
C.2 Supuestos del modelo clásico de regresión lineal en
notación matricial

I Notación matricial de los supuestos:


1. E (u) = 0, donde u y 0 son vectores columna n × 1, con 0
como vector nulo.
2. E (uu’)=σ 2 I donde I es una matriz de identidad n × n.
3. La matriz X, n × k es no estocástica; es decir, consiste en
un conjunto de números fijos.
4.El rango de X es p(X)=k, donde k es el número de
columnas en X y k es menor que el número de observaciones.
5. El vector u tiene una distribución normal multivariada, es
decir, u∼N(0,σ 2 ).
C.3 Estimación por MCO
I Para obtener la estimación por MCO de B, primero escribimos
la regresión muestral de k-variables (FRM):
Yi =b1 + b2X2i + b3X3i + ·· ·+ bk Xki + ˆui.
su forma matricial seria: y=Xb+u.

donde b es un vector columna de k elementos compuesto por


los estimadores de MCO de los coeficientes de regresión, y
donde û es un vector columna de n × 1 con n residuos.
En el caso de k variables los estimadores de MCO se obtienen
al reducir: Donde la parte
de la izquierda es SCR, en notación matricial es equivalente a
reducir:
C.3 Estimación por MCO

I Entonces reduciremos:

El cual se convertira en:

Que viene a ser

Procedemos a multiplicar todo por ((X 0 X )−1 )


C.3 Estimación por MCO

I Nos quedaria:

Pero, como (X 0 X )−1 (X 0 X ) = I es una matriz identidad de


orden k × k, obtenemos:

Donde esta ultima ecuación es un resultado fundamental de la


teorı́a de MCO en notación matricial.
La propiedad fundamental del MCO es que es MELI.
C.4 Coeficiente de determinación (R 2 ) en notación
matricial

I El coeficiente de determinación (R 2 ), se ha definido como:


(R 2 ) =(SCE /SCT ).
Siendo SCE= la suma de los cuadrados de los residuos y
SCT= suma de los cuadrados totales, Esto se llega a cumplir
para cualquier cantidad de variables.
C.5 Matriz de correlación
I Al tener los coeficientes de correlación de orden simple, parcial
y sus interrelaciones procedemos a armar la matriz de la
siguiente manera:

Figure 1: ”C.5.1;Econometria Damodar N. Gujarati”


C.6 Pruebas de hipótesis sobre coeficientes de regresión
individuales en notación matricial

I Objetivo: Probar la significancia de los parámetros a estimar


individualmente por medio de la prueba T.
I Las perturbaciones estaran bajo una distribución de
probabilidad normal u∼N(0,σ 2 I), donde u y 0 son vectores
columna n × 1 e I es una matriz identidad (n × n), con 0
como vector nulo.
I Los parámetros estimados estaran bajo una distribución de
probabilidad normal β̂∼N(β,σ 2 ∗ (X 0 X )−1 ), con n − k gl,
donde β̂i es cualquier elemento de β̂.
C.6 Pruebas de hipótesis sobre coeficientes de regresión
individuales en notación matricial

I Pero, en la práctica por la falta de información con respecto


de σ 2 , se usara en cambio su valor estimado σ̂ 2 en la prueba
de significancia t(que para este ultimo caso tendra n-k grados
de libertad), bajo la formula:

β̂i − βi
t=
ee(β i )
C.7 Prueba de significancia global de la regresión: análisis
de varianza en notación matricial
I Objetivo: Probar la significancia de los parámetros a estimar
simultáneamente.
I Para probarlo sera necesario el uso de la prueba F, tomando
en cuenta los factores SCR(suma de los cuadrados de los
residuos) y SCE(suma de cuadrados estimados), que seran
dados gracias a la construccion de la tabla ANOVA.
I Donde la prueba F podra ser expresada como:
(β̂ 0 X 0 y −nȲ 2 )
(k−1)
F =
(y 0 y −(β̂ 0 X 0 y ))
(n−k)
(R 2 )
(k−1)
F = (1−R 2 ))
(n−k)
I Si el valor calculado F es superior al valor critico de F con n-k
g.l. se rechazara la hipotesis nula de que los parámetros son
no significativos simultáneamente.
C.8 Pruebas de restricciones lineales: Prueba F general con
notación matricial
I Objetivo: Probar la validez de las restricciones lineales sobre
uno o mas parametros del modelo de regresion lineal.
I La prueba F correspondiente sera:
(uˆ0 R ûR −uˆ0 NR ûNR )
m
F =
(uˆ0 NR ûNR )
(n−k)

que sigue la distribución F con (m, n − k)gl. Donde:


I ûR :vector residuo de la regresión de mı́nimos cuadrados
restringidos.
I ûNR :vector residuo de la regresión de mı́nimos cuadrados no
restringidos.
I m: número de restricciones lineales
I k: número de parámetros (incluido el intercepto) en la
regresión no restringida
I n: número de observaciones
C.9 Predicción mediante regresión múltiple: formulación
matricial
I Objetivo: Poder predecir la media y los valores indiviudales de
Y, teniendo en cuenta los valores de las regresoras.
I Predicción para la media y valores individuales de Y:
Donde:

Ŷi = β̂1 + β̂2 ∗ X2i + β̂3 ∗ X3i + · · · + β̂k ∗ Xki + ui


la cual en notación matricial se escribe de manera compacta
como:

Ŷi = xi0 ∗ β̂
(Ŷi |x00 ) = x00 ∗ β̂
I Estas dos ecuaciones serviran para representar la predicción
media y de los valores individuales de Y.
I Su diferencia radicara en las estimaciones de sus varianzas.
C.9 Predicción mediante regresión múltiple: formulación
matricial

I Varianza de la predicción media:

var (Ŷ0 |x00 ) = σ 2 x00 (X 0 X )−1 x0

donde σ 2 es la varianza de ui , x00 son los valores dados de las


variables X para los cuales se desea predecir. En la práctica
reemplazamos σ 2 por su estimador insesgado σ̂ 2 .
I Varianza de la prediccion individual:

var (Y0 |x0 ) = σ 2 [1 + x00 (X 0 X )−1 x0 ]

Donde la varianza de (Y0 |x0 ) representara la esperanza de


[Y0 − Yˆ0 |X ]2
C.10 Mı́nimos cuadrados generalizados (MCG)

I Es considerado el MCO como un caso especial del MCG.


I En la práctica al desconocerse los valores de
ası́ como las varianzas y covarianzas verdaderas, una opcion a
la cual se puede recurrir es el método de mı́nimos cuadrados
generalizados estimados, o factibles (MCGE), puesto que no
es necesario cumplir los supuestos del MCO de la no
autocorrelacion de errores y homocedasticidad.
C.10 Mı́nimos cuadrados generalizados (MCG)

I Considerando autocorrelacion en las perturbaciones y


heterocedasticidad en nuestro modelo, tendremos como
supuesto:
E (uu 0 ) = σ 2 V Donde V es una matriz conocida de nxn. Si el
modelo es de la forma: y = X β + u y ademas : E (u) = 0 y
var − cov (u) = σ 2 V , donde ante el desconocimiento de σ 2 se
usara la matriz V como la matriz de var-cov de las
perturbaciones.
I Teniendo en cuenta esto, es demostrable que:

β mcg = (X 0 V −1 X )−1 (X 0 V −1 )y

y
var − cov (β mcg ) = σ 2 (X 0 V −1 X )−1

También podría gustarte