Está en la página 1de 32

Econometría

Docente:
Julio Fabris (Ingeniero Civil UBA – Posgrado en Economía UTDT -
Doctor en Economía – UBA)
Colaboradores:
1era Parte Segunda Parte
Breno Nunes Chas Kevin Corfield
Franco Lopez Juan Carlos Sandoval
Juan Pablo Rodriguez
Trabajos Prácticos
Nicolás Sidicaro

Docente: Julio Fabris


Formas de evaluación
 2 Parciales que deben aprobarse para regularizar la materia
 3 TP obligatorios. Se califican:
No Aprobado/Aprobado/Distinguido
Si todos están aprobados y al menos uno está Distinguido,
suma un punto a la suma de parciales al efecto de la
Promoción y la nota de la materia
 Promoción:
Con suma de parciales 13 o más
Con suma de parciales 12 o más si se suma 1 punto por los TPs
Importante: La nota del recuperatorio reemplaza a la del parcial

Docente: Julio Fabris


Bibliografía:
1era Parte
Econometría (2010) Gujarati – Porter
Econometría.-Modelos y Pronósticos (2001)-Pindyck y Rubinfeld
2da Parte
Análisis De Series De Tiempo (2000) Urbisaia y Brufman
Econometría.-Modelos y Pronósticos (2001)-Pindyck y Rubinfeld
Introducción al Análisis de Series Temporales (2000) Uriel
Notas de clase elaboradas por el docente y colaboradores

Software: R con RStudio

Docente: Julio Fabris


Econometría

Parciales:
1er Parcial: 18 de mayo
2do Parcial: 22 de junio
Recuperatorios: 29 de junio

Examen Final: 6 de julio

Docente: Julio Fabris


Temas a tratar en esta clase

 Momentos de una distribución de probabilidad

 Distribuciones utilizadas en Econometría

 Estimadores y sus propiedades deseables

Docente: Julio Fabris


Momentos de una distribución
Momento de primer orden: Esperanza o Media  X  E( X )
Propiedades:
E k   k k R

E k  X   k  E  X  k  R

E  X  Y   E  X   E Y 

Si X e Y son independientes
E  X  Y   E  X   E Y 

Pero E  X / Y   E  X  / E Y 

aunque X e Y sean independientes

Docente: Julio Fabris


Momentos de una distribución

Momento de segundo orden: Varianza  X2  E [( X   X ) 2 ]


Propiedades
Var  k   0 k R

Var  k  X   k 2  Var  X 

Var  X  Y   Var  X   Var Y   2 Cov  X , Y 

Var  X  Y   Var  X   Var Y   2 Cov  X ,Y 

Si X e Y son independientes
Var  X  Y   Var  X  Y   Var  X   Var Y 

Docente: Julio Fabris


Momentos de una distribución
En el caso de dos variables X e Y con medias  X y  Y puede definirse el
momento de segundo orden covarianza entre ambas variables.

Cov(X,Y)  XY  E [( X   X )(Y  Y )]
Propiedades
Cov  a  b  X , c  d  Y   b d Cov  X , Y 

Si X e Y son independientes

Cov  X , Y   0 pero X indep.Y Cov  X , Y   0

Si X = Y Cov  X , X   Var  X 

Docente: Julio Fabris


Momentos de una distribución

E   X  X  
3
Momento de tercer orden:  

Coeficiente de Simetría S ( X )  E   ( X   )3  /  3

Docente: Julio Fabris


Momentos de una distribución

E   X  X  
4
Momento de cuarto orden:  

Coeficiente de Kurtosis: K ( X )  E   ( X   )4  /  4

Docente: Julio Fabris


Distribuciones de Probabilidad utilizadas en Econometría
 Normal
 Chi cuadrado
 t de Student
 F de Snedecor
Distribución Normal
Función de densidad con forma de campana
Simétrica alrededor de su media
Queda completamente descripta por su media y su varianza

Sea una variable X N ( , 2 )

Docente: Julio Fabris


1 ( X  ) 2
1 
f (X )  e 2 2
  X  
 2

P(   2   X    2  )  0.95

Docente: Julio Fabris


Docente: Julio Fabris
Propiedades de la Normal

a) Es una distribución paramétrica que queda definida por su media y su


varianza
X 
b) X N ( , 2 ) entonces Z N (0,1)

c) La combinación lineal de normales independientes es normal
Sea X1 N (  1 , 1 2 ) y X 2 N ( 2 , 2 2 ) , entonces
 
U  a X1  b X 2 N (a  1  b  2 ),(a  1  b  2 ) 
 2 2 2 2
 
 
d) Para la normal S (simetría) =0 y K (curtosis) = 3

Docente: Julio Fabris


Distribución  (Chi cuadrado)
2

Sean X1 , X 2 ,..., X k variables aleatorias independientes e idénticamente


distribuidas (iid) : X i N (0,1) i  1,..., k
U  X12  X 22  ...  X k2  k2

Propiedades: a) Si U  k
2
 U  k y  U2  2 k

b) Si U1  k1 y U 2  k 2 W  U1  U2 (2k1k 2)
2 2

Docente: Julio Fabris


Distribución t (t de Student)

Sean X N (0,1) y U  k2 variables aleatorias independientes, entonces:


X
t tk
U
k

Docente: Julio Fabris


Como surge la distribución t a partir del muestreo

Sean X1 , X 2 ,..., X n variables aleatorias: X i iid N (  , ) i  1,..., N


2

Si se tiene una muestra de tamaño N de dicha población:


1 n 1 n
Sea X   i el promedio muestral y sea n  1 
N i1
X S 2

i 1
( X i  X ) 2 la

estimación de la varianza muestral, entonces:

X  XX
Z

N (0,1) pero
t
S
tn1

N N
O sea surge de reemplazar la varianza desconocida por la varianza
estimada. Eso dispersa la distribución del estadístico estandarizado.
Student era el seudónimo de Willam Gosset estadístico que trabajaba en la cervecería
Guiness e inventó la distribución para facilitar las pruebas de calidad de la cerveza.

Docente: Julio Fabris


Distribución F de Snedecor
Sean U1 y U2 variables aleatorias independientes con distribuciones chi
cuadrado con grados de libertad k1 y k2 respectivamente:
U1
k1
F F ( k 1 , k2 )
U2
k2

Docente: Julio Fabris


Estimadores y estimaciones

Dada una muestra {X1 , X 2 ,..., X N } aleatoria tomada de una distribución que
depende de un parámetro  , un estimador ˆ de dicho parámetro es una
regla que asigna a cada posible realización de la muestra un valor de  .

Un ejemplo simple es el estimador de la media de la distribución. Por ejemplo


si la muestra {X1 , X 2 ,..., X N } es tomada de una distribución con media  , el
estimador de esta media es ˆ  X  X i / N
Para cualquier extracción de muestra la regla es la misma, aunque
obviamente el resultado difiere.

Una estimación es el resultado de calcular el algoritmo con una muestra


determinada.

Docente: Julio Fabris


Métodos de estimación
En general se usan 3 métodos
 Método de los momentos (MOM)
 Método de mínimos cuadrados (LS)
 Método de máxima verosimilitud (ML)
El método de los momentos es el más intuitivo y consiste, dicho
simplemente, en tomar como estimador del parámetro poblacional al
estadístico muestral correspondiente.

Ejemplo: El estimador de la media poblacional es la media muestral ˆ  X


Existe una extensión de este método denominada Método de los Momentos
Generalizado (GMM)
Los otros 2 métodos se verán en el desarrollo del curso.

Docente: Julio Fabris


Propiedades deseables de los estimadores
Propiedades exactas o de muestra finita

 Insesgamiento

 Eficiencia

 Error cuadrático medio mínimo

Propiedades asintóticas o de muestras grandes

 Consistencia

 Eficiencia asintótica

 Normalidad asintótica

Docente: Julio Fabris


Insesgamiento

Se dice que un estimador ˆ es INSESGADO si

E [ˆ]  
Si no, decimos que el estimador es SESGADO., y su sesgo se calcula como:

sesgo(ˆ)  E [ˆ]  
Para entender la propiedad se requiere el experimento mental de imaginar
infinitas muestras del mismo tamaño tomadas de la población y representar
la distribución de probabilidad de ˆ , denominada su distribución en el
muestreo.

Docente: Julio Fabris


Insesgamiento

Distribuciones en el muestreo de ˆ1 , estimador insesgado, y ˆ 2 , estimador


sesgado

Docente: Julio Fabris


Insesgamiento
¿ Cómo puede saberse si un estimador es insesgado si nunca voy a realizar
el experimento muestral indicado?
Ejemplo
Supongamos estimar la media de una población con una distribución con media
 X y varianza  X2 (desconocidas)
N

Elijo ˆ X  X   X i / N y muestreo la población en forma independiente y aleatoria


i 1

para tomar N elementos de la población .

 N
 N 
E  ˆ X   E  X   E (1/ N ) X i   1/ N  E   X i   1/ N  E  X 1  X 2  ...  X N  
 i 1   i 1 
 1/ N   E  X 1   E  X 2   ...  E  X N   (1/ N )(  X   X  ...   X )  (1/ N )( N  X )   X

Propiedades utilizadas: E  k  X   k  E  X  y E  X  Y   E  X   E Y 

Docente: Julio Fabris


Eficiencia
Se denomina estimador eficiente a aquel de mínima varianza.
Menor varianza muestral  Mayor eficiencia

Var (ˆ1)  Var(ˆ2 ) , estimadores insesgados


Var (ˆ3 )  Var (ˆ1 ) pero ˆ3 es un estimador sesgado

Docente: Julio Fabris


Error cuadrático medio
Si se comparan estimadores sesgados con insesgados ó estimadores
insesgados entre si, se acostumbra considerar una propiedad deseable al
Error cuadrático medio mínimo.


ECM  E  ˆ    
2

 
Se puede demostrar que:

 
ECM  E  ˆ     Var (ˆ)   Sesgo(ˆ) 
2 2

 
Es una forma de cuantificar el “trade off” entre varianza y sesgo.

Ejemplo: Si ˆ1 es un estimador sesgado del peso medio de los contenedores que
llegan al puerto, con varianza Var (ˆ1 ) = 4 t2 y sesgo conocido de 2 t, y ˆ 2 es un
estimador insesgado de la misma media con Var (ˆ2 ) = 9 t2 ¿Cuál es preferible?

Docente: Julio Fabris


Propiedades asintóticas o de muestras grandes

 Consistencia
 Eficiencia asintótica
 Normalidad asintótica

Teorema Central del Límite

Sean X1 , X 2 ,..., X n variables aleatorias iid (independiente e identicamente


distribuidas) con CUALQUIER distribución, de media  y varianza  2 y
sea su promedio X   X i / N , entonces se verifica:

X
N 

N  ,
2

N 

Docente: Julio Fabris


Consistencia
Se dice que un estimador ˆN del parámetro  , basado en una muestra de
N observaciones es consistente si, para cualquier   0 se cumple:
lim
N 
 
P ˆN      0 o también plim ˆN  

A diferencia de las anteriores propiedades, la consistencia estudia el


comportamiento del estimador cuando la muestra crece.
 Una condición suficiente para la consistencia es que el sesgo y la
varianza tiendan a cero a medida que el tamaño de la muestra
tiende a infinito.
 Otra condición suficiente para la consistencia es que el ECM tienda
a cero a medida que la muestra tiende a infinito.

Docente: Julio Fabris


Consistencia

La gráfica muestra la convergencia de E [ˆ] con  y la disminución de Var [ˆ] a


medida que N aumenta

Docente: Julio Fabris


¿ Cómo demostrar que un estimador es consistente si nunca voy a realizar
el experimento muestral indicado?
Volvemos al ejemplo de ˆ X  X  X i / N calculado con muestra independiente y
aleatoria de una población con una distribución con media  X y varianza  X
2

Ya demostramos que era insesgado y eso vale para todo N. Además

  N 
Var  ˆ X   Var  X   Var (1/ N ) X i   1/ N 2 Var   X i   1/ N 2  Var  X i  
N N

 i 1   i 1  i 1

 1/ N 2  Var  X 1   ...  Var  X N   1/ N 2  ( X2  ...   X2 )  1/ N 2  ( N X2 )   X2 / N

Obviamente lim  X / N  0 para N   por lo que ˆ X  X es consistente por la


2

condición suficiente antes mencionada.

Propiedades utilizadas: Var  k  X   k Var  X 


2
y

Var  X  Y   Var  X   Var Y  si X e Y son independientes

Docente: Julio Fabris


Varianza asintótica
Se denomina “varianza asintótica” de un estimador de un estimador ˆN del
parámetro  a la varianza de la distribución del estimador cuando N tiende
a infinito.

 
lim 2
. (ˆ) 
AsyVar E  ˆN  E ˆN  
N   

Eficiencia asintótica
Si ˆN es consistente y su varianza asintótica es menor que la varianza
asintótica de todos los demás estimadores consistentes de  se dice que ˆN
es asintóticamente eficiente.

Docente: Julio Fabris


Normalidad asintótica
Se dice que un estimador ˆN está normalmente distribuido
asintóticamente si su distribución muestral tiende a aproximarse a la
distribución normal a medida que el tamaño de la muestra N aumenta de
manera indefinida.

Ley de los grandes números


Sean X1 , X 2 ,..., X n variables aleatorias iid (independiente e identicamente
distribuidas) con CUALQUIER distribución, de media  y varianza  2 y
sea su promedio X   X i / N , entonces se verifica:

plim( X )  

Docente: Julio Fabris

También podría gustarte