Está en la página 1de 12

Taller 1 - Econometría avanzada – 27 de febrero 2019

Valentina González Ramírez


Harold Santiago Pineda Ríos
Sebastián Lozada Velásquez

Punto #1
Nota: último digito de la cédula es 1
Para la generación de la variable y de cada observación, que son variables
aleatorias independientes e idénticamente distribuidas, correspondiente a una
distribución normal con media 1 y varianza 3, en EViews se empleó el comando
nrnd (ver imagen 1 y 2).
Para la generación de la variable x de cada observación, que son variables
aleatorias independientes e idénticamente distribuidas, correspondiente a una
distribución uniforme con media 1 y varianza 3, en EViews se empleó el comando
runif (ver imagen 1 y 2). Como la función runif requiere que se ingrese los valores
extremos de la distribución uniforme, estos se obtienen solucionando el siguiente
sistema de ecuaciones:

μ=
a+ b 2 (b−a)2
σ =
2 12

1=
a+ b (b−a)2
3=
2 12
2=a+b 6=(b−a)

a=−2
b=4
Una vez generadas las variables x y y se obtiene el histograma y las estadísticas
descriptivas de cada una (ver imagen 3 y 4).
Las estadísticas muestran que la variable y tiene una media de 1.010915 y una
desviación de 1.660748, estos valores se acercan bastante a la media establecida
de 1 y a la varianza establecida de 3 (la raíz de 3 correspondiente a la desviación
estándar es 1.732050808). Adicionalmente, el histograma tiene la forma de
campana de Gauss, lo que es propio de la distribución normal.
Para la variable x las estadísticas muestran que tiene media de 1.022411 y una
desviación estándar de 1.701888, en este caso estos valores también se acercan
bastante a la media establecida de 1 y varianza establecida de 3. En cuanto al
histograma revela que la distribución de la variable x efectivamente es uniforme y
que los valores mínimo y máximo corresponden respectivamente a -1.994900 y
3.959453, estos parámetros son los encontrados por el sistema de ecuaciones.

Imagen 1:
Salida de
Eviews:
Generación de
variables x,y.

Imagen 2: Comandos en Eviews: Generación de las variables x,y.


Imagen 3: Histograma y estadística descriptiva variable y.

Imagen 4: Histograma y estadística descriptiva variable x.


b)
Prueba Kolmogorov-Smirnov

Es una prueba estadística no paramétrica, es decir para casos en los que no se


puede determinar a priori la distribución original, pues son los datos observados
los que la determinan. Como toda prueba estadística no paramétrica, supone que:
Las observaciones son independientes y la variable que se estudia posee
continuidad.
Esta prueba, para una muestra, compara la función de distribución acumulada
observada de una variable con una distribución teórica determinada, que puede
ser la normal, la uniforme, la de Poisson o la exponencial.
El estadístico de Kolmogorov-Smirnov se calcula a partir de la diferencia mayor
(en valor absoluto) entre las funciones de distribución acumuladas teóricas y
observadas:
D=máx ∣ Fn ( x )−F 0 (x) ∣

Donde F n (x) es la función de distribución acumulada observada y F 0 (x) es la


función de distribución acumulada teórica.
Dicho estadístico llamado D se compara con el de la tabla del test K-S (se busca
de acuerdo con el nivel de significancia establecido y el tamaño de la muestra). Si
el estadístico D calculado es menor con el estadístico D de la tabla, no se rechaza
la hipótesis de que la muestra procede de la distribución teórica determinada. Por
el contrario si el estadístico D calculado es mayor al estadístico D de la tabla, se
rechaza la hipótesis de que la muestra procede de la distribución teórica
determinada.
Si se va a contrastar la hipótesis con el p-value, se rechaza la hipótesis nula
cuando el p-value asociado al resultado observado es igual o menor al nivel de
significancia establecido.

Aplicación:
 Aplicando la prueba de Kolmogorov-Smirnov a la variable x se obtiene lo
siguiente:
H 0 : Los datos analizados siguen una distribución uniforme

H 1 : La hipótesis nula es falsa


Siendo el p-value 0.9477, a los niveles típicos de significancia (α = 0.01, α=0.05,
α=0.1), la hipótesis nula no se rechaza. Es decir, no hay evidencia estadística
suficiente para rechazar que los datos de la variable x se distribuyan uniforme con
media 1 y varianza 3 a ninguno de los niveles típicos de significancia. La salida de
Eviews se presenta en la imagen 5.

 Aplicando la prueba Kolmogorov-Smirnov a la variable y se tiene lo


siguiente:
H 0 : Los datos analizados siguen una distribución normal

H 1 : La hipótesis nula es falsa

Siendo el p-value 0.1671, a los niveles típicos de significancia (α=0.01, α=0.05,


α=0.1), la hipótesis nula no se rechaza. Es decir, no hay evidencia estadística
suficiente para rechazar que los datos de la variable y se distribuyen normal con
media 1 y varianza 3 a ninguno de los niveles típicos de significancia. La salida de
Eviews se presenta en la Imagen 6.
Imagen 5. Prueba de Kolmogorov-Smirnov para x.
Imagen 6. Prueba de Kolmogorov-Smirnov para y.

Prueba Jarque-Bera
La prueba Jarque-Bera tiene como objetivo establecer si una determinada
distribución de probabilidad se asemeja a una normal. Esto lo hace mediante el
estudio de la simetría y curtosis.
( n−k )
El estadístico Jerque-Bera se calcula de la siguiente manera: JB= ∗¿, donde
6
S corresponde al coeficiente de asimetría, k al coeficiente de curtosis y n al
número de observaciones.
Si el estadístico JB adopta valores pequeños, la distribución observada es
aproximadamente simétrica y mesocúrtica. Y a medida que se detectan asimetrías
o desviaciones en la curtosis, este estadístico aumenta de valor.
Para concluir estadísticamente bajo la hipótesis nula de normalidad, el estadístico
sigue una distribución chi-cuadrado con dos grados de libertad. Si el estadístico JB
en valor absoluto es mayor al valor crítico (una chi-cuadrado con dos grados de
libertad) se rechaza la hipótesis nula.

Aplicación:
 Aplicando la prueba Jarque-Bera a la variable x se obtiene lo siguiente:
H 0 :distribución de probabilidad se asemeja a una Normal

H 1 : La hipótesis nula es falsa

Siendo el p-value 0.000001 (Imagen 4), a los niveles típicos de significancia


(α=0.01, α=0.05, α=0.1), la hipótesis nula se rechaza. Es decir hay evidencia
estadística suficiente para concluir que la distribución de probabilidad no se
asemeja a una normal.
Para ver si se debe a un problema de simetría o curtosis, se analizan dichas
medidas de la distribución:
S= -0.031879 Este valor es muy cercano a cero así que no se debe a un problema
de simetría.
K= 1.821856 Este valor es muy lejano a 3, lo que implica un aplanamiento mucho
menor al de una normal. Entonces el problema se debe a la curtosis.

 Aplicando la prueba Jarque-Bera a la variable y se obtiene lo siguiente:


H 0 : Distribuciónde probabilidad se asemeja a una normal

H 1 : La hipótesis nula es falsa

Siendo el p-value 0.435799 (Imagen 3), a los niveles típicos de significancia la


hipótesis nula no se rechaza. Es decir no hay evidencia estadística suficiente para
rechazar que los datos de la variable y se distribuyen normal con media 1 y
varianza 3 a ninguno de los valores típicos de significancia.
Esto concuerda con las medidas de distribución obtenidas:
S=-0.128440 Este valor es muy cercano a cero.
K=2.882749 Este valor es muy cercano a tres.

c)
Regresión:
Regresión de y contra una constante y x (Imagen 7): y=1.037535 – 0.018115x+ ε
Imagen 7. Salida de Eviews al correr la regresión de y contra una constante y x.

Análisis de la regresión:
 R-cuadrado: El porcentaje de la variación muestral de y que es explicada
por x es apenas el 0.0345%, como el valor de R-cuadrado es casi cero,
esto indica un ajuste pobre de la línea de MCO: Muy poco de la variación
de las y i es captada por la variación de las y i gorro (que se encuentran,
todas, sobre la línea de regresión de MCO).
 R-cuadrado ajustado: Para este caso da un valor negativo muy cercano a
cero: -0.001663. A diferencia de la R-cuadrada, esta medida si puede dar
negativa en los casos que las variables que están en el modelo no aportan
a la explicación de la variable dependiente. Es decir que la R-cuadrada
ajustada negativa implica que este modelo tiene un ajuste pobre en relación
con sus grados de libertad.
 Efectos de los coeficientes: El coeficiente C corresponde al intercepto, el
intercepto es 1.037535, significa que cuando la variable x toma el valor de
cero la variable y será aproximadamente 1.03, para este caso como las
variables x y y no tienen un significado económico no podemos analizar qué
tan importante puede ser la interpretación de la constante. El otro
coeficiente es el de la variable x, según este parámetro, la regresión predice
que un aumento de 1 unidad en la variable x disminuye la variable y en
0.018115 unidades en promedio.
 Significancia de los coeficientes:
Coeficiente de la constante:
H 0 : β 0=0

H 1: β0 ≠ 0

El p-value es 0.00000. De manera que a cualquier nivel de significancia se


rechaza la hipótesis nula, es decir, existe evidencia estadística para afirmar que el
intercepto debe ser incluido en la regresión.

Coeficiente de x:
H 0 : β1 =0

H1: β1 ≠ 0

El p-value es 0.6788 de manera que a cualquier nivel de significancia no se


rechaza la hipótesis nula, es decir no hay evidencia estadística para asegurar que
la variable x es relevante para explicar la variable y.
Aplicación de las pruebas:

Imagen 8. Estadística descriptiva de los residuos


De la salida de Eviews se aprecia que la media de los residuos es un valor muy
cercano cero. Además el histograma tiene un comportamiento de campana de
Gauss, la simetría es cercana a cero y la curtosis cercana a 3. De esta manera se
tiene indicios para pensar que los residuos se distribuyen normal.

Aplicando la prueba de Jarque-Bera se obtiene lo siguiente:


H 0 : Distribuciónde probabilidad se asemeja a una normal

H 1 : La hipótesis nula es falsa

Siendo el p-value 1.670398, a los niveles típicos de significancia, la hipótesis nula


no se rechaza. No hay evidencia estadística suficiente para rechazar que los
residuos se distribuyen normal a ninguno de los niveles típicos de significancia.

Aplicando la prueba Kolmogorov-Smirnov se tiene lo siguiente:


H 0 : Los datos analizados siguen una distribución normal

H 1 : La hipótesis nula es falsa

Siendo el p-value 0.2326, a los niveles típicos de significancia, la hipótesis nula no


se rechaza. No hay evidencia estadística para rechazar que los residuos se
distribuyen normal a ninguno de los niveles típicos de significancia. La salida de
Eviews se presente en la Imagen 9.

Imagen 9: Prueba de Kolmogorov-Smirnov para los residuos.

También podría gustarte