Está en la página 1de 6

TRABAJO ENCARGADO

MÉTODOS CUANTITATIVOS

Autor de la reseña: Pilar Vilcapaza Masco


 TRABAJO ENCARGADO

TRABAJO ENCARGADO
Parte 1
1. ¿En qué se diferencian las pruebas de heterocedasticidad de White (cruzados y no cruzados),
ARCH, Glejser, Breusch-Pagan-Godfrey, Harvey?

La heterocedasticidad es la existencia de una varianza no constante en las perturbaciones aleatorias de un


modelo econométrico.

White (1980) derivo la estimación de una matriz de varianzas y covarianzas consistente que provee una
prueba de contraste de los coeficientes con presencia de un patrón no conocido de heteroscedasticidad, la
matriz de Varianza-Covarianza de White.

1.1- En qué se diferencian las pruebas de heterocedasticidad de White (cruzados y no cruzados)


Existen 2 tipos de prueba de White:

Prueba de White Cruzada: Es una prueba de heterocedasticidad y de error de especificación.


Prueba de White no Cruzada: Es una prueba de heterocedasticidad pura.

El contraste de White tiene la ventaja de ser muy flexible ya que que puede hacer sin especificar la forma de
la heteroscedasticidad. Pero esta ventaja es también una desventaja si pensamos que, al detectar la
heteroscedasticidad no proporciona información alguna sobre la forma que tiene, para con esta información
tratar de resolver el problema.

1.2. En qué se diferencian las pruebas de heterocedasticidad ARCH

la prueba de efecto ARCH es una prueba de ruido blanco, pero para la serie de tiempo cuadrada. En otras
palabras, estamos investigando un orden superior (no lineal) de autocorrelación. ¿Cómo puede ser útil esta
información?

El efecto ARCH tiene sus raíces en el tiempo variando la volatilidad condicional, entonces:

σ2t=E[(xt−x¯t)2]=E[x2t]−x¯2tσt2=E[(xt−x¯t)2]=E[xt2]−x¯t2

la prueba ARCH nos ayuda a detectar un tiempo que varía el fenómeno de la volatilidad condicional, y por
lo tanto sugiere diferentes tipos de modelos (por ejemplo ARCH / GARCH) para capturar estas dinámicas.

 White-noise test →→ conditional mean →→ ARMA/ARIMA


 ARCH test →→ conditional volatility →→ ARCH/GARCH

 Página 1
 TRABAJO ENCARGADO

1.3. En qué se diferencian las pruebas de heterocedasticidad Glejser

Se hace una regresión de los valores absolutos de los errores en función de las variables explicativas.

‫׀‬errores‫ =׀‬β0 + βiXi+µ

regresa los residuos de la variable explicativa que se cree que está relacionada con la varianza
heterocedástica. Después de que se descubrió que no era asintóticamente válido en perturbaciones
asimétricas.

1.4. En qué se diferencian las pruebas de heterocedasticidad Breusch-Pagan

Test de Breusch-Pagan. Es el contraste de heteroscedasticidad propuesto por Breusch y Pagan(1979) y


modificado por Koenker y Bassett(1982), esta última versión es la que se utiliza en el programa.

Se basa en la estimación de una regresión auxiliar en que los residuos al cuadrado de la estimación del
modelo por MCO actúan como 17 El propio programa determina cuál de estas dos versiones debe utilizarse
bajo el siguiente criterio: si el punto de corte genera dos muestras cuyo número respectivo de observaciones
es igual o superior al triple de parámetros del modelo se utiliza la primera versión, el incumplimiento del
anterior criterio determina el cálculo del contraste con la expresión reformulada del mismo, utilizando como
submuestra de comparación la que sí cumpla el requisito indicado.

18 Si no se cumple la condición N/3 > 2k, siendo N el número de observaciones y k el número de regresores
del modelo original, debido a su escasa representatividad, el contraste no se puede efectuar y la casilla de
esta opción no puede seleccionarse. Programa MicroEconometría: guía de utilización 15 endógena y como
regresores pueden intervenir una parte (o incluso todos) los regresores del modelo inicial, incluyendo
siempre un término independiente. A tal efecto, un cuadro muy parecido al del anterior contraste permite
indicar cuáles son los regresores que intervienen en dicha regresión auxiliar. Si se selecciona Nuevo test
(máx. 5), podrán efectuarse nuevos contrastes con distintos regresores.

1.4. En qué se diferencian las pruebas de heterocedasticidad Godfrey

Es el contraste de autocorrelación propuesto por Godfrey(1978); cuyo cálculo requiere la estimación de una
regresión auxiliar con los residuos de la estimación por MCO del modelo como variable endógena y como
regresores: los regresores originales y diversos retardos de los residuos que actúan como endógena. El
contraste se calcula para los cuatro primeros retardos. Bajo la hipótesis nula de no autocorrelación, el
estadístico de contraste se distribuye según una χ 2 con r grados de libertad, siendo r los retardos que
incorpora la regresión auxiliar.

1.4. En qué se diferencian las pruebas de heterocedasticidad Harvey

Se diferencia por que usa modelos multiplicativos de la varianza en función de variables exógenas. La
función h-1 es el logaritmo; Se toma como variable dependiente el logaritmo del estimador de las varianzas
en función de las variables exógenas.

2. Si el estadístico Durbin-Watson es menor que 2, ¿Hay autocorrelación positiva o negativa?

 Página 2
 TRABAJO ENCARGADO

Si et es el residual asociado a la observación en el tiempo t, entonces el estadístico de la prueba es:

Donde T es el número de observaciones. Puesto que d es aproximadamente igual a 2(1 − r), donde r es el


coeficiente de auto correlación de primer orden de los residuos,[1] d = 2 indica que no hay autocorrelación.
El valor de d siempre está entre 0 y 4. Si el estadístico de Durbin-Watson es sustancialmente menor que 2,
hay evidencia de correlación serial positiva. Como regla general, si el estadístico de Durbin-Watson es
inferior a 1, puede ser causa de alarma. Valores pequeños de d indican que los términos de error sucesivos
están correlacionados positivamente. Si d> 2, los términos de error sucesivos están correlacionados
negativamente. En las regresiones, esto puede implicar una subestimación del nivel de significación
estadística.
Para probar la autocorrelación positiva con nivel de significancia α, el estadístico de prueba d se compara
con los valores críticos inferiores y superiores (dL,α and dU,α):
 Si d < dL,α, existe evidencia estadística de que los términos de error están autocorrelacionados
positivamente.
 Si d > dU,α, no hay evidencia estadística de que los términos de error están autocorrelacionados
positivamente.
 Si dL,α < d < dU,α, la prueba no es concluyente.

Correlación serial positiva es la correlación en serie en la que un error positivo para una observación
aumenta las posibilidades de un error positivo para otra observación.

Para probar la autocorrelación negativa con nivel de significancia α, el estadístico de prueba (4 - d) se


compara con los valores críticos inferior y superior (dL,α and dU,α):
 Si (4 − d) < dL,α, existe evidencia estadística de que los términos de error están autocorrelacionados
negativamente.
 Si (4 − d) > dU,α, no hay evidencia estadística de que los términos de error están autocorrelacionados
negativamente.
 Si dL,α < (4 − d) < dU,α, la prueba no es concluyente.

Correlación serial negativa implica que un error positivo para una observación aumenta la probabilidad de
un error negativo para otra observación y un error negativo para uno aumenta las posibilidades de un error
positivo para otra observación.

Los valores críticos, dL,α y dU,α, varían según el nivel de significación (α), el número de observaciones, y el
número de predictores en la ecuación de regresión. Su derivación es compleja, por ello se suelen obtener a
partir de tablas incluidas en los apéndices de textos estadísticos.

 Página 3
 TRABAJO ENCARGADO

4. ¿Qué pasa si los t de ciertas variables indican que los coeficientes no son individualmente
significativos, pero F dice que lo son en co

Parte 2
1. ¿Qué es un valor atípico?

Son observaciones cuyos valores son muy diferentes a las otras observaciones del mismo grupo de
datos. Los datos atípicos son ocasionados por:

a) Errores de procedimiento.

b) Acontecimientos extraordinarios.

c) Valores extremos. Por ejemplo, una muestra de datos del número de cigarrillos consumidos a diario
contiene el valor 60 porque hay un fumador que fuma sesenta cigarrillos al día.

d) Causas no conocidas.

Los datos atípicos distorsionan los resultados de los análisis, y por esta razón hay que identificarlas y
tratarlos de manera adecuada, generalmente excluyéndolos del análisis.

2. ¿Qué diferencia hay entre una variable de escala y una variable nominal?

Diferencias Una variable puede tratarse Nominal. Una variable puede ser tratada
claves como escala (continua) como nominal cuando sus valores representan
cuando sus valores categorías que no obedecen a una clasificación
representan categorías intrínseca. Por ejemplo, el departamento de la
ordenadas con una métrica con compañía en el que trabaja un empleado. Algunos
significado, por lo que son ejemplos de variables nominales son: región,
adecuadas las comparaciones código postal o confesión religiosa.
de distancia entre valores. Son
ejemplos de variables de
escala: la edad en años y los
ingresos en dólares.

3. ¿En qué se diferencia una variable nominal de una ordinal?

Diferencias .
claves Nominal.  no obedecen Una variable puede ser tratada como

 Página 4
 TRABAJO ENCARGADO

a una clasificación intrínseca. ordinal cuando sus valores representan categorías


Por ejemplo, el departamento con alguna clasificación intrínseca. Por ejemplo,
de la compañía en el que los niveles de satisfacción con un servicio, que
trabaja un empleado. Algunos abarquen desde muy insatisfecho hasta muy
ejemplos de variables satisfecho. Entre los ejemplos de variables
nominales son: región, código ordinales se incluyen escalas de actitud que
postal o confesión religiosa. representan el grado de satisfacción o confianza y
las puntuaciones de evaluación de las preferencias.

 Página 5

También podría gustarte