Está en la página 1de 17

Inferencia y Predicción

Definiciones previas:

• H0 : Hipótesis Nula
• H1 : Hipótesis Alternativa
• El error del tipo 1 es rechazar H0 cuando es cierta
• El error del tipo 2 es aceptar H0 cuando es falsa
• A la máxima probabilidad de cometer error del tipo uno se le denomina nivel de
significación (𝛼)
• La región crítica está conformada por todos los valores del estadístico que rechazan H0
(zona de rechazo)
• El p – valor es el nivel de significación mínimo al que se rechaza H0. Como regla de
decisión rechazamos H0 si: 𝒑 − 𝒗𝒂𝒍𝒐𝒓 < 𝛼
Considerando los supuestos clásicos y el supuesto 6 [𝑢/𝑋 ~ 𝑁(0, 𝜎 2 𝐼)] entonces:


𝛽~𝑁 𝛽, 𝜎 2 (𝑋 ′ 𝑋)−1
Pruebas de Hipótesis:
1) Prueba de significación individual de un parámetro

𝐻0 ) 𝛽𝑖 = 0

𝐻1 ) 𝛽𝑖 ≠ 0

Bajo H0 cierta y suponiendo normalidad del error el estadístico del contraste es:

𝛽෠𝑖
𝐸= ~ 𝑡𝑁−𝑘−1
෠ 𝛽෠𝑖 )
𝑉(

1− 𝛼/2
La región crítica es: 𝑅𝐶 = 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠/ 𝑒 > 𝑡𝑁−𝑘−1
2) Prueba individual de un parámetro (a dos colas)

𝐻0 ) 𝛽𝑖 = 𝑎

𝐻1 ) 𝛽𝑖 ≠ 𝑎 ∀ 𝑎 ∈ 𝑅

Bajo H0 cierta y suponiendo normalidad del error el estadístico del contraste es:

𝛽෠𝑖 − 𝑎
𝐸= ~ 𝑡𝑁−𝑘−1
෠ 𝛽෠𝑖 )
𝑉(

1− 𝛼/2
La región crítica es: 𝑅𝐶 = 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠/ 𝑒 > 𝑡𝑁−𝑘−1
3) Prueba individual de un parámetro (a cola izquierda)

𝐻0 ) 𝛽𝑖 ≥ 𝑎

𝐻1 ) 𝛽𝑖 < 𝑎 ∀𝑎 ∈ 𝑅

Bajo H0 cierta y suponiendo normalidad del error el estadístico del contraste es:

𝛽෠𝑖 − 𝑎
𝐸= ~ 𝑡𝑁−𝑘−1
෠ 𝛽෠𝑖 )
𝑉(
𝛼
La región crítica es: 𝑅𝐶 = 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠/𝑒 < 𝑡𝑁−𝑘−1
4) Prueba individual de un parámetro (a cola derecha)

𝐻0 ) 𝛽𝑖 ≤ 𝑎

𝐻1 ) 𝛽𝑖 > 𝑎 ∀ 𝑎 ∈ 𝑅

Bajo H0 cierta y suponiendo normalidad del error el estadístico del contraste es:

𝛽෠𝑖 − 𝑎
𝐸= ~ 𝑡𝑁−𝑘−1
෠ 𝛽෠𝑖 )
𝑉(

1−𝛼
La región crítica es: 𝑅𝐶 = 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠/𝑒 > 𝑡𝑁−𝑘−1
5) Prueba de una restricción lineal (un ejemplo particular)

𝐻0 ) 2𝛽1 + 𝛽2 = 𝑎

𝐻1 ) 2𝛽1 + 𝛽2 ≠ 𝑎 ∀ 𝑎 ∈ 𝑅

Bajo H0 y suponiendo normalidad del error cierta el estadístico del contraste es:

2𝛽෠1 + 𝛽෠2 − 𝑎
𝐸= ~ 𝑡𝑁−𝑘−1
෠ 𝛽෠1 + 𝛽෠2 )
𝑉(2

1− 𝛼/2
La región crítica es: 𝑅𝐶 = 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠/ 𝑒 > 𝑡𝑁−𝑘−1

El testeo de una combinación lineal se puede ajustar también a lo propuesto en el numeral 3 y 4


6) Prueba de significación conjunta del modelo

Si estimamos el siguiente modelo:

𝑦𝑖 = 𝛽0 + 𝛽1 𝑥1𝑖 + 𝛽2 𝑥2𝑖 + ⋯ + 𝛽𝑘 𝑥𝑘𝑖 + 𝑢𝑖

𝐻0 ) 𝛽1 = 𝛽2 = 𝛽3 = ⋯ = 𝛽𝑘 = 0

𝐻1 ) 𝐴𝑙𝑔ú𝑛 𝛽𝑖 ≠ 0 ∀𝑖 = 1,2,3, … 𝑘

Se testea la significación de todos los coeficientes menos de la constante.

Bajo H0 y suponiendo normalidad del error se pueden plantear los siguientes


estadísticos:

𝑅 2 /𝑞
𝐸= ~ 𝐹𝑞,(𝑁−𝑘−1)
1 − 𝑅 2 /(𝑁 − 𝑘 − 1)
Otro estadístico alternativo es:

𝑆𝐶𝐸/𝑞
𝐸= ~ 𝐹𝑞,(𝑁−𝑘−1)
𝑆𝐶𝑅/(𝑁 − 𝑘 − 1)
Donde q es el número de restricciones a contrastar
1−𝛼
La región crítica es: 𝑅𝐶 = 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠/𝑒 > 𝐹𝑞,(𝑁−𝑘−1)
Planteo general de una Prueba de Hipótesis

𝐻0 ) 𝑅𝛽 = 𝑟
𝐻1 ) 𝑅𝛽 ≠ 𝑟
o R : es una matriz que se construye con los coeficientes de los 𝛽 en la H0
o r : es un vector que se compone con los números a los que se iguala la H0
Ejemplo:
𝑦𝑖 = 𝛽0 + 𝛽1 𝑥1𝑖 + 𝛽2 𝑥2𝑖 + 𝛽3 𝑥3𝑖 + 𝑢𝑖
𝐻0 ) 𝛽1 = 5 𝑦 2𝛽2 = 𝛽3
𝐻1 ) 𝛽1 ≠ 5 𝑦/𝑜 2𝛽2 ≠ 𝛽3
7) Prueba de hipótesis de cualquier restricción lineal

𝐻0 ) 𝑅𝛽 = 𝑟

𝐻1 ) 𝑅𝛽 ≠ 𝑟

Bajo H0 y suponiendo normalidad del error se pueden plantear los siguientes estadísticos

𝐸 = 𝑅 𝛽෠ − 𝑟 ′ 𝜎ො 2 𝑅 𝑋′𝑋 −1
𝑅′ −1
𝑅 𝛽෠ − 𝑟 /𝑞 ~ 𝐹𝑞,(𝑁−𝑘−1)

𝑆𝐶𝑅𝑅 − 𝑆𝐶𝑅𝑆𝑅 /𝑞
𝐸= ~ 𝐹𝑞,(𝑁−𝑘−1)
𝑆𝐶𝑅𝑆𝑅 /(𝑁 − 𝑘 − 1)
Donde 𝑆𝐶𝑅𝑅 es la suma de cuadrados residuales del modelo restricto y 𝑆𝐶𝑅𝑆𝑅 es la suma de cuadrados
residuales del modelo sin restricciones.
1−𝛼
La región crítica es: 𝑅𝐶 = 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠/𝑒 > 𝐹𝑞,(𝑁−𝑘−1)

En el caso de que estos estadísticos se empleen para testear una sola restricción se cumple que 𝐹 = 𝑡 2
También se puede emplear el estadístico de Wald
2 (1−𝛼)
𝑊 = 𝑅 𝛽෠ − 𝑟 ′ 𝜎ො 2 𝑅 𝑋′𝑋 −1
𝑅′ −1
𝑅 𝛽෠ − 𝑟 ~𝜒𝑞

2 (1−𝛼)
La región crítica es: 𝑅𝐶 = 𝑚𝑢𝑒𝑠𝑡𝑟𝑎𝑠/𝑊 > 𝜒𝑞
Intervalo para 𝜷

𝛼 𝛼
1− 1−
𝛽෠𝑗 − 𝑡 2
𝑁−𝐾−1
𝑉෠ 𝛽෠𝑗 ; 𝛽෠𝑗 + 𝑡 2
𝑁−𝐾−1
𝑉෠ 𝛽෠𝑗

Comentarios: El intervalo de confianza está centrado en 𝛽෠𝑗 . La amplitud del intervalo crece al aumentar la varianza del
estimador, al disminuir el tamaño de la muestra y al disminuir el nivel de significación.

Interpretación: existe un 1 − 𝛼 % de confianza de que el verdadero 𝛽𝑗 pertenece al intervalo.

Utilidad: se puede emplear para hacer pruebas de hipótesis sobre el parámetro. Por ejemplo, para una prueba de significación,
si cero pertenece al intervalo, entonces no rechazo H0 , pero si el cero no pertenece al intervalo, entonces rechazo H0.
Predicción de Y para una observación:
Partimos de un modelo estimado de series de tiempo:
𝑦𝑖 = 𝑋𝛽መ + 𝑢ො 𝑖 ∀𝑖 = 1,2, … , 𝑁
Queremos predecir el valor de “y” para la observación h
Para desarrollar la predicción es necesario suponer que el modelo estimado con datos desde la observación 1
a N es válido para para la observación h (estabilidad del modelo, los 𝛽 se mantienen constantes).
Los datos de la observación h son 𝐶 ′ = 1 𝑋1ℎ 𝑋2ℎ … 𝑋𝑘ℎ
entonces:
𝑦ොℎ = 𝐶′𝛽መ

መ = 𝐶′𝑉[𝛽]𝐶
𝑉[𝑦ොℎ ] = 𝑉[𝐶′𝛽] መ

Considerando que 𝑉 𝛽መ = 𝜎 2 (𝑋 ′ 𝑋)−1 entonces 𝑉[𝑦ොℎ ] = 𝜎 2 𝐶′(𝑋 ′ 𝑋)−1 𝐶


Error de Predicción: es la diferencia entre el valor observado de “y” y el valor predicho para la observación h.

𝑒ℎ = 𝑦ℎ −𝑦ොℎ

Donde 𝑒ℎ es el error cometido en la predicción de la observación h.

Sustituyendo

𝑒ℎ = 𝐶′𝛽 + 𝑢ℎ − 𝐶′𝛽෠ = 𝐶′ 𝛽 − 𝛽෠ + 𝑢ℎ = −𝐶′ 𝛽෠ − 𝛽 + 𝑢ℎ

Por consiguiente el error de predicción incluye al error del modelo y al error de estimación de 𝛽.

Propiedades:

a) La esperanza del error de predicción es cero: 𝐸 𝑒ℎ = 0


b) La varianza del error de predicción es: 𝑉(𝑒ℎ ) = 𝜎 2 1 + 𝐶′(𝑋 ′ 𝑋)−1 𝐶

c) Bajo el supuesto de normalidad de las perturbaciones el error de predicción tiene distribución Normal:

𝑒ℎ ~𝑁 0, 𝜎 2 1 + 𝐶′(𝑋 ′ 𝑋)−1 𝐶

a) 𝑦ොℎ es insesgada 𝐸 𝑦ොℎ = 𝐸 𝐶′𝛽෠ = 𝐶´𝛽 = 𝑋𝛽


b) La predicción es óptima, es decir que 𝑦ොℎ es de mínima varianza.
Intervalo de confianza para la predicción:

Dado que:
𝑒ℎ
~𝑡𝑁−𝑘−1
෠ ℎ)
𝑉(𝑒
Entonces:

1−𝛼/2 𝑒ℎ 1−𝛼/2
𝑃 −𝑡𝑁−𝑘−1 ≤ ≤ 𝑡𝑁−𝑘−1 = 1 − 𝛼
෠ ℎ)
𝑉(𝑒

1−𝛼/2 𝑦ℎ − 𝐶′𝛽෠ 1−𝛼/2


𝑃 −𝑡𝑁−𝑘−1 ≤ ≤ 𝑡𝑁−𝑘−1 = 1 − 𝛼
𝜎ො 2 1 + 𝐶′(𝑋 ′ 𝑋)−1 𝐶
Entonces
1−𝛼/2 1−𝛼/2
𝑃 𝐶′𝛽෠ − 𝑡𝑁−𝑘−1 𝜎ො 2 1 + 𝐶′(𝑋 ′ 𝑋)−1 𝐶 ≤ 𝑦ℎ ≤ 𝐶′𝛽෠ + 𝑡𝑁−𝑘−1 𝜎ො 2 1 + 𝐶′(𝑋 ′ 𝑋)−1 𝐶 =1−𝛼

En definitiva el intervalo es:

1−𝛼/2 1−𝛼/2
𝐶′𝛽෠ − 𝑡𝑁−𝑘−1 𝜎ො 2 1 + 𝐶′(𝑋 ′ 𝑋)−1 𝐶 ; 𝐶′𝛽෠ + 𝑡𝑁−𝑘−1 𝜎ො 2 1 + 𝐶′(𝑋 ′ 𝑋)−1 𝐶
Predicción para la media

La predicción puntal es la misma para 𝑦ℎ que para el valor esperado de 𝑦ℎ .

Sin embargo el error de predicción solo hace referencia al error en la estimación de 𝛽 (ya no incluye al término de
perturbación):

𝑒ǁ ℎ = 𝐸(𝑦ℎ ) − 𝐸(𝑦ොℎ )

Entonces,

𝑒ǁℎ = 𝐶′𝛽 − 𝐶′𝛽෠ = 𝐶′ 𝛽 − 𝛽෠

La varianza del error de predicción será:

𝑉(𝑒ǁ ℎ ) = 𝜎 2 𝐶′(𝑋 ′ 𝑋)−1 𝐶

Y el intervalo de confianza:
1−𝛼/2 1−𝛼/2
𝐶′𝛽෠ − 𝑡𝑁−𝑘−1 𝜎ො 2 𝐶′(𝑋 ′ 𝑋)−1 𝐶 ; 𝐶′𝛽෠ + 𝑡𝑁−𝑘−1 𝜎ො 2 𝐶′(𝑋 ′ 𝑋)−1 𝐶

También podría gustarte