Está en la página 1de 71

Hipótesis, Prueba de hipótesis

Definición.
Hipótesis es una afirmación acerca de los valores de un parámetro.
Sea θ un parámetro de nuestro modelo estadístico, Θ el conjunto de
valores posibles del parámetro (o espacio paramétrico).
Una hipótesis es una afirmación de la forma θ ∈ Θ0 , donde Θ0 ⊂ Θ.
Por ejemplo, las siguientes son hipótesis para el modelo clásico de
regresión lineal:
β1 = 0
β1 + β2 < 0
1 < σ2 ≤ 2
β1 > 0 y σ 2 = 1

25 de noviembre de 2020 1 / 17
Hipótesis, Prueba de hipótesis

Definición.
Hipótesis es una afirmación acerca de los valores de un parámetro.
Sea θ un parámetro de nuestro modelo estadístico, Θ el conjunto de
valores posibles del parámetro (o espacio paramétrico).
Una hipótesis es una afirmación de la forma θ ∈ Θ0 , donde Θ0 ⊂ Θ.
Por ejemplo, las siguientes son hipótesis para el modelo clásico de
regresión lineal:
β1 = 0
β1 + β2 < 0
1 < σ2 ≤ 2
β1 > 0 y σ 2 = 1

25 de noviembre de 2020 1 / 17
Hipótesis, Prueba de hipótesis

Definición.
Hipótesis es una afirmación acerca de los valores de un parámetro.
Sea θ un parámetro de nuestro modelo estadístico, Θ el conjunto de
valores posibles del parámetro (o espacio paramétrico).
Una hipótesis es una afirmación de la forma θ ∈ Θ0 , donde Θ0 ⊂ Θ.
Por ejemplo, las siguientes son hipótesis para el modelo clásico de
regresión lineal:
β1 = 0
β1 + β2 < 0
1 < σ2 ≤ 2
β1 > 0 y σ 2 = 1

25 de noviembre de 2020 1 / 17
Hipótesis, Prueba de hipótesis

Definición.
Hipótesis es una afirmación acerca de los valores de un parámetro.
Sea θ un parámetro de nuestro modelo estadístico, Θ el conjunto de
valores posibles del parámetro (o espacio paramétrico).
Una hipótesis es una afirmación de la forma θ ∈ Θ0 , donde Θ0 ⊂ Θ.
Por ejemplo, las siguientes son hipótesis para el modelo clásico de
regresión lineal:
β1 = 0
β1 + β2 < 0
1 < σ2 ≤ 2
β1 > 0 y σ 2 = 1

25 de noviembre de 2020 1 / 17
Hipótesis, Prueba de hipótesis
Una prueba de hipótesis es en general una variable aleatoria (o estadístico)
T con la siguiente propiedad:

T = 1 si θ ∈ Θ0

y T = 0 en caso contrario (es decir, si θ 6∈ Θ0 ).


Si la distribución de la prueba T se conoce cuando θ ∈ Θ0 denominamos a
Θ0 como hipótesis nula y se denota por H0 . Entonces los siguientes casos
pueden ocurrir:

θ ∈ Θ0 θ 6∈ Θ0
T =1 X Error tipo II
T = 0 Error tipo I X

La mayoría de las pruebas de hipótesis que usamos en econometría


controlan por tamaño o nivel de significancia, es decir, por la
probabilidad de cometer Error tipo I (rechazar H0 cuando es verdad).
25 de noviembre de 2020 2 / 17
Hipótesis, Prueba de hipótesis
Una prueba de hipótesis es en general una variable aleatoria (o estadístico)
T con la siguiente propiedad:

T = 1 si θ ∈ Θ0

y T = 0 en caso contrario (es decir, si θ 6∈ Θ0 ).


Si la distribución de la prueba T se conoce cuando θ ∈ Θ0 denominamos a
Θ0 como hipótesis nula y se denota por H0 . Entonces los siguientes casos
pueden ocurrir:

θ ∈ Θ0 θ 6∈ Θ0
T =1 X Error tipo II
T = 0 Error tipo I X

La mayoría de las pruebas de hipótesis que usamos en econometría


controlan por tamaño o nivel de significancia, es decir, por la
probabilidad de cometer Error tipo I (rechazar H0 cuando es verdad).
25 de noviembre de 2020 2 / 17
Hipótesis, Prueba de hipótesis
Una prueba de hipótesis es en general una variable aleatoria (o estadístico)
T con la siguiente propiedad:

T = 1 si θ ∈ Θ0

y T = 0 en caso contrario (es decir, si θ 6∈ Θ0 ).


Si la distribución de la prueba T se conoce cuando θ ∈ Θ0 denominamos a
Θ0 como hipótesis nula y se denota por H0 . Entonces los siguientes casos
pueden ocurrir:

θ ∈ Θ0 θ 6∈ Θ0
T =1 X Error tipo II
T = 0 Error tipo I X

La mayoría de las pruebas de hipótesis que usamos en econometría


controlan por tamaño o nivel de significancia, es decir, por la
probabilidad de cometer Error tipo I (rechazar H0 cuando es verdad).
25 de noviembre de 2020 2 / 17
Hipótesis, Prueba de hipótesis
Una prueba de hipótesis es en general una variable aleatoria (o estadístico)
T con la siguiente propiedad:

T = 1 si θ ∈ Θ0

y T = 0 en caso contrario (es decir, si θ 6∈ Θ0 ).


Si la distribución de la prueba T se conoce cuando θ ∈ Θ0 denominamos a
Θ0 como hipótesis nula y se denota por H0 . Entonces los siguientes casos
pueden ocurrir:

θ ∈ Θ0 θ 6∈ Θ0
T =1 X Error tipo II
T = 0 Error tipo I X

La mayoría de las pruebas de hipótesis que usamos en econometría


controlan por tamaño o nivel de significancia, es decir, por la
probabilidad de cometer Error tipo I (rechazar H0 cuando es verdad).
25 de noviembre de 2020 2 / 17
Potencia de una prueba de hipótesis
Recordemos que

θ ∈ Θ0 θ 6∈ Θ0
T =1 X Error tipo II
T = 0 Error tipo I X

Para θ 6∈ Θ0 se define potencia de una prueba de hipótesis como sigue:

1 − Prob(Error tipo II).

Es importante notar que el nivel de significancia y la potencia son


cantidades que se calculan con diferentes funciones de probabilidad y por
lo tanto su suma no es de utilidad (y no es necesariamente igual a 1).
No obstante, se sabe que existe una relación directa entre ellas, aunque
desconocida para la mayoría de las aplicaciones.
De igual forma, en muchas aplicaciones la distribución de un estadístico
cuando θ 6∈ Θ0 es desconocida y eso complica los cálculos de potencia.
25 de noviembre de 2020 3 / 17
Potencia de una prueba de hipótesis
Recordemos que

θ ∈ Θ0 θ 6∈ Θ0
T =1 X Error tipo II
T = 0 Error tipo I X

Para θ 6∈ Θ0 se define potencia de una prueba de hipótesis como sigue:

1 − Prob(Error tipo II).

Es importante notar que el nivel de significancia y la potencia son


cantidades que se calculan con diferentes funciones de probabilidad y por
lo tanto su suma no es de utilidad (y no es necesariamente igual a 1).
No obstante, se sabe que existe una relación directa entre ellas, aunque
desconocida para la mayoría de las aplicaciones.
De igual forma, en muchas aplicaciones la distribución de un estadístico
cuando θ 6∈ Θ0 es desconocida y eso complica los cálculos de potencia.
25 de noviembre de 2020 3 / 17
Potencia de una prueba de hipótesis
Recordemos que

θ ∈ Θ0 θ 6∈ Θ0
T =1 X Error tipo II
T = 0 Error tipo I X

Para θ 6∈ Θ0 se define potencia de una prueba de hipótesis como sigue:

1 − Prob(Error tipo II).

Es importante notar que el nivel de significancia y la potencia son


cantidades que se calculan con diferentes funciones de probabilidad y por
lo tanto su suma no es de utilidad (y no es necesariamente igual a 1).
No obstante, se sabe que existe una relación directa entre ellas, aunque
desconocida para la mayoría de las aplicaciones.
De igual forma, en muchas aplicaciones la distribución de un estadístico
cuando θ 6∈ Θ0 es desconocida y eso complica los cálculos de potencia.
25 de noviembre de 2020 3 / 17
Potencia de una prueba de hipótesis
Recordemos que

θ ∈ Θ0 θ 6∈ Θ0
T =1 X Error tipo II
T = 0 Error tipo I X

Para θ 6∈ Θ0 se define potencia de una prueba de hipótesis como sigue:

1 − Prob(Error tipo II).

Es importante notar que el nivel de significancia y la potencia son


cantidades que se calculan con diferentes funciones de probabilidad y por
lo tanto su suma no es de utilidad (y no es necesariamente igual a 1).
No obstante, se sabe que existe una relación directa entre ellas, aunque
desconocida para la mayoría de las aplicaciones.
De igual forma, en muchas aplicaciones la distribución de un estadístico
cuando θ 6∈ Θ0 es desconocida y eso complica los cálculos de potencia.
25 de noviembre de 2020 3 / 17
Potencia de una prueba de hipótesis
Recordemos que

θ ∈ Θ0 θ 6∈ Θ0
T =1 X Error tipo II
T = 0 Error tipo I X

Para θ 6∈ Θ0 se define potencia de una prueba de hipótesis como sigue:

1 − Prob(Error tipo II).

Es importante notar que el nivel de significancia y la potencia son


cantidades que se calculan con diferentes funciones de probabilidad y por
lo tanto su suma no es de utilidad (y no es necesariamente igual a 1).
No obstante, se sabe que existe una relación directa entre ellas, aunque
desconocida para la mayoría de las aplicaciones.
De igual forma, en muchas aplicaciones la distribución de un estadístico
cuando θ 6∈ Θ0 es desconocida y eso complica los cálculos de potencia.
25 de noviembre de 2020 3 / 17
Potencia de una prueba de hipótesis
Recordemos que

θ ∈ Θ0 θ 6∈ Θ0
T =1 X Error tipo II
T = 0 Error tipo I X

Para θ 6∈ Θ0 se define potencia de una prueba de hipótesis como sigue:

1 − Prob(Error tipo II).

Es importante notar que el nivel de significancia y la potencia son


cantidades que se calculan con diferentes funciones de probabilidad y por
lo tanto su suma no es de utilidad (y no es necesariamente igual a 1).
No obstante, se sabe que existe una relación directa entre ellas, aunque
desconocida para la mayoría de las aplicaciones.
De igual forma, en muchas aplicaciones la distribución de un estadístico
cuando θ 6∈ Θ0 es desconocida y eso complica los cálculos de potencia.
25 de noviembre de 2020 3 / 17
Pruebas de hipótesis para un coeficiente βk

En el modelo clásico de regresión lineal se tiene que:

βkY |x ∼ N(βk , σ 2 Skk )

donde βk es el k-ésimo elemento de β y Skk el k-ésimo elemento de la


diagonal de (x 0 x )−1 . Luego,

β Y − βk
Zk∗ = pk ∼ N(0, 1)
σ 2 Skk

condicionalmente en x , donde Zk∗ depende de parámetros desconocidos.


La distribución de Zk∗ no depende de esos parámetros, i.e. es un pivote.
Los pivotes se usan para construir pruebas de hipótesis de nivel de
significancia α (es decir, la probabilidad de cometer error Tipo I es α ).

25 de noviembre de 2020 4 / 17
Pruebas de hipótesis para un coeficiente βk

En el modelo clásico de regresión lineal se tiene que:

βkY |x ∼ N(βk , σ 2 Skk )

donde βk es el k-ésimo elemento de β y Skk el k-ésimo elemento de la


diagonal de (x 0 x )−1 . Luego,

β Y − βk
Zk∗ = pk ∼ N(0, 1)
σ 2 Skk

condicionalmente en x , donde Zk∗ depende de parámetros desconocidos.


La distribución de Zk∗ no depende de esos parámetros, i.e. es un pivote.
Los pivotes se usan para construir pruebas de hipótesis de nivel de
significancia α (es decir, la probabilidad de cometer error Tipo I es α ).

25 de noviembre de 2020 4 / 17
Pruebas de hipótesis para un coeficiente βk

En el modelo clásico de regresión lineal se tiene que:

βkY |x ∼ N(βk , σ 2 Skk )

donde βk es el k-ésimo elemento de β y Skk el k-ésimo elemento de la


diagonal de (x 0 x )−1 . Luego,

β Y − βk
Zk∗ = pk ∼ N(0, 1)
σ 2 Skk

condicionalmente en x , donde Zk∗ depende de parámetros desconocidos.


La distribución de Zk∗ no depende de esos parámetros, i.e. es un pivote.
Los pivotes se usan para construir pruebas de hipótesis de nivel de
significancia α (es decir, la probabilidad de cometer error Tipo I es α ).

25 de noviembre de 2020 4 / 17
Pruebas de hipótesis para un coeficiente βk

En el modelo clásico de regresión lineal se tiene que:

βkY |x ∼ N(βk , σ 2 Skk )

donde βk es el k-ésimo elemento de β y Skk el k-ésimo elemento de la


diagonal de (x 0 x )−1 . Luego,

β Y − βk
Zk∗ = pk ∼ N(0, 1)
σ 2 Skk

condicionalmente en x , donde Zk∗ depende de parámetros desconocidos.


La distribución de Zk∗ no depende de esos parámetros, i.e. es un pivote.
Los pivotes se usan para construir pruebas de hipótesis de nivel de
significancia α (es decir, la probabilidad de cometer error Tipo I es α ).

25 de noviembre de 2020 4 / 17
Pruebas de hipótesis para un coeficiente βk

En el modelo clásico de regresión lineal se tiene que:

βkY |x ∼ N(βk , σ 2 Skk )

donde βk es el k-ésimo elemento de β y Skk el k-ésimo elemento de la


diagonal de (x 0 x )−1 . Luego,

β Y − βk
Zk∗ = pk ∼ N(0, 1)
σ 2 Skk

condicionalmente en x , donde Zk∗ depende de parámetros desconocidos.


La distribución de Zk∗ no depende de esos parámetros, i.e. es un pivote.
Los pivotes se usan para construir pruebas de hipótesis de nivel de
significancia α (es decir, la probabilidad de cometer error Tipo I es α ).

25 de noviembre de 2020 4 / 17
Pruebas de hipótesis para un coeficiente βk
Suponga por ahora que σ 2 es conocido y que H0 : βk = βk0 es verdad.
Entonces
β Y − βk0
Zk = pk ∼ N(0, 1).
σ 2 Skk

Usaremos la variable Zk para obtener una prueba para la hipótesis nula


H0 : βk = βk0 versus la hipótesis alternativa Ha : βk 6= βk0 como sigue:
Se acepta la hipótesis nula si

βˆk − βk0
−zα/2 < p < zα/2
σ 2 Skk

donde βˆk es una estimación insesgada de βk y zα/2 es el cuantil de la


distribución normal estándar que resuelve
α
P(Z > zα/2 ) =
2
con Z ∼ N(0, 1).
25 de noviembre de 2020 5 / 17
Pruebas de hipótesis para un coeficiente βk
Suponga por ahora que σ 2 es conocido y que H0 : βk = βk0 es verdad.
Entonces
β Y − βk0
Zk = pk ∼ N(0, 1).
σ 2 Skk

Usaremos la variable Zk para obtener una prueba para la hipótesis nula


H0 : βk = βk0 versus la hipótesis alternativa Ha : βk 6= βk0 como sigue:
Se acepta la hipótesis nula si

βˆk − βk0
−zα/2 < p < zα/2
σ 2 Skk

donde βˆk es una estimación insesgada de βk y zα/2 es el cuantil de la


distribución normal estándar que resuelve
α
P(Z > zα/2 ) =
2
con Z ∼ N(0, 1).
25 de noviembre de 2020 5 / 17
Pruebas de hipótesis para un coeficiente βk
Suponga por ahora que σ 2 es conocido y que H0 : βk = βk0 es verdad.
Entonces
β Y − βk0
Zk = pk ∼ N(0, 1).
σ 2 Skk

Usaremos la variable Zk para obtener una prueba para la hipótesis nula


H0 : βk = βk0 versus la hipótesis alternativa Ha : βk 6= βk0 como sigue:
Se acepta la hipótesis nula si

βˆk − βk0
−zα/2 < p < zα/2
σ 2 Skk

donde βˆk es una estimación insesgada de βk y zα/2 es el cuantil de la


distribución normal estándar que resuelve
α
P(Z > zα/2 ) =
2
con Z ∼ N(0, 1).
25 de noviembre de 2020 5 / 17
Pruebas de hipótesis para un coeficiente βk
Suponga por ahora que σ 2 es conocido y que H0 : βk = βk0 es verdad.
Entonces
β Y − βk0
Zk = pk ∼ N(0, 1).
σ 2 Skk

Usaremos la variable Zk para obtener una prueba para la hipótesis nula


H0 : βk = βk0 versus la hipótesis alternativa Ha : βk 6= βk0 como sigue:
Se acepta la hipótesis nula si

βˆk − βk0
−zα/2 < p < zα/2
σ 2 Skk

donde βˆk es una estimación insesgada de βk y zα/2 es el cuantil de la


distribución normal estándar que resuelve
α
P(Z > zα/2 ) =
2
con Z ∼ N(0, 1).
25 de noviembre de 2020 5 / 17
Pruebas de hipótesis para un coeficiente βk
Por ejemplo, si α = 5 % entonces zα/2 = 1,96 y la variable aleatoria Zk
arroja valores en el intervalo [−1,96, 1,96] con probabilidad 1 − α = 95 %.

βˆ −β 0
Dada una estimación βˆk , la cantidad √k 2 k es una realización de Zk que
σ Skk
es consistente con la hipótesis βk = βk0 si su valor está en [−1,96, 1,96].
En caso contrario rechazamos la hipótesis nula, pero bajo el supuesto de
que H0 es verdad eso implica cometer error del tipo I. Con tal regla de
decisión, ello ocurre con una probabilidad exactamente igual a α = 5 %.
25 de noviembre de 2020 6 / 17
Pruebas de hipótesis para un coeficiente βk
Por ejemplo, si α = 5 % entonces zα/2 = 1,96 y la variable aleatoria Zk
arroja valores en el intervalo [−1,96, 1,96] con probabilidad 1 − α = 95 %.

βˆ −β 0
Dada una estimación βˆk , la cantidad √k 2 k es una realización de Zk que
σ Skk
es consistente con la hipótesis βk = βk0 si su valor está en [−1,96, 1,96].
En caso contrario rechazamos la hipótesis nula, pero bajo el supuesto de
que H0 es verdad eso implica cometer error del tipo I. Con tal regla de
decisión, ello ocurre con una probabilidad exactamente igual a α = 5 %.
25 de noviembre de 2020 6 / 17
Pruebas de hipótesis para un coeficiente βk
Por ejemplo, si α = 5 % entonces zα/2 = 1,96 y la variable aleatoria Zk
arroja valores en el intervalo [−1,96, 1,96] con probabilidad 1 − α = 95 %.

βˆ −β 0
Dada una estimación βˆk , la cantidad √k 2 k es una realización de Zk que
σ Skk
es consistente con la hipótesis βk = βk0 si su valor está en [−1,96, 1,96].
En caso contrario rechazamos la hipótesis nula, pero bajo el supuesto de
que H0 es verdad eso implica cometer error del tipo I. Con tal regla de
decisión, ello ocurre con una probabilidad exactamente igual a α = 5 %.
25 de noviembre de 2020 6 / 17
Pruebas de hipótesis para un coeficiente βk
Por ejemplo, si α = 5 % entonces zα/2 = 1,96 y la variable aleatoria Zk
arroja valores en el intervalo [−1,96, 1,96] con probabilidad 1 − α = 95 %.

βˆ −β 0
Dada una estimación βˆk , la cantidad √k 2 k es una realización de Zk que
σ Skk
es consistente con la hipótesis βk = βk0 si su valor está en [−1,96, 1,96].
En caso contrario rechazamos la hipótesis nula, pero bajo el supuesto de
que H0 es verdad eso implica cometer error del tipo I. Con tal regla de
decisión, ello ocurre con una probabilidad exactamente igual a α = 5 %.
25 de noviembre de 2020 6 / 17
Pruebas de hipótesis para un coeficiente βk
Una prueba de hipótesis para contrastar H0 : βk = βk0 versus Ha : βk > βk0
sería la siguiente (recuerde, por ahora σ 2 es conocido): Se acepta la
hipótesis nula si
βˆ − βk0
pk < zα
σ 2 Skk
donde P(Z > zα ) = α.
Análogamente, una prueba de hipótesis para contrastar H0 : βk = βk0
versus Ha : βk < βk0 sería la siguiente: Se acepta la hipótesis nula si

βˆ − βk0
pk > −zα .
σ 2 Skk

En todos esos casos el nivel de significancia es exactamente igual a α,


valor que podemos definir a priori en nuestro análisis.

25 de noviembre de 2020 7 / 17
Pruebas de hipótesis para un coeficiente βk
Una prueba de hipótesis para contrastar H0 : βk = βk0 versus Ha : βk > βk0
sería la siguiente (recuerde, por ahora σ 2 es conocido): Se acepta la
hipótesis nula si
βˆ − βk0
pk < zα
σ 2 Skk
donde P(Z > zα ) = α.
Análogamente, una prueba de hipótesis para contrastar H0 : βk = βk0
versus Ha : βk < βk0 sería la siguiente: Se acepta la hipótesis nula si

βˆ − βk0
pk > −zα .
σ 2 Skk

En todos esos casos el nivel de significancia es exactamente igual a α,


valor que podemos definir a priori en nuestro análisis.

25 de noviembre de 2020 7 / 17
Pruebas de hipótesis para un coeficiente βk
Una prueba de hipótesis para contrastar H0 : βk = βk0 versus Ha : βk > βk0
sería la siguiente (recuerde, por ahora σ 2 es conocido): Se acepta la
hipótesis nula si
βˆ − βk0
pk < zα
σ 2 Skk
donde P(Z > zα ) = α.
Análogamente, una prueba de hipótesis para contrastar H0 : βk = βk0
versus Ha : βk < βk0 sería la siguiente: Se acepta la hipótesis nula si

βˆ − βk0
pk > −zα .
σ 2 Skk

En todos esos casos el nivel de significancia es exactamente igual a α,


valor que podemos definir a priori en nuestro análisis.

25 de noviembre de 2020 7 / 17
Pruebas de hipótesis para un coeficiente βk
Si el parámetro σ 2 es desconocido, podemos usar el estimador insesgado

kûk2
S2 =
n−m
donde m denota la dimensión del vector β . Si H0 : βk = βk0 es verdad

βkY − βk0
p ∼ tn−m
S 2 Skk
t-student con n − m grados de libertad, así el estadístico es un pivote.
Para contrastar H0 versus Ha : βk 6= βk0 en una prueba de nivel de
significancia α, usamos la siguiente regla: Se acepta la hipótesis nula si

βˆk − βk0
−tn−m,α/2 < p < tn−m,α/2
s 2 Skk

donde P(T > tn−m,α/2 ) = α2 , T ∼ tn−m y s 2 es una realización de S 2 .


25 de noviembre de 2020 8 / 17
Pruebas de hipótesis para un coeficiente βk
Si el parámetro σ 2 es desconocido, podemos usar el estimador insesgado

kûk2
S2 =
n−m
donde m denota la dimensión del vector β . Si H0 : βk = βk0 es verdad

βkY − βk0
p ∼ tn−m
S 2 Skk
t-student con n − m grados de libertad, así el estadístico es un pivote.
Para contrastar H0 versus Ha : βk 6= βk0 en una prueba de nivel de
significancia α, usamos la siguiente regla: Se acepta la hipótesis nula si

βˆk − βk0
−tn−m,α/2 < p < tn−m,α/2
s 2 Skk

donde P(T > tn−m,α/2 ) = α2 , T ∼ tn−m y s 2 es una realización de S 2 .


25 de noviembre de 2020 8 / 17
Pruebas de hipótesis para un coeficiente βk
Si el parámetro σ 2 es desconocido, podemos usar el estimador insesgado

kûk2
S2 =
n−m
donde m denota la dimensión del vector β . Si H0 : βk = βk0 es verdad

βkY − βk0
p ∼ tn−m
S 2 Skk
t-student con n − m grados de libertad, así el estadístico es un pivote.
Para contrastar H0 versus Ha : βk 6= βk0 en una prueba de nivel de
significancia α, usamos la siguiente regla: Se acepta la hipótesis nula si

βˆk − βk0
−tn−m,α/2 < p < tn−m,α/2
s 2 Skk

donde P(T > tn−m,α/2 ) = α2 , T ∼ tn−m y s 2 es una realización de S 2 .


25 de noviembre de 2020 8 / 17
Pruebas de hipótesis para un coeficiente βk
Si el parámetro σ 2 es desconocido, podemos usar el estimador insesgado

kûk2
S2 =
n−m
donde m denota la dimensión del vector β . Si H0 : βk = βk0 es verdad

βkY − βk0
p ∼ tn−m
S 2 Skk
t-student con n − m grados de libertad, así el estadístico es un pivote.
Para contrastar H0 versus Ha : βk 6= βk0 en una prueba de nivel de
significancia α, usamos la siguiente regla: Se acepta la hipótesis nula si

βˆk − βk0
−tn−m,α/2 < p < tn−m,α/2
s 2 Skk

donde P(T > tn−m,α/2 ) = α2 , T ∼ tn−m y s 2 es una realización de S 2 .


25 de noviembre de 2020 8 / 17
Pruebas de hipótesis para varios coeficientes βk

En el modelo clásico de regresión lineal se tiene que

β Y |x ∼ N(β , σ 2 (x 0 x )−1 ).

Sea c ∈ Rm y observe que

β Y ’c|x ∼ N(β ’c, σ 2 c’(x 0 x )−1 c).

Note que β Y ’c es una variable aleatoria. Por ejemplo si c = (c1 , c2 , ..., cm )0


entonces
β Y ’c = c1 β1Y + c2 β2Y + ... + ck βkY .
Note además que las propiedades de βkY se obtienen si ck = 1 y cj = 0
para 1 ≤ j, k ≤ m y j 6= k.

25 de noviembre de 2020 9 / 17
Pruebas de hipótesis para varios coeficientes βk

En el modelo clásico de regresión lineal se tiene que

β Y |x ∼ N(β , σ 2 (x 0 x )−1 ).

Sea c ∈ Rm y observe que

β Y ’c|x ∼ N(β ’c, σ 2 c’(x 0 x )−1 c).

Note que β Y ’c es una variable aleatoria. Por ejemplo si c = (c1 , c2 , ..., cm )0


entonces
β Y ’c = c1 β1Y + c2 β2Y + ... + ck βkY .
Note además que las propiedades de βkY se obtienen si ck = 1 y cj = 0
para 1 ≤ j, k ≤ m y j 6= k.

25 de noviembre de 2020 9 / 17
Pruebas de hipótesis para varios coeficientes βk

En el modelo clásico de regresión lineal se tiene que

β Y |x ∼ N(β , σ 2 (x 0 x )−1 ).

Sea c ∈ Rm y observe que

β Y ’c|x ∼ N(β ’c, σ 2 c’(x 0 x )−1 c).

Note que β Y ’c es una variable aleatoria. Por ejemplo si c = (c1 , c2 , ..., cm )0


entonces
β Y ’c = c1 β1Y + c2 β2Y + ... + ck βkY .
Note además que las propiedades de βkY se obtienen si ck = 1 y cj = 0
para 1 ≤ j, k ≤ m y j 6= k.

25 de noviembre de 2020 9 / 17
Pruebas de hipótesis para varios coeficientes βk

En el modelo clásico de regresión lineal se tiene que

β Y |x ∼ N(β , σ 2 (x 0 x )−1 ).

Sea c ∈ Rm y observe que

β Y ’c|x ∼ N(β ’c, σ 2 c’(x 0 x )−1 c).

Note que β Y ’c es una variable aleatoria. Por ejemplo si c = (c1 , c2 , ..., cm )0


entonces
β Y ’c = c1 β1Y + c2 β2Y + ... + ck βkY .
Note además que las propiedades de βkY se obtienen si ck = 1 y cj = 0
para 1 ≤ j, k ≤ m y j 6= k.

25 de noviembre de 2020 9 / 17
Pruebas de hipótesis para varios coeficientes βk

En el modelo clásico de regresión lineal se tiene que

β Y |x ∼ N(β , σ 2 (x 0 x )−1 ).

Sea c ∈ Rm y observe que

β Y ’c|x ∼ N(β ’c, σ 2 c’(x 0 x )−1 c).

Note que β Y ’c es una variable aleatoria. Por ejemplo si c = (c1 , c2 , ..., cm )0


entonces
β Y ’c = c1 β1Y + c2 β2Y + ... + ck βkY .
Note además que las propiedades de βkY se obtienen si ck = 1 y cj = 0
para 1 ≤ j, k ≤ m y j 6= k.

25 de noviembre de 2020 9 / 17
Pruebas de hipótesis para varios coeficientes βk

En el modelo clásico de regresión lineal se tiene que

β Y |x ∼ N(β , σ 2 (x 0 x )−1 ).

Sea c ∈ Rm y observe que

β Y ’c|x ∼ N(β ’c, σ 2 c’(x 0 x )−1 c).

Note que β Y ’c es una variable aleatoria. Por ejemplo si c = (c1 , c2 , ..., cm )0


entonces
β Y ’c = c1 β1Y + c2 β2Y + ... + ck βkY .
Note además que las propiedades de βkY se obtienen si ck = 1 y cj = 0
para 1 ≤ j, k ≤ m y j 6= k.

25 de noviembre de 2020 9 / 17
Pruebas de hipótesis para varios coeficientes βk

Considere la hipótesis nula H0 : β 0 c = d (d ∈ R) versus Ha : β 0 c 6= d.


Una prueba de nivel de significancia α se obtiene con el siguiente pivote:

β Y ’c − d
p ∼ tn−m .
S 2 c’(x 0 x )−1 c

Así, se acepta la hipótesis nula si

βˆ ’c − d
−tn−m,α/2 < p < tn−m,α/2
s 2 c’(x 0 x )−1 c

donde βˆ y s 2 son estimaciones insesgadas de β y σ 2 respectivamente.

25 de noviembre de 2020 10 / 17
Pruebas de hipótesis para varios coeficientes βk

Considere la hipótesis nula H0 : β 0 c = d (d ∈ R) versus Ha : β 0 c 6= d.


Una prueba de nivel de significancia α se obtiene con el siguiente pivote:

β Y ’c − d
p ∼ tn−m .
S 2 c’(x 0 x )−1 c

Así, se acepta la hipótesis nula si

βˆ ’c − d
−tn−m,α/2 < p < tn−m,α/2
s 2 c’(x 0 x )−1 c

donde βˆ y s 2 son estimaciones insesgadas de β y σ 2 respectivamente.

25 de noviembre de 2020 10 / 17
Pruebas de hipótesis para varios coeficientes βk

Considere la hipótesis nula H0 : β 0 c = d (d ∈ R) versus Ha : β 0 c 6= d.


Una prueba de nivel de significancia α se obtiene con el siguiente pivote:

β Y ’c − d
p ∼ tn−m .
S 2 c’(x 0 x )−1 c

Así, se acepta la hipótesis nula si

βˆ ’c − d
−tn−m,α/2 < p < tn−m,α/2
s 2 c’(x 0 x )−1 c

donde βˆ y s 2 son estimaciones insesgadas de β y σ 2 respectivamente.

25 de noviembre de 2020 10 / 17
Pruebas de hipótesis para σ 2
Consideremos el estimador para σ 2

kûk2
S2 = ,
n−m

donde û = Y − x β Y .
Bajo los supuestos del modelo clásico de regresión lineal,

(n − m)S 2 kûk2 2
= 2 ∼ χn−m .
σ2 σ

Suponga que la hipótesis H0 : σ 2 = σ02 es verdad. Entonces, se tiene que


una prueba de nivel de significancia α acepta H0 versus Ha : σ 2 6= σ02 si

2 ky − x βˆ k2 2
χn−m, α ≤ ≤ χn−m,1− α.
2 σ02 2

25 de noviembre de 2020 11 / 17
Pruebas de hipótesis para σ 2
Consideremos el estimador para σ 2

kûk2
S2 = ,
n−m

donde û = Y − x β Y .
Bajo los supuestos del modelo clásico de regresión lineal,

(n − m)S 2 kûk2 2
= 2 ∼ χn−m .
σ2 σ

Suponga que la hipótesis H0 : σ 2 = σ02 es verdad. Entonces, se tiene que


una prueba de nivel de significancia α acepta H0 versus Ha : σ 2 6= σ02 si

2 ky − x βˆ k2 2
χn−m, α ≤ ≤ χn−m,1− α.
2 σ02 2

25 de noviembre de 2020 11 / 17
Pruebas de hipótesis para σ 2
Consideremos el estimador para σ 2

kûk2
S2 = ,
n−m

donde û = Y − x β Y .
Bajo los supuestos del modelo clásico de regresión lineal,

(n − m)S 2 kûk2 2
= 2 ∼ χn−m .
σ2 σ

Suponga que la hipótesis H0 : σ 2 = σ02 es verdad. Entonces, se tiene que


una prueba de nivel de significancia α acepta H0 versus Ha : σ 2 6= σ02 si

2 ky − x βˆ k2 2
χn−m, α ≤ ≤ χn−m,1− α.
2 σ02 2

25 de noviembre de 2020 11 / 17
Pruebas de hipótesis para σ 2
Consideremos el estimador para σ 2

kûk2
S2 = ,
n−m

donde û = Y − x β Y .
Bajo los supuestos del modelo clásico de regresión lineal,

(n − m)S 2 kûk2 2
= 2 ∼ χn−m .
σ2 σ

Suponga que la hipótesis H0 : σ 2 = σ02 es verdad. Entonces, se tiene que


una prueba de nivel de significancia α acepta H0 versus Ha : σ 2 6= σ02 si

2 ky − x βˆ k2 2
χn−m, α ≤ ≤ χn−m,1− α.
2 σ02 2

25 de noviembre de 2020 11 / 17
Prueba de significancia de la regresión

Considere el modelo clásico de regresión lineal con intercepto:

Yi = xi β + Ui
= β0 + xi,1 β1 + ... + xi,k−1 βk−1 + Ui

donde xi es la i-ésima fila de la matriz de diseño x (para i = 1, 2, ..., n)


y xi,j es el j-ésimo elemento de xi .
Una hipótesis importante es la que corresponde al caso donde ninguna
covariable se relaciona linealmente con la variable dependiente, y que se
conoce como la hipótesis de no-regresión H0 : β1 = β2 = ... = βk−1 = 0.
Una prueba de hipótesis de nivel de significancia α que permite contrastar
H0 versus Ha : algún βj 6= 0 (1 ≤ j ≤ k − 1) surge del análisis de varianza,
esto es, de la comparación de estimadores insesgados alternativos para σ 2 .

25 de noviembre de 2020 12 / 17
Prueba de significancia de la regresión

Considere el modelo clásico de regresión lineal con intercepto:

Yi = xi β + Ui
= β0 + xi,1 β1 + ... + xi,k−1 βk−1 + Ui

donde xi es la i-ésima fila de la matriz de diseño x (para i = 1, 2, ..., n)


y xi,j es el j-ésimo elemento de xi .
Una hipótesis importante es la que corresponde al caso donde ninguna
covariable se relaciona linealmente con la variable dependiente, y que se
conoce como la hipótesis de no-regresión H0 : β1 = β2 = ... = βk−1 = 0.
Una prueba de hipótesis de nivel de significancia α que permite contrastar
H0 versus Ha : algún βj 6= 0 (1 ≤ j ≤ k − 1) surge del análisis de varianza,
esto es, de la comparación de estimadores insesgados alternativos para σ 2 .

25 de noviembre de 2020 12 / 17
Prueba de significancia de la regresión

Considere el modelo clásico de regresión lineal con intercepto:

Yi = xi β + Ui
= β0 + xi,1 β1 + ... + xi,k−1 βk−1 + Ui

donde xi es la i-ésima fila de la matriz de diseño x (para i = 1, 2, ..., n)


y xi,j es el j-ésimo elemento de xi .
Una hipótesis importante es la que corresponde al caso donde ninguna
covariable se relaciona linealmente con la variable dependiente, y que se
conoce como la hipótesis de no-regresión H0 : β1 = β2 = ... = βk−1 = 0.
Una prueba de hipótesis de nivel de significancia α que permite contrastar
H0 versus Ha : algún βj 6= 0 (1 ≤ j ≤ k − 1) surge del análisis de varianza,
esto es, de la comparación de estimadores insesgados alternativos para σ 2 .

25 de noviembre de 2020 12 / 17
Prueba de significancia de la regresión

Considere el modelo clásico de regresión lineal con intercepto:

Yi = xi β + Ui
= β0 + xi,1 β1 + ... + xi,k−1 βk−1 + Ui

donde xi es la i-ésima fila de la matriz de diseño x (para i = 1, 2, ..., n)


y xi,j es el j-ésimo elemento de xi .
Una hipótesis importante es la que corresponde al caso donde ninguna
covariable se relaciona linealmente con la variable dependiente, y que se
conoce como la hipótesis de no-regresión H0 : β1 = β2 = ... = βk−1 = 0.
Una prueba de hipótesis de nivel de significancia α que permite contrastar
H0 versus Ha : algún βj 6= 0 (1 ≤ j ≤ k − 1) surge del análisis de varianza,
esto es, de la comparación de estimadores insesgados alternativos para σ 2 .

25 de noviembre de 2020 12 / 17
Prueba de significancia de la regresión

Considere el modelo clásico de regresión lineal con intercepto:

Yi = xi β + Ui
= β0 + xi,1 β1 + ... + xi,k−1 βk−1 + Ui

donde xi es la i-ésima fila de la matriz de diseño x (para i = 1, 2, ..., n)


y xi,j es el j-ésimo elemento de xi .
Una hipótesis importante es la que corresponde al caso donde ninguna
covariable se relaciona linealmente con la variable dependiente, y que se
conoce como la hipótesis de no-regresión H0 : β1 = β2 = ... = βk−1 = 0.
Una prueba de hipótesis de nivel de significancia α que permite contrastar
H0 versus Ha : algún βj 6= 0 (1 ≤ j ≤ k − 1) surge del análisis de varianza,
esto es, de la comparación de estimadores insesgados alternativos para σ 2 .

25 de noviembre de 2020 12 / 17
Prueba de significancia de la regresión
Recordemos que la siguiente es una estimación insesgada para σ 2

ky − x βˆ k2
s2 =
n−m
kûk2
que obtenemos desde el estimador S 2 = n−m donde û = Y − x β Y .
Observemos ahora que si H0 : β1 = β2 = ... = βk−1 = 0 es verdad, entonces
disponemos de otro estimador insesgado para σ 2

kY − Ȳ 1k2
n−1

donde Ȳ = n−1 ∑ni=1 Yi y 1 ∈ Rn . Bajo la hipótesis nula se tiene que

(kY − Ȳ 1k2 − kY − x β Y k2 )/(m − 1)


∼ Fm−1,n−m .
kY − x β Y k2 /(n − m)

25 de noviembre de 2020 13 / 17
Prueba de significancia de la regresión
Recordemos que la siguiente es una estimación insesgada para σ 2

ky − x βˆ k2
s2 =
n−m
kûk2
que obtenemos desde el estimador S 2 = n−m donde û = Y − x β Y .
Observemos ahora que si H0 : β1 = β2 = ... = βk−1 = 0 es verdad, entonces
disponemos de otro estimador insesgado para σ 2

kY − Ȳ 1k2
n−1

donde Ȳ = n−1 ∑ni=1 Yi y 1 ∈ Rn . Bajo la hipótesis nula se tiene que

(kY − Ȳ 1k2 − kY − x β Y k2 )/(m − 1)


∼ Fm−1,n−m .
kY − x β Y k2 /(n − m)

25 de noviembre de 2020 13 / 17
Prueba de significancia de la regresión
Recordemos que la siguiente es una estimación insesgada para σ 2

ky − x βˆ k2
s2 =
n−m
kûk2
que obtenemos desde el estimador S 2 = n−m donde û = Y − x β Y .
Observemos ahora que si H0 : β1 = β2 = ... = βk−1 = 0 es verdad, entonces
disponemos de otro estimador insesgado para σ 2

kY − Ȳ 1k2
n−1

donde Ȳ = n−1 ∑ni=1 Yi y 1 ∈ Rn . Bajo la hipótesis nula se tiene que

(kY − Ȳ 1k2 − kY − x β Y k2 )/(m − 1)


∼ Fm−1,n−m .
kY − x β Y k2 /(n − m)

25 de noviembre de 2020 13 / 17
Prueba de significancia de la regresión
Recordemos que la siguiente es una estimación insesgada para σ 2

ky − x βˆ k2
s2 =
n−m
kûk2
que obtenemos desde el estimador S 2 = n−m donde û = Y − x β Y .
Observemos ahora que si H0 : β1 = β2 = ... = βk−1 = 0 es verdad, entonces
disponemos de otro estimador insesgado para σ 2

kY − Ȳ 1k2
n−1

donde Ȳ = n−1 ∑ni=1 Yi y 1 ∈ Rn . Bajo la hipótesis nula se tiene que

(kY − Ȳ 1k2 − kY − x β Y k2 )/(m − 1)


∼ Fm−1,n−m .
kY − x β Y k2 /(n − m)

25 de noviembre de 2020 13 / 17
Prueba de significancia de la regresión
Recordemos que la siguiente es una estimación insesgada para σ 2

ky − x βˆ k2
s2 =
n−m
kûk2
que obtenemos desde el estimador S 2 = n−m donde û = Y − x β Y .
Observemos ahora que si H0 : β1 = β2 = ... = βk−1 = 0 es verdad, entonces
disponemos de otro estimador insesgado para σ 2

kY − Ȳ 1k2
n−1

donde Ȳ = n−1 ∑ni=1 Yi y 1 ∈ Rn . Bajo la hipótesis nula se tiene que

(kY − Ȳ 1k2 − kY − x β Y k2 )/(m − 1)


∼ Fm−1,n−m .
kY − x β Y k2 /(n − m)

25 de noviembre de 2020 13 / 17
Prueba de significancia de la regresión

El estadístico para la prueba de significancia de la regresión también se


puede calcular como sigue:

R 2 /(m − 1)
,
(1 − R 2 )/(n − m)

donde R 2 es el coeficiente de bondad de ajuste de la regresión y en x .


Si la hipótesis nula es falsa, el estadístico toma valores positivos lejos de 0
y entonces, se rechaza H0 en favor de Ha : algún βj 6= 0 (1 ≤ j ≤ k − 1)
cuando ese valor es mayor al cuantil Fm−1,n−m,α que satisface

P(F > Fm−1,n−m,α ) = α,

donde F ∼ Fm−1,n−m .

25 de noviembre de 2020 14 / 17
Prueba de significancia de la regresión

El estadístico para la prueba de significancia de la regresión también se


puede calcular como sigue:

R 2 /(m − 1)
,
(1 − R 2 )/(n − m)

donde R 2 es el coeficiente de bondad de ajuste de la regresión y en x .


Si la hipótesis nula es falsa, el estadístico toma valores positivos lejos de 0
y entonces, se rechaza H0 en favor de Ha : algún βj 6= 0 (1 ≤ j ≤ k − 1)
cuando ese valor es mayor al cuantil Fm−1,n−m,α que satisface

P(F > Fm−1,n−m,α ) = α,

donde F ∼ Fm−1,n−m .

25 de noviembre de 2020 14 / 17
Prueba de restricciones lineales sobre β
Recordemos que si c ∈ Rm y d ∈ R, una prueba de hipótesis de nivel de
significancia α para contrastar H0 : β 0 c = d versus H0 : β 0 c 6= d es la
siguiente: se acepta H0 si

βˆ ’c − d
−tn−m,α/2 < p < tn−m,α/2 .
s 2 c’(x 0 x )−1 c

La hipótesis β 0 c = d es una restricción lineal sobre los coeficientes en β .


Para estudiar la validez simultánea de varias restricciones lineales sobre β ,
se requiere de una herramienta diferente.
Sean c1 , ..., cJ ∈ Rm y d1 , ...dJ ∈ R. Suponga que la hipótesis nula H0 es

Cβ = d

donde C = [c10 , c20 , ..., cJ0 ] y d = (d1 , ..., dJ )0 .

25 de noviembre de 2020 15 / 17
Prueba de restricciones lineales sobre β
Recordemos que si c ∈ Rm y d ∈ R, una prueba de hipótesis de nivel de
significancia α para contrastar H0 : β 0 c = d versus H0 : β 0 c 6= d es la
siguiente: se acepta H0 si

βˆ ’c − d
−tn−m,α/2 < p < tn−m,α/2 .
s 2 c’(x 0 x )−1 c

La hipótesis β 0 c = d es una restricción lineal sobre los coeficientes en β .


Para estudiar la validez simultánea de varias restricciones lineales sobre β ,
se requiere de una herramienta diferente.
Sean c1 , ..., cJ ∈ Rm y d1 , ...dJ ∈ R. Suponga que la hipótesis nula H0 es

Cβ = d

donde C = [c10 , c20 , ..., cJ0 ] y d = (d1 , ..., dJ )0 .

25 de noviembre de 2020 15 / 17
Prueba de restricciones lineales sobre β
Recordemos que si c ∈ Rm y d ∈ R, una prueba de hipótesis de nivel de
significancia α para contrastar H0 : β 0 c = d versus H0 : β 0 c 6= d es la
siguiente: se acepta H0 si

βˆ ’c − d
−tn−m,α/2 < p < tn−m,α/2 .
s 2 c’(x 0 x )−1 c

La hipótesis β 0 c = d es una restricción lineal sobre los coeficientes en β .


Para estudiar la validez simultánea de varias restricciones lineales sobre β ,
se requiere de una herramienta diferente.
Sean c1 , ..., cJ ∈ Rm y d1 , ...dJ ∈ R. Suponga que la hipótesis nula H0 es

Cβ = d

donde C = [c10 , c20 , ..., cJ0 ] y d = (d1 , ..., dJ )0 .

25 de noviembre de 2020 15 / 17
Prueba de restricciones lineales sobre β
Recordemos que si c ∈ Rm y d ∈ R, una prueba de hipótesis de nivel de
significancia α para contrastar H0 : β 0 c = d versus H0 : β 0 c 6= d es la
siguiente: se acepta H0 si

βˆ ’c − d
−tn−m,α/2 < p < tn−m,α/2 .
s 2 c’(x 0 x )−1 c

La hipótesis β 0 c = d es una restricción lineal sobre los coeficientes en β .


Para estudiar la validez simultánea de varias restricciones lineales sobre β ,
se requiere de una herramienta diferente.
Sean c1 , ..., cJ ∈ Rm y d1 , ...dJ ∈ R. Suponga que la hipótesis nula H0 es

Cβ = d

donde C = [c10 , c20 , ..., cJ0 ] y d = (d1 , ..., dJ )0 .

25 de noviembre de 2020 15 / 17
Prueba de restricciones lineales sobre β
Recordemos que si c ∈ Rm y d ∈ R, una prueba de hipótesis de nivel de
significancia α para contrastar H0 : β 0 c = d versus H0 : β 0 c 6= d es la
siguiente: se acepta H0 si

βˆ ’c − d
−tn−m,α/2 < p < tn−m,α/2 .
s 2 c’(x 0 x )−1 c

La hipótesis β 0 c = d es una restricción lineal sobre los coeficientes en β .


Para estudiar la validez simultánea de varias restricciones lineales sobre β ,
se requiere de una herramienta diferente.
Sean c1 , ..., cJ ∈ Rm y d1 , ...dJ ∈ R. Suponga que la hipótesis nula H0 es

Cβ = d

donde C = [c10 , c20 , ..., cJ0 ] y d = (d1 , ..., dJ )0 .

25 de noviembre de 2020 15 / 17
Prueba de restricciones lineales sobre β
Una prueba de hipótesis de nivel de significancia α para contrastar
H0 : C β = d versus Ha : C β 6= d se puede desarrollar como sigue. Observe,
bajo H0 se tiene que

C β Y |x ∼ N(d, σ 2 C (x 0 x )−1 C 0 )

de tal forma que

(C β Y − d)0 [C (x 0 x )−1 C 0 ]−1 (C β Y − d)


∼ χJ2 .
σ2

Si σ 2 es conocido, este estadístico se puede usar para obtener la respectiva


prueba de hipótesis. Si σ 2 es desconocido y lo estimamos con S 2 , entonces

(C β Y − d)0 [C (x 0 x )−1 C 0 ]−1 (C β Y − d)/J


∼ FJ,n−m .
S2

25 de noviembre de 2020 16 / 17
Prueba de restricciones lineales sobre β
Una prueba de hipótesis de nivel de significancia α para contrastar
H0 : C β = d versus Ha : C β 6= d se puede desarrollar como sigue. Observe,
bajo H0 se tiene que

C β Y |x ∼ N(d, σ 2 C (x 0 x )−1 C 0 )

de tal forma que

(C β Y − d)0 [C (x 0 x )−1 C 0 ]−1 (C β Y − d)


∼ χJ2 .
σ2

Si σ 2 es conocido, este estadístico se puede usar para obtener la respectiva


prueba de hipótesis. Si σ 2 es desconocido y lo estimamos con S 2 , entonces

(C β Y − d)0 [C (x 0 x )−1 C 0 ]−1 (C β Y − d)/J


∼ FJ,n−m .
S2

25 de noviembre de 2020 16 / 17
Prueba de restricciones lineales sobre β
Una prueba de hipótesis de nivel de significancia α para contrastar
H0 : C β = d versus Ha : C β 6= d se puede desarrollar como sigue. Observe,
bajo H0 se tiene que

C β Y |x ∼ N(d, σ 2 C (x 0 x )−1 C 0 )

de tal forma que

(C β Y − d)0 [C (x 0 x )−1 C 0 ]−1 (C β Y − d)


∼ χJ2 .
σ2

Si σ 2 es conocido, este estadístico se puede usar para obtener la respectiva


prueba de hipótesis. Si σ 2 es desconocido y lo estimamos con S 2 , entonces

(C β Y − d)0 [C (x 0 x )−1 C 0 ]−1 (C β Y − d)/J


∼ FJ,n−m .
S2

25 de noviembre de 2020 16 / 17
Estimación bajo restricciones lineales sobre β
Si la hipótesis nula C β = d se acepta, entonces la estimación de β por el
método de mínimos cuadrados ordinarios no es adecuada ya que omite
esta información.
La solución es incorporar la restricción en el problema de optimización que
define al estimador:

minβ ∈Rm ky − x β k2 sujeto a C β = d.

La solución a este problema se conoce como estimación por mínimos


cuadrados restringidos y se especifica como sigue:

βˆR = βˆ − (x 0 x )−1 C 0 [C (x 0 x )−1 C 0 ]−1 (C βˆ − d).

Por su parte, la varianza de este estimador restringido es

σ 2 (x 0 x )−1 − σ 2 (x 0 x )−1 C 0 [C (x 0 x )−1 C 0 ]−1 C (x 0 x )−1 .

25 de noviembre de 2020 17 / 17
Estimación bajo restricciones lineales sobre β
Si la hipótesis nula C β = d se acepta, entonces la estimación de β por el
método de mínimos cuadrados ordinarios no es adecuada ya que omite
esta información.
La solución es incorporar la restricción en el problema de optimización que
define al estimador:

minβ ∈Rm ky − x β k2 sujeto a C β = d.

La solución a este problema se conoce como estimación por mínimos


cuadrados restringidos y se especifica como sigue:

βˆR = βˆ − (x 0 x )−1 C 0 [C (x 0 x )−1 C 0 ]−1 (C βˆ − d).

Por su parte, la varianza de este estimador restringido es

σ 2 (x 0 x )−1 − σ 2 (x 0 x )−1 C 0 [C (x 0 x )−1 C 0 ]−1 C (x 0 x )−1 .

25 de noviembre de 2020 17 / 17
Estimación bajo restricciones lineales sobre β
Si la hipótesis nula C β = d se acepta, entonces la estimación de β por el
método de mínimos cuadrados ordinarios no es adecuada ya que omite
esta información.
La solución es incorporar la restricción en el problema de optimización que
define al estimador:

minβ ∈Rm ky − x β k2 sujeto a C β = d.

La solución a este problema se conoce como estimación por mínimos


cuadrados restringidos y se especifica como sigue:

βˆR = βˆ − (x 0 x )−1 C 0 [C (x 0 x )−1 C 0 ]−1 (C βˆ − d).

Por su parte, la varianza de este estimador restringido es

σ 2 (x 0 x )−1 − σ 2 (x 0 x )−1 C 0 [C (x 0 x )−1 C 0 ]−1 C (x 0 x )−1 .

25 de noviembre de 2020 17 / 17
Estimación bajo restricciones lineales sobre β
Si la hipótesis nula C β = d se acepta, entonces la estimación de β por el
método de mínimos cuadrados ordinarios no es adecuada ya que omite
esta información.
La solución es incorporar la restricción en el problema de optimización que
define al estimador:

minβ ∈Rm ky − x β k2 sujeto a C β = d.

La solución a este problema se conoce como estimación por mínimos


cuadrados restringidos y se especifica como sigue:

βˆR = βˆ − (x 0 x )−1 C 0 [C (x 0 x )−1 C 0 ]−1 (C βˆ − d).

Por su parte, la varianza de este estimador restringido es

σ 2 (x 0 x )−1 − σ 2 (x 0 x )−1 C 0 [C (x 0 x )−1 C 0 ]−1 C (x 0 x )−1 .

25 de noviembre de 2020 17 / 17

También podría gustarte