Está en la página 1de 14

RESUMEN DEL CAP.

7 Y 8 DEL LIBRO DE ECONOMETRÍA DE GUJARATI


Nombre: Quijije Salgado Genessis Melissa Paralelo: 5 “A”
Materia: Proyección Econométrica
Periodo: ABRIL -AGOSTO DEL 2019
Capítulo 7
ANÁLISIS DE REGRESIÓN MÚLTIPLE: EL PROBLEMA DE ESTIMACIÓN.

El modelo de regresión múltiple más sencillo es la regresión de tres variables, con una
variable dependiente y dos variables explicativas. Durante el análisis, trataremos con modelos
de regresión lineal múltiple, es decir, modelos lineales en los parámetros, que pueden ser o no
lineales en las variables.
7.1 Modelo con tres variables: notación y supuestos
Al generalizar la función de regresión poblacional (FRP) de dos variables, podemos escribir la
FRP de tres variables así:
Yi = β1 + β2X2i + β3X3i + ui
Donde Y es la variable dependiente, X2 y X3 las variables explicativas, u es el término de
perturbación estocástica, e i la i-ésima observación; en caso de que los datos sean series de
tiempo, el subíndice t denotará la t-ésima observación. En la ecuación, β1 es el término del
intercepto, Los coeficientes β2 y β3 se denominan coeficientes de regresión parcial.
La no colinealidad significa que ninguna de las regresoras puede escribirse como
combinación lineal exacta de las regresoras restantes en el modelo. De manera formal, la no
colinealidad significa que no existe un conjunto de números λ2 y λ3, al menos uno diferente
de cero, tales que:
λ2X2i + λ3X3i = 0
7.2 Interpretación de la ecuación de regresión múltiple
Con los supuestos del modelo de regresión clásico, se cumple que, al tomar la esperanza
condicional de Y en ambos lados de Yi = β1 + β2X2i + β3X3i + ui, obtenemos:

Expresado en palabras, se obtiene la media condicional o el valor esperado de Y condicionado


a los valores dados o fijos de las variables X2 y X3. Por consiguiente, como en el caso de dos
variables, el análisis de regresión múltiple es el análisis de regresión condicional sobre los
valores fijos de las variables explicativas, y lo que obtenemos es el valor promedio o la media
de Y, o la respuesta media de Y a los valores dados de las regresoras X.
7.3 Significado de los coeficientes de regresión parcial
Como ya mencionamos, los coeficientes de regresión β2 y β3 se conocen como coeficientes de
regresión parcial o coeficientes parciales de pendiente. El significado del coeficiente de
regresión parcial es el siguiente: β2 mide el cambio en el valor de la media de Y, E(Y), por
unidad de cambio en X2, con X3 constante. Expresado de otra forma, proporciona el efecto
“directo” o “neto” que tiene una unidad de cambio de X2 sobre el valor medio de Y, neto de
cualquier efecto que X3 pueda ejercer en la media Y. De igual forma, β3 mide el cambio en el
valor medio de Y por unidad de cambio en X3, cuando el valor de X2 se conserva constante. Es
decir, da el efecto “directo” o “neto” de una unidad de cambio en X3 sobre el valor medio de
Y, neto de cualquier efecto que X2 pudiera tener sobre la media Y.
7.4 Estimación de MCO y MV de los coeficientes de regresión parcial
Para estimar los parámetros del modelo de regresión con tres variables se va a considerar
primero el método de mínimos cuadrados ordinarios (MCO), y luego, el método de máxima
verosimilitud (MV).
Estimadores de MCO
Para encontrar los estimadores de MCO, escribamos primero la función de regresión muestral
(FRM) correspondiente a la FRP de la siguiente manera:

Donde ˆu i es el término residual, la contraparte muestral del término de perturbación


estocástico ui. El procedimiento MCO consiste en seleccionar los valores desconocidos
de los parámetros de forma que la suma de cuadrados de los residuos (SCR)Ʃˆu 2i sea
lo más pequeña posible. Simbólicamente,

El procedimiento más directo para obtener los estimadores que reducen, es diferenciarla
respecto de las incógnitas, igualar a cero las expresiones resultantes y resolverlas al mismo
tiempo. De este procedimiento se obtienen las siguientes ecuaciones normales:

De la ecuación, vemos al instante que

Es el estimador de MCO del intercepto poblacional β1.


Conforme a la convención de permitir que las letras minúsculas denoten desviaciones de las
medias muestrales, se derivan las siguientes fórmulas de las ecuaciones normales

Varianzas y errores estándar de los estimadores de MCO


Después de obtener los estimadores de MCO de los coeficientes de regresión parcial
derivamos las varianzas y los errores estándar de los estimadores. Igual que en el caso de dos
variables, se necesitan los errores estándar para dos fines principales: establecer intervalos de
confianza y probar hipótesis estadísticas. Las fórmulas pertinentes son las siguientes:

En forma equivale a:

Donde r23 es el coeficiente de correlación muestral entre X2 y X3.

En forma equivalente:

En todas estas fórmulas, σ2 es la varianza (homoscedástica) de las perturbaciones


poblacionales ui. Un estimador insesgado de σ2 está dado por:

El estimador ˆσ 2 se calcula de, una vez que se dispone de los residuos, pero también se
obtiene, más rápido, con la siguiente relación:

Propiedades de los estimadores de MCO


Las propiedades de los estimadores de MCO del modelo de regresión múltiple son similares a
las del modelo con dos variables. Específicamente:
1. La línea (superficie) de regresión de tres variables pasa a través de las medias de. Y, .X
2 y .X3, lo cual se hace evidente en [compárese con la ecuación del modelo con dos
variables]. Esta propiedad generalmente se mantiene. Así, en el modelo de regresión
lineal con k variables [una regresada y (k − 1) regresoras].
Yi _ β1 + β2X2i + β3X3i + ·· ·+βk Xki + ui
Se tiene que

2. El valor medio de Yi estimado Yi ( _ Yˆi ) es igual al valor medio de Yi observado, lo

cual es fácil de demostrar:


Donde, como es usual, las letras minúsculas indican los valores de las variables expresadas
como desviaciones de sus medias respectivas.
3. Los residuos Ʃˆui no están correlacionados con X2i y X3i, es decir, Ʃˆu i X2i= Ʃˆui
X3i = 0.
4. Los residuos ˆu i no están correlacionados con ˆ Yi; es decir, Ʃˆui Yˆi _ 0. ¿Por qué?
[Multiplique ambos lados por ˆui y sume sobre los valores muestrales.]
5. A medida que r23, el coeficiente de correlación entre X2 y X3, se acerca a 1, las
varianzas de ˆ β2 y ˆ β3 aumentan para los valores dados de σ2 y x2 2i o x23i. En el
límite, cuando r23 = 1 (es decir, la colinealidad perfecta), estas varianzas se hacen
infinitas. A medida que aumenta r23, resulta cada vez más difícil conocer los valores
verdaderos de β2 y β3.
6. Es claro que para valores dados de r23 y x2 2i o x2 3i, las varianzas de los estimadores
de MCO son directamente proporcionales a σ2; es decir, aumentan a medida que lo
hace σ2. En forma similar, para valores dados de σ2 y r23, la varianza de ˆ β2 es
inversamente proporcional a x2 2i; es decir, entre mayor sea la variación de los valores
muestrales de X2, menor será la varianza de ˆ β2 y, por consiguiente, β2 se estima en
forma más precisa. Una afirmación similar vale respecto de la varianza de ˆ β3.
7. Con los supuestos del modelo clásico de regresión lineal, se demuestra que los
estimadores de MCO de los coeficientes de regresión parcial no solamente son lineales
e insesgados, sino que también tienen varianza mínima dentro de la clase de todos los
estimadores lineales insesgados.
7.5 El coeficiente múltiple de determinación R2 y el coeficiente múltiple de correlación R
En el caso de dos variables vimos que r 2, mide la bondad de ajuste de la ecuación de
regresión; es decir, da la proporción o porcentaje de la variación total en la variable
dependiente Y explicada por la variable (única) explicativa X. Esta notación de r 2 se extiende
fácilmente a los modelos de regresión con más de dos variables. Así, en el modelo de tres
variables buscamos conocer la proporción de la variación en Y explicada por las variables X2
y X3 conjuntamente.
La medida que da esta información se conoce como coeficiente de determinación múltiple, y
se denota por R2; conceptualmente se asemeja a r 2.
Para obtener R2, podemos seguir el procedimiento para obtener r 2,
Donde Yˆi es el valor estimado de Yi a partir de la línea de regresión ajustada y es un
estimador de la verdadera E(Yi | X2i, X3i). Al sustituir las letras mayúsculas por minúsculas
para indicar desviaciones de sus medias, la ecuación, se escribe como

Elevamos al cuadrado (7.5.2) en ambos lados y sumamos sobre los valores muestrales para
obtener

En palabras, la ecuación (7.5.3) afirma que la suma de cuadrados total (STC) es igual a la
suma de cuadrados explicada (SCE) + la suma de cuadrados de residuos (SCR).
Ahora, por definición:

Observe que R2 también se calcula de la siguiente manera:

Recuerde que, en el caso de dos variables, definimos r como el coeficiente de correlación e


indicamos que mide el grado de asociación (lineal) entre las dos variables. El análogo de r
para tres o más variables es el coeficiente de correlación múltiple, denotado por R, el cual es
una medida del grado de asociación entre Y y todas las variables explicativas en conjunto.
Aunque r puede ser positivo o negativo, R siempre se considera positivo. En la práctica, sin
embargo, R tiene poca importancia. La medida de mayor significado es R2.
Antes de continuar, establezcamos la siguiente relación entre R2 y la varianza de un
coeficiente de regresión parcial en el modelo de regresión múltiple con k variables dado en:

Donde ˆ βj es el coeficiente de regresión parcial de la regresora Xj y R2j es el R2 en la


regresión de Xj sobre las (k − 2) regresoras restantes.
7.6 Un ejemplo ilustrativo
Regresión sobre variables estandarizadas.
La regresión sobre variables estandarizadas afirma que el análisis se puede extender a las
regresiones multivariadas. Recuerde que una variable es estandarizada o se expresa en
unidades de desviación estándar si se expresa en términos de desviación de su media y se
dividió entre su desviación estándar.
7.7 Regresión simple en el contexto de regresión múltiple: introducción al sesgo de
especificación
El modelo de regresión del análisis está “bien” especificado; es decir, no hay sesgo o error de
especificación. Lo importante es estar consciente de que puede haber serias consecuencias si
se elige mal un modelo.
7.8 R² y R² ajustada
Una propiedad importante de R² es que es una función no decreciente del número de variables
explicativas o de regresoras presentes en el modelo; a medida que aumenta el número de
regresoras, R² aumenta casi invariablemente y nunca disminuye. Planteado de otra forma, una
variable adicional X no reduce R². Para ver esto, recuerde la definición del coeficiente de
determinación:

Para comparar dos términos R2 se debe tener en cuenta el número de variables X presentes en
el modelo. Esto se verifica con facilidad si consideramos un coeficiente de determinación
alterno, que es el siguiente:

Donde k = el número de parámetros en el modelo incluyendo el término de intercepto. (En la


regresión con tres variables, k = 3. ¿Por qué?) R2 definida así se conoce como R2 ajustada,
designada por .R2. El término ajustado significa ajustado por los gl asociados a las sumas de
cuadrados que se consideran en:Ʃˆu 2i tiene n − k gl en un modelo con k parámetros, el cual
incluye el término del intercepto y Ʃˆu2i tiene n − 1 gl. (¿Por qué?) Para el caso de tres
variables, sabemos que Ʃˆu 2i tiene n – 3 gl.
La ecuación también se escribe como:

Donde ˆσ 2 es la varianza residual, un estimador insesgado de la verdadera σ2, y S2


Y es la varianza muestral de Y.
Comparación de dos valores de R²
Es de crucial importancia señalar que, al comparar dos modelos con base en el coeficiente de
determinación, ajustado o no, el tamaño de la muestra n y la variable dependiente deben ser
los mismos; las variables explicativas pueden adoptar cualquier forma. Así, para los modelos
No pueden compararse los términos R2 calculados. La razón es la siguiente: por definición,
R2 mide la proporción de la variación en la variable dependiente explicada por la(s)
variable(s) explicativa(s). Por consiguiente, R2 mide la proporción de la variación en ln Y
explicada por X2 y X3, mide la proporción de la variación en Y, y las dos no son la misma
variable, un cambio en ln Y da un cambio relativo o proporcional en Y, mientras que un
cambio en Y da un cambio absoluto. Por consiguiente, var Yˆi/var Yi no es igual a var (ln Yi
)/var (ln Yi ); es decir, los dos coeficientes de determinación no son lo mismo.
7.9 La función de producción Cobb-Douglas: más sobre la forma funcional
En esta sección demostramos estas transformaciones con una extensión multivariada del
modelo log-lineal de dos variables; hay más en los ejercicios y en los ejemplos ilustrativos en
el resto de este libro. El ejemplo específico es la conocida función de producción Cobb-
Douglas de la teoría de producción.
La función de producción Cobb-Douglas, en su forma estocástica, se expresa como

Donde
Y = producción
X2 = insumo trabajo
X3 = insumo capital
u = término de perturbación estocástica
e = base del logaritmo natural

Las propiedades de la función de producción Cobb-Douglas son bien conocidas:


1. β2 es la elasticidad (parcial) de la producción respecto del insumo trabajo, es decir,
mide el cambio porcentual en la producción debido a una variación de 1% en el
insumo trabajo, con el insumo capital constante.
2. De igual forma, β3 es la elasticidad (parcial) de la producción respecto del insumo
capital, con el insumo trabajo constante.
3. La suma (β2 + β3) da información sobre los rendimientos a escala, es decir, la
respuesta de la producción a un cambio proporcional en los insumos. Si esta suma es
1, existen rendimientos constantes a escala, es decir, la duplicación de los insumos
duplica la producción, la triplicación de los insumos la triplica, y así sucesivamente. Si
la suma es menor que 1, existen rendimientos decrecientes a escala: al duplicar los
insumos, la producción crece en menos del doble. Por último, si la suma es mayor que
1, hay rendimientos crecientes a escala; la duplicación de los insumos aumenta la
producción en más del doble.
Observe que siempre que se tenga un modelo de regresión log-lineal con cualquier número de
variables, el coeficiente de cada variable X mide la elasticidad (parcial) de la variable
dependiente Y respecto de esa variable. Así, si se tiene un modelo log-lineal con k variables:

Cada uno de los coeficientes de regresión (parcial), β2 hasta βk, es la elasticidad (parcial) de
Y respecto de las variables X2 hasta Xk.
7.10 Modelos de regresión polinomial
Los modelos de regresión polinomial, de amplio uso en la investigación econométrica
relacionada con funciones de costo y de producción. Al introducir estos modelos, ampliamos
la gama de modelos a todos los que se aplica fácilmente el modelo clásico de regresión lineal.
Se relaciona el costo marginal (CM) de corto plazo de la producción de un bien (Y ) con el
nivel de su producción (X ).
Que se denomina una función cuadrática o, más generalmente, un polinomio de segundo
grado en la variable X; la mayor potencia de X representa el grado del polinomio (si se
agregara X3 a la función anterior, sería un polinomio de tercer grado, y así sucesivamente).
La versión estocástica se escribe así:

Que se denomina regresión polinomial de segundo grado. La regresión polinomial de grado k


general puede escribirse así:

Tenga en cuenta que, en estos tipos de regresiones polinomiales, sólo hay una variable
explicativa al lado derecho, pero aparece elevada a distintas potencias, convirtiéndolas en
modelos de regresión múltiple. A propósito, observe que si se supuso que Xi es fi ja o no
estocástica, los términos de Xi elevados a alguna potencia también se hacen fi jos o no
estocásticos.
7.11 Coeficientes de correlación parcial
Explicación de los coeficientes de correlación simple y parcial
El coeficiente de correlación r como medida del grado de asociación lineal entre dos
variables. Para el modelo de regresión con tres variables podemos calcular tres coeficientes de
correlación: r12 (correlación entre Y y X2), r13 (coeficiente de correlación entre Y y X3) y r23
(coeficiente de correlación entre X2 y X3); observe que el subíndice 1 representa a Y por
conveniencia notacional. Estos coeficientes de correlación se denominan coeficientes de
correlación bruta o simple, o coeficientes de correlación de orden cero, y se calculan a partir
de la definición del coeficiente de correlación.
Definimos
r12.3 = coeficiente de correlación parcial entre Y y X2, manteniendo X3 constante
r13.2 = coeficiente de correlación parcial entre Y y X3, manteniendo X2 constante
r23.1 = coeficiente de correlación parcial entre X2 y X3, manteniendo Y constante
Estas correlaciones parciales se obtienen con facilidad a partir de los coeficientes de
correlación simples o de orden cero, de la siguiente forma:

Se denominan coeficientes de correlación de primer orden.


Capítulo 8
ANÁLISIS DE REGRESIÓN MÚLTIPLE: EL PROBLEMA DE LA INFERENCIA

8.1 Una vez más, el supuesto de normalidad.

Para la estimación puntual de los parámetros de los modelos de regresión, se utiliza el método
de mínimos cuadrados ordinarios (MCO). Sin embargo, si el objetivo no sólo es la estimación
sino además la inferencia, debemos suponer que las ui siguen alguna distribución de
probabilidad. Con el supuesto de normalidad se halla que los estimadores de MCO de los
coeficientes de regresión parcial, idénticos a los estimadores de máxima verosimilitud (MV),
son los mejores estimadores lineales insesgados (MELI). Además, los estimadores ˆ β2, ˆ β3 y
ˆ β1 están, ellos mismos, normalmente distribuidos con medias iguales a los verdaderos β2, β3
y β1, y con las varianzas. Además, (n − 3)ˆσ 2/σ2 sigue la distribución χ2 con n − 3 gl, y los
tres estimadores de MCO están distribuidos independientemente de ˆσ 2.
La distribución t sirve para establecer intervalos de confianza y para probar hipótesis
estadísticas sobre los verdaderos coeficientes de regresión parcial poblacionales. De modo
similar, con la distribución χ2 se prueban hipótesis sobre el verdadero σ2. Para demostrar el
mecanismo real utilizaremos el siguiente ejemplo ilustrativo.
8.2 Pruebas de hipótesis en regresión múltiple: comentarios generales
Una vez fuera del mundo simple del modelo de regresión lineal con dos variables, las pruebas
de hipótesis adquieren diversas e interesantes formas, como las siguientes:
1. Pruebas de hipótesis sobre un coeficiente de regresión parcial individual.
2. Pruebas de significancia global del modelo de regresión múltiple estimado, es decir, ver si
todos los coeficientes de pendiente parciales son iguales a cero al mismo tiempo.
3. Pruebas de que dos o más coeficientes son iguales a otro.
4. Pruebas de que los coeficientes de regresión parcial satisfacen ciertas restricciones.
5. Pruebas de la estabilidad del modelo de regresión estimado a través del tiempo o en
diferentes unidades de corte transversal.
6. Pruebas sobre la forma funcional de los modelos de regresión.
8.3Pruebas de hipótesis sobre coeficientes de regresión individuales
Con el supuesto que ui ∼ N(0, σ2), podemos utilizar la prueba t para demostrar una hipótesis
sobre cualquier coeficiente de regresión parcial individual. En la práctica, no se tiene que
suponer un valor particular de α para llevar a cabo la prueba de hipótesis. Tan sólo se emplea
el valor p, que en el caso del ejercicio es de 0.0065. La interpretación de este valor p es que, si
la hipótesis nula fuese verdadera, la probabilidad de obtener un valor t igual a 2.8187 o mayor
(en términos absolutos) sería de sólo 0.0065 o 0.65%, que de hecho es una probabilidad
pequeña, mucho menor que el valor artificialmente adoptado de α = 5%.
Este ejemplo es una oportunidad para decidir si deseamos utilizar la prueba t de una o dos
colas. Sin embargo, se debe utilizar la prueba de una cola. Es decir, la hipótesis nula y alterna
deben ser:
H0:β2 < 0 y H1:β2 ≥ 0
Se puede rechazar la hipótesis nula con base en la prueba t de una cola, en este caso. Si
rechazamos la hipótesis nula en una prueba bilateral, contaremos con pruebas suficientes para
rechazar el escenario unilateral siempre que el estadístico esté en la misma dirección que la
prueba.
8.4 Prueba de significancia general de la regresión muestral
Según la hipótesis separada de que cada verdadero coeficiente de regresión parcial de la
población era cero. Pero ahora considere la siguiente hipótesis:
H0:β2 = β3 = 0
Esta hipótesis nula es una hipótesis conjunta de que β2 y β3 son iguales a cero en forma
conjunta o simultánea. Una prueba de tal hipótesis se denomina prueba de significancia
general de la línea de regresión observada o estimada, es decir, si Y está relacionada o no
linealmente con X2 y X3 a la vez.
Al probar la significancia individual de un coeficiente de regresión parcial, supusimos
implícitamente que cada prueba de significancia se basaba en una muestra diferente (es decir,
independiente). Así, en la prueba de significancia de ˆ β2 según la hipótesis de que β2 = 0,
supusimos tácitamente que la prueba se basaba en una muestra diferente de la utilizada en la
prueba de significancia de ˆ β3 conforme a la hipótesis nula de que β3 = 0.
Si se establece un intervalo de confianza a 95% para β2. Pero si utilizamos los mismos
datos muestrales para establecer un intervalo de confianza para β3, es decir, con un
coeficiente de confianza de 95%, no es posible asegurar que β2 y β3 se encuentren dentro de
sus respectivos intervalos de confianza con una probabilidad de (1 − α)(1 − α) = (0.95)(0.95).
En otras palabras, aunque las afirmaciones
Pr [ ˆ β2 − tα/2 ee ( ˆ β2) ≤ β2 ≤ ˆ β2 + tα/2 ee ( ˆ β2)] _ 1 − α
Pr [ ˆ β3 − tα/2 ee ( ˆ β3) ≤ β3 ≤ ˆ β3 + tα/2 ee ( ˆ β3)] _ 1 − α
Son individualmente ciertas, no es cierto que la probabilidad de que β2 y β3 se encuentren al
mismo tiempo en los intervalos, porque los intervalos pueden no ser independientes cuando se
derivan con la misma información.
El método del análisis de varianza en las pruebas de significancia general de una
regresión múltiple observada: la prueba F
No se puede utilizar la prueba t usual para probar la hipótesis conjunta de que los verdaderos
coeficientes parciales de pendiente sean simultáneamente iguales a cero. Sin embargo, esta
hipótesis conjunta se prueba con la técnica del análisis de varianza (ANOVA), lo cual se
demuestra de la siguiente manera:
Ahora puede demostrarse que, según el supuesto de la distribución normal para ui y la

hipótesis nula β2 = β3 = 0, la variable se distribuye como la distribución F con 2 y n − 3 gl.


Lo cual se presenta de la siguiente manera:
Por consiguiente, si la hipótesis nula es verdadera, proporcionan estimaciones idénticas del
verdadero σ2. Sin embargo, si la hipótesis nula es falsa, es decir, si X2 y X3 definitivamente
ejercen influencia sobre Y, no se mantendrá la igualdad. En este caso, la SCE será
relativamente más grande que la SCR, teniendo en cuenta sus respectivos gl. Si el valor F
calculado excede el valor F crítico de la tabla F en el nivel de significancia de α%, se rechaza
H0; de otra forma no se rechaza. Por otra parte, si el valor p del F observado es lo bastante
bajo, podemos rechazar H0.
Prueba de significancia general de una regresión múltiple: la prueba F
Prueba de hipótesis individual y conjunta
El “mensaje” conjunto de los intervalos de confianza individuales no sustituye una región de
confianza conjunta [implicada por la prueba F] en el momento de realizar pruebas de
hipótesis conjuntas y efectuar afirmaciones de confianza conjuntas.
Una relación importante entre R2 y F
Existe una relación estrecha entre el coeficiente de determinación R2 y la prueba F en el
análisis de varianza. En el supuesto de que las perturbaciones ui están normalmente
distribuidas, y según la hipótesis nula de que β2 = β3 = 0.
De modo más general, en el caso de k variables (inclusive el intercepto), si suponemos que las
perturbaciones están normalmente distribuidas y que la hipótesis nula es:
H0: β2 _ β3 _ ·· · _ βk _ 0 entonces se cumple que sigue la distribución F con k − 1 y n − k gl,
y esto es igual que:
Una ventaja de la prueba F expresada en términos de R2 es su facilidad de cálculo: todo lo que

se necesita saber es el valor de R2.


La contribución “incremental” o “marginal” de una variable explicativa
El tema de la contribución incremental es importante en la práctica. En la mayoría de las
investigaciones empíricas, el investigador puede no estar por completo seguro de que se
justifique agregar una variable X al modelo, pues ya hay en él muchas otras variables X. No se
desea incluir variable(s) cuya contribución a la SCE sea poca. Por la misma causa, tampoco se
quiere excluir variable(s) que aumente(n) sustancialmente la SCE.
8.5 Prueba de igualdad de dos coeficientes de regresión
Suponga que en la regresión múltiple Yi = β1 + β2X2i + β3X3i + β4X4i + ui y deseamos
probar la hipótesis

H0: β3= β4 o (β3 −β4) =0

H1: β3 ≠β4 o (β3 −β4)≠0


es decir, los dos coeficientes de pendiente β3 y β4 son iguales. ¿Cómo probamos una
hipótesis nula como ésta? Con los supuestos clásicos se demuestra que:
8.6 Mínimos cuadrados restringidos: pruebas de restricciones de igualdades lineales.
Hay ocasiones en las cuales la teoría económica puede sugerir que los coefi cientes en un
modelo de regresión satisfacen algunas restricciones de igualdades lineales. Por ejemplo,
considere la función de producción Cobb-Douglas:

donde Y = producción, X2 = insumo trabajo y X3 = insumo capital. Escrita en forma de


logaritmo, la ecuación se convierte en:
donde β0 = ln β1.
Ahora, si existen rendimientos constantes a escala (un cambio equiproporcional en la
producción ante un cambio equiproporcional en los insumos), la teoría económica sugeriría
que β2 + β3 = 1 el cual es un ejemplo de una restricción de igualdad lineal.
Si tuviéramos β2 + β3 < 1, esta relación sería un ejemplo de restricción de desigualdad lineal.
Para el manejo de tales restricciones se requieren técnicas de programación matemática.

El enfoque de la prueba t

El procedimiento más simple es estimar de la forma usual sin tener en cuenta la restricción
explícitamente. Esto se denomina regresión no restringida o no limitada. Si el valor t
calculado excede el valor t crítico en el nivel de significancia seleccionado, rechazamos la
hipótesis de rendimientos constantes a escala; de lo contrario, no la rechazamos.

Enfoque de la prueba F: mínimos cuadrados restringidos

La prueba t anterior es una clase de examen post mortem, pues se trata de encontrar si se
satisface la restricción lineal después de estimar la regresión “no restringida”. Un método
directo sería incorporar la restricción en el procedimiento de estimación desde el comienzo.
En el ejemplo presente, este procedimiento se realiza fácilmente:
β2 = 1 − β3
β3 = 1 − β2
Por consiguiente, con cualquiera de estas igualdades podemos eliminar un coeficiente β en y
estimar la ecuación resultante. Así, si utilizamos la función de producción Cobb-Douglas de la
siguiente manera:
(ln Yi − ln X2i ) = β0 + β3(ln X3i − ln X2i ) + ui
Este procedimiento esquematizado se conoce como mínimos cuadrados restringidos
(MCR). Este procedimiento puede generalizarse a modelos con cualquier número de
variables explicativas y más de una restricción de igualdad lineal.
Prueba F general
La prueba F proporciona un método general de prueba de hipótesis sobre uno o más
parámetros del modelo de regresión con k variables: Yi= β1 +β2X2i +β3X3i +···+βkXki +ui.
La estrategia general de la prueba F es la siguiente: hay un modelo más grande, el modelo no
restringido, y un modelo más pequeño, el modelo restringido o limitado, que se obtuvo del
modelo más grande al eliminar algunas de sus variables, o al colocar algunas restricciones
lineales sobre uno o más coeficientes del modelo más grande. Se puede utilizar esta regla de
decisión: si la F calculada excede Fα(m, n − k), donde Fα(m, n − k) es el F crítico en el nivel
de significancia α, se rechaza la hipótesis nula; de lo contrario no se rechaza.

8.7 Prueba para la estabilidad estructural o paramétrica de los modelos de regresión: la


prueba de Chow.

La prueba de chow supone que:

1. Los términos de error en las regresiones de los subperiodos están normalmente


distribuidos con la misma varianza.
2. . Los dos términos de error (u1t y u2t) están independientemente distribuidos.
Por otra parte, la prueba de Chow se generaliza con facilidad para abarcar casos de más de
una ruptura estructural. Sin embargo, se deben tener presente algunas advertencias respecto de
la prueba de Chow:
1. Las suposiciones en la prueba deben satisfacerse.
2. La prueba de Chow dirá sólo si las dos regresiones y son diferentes, pero no señalará si la
diferencia se debe a los interceptos o a las pendientes, o a ambos.
3. La prueba de Chow supone que se conoce los puntos de ruptura estructural. No obstante,
si no es posible determinar cuándo ocurrió en verdad el cambio estructural, habrá que
utilizar otros métodos.

8.8 Predicción con regresión múltiple.

El modelo estimado de regresión con dos variables sirve para la predicción de la media, y para
predicción individual. La regresión múltiple estimada también sirve para fines similares, y el
procedimiento para hacerlo es una extensión directa del caso de dos variables, con excepción
de las fórmulas para estimar la varianza y el error estándar de los valores de pronóstico, las
cuales son más bien complejas.
8.9 La tríada de las pruebas de hipótesis: razón de verosimilitud (RV), de Wald (W) y
del multiplicador de Lagrange (ML).
Se utiliza generalmente, las pruebas t, F y ji cuadrada para probar diversas hipótesis en el
contexto de los modelos de regresión lineal. Pero una vez que se sale de los modelos de
regresión lineal, se necesitan métodos para probar hipótesis con los que se manejen modelos
de regresión, lineales o no lineales. Con la conocida tríada de pruebas de verosimilitud, de
Wald y del multiplicador de Lagrange se logra este propósito. Lo interesante es que
asintóticamente (es decir, en muestras grandes) las tres pruebas son equivalentes en cuanto a
que la estadística de prueba asociada a cada prueba sigue la distribución ji cuadrada.
Para Davidson y MacKinnon los modelos de regresión lineal, con errores normales o sin ellos,
no hay necesidad de revisar ML, W y RV, pues, al hacerlo no se gana información adicional a
la contenida en F.
8.10 Prueba de la forma funcional de la regresión: elección entre modelos de regresión
lineal y log-lineal.
La selección entre un modelo de regresión lineal (la regresora es una función lineal de las
regresoras) o un modelo de regresión log-lineal (el logaritmo de la regresora es función de los
logaritmos de las regresoras) es la eterna pregunta en el análisis empírico. Se puede utilizar
una prueba propuesta por MacKinnon, White y Davidson, que se denomina, por brevedad,
prueba MWD, para escoger entre los dos modelos.
Aunque la prueba MWD parece compleja, su lógica es muy simple. Si el modelo lineal es en
realidad el modelo correcto, la variable construida Z1 no debe ser estadísticamente signifi
cativa en el paso IV, pues en ese caso los valores Y estimados del modelo lineal y los
estimados del modelo log-lineal (después de obtener sus valores antilog para efectos
comparativos) no deben diferir. El mismo comentario vale para la hipótesis alterna H1

También podría gustarte