Está en la página 1de 11
MODELO CLASICO DE REGRESION LINEAL NORMAL (MCRLN) Lo que se conoce como la teoria clasica de la inferencia estadistica est for- mada por dos ramas, a saber: la estimacién y la prueba de hipétesis. Hasta el momento hemos estudiado el tema de la estimacién de los parametros del mo- delo de regresion lineal (de dos variables). Mediante el método MCO pudimos calcular los parametros ,, 8; y 6°, Con los supuestos del modelo clasico de re- gresion lineal (MCRLN) pudimos mostrar que los estimadores de dichos pa- rimetros, pi, psy &, Satisfacen varias propiedades estadisticas deseables, como el insesgamiento, la varianza minima, etc. (Recuerde la propiedad MELI.) Ob- serve que en vista de que son estimadores, sus valores cambiaran de muestra a muestra. Por consiguiente, tales estimadores son variables aleatorias. Pero la estimacién s6lo representa la mitad del todo. La prueba de hipétesis es la otra mitad. Tenga presente que en el andlisis de regresin nuestro objetivo no sélo consiste en estimar la funcién muestral de regresién (FMR), sino tam- bign en utilizarla para obtener inferencias respecto a la funcién de regresin poblacional (FRP), como se hizo énfasis en el capitulo 2. Asi pues, seria conve- niente saber qué tan cerca esta fi de la verdadera fi, 0 qué tan cerca esta 6”a la verdadera o?. Verbigracia, en el ejemplo 3.2 estimamos la SRF como se muestra en la ec. (3.7.2), Pero en vista de que la regresin se basa en una muestra de 55 familias, ¢c6mo sabemos que el MPC estimado de 0.4368 representa el MPC (verdadero) en la poblacién total? Por tanto, ya que i, f, y 6? son variables aleatorias, necesitamos averiguar sus distribuciones de probabilidad, ya que sin conocerlas no podremos relacio- narlas con sus valores verdaderos. 4.1 DISTRIBUCION DE PROBABILIDAD DE LAS PERTURBACIONES u, Para encontrar las distribuciones de probabilidad de los estimadores MCO, pro- cedemos como sigue. De manera especifica, consideramos a ;. Como se mos- tr6 en el apéndice 3A.2, 103 104 PARTE UNO: MODELOS DF REGRESION UNIECUACIONALES B= SKY, (Camp) donde k, = x/Ea7. Pero en vista de que se supone que las X son fijas, 0 no esto- cAsticas, debido a que el nuestro es un anilisis de regresi6n condicional (condi cional en los valores fijos de X), la ec. (4.1.1) muestra que B, es una funcién lineal de Y,, la cual se supone que es aleatoria. Pero dado que ¥,= 8; + BX; + u;, podemos expresar (4.1.1) como B,= DAB, + BX, +) (4.1.2) Debido a que k,, las betas y X, son fijas, B, es a final de cuentas una funcién li- neal de la variable aleatoria u,, que es aleatoria por hipétesis. Por tanto, la dis- tribucién de probabilidad de B; (y también de f,) dependera de la suposicién que se hizo respecto a la distribucién de probabilidad de u,. Y puesto que se requiere conocer las distribuciones de probabilidad de los estimadores MCO para obtener las inferencias sobre sus valores de poblacién, la naturaleza de la distribuci6n de probabilidad de u, desempefia un importante papel en la prueba de hipotesis. Ya que el método de MCO no hace ninguna suposicién concerniente con la naturaleza probabilistica de 1, resulta de poca ayuda para el propésito de de- ducir inferencias sobre PRF mediante el SRF, a pesar del teorema de Gauss- Markov. Este vacio puede llenarse si se supone que las u siguen determinada distribucion de probabilidad. Por las razones que se daran enseguida, en el con- texto de regresion por lo general se supone que las u tienen la distribucion de probabilidad normal. Si a las suposiciones del modelo clasico de regresién li- neal (MCRL) analizadas en el capitulo 3 se atade la suposicién de normalidad para 1,, obtenemos lo que se conoce como el modelo clasico de regresion lineal normal (MCRLN). 4.2 SUPUESTO DE NORMALIDAD La regresién lineal normal clasica supone que cada 1, esté normalmente distri- buida con Media: E(u) = 0 4.2.) Varianza: — Elu;— E(u,)P = Ele) = 0° (4.2.2) cov(u,, 4): Eller; - Ele) Me; - Blu) = Eluyu) = 0 i 4) 4.2.3) Estos supuestos pueden expresarse en forma mas compacta como 4; ~ N(O, 07) (4.2.4) donde ~ significa distribuido y N significa distribucién normal y donde los té minos entre paréntesis representan los dos pardmetros de la distribucién nor mal: la media y la varianza. Se puede observar que para dos variables normalmente distribuidas, una covarianza o correlacién cero significa independencia entre las dos varia- bles. Por consiguiente, con el supuesto de normalidad, (4.2.4) significa que u, ¥ CAPITULO CUATRO: MODELO CLASICO DE REGRESION LINEAL NORMAL (WCALN) 105, 4; no solamente no estan correlacionadas, sino que también estan independien. temente distribuidas. Por consiguiente, podemos escribi u, ~ NID(, 0”) (4.2.5) (4.2.4) como donde NID significa normal ¢ independientemente distribuido. Por qué raz6n debe formularse el supuesto de normalidad? Existen diversas razones. 1. Como se sefialé en la seccién 2.5, u, representa la influencia combinada (sobre la variable dependiente) de un gran ntimero de variables independientes que no se han introducido explicitamente en el modelo de regresién. Como se explic6, esperamos que la influencia de estas variables omitidas o descartadas sea pequefia y, en el mejor de los casos, aleatoria. Ahora, gracias al conocido teorema del limite central (TLC) en estadistica (véase el apéndice A), se puede demostrar que si existe un gran mimero de variables aleatorias independientes ce idénticamente distribuidas entonces, con pocas excepciones, la distribucién de su suma tiende a ser normal a medida que el ntimero de tales variables se incre- menta indefinidamente.' Precisamente este teorema del limite central es el que proporciona una justificacién tedrica para el supuesto de normalidad de 1; 2. Una variante del teorema del limite central establece que aunque el nti- mero de variables no sea muy grande o si estas variables no son estrictamente independientes, su suma puede estar atin normalmente distribuida.? 3. Con el supuesto de normalidad, las distribuciones de probabilidad de los estimadores MCO pueden derivarse facilmente ya que, como se explica en el apéndice A, una propiedad de la distribucién normal es que cualquier funcién lineal de variables normalmente distribuidas estar también normalmen- te distribuida. Como se analiz6 antes, los estimadores MCO fi y Bison funcio- nes lineales de u,. Por consiguiente, six, esta normalmente distribuida, entonces también lo estan yy Bs, lo cual hace que nuestra tarea de la prueba de hipstesis sea muy sencilla, 4. La distribuci6n normal es una distribucién comparativamente sencilla e involucrados parametros (la media y la varianza); es muy conocida y sus pro- piedades tedricas han sido ampliamente estudiadas en estadistica matemati Ademés, al parecer muchos fenémenos se rigen por la distribucién normal. 5. Por tiltimo, si estamos trabajando con una muestra finita o pequefia, di- gamos con datos de 100 o menos observaciones, la suposicién de normalidad desempeiia un papel critico. No solo ayuda a derivar las distribuciones de pro- babilidad exactas de los estimadores MCO, sino también permite utilizar las pruebas estadisticas ¢, F y 7? para los modelos de regresion. Las propiedades "Para un andlisis relativamente sencillo y directo de este teorema, véase Sheldon M. Ross, Introduction to Probability and Staistis or Engineers and Scientist, 2a. ed., Harcourt Academic Press Nueva York. 2000, pp. 193-194, Una excepcién a este teorema es la distribucién de Cauchy, la cual no tiene media ni momentos mis altos. Vease M.G. Kendall yA. Stuart, The Advanced Theory of Charles Griffin & Co., Londres 1960, vol. 1, pp. 248-249. * Para las diversas formas del teorema del limite central, véase Harald Cramer, Mathematical Methods of Statistics, Princeton University Press, Princeton, N. J, 1946, cap. 17 106 PARTE UNO: MODELOS DE REGRESION UNIECUACIONALES iones estadisticas t, F, 77 se estudian en el apéndice 's enseguida, si el tamao de la muestra es razonablemente nde, se podrfa moderar la suposicién de normalidad. Nota preventiva: puesto que estamos “imponiendo” la suposicién de norma- lidad, es menester encontrar aplicaciones précticas que involucren tamafios pequenios de muestras en las que la suposicién de normalidad resulte apropia- da, Mas adelante se desarrollaran algunas pruebas para hacer esto; asimismo, posteriormente se presentarsn situaciones en las que la suposicién de normali- dad quiz sea inadecuada. Pero hasta que no Hegue ese momento, seguiremos considerando valida la suposicién de normalidad por las razones que se aduje- ron antes. 4.3 PROPIEDADES DE LOS ESTIMADORES MCO BAJO EL SUPUESTO DE NORMALIDAD. Si se supone que u, sigue la distribucién normal, como en (4.2.5), los estimadores MCO tienen las propiedades que se mencionan a continuacién; el apéndice A suministra un andlisis general de las propiedades estadisticas deseables de los estimadores, 1, Son insesgados. 2, Tienen varianza minima. En combinacién con 1, esto significa que son insesgados con varianza minima, o estimadores eficientes, 3. Presentan consistencia; esto es, a medida que el tamafo de la muestra aumenta indefinidamente, los estimadores convergen hacia sus verdaderos va- lores poblacionales. 4. B, (al ser una funcién lineal de 1) esta normalmente distribuida con Media: — E(B,) = B, 43.) var(p,): = (3.3.3) (4.3.2) O, en forma mas compacta, B.~N(B,03) Entonces, de acuerdo con las propiedades de la distribucién normal, la variable Z definida como, (4.3.3) sigue la distribucién normal estandar, es decir, una distribucién normal con media cero y varianza unitaria (=1), 0 Z~N(O,1)

También podría gustarte