Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Supuestos de La Regresión Lineal
Supuestos de La Regresión Lineal
Curso: MA 7 – 1
Maestro: Eco. Quintero Washington
Supuesto 2: Independencia
Es que los residuos son independientes. Esto es más relevante cuando se trabaja con
datos de series de tiempo. Idealmente, no queremos que haya un patrón entre residuos
consecutivos. Por ejemplo, los residuos no deberían crecer constantemente a medida
que pasa el tiempo.
Cómo determinar si se cumple este supuesto
La forma más sencilla de probar si se cumple este supuesto es observar un gráfico de
serie de tiempo residual, que es un gráfico de residuos frente al tiempo. Idealmente, la
mayoría de las autocorrelaciones residuales deberían caer dentro de las bandas de
confianza del 95% alrededor de cero, que se ubican en aproximadamente +/- 2-sobre la
raíz cuadrada de n, donde n es el tamaño de la muestra. También puede probar
formalmente si se cumple esta suposición mediante la prueba de Durbin-Watson
Qué hacer si se viola esta suposición
Dependiendo de la naturaleza de la forma en que se infringe esta suposición, tiene
algunas opciones:
Supuesto 3: Homocedasticidad
El siguiente supuesto de la regresión lineal es que los residuos tienen varianza constante
en cada nivel de x. Esto se conoce como homocedasticidad. Cuando este no es el caso,
se dice que los residuos sufren de heterocedasticidad.
Cuando la heterocedasticidad está presente en un análisis de regresión, los resultados
del análisis se vuelven difíciles de confiar. Específicamente, la heterocedasticidad
aumenta la varianza de las estimaciones del coeficiente de regresión, pero el modelo de
regresión no detecta esto. Esto hace que sea mucho más probable que un modelo de
regresión declare que un término del modelo es estadísticamente significativo, cuando
en realidad no lo es.
Observe cómo los residuales se dispersan mucho más a medida que los valores ajustados
aumentan. Esta forma de «cono» es un signo clásico de heterocedasticidad:
Nombre: Morales Bonilla Joselyne Madelyne
Curso: MA 7 – 1
Maestro: Eco. Quintero Washington
Qué hacer si se viola esta suposición
Hay tres formas habituales de corregir la heterocedasticidad:
1. Transforme la variable dependiente: Una transformación común es simplemente
tomar el logaritmo de la variable dependiente. Por ejemplo, si usamos el tamaño de la
población (variable independiente) para predecir el número de floristerías en una ciudad
(variable dependiente), podemos intentar usar el tamaño de la población para predecir
el logaritmo del número de floristerías en una ciudad. El uso del logaritmo de la variable
dependiente, en lugar de la variable dependiente original, a menudo hace que
desaparezca la heterocedasticidad.
2. Redefina la variable dependiente: Una forma común de redefinir la variable
dependiente es usar una tasa, en lugar del valor bruto. Por ejemplo, en lugar de usar el
tamaño de la población para predecir el número de floristerías en una ciudad, podemos
usar el tamaño de la población para predecir el número de floristerías per cápita. En la
mayoría de los casos, esto reduce la variabilidad que ocurre naturalmente entre
poblaciones más grandes, ya que estamos midiendo la cantidad de floristerías por
persona, en lugar de la mera cantidad de floristerías.
3. Utilice regresión ponderada: Otra forma de corregir la heterocedasticidad es utilizar
la regresión ponderada. Este tipo de regresión asigna un peso a cada punto de datos en
función de la varianza de su valor ajustado. Esencialmente, esto da pequeños pesos a los
puntos de datos que tienen variaciones más altas, lo que reduce sus residuos al
cuadrado. Cuando se utilizan los pesos adecuados, esto puede eliminar el problema de
la heterocedasticidad.
Supuesto 4: Normalidad
El siguiente supuesto de la regresión lineal es que los residuos se distribuyen normalmente.
1. Lineales Supone que las estimaciones de los parámetros, esto es, las b, pueden
expresarse como combinación lineal de las y.
3. Óptimos Supone que los estimadores MCO, de todos los estimadores que son
lineales e insesgados (es decir no estamos considerando todos los estimadores
posibles, únicamente los que son lineales e insesgados), son aquellos que
tienen una mínima varianza.
De acuerdo con el teorema de Gauss-Markov, no es posible reducir la
varianza de los estimadores lineales y al mismo tiempo garantizar que
permanezcan insesgados. Esto significa que es posible que los estimadores
no lineales tengan una varianza más pequeña, o que los estimadores lineales
no estén sesgados, pero tengan una varianza más pequeña. Sin embargo, no
existe un estimador lineal e insesgado que pueda tener una varianza menor.
Bibliografía:
3_Regresion_lineal_multiple_estimacion_y_propiedades-libre.pdf
(d1wqtxts1xzle7.cloudfront.net)
tema2.pdf (ua.es)