Está en la página 1de 3

Heterocedasticidad

Definición
En estadística se dice que un modelo de regresión
lineal presenta heterocedasticidad cuando la varianza de las perturbaciones no es
constante a lo largo de las observaciones.
Esto implica el incumplimiento de una de las hipótesis básicas sobre las que se asienta el
modelo de regresión lineal.
De ella se deriva que los datos con los que se trabaja son heterogéneos, ya que provienen
de distribuciones de probabilidad con distinta varianza.
Existen diferentes razones o situaciones en las que cabe encontrarse con perturbaciones
heteroscedásticas. La situación más frecuente es en el análisis de datos de corte
transversal, ya que los individuos o empresas o unidades económicas no suelen tener un
comportamiento homogéneo.
Otra situación en la que se presenta heteroscedasticidad es en muestras cuyos datos son
valores que se han obtenido agregando o promediando datos individuales.

Existen diversos métodos para determinar la heteroscedasticidad:

 La prueba de White

 La prueba de Park

 La prueba de Goldfeld-Quandt

 El test de Breusch-Pagan

Autocorrelación
La autocorrelación o dependencia secuencial es una herramienta estadística utilizada
frecuentemente en el procesado de señales.
La función de autocorrelación se define como la correlación cruzada de la señal consigo
misma. La función de autocorrelación resulta de gran utilidad para encontrar patrones
repetitivos dentro de una señal, como la periodicidad de una señal enmascarada bajo
el ruido o para identificar la frecuencia fundamental de una señal que no contiene dicha
componente, pero aparecen numerosas frecuencias armónicas de esta.
Defincion
En estadística, la autocorrelación de una serie temporal discreta de un proceso Xt no es más
que simplemente la correlación de dicho proceso con una versión desplazada en el tiempo
de la propia serie temporal.
Si Xt representa un proceso estacionario de segundo orden con un valor principal de μ se
define entonces:

donde E es el valor esperado y k el desplazamiento temporal considerado


(normalmente denominado desfase). Esta función varía dentro del rango [−1, 1], donde
1 indica una correlación perfecta (la señal se superpone perfectamente tras un
desplazamiento temporal de k) y −1 indica una anticorrelación perfecta. Es una práctica
común en muchas disciplinas el abandonar la normalización por σ² y utilizar los
términos autocorrelación y autocovarianza de manera intercambiable.

Homoscedasticiad

En estadística se dice que un modelo predictivo presenta homocedasticidad cuando


la varianza del error condicional a las variables explicativas es constante a lo largo de las
observaciones.1
Un modelo estadístico relaciona el valor de una variable a predecir con el de otras. Si el
modelo es insesgado, el valor predicho es la media de la variable a predecir. En cualquier
caso, el modelo da una idea del valor que tomará la variable a predecir.
Por simplificar el análisis, si se supone que la variable a predecir es escalar, aquí definida
como n , y que se explica mediante un conjunto de variables que

Este error es una variable aleatoria: tomará un valor distinto cada vez que se ejecute el
modelo. Se habla de homocedasticidad si el error cometido por el modelo tiene
siempre la misma varianza. En particular, si el modelo es homocedástico, el valor de las
variables explicativas, E, no afectará a la varianza del error.
La homocedasticidad es una propiedad fundamental del modelo de regresión
lineal general y está dentro de sus supuestos clásicos básicos.
Formalizando, se dice que existe homocedasticidad cuando la varianza de los errores
estocásticos de la regresión es la misma para cada observación i (de 1
a n observaciones), es decir:

donde es un escalar constante para todo i. Lo que significaría que habría una
distribución de probabilidad de idéntica amplitud para cada variable aleatoria.
Esta cualidad es necesaria, según el Teorema de Gauss-Márkov, para que en un
modelo los coeficientes estimados sean los mejores o eficientes, lineales e
insesgados.
Cuando no se cumple esta situación, se dice que existe heterocedasticidad, que es
cuando la varianza de cada término de perturbación ui no es un número
constante 𝜎 2 .
Este fenómeno suele ser muy común en datos de Corte Transversal y también se
presenta, menos frecuentemente, en series de tiempo.
Si se regresiona un modelo a través de Mínimos Cuadrados Ordinarios con
presencia de heterocedasticidad, los coeficientes siguen siendo lineales e
insesgados pero ya no poseen mínima varianza (eficiencia)
Multicolinealidad
El proceso o término de multicolinealidad en Econometría es una situación en la que se
presenta una fuerte correlación entre variables explicativas del modelo. La correlación ha de
ser fuerte, ya que siempre existirá correlación entre dos variables explicativas en un modelo,
es decir, la no correlación de dos variables es un proceso idílico, que sólo se podría
encontrar en condiciones de laboratorio

Clases de multicolinealidad.
Multicolinealidad exacta
Afirmamos que hay colinealidad exacta, cuando una o más variables, son una combinación lineal
de otra, es decir, existe un coeficiente de correlación entre estas dos variables de 1. Esto provoca
que la Matriz X'X tenga determinante 0, y sea singular (no invertible).

Multicolinealidad aproximada
Afirmamos que hay colinealidad aproximada, cuando una o más variables, no son exactamente
una combinación lineal de la otra, pero existe un coeficiente de determinación entre estas
variables muy cercano al uno y por lo tanto:

También podría gustarte