Está en la página 1de 4

DEFINICIÓN DEL MODELO CLÁSICO DE REGRESIÓN LINEAL SIMPLE

El objetivo de un modelo de regresión es tratar de explicar la relación que existe entre una
variable dependiente (variable respuesta) Y un conjunto de variables independientes
(variables explicativas) X1, ..., Xn. En un modelo de regresión lineal simple tratamos de
explicar la relación que existe entre la variable respuesta Y y una única variable explicativa
X.
Mediante las técnicas de regresión de una variable Y sobre una variable X, buscamos una
función que sea una buena aproximación de una nube de puntos (xi, yi), mediante una curva
del tipo:
El modelo de regresión lineal simple tiene la siguiente expresión: Y = α + βX + ε
En donde  es la ordenada en el origen (el valor que toma Y cuando X vale 0),  es la
pendiente de la recta (e indica cómo cambia Y al incrementar X en una unidad) y  una
variable que incluye un conjunto grande de factores, cada uno de los cuales influye en la
respuesta sólo en pequeña magnitud, a la que llamaremos error. X e Y son variables
aleatorias, por lo que no se puede establecer una relación lineal exacta entre ellas.
Supuestos del Modelo Clásico de Regresión
Supuesto 1: modelo de regresión lineal
-Es decir, sigue una tendencia lineal, dado que el modelo se sustenta en promedios, y al ser
promedios sigue una tendencia promediar
Supuesto 2: los valores de X son fijos en un muestreo repetido
-Los X deben seguir una secuencia de carácter lógico a lo menos en un 80%, es decir, deben
guardar una relación directa o inversamente proporcional.
-Cuando los valores son demasiados fluctuantes no sirve este modelo
Supuesto 3:
-los residuos deben comportarse como una distribución normal en la que tienda al centro, es
decir, a 0.
- si el residuo no tiende a 0, se descarta porque los residuos no se comportarán como una
distribución normal
Supuesto 4:
-El modelo debe ser homocedasico, es decir, que tiende a comportarse los residuos de manera
similar dentro de los datos. Si existe homocedasicidad se comprueba con la varianza.
-la varianza tendría que tender a 0
-Si el modelo es homocedasico, se sigue al siguiente paso (supuesto 5).
Si el modelo es heterocedas%co en sus residuos, se descarta el modelo.
Heterocedas%cidad: significa que es distinta la varianza de una variable con las otras.
Todos los residuos tienen distintas varianzas, por lo tanto, los datos variaran mucho y la
predicción que podemos hacer del futuro no será cierto.
Supuesto 5: No existe auto correlación entre las perturbaciones
Covarianza: relación entre 2 variables; a diferencia de la correlación, la covarianza es
bidimensional, es decir, que ve la relación que hay entre un dato1 y dato2, y de dato2 a
dato1. Cómo una in/ere en la otra y como la otra in/ere en la una. (Viceversa)
La correlación solo ve la relación de una variable con el otro, no viceversa.
Según este supuesto, se espera que las variables no estén auto correlacionadas, es decir, no
se puede tomar una extensión de la misma variable.
Para aprobar este supuesto, la covarianza debe ser 0.
Perturbaciones: residuos.
Gráfico 1: correlación positiva (NO ES VALIDA)
Gráfico 2: correlación negativa (NO ES VALIDA)
Gráfico 3: correlación nula. (0) (ESTA ES LA VÁLIDA)
Supuesto 6: La covarianza entre el residuo y el eje x debe ser 0
Supuesto 7: el número de observaciones “n” debe ser mayor que el número de
parámetros por estimar
-no se puede estimar por sobre los datos que tengo
Ejemplo: n: de 1 año
Estimaciones: de 6 meses.
Supuesto 8: variabilidad en los valores de “x”.
La varianza de x debe ser mayor de 0, porque los datos deben variar. “x” se debe mover
porque si no se mueve no explicaría nada, no estaríamos estudiando nada.
Supuesto 9: el modelo de regresión está correctamente especificado.
-a mayor comportamiento de “x”, los datos se van expandiendo.
Supuesto 10: No hay multicolinealidad perfecta.
-No hay relaciones perfectamente lineales entre las variables explicativas.
Propiedades de los Estimadores
Un estimador es un estadístico (una función de la muestra) utilzado para estimar un parámetro
desconocido de la población.
Por ejemplo, si se desea conocer el precio medio poblacional de un artículo (parámetro
desconocido) se recogen observaciones del precio de dicho artículo en diversos
establecimientos (muestra) pudiendo utilizarse la media aritmética de las observaciones para
estimar el mecio medio poblacional.
Para cada parámetro pueden existir varios estimadores diferentes. En general, se elige al
estimados que posea mejores propiedades que los restantes, como insesgadez, eficiencia,
convergencia y robustez (consistencia).
El valor de un estimador proporciona una eestimación puntual del valor del parámetro en
estudio. En general, se realiza la estimación mediante un intervalo, es decir, se obtiene un
intervalo(parámetro muestral +- error muetsral) dentro del cual se espera se encuentre el valor
poblacional dentro de un cierto nivel de confianza.
El nivel de confianza es la probabilidad de qe a priori el valor poblacional se enceuntre
contenido en el intervalo.
*Teorema de Gauss-Márkov:
Bajo las hipótesis básicas del MRL, el estimador MCO (Mínimos Cuadrados Ordinarios) de
β es óptimo entre la familia de estimadores lineales e insesgados.
Es decir, no es posible encontrar otro estimador de β que siendo lineal e insesgado tenga una
varianza menor que el estimador MCO.
Al referirnos que los estimadores “B” tienen varianza mínima, podemos decir de la forma
más simple, que presentan el menor error cuadrático comparado a otros estimadores, y hace
por ello que sean los más eficientes, todo esto con el fin de que la función de regresión
muestral sea lo más cercana posible a la función de regresión poblacional, por lo que
podemos hablar de insesgadez.

También podría gustarte