Está en la página 1de 2

Meylin Patricia Fugón Gómez

2017 1930 397

1. ¿Por qué se le llama estimación de mínimos cuadrados ordinarios?

R// Surge del modelo de Gauss o modelo clásico o estándar de regresión lineal y lo hace

es minimizar los residuales, si tenemos una regresión simple lo que hacemos es

minimizar la sumatoria del cuadrado de los errores. Lo que tratamos de minimizar es la

dispersión que tiene la regresión lineal.

2. Defina la diferencia entre el error y el residual, ¿En qué consiste esta diferencia?

R// El residual es la diferencia entre el valor real y el valor ajustado (o predicho); existe

un residual para cada observación en la muestra, y se usa para obtener una línea de

regresión de MCO.

El error es una variable aleatoria (estocástica) con propiedades probabilísticas bien

definidas. El término de perturbación u representa todos los factores que afectan el

consumo pero que no se consideran en el modelo en forma explícita.

3. ¿Cuáles son los supuestos básicos de los Mínimos Cuadrados Ordinarios?

1. El modelo de regresión es lineal en los parámetros

2. Valores fijos de X, o valores de X independientes del término de error.

3. El valor medio de la perturbación U i es igual a cero. E ( U i|X i) =0

4. Homocedasticidad o varianza constante de U i . La varianza del error debe ser igual a

sigma cuadrada σ 2.

5. No hay autocorrelación entre las perturbaciones. Dados los valores cualesquiera de X,

Xi, Xj, (i ≠ j), la correlación entre dos ui y uj cualesquiera (i ≠ j) es cero.


6. El número de observaciones debe ser mayor que el número de parámetros por

estimar.

7. La naturaleza de las variables X. No todos los valores X en una muestra determinada

deben ser iguales. Técnicamente, var(X) debe ser un número positivo. Además, no

puede haber valores atípicos de la variable X, es decir valores muy grandes en

relación con el resto de las observaciones.

4. Si E(U i∨X i )≠ 0 es decir el valor esperado de los errores dado los diferentes valores de X

es diferente de 0, ¿Cuál es el problema? ¿Y cual es el problema de la estimación?

R// si E ( U i|X i) =0 no se satisface E(U i∨X i )≠ 0 , los estimadores de MCO son, por lo

general, sesgados.

Omitir un factor importante correlacionado con cualquiera de las x1, x2, …, xk ocasiona

también que el supuesto no se satisfaga. En el análisis de regresión múltiple pueden

incluirse muchos factores entre las variables explicativas y es menos probable que las

variables omitidas sean un problema en comparación con el análisis de regresión simple.

De cualquier manera, en toda aplicación, hay factores que, debido a las limitaciones de

los datos o a ignorancia, no pueden incluirse. Si se cree que estos factores deben

controlarse y están correlacionados con una o más de las variables independientes, se

violará el supuesto.

Supuesto: El valor medio de la perturbación Ui es igual a cero. E (Ui│Xj) = 0

También podría gustarte