Está en la página 1de 66

MÍNIMOS CUADRADOS ORDINARIOS

PATRICIA AYALA NAVIA


SOBRESTIMA

SUBESTIMA
M.C.O
MODELO DE REGRESIÓN
CON DOS VARIABLES
MÁXIMA
VEROSIMILITUD
𝛽 0 𝛽1

𝛽0 ^
^ 𝛽1
^𝛽 ^𝛽
0 1

RESIDUOS: las
diferencias entre
los valores
observados
y los estimados
de Y.
^𝛽 ^
𝛽 11
0

SUMATORIA DE LOS
RESIDUALES AL
CUADRADO
^
𝛽1
^𝛽
0

^𝛽 ^
𝛽1
0
CARACTERÍSTICAS DE LOS ESTIMADORES:
• Los estimadores de MCO se expresan
únicamente en términos de las cantidades (es
decir, X y Y ) observables (es decir, muestras). Por
consiguiente, se calculan con facilidad.
• Son estimadores puntuales: dada la muestra,
cada estimador proporciona un solo valor
(puntual) del parámetro poblacional pertinente.
PROPIEDADES FRM
• Pasa a través de las
medias muestrales de Y
yX
• El valor medio de Y
^𝛽 ^
𝛽1
estimada es igual al 0

valor medio de Y real ^


𝛽1 ^
𝛽1
^
𝛽1
• El valor medio de los ^𝛽 ^
𝛽1
0
residuos es cero.
• Los residuos no están correlacionados con Xi; es
decir:
SUPUESTOS MCRL
^
𝛽1
1. El modelo de regresión
es lineal en los
parámetros, aunque
puede o no ser lineal
en las variables.
2. Los valores que toma la
regresora X pueden
considerarse fijos en
muestras repetidas (el
caso de la regresora fija),
o haber sido muestreados
junto con la variable
dependiente Y (el caso de
la regresora estocástica).
3. Dado el valor de Xi, la
media o el valor
esperado del término
de perturbación
aleatoria ui es cero
4. La varianza del término
de error, o de
perturbación, es la misma
sin importar el valor de X.
• Igual dispersión o igual
varianza
• la varianza condicional de
la población Y varía con X.
Esta situación se conoce
apropiadamente como
heteroscedasticidad, o
dispersión desigual, o
varianza desigual.
5. Dados dos valores cualesquiera de X, Xi y Xj (i ≠ j),
la correlación entre dos ui y uj cualesquiera (i ≠j)
es cero. En pocas palabras, estas observaciones se
muestrean de manera independiente
AUTOCORRELACIÓN AUTOCORRELACIÓN NO
POSITIVA NEGATIVA AUTOCORRELACIÓN
6. El número de • Se necesitan por lo
observaciones n debe menos dos pares de
ser mayor que el observaciones para
número de variables estimar los parámetros
explicativas.
• No todos los valores X en • Si todos los valores de X
una muestra determinada son idénticos, Xi =y el
• deben ser iguales. denominador de esa
Técnicamente, var(X) debe
ecuación será cero, lo
ser un número positivo.
Además, no puede haber que imposibilita la
valores atípicos de la estimación de β2 y, por
variable X, es decir, valores consiguiente, de β1.
muy grandes en relación
con el resto de las
observaciones.
• Los valores cambian de
constante o
una muestra a otra. varianza
Para ello se requiere homoscedásti
ca de ui
una medida de
confiabilidad o precisión
de los estimadores.
• La precisión de un valor
estimado se mide por
su error estándar (ee).
GRADOS DE LIBERTAD.
el número total de
observaciones en la
muestra
( n) menos el número de
restricciones (lineales)
independientes o de
restricciones que se les
impusieron
es el estimador de MCO
de la verdadera pero
desconocida
• Para calcular el error estándar de la estimación o error
estándar de la regresión
error estándar de estimación o el
error estándar de la regresión
(ee).
la desviación estándar de los
valores Y alrededor de la línea de
regresión estimada
también se denomina desviación
estándar (condicional) de ui
y Yi
PROPIEDADES DE LA VARIANZA
1. La varianza de es directamente proporcional a pero
inversamente proporcional a es decir, etre mayor sea la
variación de los valores de x, menor será la varianza de y por
lo tanto, mayor será la precisión con la cual estimar .

Entre mayor sea n mayor será su precisión


2. La varianza de es directamente proporcional
a σ² y a σxi² , pero inversamente proporcional
a Y al tamaño n de la muestra.
• Como y son estimadores, no sólo variarán de
una muestra a otra, sino también, en una
muestra dada, es probable que dependan
entre sí; esta dependencia se mide por la
covarianza entre ellos.
COVARIANZA
• Como la varianza de
cualquier variable es
positiva, el signo de la
covarianza depende de
la .

• Si es positiva, la
covarianza es negativa.
COEFICIENTE DE DETERMINACIÓN:
BONDAD DE AJUSTE
• El coeficiente de determinación:

• (Caso de dos variables) o R² (regresión múltiple) es una


medida comprendida que dice cuán bien se ajusta la línea de
regresión muestral a los datos.
DIAGRAMA DE VENN O DE BALLENTINE
• si r² = 0 → no hay relación alguna entre la variable regresada y
la variable regresora, es decir que β1 = 0.

• En este caso, ŷi = , es decir, la mejor predicción de cualquier


valor de y es simplemente el valor de su media. En esta
situación, por consiguiente, la línea de regresión será
horizontal al eje x.
• Cuando r² = 1, se dice que hay un ajuste perfecto,
es decir, que la intersección es completa pues
ciento por ciento de la variación en y se explica
por x.
SUMATORIAS DE CUADRADOS
• SUMATORIA TOTAL DE CUADRADOS (STC)

• Variación de los valores reales de Y respecto de su media


muestral
• SUMATORIA EXPLICADA DE CUADRADOS (SEC):

• Variación de los valores de Y estimado alrededor de su


media
• SUMATORIA DE LOS RESIDUALES AL CUADRADO (SRC):

• Variación residual o no explicada de los valores de Y alrededor


de la línea de regresión
• SUMA TOTAL DE CUADRADOS:

• STC = SEC + SRC

• Muestra que la variación total en los valores de Y observados


alrededor del valor de su media puede dividirse en dos
partes, una atribuible a la línea de regresión y la otra a fuerzas
aleatorias, pues no todas las observaciones y caen sobre la
línea ajustada
CALCULO DEL COEFICIENTE DE DETERMINACIÓN
MUESTRAL
COEFICIENTE DE DETERMINACIÓN MUESTRAL

• Es la medida más utilizada de la bondad de ajuste de


una línea de regresión

• Mide la proporción o el porcentaje de la variación total


en Y explicada por el modelo de regresión.
COEFICIENTE DE DETERMINACIÓN MUESTRAL

• Es la medida más utilizada de la bondad de ajuste de


una línea de regresión

• Mide la proporción o el porcentaje de la variación total


en Y explicada por el modelo de regresión.
PROPIEDADES DEL r²
1. Es una cantidad no negativa

2. Sus limites están entre 0 y 1,

• Cuando r²= 0 se dice que no hay relación entre las variables. (Β₂ = 0) la
línea de regresión será horizontal al eje X

• Cuando r² = 1 se dice que hay un ajuste perfecto entre las variables.


COEFICIENTE DE CORRELACIÓN (r)
• Es la medida o el grado de asociación entre dos
variables
PROPIEDADES (r)

1. Puede tener signo positivo o negativo, según sea el signo del


numerador.
2. Cae entre los límites -1 y 1, es decir:
3. Es simétrico por naturaleza; es decir, el coeficiente de
correlación entre x y y (rxy) es el mismo que entre y y x (ryx)
• Si X y Y son estadísticamente independientes, el
coeficiente de correlación entre ellas es cero; pero si
r=0 , esto no significa que las dos variables sean
independientes. En otras palabras, una correlación
igual a cero no necesariamente implica
independencia
VARIABLES ESTADISTICAMENTE INDEPENDIENTES

• Dos variables estadísticas son estadísticamente


independientes cuando el comportamiento estadístico
de una de ellas no se ve afectado por los valores que
toma la otra
• Es una medida de asociación lineal o dependencia lineal
solamente; su uso en la descripción de relaciones no lineales
no tiene significado.

• Ejemplo: y = x²

• Es una relación exacta y a pesar de ello r es cero


• r² es una medida con más significado que r, pues la
primera indica la proporción de la variación en la
variable dependiente explicada por la(s) variable(s)
explicativa(s) y, por consiguiente, constituye una
medida global del grado en que la variación en una
variable determina la variación en la otra
CALCULO:
EJERCICIO
X Y
CON LOS SIGUIENTES DATOS CALCULE:
40 380
25 410
A) EL VALOR DE CADA UNO DE LOS PARÁMETROS
20 390
B) EL MODELO DE REGRESIÓN MUESTRAL
22 370 C) LA VARIANZA Y EL ERROR ESTANDAR
31 475 PARA CADA UNO DE LOS PARÁMETROS
52 450 D)
40 500
20 390
55 575
42 520
∑ ^2 ∑ ( 𝑦 𝑖− ^
𝑢 𝑦𝑖)
^
𝜎 2
= =
𝑛 −𝑘 𝑛 −𝑘
EJERCICIO
X Y XY X² Ŷ
40 380 15200 1600 466,8
25 410 10250 625 407,55
20 390 7800 400 387,8
22 370 8140 484 395,7
31 475 14725 961 431,25
52 450 23400 2704 414,2
40 500 20000 1600 466,8
20 390 7800 400 387,8
55 575 31625 3025 526,05
42 520 21840 1764 474,7
∑X = 347 4460 160780 13563 4458,65
• = 3,95

• = 308,80
HALLANDO LOS VALORES DE LA VARIANZA Y EL ERROR
ESTANDAR

• = 2474,568438

• = 49,7450
• = 46,9528
• CALCULAMOS LA VARIANZA DE LOS
PARÁMETROS:

• = 1,6257

También podría gustarte