Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Ejemplo de una regresin lineal con una variable dependiente y unavariable independiente.
En estadstica la regresin lineal o ajuste lineal es un mtodo matemtico que modela la relacin entre una variable dependiente Y, las variables independientes Xi y un trmino aleatorio . Este modelo puede ser expresado como:
: variable dependiente, explicada o regresando. : variables explicativas, independientes o regresores. : parmetros, miden la influencia que las variables explicativas tienen sobre el regresando. donde es la interseccin o trmino "constante", las son los parmetros
en cuenta en la regresin. La regresin lineal puede ser contrastada con la regresin no lineal.
ndice
[ocultar]
1 Historia
1.1 Etimologa
2 El modelo de regresin lineal 3 Hiptesis modelo de regresin lineal clsico 4 Supuestos del modelo de regresin lineal 5 Tipos de modelos de regresin lineal
5.1.1 Anlisis
o o o
controlables u observables y que por tanto se asocian con el azar, y es la que confiere al modelo su
carcter estocstico. En el caso ms sencillo, con una sola variable explicativa, el hiperplano es una recta: (3) El problema de la regresin consiste en elegir unos valores determinados para los parmetros desconocidos , de modo que la ecuacin quede completamente especificada. Para ello se
necesita un conjunto de observaciones. En una observacin cualquiera i-sima (i= 1,... I) se registra el comportamiento simultneo de la variable dependiente y las variables explicativas (las perturbaciones aleatorias se suponen no observables). (4) Los valores escogidos como estimadores de los parmetros, , son los coeficientes de regresin,
sin que se pueda garantizar que coinciden con parmetros reales del proceso generador. Por tanto, en (5) Los valores son por su parte estimaciones de la perturbacin aleatoria o errores.
Para cada valor de X la perturbacin tomar distintos valores de forma aleatoria, pero no tomar sistemticamente valores positivos o negativos, sino que se supone que tomar algunos valores mayores que cero y otros menores, de tal forma que su valor esperado sea cero. 2. Homocedasticidad para todo t Todos los trminos de la perturbacin tienen la misma varianza que es desconocida. La dispersin de cada en torno a su valor esperado es siempre la misma. para todo
Las covarianzas entre las distintas pertubaciones son nulas, lo que quiere decir que no estn correlacionadas o autocorrelacionadas. Esto implica que el valor de la perturbacin para cualquier observacin muestral no viene influenciado por los valores de la perturbacin correspondientes a otras observaciones muestrales. 4. Regresores no estocsticos. 5. No existen relaciones lineales exactas entre los regresores.
6.
Derivando respecto a
(9)
(10)
Obteniendo dos ecuaciones denominadas ecuaciones normales que generan la siguiente solucin para ambos parmetros:4
(11)
(14)
(15) La correlacin ("r") de las rectas determinar la calidad del ajuste. Si r es cercano o igual a 1, el ajuste ser bueno y las predicciones realizadas a partir del modelo obtenido sern muy fiables (el modelo obtenido resulta verdaderamente representativo); si r es cercano o igual a 0, se tratar de un
ajuste malo en el que las predicciones que se realicen a partir del modelo obtenido no sern fiables (el modelo obtenido no resulta representativo de la realidad). Ambas rectas de regresin se intersecan en un punto llamado centro de gravedad de la distribucin.
Representamos en un grfico los pares de valores de una distribucin bidimensional: la variable "x" en el eje horizontal o eje de abcisa, y la variable "y" en el eje vertical, o eje de ordenada. Vemos que la nube de puntos sigue una tendencia lineal:
El coeficiente de correlacin lineal nos permite determinar si, efectivamente, existe relacin entre las dos variables. Una vez que se concluye que s existe relacin, la regresin nos permite definir la recta que mejor se ajusta a esta nube de puntos.
y = a + bx
Donde "y" sera la variable dependiente, es decir, aquella que viene definida a partir de la otra variable "x" (variable independiente). Para definir la recta hay que determinar los valores de los parmetros "a" y "b": El parmetro "a" es el valor que toma la variable dependiente "y", cuando la variable independiente "x" vale 0, y es el punto donde la recta cruza el eje vertical. El parmetro "b" determina la pendiente de la recta, su grado de inclinacin.
La regresin lineal nos permite calcular el valor de estos dos parmetros, definiendo la recta que mejor se ajusta a esta nube de puntos. El parmetro "b" viene determinado por la siguiente frmula:
Es la covarianza de las dos variables, dividida por la varianza de la variable "x". El parmetro "a" viene determinado por:
a = ym - (b * xm)
Es la media de la variable "y", menos la media de la variable "x" multiplicada por el parmetro "b" que hemos calculado. Ejemplo: vamos a calcular la recta de regresin de la siguiente serie de datos de altura y peso de los alumnos de una clase. Vamos a considerar que la altura es la variable independiente "x" y que el peso es la variable dependiente "y" (podamos hacerlo tambin al contrario): Alumno Estatura Peso Alumno Estatura Peso Alumno Estatura Peso x x x x x x x x x Alumno 1 1,25 32 Alumno 11 1,25 33 Alumno 21 1,25 33 Alumno 2 1,28 33 Alumno 12 1,28 35 Alumno 22 1,28 34 Alumno 3 1,27 34 Alumno 13 1,27 34 Alumno 23 1,27 34 Alumno 4 1,21 30 Alumno 14 1,21 30 Alumno 24 1,21 31 Alumno 5 1,22 32 Alumno 15 1,22 33 Alumno 25 1,22 32 Alumno 6 1,29 35 Alumno 16 1,29 34 Alumno 26 1,29 34 Alumno 7 1,30 34 Alumno 17 1,30 35 Alumno 27 1,30 34 Alumno 8 1,24 32 Alumno 18 1,24 32 Alumno 28 1,24 31 Alumno 9 1,27 32 Alumno 19 1,27 33 Alumno 29 1,27 35 Alumno 10 1,29 35 Alumno 20 1,29 33 Alumno 30 1,29 34 El parmetro "b" viene determinado por: (1/30) * 1,034
b = ----------------------------------------- = 40,265
(1/30) * 0,00856 Y el parmetro "a" por:
y = -17,714 + (40,265 * x)
Esta recta define un valor de la variable dependiente (peso), para cada valor de la variable independiente (estatura):
Queremos utilizar estos datos para construir una funcin de demanda para el mercado de los bienes races. (Recuerde que una funcin de demanda especifica la demanda, y, medida aqu por ventas anual, como una funcin del precio, x.) Aqu est una traza de y contra x:
Los datos sugiera una recta, ms o menos, y entonces una relacin lineal entre y y x. Aqu son varias rectas que se acercan a los puntos:
P Cul recta ajusta los puntos lo ms estrechamente que posible? R Nos gustara que las ventas que pronosticara la recta (los valores pronosticados ) estuvieran tan
cerca como fuera posible de las ventas reales (los valores observados). Las diferencias entre los valores esperados y los valores pronosticados, que son los errores residuales, son las distancias verticales que se marcan in la figura ms abajo. Error residual = Valor observado - Valor pronosticado
P Entonces como podemos hacerlo? R Sumamos primero todos los cuadrados de los errores residuales para obtener un solo error que se
llama el suma de los errores al cuadrado (SSE -- siglas en ingls de "Sum of Squares Error") y escogemos la recta que se da el ms pequeo valor de SSE. Esta recta se llama la recta de mejor ajuste, recta de regresin, o recta de mnimos cuadrados asociada a los datos.
y 126 103 82 75 82 40 20
Entonces, para la recta y=x+300 SSE = Suma de los valores de errores residuales = - 14 - 17 - 18 - 5 + 22 + 0 + 0 = -32
P Muy bien. Ahora sabemos como se calcula el valor de SSE para una recta ya dada. Como
hallamos la recta de mejor ajuste; es decir, la recta para que SSE es lo menor? R Presentaremos aqu la formula que la determina. Justificarla necesita clculo; puede consultar el capitulo de funciones de varias variables en Clculo Aplicado para una explicacin detallada.
Recta de regresin (o mejor ajuste)
(x 2 y 2 )
y=mx+b
donde
Pendiente=m=n
(x2)
x 2n
xy
Interseccin=b=n
Aqu,
y m
x + xn yn x= suma
xx 1
xx
1 2 3 4
yy
1.5 1.6 2.1 3.0
xyxy
x2 x2
x= 10
y= 8.2
xy=
x2 =
y m
x =48 2(0
y=0 5x+0 8
Antes de seguir... Aqu esta una traza de los pontos de dados y la recta de regresin.
Observe que ni siquiera pasa la recta por uno de los puntos, pero es la recta que se ajusta mejor a los puntos.
Regresamos a los datos sobre la demanda para el mercado de los bienes races con la que empezamos este tema.
Solucin Aqu esta una tabla como la que usamos ms arriba para organizar las calculaciones:
xx
160 180 200 220 240 260 280
yy
126 103 82 75 82 40 20
xyxy
20,160 18,540 16,400 16,500 19,680 10,400 5,600
x2 x2
25,600 32,400 40,000 48,400 57,600 67,600 78,400
x=1540
y=528
xy=107 280
x2=350 000
Pendiente=m=n (x2) x 2n xy x y =7(350 000)154027(107 280)(1540)(528) 0 7929 Interseccin=b=n x 7528(0 7928571429)(1540) 249 9
y m
Observe que usamos el valor ms exacto que pudimos obtener en la calculadora, m 0 7928571429, en lugar del valor redondeado (0 7929) en la calculacin de b. Eso ilustra la sigiuente regla general: Al calcular, no redondee los resultados intermedios; en vez de eso, utilice los resultados ms exactos que puede obtener, usando los valores guardados en su computadora o calculadora si es posible. Por lo tanto, la recta de regresin es
y=0 7929x+249 9
Ahora podemos utilizar esta ecuacin pronosticar las ventas anuales de casa cuyo precio es $140,000: Ventas anuales de casas preciadas a $140,000 redondee al nmero entero ms cercano
P Si mis puntos estn en una recta, est la recta de mejor ajuste? R S. Si los puntos estn en una recta, el valor mnimo posible de SSE es cero, y eso sucede si se usa
la recta que pasa por todos los puntos. Una consecuencia de este hecho es que se puede usar la herramienta regresin en su graficadora o la herramienta regresin en este sitio para calcular la ecuacin de la recta que pasa por dos puntos especificados.
P Si no todos los untos estn en una recta, cmo puedo saber cunto se acercan a una recta? R Hay un nmero que mide la "bondad de ajuste" de la recta de regresin llamado coeficiente de correlacin. Este nmero, que se representa por r, est entre 1 y 1. Cuanto ms se acerca r a1 o 1, el ajuste es mejor. Si el ajuste es malo, se acerca r a 0. Si el ajusto es exacto, r=1 para una recta con pendiente negativa, o r=1 para una recta de pendiente positiva. La
figura ms abajo muestra varios conjuntos de puntos con sus rectas de regresin, y los valores correspondientes de r.
El coefficiente de correlacin se puede calcular con la siguiente formula. Para obtener la se requieren buenos conocimientos de estadstica.
Coeficiente de correlacin
xy
x2
y2
y=Arx ?
R La idea es convertir una curva exponencial a una recta por medio de logaritmos, como sigue:
Empiece con la funcin exponencial
y=Arx
y tome el logaritmo de ambos lados:
logy=log(Arx)
Las propiedades de logaritmos nos dan entonces
r A =10m =10b
Para resumir,
Regresin exponencial
y=Arx
1. Obtenga la recta de regresin usando los datos (x 2. Los coeficientes deseados A y r son entonces
logy).
r A =10m =10b
donde m y b son la pendiente y interseccin de la recta de regresin.
RR = Ingreso ($ billn) 3 4 11 25
* Datos son redondeados. Fuente: Informes de compaa/The New York Times, Enero 27, 1998, p. D1.
Solucin Pues necesitamos modelar logR como una funcin lineal de t, primero construimos una tabla con x=t y y=logR , y entonces calculamos la recta de regresin, y=mx+b. x (=t)x (=t) 0 2 4 7
y (=logR)y (=logR) 0.477121 0.602060 1.04139 1.39794 En lugar de hacer la calculacin a mano como hicimos ms arriba, podemos utilizar la herramienta regresin en este sitio para hacerlo automticamente. Simplemente ingrese los valores de x y y y pulse el botn "y=mx+b". (S, la herramienta puede hacer regresin exponencial directamente, pero preferimos que sabe usted como funciona!) La recta de regresin que obtenemos es
R=Art
,