Está en la página 1de 43

INSTITUTO TECNOLOGICO DE CERRO AZUL

INGENIERIA INDUSTRIAL SISTEMA ABIERTO


MATERIA: ESTADISTICA INFERENCIAL II PRESENTA:
JOSE MARTIN GALINDO LUCAS LUGO DEL ANGEL MARIA DEL CARMEN MARCIAL SANTIAGO EDUARDO PONCIANO CRUA ELVIA EDITH PEREZ SANTIAGO DANIELA SALAZAR AGULAR EMILIANO

CATEDRATICO: ING.JESUS MARIA MARTINEZ HERNADEZ


PERIODO ENERO AGOSTO 2013

Unidad 1 Regresin lineal simple y mltiple

1.1.

Regresin Lineal Simple.

Introduccin El trmino "regresin" fue acuado por Sir Francis Galton (1822-1911), primo de Charles Darwin. Galton estudiaba la eugnica, trmino tambin introducido por s mismo para definir el estudio de la mejora de la raza humana a partir de los caracteres hereditarios. Galton estudi la altura de los hijos con relacin a la altura de sus padres, y prob que la altura de hijos altos regresaba hacia la media de la altura de la poblacin a lo largo de sucesivas generaciones. En otras palabras, hijos de padres extraordinariamente altos tendan a ser en promedio ms bajos que sus padres, e hijos de padres muy bajos tendan a ser en promedio ms altos que sus padres. En la actualidad, el trmino de regresin se utiliza siempre que se busca predecir una variable en funcin de otra, y no implica que se est estudiando si se est produciendo una regresin a la media. Anteriormente a Galton se debe mencionar a Legendre (1752-1833), quien introdujo el mtodo de los mnimos cuadrados utilizndolos para definir la longitud de 1 metro como una diez millonsima parte del arco meridional. Con posterioridad a Galton, las propiedades de las tcnicas de regresin fueron estudiadas por Edgeworth, Pearson y Yule. La tcnica de regresin lineal simple est indicada cuando se pretende explicar una variable respuesta cuantitativa en funcin de una variable explicativa cuantitativa tambin llamada variable independiente, variable regresora o variable predictora. Por ejemplo, se podra intentar explicar el peso en funcin de la altura. El modelo intentara aproximar la variable respuesta mediante una funcin lineal de la variable explicativa. Las suposiciones que se realizan al aplicar las tcnicas de regresin lineal son: -El modelo propuesto es lineal (es decir existe relacin entre la variable explicativa y la variable explicada, y esta relacin es lineal). Es decir se asume que: e se llama error residual. -La variable explicativa se ha medido sin error. riable respuesta) es constante. -Si se desean realizar contrastes de hiptesis sobre los parmetros (coeficientes) o sobre el

Para estudiar la validez del modelo es necesario confirmar estas hiptesis mediante el estudio de los residuos (valores observados - valores predichos): normalidad, tendencias, etc. Cuando no se cumplen los criterios de aplicacin es necesario realizar transformaciones a las variables, o bien para obtener una relacin lineal o bien para homogeneizar la varianza.

Regresin lineal simple. Tiene como objeto estudiar cmo los cambios en una variable, no aleatoria, afectan a una variable aleatoria, en el caso de existir una relacin funcional entre ambas variables que puede ser establecida por una expresin lineal, es decir, su representacin grfica es una lnea recta. Cuando la relacin lineal concierne al valor medio o esperado de la variable aleatoria, estamos ante un modelo de regresin lineal simple. La respuesta aleatoria al valor x de la variable controlada se designa por Yx y, segn lo establecido, se tendr

De manera equivalente, otra formulacin del modelo de regresin lineal simple sera: si xi es un valor de la variable predictora e Yi la variable respuesta que le corresponde, entonces Ei es el error o desviacin aleatoria de Yi . Definicin VALOR MEDIO. Constante que representa el centro de gravedad de la ley de probabilidad de una variable aleatoria y que, en casos de notable simetra en la funcin de densidad, puede interpretarse que dicha constante nos seala la zona donde se sitan los valores de mxima probabilidad de la variable aleatoria. El valor medio o valor esperado de una variable aleatoria X se define como

siempre que dicho valor exista, donde f es la funcin de densidad de la variable.

Estimacin de parmetros.

En un grupo de 8 pacientes se miden las cantidades antropomtricas peso y edad, obtenindose los siguientes resultados: Resultado de las mediciones edad 12 8 10 11 7 7 10 14

peso 58 42 51 54 40 39 49 56 Existe una relacin lineal importante entre ambas variables? Calcular la recta de regresin de la edad en funcin del peso y la del peso en funcin de la edad. Calcular la bondad del ajuste En qu medida, por trmino medio, vara el peso cada ao? En cunto aumenta la edad por cada kilo de peso? Solucin: Para saber si existe una relacin lineal entre ambas variables se calcula el coeficiente de correlacin lineal, que vale:

ya que

Por tanto el ajuste lineal es muy bueno. Se puede decir que el ngulo entre el vector formado por las desviaciones del peso con respecto a su valor medio y el de la edad con respecto a su valor medio, , es:

es decir, entre esos vectores hay un buen grado de paralelismo (slo unos 19 grados de desviacin). La recta de regresin del peso en funcin de la edad es

La recta de regresin de la edad como funcin del peso es

que como se puede comprobar, no resulta de despejar en la recta de regresin de Y sobre X. La bondad del ajuste es

por tanto podemos decir que el de la variabilidad del peso en funcin de la edad es explicada mediante la recta de regresin correspondiente. Lo mismo podemos decir en cuanto a la variabilidad de la edad en funcin del peso. Del mismo modo puede decirse que hay un de varianza que no es explicada por las rectas de regresin. Por tanto la varianza residual de la regresin del peso en funcin de la edad es

y la de la edad en funcin del peso:

Por ltimo la cantidad en que vara el peso de un paciente cada ao es, segn la recta de regresin del peso en funcin de la edad, la pendiente de esta recta, es decir, b1=2,8367 Kg/ao. Cuando dos personas difieren en peso, en promedio la diferencia de edad entre ambas se rige por la cantidad b2=0,3136 aos/Kg de diferencia.

1.1.1. Prueba Hiptesis en Regresin Lineal Simple.

1.1.2. Calidad del Ajuste en Regresin Lineal Simple.

1.1.3. Estimacin y Prediccin por Intervalo en regresin lineal simple.

Medicin -

de

la

adecuacin Anlisis

del

modelo

de

regresin. residual

1.1.4. Uso de un software estadstico.

1.2.

Regresin Lineal Mltiple.

1.2.1. Pruebas de Hiptesis en Regresin Lineal Mltiple.

1.2.2. Intervalos de Confianza y Prediccin en regresin mltiple.

1.2.3. Uso de un software estadstico.

1.3. Regresin no lineal

Ejemplo de regresin no lineal En estadstica, la regresin no lineal es un problema de inferencia para un modelo tipo: y = f(x, ) + Basado en datos multidimensionales x, , donde f es alguna funcin no lineal respecto a algunos parmetros desconocidos . Como mnimo, se pretende obtener los valores de los parmetros asociados con la mejor curva de ajuste (habitualmente, con el mtodo de los mnimos cuadrados). Con el fin de determinar si el modelo es adecuado, puede ser necesario utilizar conceptos de inferencia estadstica tales como intervalos de confianza para los parmetros as como pruebas de bondad de ajuste. El objetivo de la regresin no lineal se puede clarificar al considerar el caso de la regresin polinomial, la cual es mejor no tratar como un caso de regresin no lineal. Cuando la funcin f toma la forma: f(x) = ax2 + bx + c la funcin f es no lineal en funcin de x pero lineal en funcin de los parmetros desconocidos a, b, y c. Este es el sentido del trmino "lineal" en el contexto de la regresin estadstica. Los procedimientos computacionales para la regresin polinomial son procedimientos de regresin lineal (mltiple), en este caso con dos variables predictoras x y x2. Sin embargo, en ocasiones se sugiere que la regresin no lineal es necesaria para ajustar polinomios. Las consecuencias prcticas de esta mala interpretacin conducen a que un procedimiento de optimizacin no lineal sea usado cuando en realidad hay una solucin disponible en trminos de regresin lineal. Paquetes (software) estadsticos consideran, por lo general, ms alternativas de regresin lineal que de regresin no lineal en sus procedimientos. Mtodos Numricos para Regresiones No Lineales Regresin Exponencial

En determinados experimentos, en su mayora biolgicos, la dependencia entre las variables X e Y es de forma exponencial, en cuyo caso interesa ajustar a la nube de puntos una funcin del tipo:

Mediante una transformacin lineal, tomando logaritmos neperianos, se convierte el problema en una cuestin de regresin lineal. Es decir, tomando logaritmos neperianos:

ln( y) b x ln( a)

a e[ln( y ) b x ]

Ejemplo

x 1 1,2 1,5 2 3 3,7 4 4,5 20,9

y 3 3,4 5 2 4,1 5 7 6,5 36

In y 1,0986 1,2237 1,6094 0,6931 1,4109 1,6094 1,9459 1,8718 11,4628

x2 1 1,44 2,25 4 9 13,69 16 20,25 67,63

x Iny 1,0986 1,4684 2,4141 1,3862 4,2327 5,9547 7,7836 8,4231 32,7614

In y2 1,2069 1,4974 2,5901 0,4803 1,9906 2,5901 3,7865 3,5056 17,6455

Numero de datos = n = 8

x promedio =

= 2,6125

x
n

y promedio =

= 1,43285 ln( y )

ln( y )
n

Usando la forma lineal de la Regresin Exponencial:

[ x ln( y)] ln( y) x x x x


2

b=

= 0,216047

= 1,43285 - (0,216047)(2,6125) = 0,868427

a e[ln( y ) b x ]
a = eb = e0,216047 = 2,38316 La ecuacin final que modela el sistema es
0.2166047x y 2.38316 e

Regresin Logartmica La curva logartmica a las variables originales Ejemplo es tambin una recta, pero en lugar de estar referida , est referida a ya

x 1 1.2 1.5 2 3 3.7 4 4.5 20.9 n=8


y

y 3 3.4 5 2 4.1 5 7 6.5 36

ln x 0 0.1823 0.4054 0.6931 1.0986 1.3083 1.3862 1.5040 6.5779

ln x2 0 0.0332 0.1643 0.4803 1.2069 1.7116 1.9215 2.2620 7.7798

ln x * y 0 0.6198 2.027 1.3862 4.5042 6.5415 9.7034 9.776 34.5581

y2 9 11.56 25 4 16.81 25 49 42.25 182.62

y 36 4.5
n 8

ln( x)

ln( x) 6.5779
n 8

0.8222

y ln( x) y ln( x) 34.5581 4.5(6.5779) 2.090513 ln x ln( x) ln( x) 7.7798 0.8222(6.5779)


2

a=

= 2.090513

b y a ln( x) 4.5 (2.090513 )( 0.8222 ) 2.78117


b= = 4.5 - (2.090513)(0.8222) = 2.78117

La ecuacin final que modela el sistema es

Regresin Polinomial Algunas veces cuando la relacin entre las variables dependientes e independientes es no lineal, es til incluir trminos polinomiales para ayudar a explicar la variacin de nuestra variable dependiente. Las regresiones polinomiales se pueden ajustar la variable independiente con varios trminos

Ejemplo x 1 1.2 1.5 2 3 3.7 4 4.5 20.9 y 3 3.4 5 2 4.1 5 7 6.5 36 xy 3 4.08 7.5 4 12.3 18.5 28 29.25 106.63 x2 1 1.44 2.25 4 9 13.69 16 20.25 67.63 y2 9 11.56 25 4 16.81 25 49 42.25 182.62 x2y 3 4.896 11.25 8 36.9 68.45 112 131.625 376.121 x3 1 1.728 3.375 8 27 50.653 64 91.125 246.881 x4 1 2.0736 5.0625 16 81 187.4161 256 410.0625 958.6147

Usando una Matriz para calcular valores de los coeficientes

Usando el mtodo de Eliminacin de Gauss-Jordan

La ecuacin final que modela el sistema es

Linealizacin Algunos problemas de regresin no lineal pueden linealizarse mediante una transformacin en la formulacin del modelo. Por ejemplo, consideremos el problema de regresin no lineal (ignorando el trmino de error):