P. 1
Regresion Lineal Multiple 3

Regresion Lineal Multiple 3

|Views: 201|Likes:
Publicado porMay Reza

More info:

Published by: May Reza on May 25, 2011
Copyright:Attribution Non-commercial

Availability:

Read on Scribd mobile: iPhone, iPad and Android.
download as PDF, TXT or read online from Scribd
See more
See less

12/19/2014

pdf

text

original

Regresión lineal múltiple

J. M. Rojo Abuín Instituto de Economía y Geografía Madrid, II-2007

José Manuel Rojo

1

Índice

I. II. III. IV. V. VI. VII. VIII.

INTRODUCCIÓN .................................................................................................. 2 EL MODELO DE REGRESIÓN LINEAL MÚLTIPLE........................................ 5 HIPÓTESIS............................................................................................................. 6 ESTIMACIÓN DE LOS PARÁMETROS POR MÍNIMOS CUADRADOS........ 7 VARIANZA RESIDUAL ..................................................................................... 11 CONTRASTE DE REGRESIÓN ......................................................................... 13 COEFICIENTE DE DETERMINACIÓN R2 ....................................................... 16 DIAGNOSIS Y VALIDACIÓN DE UN MODELO DE REGRESIÓN LINEAL MÚLTIPLE ........................................................................................................... 17
VIII.1. Multicolinealidad .................................................................................................. 17 VIII.2. Análisis de residuos .............................................................................................. 18 VIII.3. Valores de influencia (leverage) ........................................................................... 20 VIII.4. Contrastando las hipótesis básicas ........................................................................ 21 VIII.5. Homocedasticidad ................................................................................................. 22 VIII.6. Errores que deben de evitarse ............................................................................... 23

IX. X.

SELECCIÓN DE LAS VARIABLES REGRESORAS ....................................... 24 EJEMPLO 1 .......................................................................................................... 25

José Manuel Rojo

1

I.

Introducción

En el capitulo anterior se ha estudiado el modelo de regresión lineal simple, donde se analizaba la influencia de una variable explicativa X en los valores que toma otra variable denominada dependiente (Y). En la regresión lineal múltiple vamos a utilizar más de una variable explicativa; esto nos va a ofrecer la ventaja de utilizar más información en la construcción del modelo y, consecuentemente, realizar estimaciones más precisas.

Al tener más de una variable explicativa (no se debe de emplear el término independiente) surgirán algunas diferencias con el modelo de regresión lineal simple.

Una cuestión de gran interés será responder a la siguiente pregunta: de un vasto conjunto de variables explicativas: x1, x2, …, xk, la variable dependiente Y. cuáles son las que más influyen en

En definitiva, y al igual que en regresión lineal simple, vamos a considerar que los valores de la variable dependiente Y han sido generados por una combinación lineal de los valores de una o más variables explicativas y un término aleatorio: y = b0 + b1 ⋅ x1 + b2 ⋅ x2 + ... + bk ⋅ xk + u Los coeficientes son elegidos de forma que la suma de cuadrados entre los valores observados y los pronosticados sea mínima, es decir, que se va a minimizar la varianza residual.

Esta ecuación recibe el nombre de hiperplano, pues cuando tenemos dos variables explicativas, en vez de recta de regresión tenemos un plano:

José Manuel Rojo

2

Vamos a ir introduciendo los elementos de este análisis a través de un sencillo ejemplo. Esto equivale a estudiar la relación existente entre este conjunto de variables x1 . x5 y la variable peso (Y).5 57 57 54 56 58 peso Y 43 45 48 49 50 51 52 52 En base a estos datos.5 71 67 73 X4 43 40 41 42 44 44. y así sucesivamente.. Consideramos una muestra de personas como la que sigue a continuación: Registr o 1 2 3 4 5 6 7 8 sexo mujer mujer mujer mujer mujer mujer mujer mujer estatura l_roxto X1 158 152 168 159 158 164 156 167 X6 39 38 43 40 41 40 41 44 pie X2 36 34 39 36 36 36 36 37 l_brazo a_espald X3 68 66 72. vamos a construir un modelo para predecir el peso de una persona (Y).5 d_cráneo X5 55 55 54.5 68. José Manuel Rojo 3 .5 36 41.A A Linear Regression e + 1....41 * a_espald A A A A A A A A A A A A A A AA A A A A A A A A A Con tres variables explicativas tendríamos un espacio de tres dimensiones.5 68.

La relación entre variables explicativas en el modelo y casos debe de ser como mínimo de 1 a 10.En primer lugar tenemos que la variable dependiente es el peso. En la práctica deberemos de elegir cuidadosamente qué variables vamos a considerar como explicativas. y las variables que vamos a utilizar para predecir el peso reciben el nombre de variables independientes o explicativas. José Manuel Rojo 4 . es decir. proporcional. La relación de las variables explicativas con la variable dependiente debe de ser lineal. No deberá de haber variables repetidas o redundantes Las variables introducidas en el modelo deberán de tener una cierta justificación teórica. Algunos criterios que deben de cumplir serán los siguientes: Tener sentido numérico.

. si consideramos el peso como variable dependiente y como posibles variables explicativas: estatura pie l_brazo a_espald d_craneo El modelo que deseamos construir es: peso = b0 + b1 ⋅ estatura + b2 ⋅ pie + b3 ⋅ l _ brazo + b4 ⋅ a _ espald + b5 ⋅ d _ craneo Al igual que en regresión lineal simple.. los coeficientes b van a indicar el incremento en el peso por el incremento unitario de la correspondiente variable explicativa. José Manuel Rojo 5 .II. estos coeficientes van a tener las correspondientes unidades de medida. con la única diferencia de que aparecen más variables explicativas: Modelo de regresión simple: y = b0 + b1 ⋅ x + u Modelo de regresión múltiple: y = b0 + b1 ⋅ x1 + b2 ⋅ x2 + b3 ⋅ x3 + . Por lo tanto. El Modelo de regresión lineal múltiple El modelo de regresión lineal múltiple es idéntico al modelo de regresión lineal simple. + bk ⋅ xk + u Siguiendo con nuestro ejemplo.

σ 2 ) e) Las variables explicativas Xk se obtienen sin errores de medida. José Manuel Rojo 6 .III. Si admitimos que los datos presentan estas hipótesis entonces el teorema de Gauss-Markov establece que el método de estimación de mínimos cuadrados va a producir estimadores óptimos. en el sentido que los parámetros estimados van a estar centrados y van a ser de mínima varianza. ∀i ≠ j d) Normalidad: la distribución de la perturbación aleatoria tiene distribución normal: U ≈ N (0. Hipótesis Para realizar un análisis de regresión lineal múltiple se hacen las siguientes consideraciones sobre los datos: a) Linealidad: los valores de la variable dependiente están generados por el siguiente modelo lineal: Y = X * B +U b) Homocedasticidad: todas las perturbaciones tienen las misma varianza: V (ui ) = σ 2 c) Independencia: las perturbaciones aleatorias son independientes entre sí: E (ui ⋅ u j ) = 0.

bk * xk . Estimación de los parámetros por mínimos cuadrados Vamos a calcular un hiperplano de regresión de forma que se minimice la varianza residual: Min∑ ( y j − y j ) 2 ˆ Donde: y j = b0 + b1 * x1. ⎥ = y− y ˆ ⎢ ⎥ ⎢ ⎥ ⎢. j + . ⎥ =⎢ . j ˆ Utilizando notación matricial: ⎡ u1 ⎤ ⎡ y1 − y1 ⎤ ˆ ⎢u ⎥ ⎢ y − y ⎥ ⎢ 2 ⎥ ⎢ 2 ˆ2 ⎥ u =⎢ ..⎥ ⎢ ..IV. ⎥ ⎢un ⎥ ⎢ yn − yn ⎥ ˆ ⎦ ⎣ ⎦ ⎣ José Manuel Rojo 7 .1 + b2 * x2.

2 ⎥ ⎢ b1 ⎥ ⎥ ⎢ ⎥ ⎥ * ⎢ . ⎥=⎢ ˆ ⎥ ⎢ ⎥ ⎢ .1 − b2 * x2. ... .n ⎥ ⎣ ⎦ ⎣ ⎦ Por lo tanto: ⎡ y1 ⎤ ⎡1 x1.⎥ xk .n ⎥ ⎢bk ⎥ ⎦ ⎣ ⎦ Por lo tanto la varianza residual se puede expresar de la siguiente forma: n * σ 2 = u′ * u = ( y − X * b)′ * ( y − X * b) Es decir: Φ(b) = ∑ ( y j − y j ) 2 = u′ * u ˆ Por tanto. − bk * xk . xk .n − b2 * x2.n ⎣ ⎦ ⎣ .. − bk * xk .n − b3 * x3.⎥ ⎢ ⎢u n ⎥ ⎢ yn − b0 − b1 * x1.1 ⎤ ⎡b0 ⎤ xk . .1 − . . .1 − b3 * x3. 2 2 2. 2 3 3. 2 ⎥= y− y ..2 ⎥ ⎢ 2 ⎥ ⎢ 2 0 1 1. ⎥ = y − X *b ⎥ ⎢ ⎥ ⎥ ⎢.1 ⎢ y ⎥ ⎢1 x 1.n − . ⎥ ⎢. − b * x ⎥ k k .1 ⎤ ⎢u ⎥ ⎢ y − b − b * x − b * x − b * x − . la varianza residual es una función del vector de parámetros b y la condición para que tenga un mínimo será: ∂φ (b) =0 ∂b José Manuel Rojo 8 .. u=⎢ . 2 ⎢ 2⎥ ⎢ u = ⎢ ⎥−⎢ ⎢ ⎥ ⎢ ⎢ ⎥ ⎢ ⎢ yn ⎥ ⎢1 x1..Y teniendo en cuenta la definición de y : ˆ ⎡ u1 ⎤ ⎡ y1 − b0 − b1 * x1.

tenemos: X ′ *Y = X ′ * X * B Multiplicando por ( X ′ * X ) −1 ( X ′ * X ) −1 X ′ * Y = ( X ′ * X ) − 1 X ′ * X * B ( X ′ * X ) −1 X ′ * Y = I * B B = ( X ′ * X ) −1 * X ′ * Y Ésta es la expresión del estimador de parámetros B . José Manuel Rojo 9 .Antes de derivar vamos a simplificar la expresión de la varianza residual: n * σ 2 = u ′ * u = ( y − x * b )′ * ( y − x * b ) = y ′ * y − y ′ * x * b − b ′ * x ′ * y + b ′ * x ′ * x * b Por lo tanto: Φ (b) = ∑ ( y j − y j ) 2 = u ′ * u = y′ * y − y ′ * x * b − b′ * x′ * y + b′ * x′ * x * b ˆ ∂ φ (b ) ∂ ( y − X * b ) ′ * ( y − X * b ) = −2 * X ′ * Y + 2 * X ′ * X * B = ∂b ∂b Igualando a cero y despejando: X ′ *Y = X ′ * X * B y si X ′ * X es matriz no singular y por lo tanto tiene inversa.

se va a producir un aumento en su varianza. el determinante no será cero pero tendrá un valor muy próximo a cero. pero están fuertemente correlacionadas. José Manuel Rojo 10 . ingresos anuales) el determinante de esta matriz es cero y dicha matriz será singular y por lo tanto no tendrá inversa. Nota Es importante observar que si las variables explicativas X están muy correlacionadas entre si. Si hay al menos una variable que puede ser expresada como combinación lineal del resto (ingresos mensuales. los residuos obtenidos del modelo estimado por mínimos cuadrados no van a estar correlacionados con las variables explicativas. en general. este caso va a producir una inestabilidad en la solución del estimador. la matriz ( X ′ * X ) va a tener el determinante con valor cero o muy cercano a cero. Si no hay variables que sean combinación lineal de las demás.Además X ′ *Y = X ′ * X * B X ′ *Y − X ′ * X * B = 0 X ′ * (Y − X * B ) = 0 X ′ *U = 0 Es decir. En estos casos se impone la utilización de un método de selección de variables explicativas. A los problemas provocados por la fuerte correlación entre las variables explicativas se les llama multicolinealidad.

la variabilidad de Y es la suma cuadrática de los valores que toma la variable respecto a la media de la variable. tenemos: VT = VE + VNE José Manuel Rojo 11 . Teniendo en cuenta que el último término representa la varianza no explicada. atribuida a factores aleatorios. que la suma de cuadrados de la variable Y respecto a su media se puede descomponer en términos de la varianza residual. Consideramos la variabilidad de la variable dependiente como: n *σ 2 = ∑ ( yi − Y ) 2 Es decir. por tanto. De esta expresión se deduce que “la distancia de Y a su media se descompone como la distancia de Y a su estimación más la distancia de su estimación a la media”. Sumando y restando el valor pronosticado por el modelo de regresión obtenemos la siguiente expresión: ) ) ∑ ( y − y) = ∑ ( y − y) + ∑ ( y − y ) 2 2 i i i i 2 Es decir. Varianza residual Al igual que en el caso de regresión lineal simple. vamos a descomponer la variabilidad de la variable dependiente Y en dos componentes o fuentes de variabilidad: una componente va a representar la variabilidad explicada por el modelo de regresión y la otra componente va a representar la variabilidad no explicada por el modelo y.V.

Gráficamente es fácil ver la relación: Dividiendo la variabilidad total entre sus grados de libertad obtenemos la varianza de la variable dependiente Y : SY2 = VT n −1 Dividiendo la variabilidad no explicada entre sus grados de libertad obtenemos la varianza residual de la variable dependiente Y : 2 SR = VNE n − (k + 1) Tabla resumen Suma de cuadrados VT VE VNE Grados de libertad n-1 k-1 2 SY = ∑ ( y − y) ˆ ∑ ( y − y) ) ∑ ( y − y) 2 2 VT n −1 VNE n − k −1 2 n-k-1 2 SR = José Manuel Rojo 12 .

Un caso de especial interés es asignar una medida de probabilidad a la siguiente afirmación o hipótesis: H 0 ≡ b1 = b2 = . es obvio que distintas muestras van a dar distintos valores de los parámetros. a veces este conjunto será infinito. puede haber varios que sean nulos. Se denomina contraste de regresión al estudio de la posibilidad de que el modelo de regresión sea nulo. José Manuel Rojo 13 . Contraste de regresión Como estamos sacando conclusiones de una muestra de un conjunto mucho más amplio de datos. pero al menos existe uno distinto de cero.VI... = bk = 0 La afirmación contraria sería: H 1 ≡ ∃b j ≠ 0 Nota La hipótesis nula es que todos los coeficientes menos b0 son nulos y la hipótesis alternativa o complementaria es que existe al menos uno que es distinto de 0. es decir. los valores de las variables explicativas X no van a influir en la variable Peso.

. n − ( k +1) 2 SR Es decir. podemos asignar una medida de probabilidad (p-value) a la hipótesis de que la varianza explicada es igual a la varianza no explicada. José Manuel Rojo 14 . el cociente entre la varianza explicada y la varianza no explicada será aproximadamente 1. = bk = 0 . por lo tanto. tenemos que: VT σ 2 2 ≈ χ n −1 VE σ2 ≈ χ12 VNE σ 2 2 ≈ χ n − ( k +1) Por tanto: VE VNE 1 = n − (k + 1) VE ≈ F1. Nota En general si el p-value es menor de 0. pues el modelo sería nulo.05 se acepta que el modelo de regresión es significativo.Construcción del contraste Si los residuos siguen una distribución normal y b1 = b2 = . En caso contrario la varianza no explicada será muy inferior a la varianza explicada y. este cociente tendrá un valor muy superior a 1. en caso contrario no podemos hablar de regresión. Además.. al seguir una distribución F.

por ejemplo: Encontramos que este modelo de regresión es estadísticamente significativo con un p-value de 0.0003 José Manuel Rojo 15 .Si aceptamos que el modelo de regresión es significativo. es habitual mostrar el p-value.

la varianza no explicada será 0. este coeficiente es adimensional. el coeficiente de determinación permanecerá invariante.85 Bueno Mayor de 0. esto quiere decir que no está afectado por transformaciones lineales de las variables. si cambiamos las unidades de medida. la cual.3 a 0. a diferencia de la varianza residual. esta varianza está influida por la varianza de la variable dependiente.5 a 0. de este modo. Si bien la varianza residual ( S R ) nos indica cómo están de cerca las estimaciones respecto de los puntos. Coeficiente de determinación R2 Vamos a construir un coeficiente (estadístico) que mida la bondad del ajuste del 2 modelo.3 Muy malo 0.5 Regular 0. definimos el coeficiente de determinación R 2 : VE VT − VNE VNE = = 1− VT VT VT R2 = Por ser cociente de sumas de cuadrados. una medida adecuada es la proporción de la varianza explicada (VE) entre la varianza total (VT). En general. este coeficiente será siempre positivo.4 a 0. está influida por su unidad de medida. por ello. Si todos los puntos están sobre la recta de regresión. Por lo tanto. y por lo tanto: R2 = 0 VE = 1− =1 VT VT Este coeficiente es muy importante pues determina qué porcentaje (en tantos por uno) de la varianza de la variable dependiente es explicado por el modelo de regresión. José Manuel Rojo 16 .4 Malo 0. se pueden clasificar los valores de R 2 de la siguiente manera: Menor de 0.85 Sospechoso Además. a su vez.VII.

estatura b. pie. Dependent Variable: peso José Manuel Rojo 17 .763 F 14. los métodos de selección de variables solucionan automáticamente este problema. l_roxto Longitud de rodilla a tobillo.VIII. Este problema se detecta fácilmente: • • • Solicitando el determinante de la matriz de varianzas-covarianzas. l_ brazo. Calculando para cada variable el coeficiente de determinación ( R 2 ) de dicha variable con el resto.667 df 6 20 26 Mean Square 580. + α k xk + α 0 = 0 Se dice que tenemos un problema de multicolinealidad.000a Regression Residual Total a.401 775. ANOVAb Model 1 Sum of Squares 3485.1. Predictors: (Constant). En general. . La solución es eliminar del modelo aquellas variables explicativas que dependen unas de otras.986 Sig.265 4260. Multicolinealidad Si las variables explicativas se pueden expresar como una combinación lineal: α1 x1 + α 2 x2 + . Diagnosis y validación de un modelo de regresión lineal múltiple VIII.900 38.. d_cráneo.. Calculando el cociente entre el primer y último autovalor de la matriz de varianzas-covarianzas que será mayor de 50. a_espald. En general. que estará cercano a cero. este problema va a afectar incrementando la varianza de los estimadores.

248 .212 .621 1.067 .250 .660 1. Error -133.261 43.335 .004 Sig.317 . Es interesante observar que si bien el contraste de regresión es significativo.212 13. VIII.007 .985 -. por tanto no se puede determinar si es grande o pequeño a simple vista.724 1.283 .752 1.882 8.157 -.796 1.821 .997 a.001 Collinearity Statistics Tolerance VIF .117 .201 .574 6. La columna denominada tolerancia es: 1 − R2 Donde la variable correspondiente entra como variable dependiente y el resto de las variables explicativas actúan como regresoras. . ninguna de las variables explicativas lo es.030 -. Dependent Variable: peso En esta tabla se muestra el valor de los estimadores del hiperplano de regresión.724 Model 1 (Constant) estatura pie l_brazo a_espald d_cráneo l_roxto Longitud de rodilla a tobillo t -3.933 4.323 1.Coefficientsa Unstandardized Coefficients B Std.841 Standardized Coefficients Beta -.445 2. la variable estatura esta provocando problemas de multicolinealidad.186 -.095 . Análisis de residuos Definimos como residuo del i-esimo caso a: ˆ ui = yi − yi Los residuos son variables aleatorias que siguen (¿?) una distribución normal. A la vista de estos resultados.307 4.093 . Los residuos tienen unidades de medida y.159 .354 .122 .435 .2.922 -.072 .003 .489 .517 . José Manuel Rojo 18 .616 1.187 1.

84905 2.1509 117. Residual Minimum 23.9527 -31.627 3.Para solventar este problema se define el residuo estandarizado como: Zui = 1 ui * ˆ 1 − hii SR Se considera que un residuo tiene un valor alto. y por lo tanto puede influir negativamente en el análisis.69022 -1. El análisis descriptivo y el histograma de los residuos nos indicarán si existen casos que no se adapten bien al modelo lineal.939 Maximum 138.2963 .000 Std. Residuals Statisticsa Predicted Value Residual Std.60339 1.000 .492 Mean 71.44848 29. ⎣Zui ⎦ ≥ 3 Para evitar la dependencia entre numerador y denominador de la expresión anterior.877 N 27 27 27 27 a. también se utilizan los residuos estudentizados.860 -. Dependent Variable: peso José Manuel Rojo 19 . Deviation 25. Predicted Value Std.000 . SZui = 1 ui * ˆ (i ) 1 − hii S R ˆ Donde S (i ) R es la varianza residual calculada sin considerar el i-esimo caso. si su residuo estandarizado es mayor de 3 en valor absoluto.00000 .

VIII.49. pues su valor tipificado es 3.3.Podemos observar que hay un caso que tiene un residuo anormal. Valores de influencia (leverage) Se considera que una observación es influyente a priori si su inclusión en el análisis modifica sustancialmente el sentido del mismo. Una observación puede ser influyente si es un outlayer respecto a alguna de las variables explicativas: José Manuel Rojo 20 .

One-Sample Kolmogorov-Smirnov Test ZRE_1 Standardized Residual 27 .105 . Test distribution is Normal. por lo tanto se concluye que: No se encuentran diferencias estadísticamente significativas para rechazar la hipótesis de normalidad.609 . Contrastando las hipótesis básicas Normalidad de los residuos. José Manuel Rojo 21 .852 N Normal Parameters a. Calculated from data. (2-tailed) Mean Std. Deviation Absolute Positive Negative a.b Most Extreme Differences Kolmogorov-Smirnov Z Asymp. Sig.4. Para verificar esta hipótesis se suele utilizar el histograma de los residuos y en caso necesario el test de Kolgomorov Smirnov. b. En este caso no se detecta falta de normalidad.87705802 . Valores cercanos a 2/n indican casos que pueden influir negativamente en la estimación del modelo introduciendo un fuerte sesgo en el valor de los estimadores.Para detectar estos problemas se utiliza la medida de Leverage: 1 ( x − x )2 (1 + i 2 ) n sx l (i ) = Este estadístico mide la distancia de un punto a la media de la distribución. VIII.117 .117 -. el pvalue del test KS es de 0.852.0000000 .

José Manuel Rojo 22 . pero como las variables explicativas están fuertemente correlacionadas con la variable dependiente. pues en muchas ocasiones es peor el remedio que la enfermedad. ya que la variable dependiente puede llegar a perder el sentido.5. la variabilidad de los residuos estará en función de las variables explicativas. En general. La transformación más habitual para conseguir homocedasticidad es: Y ′ = log(Y ) En cualquier caso. bastara con examinar el gráfico de valores pronosticados versus residuos al cuadrado.VIII. es conveniente examinar detenidamente las implicaciones de realizar este tipo de transformaciones. Este es un claro ejemplo de falta de homocedasticidad. Existe una familia de transformaciones denominada Box-CCOS que se realizan sobre la variable dependiente encaminadas a conseguir homocedasticidad. Homocedasticidad La hipótesis de homocedasticidad establece que la variabilidad de los residuos es independiente de las variables explicativas.

6. Incluir una variable irrelevante. Errores que deben de evitarse Errores que son fáciles pasar por alto al realizar un modelo de regresión lineal múltiple son los siguientes: • • • • • • No controlar el factor tamaño. no tenerlo en cuenta. Especificar una relación lineal que no lo es.VIII. No incluir una variable relevante en el modelo. José Manuel Rojo 23 . Si hay un factor de ponderación. Al calcular los grados de libertad en los contrastes de hipótesis.

Regresión paso a paso (Stepwise Regression). Selección de las variables regresoras Los procedimientos para seleccionar las variables regresoras son los siguientes: • • • Eliminación progresiva.IX. Introducción progresiva. Parte del modelo sin ninguna variable regresora y en cada etapa se introduce la más significativa. José Manuel Rojo 24 . Termina el algoritmo cuando ninguna variable entra o sale del modelo. Este último método es una combinación de los procedimientos anteriores. pero en cada etapa examina si todas las variables introducidas en el modelo deben de permanecer.

Deviation Skewness Std.249 .0000 4.740 .00 pie 27 0 38. Error of Kurtosis Minimum Maximum Valid Missing estatura 27 0 168.4815 73.0000 4.0000 1.X.00 a_espald 27 0 45.044 .448 -.872 152.86384 .93707 .00 53.173 .9815 39.605 .187 .448 -.00 l_brazo 27 0 73.448 .22089 .632 .00 N Mean Median Std.00 d_cráneo 27 0 57.427 .0000 12.0926 43.872 34.448 1.0000 2.872 43.15630 . Error of Skewness Kurtosis Std.00 189.658 .872 38.448 -1.0000 10.02113 -.016 . Ejemplo 1 Statistics l_roxto Longitud de rodilla a tobillo 27 0 43.855 .448 -.303 .80124 .00 45.448 -.178 .00 José Manuel Rojo 25 .2407 57.872 36.84167 .0000 3.00 61.00 91.00 52.075 .00 peso 27 0 63.8889 65.7963 168.8519 46.872 54.00 83.872 66.

900 38. . estatura b.667 df 6 20 26 Mean Square 580.265 4260. l_ brazo.904a . Error of the Estimate 6.000a Regression Residual Total a. d_cráneo.763 F 14. l_roxto Longitud de rodilla a tobillo. d_cráneo.401 775. a_ espald. a_espald. Dependent Variable: peso ANOVAb Model 1 Sum of Squares 3485. Predictors: (Constant). pie.986 Sig. Dependent Variable: peso José Manuel Rojo 26 . l_brazo.818 Adjusted R Square . estatura b. pie. l_roxto Longitud de rodilla a tobillo.274 a.Model Summaryb Model 1 R R Square .763 Std. Predictors: (Constant).22602 DurbinWatson 2.

030 -.489 .796 1.707 -1.616 1.212 .922 -.000 Std.001 Collinearity Statistics Tolerance VIF .072 .5975 11.Coefficientsa Unstandardized Coefficients B Std.21203 -1.122 .882 8.159 .095 .435 . Deviation 11.319 Maximum 88.46058 1.00000 .57816 5.822 Mean 63.261 43. Error -133.212 13.752 1.985 -.841 Standardized Coefficients Beta -. Residual Minimum 44.660 1.445 2.187 1.250 . Dependent Variable: peso Residuals Statisticsa Predicted Value Residual Std.248 .1230 -8.117 . Dependent Variable: peso José Manuel Rojo 27 .186 -.997 a.877 N 27 27 27 27 a.933 4.004 Sig.067 .8889 .134 1.724 1.157 -.724 Model 1 (Constant) estatura pie l_brazo a_espald d_cráneo l_roxto Longitud de rodilla a tobillo t -3. Predicted Value Std.821 .335 .621 1.323 1.003 .34415 2.317 .354 .517 .574 6.307 4.000 .283 .007 .000 .093 . .201 .

228 2.213 . Predictors: (Constant).382 47.363 1. pie.000 . .000b a.000 .05049 DurbinWatson 2.569 8. pie b.382 1184. a_espald c.120 a.000 .219 2.490 Standardized Coefficients Beta .667 df 1 25 26 2 24 26 Mean Square 3076.850 .El mismo análisis pero utilizando un algoritmo de selección de variables. .687 1.285 4260.192 .371 1691.173 18. Dependent Variable: peso ANOVAc Model 1 Sum of Squares 3076.753 Model 1 2 (Constant) pie (Constant) pie a_espald t -4.471 -87.000 2.363 . pie b. Dependent Variable: peso Coefficientsa Unstandardized Coefficients B Std. Predictors: (Constant).850a . Model Summaryc Model 1 2 R R Square .250 16.000 .000a 2 Regression Residual Total Regression Residual Total 46.415 . Error -84.008 a.608 F 64.059 -5.065 878. a_espald c.794 Adjusted R Square . Predictors: (Constant).891b .421 3.495 . Predictors: (Constant).722 . pie. Dependent Variable: peso José Manuel Rojo 28 .777 Std.376 3.711 .88269 6.753 2.444 Collinearity Statistics Tolerance VIF 1.602 4260.942 Sig.032 36.667 3382. Error of the Estimate 6.798 .004 .890 Sig.

071 .00 .2227 Residual -10.53056 .000 .695 2.a Collinearity Diagnostics Variance Proportions Condition Dimension Eigenvalue (Constant) pie a_espald Index a 1 1.000 1.000 .00 Std.8889 11.25595 12.83 . Deviation 1.270 .995 1.055 .001 50. Predicted Value -1.00 .02 . Dependent Variable: peso José Manuel Rojo 29 . Dependent -1.3214 63.778 1.7827 Std.0027 43.004 27.00 Minimum Maximum Mean N 2 Predicted Value 1 2.00 2 .17 . Residual Variable: peso a.98 .00000 5.3520 87.81312 3 .00 1.40524 2 .747 .801 2.961 27 Model 1 a.000 .000 Std.003 27.997 Residuals Statistics .

= 0. Dev.Histogram Dependent Variable: peso 8 6 Frequency 4 2 0 Mean = 1.99E-15 Std.961 José Manuel Rojo 30 .

José Manuel Rojo 31 .

You're Reading a Free Preview

Descarga
scribd
/*********** DO NOT ALTER ANYTHING BELOW THIS LINE ! ************/ var s_code=s.t();if(s_code)document.write(s_code)//-->