Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introducción A Regresion MUTIPLE PDF
Introducción A Regresion MUTIPLE PDF
Captulo 4
donde:
Y es la variable a predecir;
a, b1x1, b2x2... bnxn, son parmetros desconocidos a estimar;
y e es el error que cometemos en la prediccin de los par-
metros.
Captulo 4
Captulo 4
Captulo 4
Captulo 4
debemos observar: (1) la interrelacin entre las variables independientes; y (2), la relacin entre cada una de las variables
independientes respecto a la dependiente. En el primer caso, los
coeficientes deben ser bajos pues, de lo contrario, cabe la posibilidad que entre ellas se produzca multicolinealidad (diferentes
variables explican lo mismo de la variable dependiente). Por su
parte, en el segundo caso, las relaciones deben ser altas. En
nuestro ejemplo, y por lo que respecta a las variables independientes, su correlacin no solo es ms alta que baja (0,523) sino
que adems existe relacin entre ellas (su significacin se
encuentra por debajo de 0.05). Por su parte, ambas variables
independientes explican a la variable dependiente pero es la primera la que lo hace de forma ms intensa. En sntesis, y a tenor
de los resultados obtenidos, tanto la p7b como la p7c explican lo
mismo de la variable dependiente. Esta es una cuestin que hay
que tener en cuenta a la hora de decidir qu variables son las que
entran en el modelo.
Los coeficientes de correlacin parcial oscilan entre 1 (fuerte
asociacin lineal positiva: a medida que aumenten los valores de
una variable aumentarn los de la otra) y 1 (fuerte asociacin
lineal negativa: a medida que aumenten los valores de una variable disminuyen los de la otra). Cuando los valores de este estadstico se aproximen a 0 nos estar indicando que entre las dos
variables no existe asociacin lineal y, en consecuencia, carece de
sentido determinar el modelo y/o ecuacin de regresin lineal.
Para determinar si la asociacin es estadsticamente significativa podemos contrastar la H0 de que el coeficiente de correlacin
lineal es igual a 0; o lo que es lo mismo, que las dos variables
estn incorrelacionadas. Si el p-valor asociado al estadstico de
contraste (r) es menor que el nivel de significacin elegido (normalmente 0.05) rechazaremos H0. En la matriz de correlaciones
se recogen estos dos valores: en primer lugar aparece el grado
de relacin (coeficiente de correlacin parcial) que se produce
entre las dos variables que cruzamos; y en segundo lugar, la
significacin estadstica de esa relacin.
La correlacin ms alta entre el cruce de una variable independiente con la dependiente ser el valor de Multiple R que
aparezca en el primer paso. En nuestro ejemplo la correlacin
parcial ms alta es la de la variable independiente p7B. Por lo
tanto, la primera R que aparece en el primer modelo es 0.871.
Adems esta correlacin es significativa (sig. 0.000).
Captulo 4
Captulo 4
Captulo 4
2.- SEB.
Error tpico de B.
10
Captulo 4
4.- Constante.
El valor de la constante coincide con el punto en el que la
recta de regresin corta el eje de ordenadas. En la ecuacin de
prediccin se mantiene constante para todos los individuos.
Cuando las variables han sido estandarizadas (puntuaciones Z) o
si se utilizan los coeficientes Beta, la constante es igual a 0 por
lo que no se incluye en la ecuacin de prediccin.
5.- Tolerancia.
La tolerancia (T) de una variable en un paso cualquiera del
anlisis stepwise es la proporcin de su varianza intra-grupo no
explicada por otras variables del anlisis (1-R2). Antes de incluir
una variable en el modelo se comprueba que su tolerancia es
superior al nivel fijado. Si el valor de la tolerancia de una de las
variables independientes es prximo a 0 podemos pensar que
sta es una combinacin lineal del resto de variables. Sin embargo, si el valor de T se aproxima a 1, la variable en cuestin puede
reducir parte de la varianza no explicada por el resto de variables.
Se excluyen del modelo las variables que presentan una tolerancia muy pequea.
6.- Valor T.
El estadstico T nos permite comprobar si la regresin entre
una variable independiente y la dependiente es significativa. Si el
p-valor asociado al estadstico T (Sig T) es mayor al nivel de
significacin (normalmente 0.05) rechazaremos que la regresin
sea significativa para las dos variables relacionadas.
A tenor de los resultados arrojados slo nos resta construir la
ecuacin predictiva. En el ejemplo que se recoge en la seccin
de Resultados, la transcripcin de los resultados a la ecuacin
quedara como sigue (al tener las variables la misma escala se
toman los coeficientes de B):
Y = a + b1x1 + e
11
Captulo 4
Figura 1
Figura 2
Figura 3
Figura 4
12
Captulo 4
6. Bibliografia Comentada
Daz-Agero, Coral (1999): Indicadores sintticos, (en lnea)
<http//www.festadisticas.fguam.es/indicadores/iae.html>
(consultado el 4 de abril de 2001).
7. Resultados
Los resultados que se recogen en la salida de resultados son,
en esencia, los mismos que ya hemos comentado en el captulo
dedicado al modelo de regresin lineal simple. stos los podemos agrupar en torno a los siguientes puntos.
En primer lugar, el programa nos ofrece una serie de
tablas que recogen informacin bsica tanto del proceso
como de las variables sometidas a anlisis. Dentro de
este primer grupo cabe destacar las tablas de descriptivos
bsicos y la de matriz de correlaciones.
A continuacin, se presenta una tabla (resumen del
modelo) en la que se relaciona una serie de estadsticos
13
Captulo 4
14
Captulo 4
15
Captulo 4
16
Captulo 4
17