Está en la página 1de 3

Regresión Lineal

Es un método para estudiar los efectos y magnitudes de los Supuestos Teóricos


efectos de más de una VI sobre una VD, usa principios de
1. En la línea de regresión, a cada puntaje de X hay
correlación y regresión. Se estudia de qué forma las
una distribución normal de Y.
puntuaciones de Y “regresan hacia” las puntuaciones de
2. La media de esa distribución es Y’, y su
X. Este permite evaluar en qué medida la VI predice y
desviación es ε.
explica a la VD. Este usa una función lineal (modelo de
3. Hay homocedasticidad en la distribución de Y’, la
regresión): Y’=a+bX+e. Y’ es la VD y lo que está después
distancia entre los grupos es más o menos igual.
del igual es la VI. En concreto hay dos objetivos:
4. Supone una distribución bivariada (X, Y).
predicción (función lineal) y explicación (¿Cuánto se
explica?). La diferencia entre lineal simple y múltiple es Supuestos Prácticos
la cantidad VIs, esta última es una extensión de la simple.
1. La variable predicha y predictora son cuantitativas
La N mínima es 100, aunque depende de la cantidad de
(métricas).
VIs. Ya con 400 sujetos esta técnica es estable. Usa un
2. La distribución de la VD es normal. Este supuesto
diseño prospectivo único.
se puede violar ya que este método es robusto ante
Componentes la no normalidad, una forma de solución en
aumentando la N. Se justifica por el teorema del
Coeficie
¿Qué es? Interpretación límite central.
nte
3. Modelo aditivo: S2TOTAL = S2REGRESIÓN + S2ERROR.
Es el punto donde la Es el valor que 4. No Multicolinealidad: la multicolinealidad es
asume la
Intercepto (a)

línea de regresión se cuando las VIs están altamente correlacionadas


intercepta o se corta con variable (intercorrelación entre las VIs de al menos r > .70,
el eje Y. Cobra sentido predicha, si la lo que indica que la VI comparte varianza con
No estandarizados

con la unidad de medida variable otras VIs). Que haya correlación no implica
de las variables. predictora fuese multicolinealidad. Ello conduce a estimadores
cero. inestables de los coeficientes de regresión y
Es la inclinación de la dificultades en su interpretación. Se evalúa
Indica el
línea de regresión, y tiene
Pendiente (b)

cambio que se mediante:


el mismo signo que la - Tolerancia (indica el % no explicado) debe
espera en Y con
correlación. Viene en ser menor a <.60 para que haya
el cambio de
unidades de Y en función multicolinealidad. Mide la variación no
una unidad en
de X explicada de una VI por las otras VIs del
X
modelo [0-1].
Expresa la - VIF (inverso de la tolerancia; 1/tolerancia)
Expresa el peso relativo relación entre X debe ser mayor a > 1.60 para que haya
de la variable en la e Y,
Beta (β)

multicolinealidad. Es el índice de la inflación


regresión se interpreta controlando el de varianza.
como un coeficiente de efecto de las 5. Relación lineal entre VIs y VD (coeficiente de
asociación (-1 a 1) otras VIs del correlación o gráfico de dispersión).
modelo 6. No deben existir errores de especificación: no se
Es una medida indirecta excluyen VIs relevantes, no se incluyen VIs
Diferencia entre
de precisión, mientras irrelevantes.
Error (ε)

el puntaje
Estandarizados

menor sea, mayor 7. Homocedasticidad: las puntuaciones


predicho y el
precisión habrá. La Y no correspondientes de Y tienen una S2 igual para
obtenido
está explicada por las todas las puntuaciones. Levene.
(Residuales)
VIs.
Correlación múltiple, Supuestos de los Errores o Residuales
La correlación
toma valores entre 0 y 1. Estos NO se pueden violar en la VD. Son aleatorios y su
múltiple de la
NO se interpreta el signo, media es 0.
mejor
solo el monto, magnitud 1. La media de los errores es cero. Esto se verifica en
R

combinación
entre un compuesto de la media de los residuos.
lineal de la VI y
los mínimos cuadrados 2. Los errores se distribuyen normalmente. Se
la VD
de X1 y X2, e Y verifica el máximo y el mínimo de los residuales,
Es la proporción de varianza explicada de la estos han de coincidir. También se puede
VD a partir de la mejor combinación lineal
R2

comprobar con el gráfico de residuales, ya que


de las VIs en el modelo. puede que los extremos sean datos atípicos, y si
son pocos pues será una distribución normal. 2. Pendiente (B o b): cuando VI aumenta en una
Tiene un rango estandarizado de ±2 desviaciones. unidad, la VD aumenta (monto y significancia).
3. No hay correlación entre los errores. Se verifica 3. Beta (β): magnitud, signo, significancia,
con la prueba de Durbin-Watson, este coeficiente interpretación (a mayor X, mayor/menor Y). En
comprende valores entre 0 y 4. No hay correlación esta hay un discurso de causalidad: se va de la VI
de errores entre 1.5 y 2.5. Si tiende a 0 a la VD (Si X1, X2, …, Xk, entonces Y).
(correlación +), si tiende a 4 (correlación -). También, se pueden hacer comparaciones: la
4. Homocedasticidad en los errores, es decir, que variable que tiene un mayor poder predictivo
exista la misma distancia entre los puntos de X e sobre la VD es la VI (mayor monto) que la VI
Y (que tengan la misma desviación). Ello se (menor monto).
evalúa con el grafico de residuales. Se trazan 4. Efectos que se pueden detectar con beta:
varias líneas paralelas, y si el mayor grueso se - Explicación: Si β disminuye con respecto a r
encuentra en las paralelas con aproximadamente la (espuria). r sign. Y Beta no sign.
misma longitud, pues habrá homocedasticidad. - Supresión Si β aumenta o cambia de signo con
Soluciones a las violaciones en los Supuestos respecto a r. Para que se considere supresora debe
aumentar bastante. Ejemplo: rxy=.2, rxy,z=.7. O
- Si no hay normalidad o linealidad: transformar los rxy=.2, rxy,z=-.3. r no sign, y beta sign.
datos. - No hay efecto: Si β es más o menos igual con
- Eliminar puntos extremos de los errores. respecto a r. Cuando beta no es sign y r no sign, y
- Multicolinealidad: escoger la variable más viceversa.
relevante, o hacer variables compuestas por AF, o
usar las 2 variables en regresiones distintas, o Método Introducir o Enter
puntajes sumados. Hacer dos análisis: 1 dejando Este método incluye todas las variables sean estas
las v. se compara con otro donde se elimine 1 v. significativas o no. Si a nivel teórico se proponen
Interpretaciones correlaciones se hace la regresión sin verificar esta
correlación. Posibles objetivos: explorar o confirmar una
Correlaciones hipótesis de investigación según la teoría previa.
1. Correlaciones de Pearson: magnitud, criterio, Stepwise (Paso a Paso, Pasos Sucesivos)
signo, significancia (al 5 %) e interpretación sin
causalidad (a mayor X, mayor/menor Y). Se construye el modelo incorporando o eliminando 1 a 1
2. Correlación de V. Dummys: magnitud, criterio, las VI según su significancia estadística (criterio de
signo, significancia (al 5 %). Para la interpretación inclusión). Se controla la multicolinealidad. Proporciona
es necesario conocer quién es 1 y quien 0. Por un modelo parsimonioso. Aquí todas las V. son
ejemplo, si hombre es 1 y la correlación positiva significativas. Puede contribuir a un error tipo I, ya que
entonces: los hombres tienden a tener puntajes cada modelo se acumula ese error tipo I. Tiene problemas
más altos en la X. Si es una correlación negativa, de replicabilidad, ya que puede arrojar modelos distintos.
se hace con las mujeres. La entrada en las v. es en orden jerárquico. Venyaja: se
3. Correlación múltiple (R): magnitud, criterio, puede ver la contribución de las variables en onjunto y la
significancia (al 5 % con la prueba F). Esta contribución independiente de cada paso. Se analiza el
aumenta a medida que aumentan las V. último modelo. Objetivos: establecer cuáles v. explican la
4. Coeficiente de determinación múltiple (R2): El VD (no tiene teoría o hipótesis clara), hacer un modelo
(monto en %) de las variaciones de la VD se más eficiente cuando tienes muchas variables
puede atribuir a la mejor combinación lineal de las determinando cuales son importantes.
VIs. Su significancia se debe a la propiedad Hacia adelante o Forward
aditiva, donde R2 = SCREGRESIÓN/ SCTOTAL. (Enlace
con el ANOVA). Entra 1 a 1 las variables, la primera variable considerada
5. Coeficiente de determinación múltiple para entrar a la ecuación es la que presenta la t de Student
ajustado: se utiliza porque la R2 esta más alta. R2 va aumentando con la introducción de cada
sobrestimado. Aumenta al introducir VIs y cuando variable.
la N es baja.
6. Significancia del modelo: se evalúa a partir de la
F y su p valor. Si se rechaza el modelo, significa
que al menos una v. predictora funciona en el
modelo.
Tabla de Coeficientes de Regresión
1. Intercepto (Constante o a): no se interpreta.
Hacia atrás o Backward
Se van eliminando sucesivamente las variables (1 a 1) que
no satisfacen el criterio de significancia. Al final los
modelos definitivos son iguales y contienen solo aquellas
variables significativas. Se usa generalmente cuando hay
muchas variables o cuando no hay hipótesis claras acerca
de la relación entre las variables. Asegura linealidad y
controla multicolinealidad.
Interpretar Stepwise
Cambio en R2 o ΔR2: cuanto explica cada variable
introducida, y cuál es su F y p valor asociada.
Modelo total: la significancia y la F en el modelo total se
evalúa en el último modelo que aparece en el ANOVA.
Jerárquico
Se van ingresando las VIs según la teoría o criterio del
investigador (importancia teórica). El orden de los bloques
o etapas, donde en cada una de ellas no hay límites en las
VIs que se puedan introducir. Se usa para evaluar variables
moderadoras (pueden ser métricas, es decir, evalúa
interacción) en diseños prospectivos de grupo único y para
controlar efectos de variables. Las variables introducidas
en la primera etapa usualmente son variables de control o
sociodemográficas. Usa un método de control estadístico,
y esa varianza se resta a la total. Es decir, la introducción
de variables se da por una teoría o por un control
estadístico. En cada etapa puede entrar 1 o más variables,
no necesariamente por orden de importancia. Pueden
entrar variables significativas o no.
Interpretación
Cambio en R2: se puede evaluar cual es la variable más
importante en el modelo. Se ve el último modelo y solo se
analizan las variables significativas.
Consideraciones en Stepwise y Jerárquica
En los dos últimos, las variables se introducen por etapas y
por tanto es importante observar la cantidad relativa de la
S2 de la VD que es explicada al introducir las variables, R 2
va incrementando, cambia según el orden en el cual las
variables entran en la ecuación de regresión.

También podría gustarte