Está en la página 1de 23

REGRESIÓN

PROFESOR : GONZALO CUADROS

1
Análisis de Regresión Lineal Simple y de
Correlación
• El análisis de regresión lineal y de correlación
comprende es estudio de los datos muestrales para

saber si dos o más variables están relacionadas entre
• en una población.
El análisismatemática
ecuación de regresión lineal
que da como
describe resultado
cierta relaciónuna
determinada. La ecuación puede usarse para estimar o
predecir los valores de una variable cuando se conocen
• o se suponen conocidos los valores de otra variable.
El análisis de correlación da como resultado un número
que resume el grado de relación lineal existente entre
dos variables. Es útil en un trabajo exploratorio cuando
el investigador desea encontrar el grado o la fuerza de 2
El diagrama de dispersión

• El primer paso en el análisis de regresión, es


construir una gráfica de los datos muestrales en
un plano bidimensional. Esta gráfica se
denomina diagrama de dispersión.
• El diagrama de dispersión indica
frecuentemente el tipo de tendencia de y con
respecto a x. Esta tendencia puede ser lineal o
no lineal. En el primer caso se estimará una
recta y en el segundo caso una curva.

3
Diagrama de dis pe rs ión de l cos tode publicidad y
las ve ntas

600

550

500
Ventas ($)

450

400

350

300
15 25 35 45 55
Costo de publicidad ($)

4
Lineal, positiva , perfecta Lineal, negativa, perfecta

5
3, 5 12

3 10

2, 5
8

2
6
1, 5
4
1

2
0, 5

0
0
0 5 10 15 20 25 30 35
0 5 10 15 20 25 30 35
40
40

Lineal, positiva, imperfecta Lineal, negativa, imperfecta

3, 5 3, 5

3 3

2, 5 2, 5

2 2

1, 5 1, 5

1 1

0, 5 0, 5

0 0

0 5 10 15 20 25 0 2 4 6 8 10 12 14 16 18
30 20

No Lineal Sin relación

Profesor Gonzalo 6
Cuadros 6
Regresión lineal simple

La línea recta tiene dos importantes componentes:


• La pendiente de la recta y
• La ordenada de la recta (el valor de y) en determinado
punto (cuando x = 0)
La ecuación lineal MUESTRAL es la siguiente:

Punto de corte Pendiente


yˆ  ˆ  ˆ
i
x 0 1i

7
Supuestos del análisis de regresión
simple

• Los errores tienen distribución normal.


• Los errores tienen media igual a cero y
varianza igual a 2.
• Los errores aleatorios, digamos , j asociados
a cualquier par de valores asociados a la
variable dependiente y, son independientes

8
Correlación
• Error estándar de la estimación:El error estándar de la
estimación mide la variabilidad, o dispersión, de los valores muestrales y
observados alrededor del plano de regresión. “s”

• Coeficiente de correlación: El coeficiente de correlación


expresa el grado de asociación lineal que existe entre dos variables X e
Y, donde el coeficiente de correlación poblacional se denota por y
varía dentro del intervalo de -1 y 1.
Si entonces indicará que no existe correlación o asociación entre las
variables mientras que cuando se acerca a 1 o a -1 indicará que existe
una asociación fuerte, y cuando es exactamente 1 ó -1 la asociación es
perfecta. El estimador es “r”

• Coeficiente de determinación El coeficiente de


determinación (r2) expresa el porcentaje de la variabilidad total que es
explicada por la regresión.

9
Pronósticos
• Valor medio
ŷ 0  t ( n 2, 1 / 2) Se
1

x 0  x
2

n S xx

• Valor individual

ŷ 0  t ( n  2, 1 / 2) Se 1
1

x 0  x
2

n S xx

10
Regresión no lineal

En muchas ocasiones los datos que se


tiene no se prestan para un ajuste lineal
ya que existen otros modelos matemáticos
que pueden ajustar los datos con una
correlación mayor y menor error de
estimación.

11
MODELO ECUACIÓN LINEALIZADO VALIDACION
Ho: B1=0
LINEAL Y= Ḃo+Ḃ1X H1: B1≠ 0 RHo
Ho: B2=0
CUADRATICO Y= Ḃo+Ḃ1x+Ḃ2X2 H1: B2≠ 0 RHo

Ln Y = Ln Bo+Ḃ1Lnx Ho: B1=0


POTENCIA Y=ḂoXB1 H1: B1≠ 0 RHo

Ln Y = Ln Bo+Ḃ1x Ho: B1=0


Ḃ1X
EXPONENCIAL Y=Ḃo (E) H1: B1≠ 0 RHo

12
12
Función exponencial

y

0

  0
  0 1
1


0
x
x

13
Función potencia

y   1 y
1

0    1
  0
1


0

x x

14
Regresión Múltiple

El objetivo del Análisis de Regresión Múltiple es


relacionar una variable respuesta Y con un conjunto de
variables predictoras utilizando un modelo de regresión.

Lo que se desea es poder estimar el valor medio de y


y/o predecir valores particulares de y a observar en el
futuro cuando las variables predictoras toman valores
específicos.

15
Elección de las variables de predicción

• Primer paso es identificar la variable dependiente y las


variables de predicción o predictoras que se van a incluir
en el modelo.
• Segundo paso se toma una muestra aleatoria, y se
registran todas las variables para cada elemento de la
muestra.
• Tercer paso es identificar las relaciones entre las
variables de predicción y la dependiente, y entre las
propias variables de predicción (matriz de
correlaciones).

16
Supuestos del análisis de regresión múltiple

• Los errores tienen distribución normal.


• Los errores tienen media igual a cero y
varianza igual a 2.
• Los errores aleatorios, digamos , j
asociados a cualquier par de valores
asociados a la variable dependiente y, son
independientes.
• Las variables regresoras son independientes
“no multicolinealidad” 17
Ecuación de regresión muestral

ŷ  ̂ 0  ̂ 1x1  ̂ 2 x 2  ...  ̂ k x k
• ŷ valor estimado de la variable dependiente

ˆ  0 ,ˆ1 , ˆ2 ,..., ˆkestimaciones muestrales de los parámetros



poblacionales

• x1, x2,... , xk : son variables predictoras

18
Coeficiente de regresión

• Los valores ̂ 0 , ̂ 1 , ̂ 2 ,..., ̂ k se conocen como


coeficientes de regresión estimados.

• Un coeficiente de regresión estimado específico mide el


cambio promedio en la variable dependiente debido a un
incremento de una unidad en la variable predictora
relevante, manteniendo constantes las otras variables
de predicción.

19
Multicolinealidad
• Cuando existe multicolinealidad es difícil distinguir que
cantidad del efecto observado se debe a una variable
de predicción individual. En otras palabras, si dos
variables están altamente correlacionadas,
proporcionan casi la misma información en el
pronóstico.
• Cuando dos variables tienen una alta correlación, los
coeficientes ̂ 0 , ̂1 , ̂2 ,..., ̂ k estimadores de 0 , 1 , 2 ,...k
no son confiables. La estimación ̂ k de  puede no k

ser siquiera cercana al valor del su correspondiente


parámetro y en casos extremos puede incluso ser
negativo cuando debiera ser positivo.

20
Matriz de correlación

Y X1 X2 X3

Y 1

X1 RYX1 1

X2 RYX2 RX1X2 1

X3 RYX3 RX1X3 RX2X3 1


21
Regla práctica para seleccionar las variables
predictoras en regresión múltiple
• Una variable predictora debe tener una correlación fuerte con la
variable dependiente.

• Una variable predictora no debe tener una correlación demasiado


alta con ninguna otra variable predictora. (La correlación entre dos
variables predictoras debe estar muy por debajo de la menor de las
dos correlaciones entre las variables predictoras y la variable
dependiente)

• Cuando se produce la multicolinealidad, si el analista sólo quiere


usar el modelo de regresión para hacer pronósticos, la
multicolinealidad puede no causar ninguna dificultad seria.

22
Las consecuencias adversas son
• Las estimaciones de los coeficientes de regresión fluctúan de
manera notoria de una muestra a otra.

• Una variable independiente que tiene una relación positiva con la


variable dependiente puede producir un coeficiente de regresión
negativo si la correlación con otra variable independiente es alta.

• Con frecuencia se usa la regresión múltiple como una herramienta


interpretativa para evaluar la importancia relativa de las distintas
variables independientes. Cuando las variables independientes se
intercorrelacionan, explican la misma varianza en el pronóstico de la
variable dependiente. por esto, es difícil separar la influencia
individual de cada variable independiente cuando la
multicolinealidad está presente.

23

También podría gustarte