Está en la página 1de 63

REGRESIÓN Y CORRELACIÓN

Existen dos técnicas estadísticas que sirven para analizar la relación entre dos o más
variables, la relación puede ser del tipo funcional, si esta relación es entre una variable
cuantitativa y otra u otras variables también cuantitativas entonces, el análisis se llama
regresión, que a su vez puede ser lineal o no lineal, simple o múltiple; en cambio si el análisis
es para determinar el grado de asociación entre dos o más variables entonces, el análisis se
llama correlación.

1. CORRELACIÓN

El análisis de correlación es el procedimiento mediante el cual se determina el grado de


asociación entre dos o más variables, en ese sentido la correlación es una medida de la
relación (covariación) lineal entre dos variables cuantitativas continuas (x, y) y se mide
con el llamado coeficiente de correlación de Pearson. Si la medida de la relación entre
variables es entre variables cualitativas medidas en escala ordinal el coeficiente se llama de
Spearman, la correlación indica la fuerza y la dirección o naturaleza de una relación lineal La
manera más sencilla de saber si dos variables están correlacionadas es determinar si co-
varían (varían conjuntamente). Es importante hacer notar que esta covariación no implica
necesariamente causalidad, pues la correlación puede ser fortuita, como en el caso clásico
de la correlación entre el número de helados vendidos y los incendios ocurridos, debido
al efecto de una tercera variable, que es la temperatura ambiental.
REGRESIÓN Y CORRELACIÓN
 La correlación se refiere a que si existe un vínculo entre dos o más variables.
Una de las herramientas que nos permite inferir si existe dicho vínculo es
justamente el análisis de correlación. Este procedimiento tiene por objetivo
indicar si existe relación entre dos variables, así como la naturaleza de dicha
relación, y la fuerza de dicha relación. Para poder realizar un análisis de
correlación confiable, lo primero que se necesita es realizar muchas
observaciones de dos variables en forma pareada. Un ejemplo sería visitar
muchos supermercados y revisar tanto el precio de cierta fruta como el precio
de un litro de jugo, otro ejemplo es relacionar la edad de los niños con el peso,
así como su estatura. La colección de datos que se obtenga para aquellas
observaciones puede expresarse en forma de una matriz (o tabla), que puede
someterse a análisis utilizando software de estadístico
REGRESIÓN Y CORRELACIÓN
   correlación es en esencia una medida normalizada de asociación o covariación lineal entre dos
 La

variables. Esta medida o índice de correlación r puede variar entre -1 y +1, ambos extremos indicando
correlaciones perfectas, negativa y positiva respectivamente. Un valor de r = 0 indica que no existe relación
lineal entre las dos variables. Una correlación positiva indica que ambas variables varían en el mismo
sentido, es decir son directamente proporcionales. Una correlación negativa significa que ambas variables
varían en sentidos opuestos, son inversamente proporcionales. Lo interesante del índice de correlación es
que r es en sí mismo una medida del tamaño del efecto, que suele interpretarse de la siguiente manera:
 No existe correlación si r = 0
 correlación despreciable o casi nula si: r < |0.1|
 correlación baja si : |0.1| < r  ≤ |0.3|
 correlación mediana o regular si: |0.3| < r ≤ |0.7|
 correlación fuerte o alta si:  < r ≤|0.8|
 correlación muy fuerte o muy alta si: < r ≤|0.9|
 correlación casi perfecta si: r →
 correlación perfecta si r =
 Por otro lado, la correlación se refiere a que si existe un vínculo entre dos o más variables. Una de las
herramientas que nos permite inferir si existe dicho vínculo es justamente el análisis de correlación. Este
procedimiento tiene por objetivo indicar si existe relación entre dos variables, así como la naturaleza de
dicha relación, y la fuerza de dicha relación. Para poder realizar un análisis de correlación confiable, lo
primero que se necesita es realizar muchas observaciones de dos variables en forma pareada.
REGRESIÓN Y CORRELACIÓN
COEFICIENTE DE CORRELACIÓN DE PEARSON
𝝆 = coeficiente de correlación poblacional
𝑪𝒐𝒗(𝒙,𝒚)
𝝆= ; -1 ≤ 𝝆 ≤ 𝟏
𝝈𝒙 𝝈𝒚

𝐸ሺ
𝑋, 𝑌 ሻ− 𝐸 ሺ
𝑋ሻ𝐸(𝑌)
𝜌=
ඥሾ𝐸ሺ
𝑋 2 ሻ− 𝐸 ሺ
𝑋 ሻ2 ሿ
[𝐸ሺ
𝑌 2 ሻ− 𝐸(𝑌)2 ]

r = Coeficiente de correlación muestral, -1 ≤ 𝑟 ≤ 1


𝑪𝒐𝒗(𝒙,𝒚)
r= ; 𝒐 𝒓 = ξ 𝑹𝟐 con signo de b, donde R2 es el coeficiente de determinación
𝑺𝒙 𝑺𝒚


σ 𝑋𝑌 −𝑛 𝑋 ത
𝑌
𝑟= ത ത
ඥ[σ 𝑋 2 −𝑛 𝑋 2 ][σ 𝑌 2 −𝑛 𝑌 2]

𝑆𝑥𝑦
r=
ඥ𝑆𝑥𝑥 𝑆𝑦𝑦
Cov(x,y) = E(XY) – E(X)E(Y)
Sx = ඥ𝑉(𝑋) → V(X) = E(X2) – E(X)2
Sy = ඥ𝑉(𝑌) → V(Y) = E(Y2) – E(Y)2
𝑆𝑥𝑥 = σ 𝑛 ത2 𝑛 2
𝑖=1 (𝑋𝑖 − 𝑋 ) = σ 𝑖=1 𝑋𝑖 - n𝑋
ത2

𝑆𝑦𝑦 = σ 𝑛 ത2 𝑛 2 ത
𝑖=1 (𝑌𝑖 − 𝑌 ) = σ 𝑖=1 𝑌𝑖 - n𝑌
2

𝑆𝑥𝑦 = σ 𝑛
𝑖=1 [ሺ

𝑋𝑖 − 𝑋 ሻሺ ത
𝑌𝑖 − 𝑌 ሻ] = σ 𝑛 തത
𝑖=1 𝑋𝑖 𝑌𝑖 − 𝑛𝑋 𝑌

COEFICIENTE DE CORRELACIÓN DE SPEARMAN


𝟔σ𝒏 𝟐
𝒊=𝟏 𝒅𝒊
r=1- 𝒏𝟑 −𝒏
; -1 ≤ r ≤ 1
Donde di = R(Xi) – R(Yi); n = número de pares de observaciones (X, Y)
REGRESIÓN Y CORRELACIÓN
Ejemplo 1.
La siguiente muestra contiene el precio y la cantidad de artículos ofertados por un
empresario, el precio está dado en soles y la cantidad en unidades.
Precio: 25, 20, 35, 40, 60, 55, 45, 15, 20, 30, 40, 50, 70, 45, 50
Cantidad. 80, 60, 95, 110, 160, 140, 120, 40, 55, 90, 115, 120, 180, 95, 110
Solución.
X: Precio del artículo
Y: oferta del artículo
n = 15; σ 𝑋 = 600; σ 𝑌 = 1570; σ 𝑋𝑌 = 71000; σ 𝑋 2 = 27550; σ 𝑌 2 = 184600
E(X) = 600/15 = 40 soles; E(Y) = 1570/15 = 104.667 unidades; E(XY) = 71000/15 =
4733.333; E(X2) = 27550/15 = 1836.667; E(Y2) = 184600/15 = 12306.667
V(X) = 1836.667 – (40)2 = 236.667; Sx = 15.384
V(Y) = 12306.667 – (104.667)2 = 1351.5556: Sy = 36.7635
Cov(X,Y) = 4733.333 – 40x104.667 = 546.667
546.667 8200
r= = 0.967; r = = 8200/8483.533 = 0.967
(15.384)(36.7635 ) ξ 3550 𝑥20273 .333
Esto indica que el precio y la cantidad de unidades son directamente proporcionales, es
decir, a medida que aumenta el precio la cantidad de unidades ofertadas también
aumenta y viceversa, en cuanto la fuerza de la asociación es bastante alta, es decir casi
perfecta.
REGRESIÓN Y CORRELACIÓN
PRUEBA PARA 𝝆
La distribución de r es simétrica cuando 𝜌 = 0, es asimétrica cuando 𝜌 ≠ 0. 𝑃ara una
población bivariable normal, la distribución de r se aproxima a una normal cuando n
tiende a infinito. Cuando 𝜌 = 0, hay una transformación por la cual los valores
transformados de r son distribuidos como una t con n-2 grados de libertad, cuyo
estadístico es como sigue.
𝑟 ξ 𝑛 −2
t=
ξ 1−𝑟 2
Este estadístico sirve solo para usar Ho: 𝜌 = 0
Ejemplo. Usar los datos del ejemplo anterior.

1) Ho: 𝜌 = 0

H1: 𝜌 ≠ 0
2) α = 0.05
3) El estadístico es una t con 15-2 = 13 grados de libertad
4) los puntos críticos son: ± 2.16, si t e es mayor que 2.16 o menor que -2.16 se rechazará
Ho
0.967 ξ 15−3
5) te = = 13.6848
ඥ1−(0.967)2
6) como 13.6848 es mayor a 2.16 se rechaza Ho, en consecuencia, el coeficiente de
correlación es bastante diferente de cero.
REGRESIÓN Y CORRELACIÓN
Cuando se quiere probar que 𝜌 tiene un valor distinto de cero y cuando se quiere
construir un intervalo de confianza para estimar 𝜌, se usa lo que se llama la
transformación z, es decir, se puede hacer una transformación de la distribución de r en
una distribución aproximadamente normal con la siguiente expresión.
1 1+𝑟
Zr = 2 ln⁡(1−𝑟 )
Este Zr tiene una distribución aproximadamente normal con E(Zr) = Z𝜌 y el error estándar
1 1 1+𝜌

estimado es 𝜎𝑧 = y Z𝜌 = 𝑙𝑛 1−𝜌
ξ 𝑛−3 2
𝑧𝑟 −𝑧𝜌
Para el valor experimental se usa la siguiente expresión Z = ෝ
𝜎
→N(0,1)
𝑧

Ejemplo usar los datos del ejemplo anterior

1) Ho: 𝜌 = 0.90
H1: 𝜌 ≠ 0.90
2) α = 0.05
3) El estadístico z tiene distribución normal N(0,1)
4) los puntos críticos son: ± 1.96, si ze es mayor que 1.96 o menor que -1.96 se rechazará
Ho
2.043878628 −1.47221949 0.571659138
5) ze = 1/ξ 15−3
= 0.288675
= 1.98
1 1+0.967 1 1+0.9 1

Zr = 2 ln⁡(1−0.967 ) = 2.043878628; Z𝜌 = 2 ln⁡(1−0.9) = 1.47221949; 𝜎𝑧 = =1/ξ 12 =
ξ 15−3
0.288675
6) Como 1.98 es mayor que 1.96 se rechaza Ho, en consecuencia, el coeficiente de
correlación es diferente de 0.90, más específicamente mayor que 0.90
REGRESIÓN Y CORRELACIÓN
  
 INTERVALOS CONFIDENCIALES PARA
 Los intervalos confidenciales para estimar con un 95% de seguridad es como sigue:
 P[2.043878628 – 1.96(0.288675) < < 2.043878628 + 1.96(0.288675)] = 0.95
 P[2.043878628 – 0.5658) < < 2.043878628 + 0.5658)] = 0.95
 P[1.478) <Z < 2.6097] = 0.95
 Luego se hace el proceso inverso para calcular los límites confidenciales
 P(0.9011 < < 0.9892) = 0.95
 Para obtener los límites confidenciales se usa la expresión r = donde A = antiln(2Zr)
 A =Antiln(2x1.478) = antiln(2.956) = 19.22093405
r = = = 0.9010926 = 0.9011
 A = A =Antiln(2x2.6097) = antiln(5.2194) = 184.8232568
r = = = 0.989237 = 0.9892
REGRESIÓN Y CORRELACIÓN

  Ejemplo 2
 En un estudio de la relación entre la edad y los resultados del electroencefalograma /EEG), se recopilaron
datos de 20 personas con edades entre 20 y 60 años. La siguiente Tabla muestra las edades y un valor de
rendimiento del EEG particular para cada una de esas 20 personas. Los investigadores pretenden saber si
es posible concluir que este rendimiento del EEG particular tiene relación inversa con la edad.
 Solución.
 X: Edad en años
 Y: Valor resultante del encefalograma (EEG)

 E(X) = 780/20 = 39 años; E(Y) = 1450/20 = 72.5 de EEG,


 E(X2) = 33628/20 = 1681.4; E(Y2) = 109314/20 = 5465.7 ; E(X,Y) = 53707/20 = 2685.35
 V(X) = 1681.4 – (39)2 = 160.4; Sx = 12.6649 años
 V(Y) = 5465.7 – (72.5)2 = 209.45; Sy = 14.4724 EEG
 Cov(X,Y) = 2685.35 – (39)(72.5) = -142.15
 R = -142.15/(12.6649)(14.4724) = -0.77554 es la r de Pearson.
 R = 1 - = 1 – 1.7654 = -0.7654 es la r de Spearman,
 En ambos casos el r es negativo por lo tanto hay una relación inversa, eso indica que cuando aumenta la
edad el EEG disminuye, en cuanto a fuerza de la relación es alta o buena.
  
REGRESIÓN Y CORRELACIÓN
 xx
N° Edad (X) EEG(Y) X2 Y2 XY R(X) R(Y) d d2
1 20 98 400 9604 1960 1 19 -18 324
2 21 75 441 5625 1575 2 15 -13 169
3 22 95 484 9025 2090 3 17 -14 196
4 24 100 576 10000 2400 4 20 -16 256
5 27 97 729 9409 2619 5 18 -13 169
6 30 65 900 4225 1950 6 7 -1 1
7 31 64 961 4096 1984 7 6 1 1
8 33 70 1089 4900 2310 8 12 -4 16
9 35 85 1225 7225 2975 9 16 -7 49
10 38 74 1444 5476 2812 10 14 -4 16
11 40 68 1600 4624 2720 11 10 1 1
12 42 66 1764 4356 2772 12 8 4 16
13 44 71 1936 5041 3124 13 13 0 0
14 46 62 2116 3844 2852 14 4 10 100
15 48 69 2304 4761 3312 15 11 4 16
16 51 54 2601 2916 2754 16 2 14 196
17 53 63 2809 3969 3339 17 5 12 144
18 54 52 2916 2704 2808 18 1 17 289
19 58 67 3364 4489 3886 19 9 10 100
20 63 55 3969 3025 3465 20 3 17 289
T 780 1450 33628 109314 53707 2348
REGRESIÓN Y CORRELACIÓN
Ejemplo 3
Los siguientes datos corresponden a una muestra aleatoria de 12 estudiantes para
quienes un juez asignó un puntaje ordinal en base a la hostilidad que manifiestan hacia
su profesor y a sus compañeros de clase, siendo 1 una menor hostilidad y 12 la mayor
hostilidad, determine el nivel de relación que hay entre estas dos variables usando el
coeficiente de correlación de Spearman.
Host. Prof. 2 8 12 3 1 6 7 10 4 9 11 5
Host. Comp. 6 5 10 7 3 4 9 8 1 11 12 2
Solución
N° X Y R(X) R(Y) d d2
1 2 6 2 6 -4 16
2 8 5 8 5 3 9
3 12 10 12 10 2 4
4 3 7 3 7 -4 16
5 1 3 1 3 -2 4
6 6 4 6 4 2 4
7 7 9 7 9 -2 4
8 10 8 10 8 2 4
9 4 1 4 1 3 9
10 9 11 9 11 -2 4
11 11 12 11 12 -1 1
12 5 2 5 2 3 9
T 84
6(84)
R=1- 12(144 −1)
= 1 – 0.2937 = 0.7063
Se nota que hay una alta correlación directa entre las hostilidades hacia el profesor y a
sus compañeros.
V.A. BIDIMENSIONALES
  
Función de Cuantía Conjunta: P(X,Y), o función de masa conjunta es una función definida
para variables aleatorias discretas, para lo cual debe cumplir dos condiciones:
 a) P(X,Y) ≥ 0; b)
 Función de Densidad Conjunta: f(X,Y), es una función definida para variables aleatorias
continuas, para lo cual debe cumplir dos condiciones:
 a) f(X,Y) ≥ 0; b)
 P(a
 Función de Distribución F(X,Y)
 F(Xo,Yo) = P(X
 P(X = caso discreto
 P(X = caso continuo
 Nota.
 Tiene las mismas propiedades de una función de distribución unidimensional.
 = f(X,Y)
V.A. BIDIMENSIONALES
  
 Funciones Marginales.
 V.A. Discretas. V.A. Continuas
 P(X) = f(X) =
 P(Y) = f(Y) =
 Funciones Condicionales
 P(X/Y) = ; P(Y/X) = E(X/Y) = caso discreto
 f(X/Y) = ; f(Y/X) = E(Y/X) = caso continuo
 Probabilidades Condicionales
 P(X/Y) = ; P(Y/X) = para ambos casos
 V(XY) = V(X) + V(Y) r muestral (Pearson)
 Cov(X,Y) = E(X,Y) – E(X)E(Y);
 E(X,Y) = caso discreto
 E(X,Y) = caso continuo
 Sí las v.a. son independientes entonces:
 E(X,Y) = E(X)E(Y), también f(x,y) = f(x)f(y); P(x,y) = P(x)P(y); y Cov(x,y) = 0
REGRESIÓN Y CORRELACIÓN
Ejemplo 4
El siguiente cuadro representa la distribución de probabilidades conjunta de las
variables X e Y, que indican el número de paralizaciones durante un día de trabajo de las
2 máquinas que tiene una fábrica.

X 1 2 3 4
Y
1 0,10 0,10 0,05 0,05
2 0,05 0,10 0,05 0,10
3 0,05 0,05 0,20 0,10
Hallar: a) V(x + y) y b) el coeficiente de correlación de Pearson.
Solución.
a)
X P(x) XP(x) X2P(x)
1 0,20 0,20 0,20
2 0,25 0,50 1,00
3 0,30 0,90 2,70
4 0,25 1,00 4,00
Total 1,00 2,60 7,90

E(x) = 2,60
V(x) = 7,90 – (2,6)2 = 1,14
REGRESIÓN Y CORRELACIÓN

Y P(y) YP(y) Y2P(y)


1 0,30 0,30 0,30
2 0,30 0,60 1,20
3 0,40 1,20 3,60
Total 1,00 2,10 5,10

E(y) = 2,10
V(x) = 5,10 – (2,1)2 = 0,69
XY P(x, y) XYP(x, y)
1 0,10 0,10
2 0,15 0,30
3 0,10 0,30
4 0,15 0,60
6 0,10 0,60
8 0,10 0,80
9 0,20 1,80
12 0,10 1,20
Total 1,00 5,70

E(x, y) = 5,70
Cov(x, y) = 5,70 – (2,6)(2,1) = 0,24
REGRESIÓN Y CORRELACIÓN

Sea z = x + y, entonces:
Z P(z) ZP(z) Z2P(z)
2 0,10 0,20 0,40
3 0,15 0,45 1,35
4 0,20 0,80 3,20
5 0,15 0,75 3,75
6 0,30 1,80 10,80
7 0,10 0,70 4,90
Total 1,00 4,70 24,40
E(z) = 4,70
V(z) = 24,40 – (4,7)2 = 2,31
V(x + y) = 1,14 + 0,69 + 2(0,24) = 2,31

b) 0,24
r  0,2706
(1,14)(0,69 )
En este caso existe una correlación positiva entre las variables, es decir a medida que
aumenta las paralizaciones de una de las máquinas las paralizaciones de la otra
también aumentan, en tanto que la fuerza de correlación es regular.
REGRESIÓN Y CORRELACIÓN
Ejemplo 5.
Un fabricante de muebles está interesado en el número de muebles que le serán entregados
durante los meses de enero (X) y febrero (Y), por estadísticas sabe que el cuadro de distribución
de probabilidades conjunta está dada según el siguiente cuadro.

X 0 1 2 3 4 5

Y
0 0,00 0,01 0,03 0,05 0,07 0,09
1 0,01 0,02 0,04 0,05 0,06 0,08
2 0,01 0,03 0,05 0,05 0,05 0,06
3 0,01 0,02 0,04 0,06 0,06 0,05

a) Compruebe la relación V(x + y) = V(x) + V(y) + 2cov(x; y)


b) Obtenga el coeficiente de variación para cada variable y compárelos.
c) Obtenga el coeficiente de correlación.
Solución:

X P(x) XP(x) X2P(x)


0 0,03 0,00 0,00
1 0,08 0,08 0,08
2 0,16 0,32 0,64
3 0,21 0,63 1,89
4 0,24 0,96 3,84
5 0,28 1,40 7,00
Total 1,00 3,39 13,45

E(x) = 3,39
REGRESIÓN Y CORRELACIÓN
V(x) = 13,45 – (3,39)2 = 1,9579

Sx = 1,39925

Y P(y) YP(y) Y2P(y)


0 0,25 0,00 0,00
1 0,26 0,26 0,26
2 0,25 0,50 1,00
3 0,24 0,72 2,16
Total 1,00 1,48 3,42

E(y) = 1,48

V(y) = 3,42 – (1,48)2 = 1,2296

Sy = 1,1088733

XY P(x, y) XYP(x, y)
0 0,28 0,00
1 0,02 0,02
2 0,07 0,14
3 0,07 0,21
4 0,11 0,44
5 0,08 0,40
6 0,09 0,54
8 0,05 0,40
9 0,06 0,54
10 0,06 0,60
12 0,06 0,72
15 0,05 0,752
Total 1,00 4,76

E(x; y) = 4,76
REGRESIÓN Y CORRELACIÓN
Cov(x; y) = 4,76 – (3,39)(1,48) = -0,2572

V(x+y) = 1,9579 + 1,2296 + 2(-0,2572) = 2,6731

Si, x + y = z

z P(z) zP(z) z2P(z)


0 0,00 0,00 0,00
1 0,02 0,02 0,02
2 0,06 0,12 0,24
3 0,13 0,39 1,17
4 0,19 0,76 3,04
5 0,24 1,20 6,00
6 0,19 1,14 6,84
7 0,12 0,84 5,88
8 0,05 0,40 3,20
Total 1,00 4,87 26,39

E(z) = 4,87 = 3,39 + 1,48

V(z) = 26,39 – (4,87)2 = 2,6731

b) CV(x) = 1,39925 / 3,39 = 41,276%

CV(y) = 1,1088733 / 1,48 = 74,924%

Se puede apreciar que la variable X es más homogénea respecto a su promedio que la


variable Y.

c) r   0,2572
 0,16577
(1,39925)(1,1088733)

En este caso las variables son inversamente proporcionales, asimismo la correlación es un


tanto baja.
REGRESIÓN Y CORRELACIÓN
Ejemplo 6.

Sea X e Y, dos v.a. continuas, donde X es el empuje e Y la razón de la mezcla, que son 2
características del funcionamiento de un motor a reacción, cuya función de densidad
está dada por:

 2( x  y  2 xy )  0  x  1, 0  y  1
f ( x, y )  
0 en otro caso

(Ejemplo propuesto por Paul Meyer en su libro Probabilidades y Aplicaciones


Estadísticas, Pág. 130)

Obtenga P(x>1/2 / y>1/2), V(X+Y) y el coeficiente de correlación.

Solución:

P( x  1 / 2, y  1 / 2) = 3 / 16
P( x  1 / 2 / y  1 / 2)  )  3/8
P ( y  1 / 2) 1/ 2

1 1
P ( x  1 / 2, y  1 / 2)    (2 x  2 y  4 xy )dxdy
1/ 2 1/ 2

1 1 1 1 1 1
= 2  xdx  dy  2  dx  ydy  4  xdx  ydy
1/ 2 1/ 2 1/ 2 1/ 2 1/ 2 1/ 2

= 3/16
REGRESIÓN Y CORRELACIÓN
1 1 1
f ( x)  2 x  dy  2 ydy  4 x  ydy  1  0  x  1, 0 en otro caso.
0 0 0

1 1 1
f ( y )  2 xdx  2 y  dx  4 y  xdx  1  0  y  1, 0 en otro caso
0 0 0

1 1 1 1 1 1 𝟏𝟏
P( y  1 / 2)  2  xdx  dy  2  dx  ydy  4 xdx  ydy  1 / 2 = ‫𝟏׬‬/𝟐 𝒅𝒚 = y/𝟏/𝟐 = 1 – ½ = 1/2
0 1/ 2 0 1/ 2 0 1/ 2

1
E ( x)   xdx  1 / 2
0

1
E ( y)   ydy  1 / 2
0

1
E ( x )   x 2dx  1 / 3
2

1
E( y )  y dy  1 / 3
2 2

0
REGRESIÓN Y CORRELACIÓN

   = 1/3 – 1/4 = 1/12
V(x)

 V(y) = 1/3 – 1/4 = 1/12

 Cov(x; y) = 2/9 –(1/2)(1/2) = -1/36

 V(X+Y) = 1/12 + 1/12 – 2(1/36) = 4/36 = 1/9

 = -0.333, esto implica que las variables son inversamente proporcionales, pero la fuerza de la
relación es regular
REGRESIÓN Y CORRELACIÓN
Ejemplo 7

Se tiene la función de densidad conjunta de 2 v.a. continuas, cuya expresión es


la siguiente:

(3 / 28)( xy  y 2 )  0  x  2, 0  y  2
f ( x, y )  
0 en otro caso

Hallar P(x<1 / y>1) y el coeficiente de correlación e indique si las variables


son independientes.

Solución:

P ( x  1, y  1) = 37 / 112
P ( x  1 / y  1)   37 / 92
P ( y  1) 92 / 112

1 2 1 2 1 2
3 3 3
P ( x  1, y  1)    ( xy  y ) dxdy  28 
xdx  ydy   dx  y dy
2 2

28 0 1 0 1
28 0 1

= 37/112

2 2
3 3 2 2 3 2 2

  ( xy  y
2
P ( y  1)  2
) dxdy   xdx  ydy   dx  y dy
28 28 0 1 28 0 1
0 1

= 23/28 = 92/112
2 2 2
3 3 3 = 3x/14 + 2/7
f ( x)   ( xy  y ) dy  x  ydy 
28 
2
y 2 dy
28 0
28 0 0

f(x) = 3x/14 + 2/7  0 < x < 2


REGRESIÓN Y CORRELACIÓN

2 2
3 2
E ( x)   x 2 dx   xdx  8 / 7
14 0 70

2 2
3 2
E ( x )   x 3dx   x 2dx  34 / 21
2

14 0 70

V(x) = 34/21 – (8/7)2 = 46/147

Sx = 0,5594
2 2 2
3 3 3y 2 = (3/14)(y + y 2)
f ( y )   ( xy  y )dx 
2
y  xdx   dx
28 0 28 0 28 0

f(y) = (3/14)(y + y2) 0<x<2


REGRESIÓN Y CORRELACIÓN
3 2 2 3 2 3
14 0 14 0
E ( y)  y dy  y dy  10 / 7

2 2
3 3
E( y )     y 4 dy  78 / 35
2 3
y dy
14 0 14 0

V(y) = 78/35 – (10/7)2 = 46/245

Sy = 0,43331

2 2 2 2
= 3  x 2 dx  y 2 dy  3  xdx  y 3 dy
2 2
3
E ( x, y )   
28 0 0
xy ( xy  y 2 )dxdy
28 0 0 28 0 0

= 34/21

Cov(x; y) = 34/21 – (8/7)(10/7) = -2/147 = -0, 0,0136

r = -0,0136/(0,5594)(0,43331) = - 0,056

En este caso, también la correlación es bastante baja pero negativa.


Finalmente se puede concluir que las variables no son independientes.
REGRESIÓN Y CORRELACIÓN

2. REGRESIÓN.
 Es una técnica estadística que consiste en analizar la dependencia entre dos o más
variables, observando si las variaciones de una o más variable provocan o no alguna
variación en la magnitud de la otra variable, esa relación de dependencia viene
expresada en una función matemática que para valores dados de una o más variables
independientes da el valor esperado de la variable dependiente ligada a esa o esas
variables.
 Esta técnica fue estudiada por Sir Francis Galton y complementada por Sir Carl
Pearson, quienes estudiaron la relación entre las estaturas de los padres con las
estaturas de sus hijos y llegaron a la conclusión que las estaturas de los hijos
regresaban al promedio de estaturas.
 En otras palabras la regresión, es una técnica que permite expresar el comportamiento
general de una VARIABLE cuantitativa (denominada variable
dependiente o respuesta, y que generalmente es representada por Y) a partir de los
valores procedentes de otra u otras variables (denominadas variables
independientes, de predicción o regresoras: X, X1 , X2 , etc.) a través de una
relación funcional matemática. Esta relación puede utilizarse para calcular o predecir
los valores de la variable dependiente en función de las variables independientes.
REGRESIÓN Y CORRELACIÓN

   La relación de causalidad entre estas variables es unidireccional. Es decir, las variables


exógenas o independientes pueden influir en la endógena o dependiente, pero no a la inversa.
 REGRESIÓN SIMPLE. Es cuando la relación funcional es entre solo dos variables (X,Y), donde
X es la variable independiente e Y es la variable dependiente.
 REGRESIÓN MÚLTIPLE. Es cuando la relación funcional es entre una variable cuantitativa
llama da dependiente y otras dos o más variables independientes también cuantitativas.
 El análisis también puede ser lineal o no lineal.
 REGRESIÓN LINEAL. Es cuando la relación funcional puede ser expresada como la ecuación
de una recta, o cuando el exponente de las variables o de los parámetros es igual uno positivo,
la linealidad puede ser entre los parámetros o entre las variables o en ambos casos.
 Ejemplo. Y =
 Hay una relación lineal entre variables y entre parámetros. El Teorema de Gauss-Markov indica
que la linealidad del modelo es en los parámetros.
 REGRESIÓN NO LINEAL. Es cuando la relación entre las variables o parámetros no puede ser
expresada como la ecuación de una recta.
 Ejemplo. Y =
 Hay una relación no lineal entre las variables
REGRESIÓN Y CORRELACIÓN

  REGRESIÓN LINEAL SIMPLE
 En un modelo de regresión lineal simple se trata de explicar la relación que existe entre la variable respuesta Y y
una única variable explicativa X. El modelo o relación funcional está dado por la ecuación de una recta; es decir:
 Y = f(X)
 Y=
 Y=
 Donde:
Y = Es la variable dependiente o variable respuesta, también llamada endógena. Es una variable aleatoria.
 X = Es la variable independiente, explicativa, o exógena. Es una variable matemática, en algunos casos puede
también ser variable aleatoria.
 Es el parámetro que indica el valor de la variable Y cuando la variable X toma el valor cero, en la gráfica es la
interceptación de la recta con el eje de las ordenadas.
 = Es la pendiente de la recta o coeficiente de regresión, indica cómo cambia Y al incrementar X en una unidad.
 L pendiente o el coeficiente de regresión nos da información sobre el comportamiento de la variable Y frente a la
variable X, de manera que:
 a) Si = 0, entonces para cualquier valor de X la variable Y es una constante (es decir, no cambia).
 b) Si > 0, indica que, al aumentar el valor de X, también aumenta el valor de Y.
 c) Si < 0, indica que, al aumentar el valor de X, el valor de Y disminuye.
REGRESIÓN Y CORRELACIÓN
 =  Es una variable aleatoria, que incluye un conjunto de factores, cada uno de los cuales puede influir en
la variable respuesta, pero sólo en pequeña magnitud, a la que llamaremos error o residuo.
 De acuerdo a esta composición la variable Y, tiene dos componentes una determinística, que es y otra
aleatoria o estocástica que es
 SUPUESTOS
 Para hacer un análisis de regresión es necesario cumplir con ciertos supuestos dado en el teorema de
Gauss-Markov, los mismo son los siguientes:
 1.- El modelo es lineal, y la linealidad es en los parámetros.
 2.- Los valores de X son fijos o fijados por el investigador.
 3.- Los errores tienen distribución normal con media cero.
 4.- Los errores tienen varianza constante – homocedasticidad.
 5.- No existe autocorrelación entre los errores, por lo que son independientes.
 6.- La covarianza entre la variable X y los errores es cero.
 7.- No existe multicolinealidad entre las variables independientes.
 8.- El número de observaciones debe ser mayor al número de parámetros.
 9.- Los valores de X deben ser variables.
REGRESIÓN Y CORRELACIÓN
  ESTIMACIÓN DE LOS PARÁMETROS
 La estimación de los parámetros se realiza usando el método de los mínimos cuadrado, porque
son estimadores MELI (Mejores estimadores lineales insesgados)
 El procedimiento para hacer un análisis de regresión es determinar dos variables, con una
supuesta relación de causalidad, los cuales serán clasificada como variable dependiente(Y) y
como variable independiente (X), en consecuencia se debe tener un dato para cada variable en
cada unidad elemental en consecuencia tendremos un conjunto de pares ordenados (X,Y), que
generalmente tiene un tamaño n, por ser una muestra, en otras palabras, se tendrá n puntos y
que al ser graficados forman lo que se llama la nube de puntos, los pares serán: (X 1,Y1), (X2,Y2),
(X3,Y3),….., (Xn,Yn)
 La ecuación poblacional será:
 Y=
 Y la ecuación muestral será
 Y = a + bX + e
 La ecuación estimada será
 = a + bx
 En consecuencia, se tendrá
 e= Y -
REGRESIÓN Y CORRELACIÓN
  
Estas diferencias se elevan al cuadrado para cada punto luego
se suman
= =
A esta suma de errores cuadráticos se minimiza, derivando
respecto a cada uno de los estimadores de los parámetros que
son a y b.
= 2
→ = na + b ……. (1)
 = 2
 = 0 → = a + b ……(2)
De (1) y (2) se tiene
a = - b
b = = = =
NUBE DE PUNTOS
NUBE DE PUNTOS
NUBE DE PUNTOS
NUBE DE PUNTOS
REGRESIÓN Y CORRELACIÓN
Ejemplo 1.
La siguiente muestra contiene el precio y la cantidad de artículos ofertados por un
empresario, el precio está dado en soles y la cantidad en unidades.
Precio: 25, 20, 35, 40, 60, 55, 45, 15, 20, 30, 40, 50, 70, 45, 50
Cantidad. 80, 60, 95, 110, 160, 140, 120, 40, 55, 90, 115, 120, 180, 95, 110

Muestra Nº Precio(X) Cantidad (Y) XY X2 Y2 ෠


𝑌 ෠)2
(Y- 𝑌
1. 25 80 2000 625 6400 70.02 99.625
2. 20 60 1200 400 3600 58.47 2.342
3. 35 95 3325 1225 9025 93.12 3.544
4. 40 110 4400 1600 12100 104.67 28.444
5. 60 160 9600 3600 25600 150.86 83.469
6. 55 140 7700 3025 19600 139.31 0.470
7. 45 120 5400 2025 14400 116.22 14.320
8. 15 40 600 225 1600 46.92 47.889
9. 20 55 1100 400 3025 58.47 12.037
10. 30 90 2700 900 8100 81.57 71.097
11. 40 115 4600 1600 13225 104.67 106.778
12. 50 120 6000 2500 14400 127.77 60.299
13. 70 180 12600 4900 32400 173.96 36.452
14. 45 95 4275 2025 9025 116.22 450.117
15. 50 110 5500 2500 12100 127.77 315.604
Total 600 1570 71000 27550 184600 1570.02 1332.417
REGRESIÓN Y CORRELACIÓN

Nube de Puntos
200

180

160

140

120
Cantidad

100

80

60

40

20

0
10 20 30 40 50 60 70 80

Precio en soles
REGRESIÓN Y CORRELACIÓN
15𝑥71000 −600𝑥1570
b= 15𝑥27550 −(600)2
= 123000/53250 = 2.30986 = 2.31
a = 104.667 – 2.31x40 = 12.2723
𝑌෠ = 12.27 + 2.31X
Ejemplo. Si el precio es de 80 soles la demanda será de
𝑌෠ = 12.27 + 2.31(80) = 197 artículos

COEFICIENTE DE DETERMINACIÓN: R2
Es una medida que sirve para determinar el grado de ajuste de los puntos observados
con la ecuación de regresión estimada, se puede expresar en términos porcentuales
multiplicando el valor obtenido por cien, entonces indicará el porcentaje de puntos que
son colineales con la recta de regresión estimada y el resto corresponde al error, es decir
a los puntos no colineales.
2
𝑆𝑥𝑦 𝑆𝐶𝑅 𝐶𝑜𝑣 (𝑥,𝑦)2
R2 = 2 2 = = ; 0 ≤ 𝑅2 ≤ 1
𝑆𝑥 𝑆𝑦 𝑆𝐶𝑇 𝑉 ሺ𝑋 ሻ𝑉(𝑌)
Cov(x,y) = E(XY) – E(X)E(Y)
REGRESIÓN Y CORRELACIÓN
Ejemplo 2. Usar los datos del ejemplo anterior para calcular R 2

71000 600 1570


Cov(x,y) = 15 –( 15 )( 15 ) = 4733.333 – (40)(1570/15) = 546.666
ത= 600/15 = 40 soles; 𝑌
𝑋 ത= 1570/15 = 104.667 unidades
V(x) = (27550/15) – 402 = 236.667
Sx = 15.384 soles
V(y) = (184600/15) – 104.6672 = 1351.555
Sy = 36.7635 unidades
(546 .666)2
R2 = = 0.934→ hay un ajuste del 93.4%, en otras palabras, el 93.4% de
(236 .667 )(1351 .555 )
la variación de las unidades ofertadas se debe a los precios y el 6.6% de variación se
debe a otros factores no contemplados.

Otra forma de obtener el R2 es como sigue:

σ𝑛 ത2 𝑛 ෠ ෠ ത2 𝑛 ෠ 2 𝑛 ෠ ത2
𝑖=1(𝑌𝑖 − 𝑌 ) = σ 𝑖=1 (𝑌𝑖 − 𝑌𝑖 + 𝑌𝑖 − 𝑌 ) = σ 𝑖=1(𝑌𝑖 − 𝑌𝑖 ) + σ 𝑖=1(𝑌𝑖 − 𝑌 )

σ𝑛 ത2
𝑖=1(𝑌𝑖 − 𝑌 ) = σ𝑛 ෠ 2
𝑖=1(𝑌𝑖 − 𝑌𝑖 ) + σ𝑛 ෠ ത2
𝑖=1 (𝑌𝑖 − 𝑌 )
Suma de cuadrados = suma de cuadrados + suma de cuadrados
del total del error de la regresión
SCT = SCE + SCR
R2 = SCR/SCT
REGRESIÓN Y CORRELACIÓN

𝑦 =𝑎+𝑏𝑥
 ^
(X,Y)
y
𝑦 =61+1.48
 ^ 𝑥
 
y-
 y -

 ´
𝑌 - 
∆𝑌
 

  𝑋
b
 =
a

x X
REGRESIÓN Y CORRELACIÓN

Ejemplo 3. Usar los mismos datos del ejemplo anterior para calcula el coeficiente de
determinación
SCT = 𝑆𝑦𝑦 = σ 𝑛𝑖=1(𝑌𝑖 − 𝑌ത)2 = σ 𝑛𝑖=1 𝑌𝑖2 - n𝑌ത2 = 184600 – 15(1570/15)2 = 20273.333
SCE = 1332.417
SCR = SCT – SCE = 20273.333 – 1332.417 = 18940.916
2
SCR = 𝑆𝑋𝑌 / 𝑆𝑥𝑥 = b2𝑆𝑥𝑥 = (8200)2/3550 = 18940.845, comparado con el anterior es una
buena aproximación. QQ
b = 𝑆𝑥𝑦 /𝑆𝑥𝑥 = 8200/3550 = 2.31
𝑆𝑥𝑦 = σ 𝑛𝑖=1[ሺ𝑋𝑖 − 𝑋തሻሺ𝑌𝑖 − 𝑌തሻ] = σ 𝑛𝑖=1 𝑋𝑖 𝑌𝑖 − 𝑛𝑋ത𝑌ത
𝑆𝑥𝑦 = 71000 – 15(40)(1570/15) = 71000 – 62800 = 8200
𝑆𝑥𝑥 = σ 𝑛𝑖=1(𝑋𝑖 − 𝑋ത)2 = σ 𝑛𝑖=1 𝑋𝑖2 - n𝑋ത2 = 27550 – 15(40)2 = 3550
R2 = 18940.916/20273.333 = 0.934
R2 = (8200)2/(3550)(20273.333) = 0.934
Como se puede apreciar se obtiene el mismo valor
REGRESIÓN Y CORRELACIÓN
Ejemplo 4.
Una empresa de reparto de encomiendas a domicilio estudia la relación entre la
distancia de las entregas (X) y el tiempo empleado (Y), con el fin de pronosticar el tiempo
de entrega de acuerdo a la distancia de entrega, para lo cual observó 10 entregas, los
resultado son los siguientes, con los cuales estime la recta de regresión para pronosticar
el tiempo de entrega de una encomienda que dista 20 km, asimismo obtenga el
coeficiente de determinación y el coeficiente de correlación de Pearson y de Spearman.
X (km) 28 14 12 31 30 19 24 15 16 11
Y(min) 60 23 12 75 70 40 55 24 25 16
Solución.
N° X (km) Y (min) XY X2 Y2 R(Xi) R(Yi) di 𝒅𝟐𝒊
1 28 60 1680 784 3600 8 8 0 0
2 14 23 322 196 529 3 3 0 0
3 12 12 144 144 144 2 1 1 1
4 31 75 2325 961 5625 10 10 0 0
5 30 70 2100 900 4900 9 9 0 0
6 19 40 760 361 1600 6 6 0 0
7 24 55 1320 576 3025 7 7 0 0
8 15 24 360 225 576 4 4 0 0
9 16 25 400 256 625 5 5 0 0
10 11 16 176 121 256 1 2 -1 1
T 200 400 9587 4524 20880 - - - 2
REGRESIÓN Y CORRELACIÓN

ഥ = 200/10 = 20 km; 𝑌ത= 400/10 = 40 min


𝑿
Sxx = 4524 – 10x(20)2 = 524
Syy = 20880 – 10x(40)2 = 4880
Sxy = 9587 – 10x20x40 = 1587
b = 1587/524 = 3.02863
a = 40 – 3.02863x20 = - 20.5725
𝑌෠ = -20.5725 + 3.02863X
Para X = 20 km; = 𝑌෠ = -20.5725 + 3.02863x20 = 40 min.
2
𝑆𝑥𝑦 (1587 )2
R2 = = = 0.9849
𝑆𝑥𝑥 𝑆𝑦𝑦 (524)(4880 )
r de Pearson
r = ξ 0.9849
r = 0.9924
r de Spearman
6𝑥2
r = 1 - 10 3 −10 = 1 – 12/990 = 1 – 0.00202 = 0.99394
REGRESIÓN Y CORRELACIÓN
VARIANZA DE LA REGRESIÓN

𝟐 σ𝒏 𝟐
𝒊=𝟏 𝒆𝒊 σ𝑛 ෠ 2
𝑖=1 (𝑌 𝑖 −𝑌 𝑖 )

𝝈 = =
𝒏−𝟐 𝒏−𝟐

Datos del ejemplo 1

𝟐 𝟏𝟑𝟑𝟐.𝟒𝟏𝟕

𝝈 = 𝟏𝟓−𝟐
= 102.4936
𝑺𝟐
𝒙𝒚
𝑺𝒚𝒚 −
𝟐 𝑺𝒙𝒙

𝝈 =
𝒏−𝟐
(𝟖𝟐𝟎𝟎)𝟐
𝟐𝟎𝟐𝟕𝟑.𝟑𝟑𝟑−
𝟐

𝝈 = 𝟐𝟓𝟓𝟎
= 102.499
𝟏𝟓−𝟐

𝝈 = 10.124
Los estimadores a y b de α y β son estimadores MELI, por lo tanto son insesgados; es
decir, E(a) = α y E(b) = β, también los estimadores de sus varianzas deben ser insesgados
𝟐 𝒏 𝟐
2 ෝ
𝝈 σ 𝒊=𝟏 𝑿𝒊

𝜎𝑎 = 𝑛𝑆 𝑥𝑥

𝝈 𝟐
2

𝜎𝑏 = 𝑆𝑥𝑥
2 (102 .499)(27550 )

𝜎𝑎 = 15(3550 )
= 53.03 → ො
𝜎𝑎 = 7.282

2

𝜎𝑏 = 102.499/3550 = 0.028873 → ො
𝜎𝑏 = 0.16992
REGRESIÓN Y CORRELACIÓN
Datos del ejemplo 4
Ejemplo. Datos del ejemplo 4
N° X (km) Y (min) ෡
𝒀 ෡)
(Y-𝒀 ෢ 𝟐
(𝒀 − 𝒀)

1 28 60 64.23 -4.23 17.8929

2 14 23 21.83 1.17 1.3689

3 12 12 15.77 -3.77 14.2129

4 31 75 73.31 1.69 2.8561

5 30 70 70.29 -0.29 0.0841

6 19 40 36.97 3.03 9.1809

7 24 55 52.11 2.89 8.3521

8 15 24 24.86 -0.86 0.7396

9 16 25 27.89 -2.89 8.3521

10 11 16 12.74 3.26 10..6276

T 200 400 400.0 73.6672


REGRESIÓN Y CORRELACIÓN
𝟐 𝟕𝟑.𝟔𝟔𝟕𝟐
𝝈ෝ = = 9.2084
𝟏𝟎−𝟐
𝑺𝟐𝒙𝒚
𝑺𝒚𝒚 −
𝟐 𝑺𝒙𝒙
𝝈ෝ = 𝒏−𝟐
(𝟏𝟓𝟖𝟕)𝟐
𝟒𝟖𝟖𝟎−
𝟐
𝝈ෝ = 𝟓𝟐𝟒
𝟏𝟎−𝟐
= 9.1963
𝝈ෝ
= 3.0325
𝟐 σ 𝒏 𝑿𝟐
𝝈ෝ
2
𝜎ො
𝑎 =
𝒊=𝟏 𝒊
𝑛𝑆𝑥𝑥
𝟐
2 𝝈ෝ
𝜎ො
𝑏 =𝑆
𝑥𝑥
2 (9.2084)(4524)
𝜎ො
𝑎 = = 9.75 → 𝜎ො
𝑎 = 2.8196
10(524)
2
𝑏 = 9.2084/524 = 0.01757 → 𝜎ො
𝜎ො 𝑏 = 0.13256
REGRESIÓN Y CORRELACIÓN

INFERENCIA ACERCA DE LOS PARÁMETROS


PRUEBA t
Para probar la significancia de los parámetros dentro del modelo se hacen las pruebas
respectivas para cada uno, en este caso se usará la prueba t por ser n = 15 < 30
Ejemplo. Probar
Si los parámetros α y β son significativos en el modelo estimado.
Solución.

a) Ho: α = 0, Ho: β = 0

H1: α ≠ 0, Ho: β ≠ 0

b) Nivel de significancia α = 0.05

c) El estadístico está dado por


𝑎−α 𝑏 −β
para α es t = ෝ
; para β es t = ෝ
𝜎𝑎 𝜎 𝑏

los t tienen t-2 grados de libertad, en el ejemplo 1 la t tiene 13 grados de libertad


REGRESIÓN Y CORRELACIÓN
d) Puntos críticos.

RR = 0.025 RR = 0.025
Región de no rechazo de Ho

-2.16 2.16
12.27 2.31
e) para α, el te es te = = 1.685; para β, el te es te = = 13.595
7.282 0.16992

f) Como 1.685 cae dentro de la región de no rechazo de Ho, entonces no hay evidencia
suficiente para rechazarlo, en consecuencia, el parámetro α no es significativo en el
modelo. En cambio, 13.595 cae fuera de la región de no rechazo, es decir cae en la región
de rechazo, por lo tanto, se rechaza Ho y en consecuencia el parámetro β si es
significativo en el modelo.
REGRESIÓN Y CORRELACIÓN
PRUEBA F

Cuando se quiere probar si el modelo estimado es significativo, se utiliza el análisis de


varianza, cuyo procedimiento es como sigue:
a) Ho: el modelo no representa al conjunto de puntos
H1: el modelo representa al conjunto de puntos
b) 𝛼 = 0.05 (Nivel de significancia)
c) El estadístico de una F con uno y n-2 grados de libertad, en el ejemplo es con uno y 13
grados de libertad
d) el punto crítico con un 𝛼 = 0.05 y una F con 1 y 13 grados de libertad es Fo = 4.67

RNR = 0.95

RR = 0.05
Región de no rechazo de Ho

0 4.67
REGRESIÓN Y CORRELACIÓN
e) Cuadro del ANVA
F. de V. g. de l. Suma de cuadrados Cuadrados M. Fe

Regresión 1 SCR CMR = SCR CMR/CME

Error n-2 SCE CME = SCE/(n-2) --

Total n-1 SCT -- --

Del ejemplo
F. de V. g. de l. Suma de cuadrados Cuadrados M. Fe

Regresión 1 18940.916 18940.916 184.8

Error 13 1332.417 102.4936 --

Total 14 20273.333 -- --

f) como 184,8 es mayor que 4.67 se rechaza Ho, en consecuencia, el modelo es


altamente significativo.
REGRESIÓN Y CORRELACIÓN
ESTIMACIÓN INTERVÁLICA
ESTIMACIÓN INTERVÁLICA PARA 𝜶 𝒚 β
P[a- tα/2𝜎ො ො
𝑎 ≤ 𝛼 ≤ b + tα/2𝜎𝑎] = 1 – α

P[b - tα/2𝜎ො ො
𝑏 ≤ β ≤ b + tα/2𝜎𝑏] = 1 – α

Ejemplo.
P[12.27 – 2.16(7.282) ≤ 𝛼 ≤ 12.27 + 2.16(7.282)] = 0.95
P[12.27 – 15.73 ≤ 𝛼 ≤ 12.27 + 15.73] = 0.95
P[-3.46 ≤ 𝛼 ≤ 28] = 0.95
P[2.31 – 2.16(0.16992) ≤ β ≤ 2.31 + 2.16(0.16992)] = 0.95
P[2.31 – 0.367 ≤ β ≤ 2.31 + 0.367] = 0.95
P[1.943 ≤ β ≤ 2.677] = 0.95
REGRESIÓN Y CORRELACIÓN
ESTIMACIÓN INTERVÁLICA PARA (𝛼 + 𝛽𝑋)
Para obtener una estimación interválica para cualquier punto de la recta de regresión,
Xo es necesario tener la desviación estándar del predictor e p, la cual es la siguiente
expresión.


തത
2 2 1 (𝑋𝑜 −𝑋)
V(𝑒𝑝 ) = 𝜎ො ො
𝑝 =𝜎 [ + ]
𝑛 𝑆𝑥𝑥

1 (𝑋𝑜 −𝑋ത)
𝜎ො ො
𝑝 =𝜎 ට𝑛 + 𝑆𝑥𝑥

P[𝑌෠𝑜 - tα/2𝜎ො ෠ ො
𝑝 ≤ Yo ≤ 𝑌𝑜 + tα/2𝜎𝑝] = 1 – α

Ejemplo. Obtenga una estimación interválica con un 95% de seguridad para la oferta de
un artículo cuyo precio es de 50 soles (ejemplo 1).
Solución.
Estimación puntual
𝑌෠𝑜 = 12.27 + 2.31(50) = 127.77 ~ 128 artículos
REGRESIÓN Y CORRELACIÓN
Estimación interválica
1 (50−40)
𝑝 = 10.124ට 15 +
𝜎ො
3550
= 2.67
P[127.77 – 2.16(2.67) ≤ Yo ≤ 127.77 + 2.16(2.67)] = 0.95
P[127.77 – 5.77 ≤ Yo ≤ 127.77 + 5.77] = 0.95
P[122 ≤ Yo ≤ 134] (estimación interválica con un 95% de seguridad)
Al precio de 50 soles la oferta con un 95% de seguridad debe estar entre 122 artículos
como mínimo y un máximo de 134 artículos.
P[127.77 – 3.012(2.67) ≤ Yo ≤ 127.77 + 3.012(2.67)] = 0.99
P[127.77 – 8.04 ≤ Yo ≤ 127.77 + 8.04] = 0.99
P[118 ≤ Yo ≤ 136] (estimación interválica con un 99% de seguridad
REGRESIÓN Y CORRELACIÓN
REGRESIÓN LINEAL MÚLTIPLE
En un modelo de regresión múltiple la variable dependiente Y es una función de dos o
más variables independientes, un modelo de k variables independientes se puede
expresar como sigue:
f(x) = f(X1, X2, X3, …XK)
Un modelo de regresión múltiple con k variables es como sigue
Y = 𝛽𝑂 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + 𝛽3 𝑋3 + ⋯ + 𝛽𝐾 𝑋𝐾 + 𝜀
Modelo muestral
y = 𝑏𝑂 + 𝑏1 𝑋1 + 𝑏2 𝑋2 + 𝑏3 𝑋3 + ⋯ + 𝑏𝐾 𝑋𝐾 + 𝑒
𝑦ො= 𝑏𝑂 + 𝑏1 𝑋1 + 𝑏2 𝑋2 + 𝑏3 𝑋3 + ⋯ + 𝑏𝐾 𝑋𝐾
En forma matricial la ecuación es como sigue
Y = Xβ + 𝜀
Modelo muestral
Y = X𝛽መ+ e
𝑦ො= X𝛽መ
e = Y - 𝑦ො
REGRESIÓN Y CORRELACIÓN
෠𝑖 )2
σ 𝑛𝑖=1 𝑒𝑖2 = σ 𝑛𝑖=1(𝑌𝑖 − 𝑌
X’Y = X’X𝛽መ
𝛽መ= (𝑋 ′ 𝑋)−1 X’Y
Donde: la matriz X es una matriz nx(k+1)
1 𝑋11 𝑋21 𝑋31 … . . 𝑋𝑘1
2222222222‫ۍ‬
1 𝑋12 𝑋22 𝑋32 … . . 𝑋𝑘2 22222222‫ې‬
22222222‫ێ‬ 22222222‫ۑ‬
1 𝑋 𝑋 𝑋
22222222‫ ێ‬13 23 33 … . . 𝑋𝑘3 22222222‫ۑ‬
… … … … … … … … … … . . 22222222‫ۑ‬
22222222‫ێ‬
22222‫ۏ‬
1 𝑋1𝑛 𝑋2𝑛 𝑋3𝑛 … . . 𝑋𝑘𝑛 22222222222‫ے‬

Las matrices columnas son los siguientes:


𝑌1 𝛽መ 𝑒1
2222222222‫ۍ‬ 2222222222‫ۍ‬
𝑜 22222222‫ې‬
𝑌2 22222222‫ې‬ 𝛽መ
22222222‫ێ‬
1 22222222‫ۑ‬
2222222222‫ۍ‬
𝑒2 22222222‫ې‬
22222222‫ێ‬
22222222‫ۑ‬ 22222222‫ێ‬
𝑒3 22222222‫ۑ‬
𝑌 22222222‫ێ‬
መ 22222222‫ۑ‬
Para Y = 22222222‫ێ‬
3
Para 𝛽መ= 22222222‫ێ‬
22222222‫ۑ‬ 𝛽 2 para e = 22222222‫ێ‬
22222222‫ۑ‬ .
22222222‫ۑ‬
. 22222222‫ۑ‬
22222222‫ێ‬ . 22222222‫ۑ‬ 22222222‫ێ‬
22222222‫ۑ‬
22222222‫ێ‬ .
22222222‫ێ‬
22222222‫ۑ‬
22222222‫ێ‬
. 22222222‫ۑ‬ . 22222222‫ۑ‬
22222222‫ێ‬
22222‫ۏ‬
𝑌𝑛 22222222222‫ے‬ 𝛽መ
22222‫ۏ‬ 22222‫ۏ‬
𝑒𝑘 22222222222‫ے‬
𝑘 22222222222‫ے‬
Modelo para una regresión con dos variables independientes se tiene
Y = 𝛽𝑂 + 𝛽1 𝑋1 + 𝛽2 𝑋2 + 𝜀
REGRESIÓN Y CORRELACIÓN
Modelo muestral
y = 𝑏𝑂 + 𝑏1 𝑋1 + 𝑏2 𝑋2 + 𝑒
𝑦ො= 𝑏𝑂 + 𝑏1 𝑋1 + 𝑏2 𝑋2
1 𝑋11 𝑋21
2222222222‫ۍ‬
1 𝑋12 𝑋22 22222222‫ې‬ 𝑛 σ 𝑋1 σ 𝑋2 σ𝑦
22222222‫ێ‬ 22222222‫ۑ‬
1 𝑋13 𝑋23 22222222‫ۑ‬
X = 22222222‫ێ‬ X’X = ቎σ 𝑋1 σ 𝑋12 σ 𝑋1 𝑋2 ቏ X’Y = ቎σ 𝑥1 𝑦቏
… … … … … 22222222‫ۑ‬
22222222‫ێ‬ σ 𝑋2 σ 𝑋1 𝑋2 σ 𝑋22 σ 𝑥2 𝑦
22222‫ۏ‬
1 𝑋1𝑛 𝑋2𝑛 22222222222‫ے‬

𝑌1 𝑒1
2222222222‫ۍ‬
𝑌2 22222222‫ې‬ 2222222222‫ۍ‬
𝑒2 22222222‫ې‬
22222222‫ێ‬
22222222‫ۑ‬ መ
𝛽𝑂
𝑌 22222222‫ێ‬
𝑒 22222222‫ۑ‬
Para 𝛽መ= ቎𝛽መ
3
Para Y = 22222222‫ێ‬
3 22222222‫ۑ‬
1 ቏ para e = 22222222‫ێ‬
22222222‫ۑ‬
. 22222222‫ۑ‬
. 22222222‫ۑ‬
22222222‫ێ‬ 22222222‫ێ‬
𝛽መ . 22222222‫ۑ‬
22222222‫ێ‬
22222222‫ێ‬
. 22222222‫ۑ‬ 2
22222‫ۏ‬
𝑌𝑛 22222222222‫ے‬ 22222‫ۏ‬
𝑒𝑛 22222222222‫ے‬
REGRESIÓN Y CORRELACIÓN
Ejemplo. Se tiene el consumo por familia de un producto por mes, así como
el precio del producto en soles con que compra la familia y el ingreso
mensual en miles de soles de dichas familias, con los cuales estime el
modelo de regresión correspondiente.

Familia consumo(Y) Precio(X1) Ingreso familiar(X2)


1.- 5 4 3
2.- 8 3 5
3.- 9 3 5
4.- 7 3 4
5.- 6 3 6
6.- 13 2 6
7.- 10 3 5
8.- 4 4 4
9.- 3 4 2
10.- 11 2 7
11.- 8 3 6
12.- 12 2 7
Total 96 86 60
REGRESIÓN Y CORRELACIÓN
Y2 𝑋12 𝑋22 X1Y X2Y X1 X2
25 16 9 20 15 12
64 9 25 24 40 15
81 9 25 27 45 15
49 9 16 21 28 12
36 9 36 18 36 18
169 4 36 26 78 12
100 9 25 30 50 15
16 16 16 16 16 16
9 16 4 12 6 8
121 4 49 22 77 14
64 9 36 24 48 18
144 4 49 24 84 14
878 114 326 264 523 169
REGRESIÓN Y CORRELACIÓN
1 4 3
2222222222‫ۍ‬
1 3 522222222‫ې‬
22222222‫ێ‬
1 3 522222222‫ۑ‬
22222222‫ێ‬ 22222222‫ۑ‬
1 3 4
22222222‫ێ‬ 22222222‫ۑ‬
1 3
22222222‫ێ‬ 622222222‫ۑ‬
12 36 60
1 2 622222222‫ۑ‬
X = 22222222‫ێ‬ ത= 96/12 = 8; 𝑋
X’X = ൥36 114 169൩ 𝑌 ത1 = 36/12 = 3
1 3
22222222‫ێ‬ 522222222‫ۑ‬
60 169 326
1 4
22222222‫ێ‬ 422222222‫ۑ‬
22222222‫ێ‬
1 4 222222222‫ۑ‬
22222222‫ێ‬
1 2 722222222‫ۑ‬
22222222‫ێ‬
1 3 622222222‫ۑ‬
22222‫ۏ‬
1 2 722222222222‫ے‬


𝑋2 = 60/12 = 5
∆ = 12(114x326 – 1692) – 36(36x326 – 60x169) + 60(36x169 – 60x114)
= 103236 - 57456 – 45360 = 420
8603 − 1596 − 756 σ 𝑦 96
′ −1 1
(𝑋 𝑋) =
420
൥−1596 312 132 ൩ X’Y = ቎σ 𝑥1 𝑦቏= ൥264൩
−756 132 72 σ 𝑥2 𝑦 523

8603 − 1596 − 756 96 9156


′ −1 1 1
(𝑋 𝑋) 𝑋′𝑌 =
420
൥−1596 312 132 ൩൥264൩=
420
൥−1812൩
−756 132 72 523 −72
𝛽መ
𝑂 21.8

቎𝛽1 ቏= ൥−4.314൩
𝛽መ
2
−0.171
෠ = 21.8 – 4.314X1 – 0.171X2
𝑌
REGRESIÓN Y CORRELACIÓN
96 36 60
1
∆𝛽መ
𝑜 = 420 ൥264 114 169൩ = 9156/420 = 21.8
523 169 326
12 96 60
1
∆𝛽መ
1 = 420 ൥36 264 169൩ = -1812/420 = -4.3143
60 523 326
12 36 96
1
∆𝛽መ
2 = 420 ൥36 114 264൩ = -72/420 = -0.1714
60 169 523
෡ 𝑋′𝑌
SCE = Y’Y - 𝛽′

96

𝛽′𝑋′𝑌 = [21.8, -4.314, -0.171] ൥264൩ = 864.2
523
SCE = 878 – 864.2 = 13.8
SCT = 878 – 12(8)2 = 110 = Syy
෡ 𝑋′𝑌 - n𝑌
SCR = 𝛽′ ത2
= 864.2 – 12(8)2 = 96.2
SCR = SCT – SCE = 110 – 13.8 = 96.2
R2 = SCR/SCT = 96.2/110 = 0.8745 → 87.45% de ajuste
R = r = ξ 0.8745 = 0.935 alta correlación positiva
2

𝜎 = SCE/(n-3) = 13.8/9 = 1.533
REGRESIÓN Y CORRELACIÓN
PRUEBA F PARA EL MODELO

a) Ho: el modelo no representa al conjunto de puntos, ninguna covariable influye en la


variable respuesta(consumo)

H1: el modelo representa al conjunto de puntos o al menos una de las covariables


influye en la variable respuesta (consumo)

b) 𝛼 = 0.05 (Nivel de significancia)

c) El estadístico de una F con dos y n-3 grados de libertad, en el ejemplo es con dos y 9
grados de libertad

d) el punto crítico con un 𝛼 = 0.05 y una F con 2 y 9 grados de libertad es Fo = 4.26

RNR = 0.95

RR = 0.05
Región de no rechazo de Ho

0 4.26
REGRESIÓN Y CORRELACIÓN
e) Cuadro del ANVA
F. de V. g. de l. Suma de cuadrados Cuadrados M. Fe

Regresión K-1 SCR CMR = SCR CMR/CME

Error n-k SCE CME = SCE/(n-2) --

Total n-1 SCT -- --

K = Nº de parámetros
Del ejemplo
F. de V. g. de l. Suma de cuadrados Cuadrados M. Fe

Regresión 2 96.2 48.1 31.376

Error 9 13.8 1.533 --

Total 11 110.0 -- --

f) como 31.376 es mayor que 4.26 se rechaza Ho, en consecuencia, el modelo es


altamente significativo.
REGRESIÓN Y CORRELACIÓN

Prof. Fernando Arce Z.


  
  
  

GRACIAS

También podría gustarte