Documentos de Académico
Documentos de Profesional
Documentos de Cultura
La Ecuación de regresión
Una de las situaciones más interesantes para el investigador, es poder establecer relaciones que
permitan predecir, una o más variables en términos de otras. Fue en el siglo XIX cuando Francis
Galton pudo establecer una relación entre las estaturas de padres e hijos primogénitos. Tomó una
muestra de 1000 familias y tomó las estaturas de los padres y los hijos y observó con asombro,
que en el caso de padres con estatura mayor, el primogénito tenía una estatura menor y
viceversa, a lo que el denominó se presentaba una “regresión” (retorno) de las estaturas de los
hijos a las de los padres
{
−x ( 1+ y )
xe x >0 , y >0
f ( x , y )=
0 en cualquier otra parte
Obtenga la ecuación de regresión de Y en X y trace la curva de regresión
Solución
f (x, y)
Sabemos que f ( y ∨x )=
g(x)
|∞0 =e
∞ ∞ ∞
g ( x )=∫ f ( x , y ) dy=∫ x e dy=−¿ ∫ −x e
−x ( 1+ y ) −x ( 1+ y ) − x (1 + y ) −x
dy =−¿ e ¿¿
−∞ 0 0
x e−x (1 + y ) −x ( 1+ y ) + x − xy 1
La densidad condicional f ( y ∨x )= =x e =x e Si denotamos por β= tenemos
e −x
x
−y
1 β
f ( y ∨x )= e (la densidad de una función exponencial!!!) por lo tanto
β
∞ ∞ −y
1
μY ∨x =E [ Y |x ] = ∫ yf ( y∨x ) dy=∫ y e β
dy=β
−∞ 0 β
La curva solicitada es la siguiente:
Curva de regresión
10
8
6
y
4
1 x
2
0
0 1 2 3 4 5
{
−x 3
f ( x 1 , x 2 , x3 ) = ( 1 2 )
x + x e 0< x 1, , x 2 <1 , x 3 >0
0 en cualquier otra parte
Obtenga la ecuación de regresión de X2, en X1 y X3
Solución
1
La densidad marginal conjunta de X1 y X3 está dada por g ( x 1 , x 3 )= ∫ ( x 1 + x 2) e− x d x 2=¿3
( 1
)
x 1 + e− x 0< x 1 , <1 , x 3> 0
2
3
Por lo tanto
1 1
f ( x1 , x2 , x3 ) 1
f ( x 1 , x2 , x3 ) 1
( x1 + x 2 ) e−x 3 1
x2 ( x
μ X ∨X , X =∫ x 2 f ( x2 ∨x1 , x3 ) d x 2=¿∫ x2 d x2 =¿∫ x2 d x2 =¿∫ x 2 d x 2=∫
g ( x1 , x3 ) g ( x1 , x3 )
( x + 12 ) e (x
2 1 3
0 0 0 0 − x3 0
1 1
Curva de regresión
0.66
0.64
0.62
f
0.60
x1 2 3 2x1 1
0.58
0.56
x1
Ejercicios:
{
2x
x >0 , y> 0
2. Dada la densidad conjunta f ( x , y )= ( 1+ x + xy )3 demuestre que
0 en cualquier otra parte
1
μY ∨x =1+ y que Var(Y|x) no existe
x
Regresión Lineal
La ecuación de regresión es lineal si es de la forma μY ∨x =β 0 + β 1 x , a los términos β0 y β1 se les llama
Coeficientes de regresión. Las ecuaciones de regresión lineal son de especial interés porque:
a) Se prestan a un tratamiento matemático más a fondo
b) Ofrece buenas aproximaciones a ecuaciones de regresión
c) En el caso de la distribución normal bivariada, las ecuaciones de regresión son de hecho
normales
Teorema 1:
σY
a) Si la regresión de Y en X es lineal, entonces μY ∨ X =μ Y + ρ ( x−μ X )
σX
σX
b) Si la regresión de X en Y es lineal, entonces μ X ∨Y =μ X + ρ ( y−μY )
σY
Demostración
∞
a) Ya que μY ∨x =β 0 + β 1 x , se tiene que ∫ yf ( y∨x ) dy=β 0 + β 1 x … (A)
−∞
Multiplicando ambos lados por g(x):
∞ ∞ ∞
E [ XY ] =β 0 μ X + β 1 E [ X ] …(2)
2
Si de (1) y (2) despejamos B0, e igualamos las expresiones resultantes, tenemos que:
E[ X ]
2
E [ XY ]
μY −β 1 μ X = −β1 luego
μX μX
β1
E [ X2]
μX
−β 1 μ X =
E [ XY ]
μX
−μY ↔ β 1
[
E [ X 2]
μX
−μ X =
μX ]
E [ XY ]
−μ Y ↔
Ejercicios:
3. Demuestre que si μY ∨x es lineal en x y VAR(Y|x) es constante, entonces VAR ( Y ∨x ) =σ 2Y ( 1−ρ2 )
σX
4. Pruebe que si la regresión de X en Y es lineal, entonces μ X ∨Y =μ X + ρ ( y−μY )
σY
En la práctica hay muchos problemas donde un conjunto de datos pareados da la indicación de que la
recta es lineal, donde no conocemos la distribución conjunta de las variables aleatorias consideradas,
pero no obstante deseamos estimar los coeficientes de regresión β0 y β1 a partir de los datos de
muestra.
Los problemas de este tipo suelen manejarse por medio del método de mínimos cuadrados, un
método de ajuste de curvas sugerido originalmente a principios del siglo XIX por el matemático
francés Adrién Legendre
y
i 1
i
i 1
i yˆi y1 yˆ i yi ny yi n yi yi yi 0
i 1 i 1 i 1 i 1 n i 1 i 1 i 1
y buscaremos encontrar los errores por medio de los cuadrados de las diferencias y que éste sea
n n
mínimo, es decir, ∑ ε =∑ ( y i−^y i ) ≅ 0
2 2
i
i=1 i=1
Este método consiste en minimizar la suma de los cuadrados de las diferencias, es decir, se obtiene
la derivada parcial para cada uno de los parámetros a estimar, cada parcial se iguala a cero y se
soluciona el sistema de ecuaciones correspondiente.
n
y 1 x1 0
2
1 0
Sea la i 1
2
1 n n n
i 0 1i
y x 2
2 yi 0 x
1 i ( 1) 2 yi 0 1 xi
0 0 i 1 i 1 i 1
n n n
n n
2 y1 0 1 xi 2 yi 2n 0 2 1 xi 0
i 1 i 1 i 1 i 1 i 1
n n n n
1 1
Luego n β 0=∑ y i −β1 ∑ x i ↔ β 0= ∑ y i −β1 ∑ x i= y −β1 x ∴ ^β0 = y− β^ 1 x
i=1 i=1 n i=1 n i=1
[∑ ]
2 n n n n n n n
∂ε ∂
= ∑
∂ β1 ∂ β1 i=1
⌊ y i−( β 0+ β 1 xi ) ⌋ =−2 ∑ ⌊ y i−( β 0 + β 1 x i ) ⌋ x i=−2
2
y i x i−β o ∑ xi −β 1 ∑ x i =0 ↔ ^β1 ∑ x i2=∑ y
2
n n
∑ xi y i−n xy ∑ ( x i−x ) ( y i− y )
Demuestre que la expresión ^β 1= n
i=1 i=1
= n
∑ xi2 −n x2 ∑ ( x i−x )2
i=1 i=1
El intercepto ^β 0 indica el valor promedio de la variable de respuesta cuando la variable predictora vale
0. Sin embargo, carece de interpretación práctica si es irrazonable pensar que el rango de valores de
x incluye a cero.
Ejemplo: Consideremos los siguientes datos acerca del número de horas de estudio de 10 personas
para presentar un examen de francés y sus calificaciones obtenidas
Horas de Calificación en
estudio X la Prueba Y
4 31
9 58
10 65
14 73
4 37
7 44
12 60
22 91
1 21
17 84
Horas de estudio y calificación en la prueba Se aprecia la evidencia de una relación lineal entre las
horas de estudio y la calificación de la prueba.
90
∑ ( x i−x ) ( y i− y ) 1305
60
^β 1= i=1 = =3.4707
cal
n
376
∑ ( xi −x )2
50
i =1
40
^β 0= y − ^β 1 x=56.4−3.4707∗10=21.693
20
Luego:
E [ y i ]=E [ β 0 + β 1 x i+ ε i ]=β 0 + β 1 x i
V [ y i ] =V [ β 0+ β1 xi + ε i ]=V [ ε i ] =σ 2
c) E [ ^β 0 ]=β 0
[ ]
1 x2
V [ ^β 0 ]=σ
2
+
d) n n
∑ ( x i−x )2
i=1
Prueba
n n n n
∑ ( x i−x ) ( y i− y ) ∑ ( xi −x ) y i− y ∑ ( x i− x ) ∑ ( x i−x ) y i
a) Observe que ^β1 =
i=1 i =1 i=1
n
= n
= i=1n , entonces :
∑ ( x i−x ) 2
∑ ( xi −x ) 2
∑ ( x i−x ) 2
i=1 i =1 i=1
n n
∑ ( x i−x ) E[ y ¿¿ i] ∑ ( x i−x ) ¿ E [β 0 + β 1 x i ¿ ] n n
[ ]
n
i=1
n
= i=1 n
=β 0 ∑ ( x i−x ) ¿+ β 1 ∑ ( x i−x ) x i
∑ ( x i−x ) y i ∑ ( xi −x ) 2
∑ ( x i−x )2 i=1 i=1
β1∑
E [ ^β 1 ]=E
i=1 i=1 i=1 i=
n
= n
= n
∑ ( x i−x )2 ∑ ( x i−x )2 ∑
i=1 i=1 i=
n n
Pruebe que ∑ ( xi −x ) x i=∑ ( x i− x )
2
[ ][
i=1 i=1
n n
∑ ( x i−x ) y i ∑ ( x i−x )2 σ
2
b) V [ ^β 1 ]=V V [ y i ]=
i=1 i=1
=
]
n n 2 n
∑ ( xi −x ) 2
∑ ( xi −x ) 2
∑ ( xi −x )2
i=1 i=1 i =1
[ ]
n n n
1 1 1
c) E [ ^β 0 ]=E [ y− ^β 1 x ]=E ∑ y i− β^ 1 x = ∑ E [ y i ] −β 1 x = ∑ E [ β 0+ β1 x i ] −β 1 x=¿
n i=1 n i=1 n i=1
β 0 + β 1 x−β 1 x =β 0
[ ]
2 2 2 2
σ σ σ 1 x
V [ ^β 0 ]=V [ y − ^β1 x ]=V [ y ] + V [ β^ 1 x ]= + x V [ ^β1 ] = + x
2 2 2
=σ +
d) n n n
n n
∑ ( x i−x ) 2
∑ ( x i−x )2
i=1 i=1
i =1
( ) ()
n
n n n
1 c
y , ^β1 ¿=cov ∑ y i , ∑ c i y i =∑ ∑ i cov ( y i , y j ) =0 i≠ j ya que la muestra es aleatoria.
n i=1 i=1 i=1 j=1 n
∴ cov ( y , β^ 1 ) =0.
Se observa que σ 2es desconocida y para completar el análisis requerimos encontrar un estimador de
la varianza. ¿cómo le hacemos? En el modelo utilizamos ^y ipara estimar E[ y i ¿ entonces es natural
n
tomar una estimación de σ 2 en términos de ∑ ( y i−^y i ) =SCE=Suma de Cuadrados del error
2
i=1
El método de mínimos cuadrados se puede aplicar para estimar los parámetros en un modelo de
regresión lineal, independientemente de la distribución de los errores. Con los mínimos cuadrados se
obtienen los mejores estimadores lineales insesgados de los parámetros. Sin embargo, para
desarrollar pruebas de hipótesis e intervalos de confianza debemos suponer que los errores tienen
una distribución conocida.
El nuevo supuesto es entonces, que los errores tienen distribución normal con media cero y varianza
2
σ . Entonces, ¿qué pasa con los estimadores de los parámetros del modelo de regresión lineal?
Ahora diferenciaremos parcialmente la función de verosimilitud (mejor su logaritmo, que es más fácil)
con respecto a β 0 , β 1 , y σ, igualamos las expresiones a cero y después resolvemos el sistema de
ecuaciones resultantes.
∑ x i y i −n xy
[ ]
n n
^β 1 ∑ xi −n x =∑ x i y i−n xy ∴ β^ 1= i=1n
2 2
i=1 i=1
∑ x i2−n x 2
i=1
√
n n
∂lnL 2 1 2
∂σ
[ ]
=−n σ 2+ ∑ y i−( ^βo + β^ 1 xi ) =0 ↔ σ^ = ∑ y i−( ^β o + ^β 1 x i )
i=1 n i=1
[ ]
Este resultado es importantísimo, ya que podemos establecer que:
( )
^β N β , σ2
1 1 n
a)
∑ ( x i−x )2
i=1
( [ ])
2
^β N β , σ 2 1 + x
o 0
b) n n
∑ ( x i−x )2
i=1
( n−2 ) σ^ 2 2
c) X n−2
σ2
Observe que los estimadores de los coeficientes de regresión son los mismos que los obtenidos a
través del método de mínimos cuadrados. El estimador obtenido de la varianza, es una estimador
2 2 1
sesgado. El estimador insesgado es σ^ =s = SCE .
n−2
Los estimadores de máxima verosimilitud tienen mejores propiedades que los estimadores de
mínimos cuadrados:
a) Son insesgados, incluyendo σ^ 2 que es asintóticamente insesgado
b) Tienen varianza mínima
c) Son consistentes
d) Son suficientes
√
2
entonces el estadístico σ .
n
∑ ( x i−x ) 2
i=1
√
2
σ
n
Z
∑ ( xi −x ) 2 ^β −β el denominador del estadístico t0 se llama error estándar
i =1 1 10
t 0= = =
√ √ √
2
X n−2 ( n−2 ) σ^ 2 σ^
2
2 n
n−2 σ ( n−2 )
∑ ( x i−x )2
i=1
estimado o error estándar de la pendiente y se denota
√
n
∑ ( y i−^y i )2
√ ( )
σ^
2
1
se ( β^ 1 ) = n
= i=1
n
.
n−2
∑ ( x i−x ) 2
∑ ( xi −x ) 2
i=1 i=1
Ejercicios:
a) Siguiendo el procedimiento empleado para la pendiente, establezca la hipótesis estadística para
la ordenada al origen β 0 ,el estadístico de prueba y el intervalo de confianza al 100(1- α)%. ¿qué
representa que β 0=0 ?
( n−2 ) σ^ 2 2
b) Pruebe que si 2
X n−2, el intervalo de confianza de 100(1- α)% para σ 2 es
σ
( )
( n−2 ) σ^ 2 2 ( n−2 ) σ^ 2
2
≤σ ≤ 2 = (1−α ) %
Xα X α
,n−2 1− ,n−2
2 2
Ejemplo: Considerando los datos del número de horas de estudio de 10 personas para presentar un
examen de francés y sus calificaciones obtenidas:
a) Encuentre la estimación de σ 2
b) Verifique que β 1es significativa, es decir, β 1 ≠ 0
c) ¿el coeficiente de la ordenada al origen es diferente de cero?, compruébelo.
d) Obtenga un intervalo de confianza para β 1 del 96% e interprételo
e) Calcule el intervalo de confianza del 96% para β 0e interprételo
f) ¿cuál es el intervalo de confianza para σ 2 del 96%? Interprételo.
Solución
Para la estimación de la varianza debemos encontrar la suma de cuadrados de los errores y para encontrar
esta suma, debemos de obtener la estimación para cada valor de x, y para la obtener dicha estimación
debemos contar primero con la ecuación de regresión estimada. Los cálculos y valores necesarios, ya se
incluyen en la siguiente tabla:
Horas Calif. ^y i εi 2
εi
i
estudio X prueba Y
√
0 5 10 15 20 25
√
2
σ^ 27.885
s e ( ^β1 ) = = =0.272
n
376
∑ ( xi −x ) 2
i=1
t crit =2.449
Como t cal=12.745>2.449=t crit se rechaza Ho. Es
decir, existe relación lineal entre el número de horas
de estudio y la calificación de la prueba
c) Se desea probar
Ho: β 0 =0
Ha: β 0 ≠ 0
d) ( ^β −t 1 α
2
,n−2
se ( ^β 1) , β^ 1 +t α
2
, n−2 )
se ( β^ 1 ) =( 1−α ) %
√[ ]√
verdadero de la pendiente se encuentra entre (2.804,4.138)
1
s e ( ^β 0) = σ^ 2 +
n n
x2
∑ ( xi −x ) 2
= 27.885 [ 1 100
+
10 376e) ](^β −t
=3.194
0 α
2
,n−2
se ( ^β 0 ) , ^β 0+t α
2
,n−2
se ( ^β 0 ) =( 1−α ) %
)
i=1 ( 21.693−2.449∗3.194 , 3.470+2.449∗0.272 )=96 %
(13.869,29.516)=96%
Además t crit =2.449
Si se toman 100 muestras, en el 96% de los casos, el valor
Como t cal=6.791>2.449=t crit se rechaza Ho. Es verdadero de β 0 se encuentra entre (13.869,29.516)
decir, la ordenada al origen, no pasa por el punto
( )
(0,0) ( n−2 ) σ^ 2 2 ( n−2 ) σ^ 2
f) X 2 ≤σ ≤ 2 = (1−α ) %
α X α
,n−2 1− ,n−2
2 2
( 8∗27.885
16.1708
,
2.5366 )
8∗27.885
=96 % ↔ ( 13.795 , 87.942 )=96 % .
Si se toman 100 muestras, en el 96% de los casos, el valor
verdadero de la varianza se encuentra entre (13.869,29.516)
Análisis de varianza
Se descompondrá la variación total de Y en dos partes, una que se deba a la relación lineal de Y con
X y otra a causas no controlables. Lo ideal es que gran parte de la variación de Y se explique por su
relación lineal con X.
Si elevamos al cuadrado ambos lados de la ecuación y sumamos para las n observaciones tenemos
que:
n n n
i=1 i =1 i=1
n n n
∑ ( ^y i− y )2 +2 ∑ ( ^y i− y ) ( y i− ^y i) +∑ ( y i− ^y i )2…II
i=1 i=1 i=1
Observe que:
n n n n n
2 ∑ ( ^y i− y ) ( y i −^y i )=2 ∑ ^y i ( y i−^y i )−2 y ∑ ( y i− ^y i ) =2 ∑ ^y i ε i−2 y ∑ ε i=0
i=1 i=1 i=1 i =1 i=1
n
Pruebe que ∑ ^yi ε i =0
i=1
n n n
Por tanto II, puede expresarse como: ∑ ( y i− y )2=∑ ( ^y i− y )2 +∑ ( y i −^y i )2
i=1 i =1 i=1
SCT =SCR+SCE
a) Si definimos
∑ ( y i− y )2 note que CMT, de manera natural, es un estimador de la
CMT = i=1
( n−1 )
n n
varianza y entonces
∑ ( y i− y ) 2 ( n−1 ) ∑ ( yi − y )2
( n−1 ) CMT
i=1 i=1
2
= 2
= 2
X 2n−1
σ ( n−1 ) σ σ
n
b) Si definimos
∑ ( ^y i− y )2 . Note que E [ SCR ] =E [ β^ 2 SCX ]=SCX E [ β^ 2 ]=SCX ¿, entonces
CMR= i=1 1 1
1
n n
∑ ( ^y i− y ) 2 1 ∑ ( ^y i− y )
2
1CMR
i=1 i=1 2
2
= 2
= 2
X1
σ 1σ σ
n
∑ ( y i− ^y i )2 ( n−2 ) ∑ ( y i − y )2
( n−2 ) CME 2
i=1 i=1
2
= 2
= X n−2
σ ( n−2 ) σ σ2
En resumen, otra prueba para verificar la relación lineal entre la variable dependiente con la variable
Ho : β 1=0
independiente, es a través del análisis de varianza.
Ha: β 1 ≠ 0
∑ ( ^y i − y )2
2 i=1
La cantidad r = n es la proporción de la variación explicada por el regresor x. A r 2 se le
∑ ( y i − y )2
i=1
llama Coeficiente de determinación.
Note que 0 ≤ r 2 ≤ 1 ¿Por qué? Los valores de r 2 cercanos a 1 indican que la mayor parte de la
variabilidad de y está explicada por el modelo de regresión. Por tal motivo se dice que r 2 es una
medida de la bondad de ajuste del modelo
a) Si r 2 ≥ 0.9 el modelo puede predecir
b) Si 0.7 ≤ r 2 <0.9 el modelo puede explicar
c) Si 0.5 ≤ r 2 <0.7 el modelo es poco confiable,
d) Si 0¿ r 2 <0.5 búsquese otro modelo
estudio X prueba Y
∑ ( ^y i − y )2 4529.322
r 2= i=1 = =0.9351 El modelo explica el 93.51% de la variación de Y. Dado el valor de r 2, el
n
4752.40
∑ ( y i − y )2
i=1
modelo puede ayudarnos incluso a predecir calificaciones de la prueba para horas de estudio distintas a los
datos de la muestra
dado de xo (valor medio de las Y para un valor x0 dado) es útil obtener un intervalo de confianza de
este parámetro, para ello observe que
[ ]
2
1 ( x 0 −x )
2 2
σ σ
V [ ^μY ∨x ]=V [ ^y 0 ] =V [ β^ o + β^ 1 x 0 ] =V [ y− ^β 1 x + ^β 1 x 0 ] =V [ y+ ^β1 ( x 0−x ) ] = +
2
( x0 −x ) =σ 2 +
0
n SCX n SCX
.
Como ^β o y β^ 1 se distribuyen normalmente, entonces ^y 0 también se distribuye normal con media
^β + ^β x y varianza estimada …
o 1 0
n
∑ ( y i− y ) 2
^ [ ^μY ∨x ]= σ^ 2
V 0 [ 1 ( x 0−x ) i=1
n
+
SCX
= ] ( n−2 ) [ 1 ( x 0−x )
+
n SCX ]
En este caso al aplicar el procedimiento de estandarización y la división entre σ^ 2 / σ 2 se llega a la
variable aleatoria t:
^μY ∨x −μY ∨ x
t n−2= 0 0
√[
σ^ 2
1 ( x 0−x )
+
n SCX ]
Por tanto un intervalo de confianza del100(1-α)% de ^μY ∨x es:
( √ √
0
])
n n
∑ 2
∑ 2
[ ] [
( y i− y ) 2 ( y i− y ) 2
i=1 1 ( x 0−x ) i=1 1 ( x 0−x )
^y 0 −t α + , ^y 0 +t α + =( 1−α ) %
2
, n−2 ( n−2 ) n SCX 2
, n−2 ( n−2 ) n SCX
El ancho del intervalo de confianza aumenta a medida que aumenta|x 0−x| esto indica mientras más
alejado se encuentre xo de la media, la calidad de la estimación es menor.
[ ] [ ]
2 2
1 ( x 0 −x ) 1 ( x 0−x ) , porque la observación
V ( Y )=V [ y 0− ^y 0 ] =V [ y 0 ] +V [ ^y 0 ]=σ +σ
2 2 2
+ =σ 1+ +
n SCX n SCX
futura y 0 es independiente de ^y 0
∑( y i− y )2
[ ] [ ]
2 2
^ 2 1 ( x0 −x ) 1 ( x 0−x )
^
V ( Y )=σ 1+ + = i=1 1+ +
n SCX ( n−2 ) n SCX
En este caso al aplicar el procedimiento de estandarización y la división entre σ^ 2 / σ 2 se llega a la
variable aleatoria t:
Y^ ¿ x −Y ¿ x
t n−2= 0 0
√[ ]
2
1 ( x 0−x )
σ^ 1+ +
2
n SCX
En consecuencia, un intervalo de predicción del 100(1-α)% para una observación futura en xo es:
( √ √ ])
n n
∑ ( y i− y ) 2
∑ 2
[ ] [
2 ( y i− y ) 2
i=1 1 ( x0 −x ) i=1 1 ( x 0−x )
^y 0 −t α 1+ + , ^y 0 +t α 1+ + =( 1−α ) %
2
, n−2 ( n−2 ) n SCX 2
, n−2 ( n−2 ) n SCX
Este intervalo es más ancho que el de confianza en xo porque depende tanto del error del modelo
ajustado como del error asociado a observaciones futuras.
Ejemplo:
a) Obtenga un intervalo de confianza del 95%para estimar la calificación en la prueba si se estudia
en promedio 10 horas.
b) Obtenga un intervalo de predicción del 95%para estimar la calificación en la prueba si se estudia
23 horas
Solución
a) ^y 0=21.693+ 3.741∗( 10 )=56.4 t 0.0025,8 =2.306 x=10
( √ [ ])
2
223.078 1 ( 10−10 ) ( 52.549,60 .251 )=95 %
56.4 ± 2.306 + =95 %
8 10 376
La calificación promedio esperada cuando se estudia 10 horas será de 52.5 a 60.25, en el
95% de las veces
b) ^y 0=21.693+ 3.741∗( 23 ) =101.52 t 0.0025,8=2.306 x=23
( √ [ ])
2
223.078 1 ( 23−10 ) ( 86.36,116 .7 ) =95 %
101.52 ±2.306 1+ + =95 %
8 10 376
La calificación que se sacará una persona cuando estudia 23 horas para la prueba puede ser
de 86.36 a 100, con una seguridad del 95%