Documentos de Académico
Documentos de Profesional
Documentos de Cultura
(∑ 𝑥𝑖 )(∑ 𝑦𝑖 )
𝑆𝑋𝑌 = ∑ 𝑥𝑖 𝑦𝑖 −
𝑛
(∑ 𝑥𝑖 )2
2
𝑆𝑋𝑥 = ∑ 𝑥𝑖 −
𝑛
∑ 𝑦𝑖 − 𝛽̂1 ∑ 𝑥𝑖
𝑏0 = 𝛽̂0 = = 𝑦̅ − 𝛽̂1 𝑥̅
𝑛
Residuos 𝑦1 − 𝑦
̂1 … 𝑦𝑛 − 𝑦
̂𝑛
∑(𝑥𝑖 − 𝑥̅ )𝑌𝑖
Otra manera de escribir 𝛽̂1 𝛽̂1 = = ∑ 𝑐𝑖 𝑌𝑖
𝑆𝑥𝑥
(𝑥𝑖 − 𝑥̅ )
𝑑𝑜𝑛𝑑𝑒 𝑐𝑖 =
𝑆𝑥𝑥
𝜷𝟏 −𝜷𝟏𝟎
Valor de la estadística de prueba: 𝒔𝜷𝟏
nivel 𝜶
̂0 + 𝛽
𝐸(𝑦̂) = 𝐸(𝛽 ̂1 𝑥 * ) = 𝛽0 + 𝛽1 𝑥 *
̂0 + 𝛽
𝛽 ̂1 𝑥 * 𝑒𝑠𝑢𝑛𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑜𝑟𝑝𝑎𝑟𝑎𝛽0 + 𝛽1 𝑥 *
1 (𝑥 * − 𝑥̅ )2
2
𝑣(𝑦̂) = 𝜎 [ + ]
𝑛 𝑆𝑥𝑥
𝜎𝑦̂ = √𝜎𝑦2̂
1 (𝑥 * −𝑥̅ )2
𝑆𝑦̂ = √𝑛 + , ̂0 + 𝛽
𝑆𝑦̂ = 𝐷𝑒𝑠𝑣𝑖𝑎𝑐𝑖𝑜𝑛𝑒𝑠𝑡𝑎𝑛𝑑𝑎𝑟𝑒𝑠𝑡𝑖𝑚𝑎𝑑𝑎𝑑𝑒𝛽 ̂1 𝑥 *
𝑆𝑥𝑥
𝑦̂𝑡𝑖𝑒𝑛𝑒𝑑𝑖𝑠𝑡𝑟𝑖𝑏𝑢𝑐𝑖𝑜𝑛𝑛𝑜𝑟𝑚𝑎𝑙
𝐼𝑛𝑡𝑒𝑟𝑒𝑛𝑐𝑖𝑎𝑠𝑠𝑜𝑏𝑟𝑒𝜇𝑦⋅𝑥 *
̂0 + 𝛽
𝛽 ̂1 𝑥 * − (𝛽0 + 𝛽1 𝑥 * ) 𝑦̂ − (𝛽0 + 𝛽1 𝑥 * )
𝑇= =
𝑆𝛽̂0 +𝛽̂1 𝑥* 𝑆𝑦̂
x=𝑥 *
𝑦̂ ± 𝑡𝛼⁄2,𝑛−2 ⋅ 𝑆𝑦̂
1 (𝑥 * − 𝑥̅ )2
̂0 + 𝛽
𝛽 ̂1 𝑥 * ± 𝑡𝛼⁄2,𝑛−2 ⋅ 𝑆√1 + +
𝑛 𝑆𝑥𝑥
Estimador de 𝜌
∑(𝑋𝑖 − 𝑋̅)(𝑌𝑖 − 𝑌̅)
𝜌̂ = 𝑅 =
√∑(𝑋𝑖 − 𝑋̅)2 √∑(𝑌𝑖 − 𝑌̅)2
𝐻𝑎 : 𝜌 > 0 𝑡 ≥ 𝑡𝛼,𝑛−2
𝐻𝑎 : 𝜌 < 0 𝑡 ≤ 𝑡𝛼,𝑛−2
𝐻𝑎 : 𝜌 ≠ 0 𝑡 ≥ 𝑡𝛼,𝑛−2 𝑜 𝑡 ≤ −𝑡𝛼,𝑛−2
2 2
Nótese que 𝐻𝑎 : 𝜌 ≠ 0
𝛽̂
𝑇=
𝑠2
√
𝑆𝑥𝑥
Residuos 𝑒𝑖 = 𝑦𝑖 − 𝑦̂𝑖
Si 𝑒𝑖 = 𝑌𝑖 − 𝑌̂𝑖 entonces
𝐸(𝑌𝑖 − 𝑌̂𝑖 ) = 0
1 (𝑥𝑖 − 𝑥̅ )2
𝑉(𝑌𝑖 − 𝑌̂𝑖 ) = 𝜎 2 [1 − − ]
𝑛 𝑆𝑥𝑥
Residuos Estandarizados
𝑖 = 1, … , 𝑛
Códigos
#agregar vectores con datos
datos=data.frame(x,y)
regr=lm(y~x,data=datos)
summary(regr)
#tabla anova
anova(regr)
nota: con este código podemos obtener los valores del estimador de beta1 y sbeta1
betha1<-( )
sb<-( )
alpha<-( )
n<-( )
betha1-qt(1- (alpha/2),n-2)*sb
betha1+qt(1- (alpha/2),n-2)*sb
betha1<-( )
sb<-( )
b10<-( )
alpha<-( )
n<-( )
t<-(betha1-b10)/sb
talfamedis=-qt(alpha,n-2)
betha1<-( )
sb<-( )
t<-(betha1)/sb
i= #valor de incremento
#vectores con datos
y1<-i*y
regresion<-lm(y1~x,data=datos)
confint(regresion,level=.(a/100))
Un IC del 100(1 - ⍺)% para una observación Y futura que se realizará cuando x=x*
Coeficiente de correlación
#vectores con datos
datos<-data.frame(x,y)
cor(datos)
Diagrama de dispersión
#vectores con datos
plot(x, y)
yp=mean(y)
xp=mean(x)
a=(x-xp)^2
b=(y-yp)^2
R=sum((x-xp)*(y-yp))/(sqrt(sum(a))*sqrt(sum(b)))
T=R*sqrt(n-2)/sqrt(1-R^2)
alfa=a
n=
qt(1-alfa/2,n-2)
yi<-c()
for(i in 1:n){
yi[i] = b - c*x[i] #recta de mínimos cuadrados
}
e <- (y - yi)
es <- e/s
Intervalos de bootstrap
library(boot)
boot.ci(bootobject, conf=, type= ) donde
Normalidad de un bootstrap
qqnorm(bootstrap$t, datax=T)
qqline(bootstrap$t, datax=T,col = “green”)
ANOVA
anova<-aov( lm(y ~ x) )
-2 vías con un dato
anova<-aov( lm(y ~ x1+x2) )
-2 vías con varios datos
anova<-aov( lm(y ~ x1*x2) )
Matriz de sombrero
y<-c()
x1<-c()
x2<-c()
datos<-data.frame(y,x1,x2)
mod<-lm(y~x1+x2,data=datos)
summary(mod)
X <- cbind(1, x1, x2)
H <- X %*% solve(t(X) %*% X) %*% t(X)
H
diag(H)
Examinacion de los residuos
ei <- w - fitted(regresion)
Tabla de frecuencias
tabla1<-table(x)
Intervalos
chisq.cont.test(datos, distribution = "norm", nestpar = 2, mean=mean(datos),
sd=sd(datos))
2
[ ]
𝐸 𝑥1, …, 𝑥𝑛 = µ𝑌,𝑥 ,…,𝑥 = β0 + β1𝑥1 + … + β𝑘𝑥𝑘
1 𝑛
𝑉𝑎𝑟(𝑌) = σ
CODIGO:
^ 𝑛
2 𝑆𝑆𝐸 ^
Estimación de σ = 𝑠² = 𝑛−(𝑘+1)
= 𝑀𝑆𝐸, donde 𝑆𝑆𝐸 = ∑ (𝑦𝑖 − 𝑦𝑖)²
𝑖=1
𝑛
𝑆𝑆𝐸
El coeficiente de determinación múltiple es 𝑅² = 1 − 𝑆𝑆𝑇
, donde 𝑆𝑆𝑇 = ∑ (𝑦𝑖 − 𝑦)²
𝑖=1
Prueba de Hipotesis
Intervalos de confianza
1. un intervalo con 100(1-α)% de confianza para β𝑖, el coeficiente de 𝑥𝑖 en la funcion de
regresion es
^
β𝑖 ± 𝑡α/2 , 𝑛−(𝑘+1) ( 𝑠 ^ ) , donde * 𝑠 ^ = 𝑆 𝑐𝑗𝑗
β𝑖 β𝑖
codigo para R:
2. Prueba de hipótesis
𝐻0: β𝑗 = β𝑗0
𝐻𝑎: β𝑗 ≠ β𝑗0
^ ^
β𝑗−β𝑗0
𝑇= ~𝑡𝑛−(𝑘+1)
𝑆 𝑐𝑗𝑗
^
𝑦 ± 𝑡α/2 , 𝑛−(𝑘+1)* 𝑠 ^
𝑌
4. Un intervalo de 100(1-α)% de predicción para un valor futuro de y es
^ 2
𝑦 ± 𝑡α/2 , 𝑛−(𝑘+1) 𝑠² + 𝑠 ^
𝑌
^ 𝑇 −1 𝑇 ^ ^
[
β= 𝑏 = 𝑋 𝑋 ] 𝑋 𝑦 𝑦 = 𝑋β
CODIGO:
2
𝑅
F-razon es 𝐹 = 𝑘
(1−𝑅 )
2
[𝑛−(𝑘+1)]
COVARANCIA DE MATRICES
U es vector columna de variables aleatorias 𝑈1, …, 𝑈𝑛
Teorema:
𝑇
Si A es una matriz con entradas constantes y 𝑉 = 𝐴𝑈, entonces 𝐶𝑜𝑣(𝑉) = 𝐴𝐶𝑜𝑣(𝑈)𝐴
^ −1 −1 𝑇
[ 𝑇 ] 𝑋𝑇𝑌 y 𝐴 = [𝑋𝑇𝑋]
Si β = 𝑋 𝑋 𝑋 y 𝑈 = 𝑌 entonces
^ 𝑇 2 𝑇 −1
𝐶𝑜𝑣(β) = 𝐴𝐶𝑜𝑣(𝑌)𝐴 = σ [𝑋 𝑋]
^
𝐸[β] = β
^ 𝑇 2
𝐶𝑜𝑣(𝑌) = 𝐻𝐶𝑜𝑣(𝑌)𝐻 = σ 𝐻
^ 2
𝐶𝑜𝑣(𝑌 − 𝑌) = σ (𝐼 − 𝐻)
Prueba de bondad Chi-Cuadrada
𝑘
(𝑦𝑖 − 𝑛𝑝𝑖0 )2
𝑞𝑘−1 =∑
𝑛𝑝𝑖0
𝑖=1
Si usamos m estimadores
𝑘
(𝑦𝑖 − 𝑛𝑝̂ 𝑖0 )2
𝑞𝑘−1 = ∑
𝑛𝑝̂ 𝑖0
𝑖=1
Código en R
#Calcula 𝑞𝑘−1
sum((y-n*p)^2/(n*p))
Tablas de contingencia
● Prueba de homogeneidad
Con parámetros especificados
Grupo 𝐴1 𝐴2 ... 𝐴𝑘 Totales
ℎ 𝑘 2
(𝑌𝑖𝑗 − 𝑛𝑗 𝑝𝑖𝑗 ) 2
𝑄𝑘−1 = ∑∑ ∼ 𝜒𝑘−1
𝑛𝑗 𝑝𝑖𝑗
𝑗=1 𝑖=1
Usando estimadores
ℎ 𝑘 2
(𝑌𝑖𝑗 − 𝑛𝑗 𝑝̂ 𝑖 ) 2
𝑄𝑘−1 = ∑∑ ∼ 𝜒𝑘−1
𝑛𝑗 𝑝̂ 𝑖
𝑗=1 𝑖=1
Donde
∑ℎ𝑗=1 𝑌𝑖𝑗
𝑝̂ 𝑖 =
∑ℎ𝑗=1 𝑛𝑗
La prueba de hipótesis es
𝐻0 : 𝑝𝑖1 = 𝑝𝑖2 = ⋯ . = 𝑝𝑖ℎ = 𝑝𝑖 = 𝑝𝑖
#Se definen tantos vectores gh's como grupos en el problema
g1<-c() #Frecuencias en el grupo 1, sin contar los totales
g2<-c() #Frecuencias en el grupo 2, sin contar los totales
#gh<-c() #Frecuencias en el grupo h
Q=0
for(i in 1:h){
for(j in 1:k){
Q=Q+((freq[i,j]-n[i]*p[j])^2/(n[i]*p[j]))
}
}
Q
● Prueba de independencia
Con parámetros especificados
Hipótesis
𝐻0 : 𝑝𝑖𝑗 = 𝑝𝑖. 𝑝.𝑗 𝑖 = 1, . . . , 𝑘 𝑗 = 1, . . . , ℎ
ℎ
𝑝𝑖. = ∑ 𝑝𝑖𝑗
𝑗=1
𝑝.𝑗 = ∑ 𝑝𝑖𝑗
𝑖=1
Usando estimadores
2
ℎ 𝑘 𝑌𝑖. 𝑌.𝑗
[𝑌𝑖𝑗 − 𝑛 ( 𝑛 ) ( 𝑛 )]
2
𝑄𝑘ℎ−1 = ∑∑ ∼ 𝜒(𝑘−1)(ℎ−1)
𝑛(𝑌𝑖. /𝑛)(𝑌.𝑗 /𝑛)
𝑗=1 𝑖=1
Donde
total<-c()
for(i in 1:ncol(tabla)){
total[i]=sum(tabla[,i])
}
tabla<-rbind(tabla,total)
N=tabla[nrow(tabla),ncol(tabla)]
pi.<-c(0,nrow(tabla)-1)
for(i in 1:nrow(tabla)-1){
pi.[i]=tabla[i,ncol(tabla)]/N
}
pi.
p.j<-c()
for(j in 1:ncol(tabla)-1){
p.j[j]=tabla[nrow(tabla),j]/N
}
p.j
exp_num<-matrix(0,nrow=length(pi.),ncol=length(p.j))
for(i in 1:length(pi.)){
for(j in 1:length(p.j)){
exp_num[i,j]=pi.[i]*p.j[j]*N
}
}
exp_num # se obtuvieron los valores p_i*p_j*n
Q=0
for(i in 1:length(pi.)){
for(j in 1:length(p.j)){
Q=Q+(tabla[i,j]-exp_num[i,j])^2/exp_num[i,j]
}
}
Q