Está en la página 1de 7

UNIVERSIDAD NACIONAL AGRARIA LA MOLINA

Escuela de Post Grado


Facultad de Economía y Planificación
Departamento de Estadística e Informática NOTA

Estadística Computacional.
Practica Calificada Nº 4
Profesor : Frida Coaquira
Duración : 110 minutos
INDICACIONES
 La evaluación es estrictamente personal
 En la calificación se considerará el orden y la limpieza.
 Todos los cálculos de ser necesario deben aproximarlos a tres decimales.
 Presente todo el procedimiento necesario (Código y salida) interprete la respuesta

Apellidos y Nombres: _ _MARCO ANTONIO OXSA ATAMARI_ _ _ _ _ _ __

1. Una empresa se especializa en la venta de productos de construcción. El gerente


desea estudiar los efectos de diversas variables sobre el valor de las melaninas
importadas vendidas (miles de dólares). Para lo cual considero una muestra de 20
distritos y determinó:

 Gastos en publicidad (X1) (en miles de dólares)


 Número de cuentas activas (X2)
 Número de marcas de competidores(X3)
 Calificación del potencial del mercado (X4)
 Ventas (Y) (en miles de dólares)

Y X1 X2 X3 X4
79.3 5.5 31 10 8
200.1 2.5 55 8 6
163.2 8 67 12 9
200.1 3 50 7 16
146 3 38 8 15
177.7 2.9 71 12 17
30.9 8 30 12 8
291.9 9 56 5 10
160 4 42 8 4
339.4 6.5 73 5 16
159.6 5.5 60 11 7
86.3 5 44 12 12
237.5 6 50 6 6
107.2 5 39 10 4
155 3.5 55 10 4
291.4 8 70 6 14
100.2 6 40 11 6
135.8 4 50 11 8
223.3 7.5 62 9 13
195 7 59 9 11

a) (3 puntos) Ajuste una ecuación de regresión lineal considerando todas las variables
predictoras. Obtenga el modelo final que contenga solo variables significativas. α =
0.04. interprete los coeficientes.

A un nivel de 0.04 de significancia, las variables marginalmente significativas son N° de


cuentas activas y N° de marcas competidoras. Por el contrario, las variables no significativas
son gasto en publicidad y ventas.

Modelo 2: Excluyendo las variables no significativas


El resultado del modelo, respecto al modelo 1 excluyendo las variables significativas el
coeficiente de determinación se mantiene y por principio de parsimoniosidad es modelo 2 es
mejor al modelo 1

b) (3 puntos) Estime los coeficientes del modelo de regresión en base a los errores
(B=50 , 100) . Interprete los coeficientes.

DATA_PC4=as.matrix(DATA_PC4)

boot.res=function(datos,B,Y)
{
datos=as.matrix(datos)
n=nrow(datos)
c=ncol(datos)
betas=matrix(0,B,c)
resid=lm(datos[,Y]~datos[,-Y])$res
for (i in 1:B)
{
betas[i,]=lm(datos[,Y]+sample(resid,n,T)~datos[,-Y])$coe
}
bootbetas=apply(betas,2,mean)
eebotbet=apply(betas,2,sd)
return(list(bootb=bootbetas,eebootb=eebotbet))
}

boot.res(DATA_PC4,50,1)
boot.res(DATA_PC4,100,1)

Resultado Boosstrap

Resultado Regresion original


Interpretación: Los coeficientes de regresión son semejantes al modelo original
estabilizándose más en el Boostrap 100, disminuyendo los errores.

c) (4 puntos) Estime el intervalo de confianza para los coeficientes de regresión con el


método estudentizado al 95% de confianza ( B = 50 , 150) Compare los resultados.

ic.me.boot.obser=function(datos,B,Y,nivel)
{
datos=as.matrix(datos)
alfa=1-0.01*nivel
n=dim(datos)[1]
c=ncol(datos)
coefi=lm(datos[,Y]~datos[,-Y])$coe
betas=matrix(0,B,c)
eebetas=matrix(0,B,c)
pivot=matrix(0,B,c)
for (i in 1:B)
{
indices=sample(1:n,n,T)
betas[i,]=lm(datos[indices,Y]~datos[indices,-Y])$coe
eebetas[i,]=summary(lm(datos[indices,Y]~datos[indices,-Y]))$coe[,2]
pivot[i,]=(betas[i,]-coefi)/eebetas[i,]
}
eebotbet=apply(betas,2,sd)
t1=apply(pivot,2,quantile,alfa/2)
t2=apply(pivot,2,quantile,1-alfa/2)
LI=coefi+t1*eebotbet
LS=coefi+t2*eebotbet
limites=cbind(LI,LS)
return(list(limites=limites))
}

ic.me.boot.obser(datos=DATA_PC4,B=50,Y=1,nivel=95)

ic.me.boot.obser(datos=DATA_PC4,B=100,Y=1,nivel=95)
Interpretación: Los intervalos de confianza para los coeficientes son estables para
el Boostrap 50 y 100 no existiendo una variación significativa.

2. Realice las estimaciones en base a los siguientes datos

N° X Y N° X Y N° X Y
1.0 125.5 94.2 8 123.2 96.4 15 126.9 95.8
2.0 125.8 94.5 9 124.2 96.8 16 127.3 96.9
3.0 126.1 94.8 10 123.8 97.1 17 127.7 96.6
4.0 121.9 95.1 11 120.9 97.4 18 128.1 93.2
5.0 122.2 92.5 12 121.2 97.7 19 125.0 93.6
6.0 122.5 92.1 13 121.6 98.1 20 124.6 94.0
7.0 122.9 93.5 14 122.9 98.4 21 126.2 95.5

a) (4 puntos) Haga una función que estime el coeficiente Tg y el error usando el


algoritmo Jacknife
2
x −1
Tg= 2
y +2

### CREAMOS LA FUNCIÓN ####


DATA_PC4_2 <-
read_excel("C:/Users/estilos/Downloads/DATA_PC4_2.xlsx")

DATA_PC4_2 %>% summarise((mean(X)^2 - 1)/(mean(Y)^2 + 2))

DATA_PC4_2=as.matrix(DATA_PC4_2)

TG <- function(X,Y) {
coeficiente <- (mean(X)^2 - 1)/(mean(Y)^2 + 2)
coeficiente
}

### vALIDACIÓN DE LA FUNCIÓN

TG(DATA_PC4_2[,1],DATA_PC4_2[,2])

jack.TG=function(datos,x,y)
{
n=nrow(datos)
esjack=rep(0,n)
ecord=TG(datos[,x],datos[,y])
for (i in 1:n)
{
esjack[i]=TG(datos[-i,x],datos[-i,y])
}
estimjackcor=mean(esjack)
sesgojack=(n-1)*(estimjackcor- ecord)
eejack= ((n-1)/sqrt (n))*sd(esjack)
return(list(estimjackcor=estimjackcor, sesgo=
sesgojack ,eejack=eejack))
}
jack.TG(DATA_PC4_2,1,2)

b) (6 puntos) Haga una función para estimar: CV(Y) , Var(X) y sus errores
usando el algoritmo Jacknife

### CREAMOS LA FUNCIÓN ####


DATA_PC4_2 <-
read_excel("C:/Users/estilos/Downloads/DATA_PC4_2.xlsx")

DATA_PC4_2 %>% summarise(sd(Y)/mean(Y))


DATA_PC4_2 %>% summarise(var(X))

DATA_PC4_2=as.matrix(DATA_PC4_2)

CV<- function(Y) {
coeficiente <- sd(Y)/mean(Y)
coeficiente
}

jack.CV=function(datos,Y)
{
n=length(datos)
esjack=rep(0,n)
for (i in 1:n)
{
esjack[i]=CV(datos[-i,Y])
}
estimjack=mean(esjack)
return(estimjack=estimjack)
}

jack.CV(DATA_PC4_2,2)
jack.VAR=function(datos,Y)
{
n=length(datos)
esjack=rep(0,n)
for (i in 1:n)
{
esjack[i]=var(datos[-i,Y])
}
estimjack=mean(esjack)
return(estimjack=estimjack)
}

jack.VAR(DATA_PC4_2,1)

También podría gustarte