Documentos de Académico
Documentos de Profesional
Documentos de Cultura
2 / 34
Estudio de Simulación para Propiedades de P. de Hipótesis
Existen dos tipos de errores que pueden ocurrir cuando se toma una
decisión en pruebas de hipótesis. Esto se muestra en la siguiente tabla.
Tipo de error Descripcion Probabilidad de error
Error tipo 1 Rechazar H0 cuando es verdadera α
Error tipo 2 No rechazar H0 cuando es falsa β
4 / 34
Estudio de Simulación para Propiedades de P. de Hipótesis
5 / 34
Estudio de Simulación para Propiedades de P. de Hipótesis
Ejemplo 3
Factores :
Tamaño de muestra : n = 20 y 60.
6 / 34
Estudio de Simulación para Propiedades de P. de Hipótesis
k : el número de tratamientos.
Modelo:
yij = µ + τi + ij
µ es la media general, τi es el efecto del tratamiento y ij es el error.
Supuesto: ij ∼ N (0, σ 2 ) independientes entre sı́. Esto es se asume
(1) independencia, (2) normalidad y (3) homocedasticidad: la variancia
en cada tratamiento es la misma.
7 / 34
Estudio de Simulación para Propiedades de P. de Hipótesis
H0 : τ1 = ... = τk = 0
H1 : al menos un τi 6= 0
FV GL SC CM F
SCT r CM T r
T ratamientos k−1 SCT r CM T r = k−1 F = CM E
SCE
Error N −k SCE CM E = N −k
T otal N −1 SCT
Bajo H0 F ∼ F (k − 1, N − k)
Ejemplo 3
En el estudio de simulación para estudiar el efecto de la violación del su-
puesto de homocedasticidad consideraremos lo siguiente:
Tratamientos: Consideraremos solamente k = 2 tratamientos.
Ejemplo 3
Programa en R
# Número de Simulaciones
M<-1000
# Tama~
nos de Muestra
# Fila 1: n=20, Fila 2: n=60
n<-matrix(c(15,5,45,15),2,2,byrow=T)
# Parámetros
# Fila 1: Homocedasticidad, Fila 2: Heterocedasticidad
mu<-0
sigma<-matrix(c(1,1,1,10),2,2,byrow=T)
# Matriz de resultados
T<-matrix(0,M,4)
10 / 34
Estudio de Simulación para Propiedades de P. de Hipótesis
# Estudio de Simulación
for(i in 1:2){
for(j in 1:2){
cont<-cont+1
for(h in 1:M){
# Generar datos tratamiento 1
y1<-rnorm(n[i,1],mu,sigma[j,1])
# Creando factor
x<-c(rep(1,length(y1)),rep(2,length(y2)))
x<-factor(x)
}
} 11 / 34
Estudio de Simulación para Propiedades de P. de Hipótesis
Ejemplo 3
# Análisis de Resultados
nivel<-numeric(4)
cont<-0
for(i in 1:2){
for(j in 1:2){
cont<-cont+1
nivel[cont]<-mean(T[,cont]>qf(0.95,1,sum(n[,i])-2))
}
}
nivel
12 / 34
Estudio de Simulación para Propiedades de P. de Hipótesis
Resultados
n Homocedasticidad Heterocedasticidad
20 0.051 0.326
60 0.046 0.243
13 / 34
Estudio de Simulación para Propiedades de P. de Hipótesis
Conclusiones
14 / 34
Estudio de Simulación para Propiedades de P. de Hipótesis
Ejercicio
15 / 34
Estudio de Simulación - Librerı́a MonteCarlo
Librerı́a MonteCarlo
16 / 34
Estudio de Simulación - Librerı́a MonteCarlo
Librerı́a MonteCarlo
17 / 34
Estudio de Simulación - Librerı́a MonteCarlo
Librerı́a MonteCarlo
18 / 34
Estudio de Simulación - Librerı́a MonteCarlo
Ejemplo
19 / 34
Estudio de Simulación - Librerı́a MonteCarlo
Ejemplo
f=function(dist,n,est,mu,sigma){
#Calculo de criterios
return(list(sesgo=T-mu,ecm=(T-mu)^2))
}
20 / 34
Estudio de Simulación - Librerı́a MonteCarlo
Ejemplo
$ecm
[1] 1.372303
21 / 34
Estudio de Simulación - Librerı́a MonteCarlo
Ejemplo
Luego, debemos crear una lista con los valores de los parámetros para los
escenarios
# definir los parámetros de los escenarios
dist_grid=c("N","t")
n_grid<-c(30,50,100)
est_grid=c("media","mediana")
mu_grid<-5
sigma_grid<-10
Ejemplo
> param_list
$dist
[1] "N" "t"
$n
[1] 30 50 100
$est
[1] "media" "mediana"
$mu
[1] 5
$sigma
[1] 10
23 / 34
Estudio de Simulación - Librerı́a MonteCarlo
Ejemplo
Para realizar la simulación usamos la función MonteCarlo()
> MC_result<-MonteCarlo(func=f, nrep=10000, param_list=param_l
Grid of 12 parameter constellations to be evaluated.
Progress:
|=====================================================| 100%
Podemos ver un resumen de la simulación con
> summary(MC_result)
Required time: 4.64 secs for nrep = 10000 repetitions on 1 CP
Parameter grid:
dist : N t
n : 30 50 100
est : media mediana
mu : 5
sigma : 10
24 / 34
Estudio de Simulación - Librerı́a MonteCarlo
Ejemplo
Con la función MakeTable() podemos generar el resumen de la simulación
en LaTeX
> MakeTable(MC_result,rows=c("n","dist"),cols = c("est"))
\begin{table}[h]
\centering
\resizebox{ 1 \textwidth}{!}{%
\begin{tabular}{ rrrrr }
\hline\hline\\\\
dist & n/est & & media & mediana \\
& & & & \\
\multirow{ 3 }{*}{ N } & 30 & & -0.0075 & 0.0020 \\
& 50 & & 0.0156 & 0.0102 \\
& 100 & & -0.0033 & -0.0128 \\
& & & & \\
\multirow{ 3 }{*}{ t } & 30 & & -0.0078 & 0.0132 \\
& 50 & & 0.0300 & -0.0151 \\
& 100 & & 0.0129 & -0.0202 \\
\\
\\
\hline\hline
\end{tabular}%
}
\caption{ sesgo mu=5,sigma=10 }
\end{table}
25 / 34
Estudio de Simulación - Librerı́a MonteCarlo
Ejemplo
\begin{table}[h]
\centering
\resizebox{ 1 \textwidth}{!}{%
\begin{tabular}{ rrrrr }
\hline\hline\\\\
dist & n/est & & media & mediana \\
& & & & \\
\multirow{ 3 }{*}{ N } & 30 & & 3.3104 & 4.9788 \\
& 50 & & 2.0616 & 3.0584 \\
& 100 & & 0.9717 & 1.5418 \\
& & & & \\
\multirow{ 3 }{*}{ t } & 30 & & 9.8296 & 6.0579 \\
& 50 & & 5.7558 & 3.7098 \\
& 100 & & 3.0161 & 1.9248 \\
\\
\\
\hline\hline
\end{tabular}%
}
\caption{ ecm mu=5,sigma=10 }
\end{table}
26 / 34
Estudio de Simulación - Librerı́a MonteCarlo
Ejemplo
30 -0.0075 0.0020
N 50 0.0156 0.0102
100 -0.0033 -0.0128
30 -0.0078 0.0132
t 50 0.0300 -0.0151
100 0.0129 -0.0202
27 / 34
Estudio de Simulación - Librerı́a MonteCarlo
Ejemplo
30 3.3104 4.9788
N 50 2.0616 3.0584
100 0.9717 1.5418
30 9.8296 6.0579
t 50 5.7558 3.7098
100 3.0161 1.9248
28 / 34
Estudio de Simulación - Librerı́a MonteCarlo
Ejemplo
En el mismo R podemos usar la función MakeFrame() y summaryBy()
para generar un resumen de la simulación.
> # Crear data.frame con las simulaciones
> r=MakeFrame(MC_result)
>
> # Error Cuadratico Medio
> summaryBy(ecm~dist+est+n, data=r, FUN=c(mean))
dist est n ecm.mean
1 dist=N est=media 30 3.3104436
2 dist=N est=media 50 2.0616187
3 dist=N est=media 100 0.9717255
4 dist=N est=mediana 30 4.9788050
5 dist=N est=mediana 50 3.0584414
6 dist=N est=mediana 100 1.5417569
7 dist=t est=media 30 9.8295688
8 dist=t est=media 50 5.7557697
9 dist=t est=media 100 3.0161046
10 dist=t est=mediana 30 6.0579360
11 dist=t est=mediana 50 3.7097978
12 dist=t est=mediana 100 1.9248066
29 / 34
Estudio de Simulación - Librerı́a MonteCarlo
Ejemplo
> # Sesgo
> summaryBy(sesgo~dist+est+n, data=r, FUN=c(mean))
dist est n sesgo.mean
1 dist=N est=media 30 -0.007456754
2 dist=N est=media 50 0.015558603
3 dist=N est=media 100 -0.003296663
4 dist=N est=mediana 30 0.002033605
5 dist=N est=mediana 50 0.010245915
6 dist=N est=mediana 100 -0.012750898
7 dist=t est=media 30 -0.007793678
8 dist=t est=media 50 0.030004096
9 dist=t est=media 100 0.012936304
10 dist=t est=mediana 30 0.013163720
11 dist=t est=mediana 50 -0.015093477
12 dist=t est=mediana 100 -0.020211133
30 / 34
Estudio de Simulación - Librerı́a MonteCarlo
Ejemplo
# Gráfico ECM
me = summaryBy(ecm~dist+est+n, data=r, FUN=c(mean))
par(mfrow=c(1,2))
m=me[me$dist=="dist=N",]
plot(m$n,m$ecm.mean,type = "n",
xlab="Tama~
no de muestra",
ylab="Error Cuadrático Medio",
main="Distribución Normal"
)
h=0
for(j in unique(m$est)){
i=(m$est==j)
h=h+1
lines(m$n[i],m$ecm.mean[i],lty=h,col=h,lwd=2)
}
m=me[me$dist=="dist=t",]
plot(m$n,m$ecm.mean,type = "n",
xlab="Tama~
no de muestra",
ylab="Error Cuadrático Medio",
main="Distribución t"
)
h=0
for(j in unique(m$est)){
i=(m$est==j)
h=h+1
lines(m$n[i],m$ecm.mean[i],lty=h,col=h,lwd=2)
} 31 / 34
Estudio de Simulación - Librerı́a MonteCarlo
Ejemplo
Distribución Normal Distribución t
10
5
8
4
Error Cuadrático Medio
6
3
4
2
2
1
30 40 50 60 70 80 90 100 30 40 50 60 70 80 90 100
Ejemplo
# Gráfico Sesgo
me = summaryBy(sesgo~dist+est+n, data=r, FUN=c(mean))
par(mfrow=c(1,2))
m=me[me$dist=="dist=N",]
plot(m$n,m$sesgo.mean,type = "n",ylim=c(-0.5,0.5),
xlab="Tama~
no de muestra",
ylab="Error Cuadrático Medio",
main="Distribución Normal"
)
h=0
for(j in unique(m$est)){
i=(m$est==j)
h=h+1
lines(m$n[i],m$sesgo.mean[i],lty=h,col=h,lwd=2)
}
m=me[me$dist=="dist=t",]
plot(m$n,m$sesgo.mean,type = "n",ylim=c(-0.5,0.5),
xlab="Tama~
no de muestra",
ylab="Error Cuadrático Medio",
main="Distribución t"
)
h=0
for(j in unique(m$est)){
i=(m$est==j)
h=h+1
lines(m$n[i],m$sesgo.mean[i],lty=h,col=h,lwd=2)
} 33 / 34
Estudio de Simulación - Librerı́a MonteCarlo
Ejemplo
Distribución Normal Distribución t
0.4
0.4
0.2
0.2
Error Cuadrático Medio
0.0
−0.2
−0.2
−0.4
−0.4
30 40 50 60 70 80 90 100 30 40 50 60 70 80 90 100
1 Introducción
Función de Verosimilitud
Estimador de Máxima Verosimilitud
2 / 58
Introducción Función de Verosimilitud
Función de verosimilitud
f (Y1 = y1 , ..., Yn = yn | θ)
3 / 58
Introducción Función de Verosimilitud
Función de verosimilitud
4 / 58
Introducción Función de Verosimilitud
Ejemplo
Sea Y ∼ Binomial(n, θ) entonces su función de probabilidad es dada
0.25
0.20
0.15 f (Y = y | θ) = Cyn θy (1 − θ)n−y , y = 0, ..., n.
f(Y=y)
0.10
0.05
0.00
2 4 6 8 10
y 5 / 58
Introducción Función de Verosimilitud
Ejemplo
Si consideramos que hemos observado Y = y, entonces la función de
verosimilitud es dada por
0.25
0.20
0.15
L(θ) = Cyn θy (1 − θ)n−y , 0 < θ < 1
L(θ)
0.10
0.05
0.00
θ
6 / 58
Introducción Estimador de Máxima Verosimilitud
En el caso discreto este principio dice que el EMV θb s tal que la proba-
bilidad de la probabilidad de obtener los valores observados y1 , ..., yn
asume su máximo en θ = θb haciendo que estos valores sean los más
plausibles de ser obtenidos.
7 / 58
Introducción Estimador de Máxima Verosimilitud
`(θ) = log(L(θ))
8 / 58
Introducción Estimador de Máxima Verosimilitud
∂
`(θ) = 0
∂θ1
..
.
∂
`(θ) = 0
∂θk
encontrar la solución de estas ecuaciones, denominada, de ecuaciones
de verosimilitud, θb y verificar que sea un punto de máximo.
9 / 58
Introducción Estimador de Máxima Verosimilitud
10 / 58
Introducción Estimador de Máxima Verosimilitud
11 / 58
Introducción Estimador de Máxima Verosimilitud
ası́ obtenemos θ = y.
12 / 58
Introducción Estimador de Máxima Verosimilitud
d2
como `(θ) < 0 ∀θ > 0 concluimos que el EMV es dado por
dθ2
θb = y
13 / 58
Introducción Estimador de Máxima Verosimilitud
Yi = α + βxi + i , i = 1, 2, .., n
donde se asume que: i ∼ N (0, σ 2 ) independientes entre sı́.
Por lo tanto
Yi | xi ; α, β ∼ N (α + βxi , σ 2 )
14 / 58
Introducción Estimador de Máxima Verosimilitud
15 / 58
Introducción Estimador de Máxima Verosimilitud
n 2 n
√
X 1 yi − α − βxi X
`(α, β) = − × − log( 2πσ)
2 σ
i=1 i=1
n
1 X √
=− 2 (yi − α − βxi )2 − n log( 2πσ)
2σ
i=1
√
donde n log( 2πσ) no depende de α y β.
16 / 58
Introducción Estimador de Máxima Verosimilitud
n 2 n
√
X 1 yi − α − βxi X
`(α, β) = − × − log( 2πσ)
2 σ
i=1 i=1
n
1 X √
=− 2 (yi − α − βxi )2 − n log( 2πσ)
2σ
i=1
√
donde n log( 2πσ) no depende de α y β.
Para encontrar α
b y βb debemos maximizar:
n
1 X
`(α, β) ∝ − (yi − α − βxi )2
2σ 2
i=1
17 / 58
Introducción Estimador de Máxima Verosimilitud
∂
`(α, β; x, y) = 0
∂α
∂
`(α, β; x, y) = 0
∂β
Ası́ obtenemos
n
1 X
− (yi − α − βxi )(−1) = 0
σ2
i=1
n
1 X
− (yi − α − βxi )(−xi ) = 0
σ2
i=1
18 / 58
Introducción Estimador de Máxima Verosimilitud
b = y − βx
α b
n
X n
X n
X
yi x i − α
b xi − βb x2i = 0
i=1 i=1 i=1
n
P
xi yi − nxy
i=1
βb = n
x2i − n(x)2
P
i=1
19 / 58
Introducción Estimador de Máxima Verosimilitud
β α α−1 −βyi
f (yi | α, β) = y e , i = 1, ..., n
Γ(α) i
Como existe independencia, por lo tanto:
n
Y
L(α, β) = f (yi | α, β)
i=1
n
Y β α α−1 −βyi
= y e
Γ(α) i
i=1
n
n
β nα Y α−1 −β i=1 yi
P
= yi e
Γ(α)n
i=1
20 / 58
Introducción Estimador de Máxima Verosimilitud
n
X n
X
`(α, β; x) = nα log β − n log Γ(α) + (α − 1) log yi − β yi
i=1 i=1
∂ ∂
`(α, β) = 0 `(α, β) = 0
∂α ∂β
21 / 58
Introducción Estimador de Máxima Verosimilitud
n
∂ log Γ(α) X
n log β − n + log yi = 0
∂α
i=1
n
nα X
− yi = 0
β
i=1
De la segunda ecuación:
n
nα X nα α
= yi entonces β = Pn =
β i=1 yi y
i=1
22 / 58
Introducción Estimador de Máxima Verosimilitud
23 / 58
Introducción Estimador de Máxima Verosimilitud
Ejercicios
24 / 58
Métodos Numéricos para Optimización
25 / 58
Métodos Numéricos para Optimización Método de Newton - Raphson
g(θ) = 0
26 / 58
Métodos Numéricos para Optimización Método de Newton - Raphson
∂g(θ)
|θ=θ∗ < 0
∂θ
entonces θ∗ es un punto máximo local. Si θ∗ es único, entonces es
máximo global.
27 / 58
Métodos Numéricos para Optimización Método de Newton - Raphson
28 / 58
Métodos Numéricos para Optimización Método de Newton - Raphson
29 / 58
Métodos Numéricos para Optimización Método de Newton - Raphson
g(θ0 )
θ ∗ = θ0 −
g 0 (θ0 )
.
30 / 58
Métodos Numéricos para Optimización Método de Newton - Raphson
g(θj−1 )
θj = θj−1 −
g 0 (θj−1 )
donde
dg(θ)
0 ∂ 2 `(θ)
g (θ) =
=
dθ ∂θ2
el algoritmo continúa hasta un pequeño valor ε tal que
31 / 58
Métodos Numéricos para Optimización Método de Newton - Raphson
32 / 58
Métodos Numéricos para Optimización Método de Newton - Raphson
Entonces,
n
1X n e−λ
g(λ) = yi − n −
λ 1 − e−λ
i=1
n
0 1 X n e−λ
g (λ) = − 2 yi +
λ (1 − e−λ )2
i=1
33 / 58
Métodos Numéricos para Optimización Método de Newton - Raphson
Entonces,
n
1X n e−λ
g(λ) = yi − n −
λ 1 − e−λ
i=1
n
0 1 X n e−λ
g (λ) = − 2 yi +
λ (1 − e−λ )2
i=1
34 / 58
Métodos Numéricos para Optimización Método de Newton - Raphson
#Newton-Raphson
y<-rpois(50,5)
y<-y[y>0]
#Funcion score
g<-function(lambda,y){
n<-length(y)
sum(y)/lambda-n/(1-exp(-lambda))
}
#Hessiana
H<-function(lambda,y){
n<-length(y)
-sum(y)/lambda^2+n*exp(-lambda)/(1-exp(-lambda))^2
}
35 / 58
Métodos Numéricos para Optimización Método de Newton - Raphson
#Algoritmo de NR
theta0<-10 # valor inicial
res<-matrix(theta0,1,1)
cont<-0
h<-0
while(cont==0){
h<-h+1
theta.old<-res[h,]
theta.new<-c(theta.old-g(theta.old,y)/H(theta.old,y))
res<-rbind(res,theta.new)
if(sum((theta.new-theta.old)^2)<1e-20){cont<-1}
}
res
36 / 58
Métodos Numéricos para Optimización Método de Newton - Raphson
theta.new
10.0000000
theta.new 0.3117353
theta.new 0.6103590
theta.new 1.1663173
theta.new 2.1098051
theta.new 3.4002958
theta.new 4.5393431
theta.new 5.0003865
theta.new 5.0485872
theta.new 5.0490312
theta.new 5.0490312
theta.new 5.0490312
37 / 58
Métodos Numéricos para Optimización Método de Newton - Raphson
la matriz hessiana
∂2 ∂2 ∂2
∂θ12
`(θ) ∂θ1 θ2 `(θ) ··· ∂θ1 θp `(θ)
∂ 2 ∂2 ∂2
∂θ2 θ1 `(θ) ∂θ22
`(θ) ··· ∂θ2 θp `(θ)
H(θ) =
.. .. .. ..
. . . .
∂2 ∂2 ∂2
∂θp θ1 `(θ) ∂θp θ2 `(θ) · · · ∂θ2p
`(θ)
38 / 58
Métodos Numéricos para Optimización Método de Newton - Raphson
39 / 58
Métodos Numéricos para Optimización Método de Newton - Raphson
n
n
β nα Y α−1 −β i=1 yi
P
L(θ) = yi e
Γ(α)n
i=1
n
X n
X
`(θ) = nα log β + (α − 1) log yi − β yi − n log Γ(α)
i=1 i=1
Pn
n log β + i=1 log yi − n log ψ(α)
n
g(θ) = nα P
β − yi
i=1
0
!
n
−nψ (α) β
H(θ) = n
β − nα
β2
40 / 58
Métodos Numéricos para Optimización Método de Newton - Raphson
g<-function(theta,y){
alpha<-theta[1]
beta<-theta[2]
n<-length(y)
a<-n*log(beta)+sum(log(y))-n*digamma(alpha)
b<-n*alpha/beta-sum(y)
c(a,b)
}
H<-function(theta,y){
alpha<-theta[1]
beta<-theta[2]
n<-length(y)
a2<--n*trigamma(alpha)
b2<--n*alpha/beta^2
ab<-n/beta
matrix(c(a2,ab,ab,b2),2,2) 41 / 58
Métodos Numéricos para Optimización Método de Newton - Raphson
theta0<-c(1,1)
res<-matrix(theta0,1,2)
cont<-0
h<-0
while(cont==0){
h<-h+1
theta.old<-res[h,]
theta.new<-c(theta.old-solve(H(theta.old,y))%*%g(theta.old,y))
res<-rbind(res,theta.new)
if(sum((theta.new-theta.old)^2)<1e-20){cont<-1}
}
res
42 / 58
Métodos Numéricos para Optimización Método de Newton - Raphson
[,1] [,2]
1.000000 1.000000
theta.new 1.469790 1.646428
theta.new 1.889453 2.244432
theta.new 2.076692 2.516114
theta.new 2.100381 2.550897
theta.new 2.100694 2.551362
theta.new 2.100694 2.551362
theta.new 2.100694 2.551362
43 / 58
Métodos Numéricos para Optimización Método de Scoring de Fisher
44 / 58
Métodos Numéricos para Optimización Método de Scoring de Fisher
45 / 58
Métodos Numéricos para Optimización Método de Scoring de Fisher
y1 y2 + y3 y4
g(θ) = + −
θ+2 1−θ θ
0 y1 y2 + y3 y4
g (θ) = − 2
− 2
− 2
(θ + 2) (1 − θ) θ
46 / 58
Métodos Numéricos para Optimización Método de Scoring de Fisher
0
IF (θ) = E(−g (θ))
E(Y1 ) E(Y2 ) + E(Y3 ) E(Y4 )
= 2
+ +
(θ + 2) (1 − θ)2 θ2
θ+2 1 1−θ 1 θ 1
=n + 2n +n 2
4 (θ + 2)2 4 (1 − θ)2 4θ
n 1 2 1
= + +
4 θ+2 1−θ θ
47 / 58
Métodos Numéricos para Optimización Método de Scoring de Fisher
#Modelo Genetico
y<-c(125,18,20,34)
#Funcion score
g<-function(theta,y){
y[1]/(theta+2)-(y[2]+y[3])/(1-theta)+y[4]/theta
}
#Hessiana
H<-function(theta,y){
-y[1]/(theta+2)^2-(y[2]+y[3])/(1-theta)^2-y[4]/theta^2
}
48 / 58
Métodos Numéricos para Optimización Método de Scoring de Fisher
#Algoritmo de NR
theta0<-.2 # valor inicial
res<-matrix(theta0,1,1)
cont<-0
h<-0
while(cont==0){
h<-h+1
theta.old<-res[h,]
theta.new<-c(theta.old-g(theta.old,y)/H(theta.old,y))
res<-rbind(res,theta.new)
if(sum((theta.new-theta.old)^2)<1e-20){cont<-1}
}
res
49 / 58
Métodos Numéricos para Optimización Método de Scoring de Fisher
theta.new
0.2000000
theta.new 0.3917428
theta.new 0.6130034
theta.new 0.6270999
theta.new 0.6268216
theta.new 0.6268215
theta.new 0.6268215
50 / 58
Métodos Numéricos para Optimización Método de Scoring de Fisher
#Informacion de Fisher
IF<-function(theta){
n<-sum(y)
.25*n*(1/(theta+2)+2/(1-theta)+1/theta)
}
51 / 58
Métodos Numéricos para Optimización Método de Scoring de Fisher
cont<-0
h<-0
while(cont==0){
h<-h+1
theta.old<-res[h,]
theta.new<-c(theta.old+g(theta.old,y)/IF(theta.old))
res<-rbind(res,theta.new)
if(sum((theta.new-theta.old)^2)<1e-20){cont<-1}
}
res
52 / 58
Métodos Numéricos para Optimización Método de Scoring de Fisher
theta.new
0.2000000
theta.new 0.6577230
theta.new 0.6254688
theta.new 0.6268824
theta.new 0.6268188
theta.new 0.6268216
theta.new 0.6268215
theta.new 0.6268215
theta.new 0.6268215
theta.new 0.6268215
53 / 58
Métodos Numéricos para Optimización Otros Métodos de Optimización
55 / 58
Métodos Numéricos para Optimización Otros Métodos de Optimización
y<-c(125,18,20,34)
log.like<-function(theta){
ll<-y[1]*log(theta+2)+(y[2]+y[3])*log(1-theta)+y[4]*log(theta)
-ll
}
optim(0.3,log.like,lower=0.0001,upper=.9999,method="L-BFGS-B")
nlminb(0.3,log.like,lower=0,upper=1)
56 / 58
Métodos Numéricos para Optimización Otros Métodos de Optimización
Ejercicio
57 / 58
Métodos Numéricos para Optimización Otros Métodos de Optimización
Ejercicio
58 / 58