Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Tarea S3
Tarea S3
TAREA 3 GRUPAL
DOCENTES
ROSA D. GUTIERREZ DE ALARCÓN
MARIANA LUCÍA CUADRA MORENO
CURSO
INFERENCIA ESTADÍSTICA I
CICLO: V
ALUMNOS
Trujillo, 2021
Ejercicio 1
De una población con media μ y varianza σ 2 se extraen dos
muestras aleatorias simples de tamaños n y m e
independientes entre sí. Demuéstrese que la estimación de μ
obtenida como la media muestral correspondiente a cualquiera
de las dos muestras.
Solución:
^μ1=x 1
^μ2=x 2
n x 1+ m x 2
^μ3=
n+ m
Estimadores insesgados: E ( θ^ ) =θ
0
ECM ( θ^ ) =Var (θ ) +¿ ¿
ECM ( θ^ ) =V ( θ )
2
σ
V ( ^μ1 )=V ( x 1 )=
n
2
σ
V ( ^μ2 )=V ( x 2 )=
m
V ( ^μ3 )=V [ V ( n x 1 ) +V ( m x 2 )
n+m ]
[ ( ) ( )]
2 2
1 σ σ
V ( ^μ3 )= n2 +m2
( n+ m ) 2
n m
σ2
V ( ^μ3 )=
n+ m
a) Calcular el sesgo de T 1 y T 2
Calculamos el sesgo de T 1
E ( T 1 )=E ( x +45 x )
1 2
1 4
E ( T 1 )= E ( x 1 ) + E ( x2 )
5 5
1 4
E ( T 1 )= μ+ μ
5 5
E ( T 1 )=μ
Por lo tanto:
Calculamos el sesgo de T 2
E ( T 2 )=E ( x + x +3 x + x )
1 2 3 4
1 1 1 1
E ( T 2 )= E ( x 1 ) + E ( x 2 ) + E ( x 3) + E ( x 4 )
3 3 3 3
1 1 1 1
E ( T 2 )= μ+ μ+ μ+ μ
3 3 3 3
4μ
E ( T 2 )=
3
Por lo tanto:
sesgo ( T 2 )=E ( T 2 )−μ
sesgo ( T 2 )=E ( T 2 )−μ
4
sesgo ( T 2 )= μ−μ
3
1
sesgo ( T 2 )= μ
3
b) Calcular el E.C.M de T 1 y T 2
ECM ( T 1) =Var ( T 1 )
ECM ( T 1) =Var (
x 1+ 4 x 2
5 )
1
ECM ( T 1) =Var x 1 + x2
5 ( 4
5 )
1
( ) ( )
ECM ( T 1) =Var x 1 +Var x 2
5
4
5
1 16
ECM ( T 1) = Var ( x 1) + Var ( x 2 )
25 25
1 2 16 2
ECM ( T 1) = k μ + k μ
25 25
17 2
ECM ( T 1) = kμ
25
2
ECM ( T 2 )=Var ( T 2) + sesg o (T 2)
4
1 1
ECM ( T 2 )= ∑
9 i=1
Var ( x i ) + μ2
9
ECM ( T 2 )= ( 4 k9+1 ) μ 2
17 2 4 k + 1 2
25
kμ <
9
μ ( )
Entonces:
25
k<
53
Ejercicio 3.
Sea (X1, ……. Xn1) una muestra aleatoria simple de la variable
aleatoria X, que se distribuye como una N (μ 1, σ2). Sea (Y1, …….
Yn2) una muestra aleatoria simple de la variable aleatoria Y, que
se distribuye como una N (μ2, σ2). X e Y son independientes. Se
quiere estimar σ2 y para ello se consideran combinaciones
lineales de las cuasi-varianzas muéstrales S 12 y S22, es decir,
2 2 2
σ =λ S1 + ( 1−λ ) S 2 , donde 0 ≤ λ ≤ 1
σ 2=λ ( n−1
1
∑ ( X −X ) )+( 1− λ ) ( n−1
i
2 1
∑ ( X −X ) ) i
2
λ
2
σ = ( E ( X i −u1 )2−nE ( X i−u 1) 2) + 1−λ
n−1 ∑
( E ( X i−u2 )2 −nE ( X i−u2 )2 )
n−1 ∑
( ) ( )
2 2
2 λ 2 n σ 1 1−λ 2 n σ2
σ = n σ1− + n σ 2−
n−1 n n−1 n
λ σ 21 (1− λ)σ 22
σ 2= ( n−1 ) + ( n−1 )
n−1 n−1
2 2 2
σ =λ σ 1+(1−λ) σ 2
Para λ=1
2 2 2
σ =( 1 ) σ 1+ ( 1−1 ) σ 2
σ 2=σ 21
Para λ=0
2 2 2
σ =( 0 ) σ 1 + ( 1−0 ) σ 2
2 2
σ =σ 2
Solución:
Para:
X 1 1 1 n−1 Xn
^μ1= + ∑
4 2 (n−2) i=1
X i+
4
n−1
X1 1 1 X
E( μ^ ¿ ¿1)=E [ ]+ E[
4
∑
2 ( n−2 ) i =1
X i ]+ E[ n ]¿
4
n−1
1 1 1
E( μ^ ¿ ¿1)= E( X 1)+
4
∑ E( X i)+ 14 E( X n) ¿
2 ( n−2 ) i=1
1 1 1 1
E( μ^ ¿ ¿1)= µ+ ((n−2) µ)+ µ ¿
4 2 ( n−2 ) 4
1 1 1
E( μ^ ¿ ¿1)= µ+ ((n−2) µ)¿
2 2 ( n−2 )
1 1
E( μ^ ¿ ¿1)= µ+ µ=µ ¿ … Por lo tanto es un estimador
2 2
insesgado µ.
Para:
n
1
^μ2= ∑X
n i=1 i
E( μ^ ¿ ¿2)=E ¿ ¿
n
1
E( μ^ ¿ ¿2)= ∑ E(X ¿ ¿i)¿ ¿
n i=1
1
E( μ^ ¿ ¿2)= (n µ)¿
n
2
ECM ( ^μ1 )=Var ( μ^ 1 ) + [ μ−E ( ^μ1 ) ]
X1 1 1
n−1
X
Var ( ^μ1 )=Var ( )+Var (
4
∑
2 ( n−2 ) i=1
X i )+Var ( n )
4
( )
2
1
∗1 n−1
1 2 2 1
Var ( ^μ1 )= σ +
16 ( n−2 )
∑ Var (X i )+ 16 σ 2
i =1
1 2
Var ( ^μ1 )= σ +
8 (
1
4 ( n−2 ) 2 ) 2
∗( ( n−1 )∗σ )
( )
2
1 2 ( n−2 ) 2
Var ( ^μ1 )= σ + ∗σ
8 4 ( n−2 ) 2
1 1
Var ( ^μ1 )= σ 2 + σ 2
8 4 ( )
3 2
Var ( ^μ1 )= σ
8
3
ECM ( ^μ1 )= σ 2 +0
8
3 2
ECM ( ^μ1 )= σ
8
2
ECM ( ^μ2 )=Var ( μ^ 2 ) + [ μ−E ( μ^ 2 ) ]
( )
n
1
Var ( ^μ2 )=Var ∑X
n i=1 i
n
1
Var ( ^μ2 )= 2 ∑ Var (X ¿¿ i)¿
n i =1
1 2 2
Var ( ^μ2 )= (n σ )
n2
2 2
ECM ( ^μ2 )=σ + [ μ−μ ]
2
ECM ( ^μ2 )=σ 2 + [ 0 ]
2
ECM ( ^μ2 )=σ
Entonces:
3 2
σ
ER
^2
μ
( )
^μ1
8
= 2
σ
ER
( )
^2 3
μ
=
^μ1 8
2
ECM ( ^μ1 )=Var ( μ^ 1 ) + [ μ−E ( ^μ1 ) ]
X1 1 1
n−1
Xn
Var ( ^μ1 )=Var (
4
)+Var ( ∑
2 ( n−2 ) i=1
X i )+Var ( )
4
( )
2
1
∗1 n−1
1 2 2 1
Var ( ^μ1 )= σ +
16 ( n−2 )
∑ Var (X i )+ 16 σ 2
i =1
1 2
Var ( ^μ1 )= σ +
8 (
1
4 ( n−2 )
2 ) 2
∗( ( n−1 )∗σ )
( )
2
1 ( n−2 )
Var ( ^μ1 )= σ 2 + ∗σ 2
8 4 ( n−2 )
2
1 1
Var ( ^μ1 )= σ 2 + σ 2
8 4 ( )
3 2
Var ( ^μ1 )= σ
8
3 2
ECM ( ^μ1 )= σ +0
8
3 2
ECM ( ^μ1 )= σ
8
2
ECM ( ^μ2 )=Var ( μ^ 2 ) + [ μ−E ( μ^ 2 ) ]
( )
n
1
Var ( ^μ2 )=Var ∑ X i
n i=1
n
1
Var ( ^μ2 )= 2 ∑ Var (X ¿¿ i)¿
n i =1
1 2 2
Var ( ^μ2 )= 2 (n σ )
n
2 2
ECM ( ^μ2 )=σ + [ μ−μ ]
2
ECM ( ^μ2 )=σ 2 + [ 0 ]
Entonces:
3 2
σ
ER
^2
μ
( )
^μ1
8
= 2
σ
ER ( )
^2 3
μ
=
^μ1 8
Solución :
E ( μ1 ) =E ( x −2 x3 +5 x )
1 2 4
1
E ( μ1 ) = E ( x1 −2 x 2 +5 x 4 )
3
E ( x 1 )−2 E ( x 2 ) +5 E ( x 4 )
E ( μ1 ) =
3
1
E ( μ1 ) = ( μ−2 μ+5 μ )
3
4
E ( μ1 ) = μ
3
→ deducimos que no es insesgado
1
→ E ( μ 2 )= E ( x 2−2 x 3+ 2 x 5 )
3
1
E ( μ2 ) = E ( x2 −2 x 3 +2 x5 )
3
E ( μ2 ) =E ( x2 ) −2 E ( x 3 ) +2 E ( x 5 )
E ( μ2 ) =μ−2 μ+2 μ
E ( μ2 ) =μ
→ Eficiencia :
Var ( ^μ2 )=Var ( x2−2 x 3 +2 x 5 )
Ejercicio 6.
Considere una variable aleatoria X cuya función de densidad es
f ( x )=0.5 ( 1+θX )−1 ≤ X ≤1
[ ]
1
x2 θ x3
E ( x )= +
2 6 −1
θ ^
E ( x )= → θ=3 x
3
9 V ( X) 9
V ( θ^ ) =V (3 X )=9 V ( X ) = = V (X )
n n
[]
1 2
2 1+θX θ
V ( X )=E ( X )−[ E ( X ) ] =∫ X
2 2
dx−
−1 2 3
[ ] []
3 4 1 2
x θx θ
V ( X )= + −
6 8 −1 3
2
3−θ
V ( X )=
3
Donde:
9
V ( θ^ ) = V ( X )=
n n 9 [ ]
9 3−θ2 3−θ2
=
9
lim E ( θ^ ) =θ
n→∞
lim V ( θ^ ) =0
n→∞
θ
lim E ( θ^ ) =¿ lim E (3 X )=¿ lim 3 E ( X )=¿ 3 E ( X ) =3 =θ ¿ ¿ ¿
n→∞ n →∞ n→∞ 3
2
3−θ
lim V ( θ^ ) =¿ lim V ( 3 X ) =¿ lim =0 ¿ ¿
n→∞ n→ ∞ n →∞ n
l (θ )=f ( x1 , x2 , x3 … . , xn ; θ )
l (θ )=f ( x1 ; θ ) , f ( x 2 ; θ ) … f ( x n ;θ )
n
l (θ )=0. 5n ∏ (1+¿ θ xi )¿
i=1
ln ( l ( θ ) )=ln ¿
n
ln ( l ( θ ) )=nln ( 0.5 ) + ∑ ln ( 1+θ x i )
i=0
[ ]
n
∂ ∂
∂θ
[ ln ( l ( θ ) ) ] = ∂θ nln ( 0.5 )+ ∑ ln ( 1+θ x i)
i=0
[∑ ]
n
∂ ∂ ∂
∂θ
[ ln ( l ( θ ) ) ] = [ nln ( 0.5 ) ]+
∂θ ∂θ
ln ( 1+θ xi )
i=0
n
∂ ∂
∂θ
[ ln ( l ( θ ) ) ] =0+ ∑ ( ln ( 1+θ xi ) )
i=0 ∂ θ
n
∂ xi
∂θ
[ ln ( l ( θ ) ) ] =∑
i=0 (1+θ x i )
∂
∑ xi
∂θ
[ ln ( l ( θ ) ) ] = n
i=0
∑ (1+θ x i)
i=0
Entonces :
∂
∂θ
[ ln ( l ( θ ) ) ] =0
n
∑ xi
i=0
n
=0
∑ (1+θ x i)
i=0
∑ (1+θ x i)=0
i=0
n
n+θ ∑ ( x i)=0
i=0
^ n
θ= n
∑ ( xi )
i=0
^ −1
θ= n
∑ ( xi )
i=0
n
^ −1
θ=
x
Por lo tanto:
^ −1
EMV ( θ)=
x
1
E ( μ1 ) = (6 μ)
6
E ( μ1 ) =μ
→ E ( μ 2 )=E [ X 1 + 4 X 2+ X 3
6 ]
1
E ( μ2 ) =
6
[ E ( X 1 ) + 4 E ( X 2) + E ( X 3 ) ]
1
E ( μ2 ) = (6 μ)
6
E ( μ2 ) =μ
1
b) Efic ( θ^ ) =
ECM ( θ^ )
→ Var ( μ1 ) =Var ( X +2 X6 +3 X )
1 2 3
1
Var ( μ1 )=
6
( Var ( X 1 ) +Var ( 2 X 2 ) +Var ( 3 X 3 ) )
1 2
Var ( μ1 )= (14 σ )
36
2
7σ
Var ( μ1 )=
18
→ Var ( μ 2) =Var ( X 1 +4 X 2 + X 3
6 )
1
Var ( μ2 )=
36
( Var ( X 1 ) +Var ( 4 X 2 ) +Var ( X 3 ) )
1 2
Var ( μ2 )= (18 σ )
36
2
9σ
Var ( μ2 )=
18
9 σ2 9σ2
→ ECM ( μ 2 )= + 0=
18 18
1 18 σ 2
Efic ( θ^ 1)= =
ECM ( ^μ1 ) 7 σ 2
2
1 18 σ
Efic ( θ^ 2)= =
ECM ( ^μ2 ) 9 σ 2
c)
X 1+ X 2+ X 3
μ=
3
Var ( θ^ ) =3 σ 2
ECM ( θ^ ) =3 σ +0=3 σ
2 2
1
Efic ( θ^ ) = 2
3σ
Ejercicio 8
Se considera una población representada por una variable
aleatoria X, de forma de la distribución poblacional viene
definida por la fusión de densidad:
1
f ( x ,θ )= para 0 ≤ x ≤ θ
θ
|
θ
1 x2
μ= .
θ 2 0
1 2
μ= ∗θ
2θ
θ
μ= →no es insesgado
2
EJERCICIO 9
SOLUCION
a) Estudiar la insesgadez, la eficiencia relativa y la consistencia
de ambos estimadores.
Insesgadez:
E(^
μ1 ) =E ( x )
( )
n
1
E(^
μ1 ) =E ∑x
n i=1 i
(∑ )
n
1
E(^
μ1 ) = E xi
n i=1
n
1
E(^
μ1 ) = ∑ E(x i )
n i=1
1
E(^
μ1 ) = (nμ)
n
E(^
μ1 ) =μ
Por lo tanto:
sesgo ( μ^1 ) =E ( ^
μ1 )−μ
sesgo ( μ^1 ) =μ−μ
sesgo ( μ^1 ) =0
Luego en:
( )
n
1
E(^
μ2 ) =E ∑x
n+1 i=1 i
(∑ )
n
1
E(^
μ2 ) = E xi
n+ 1 i=1
n
1
E(^
μ2 ) = ∑ E(x i )
n+ 1 i=1
1
E(^
μ2 ) = (nμ)
n+ 1
nμ
E(^
μ2 ) =
n+ 1
Por lo tanto:
sesgo ( μ^2 ) =E ( ^
μ2 )−μ
nμ
sesgo ( μ^2 ) = −μ
n+ 1
sesgo ( μ^ ) =μ (
n+1 )
−1
2
−μ
sesgo ( μ^2 ) =
n+ 1
0 cuando n → ∞; sesgado asintoticamente
Eficiencia:
Sean θ^1 y θ^2dos estimadores insesgados de un parámetro
desconocido θ. Además, tenemos que θ^1 es mas eficiente
que θ^2 si se verifica:
Var ( θ^1 )
Var ( θ^ ) 2
Var ( ^
μ1 )=V ( x)
( )
n
1
μ1 )=V ∑ x i
Var ( ^
n i=1
() ( )
2 n
1
Var ( ^
μ1 )=
n
V ∑ xi
i=1
n
1
2∑
Var ( ^
μ1 )= V (xi )
n i =1
1
Var ( ^
μ1 )= 2
( n σ2)
n
2
σ
Var ( ^
μ1 ) =
n
Luego:
( )
n
1
Var ( ^
μ2 )=V ∑x
n+ 1 i=1 i
( ) (∑ x )
2 n
1
Var ( ^
μ2 )= V i
n+1 i=1
n
1
2∑
Var ( ^
μ2 )= V (xi )
(n+1) i =1
1
Var ( ^
μ2 ) = 2
( n σ2)
(n+1)
2
nσ
Var ( ^
μ 2 )= 2
(n+1)
Reemplazamos:
σ2
Var ( μ^1) n
=
Var ( μ^2) nσ
2
2
(n+ 1)
Var ( μ^1) σ 2 (n+1)2
=
Var ( μ^2) n(n σ 2 )
Var ( μ^1) (n+1)2
= >1
Var ( μ^2) n2
Por lo tanto:
Var ( ^
μ1 ) >Var ( ^
μ2 )
Por lo tanto:
El estimador μ^2 tiene menor varianza, por lo que es
más eficiente que ^
μ1
Consistencia:
lim V ( θ^ ) =0
n→∞
{
lim E ( μ^1 )
μ1 =
^ n→∞
lim V ( ^
μ1 )
n→∞
Desarrollamos:
lim E ( ^
μ1 )= lim E ( X ) μ1 )=lim V ( X́ )
lim V ( ^
n→∞ n→∞
n→∞ n→ ∞
lim E ( ^
μ1 )=μ
lim V ( ^
n→∞
μ1 )=lim
n→∞
( )
σ2
n
n→∞
2 1
lim V ( ^
μ1 )=σ lim
n→∞ n→∞ n
2
lim V ( ^
μ1 )=σ (0)
n→∞
lim V ( ^
μ1 )=0
n→∞
Por lo tanto:
{
lim E ( ^
μ1 )=μ
μ1=
^ n→∞
lim V ( ^
μ1 )=0
n→∞
(Es consistente)
Luego en:
{
lim E ( μ^2 )
μ 2=
^ n→ ∞
lim V ( ^
μ2 )
n→∞
n
1
μ2=
^ ∑x
n+1 i=1 i
Desarrollamos:
( ) ( )
n n
1 1
lim E ( ^
μ2 )= lim E ∑x
n+1 i=1 i
lim V ( ^
n→∞
μ2 )=lim V
n→∞
∑x
n+1 i=1 i
n→∞ n→ ∞
( n+1 ) [ ]
nμ n σ2
lim E ( ^
μ2 )= lim lim V ( ^
μ2 )=lim
n→∞ n→ ∞
n→∞ n→∞ ( n+1 )2
μ )=μ lim (
n+ 1 )
n
lim E ( ^
n→∞
2
n→∞ lim V ( ^
n→∞
μ2 )=σ lim
2
n→∞ [ n
( n+1 )2 ]
μ )=μ lim (
n+1 )
n+ 1−1
[ ]
lim E ( ^ 2 2 n+1−1
n→∞ n→∞ lim V ( ^
μ2 )=σ lim
n→∞ n→∞ ( n+ 1 )2
μ )=μ lim (
n+ 1 n+1 )
n+ 1 1
lim E ( ^ −
[ ( n+1 ) ( n+1 )
]
2
n→∞ n→∞
μ2 )=σ 2 lim
lim V ( ^ −
n→∞ n→∞ ( n+1 )2 ( n+1 )2
μ )=μ lim ( 1−
n+1 )
1
lim E ( ^
[ ]
2
n→∞ n→∞ 2 1 1
lim V ( ^
μ2 )=σ lim −
( n+1) ( n+1 )2
[ ( )]
n→∞ n→∞
1
lim E ( ^
μ2 )=μ 1−lim
n →∞ n+1
n→∞
μ2 )=σ 2 (0−0)
lim V ( ^
n→∞
μ2 )=μ [ 1−0 ]
lim E ( ^
n→∞ lim V ( ^
μ2 )=0
n→∞
lim E ( ^
μ2 )=μ
n→∞
Por lo tanto:
{
lim E ( ^
μ2 )=μ
μ2=
^ n→∞
lim V ( ^
μ2 )=0
n→∞
(Es consistente)
b) Elegir uno de los dos en término del error cuadrático
medio.
sesgo ( θ^ )=E ( θ^ ) −θ
2
μ1 )=V ( μ^1 ) + [ b ( ^
ECM ( ^ μ1 ) ]
2
σ
Var ( ^
μ1 ) = ; sesgo ( μ^1 )=0
n
Reemplazamos:
σ2 2
ECM ( ^
μ1 )= +[ 0 ]
n
2
σ
ECM ( ^
μ1 )=
n
2
μ2 )=V ( μ^2) + [ b ( ^
ECM ( ^ μ2 ) ]
2
nσ −μ
Var ( ^
μ2 )= ; sesgo ( μ^2 )=
( n+1)
2
n+1
Reemplazamos:
[ ]
2 2
nσ −μ
ECM ( ^
μ2 )= +
(n+1) n+1
2
2 2
nσ μ
ECM ( ^
μ2 )= 2
+ 2
(n+1) (n+1)
2 2
nσ +μ
ECM ( ^
μ2 )= 2
(n+1)
Entonces:
2 2 2
σ nσ +μ
≤
n (n+1)2
2 2 2
σ nσ μ
≤ +
n (n+1) ( n+ 1)2
2
2 2 2
σ nσ μ
− ≤
n (n+1) (n+1)2
2
σ2
[ 1
−
n
≤
μ2
n (n+ 1)2 (n+ 1)2]
[ (n+1)2−n2
]
2
μ
σ2 2
≤ 2
n (n+1) (n+1)
[ ]
2 2 2
( n + 2n+ 1)−n
2 μ
σ 2
≤ 2
n(n+ 1) (n+1)
2n+ 1 μ2
≤ 2
n σ
Luego:
{
2
2 n+1 μ
Si ≤ 2 entoces μ^1 se eige antes que ^
μ2
n σ
2 n+1 μ2
Si ≥ 2 entoces μ^2 se eige antes que ^
μ1
n σ
Ejercicio 10.
La distribución del peso de las manzanas de una determinada
cosecha sigue una distribución normal, cuyo peso medio es
desconocido y cuya desviación típica es 7 gramos. Se pide:
a) Analizar cuál de los estimadores
∑ X1
^μ1= i=1 y ^μ2= X 1+ 2 X 2+ 3 X 3−4 X 4 −X 5
5
N ( μ ,7 )
( )
5
∑ X1
( )
5
1
→ E ( μ^ 1 )=E
i=1
5
= E
5
∑ X 1 = 15 5 μ=μ , es insesgado
i=1
( )
5
∑ X1
( )
5
1 1 49
V ∑ X 1 = 5 ( 49 )=
i=1
→ V ( μ^ 1) =V =
5 25 i=1 25 25
→ V ( μ^ 2) =V ( X 1 ) + 4 V ( X 2 ) +9 V ( X 3 )−16 V ( X 4 )−V ( X ¿¿ 5)¿
Para μ^ 1
125+ 135+130+137+142
→ μ^ 1= =133,8
5
Formula:
1
CRR=
[ ]
2
∂ lnf ( x , μ )
nE
∂μ
Densidad Poblacional:
2
− ( x− μ)
1 2σ
2
f ( x , μ )= e
σ √2
(√ )
2
− ( x−μ )
1 2
lnf ( x , μ )=ln e 2σ
σ 2
2
1 ( x−μ )
lnf ( x , μ )=−lnσ − ln 2 π −
2 2σ2
Derivamos:
∂lnf ( x , μ ) −1
= 2 [−2 ( x−μ ) ]
∂μ 2σ
∂lnf ( x , μ ) ( x−μ)
=
∂μ σ
2
( ∂μ )
∂ lnf ( x , μ ) 2 ( x−μ )2
=
σ4
Esperanza:
[ ] [ ]
2 2
∂ lnf ( x , μ ) ( x−μ )
E =E
∂μ σ
4
[ ]
2
∂ lnf ( x , μ ) σ2
E = 4
∂μ σ
[ ]
2
∂ lnf ( x , μ ) 1
E = 2
∂μ σ
Sustituyendo:
1
CRR=
[ ]
2
∂ lnf ( x , μ )
nE
∂μ
1
CRR=
n∗1
σ2
2
σ
CRR=
n
Ejercicio 12
Calcular el estimador máximo verosímil del parámetro ‘a’ de las
funciones:
a) f ( x , a )=a2 x e−ax siendo x ≥ 0 en muestras aleatorias simples de
tamaño n
L=L ( x 1 , x 2 , … x n , a )=( a e
2 −ax
) . ( a 2 e−a x ) … ( a2 e−a x )=a 2 n e−a ∑ xi
2 n
Logaritmo neperiano:
lnl=log( a2 n e−a ∑ xi)
n
lnl=2 n ln a−a ∑ xi
i=i
→ derivando:
n
∂(lnl) 2n
= −∑ xi=0
∂a a i=i
2n 2
a^ = =
∑ xi x
Logaritmo neperiano:
2 −a(x 1+ x 2)
lnl=log ( a e )
lnl=2 ln a−a( x 1+ x2 )
→ derivando:
∂(lnl) 2
= −( x 1 + x 2)=0
∂a a
2 1
a^ = =
x1 + x2 x
( 1−θ
α 1=μ=E ( x )=∑ X i P ( X =X i ) =(−1 )
2 )
+ (0)(
2 )
θ+ λ
+ (1 ) (
2 )
1−λ
∑ xi P ( X= X )=( θ−λ
2 ) i
∑ X P ( X =X ) =( 2−θ−λ
2
i
2 )
i
→ momentos muestrañes:
θ−λ=2 Χ ^λ=1−a2−Χ
−θ−λ=2 a2−2
^
θ=1−a 2+ Χ
{
−x
−1
f ( x ,θ )= θ e θ x> 0
0 otro lugar
L (θ )=∏ θ−i e θ
i=1
−1
−n θ
∑ xi
L (θ )=θ ∗e
( )
−1
−n ∑ xi
ln ( L ( θ ))=ln θ ∗e θ
−1
θ ∑ i
ln ( L ( θ ) )=ln ( θ )∗ln (e ¿ ¿
−n
x )¿
( θ )∗1
ln ( L ( θ ) )=−n ln
θ
∑ xi
( θ )∗∑ x i
ln ( L ( θ ) )=−n ln
θ
Derivamos:
ln (θ) −n ∑ x i
= + 2 =0
∂θ θ θ
∑ xi = n
2
θ θ
∑ xi = θ2
n θ
∑ xi =θ
n
x=E ( x )=∫ x ( θ ) dx
∞ −x
−1 θ
e
0
[ ( )]−[ 1θ ( −θ ) ]
−1 −1
1 2 2
x=E ( x )= −θ e θ −θ e θ
θ
−1 −1
θ θ
x=E ( x )=−θ−e −θ e
−1
x=E ( x )=−θ+ e θ (−1−θ)
−1
^
θ=e x
( 1−x ) −x
−1
E ( θ^ ) =E[e ¿ ¿ ( 1−x )−x ]¿
x
[ ]
−1
E ( θ^ ) =E ( x )+ −e x (−1−x )
[ ]
−1 −1
E ( θ^ ) =e x
( 1−x )−x+ −e (−1−x ) x
E (−x )=−θ
1
E¿¿
1 1
¿ =
[{ }] [ ( −θn+ ∑ x i)
]
2 2
−θn+ ∑ x i
E E
θ2 θ
4
1 1
¿ =
[ ] n E ( θ )−2 nθE ( ∑ x i ) + E ( ∑ xi )
2
θ n −2θn ∑ x i+ ( ∑ x i )
2 2 2 2 2
E
θ4 θ4
1 1 1
¿ 2 2 2 2
= 2 2 2= 2 2
n θ −2θ +θ n θ −θ θ ( n −1)
4 4
θ θ θ4
2
1 θ
2
= 2
(n −1) ( n −1)
2
θ
Luego:
2 2
θ θ
≥ 2 (SI CUMPLE)
n ( n −1 )
Ejercicio 16
Dada una variable que sigue una distribución normal, tomamos
dos muestras aleatorias simples de tamaños
n y m: (X 1 , X 2 , … , X n ) ;(Y 1 ,Y 2 , … , Y m)
E [ θ^ ]=aE [ x ] +bE [ y ]
1
n [ 1
E [ θ^ ]=aE ∑ xi +bE ∑ xi
n ] [ ]
1 1
E [ θ^ ]=a .
n∑
E ( xi) +b . ∑ E ( yi )
n
1 1
E [ θ^ ]=a . ( nμ ) +b . (mμ)
n n
E [ θ^ ] =aμ+bμ
[ θ^ ]=V [ a x +b y ]
[ θ^ ]=a2 V [ 1
n
∑ 2
xi +b V
1
m ] [
∑ yi ]
[ θ^ ]=a2 . 12 ∑ V ( xi)+b 2 1
2∑
V ( yi)
n m
[ θ^ ]=a2 . 12 n σ 2 +b2 1
2
mσ
2
n m
2 2
[ θ^ ]= a b 2
σ + σ
2
n m
2 2 2
[ θ^ ]= σ (a m+ b n)
n .m
1
E ( x )=∫ x [ ( x −x θ ) ] dx
−θ −θ
1−θ
E ( x )=
−θ+2
^ 1−x
θ=
−x +2
L (θ )=L ( x , θ )=∏ f ( x i , θ)
n
L (θ )=L ( x , θ )=∏ ( 1−θ ) x −θ
i=0
ln ( L ( θ ) )=ln ( ( 1−θ )
n
∑ x −θ
i )
n
ln ( L ( θ ) )=n ln ( 1−θ ) −θ ∑ ln xi =0
i =0
∂ ln ( L ( θ ) ) n
n
= −∑ ln x i=0
∂θ 1−θ i=0
n
n
=∑ ln x i
1−θ i=0
n
n
=∑ ln x i
1−θ^ i=0
^ n
θ=1− n
∑ ln x i
i=0
Solución :
λ N ( μ , σ ) → X N ( 2 ,σ )
1 ° ¿ L ( μ ,σ )=P ( X 1 , μ , σ ) . P ( X 2 , μ , σ ) . P ( X 3 , μ , σ ) … … ... P ( X 20 , μ , σ )
( ). ( ). ( ) ………. ( )
2 2 2 2
−1 X 1−μ1 −1 X 2−μ1 −1 X3− μ1 −1 X 20 −μ1
1 2 6 1 2 6 1 2 6 1 2 6
¿ e e e e
σ √2 π σ √2 π σ √2 π σ √2 π
[∑ ( ) ]
2
−1 X i− μ
1 2 σ
¿ 20
e
σ ( √2 π )
20
( )
2
1 1 X i −μ
2 °¿ ln [ L ( μ , σ ) ]=ln 20
−
2
∑ σ
σ (√ 2 π )
20
( )
n=20 2
1 X i−μ
ln [ L ( μ ,σ ) ]=−10 ln (2σπ )−
2
∑ σ
i=1
2
∂ −10 ( X i−2 )
3 °¿ ln ( σ )= +∑
∂σ σ σ3
2
10
n=20
( X i−2 )
→− + ∑ =0
σ^ i=1 σ^
3
2
n=20
( X i−2 )
σ^ = ∑
2
i=1 10
√
n=20
1
σ^ =
10 ∑ ( X i−2 )2=0.18777
i=1