Está en la página 1de 36

UNIVERSIDAD NACIONAL DE TRUJILLO

FACULTAD DE CIENCIAS FÍSICAS Y MATEMÁTICAS


Escuela Profesional de Estadística

TAREA 3 GRUPAL
DOCENTES
ROSA D. GUTIERREZ DE ALARCÓN
MARIANA LUCÍA CUADRA MORENO
CURSO
INFERENCIA ESTADÍSTICA I
CICLO: V

ALUMNOS

 CHAVARRY AGUILAR JULIO ANTONIO


 CIRIACO GOICOCHEA EDINHO ALISON (COORDINADOR)
 GUTIERREZ MATOS MALENY NATALY
 ALDO JESUS RAMOS MARTINEZ
 MORALES VASQUEZ JUAN PEDRO

Trujillo, 2021
Ejercicio 1
De una población con media μ y varianza σ 2 se extraen dos
muestras aleatorias simples de tamaños n y m e
independientes entre sí. Demuéstrese que la estimación de μ
obtenida como la media muestral correspondiente a cualquiera
de las dos muestras.
Solución:
^μ1=x 1

^μ2=x 2

n x 1+ m x 2
^μ3=
n+ m

Estimadores insesgados: E ( θ^ ) =θ
0
ECM ( θ^ ) =Var (θ ) +¿ ¿

ECM ( θ^ ) =V ( θ )
2
σ
 V ( ^μ1 )=V ( x 1 )=
n

2
σ
 V ( ^μ2 )=V ( x 2 )=
m

 V ( ^μ3 )=V [ V ( n x 1 ) +V ( m x 2 )
n+m ]

[ ( ) ( )]
2 2
1 σ σ
V ( ^μ3 )= n2 +m2
( n+ m ) 2
n m

σ2
V ( ^μ3 )=
n+ m

El estimador ^μ3 es el mas eficiente porque tiene menor


varianza
EJERCICIO 2
Para una muestra x 1 , x 2 , x 3 … x 4 de una población de media μ y
varianza k μ2 considérense los siguientes estimadores de μ:
x 1 +4 x2 x 1+ x 2 + x 3+ x 4
T 1= ; T 2=
5 3

a) Calcular el sesgo de T 1 y T 2

 Calculamos el sesgo de T 1
E ( T 1 )=E ( x +45 x )
1 2

1 4
E ( T 1 )= E ( x 1 ) + E ( x2 )
5 5
1 4
E ( T 1 )= μ+ μ
5 5
E ( T 1 )=μ
Por lo tanto:

sesgo ( T 1 )=E ( T 1 )−μ


sesgo ( T 1 )=μ−μ
sesgo ( T 1 )=0

 Calculamos el sesgo de T 2
E ( T 2 )=E ( x + x +3 x + x )
1 2 3 4

1 1 1 1
E ( T 2 )= E ( x 1 ) + E ( x 2 ) + E ( x 3) + E ( x 4 )
3 3 3 3
1 1 1 1
E ( T 2 )= μ+ μ+ μ+ μ
3 3 3 3

E ( T 2 )=
3
Por lo tanto:
sesgo ( T 2 )=E ( T 2 )−μ
sesgo ( T 2 )=E ( T 2 )−μ
4
sesgo ( T 2 )= μ−μ
3
1
sesgo ( T 2 )= μ
3

b) Calcular el E.C.M de T 1 y T 2

ECM ( T 1) =Var ( T 1 )

ECM ( T 1) =Var (
x 1+ 4 x 2
5 )
1
ECM ( T 1) =Var x 1 + x2
5 ( 4
5 )
1
( ) ( )
ECM ( T 1) =Var x 1 +Var x 2
5
4
5
1 16
ECM ( T 1) = Var ( x 1) + Var ( x 2 )
25 25
1 2 16 2
ECM ( T 1) = k μ + k μ
25 25

17 2
ECM ( T 1) = kμ
25

2
ECM ( T 2 )=Var ( T 2) + sesg o (T 2)
4
1 1
ECM ( T 2 )= ∑
9 i=1
Var ( x i ) + μ2
9
ECM ( T 2 )= ( 4 k9+1 ) μ 2

c) ¿Para qué valores de K es el estimador T 2 mejor que T 1de


acuerdo con el criterio del E.C.M?

T 1 será preferible a T 2 cuando su error cuadrático medio sea


menor. Es decir, si

17 2 4 k + 1 2
25
kμ <
9
μ ( )
Entonces:
25
k<
53

Ejercicio 3.
Sea (X1, ……. Xn1) una muestra aleatoria simple de la variable
aleatoria X, que se distribuye como una N (μ 1, σ2). Sea (Y1, …….
Yn2) una muestra aleatoria simple de la variable aleatoria Y, que
se distribuye como una N (μ2, σ2). X e Y son independientes. Se
quiere estimar σ2 y para ello se consideran combinaciones
lineales de las cuasi-varianzas muéstrales S 12 y S22, es decir,
2 2 2
σ =λ S1 + ( 1−λ ) S 2 , donde 0 ≤ λ ≤ 1

a) Demostrar que este estimador es centrado para cualquier


valor de λ.
2 2 2
σ =λ S1 + ( 1−λ ) S 2

σ 2=λ ( n−1
1
∑ ( X −X ) )+( 1− λ ) ( n−1
i
2 1
∑ ( X −X ) ) i
2

λ
2
σ = ( E ( X i −u1 )2−nE ( X i−u 1) 2) + 1−λ
n−1 ∑
( E ( X i−u2 )2 −nE ( X i−u2 )2 )
n−1 ∑

( ) ( )
2 2
2 λ 2 n σ 1 1−λ 2 n σ2
σ = n σ1− + n σ 2−
n−1 n n−1 n

λ σ 21 (1− λ)σ 22
σ 2= ( n−1 ) + ( n−1 )
n−1 n−1
2 2 2
σ =λ σ 1+(1−λ) σ 2

Cambiamos las variables

Para λ=1

2 2 2
σ =( 1 ) σ 1+ ( 1−1 ) σ 2

σ 2=σ 21

Para λ=0

2 2 2
σ =( 0 ) σ 1 + ( 1−0 ) σ 2

2 2
σ =σ 2

Se pudo comprobar que es centrado para cualquier


variable.

b) Determinar qué valor de λ define al estimador σ2 más


eficiente.

Al ser centrado para cualquier variable consideramos que


el estimador tiene una eficiencia relativa.

Ejercicio 4: Sea X 1 , … . , X n, una muestra aleatoria de una


población de media µ y varianza σ 2. Considere los siguientes
estimadores de µ:
X 1 1 1 n−1 X 1
n
^μ1= + ∑
4 2 (n−2) i=1
X i+ n
4
^μ2= ∑ X i
n i=1

a) Demostrar que los dos estimadores son insesgados.

Solución:
Para:
X 1 1 1 n−1 Xn
^μ1= + ∑
4 2 (n−2) i=1
X i+
4

n−1
X1 1 1 X
E( μ^ ¿ ¿1)=E [ ]+ E[
4

2 ( n−2 ) i =1
X i ]+ E[ n ]¿
4

n−1
1 1 1
E( μ^ ¿ ¿1)= E( X 1)+
4
∑ E( X i)+ 14 E( X n) ¿
2 ( n−2 ) i=1

1 1 1 1
E( μ^ ¿ ¿1)= µ+ ((n−2) µ)+ µ ¿
4 2 ( n−2 ) 4

1 1 1
E( μ^ ¿ ¿1)= µ+ ((n−2) µ)¿
2 2 ( n−2 )

1 1
E( μ^ ¿ ¿1)= µ+ µ=µ ¿ … Por lo tanto es un estimador
2 2
insesgado µ.

Para:

n
1
^μ2= ∑X
n i=1 i

E( μ^ ¿ ¿2)=E ¿ ¿

n
1
E( μ^ ¿ ¿2)= ∑ E(X ¿ ¿i)¿ ¿
n i=1

1
E( μ^ ¿ ¿2)= (n µ)¿
n

E( μ^ ¿ ¿2)=µ ¿ … Por lo tanto si es un estimador insesgado


µ.

b) Determinar la eficiencia relativa de ^μ2 respecto de ^μ1.


ER
( )
^ 2 efic (^μ2 ) ECM ( μ^ 2)
μ
= =
^μ1 efic (^μ1 ) ECM ( μ^ 1)

2
ECM ( ^μ1 )=Var ( μ^ 1 ) + [ μ−E ( ^μ1 ) ]

X1 1 1
n−1
X
Var ( ^μ1 )=Var ( )+Var (
4

2 ( n−2 ) i=1
X i )+Var ( n )
4

( )
2
1
∗1 n−1
1 2 2 1
Var ( ^μ1 )= σ +
16 ( n−2 )
∑ Var (X i )+ 16 σ 2
i =1

1 2
Var ( ^μ1 )= σ +
8 (
1
4 ( n−2 ) 2 ) 2
∗( ( n−1 )∗σ )

( )
2
1 2 ( n−2 ) 2
Var ( ^μ1 )= σ + ∗σ
8 4 ( n−2 ) 2

1 1
Var ( ^μ1 )= σ 2 + σ 2
8 4 ( )
3 2
Var ( ^μ1 )= σ
8

3
ECM ( ^μ1 )= σ 2 +0
8

3 2
ECM ( ^μ1 )= σ
8

2
ECM ( ^μ2 )=Var ( μ^ 2 ) + [ μ−E ( μ^ 2 ) ]

( )
n
1
Var ( ^μ2 )=Var ∑X
n i=1 i

n
1
Var ( ^μ2 )= 2 ∑ Var (X ¿¿ i)¿
n i =1
1 2 2
Var ( ^μ2 )= (n σ )
n2

Var ( ^μ2 )=σ 2

2 2
ECM ( ^μ2 )=σ + [ μ−μ ]

2
ECM ( ^μ2 )=σ 2 + [ 0 ]

2
ECM ( ^μ2 )=σ

Entonces:

3 2
σ
ER
^2
μ
( )
^μ1
8
= 2
σ

ER
( )
^2 3
μ
=
^μ1 8

c) Calcular el error cuadrático medio de los dos


estimadores.

2
ECM ( ^μ1 )=Var ( μ^ 1 ) + [ μ−E ( ^μ1 ) ]

X1 1 1
n−1
Xn
Var ( ^μ1 )=Var (
4
)+Var ( ∑
2 ( n−2 ) i=1
X i )+Var ( )
4

( )
2
1
∗1 n−1
1 2 2 1
Var ( ^μ1 )= σ +
16 ( n−2 )
∑ Var (X i )+ 16 σ 2
i =1

1 2
Var ( ^μ1 )= σ +
8 (
1
4 ( n−2 )
2 ) 2
∗( ( n−1 )∗σ )
( )
2
1 ( n−2 )
Var ( ^μ1 )= σ 2 + ∗σ 2
8 4 ( n−2 )
2

1 1
Var ( ^μ1 )= σ 2 + σ 2
8 4 ( )
3 2
Var ( ^μ1 )= σ
8

3 2
ECM ( ^μ1 )= σ +0
8

3 2
ECM ( ^μ1 )= σ
8

2
ECM ( ^μ2 )=Var ( μ^ 2 ) + [ μ−E ( μ^ 2 ) ]

( )
n
1
Var ( ^μ2 )=Var ∑ X i
n i=1

n
1
Var ( ^μ2 )= 2 ∑ Var (X ¿¿ i)¿
n i =1
1 2 2
Var ( ^μ2 )= 2 (n σ )
n

Var ( ^μ2 )=σ 2

2 2
ECM ( ^μ2 )=σ + [ μ−μ ]

2
ECM ( ^μ2 )=σ 2 + [ 0 ]

ECM ( ^μ2 )=σ 2

Entonces:
3 2
σ
ER
^2
μ
( )
^μ1
8
= 2
σ

ER ( )
^2 3
μ
=
^μ1 8

Ejericicio 5. La nota final en la asignatura de Estadística I es


una variable aleatoria cuya distribución sigue una Normal con
desviación típica poblacional de 3. Para estimar la media
poblacional tomamos una muestra aleatoria simple de tamaño
5 (X1,…..,X5) y proponemos los siguientes estimadores :

Solución :

E ( μ1 ) =E ( x −2 x3 +5 x )
1 2 4

1
E ( μ1 ) = E ( x1 −2 x 2 +5 x 4 )
3
E ( x 1 )−2 E ( x 2 ) +5 E ( x 4 )
E ( μ1 ) =
3
1
E ( μ1 ) = ( μ−2 μ+5 μ )
3
4
E ( μ1 ) = μ
3
→ deducimos que no es insesgado
1
→ E ( μ 2 )= E ( x 2−2 x 3+ 2 x 5 )
3
1
E ( μ2 ) = E ( x2 −2 x 3 +2 x5 )
3
E ( μ2 ) =E ( x2 ) −2 E ( x 3 ) +2 E ( x 5 )

E ( μ2 ) =μ−2 μ+2 μ

E ( μ2 ) =μ

→ deducimos que es insesgado

→ Eficiencia :
Var ( ^μ2 )=Var ( x2−2 x 3 +2 x 5 )

Var ( ^μ2 )=Var ( x 2 )−4 Var ( x 3 )+ 4 Var (x 5 )

Var ( ^μ2 )=9−4 ( 9 ) + 4 ( 9 ) =81

Error cuadrático medio(ECM) :


2
ECM ( ^μ2 )=V ( μ^ 2) + [ E ( ^μ2 )−μ ]

ECM ( ^μ2 )=V ( μ^ 2)

ECM ( ^μ2 )=81

Ejercicio 6.
Considere una variable aleatoria X cuya función de densidad es
f ( x )=0.5 ( 1+θX )−1 ≤ X ≤1

Donde ϴ es un parámetro desconocido. (Esta distribución


aparece en física de partículas). Demuestre que el
estimador ϴ*=3 es un estimador insesgado de ϴ.

a) ¿Cuál de los dos estimadores propuestos es preferible


para estimar la media poblacional? Comprobar las
propiedades de insesgadez y eficiencia.
1
x=E ( x )=∫ 0.5 x ( 1+ θx ) dx
−1

[ ]
1
x2 θ x3
E ( x )= +
2 6 −1

θ ^
E ( x )= → θ=3 x
3

9 V ( X) 9
V ( θ^ ) =V (3 X )=9 V ( X ) = = V (X )
n n

[]
1 2
2 1+θX θ
V ( X )=E ( X )−[ E ( X ) ] =∫ X
2 2
dx−
−1 2 3

[ ] []
3 4 1 2
x θx θ
V ( X )= + −
6 8 −1 3

2
3−θ
V ( X )=
3

Donde:
9
V ( θ^ ) = V ( X )=
n n 9 [ ]
9 3−θ2 3−θ2
=
9

Para probar que θ^ es consistente para estimar ϴ es suficiente


probar .

lim E ( θ^ ) =θ
n→∞

lim V ( θ^ ) =0
n→∞

θ
lim E ( θ^ ) =¿ lim E (3 X )=¿ lim 3 E ( X )=¿ 3 E ( X ) =3 =θ ¿ ¿ ¿
n→∞ n →∞ n→∞ 3
2
3−θ
lim V ( θ^ ) =¿ lim V ( 3 X ) =¿ lim =0 ¿ ¿
n→∞ n→ ∞ n →∞ n

Por tanto, queda probado que θ^ es consistente para estimar ϴ.


b) Estimar la media poblacional por el Método de Máxima
Verosimilitud.
La función de Verosimilitud l(ϴ) es:

l (θ )=f ( x1 , x2 , x3 … . , xn ; θ )

l (θ )=f ( x1 ; θ ) , f ( x 2 ; θ ) … f ( x n ;θ )

l (θ )=0.5 ( 1+θ x 1 )∗0.5 ( 1+θ x 2 ) … ..0.5 ( 1+θ x n )

l (θ )=0. 5 [ ( 1+θ x 1)∗( 1+θ x 2 ) ….. ( 1+θ x n ) ]


n

n
l (θ )=0. 5n ∏ (1+¿ θ xi )¿
i=1

Función soporte o Log‐verosimilitud:

ln ( l ( θ ) )=ln ¿

ln ( l ( θ ) )=nln ( 0.5 ) + ln¿

n
ln ( l ( θ ) )=nln ( 0.5 ) + ∑ ln ( 1+θ x i )
i=0

Para obtener el valor de Verosimilitud derivamos:

[ ]
n
∂ ∂
∂θ
[ ln ( l ( θ ) ) ] = ∂θ nln ( 0.5 )+ ∑ ln ( 1+θ x i)
i=0

[∑ ]
n
∂ ∂ ∂
∂θ
[ ln ( l ( θ ) ) ] = [ nln ( 0.5 ) ]+
∂θ ∂θ
ln ( 1+θ xi )
i=0

n
∂ ∂
∂θ
[ ln ( l ( θ ) ) ] =0+ ∑ ( ln ( 1+θ xi ) )
i=0 ∂ θ

n
∂ xi
∂θ
[ ln ( l ( θ ) ) ] =∑
i=0 (1+θ x i )


∑ xi
∂θ
[ ln ( l ( θ ) ) ] = n
i=0

∑ (1+θ x i)
i=0
Entonces :

∂θ
[ ln ( l ( θ ) ) ] =0
n

∑ xi
i=0
n
=0
∑ (1+θ x i)
i=0

∑ (1+θ x i)=0
i=0

n
n+θ ∑ ( x i)=0
i=0

^ n
θ= n

∑ ( xi )
i=0

^ −1
θ= n

∑ ( xi )
i=0
n

^ −1
θ=
x
Por lo tanto:

^ −1
EMV ( θ)=
x

Ejercicico 7. Se X1,….,X3 una muestra aleatoria de una


población de media μ desconocida y varianza σ 2 . Considérense
los siguientes estimadores de:

a) Probar que los dos estimadores son insesgados.


b) ¿Cuál de los dos estimadores es más eficiente?
c) Encontrar un estimador de μque sea más eficiente de los
estimadores propuestos.
Solución :
a) → E ( μ 1 )=E [ X 1 +2 X 2+3 X 3
6 ]
1
6[
E ( μ1 ) = E ( X 1 ) +2 E ( X 2) + 3 E ( X 3 ) ]

1
E ( μ1 ) = (6 μ)
6
E ( μ1 ) =μ

→ deducimos que si es insesgado

→ E ( μ 2 )=E [ X 1 + 4 X 2+ X 3
6 ]
1
E ( μ2 ) =
6
[ E ( X 1 ) + 4 E ( X 2) + E ( X 3 ) ]
1
E ( μ2 ) = (6 μ)
6
E ( μ2 ) =μ

→ deducimos que si es insesgado

1
b) Efic ( θ^ ) =
ECM ( θ^ )

→ Var ( μ1 ) =Var ( X +2 X6 +3 X )
1 2 3

1
Var ( μ1 )=
6
( Var ( X 1 ) +Var ( 2 X 2 ) +Var ( 3 X 3 ) )
1 2
Var ( μ1 )= (14 σ )
36
2

Var ( μ1 )=
18

→ Var ( μ 2) =Var ( X 1 +4 X 2 + X 3
6 )
1
Var ( μ2 )=
36
( Var ( X 1 ) +Var ( 4 X 2 ) +Var ( X 3 ) )
1 2
Var ( μ2 )= (18 σ )
36
2

Var ( μ2 )=
18

9 σ2 9σ2
→ ECM ( μ 2 )= + 0=
18 18

1 18 σ 2
Efic ( θ^ 1)= =
ECM ( ^μ1 ) 7 σ 2
2
1 18 σ
Efic ( θ^ 2)= =
ECM ( ^μ2 ) 9 σ 2

Efic ( θ^ 2) > Efic ( θ^ 1 )

c)
X 1+ X 2+ X 3
μ=
3

Var ( θ^ ) =3 σ 2
ECM ( θ^ ) =3 σ +0=3 σ
2 2

1
Efic ( θ^ ) = 2

Ejercicio 8
Se considera una población representada por una variable
aleatoria X, de forma de la distribución poblacional viene
definida por la fusión de densidad:
1
f ( x ,θ )= para 0 ≤ x ≤ θ
θ

Si estimamos el parámetro θ a través de:


a) La media muestral ¿es insesgado dicho estimador?
θ
μ=∫ xf ( x ,θ ) dx
0
θ
1
μ=∫ x dx
0 θ

|
θ
1 x2
μ= .
θ 2 0
1 2
μ= ∗θ

θ
μ= →no es insesgado
2

b) θ¿ definido así: θ¿ =k x . Determinar el valor de k para que θ¿sea


un estimador insesgado de θ
¿
θ =θ
K x=θ
θ
K =θ
2
Kθ=2 θ

K=
θ
K=2

EJERCICIO 9

Sea una población de media μ de la que se extraen m. a. s. de


tamaño n. considere los siguientes estimadores de la media:
n
1
μ1=x ; ^
^ μ2 = ∑x
n+1 i=1 i

SOLUCION
a) Estudiar la insesgadez, la eficiencia relativa y la consistencia
de ambos estimadores.
 Insesgadez:
E(^
μ1 ) =E ( x )

( )
n
1
E(^
μ1 ) =E ∑x
n i=1 i

(∑ )
n
1
E(^
μ1 ) = E xi
n i=1

n
1
E(^
μ1 ) = ∑ E(x i )
n i=1
1
E(^
μ1 ) = (nμ)
n
E(^
μ1 ) =μ

 Por lo tanto:

sesgo ( μ^1 ) =E ( ^
μ1 )−μ
sesgo ( μ^1 ) =μ−μ
sesgo ( μ^1 ) =0

Luego en:

( )
n
1
E(^
μ2 ) =E ∑x
n+1 i=1 i

(∑ )
n
1
E(^
μ2 ) = E xi
n+ 1 i=1

n
1
E(^
μ2 ) = ∑ E(x i )
n+ 1 i=1
1
E(^
μ2 ) = (nμ)
n+ 1

E(^
μ2 ) =
n+ 1
 Por lo tanto:

sesgo ( μ^2 ) =E ( ^
μ2 )−μ


sesgo ( μ^2 ) = −μ
n+ 1

sesgo ( μ^2 ) =μ ( n+1n −1)


sesgo ( μ^2 ) =μ( n−(n+1)
n+1 )

sesgo ( μ^ ) =μ (
n+1 )
−1
2

−μ
sesgo ( μ^2 ) =
n+ 1
0 cuando n → ∞; sesgado asintoticamente

 Eficiencia:
Sean θ^1 y θ^2dos estimadores insesgados de un parámetro
desconocido θ. Además, tenemos que θ^1 es mas eficiente
que θ^2 si se verifica:

Var ( θ^1 ) < Var ( θ^2 )

La eficiencia relativa se mide por la ratio

Var ( θ^1 )
Var ( θ^ ) 2

Hallamos sus varianzas:


μ1=x
^

Var ( ^
μ1 )=V ( x)

( )
n
1
μ1 )=V ∑ x i
Var ( ^
n i=1

() ( )
2 n
1
Var ( ^
μ1 )=
n
V ∑ xi
i=1
n
1
2∑
Var ( ^
μ1 )= V (xi )
n i =1
1
Var ( ^
μ1 )= 2
( n σ2)
n
2
σ
Var ( ^
μ1 ) =
n

Luego:

( )
n
1
Var ( ^
μ2 )=V ∑x
n+ 1 i=1 i

( ) (∑ x )
2 n
1
Var ( ^
μ2 )= V i
n+1 i=1

n
1
2∑
Var ( ^
μ2 )= V (xi )
(n+1) i =1
1
Var ( ^
μ2 ) = 2
( n σ2)
(n+1)
2

Var ( ^
μ 2 )= 2
(n+1)

Hallamos la Eficiencia relativa:


Var ( μ^1)
Var ( μ^2)

Reemplazamos:
σ2
Var ( μ^1) n
=
Var ( μ^2) nσ
2

2
(n+ 1)
Var ( μ^1) σ 2 (n+1)2
=
Var ( μ^2) n(n σ 2 )
Var ( μ^1) (n+1)2
= >1
Var ( μ^2) n2

Por lo tanto:
Var ( ^
μ1 ) >Var ( ^
μ2 )
 Por lo tanto:
El estimador μ^2 tiene menor varianza, por lo que es
más eficiente que ^
μ1

 Consistencia:

Hay que recordar que:

Un estimador θ^ es consistente cuando nlim E ( θ^ ) =θ y


→∞

lim V ( θ^ ) =0
n→∞

{
lim E ( μ^1 )
μ1 =
^ n→∞
lim V ( ^
μ1 )
n→∞

Desarrollamos:

lim E ( ^
μ1 )= lim E ( X ) μ1 )=lim V ( X́ )
lim V ( ^
n→∞ n→∞
n→∞ n→ ∞

Hay que recordar que: Hay que recordar que:


2
E(^
μ1 ) =μ σ
Var ( ^
μ1 )=
n
lim E ( ^
μ1 )= lim (μ¿)¿
n→∞ n→ ∞

lim E ( ^
μ1 )=μ
lim V ( ^
n→∞
μ1 )=lim
n→∞
( )
σ2
n
n→∞
2 1
lim V ( ^
μ1 )=σ lim
n→∞ n→∞ n
2
lim V ( ^
μ1 )=σ (0)
n→∞

lim V ( ^
μ1 )=0
n→∞

Por lo tanto:

{
lim E ( ^
μ1 )=μ
μ1=
^ n→∞
lim V ( ^
μ1 )=0
n→∞

(Es consistente)

Luego en:
{
lim E ( μ^2 )
μ 2=
^ n→ ∞
lim V ( ^
μ2 )
n→∞

n
1
μ2=
^ ∑x
n+1 i=1 i

Desarrollamos:

( ) ( )
n n
1 1
lim E ( ^
μ2 )= lim E ∑x
n+1 i=1 i
lim V ( ^
n→∞
μ2 )=lim V
n→∞
∑x
n+1 i=1 i
n→∞ n→ ∞

Hay que recordar que: Hay que recordar que:


2
nμ nσ
E(^
μ2 ) = Var ( ^
μ2 ) =
n+ 1 (n+1)2

( n+1 ) [ ]
nμ n σ2
lim E ( ^
μ2 )= lim lim V ( ^
μ2 )=lim
n→∞ n→ ∞
n→∞ n→∞ ( n+1 )2

μ )=μ lim (
n+ 1 )
n
lim E ( ^
n→∞
2
n→∞ lim V ( ^
n→∞
μ2 )=σ lim
2

n→∞ [ n
( n+1 )2 ]
μ )=μ lim (
n+1 )
n+ 1−1

[ ]
lim E ( ^ 2 2 n+1−1
n→∞ n→∞ lim V ( ^
μ2 )=σ lim
n→∞ n→∞ ( n+ 1 )2
μ )=μ lim (
n+ 1 n+1 )
n+ 1 1
lim E ( ^ −
[ ( n+1 ) ( n+1 )
]
2
n→∞ n→∞
μ2 )=σ 2 lim
lim V ( ^ −
n→∞ n→∞ ( n+1 )2 ( n+1 )2
μ )=μ lim ( 1−
n+1 )
1
lim E ( ^

[ ]
2
n→∞ n→∞ 2 1 1
lim V ( ^
μ2 )=σ lim −
( n+1) ( n+1 )2
[ ( )]
n→∞ n→∞
1
lim E ( ^
μ2 )=μ 1−lim
n →∞ n+1
n→∞
μ2 )=σ 2 (0−0)
lim V ( ^
n→∞
μ2 )=μ [ 1−0 ]
lim E ( ^
n→∞ lim V ( ^
μ2 )=0
n→∞
lim E ( ^
μ2 )=μ
n→∞

Por lo tanto:

{
lim E ( ^
μ2 )=μ
μ2=
^ n→∞
lim V ( ^
μ2 )=0
n→∞

(Es consistente)
b) Elegir uno de los dos en término del error cuadrático
medio.

Hay que recordar que:


2
ECM ( θ^ ) =E ( θ−θ
^ ) =V ( θ^ )+ [ Sesgo ( θ^ ) ]
2

sesgo ( θ^ )=E ( θ^ ) −θ

2
μ1 )=V ( μ^1 ) + [ b ( ^
ECM ( ^ μ1 ) ]
2
σ
Var ( ^
μ1 ) = ; sesgo ( μ^1 )=0
n

Reemplazamos:
σ2 2
ECM ( ^
μ1 )= +[ 0 ]
n
2
σ
ECM ( ^
μ1 )=
n

2
μ2 )=V ( μ^2) + [ b ( ^
ECM ( ^ μ2 ) ]
2
nσ −μ
Var ( ^
μ2 )= ; sesgo ( μ^2 )=
( n+1)
2
n+1

Reemplazamos:

[ ]
2 2
nσ −μ
ECM ( ^
μ2 )= +
(n+1) n+1
2

2 2
nσ μ
ECM ( ^
μ2 )= 2
+ 2
(n+1) (n+1)
2 2
nσ +μ
ECM ( ^
μ2 )= 2
(n+1)

El estimador μ^1 será elegido si ECM ( ^


μ1 ) ≤ ECM ( μ^2 )

Entonces:
2 2 2
σ nσ +μ

n (n+1)2
2 2 2
σ nσ μ
≤ +
n (n+1) ( n+ 1)2
2

2 2 2
σ nσ μ
− ≤
n (n+1) (n+1)2
2

σ2
[ 1

n

μ2
n (n+ 1)2 (n+ 1)2]
[ (n+1)2−n2
]
2
μ
σ2 2
≤ 2
n (n+1) (n+1)

[ ]
2 2 2
( n + 2n+ 1)−n
2 μ
σ 2
≤ 2
n(n+ 1) (n+1)

2n+ 1 μ2
≤ 2
n σ

Luego:

{
2
2 n+1 μ
Si ≤ 2 entoces μ^1 se eige antes que ^
μ2
n σ
2 n+1 μ2
Si ≥ 2 entoces μ^2 se eige antes que ^
μ1
n σ

Ejercicio 10.
La distribución del peso de las manzanas de una determinada
cosecha sigue una distribución normal, cuyo peso medio es
desconocido y cuya desviación típica es 7 gramos. Se pide:
a) Analizar cuál de los estimadores

∑ X1
^μ1= i=1 y ^μ2= X 1+ 2 X 2+ 3 X 3−4 X 4 −X 5
5

N ( μ ,7 )
( )
5

∑ X1
( )
5
1
→ E ( μ^ 1 )=E
i=1
5
= E
5
∑ X 1 = 15 5 μ=μ , es insesgado
i=1

→ E ( μ^ 2 )=E ( X 1) + 2 E ( X 2 ) +3 E ( X 3 )−4 E ( X 4 ) −E(X ¿¿ 5)¿


¿ μ , es insesgado

( )
5

∑ X1
( )
5
1 1 49
V ∑ X 1 = 5 ( 49 )=
i=1
→ V ( μ^ 1) =V =
5 25 i=1 25 25
→ V ( μ^ 2) =V ( X 1 ) + 4 V ( X 2 ) +9 V ( X 3 )−16 V ( X 4 )−V ( X ¿¿ 5)¿

¿ 49+ 4 ( X 2 ) +9(49)−16 ( 49 ) −49 ¿=1519

El estimador más eficiente es μ^ 2, ya que es insesgado y su


varianza es la mínima

b) Obtener los pesos medios estimados a partir de la


muestra (125, 135, 130, 137, 142).

Para μ^ 1
125+ 135+130+137+142
→ μ^ 1= =133,8
5

→ μ^ 2=125+2(135)+3 ( 130 )−4 ( 137 )−142=95

Ejercicio 11. En una distribución N ( μ ; σ 2), se estima la media


poblacional μ mediante la media de una muestra aleatoria
simple (X 1 X 2 , … , X n ) El estimador es insesgado y su varianza σ
2 /n demostrar que la media muestral es un estimador
eficiente (use la Cota de Cramer Rao).
Solución:
V¿

Formula:
1
CRR=

[ ]
2
∂ lnf ( x , μ )
nE
∂μ

Densidad Poblacional:
2
− ( x− μ)
1 2σ
2

f ( x , μ )= e
σ √2

(√ )
2
− ( x−μ )
1 2
lnf ( x , μ )=ln e 2σ
σ 2
2
1 ( x−μ )
lnf ( x , μ )=−lnσ − ln 2 π −
2 2σ2

Derivamos:
∂lnf ( x , μ ) −1
= 2 [−2 ( x−μ ) ]
∂μ 2σ
∂lnf ( x , μ ) ( x−μ)
=
∂μ σ
2

( ∂μ )
∂ lnf ( x , μ ) 2 ( x−μ )2
=
σ4

Esperanza:

[ ] [ ]
2 2
∂ lnf ( x , μ ) ( x−μ )
E =E
∂μ σ
4

[ ]
2
∂ lnf ( x , μ ) σ2
E = 4
∂μ σ

[ ]
2
∂ lnf ( x , μ ) 1
E = 2
∂μ σ

Sustituyendo:
1
CRR=

[ ]
2
∂ lnf ( x , μ )
nE
∂μ
1
CRR=
n∗1
σ2
2
σ
CRR=
n

V ( θ^ ) =CCR , concluyendo que la media muestral es un estimador eficiente .

Ejercicio 12
Calcular el estimador máximo verosímil del parámetro ‘a’ de las
funciones:
a) f ( x , a )=a2 x e−ax siendo x ≥ 0 en muestras aleatorias simples de
tamaño n
L=L ( x 1 , x 2 , … x n , a )=( a e
2 −ax
) . ( a 2 e−a x ) … ( a2 e−a x )=a 2 n e−a ∑ xi
2 n

Logaritmo neperiano:
lnl=log( a2 n e−a ∑ xi)
n
lnl=2 n ln a−a ∑ xi
i=i

→ derivando:
n
∂(lnl) 2n
= −∑ xi=0
∂a a i=i
2n 2
a^ = =
∑ xi x

b) f ( x , a )=a2 x e−ax siendo x ≥ 0 a> 0 en muestras aleatorias simples de


tamaño 2
L=L ( x 1 , x 2 , a )=( a e−ax ) . ( a e−a x ) =a2 e−a (x + x )
2 1 2

Logaritmo neperiano:
2 −a(x 1+ x 2)
lnl=log ( a e )
lnl=2 ln a−a( x 1+ x2 )
→ derivando:
∂(lnl) 2
= −( x 1 + x 2)=0
∂a a
2 1
a^ = =
x1 + x2 x

Ejercicio 13: Sea una población definida por:


1−θ θ+ λ 1− λ
P ( Χ=−1 )= , P ( Χ =0 )= , P ( Χ=1 )=
2 2 2

Donde 0<θ <1 y 0< λ<1.Estimar los parámetros θ y λpor el método


de los momentos , estudiando si son insesgados.

( 1−θ
α 1=μ=E ( x )=∑ X i P ( X =X i ) =(−1 )
2 )
+ (0)(
2 )
θ+ λ
+ (1 ) (
2 )
1−λ

∑ xi P ( X= X )=( θ−λ
2 ) i

α 2=E ( x )=∑ X P ( X =X )= (−1 ) (


2 )
+( 0 ) (
2 )
+( 1 ) (
2 )
2 2 1−θ 2 θ+ λ 1−λ
2 2
i i

∑ X P ( X =X ) =( 2−θ−λ
2
i
2 )
i
→ momentos muestrañes:

α 1=a1 → ( θ−λ2 )= Χ → θ− λ=2 Χ


2−θ−λ
α 2=a2 → =a2 →−θ−λ=2a 2−2
2

θ−λ=2 Χ ^λ=1−a2−Χ

−θ−λ=2 a2−2
^
θ=1−a 2+ Χ

Ejercicio 14. Considere la siguiente función de densidad:

{
−x
−1
f ( x ,θ )= θ e θ x> 0
0 otro lugar

Considerando una muestra aleatoria de tamaño n:


a) Hallar el estimador máximo verosímil del parámetro θ.
Solución:
n −x i

L (θ )=∏ θ−i e θ

i=1

−1
−n θ
∑ xi
L (θ )=θ ∗e

( )
−1
−n ∑ xi
ln ( L ( θ ))=ln θ ∗e θ
−1
θ ∑ i
ln ( L ( θ ) )=ln ( θ )∗ln ⁡(e ¿ ¿
−n
x )¿

( θ )∗1
ln ( L ( θ ) )=−n ln
θ
∑ xi
( θ )∗∑ x i
ln ( L ( θ ) )=−n ln
θ
Derivamos:
ln (θ) −n ∑ x i
= + 2 =0
∂θ θ θ

∑ xi = n
2
θ θ

∑ xi = θ2
n θ

∑ xi =θ
n

b) Pruebe si el estimador es insesgado y consistente.



x=E ( x )=∫ x f ( x ) dx
0

x=E ( x )=∫ x ( θ ) dx
∞ −x
−1 θ
e
0

[ ( )]−[ 1θ ( −θ ) ]
−1 −1
1 2 2
x=E ( x )= −θ e θ −θ e θ
θ
−1 −1
θ θ
x=E ( x )=−θ−e −θ e
−1
x=E ( x )=−θ+ e θ (−1−θ)
−1
^
θ=e x
( 1−x ) −x
−1
E ( θ^ ) =E[e ¿ ¿ ( 1−x )−x ]¿
x

[ ]
−1
E ( θ^ ) =E ( x )+ −e x (−1−x )

[ ]
−1 −1
E ( θ^ ) =e x
( 1−x )−x+ −e (−1−x ) x

( 1−θ )−θ+ [ −e (−1−θ ) ]


−1 −1
E ( θ^ ) =e θ θ

E (−x )=−θ

E ( x )=θ ….. Si es insesgado.


EJERCICIO 15:
En relación al Ejercicio 14, con respecto al estimador del
parámetro θ podría afirmarse que es eficiente según Cramer
Rao?
SOLUCIÓN:
1
V ( θ^ ) ≥
E¿¿

1
E¿¿
1 1
¿ =

[{ }] [ ( −θn+ ∑ x i)
]
2 2
−θn+ ∑ x i
E E
θ2 θ
4

1 1
¿ =

[ ] n E ( θ )−2 nθE ( ∑ x i ) + E ( ∑ xi )
2
θ n −2θn ∑ x i+ ( ∑ x i )
2 2 2 2 2

E
θ4 θ4

1 1 1
¿ 2 2 2 2
= 2 2 2= 2 2
n θ −2θ +θ n θ −θ θ ( n −1)
4 4
θ θ θ4
2
1 θ
2
= 2
(n −1) ( n −1)
2
θ

Luego:
2 2
θ θ
≥ 2 (SI CUMPLE)
n ( n −1 )

Ejercicio 16
Dada una variable que sigue una distribución normal, tomamos
dos muestras aleatorias simples de tamaños
n y m: (X 1 , X 2 , … , X n ) ;(Y 1 ,Y 2 , … , Y m)

Definimos el siguiente estimador de la media poblacional:


θ=a X +b Y

a) ¿Qué condiciones deben cumplir a y b para el estimador sea


insesgado?
E [ θ^ ]= E [ a x +b y ]

E [ θ^ ]=aE [ x ] +bE [ y ]

1
n [ 1
E [ θ^ ]=aE ∑ xi +bE ∑ xi
n ] [ ]
1 1
E [ θ^ ]=a .
n∑
E ( xi) +b . ∑ E ( yi )
n
1 1
E [ θ^ ]=a . ( nμ ) +b . (mμ)
n n

E [ θ^ ] =aμ+bμ

Para que el θ^ sea insesgado:


a=1
¿ 1. μ+ 0 μ
b=0
¿ μ → si es insesgado

b) ¿Y para que además la varianza del estimador sea mínima?

[ θ^ ]=V [ a x +b y ]

[ θ^ ]=a2 V [ 1
n
∑ 2
xi +b V
1
m ] [
∑ yi ]
[ θ^ ]=a2 . 12 ∑ V ( xi)+b 2 1
2∑
V ( yi)
n m

[ θ^ ]=a2 . 12 n σ 2 +b2 1
2

2

n m
2 2
[ θ^ ]= a b 2
σ + σ
2
n m
2 2 2
[ θ^ ]= σ (a m+ b n)
n .m

Para que sea mínima el estimador θ^ puede tomar valores 1 para


ayb
σ 2 (m+n)
n.m

Ejercicio 17. Considere la siguiente función de densidad:


{
−θ
f ( x ,θ )= ( 1−θ ) x 0< x <1
0 otro lugar

Considerando una muestra aleatoria de tamaño n:


a) Hallar el estimador θ por el método de momentos.
Solución:
E ( x )=x
1
E ( x )=∫ x [ ( 1−θ ) x ] dx
−θ

1
E ( x )=∫ x [ ( x −x θ ) ] dx
−θ −θ

1−θ
E ( x )=
−θ+2

^ 1−x
θ=
−x +2

b) Hallar el estimador de θ por el método de la máxima


verosimilitud.

L (θ )=L ( x , θ )=∏ f ( x i , θ)
n
L (θ )=L ( x , θ )=∏ ( 1−θ ) x −θ
i=0

L (θ )=L ( x , θ )= ( 1−θ )n ∑ x−θ


i

ln ( L ( θ ) )=ln ( ( 1−θ )
n
∑ x −θ
i )

n
ln ( L ( θ ) )=n ln ( 1−θ ) −θ ∑ ln xi =0
i =0

∂ ln ( L ( θ ) ) n
n

= −∑ ln x i=0
∂θ 1−θ i=0
n
n
=∑ ln x i
1−θ i=0
n
n
=∑ ln x i
1−θ^ i=0

^ n
θ=1− n

∑ ln x i
i=0

Ejercicio 18: Los saltamontes de una región africana se


caracterizan por tener una longitud media de 2cm pudiendo
admitirse una distribución normal para la longitud de tales
ortópteros. Se toma una muestra aleatoria de 20 de ellos, sus
longitudes fueron: 1.90, 1.85, 2.01, 1.95, 2.05, 2.00, 1.97, 2.02,
1.89, 2.01 2.05, 1.95, 1.87, 2.05, 1.97, 1.85, 2.02, 1.95, 1.98, 2.05
Utilizando estos datos, determinar la estimación de máxima
verosimilitud de la desviación típica poblacional σ .

Solución :
λ N ( μ , σ ) → X N ( 2 ,σ )
1 ° ¿ L ( μ ,σ )=P ( X 1 , μ , σ ) . P ( X 2 , μ , σ ) . P ( X 3 , μ , σ ) … … ... P ( X 20 , μ , σ )

( ). ( ). ( ) ………. ( )
2 2 2 2
−1 X 1−μ1 −1 X 2−μ1 −1 X3− μ1 −1 X 20 −μ1
1 2 6 1 2 6 1 2 6 1 2 6
¿ e e e e
σ √2 π σ √2 π σ √2 π σ √2 π

[∑ ( ) ]
2
−1 X i− μ
1 2 σ
¿ 20
e
σ ( √2 π )
20

( )
2
1 1 X i −μ
2 °¿ ln [ L ( μ , σ ) ]=ln 20

2
∑ σ
σ (√ 2 π )
20

( )
n=20 2
1 X i−μ
ln [ L ( μ ,σ ) ]=−10 ln (2σπ )−
2
∑ σ
i=1

2
∂ −10 ( X i−2 )
3 °¿ ln ( σ )= +∑
∂σ σ σ3
2
10
n=20
( X i−2 )
→− + ∑ =0
σ^ i=1 σ^
3

2
n=20
( X i−2 )
σ^ = ∑
2

i=1 10


n=20
1
σ^ =
10 ∑ ( X i−2 )2=0.18777
i=1

También podría gustarte