Documentos de Académico
Documentos de Profesional
Documentos de Cultura
2 - Estimacion Puntual
2 - Estimacion Puntual
2- Estimacin puntual
2. 1 Introduccin
Supongamos la siguiente situacin: en una fbrica se producen artculos, el inters est en la produccin de un da, especficamente, de todos los artculos producidos en un da nos interesa una caracterstica determinada, si el artculo es o no defectuoso. Sea p la proporcin de artculos defectuosos en
la poblacin, es decir en la produccin de un da.
Tomamos una muestra de 25 artculos, podemos definir la v.a. X: nmero de artculos defectuosos
en la muestra, y podemos asumir que X ~ B(25, p) .
En Probabilidades se conocan todos los datos sobre la v.a. X, es decir conocamos p. De esa forma
podamos responder preguntas como: cul es la probabilidad que entre los 25 artculos halla 5 defectuosos?. Si, por ejemplo, p 0.1 entonces calculbamos P( X 5) donde X ~ B(25, 0.1) .
En Estadstica desconocemos las caractersticas de X total o parcialmente, y a partir de la muestra
de 25 artculos tratamos de inferir informacin sobre la distribucin de X, o dicho de otra forma tratamos de inferir informacin sobre la poblacin.
Por ejemplo, en estadstica sabremos que X tiene distribucin binomial pero desconocemos p, y a
partir de la muestra de 25 artculos trataremos de hallar informacin sobre p.
En Estadstica nos haremos preguntas tales como: si en la muestra de 25 artculos se encontraron 5
defectuosos, ese hecho me permite inferir que el verdadero p es 0.1?.
El campo de la inferencia estadstica est formado por los mtodos utilizados para tomar decisiones
o para obtener conclusiones sobre el o los parmetros de una poblacin. Estos mtodos utilizan la
informacin contenida en una muestra de la poblacin para obtener conclusiones.
La inferencia estadstica puede dividirse en dos grandes reas: estimacin de parmetros y pruebas
de hiptesis.
2.2 Muestreo aleatorio
En muchos problemas estadsticos es necesario utilizar una muestra de observaciones tomadas de la
poblacin de inters con objeto de obtener conclusiones sobre ella. A continuacin se presenta la
definicin de algunos trminos
Una poblacin est formada por la totalidad de las observaciones en las cuales se tiene cierto
inters
En muchos problemas de inferencia estadstica es poco prctico o imposible, observar toda la poblacin, en ese caso se toma una parte o subconjunto de la poblacin
Una muestra es un subconjunto de observaciones seleccionada de una poblacin
Para que las inferencias sean vlidas, la muestra debe ser representativa de la poblacin. Se selecciona una muestra aleatoria como el resultado de un mecanismo aleatorio. En consecuencia, la seleccin
de una muestra es un experimento aleatorio, y cada observacin de la muestra es el valor observado
de una variable aleatoria. Las observaciones en la poblacin determinan la distribucin de probabilidad de la variable aleatoria.
Para definir muestra aleatoria, sea X la v.a. que representa el resultado de tomar una observacin de
la poblacin. Sea f (x) la f.d.p. de la v.a. X. supongamos que cada observacin en la muestra se obtiene de manera independiente, bajo las mismas condiciones. Es decir, las observaciones de la mues21
Estimacin puntual
tra se obtienen al observar X de manera independiente bajo condiciones que no cambian, digamos n
veces.
Sea X i la variable aleatoria que representa la i-sima observacin. Entonces X 1 , X 2 ,..., X n constituyen una muestra aleatoria, donde los valores numricos obtenidos son x1 , x2 ,..., xn . Las variables
aleatorias en una muestra aleatoria son independientes, con la misma distribucin de probabilidad
f(x) debido a que cada observacin se obtiene bajo las mismas condiciones. Es decir las funciones de
densidad marginales de X 1 , X 2 ,..., X n son todas iguales a f(x) y por independencia, la distribucin de
probabilidad conjunta de la muestra aleatoria es el producto de las marginales f ( x1 ) f ( x2 )... f ( xn )
Las variables aleatorias X 1 , X 2 ,..., X n constituyen una muestra aleatoria de tamao n de una
v.a. X si X 1 , X 2 ,..., X n son independientes idnticamente distribuidas
El propsito de tomar una muestra aleatoria es obtener informacin sobre los parmetros desconocidos de la poblacin. Por ejemplo, se desea alcanzar una conclusin acerca de la proporcin de artculos defectuosos en la produccin diaria de una fbrica. Sea p la proporcin de artculos defectuosos
en la poblacin, para hacer una inferencia con respecto a p, se selecciona una muestra aleatoria (de
un tamao apropiado) y se utiliza la proporcin observada de artculos defectuosos en la muestra
para estimar p.
La proporcin de la muestra p se calcula dividiendo el nmero de artculos defectuosos en la muestra por el nmero total de artculos de la muestra. Entonces p es una funcin de los valores observados en la muestra aleatoria. Como es posible obtener muchas muestras aleatorias de una poblacin,
el valor de p cambiar de una a otra. Es decir p es una variable aleatoria. Esta variable aleatoria se
conoce como estadstico.
Un estadstico es cualquier funcin de la muestra aleatoria
Estadsticos usuales
Sea X 1 , X 2 ,..., X n una muestra aleatoria de una v.a. X donde E (X ) y V ( X ) 2
Si desconocemos un estadstico que se utiliza para estimar ese parmetro es la media o promedio
1 n
muestral X X i
n i 1
Anlogamente si se desconoce 2 un estadstico usado para tener alguna informacin sobre ese pa1 n
rmetro es la varianza muestral que se define como S 2
X i X 2
n 1 i 1
1 n
X i X 2
Otro estadstico es la desviacin estndar muestral S
n 1 i 1
Como un estadstico es una variable aleatoria, ste tiene una distribucin de probabilidad, esperanza
y varianza.
Una aplicacin de los estadsticos es obtener estimaciones puntuales de los parmetros desconocidos de una distribucin. Por ejemplo como se dijo antes se suelen estimar la media y la varianza de
una poblacin.
22
Estimacin puntual
Cuando un estadstico se utiliza para estimar un parmetro desconocido se lo llama estimador puntual. Es habitual simbolizar en forma genrica a un parmetro con la letra y al estadstico que se
.
utiliza como estimador puntual de , simbolizarlo con
h X , X ,..., X
es una funcin de la muestra aleatoria:
Por lo tanto
1
2
n
es
Al medir la muestra aleatoria se obtienen x , x ,..., x , y entonces el valor que toma
1
n 1 i 1
Otro parmetro que a menudo es necesario estimar es la proporcin p de objetos de una poblacin
que cumplen una determinada caracterstica.
1 n
En este caso el estimador puntual de p sera p X i donde
n i 1
1 si la sima observaci n tiene la caracters tica de inters
i 1,2,..., n
Xi
0
caso contrario
1 n
Por lo tanto p X i es la proporcin de objetos en la muestra cumplen la caracterstica de inten i 1
rs
Puede ocurrir que se tenga ms de un estimador para un parmetro, por ejemplo para estimar la media muestral se pueden considerar el promedio muestral, o tambin la semisuma entre X 1 y X n , es
X Xn
decir 1
. En estos casos necesitamos de algn criterio para decidir cul es mejor estima2
dor de .
. Anotamos b
E
se conoce como sesgo de estimador
La diferencia E
23
Estimacin puntual
1 n
1 n
1 n
E X E X i E X i E X i .
n i 1 n i 1 n i 1
Pero, tratndose de las componentes de una muestra aleatoria es:
EX i EX
EX
i 1,2,...,n .
Luego:
1
n .
n
2- Sea X una variable aleatoria asociada con alguna caracterstica de los individuos de una poblacin
2
1 n
2
2
y sean E X y V X
. Sea S
X i X la varianza muestral (con
n 1 i 1
n
n 1 i 1
pues:
2
2
1 n
.
ES E
X
E
X
i
i
n 1
1
i 1
i 1
i 1
i 1
X
2
i 1
n
n
2
2
2
X i 2X i X X X i 2 X
i 1
i 1
X i 2 X n X n X
n
i 1
X
2
i 1
i 1
n X
2n X n X .
2
Esto es:
24
Estimacin puntual
X
i 1
X
2
i 1
n X
2
Entonces:
E S2
1 n
E Xi X
n 1 i 1
n 11 E X
2
i 1
2
2
n X
2
1
2
EX i nE X
n 1 i 1
n
2
1 2
2
1
1 n
n n
,
V X i nE X E X
V X i nV X
n
n 1 i 1
n 1 i 1
n 1
V X i V X 2
i 1,2,...,n y que
1 n
Xi X
n i 1
X
n 1
n
1
n 1 2
i 1
Xi X
n i 1
n
n 1
n
n 1 2
n 1 2 n 1
Por lo tanto E 2 E
S
E S2
2
n
n
n
2
2
Es decir no es un estimador insesgado de , es sesgado, y su sesgo es
1 2
n 1 2
2
b 2 E 2 2
n
n
Como el sesgo es negativo el estimador tiende a subestimar el valor de verdadero parmetro
25
Estimacin puntual
Distribucin de
1
0.3
0.2
Distribucin de
2
0.1
-15
-10
-5
10
15
2
X Xn
es tambin un estimador insesgado de
2 1
2
Cul de los dos estimadores es mejor?
Calculamos la varianza de cada uno utilizando las propiedades de la varianza.
1 n
Ya sabemos cul es la varianza de X X i (se la hall para T.C.L.):
n i 1
n
n
1
1
1 n
V X V X i 2 V X i 2 V X i ,
n i 1 n i 1 n i 1
donde en la ltima igualdad hemos tenido en cuenta que, por tratarse de una muestra aleatoria, las
X i con i=1,2,,n son variables aleatorias independientes y, en consecuencia, la varianza de la suma
de ellas es la suma de las varianzas. Si tenemos en cuenta que adems todas tienen la misma distribucin que X y por lo tanto la misma varianza:
V X i V X 2
V X
i 1,2,...,n , tenemos
1
2
2
n
.
n2
n
X1 X n
:
2
26
Estimacin puntual
1 2
2
X Xn 1
2
V 2 V 1
V
(
X
)
V
(
X
)
1
2
2
4
2
4
Vemos que si n 2 entonces V (1 ) V ( 2 ) . Por lo tanto si n 2 es mejor estimador 1
y
son dos estimadores de un parmetro y alguno de ellos no es
Supongamos ahora que
1
2
insesgado.
A veces es necesario utilizar un estimador sesgado. En esos casos puede ser importante el error cuadrtico medio del estimador.
V
b
ECM
E
2 . Sumamos y restamos el nmero E
:
Dem.) Por definicin ECM
E
E
E
2 , y desarrollamos el cuadrado:
ECM
E 2 E E
E
E
E
2 E
E
ECM
E
2 E
2 2 E
E
E
V
b
0
2
b
con respecto a
se define como ECM 1
La eficiencia relativa de
2
1
ECM
2
Observaciones:
es un estimador insesgado de , entonces ECM
V
1- Si
27
Estimacin puntual
2- A veces es preferible utilizar estimadores sesgados que estimadores insesgados, si es que tienen
un error cuadrtico medio menor.
En el error cuadrtico medio se consideran tanto la varianza como el sesgo del estimador.
y
y
son dos estimadores de un parmetro , tales que E
; E
Si
2
1
2
1
V V , habra que calcular el error cuadrtico medio de cada uno, y tomar el que tenga me-
0.4
Distribucin de
2
0.3
0.2
Distribucin de
1
0.1
-7.5
-5
-2.5
2.5
7.5
Ejemplo:
Supngase que
,
2
, V ( ) 10 , V (
2 4 . Haga una comparacin
E
; E
) 6 y E
E
3
1
1
2
2
3
V
6 pues
es insesgado
ECM
E
4 es dato
ECM
es el mejor estimador de los tres dados porque tiene menor error cuadrtico
En consecuencia
3
medio.
0
lim P
n
n
para todo 0
Observacin:
28
Estimacin puntual
Este tipo de convergencia, que involucra a una sucesin de variables aleatorias, se llama convergencia en probabilidad y es la misma que consideramos en relacin a la ley de los grandes nmeros
P
.
Suele escribirse tambin
n
Este tipo de convergencia debe distinguirse de la considerada en relacin al teorema central del lmite. En este ltimo caso tenamos una sucesin de distribuciones: FZ n z PZ n z y se considera
Dem.)
Utilizamos la desigualdad de Chebyshev 0 :
E n
P
n
2
1 V
b
2
ECM
n
n
n
2
y lim V
0 , vemos que
Entonces, al tomar el lmite lim y teniendo presente que lim E
n
n
0 0 , es decir
es un estimador convergente de .
lim P
n
n
n
Ejemplo:
Sea X una variable aleatoria que describe alguna caracterstica numrica de los individuos de una
poblacin y sean E X y 2 V X la esperanza poblacional y la varianza poblacional, res1 n
pectivamente. Sea X X i la esperanza muestral basada en una muestra aleatoria
n i 1
X1 , X 2 ,..., X n . Entonces X es un estimador consistente de la esperanza poblacional E X .
Sabemos que
a) E X E X
V X
n
n
n
La propiedad a) ya me dice que X es un estimador insesgado de E X .
Por otra parte si a) vale para todo n, tambin vale en particular en el lmite n :
lim E X E X .
b) V X
29
Estimacin puntual
1 n
X i . Entonces
n i 1
lim P X 0
n
x p x
k E X k
x i R X
x f xdx
k E X k
k 0,1,2,...
Si X es discreta
k 0,1,2,...
Si X es continua,
Mk
1 n k
Xi
n i 1
k 0,1,2,... ,
lim P M k k 0
n
k 0,1,2,... .
De acuerdo con esto parece razonable estimar los momentos poblacionales de orden k mediante los
momentos muestrales de orden k: k M k k 0,1,2,... .
30
Estimacin puntual
k E X k
k E X
x px , ,
,..., r
k 1,2,...,r
Si X es discreta
x f x, , ,..., dx
k 1,2,...,r
Si X es continua,
xi RX
y sean
1 n k
X i k 1,2,...,r los r primeros momentos muestrales para una muestra de tamao n
n i 1
X1 , X 2 ,..., X n . Entonces el mtodo de los momentos consiste en plantear el sistema de ecuaciones:
Mk
M1
M2
Mr
Es decir
1 n 1
x
p
x
,
,...,
Xi
i
1
2
r
i
n i 1
xi R X
n
x 2 p x , , ,..., 1 X 2
i
i
1
2
r
i
n i 1
xiRX
1 n r
x
p
x
,
,...,
Xi
i
1
2
r
i
n i 1
xiRX
Si X es discreta,
1 n 1
xf
x
,
,...,
dx
Xi
1
2
r
n
i
1
2
1 n 2
x
f
x
,
,...,
dx
Xi
1
2
r
n i 1
r
1 n r
x
f
x
,
,...,
dx
Xi
1
2
r
n i 1
Si X es continua.
31
Estimacin puntual
Resolviendo estos sistema de ecuaciones para los parmetros desconocidos 1 , 2 ,..., r en funcin de
la muestra aleatoria X1 , X 2 ,..., X n obtenemos los estimadores:
H X , X ,..., X
1
1
1
2
n
2 H 2 X 1 , X 2 ,..., X n
r H r X 1 , X 2 ,..., X n
Observacin:
En la forma que presentamos aqu el mtodo necesitamos conocer la forma de la fdp poblacional, por
lo tanto estamos frente a un caso de estimacin puntual paramtrica.
Ejemplos:
1- Sea X una variable aleatoria. Supongamos que X tiene distribucin gama con parmetros y :
X , , es decir su fdp est dada por:
1 x 1 x
x0
e
f ( x )
dems valores
0
con 0 ; 0 y x 1e x dx .
0
Sea X 1 , X 2 ,..., X n una muestra aleatoria de tamao n. Deseamos calcular los estimadores de y
dados por el mtodo de los momentos.
Solucin:
Como tenemos dos parmetros desconocidos a estimar, planteamos el sistema de ecuaciones:
1 M 1
2 M 2
Se puede probar que
1 .
2 2 . 2 . 2
Tenemos, entonces, el sistema de ecuaciones
1 n
Xi
n i 1
n
2 . 2 . 2 1 X i2
n i 1
. X
1 n 2
2
2
2
Xi
n i 1
32
Estimacin puntual
1 n
2
Xi X 2
n
1
n
2
Reemplazando en la segunda ecuacin: X 2 X X i
i 1
n i 1
X
Y despejando de la primera ecuacin y reemplazando la expresin hallada para
nX 2
n
X i X 2
i 1
X i X 2
i 1
nX
2- Sea X 1 , X 2 ,..., X n una muestra aleatoria de tamao n de una v.a. X donde X ~ U 0, , desconocido. Hallar el estimador de por el mtodo de los momentos.
Solucin:
Planteamos la ecuacin: 1 M 1
0
2X
Sabemos que 1 E ( X )
. Entonces X
2
2
2
2 X es un estimador consistente de , pues
Observacin: notar que el estimador
2
2
E 2 X 2 E X 2
V 2 X 4V X 4 0 0
y
V
E
12n
3n n
2
1 M 1
2 M 2
1 n
2
E X 2 Xi
n i 1
X
X
n
n
1
1
2
2
2 2
2
Xi X 2
X
n i 1
n i 1
Estimacin puntual
1 n
2
X i . Notar que g ( x) x es inyectiva para los reales positivos.
n i 1
34
Estimacin puntual
Ejemplos:
1- Sea X1 , X 2 ,..., X n una muestra aleatoria de una v.a. X~ B(1, p)
Por ejemplo, se eligen al azar n objetos de una lnea de produccin, y cada uno se clasifica como
defectuoso (en cuyo caso xi 1 ) o no defectuoso (en cuyo caso xi 0 ).
Entonces p P( X i 1) , es decir es la verdadera proporcin de objetos defectuosos en la produccin
total.
Queremos hallar el EMV de p
Solucin:
1
Si X~ B(1, p) entonces P( X k ) p k (1 p)1k
k
Planteamos la funcin de verosimilitud
k 0,1
1 x1
x2
1 p 1 x
...p
xn
1 p 1 x
xi
n xi
Lx1 , x2 ,..., xn ; p p i 1 1 p
i 1
Para maximizar la funcin de verosimilitud y facilitar los clculos tomamos el logaritmo natural de L
Pues maximizar L es equivalente a maximizar ln(L) y al tomar logaritmos transformamos productos
en sumas.
Entonces
n
n
ln Lx1 , x2 ,..., xn ; p xi ln p n xi ln 1 p
i 1
i 1
ln Lx1 , x2 ,..., xn ; p
xi
i 1
n xi
i 1
1 p
de donde despejando p
n
x
i 1
1 n
Xi
n i 1
2- El tiempo de fallar T de una componente tiene una distribucin exponencial con parmetro :
T Exp , es decir la fdp es
e t
0t
f t ;
0 dems valores
Estimacin puntual
E T 1
1
y V T 2 , respectivamente.
Se desea calcular el estimador de mxima verosimilitud del parmetro para una muestra de tamao n.
Solucin:
La funcin de probabilidad es:
Lt1 , t 2 ,..., t n ; f t1 ; f t 2 ; ... f t n ; e t1 e t2 ... e tn ,
ti
i 1
ln Lt1 , t 2 ,..., t n ; n ln ti
n
i 1
ln Lt1 , t 2 ,..., t n ;
1 n
n Ti 0
i 1
de donde podemos despejar :
t ,
t
i 1
entonces el estimador de es
n
n
T
i 1
El mtodo de mxima verosimilitud presenta, algunas veces, dificultades para maximizar la funcin
d
de verosimilitud debido a que la ecuacin obtenida a partir de
L( ) 0 no resulta fcil de resold
ver. O tambin puede ocurrir que los mtodos de clculo para maximizar L( ) no son aplicables.
Por ejemplo:
Sea X 1 , X 2 ,..., X n una muestra aleatoria de tamao n de una v.a. X donde X ~ U 0, , desconocido. Hallar el estimador de por el mtodo mxima verosimilitud.
Solucin:
La f.d.p. de X es
1
si 0 x
f ( x)
0 caso contrario
36
Estimacin puntual
d n
n
n1 que es siempre menor que cero. Por lo
d
tanto la funcin de verosimilitud es una funcin decreciente para todos los max xi
L( )
max xi
Vemos que donde la funcin tiene el mximo hay una discontinuidad no evitable.
max x
Por lo tanto
i
i
i 1,2,..k
Ejemplo:
La variable aleatoria X tiene distribucin N , 2 con y 2 ambos parmetros desconocidos para
los cuales se desea encontrar los estimadores mxima verosimilitud. La fdp es
1 x
1
x ,
f x ; , 2
e 2
2
La funcin de verosimilitud para una muestra aleatoria de tamao n es
L x1 , x2 ,..., xn ; , 2
1 x1
n
2 2
1 x2
e 2
2
1
e 2
2
1 n xi
2 i 1
1 xn
1
...
e 2
2
Luego
37
Estimacin puntual
n
1 n x
ln L x1 , x2 ,..., xn ; , ln 2 2 i
2
2 i 1
y el sistema de ecuaciones de verosimilitud queda:
n
ln L x1 , x2 ,..., xn ; , 2
xi
i 1
2
2
n
ln L x1 , x2 ,..., xn ; , n 1 xi 0
2
2 2 2 i 1 4
1 n
xi x
n i 1
n
n
2 1 xi 2 1 xi x 2
n i 1
n i 1
Entonces los estimadores mxima verosimilitud de y 2 son
1 n
Xi X
n i 1
n
2 1 X i X 2
n i 1
2- Bajo condiciones bastantes generales se puede probar que los EMV son asintticamente consistentes
3- Bajo condiciones bastantes generales se puede probar que los EMV asintticamente tienen varianza mnima
4-Los EMV cumplen la propiedad de invarianza es decir:
es un EMV de un parmetro , el EMV de g es g
, si g (x) es una funcin inyectiva.
si
Ejemplos:
1- Si consideramos nuevamente la situacin considerada en el Ejemplo 2, donde tenamos una v.a. T
cuya distribucin es una exponencial: T Exp , entonces, si queremos el EMV de la varianza poblacional, podemos calcularlo recordando que V T 1 2 , es decir, V T g 1 2 . Vimos que
n
n
T
i 1
1
1
. Por lo tanto el EMV de la varianza es 2 2 .
T
38
Estimacin puntual
1 n
Xi
n i 1
Se selecciona una muestra aleatoria de n cascos para ciclistas fabricados por cierta compaa.
Sea X : el nmero entre los n que tienen defectos , y p = P(el casco tiene defecto).
Supongamos que solo se observa X ( el nmero de cascos con defectos).
3
Si n = 20 y x = 3, es la estimacin de p es p
20
5
El E.M.V. de la probabilidad (1-p) , de que ninguno de los siguientes cinco cascos que se examinen
39
Estimacin puntual
Prctica
Estimacin puntual
Mtodo de mxima verosimilitud - Mtodo de momentos
1) Suponga que se tiene una muestra aleatoria de tamao 2n tomada de una poblacin X , que
E (X ) y V ( X ) 2 . Sean
1 2n
1 n
Xi
X2
Xi
y
2n i 1
n i 1
Dos estimadores de . Cul es el mejor estimador de ?. Explique su eleccin.
X1
2) Sea X 1 , X 2 ,........, X 7 una muestra aleatoria de una poblacin que tiene media y varianza 2 .
Considere los siguientes estimadores de :
3X 1 X 6 X 4
X 1 X 2 ...... X 7
y
1
2
7
2
a) Alguno de estos estimadores es insesgado?
y
.
b) Hallar el ECM de
1
2
c) Cul estimador es el mejor?. En qu sentido es mejor?
3) Sea X 1 , X 2 ,........, X n una muestra aleatoria de tamao n.
a) Demuestre que X 2 es un estimador sesgado de 2 .
b) Determine la magnitud del sesgo de este estimador.
c) Qu sucede con el sesgo a medida que aumenta el tamao n de la muestra?.
4) Considere una muestra aleatoria de una distribucin continua con densidad
(1 x)
si 3 x 3
f ( x)
6
0 caso contrario
a) Es
1
3
b) Hallar ECM () . Es
1
3
Estimacin puntual
Sea X = el nmero entre los n que tienen defectos y p = P(el casco tiene defecto). Supongamos
que solo se observa X ( el nmero de cascos con defectos).
b1) Si n = 20 y x = 3, cul es la estimacin de p?
b2) Si n = 20 y x = 3, cul es el E.M.V. de la probabilidad (1-p)5, de que ninguno de los siguientes cinco cascos que se examinen tenga defectos?
7) Denotemos por X la proporcin de tiempo asignado que un estudiante seleccionado al azar emplea trabajando en cierta prueba de actitud, y supongamos que la f.d.p. de X es:
1x , 0 x 1
donde 1
f ( x)
c.c
0,
Una muestra aleatoria de diez estudiantes produce la siguiente informacin:
0.92, 0.79, 0.90, 0.65, 0.86, 0.47, 0.73, 0.97, 0.94, 0.77.
a) Utilice el mtodo de los momentos para obtener un estimador de y luego calcule la estimacin para esta informacin.
b) Obtenga el E.M.V. de y luego calcule la estimacin para la informacin dada.
8) Sea X 1 , X 2 ,........, X n una muestra aleatoria de una v.a. N ( , 2 ) .
a) Hallar los estimadores de y por el mtodo de momentos.
b) Hallar los estimadores de y por el mtodo de mxima verosimilitud.
c) Se determina la resistencia al corte de cada una de diez soldaduras elctricas por puntos de
prueba, dando los siguientes datos (lb/plg2):
392, 376, 401, 367, 389, 362, 409, 415, 358, 375.
Si se supone que la resistencia al corte esta normalmente distribuida , estime el verdadero
promedio de resistencia al corte y desviacin estndar de resistencia al corte usando el mtodo
de mxima verosimilitud y el mtodo de momentos.
9) En una prueba 294 de 300 aisladores cermicos soportaron cierto choque trmico.
a) Obtenga el estimador y la estimacin de mxima verosimilitud de la probabilidad de que un
aislante cermico sobrevivir a un choque trmico.
b) Suponga que un dispositivo contiene tres aislantes cermicos y todos deben sobrevivir al choque, con la finalidad de que el dispositivo funcione. Encuentre el estimador y la estimacin de
mxima verosimilitud de la probabilidad de que los tres sobrevivirn a un choque trmico.
10) Se determina la duracin en horas de cada una de diez lamparitas elctricas, dando los siguien
tes datos:
49.5, 1015, 1009.4, 173.4, 251.6, 315, 1301.4, 732.8, 660.6, 1456.5
a) Si se supone que la duracin en horas de cada lamparita tiene distribucin exponencial, estimar
el parmetro de la distribucin usando el mtodo de mxima verosimilitud.
b) Hallar los estimadores de mxima verosimilitud de la esperanza y la varianza de la duracin en
horas de la lamparita. Qu propiedad utiliza?. Cul sera la estimacin de la esperanza y la
varianza para los datos dados?
c) Supongamos que se decide examinar otra lamparita.
Sea X: duracin en horas de la lamparita.
Utilizar la informacin dada en a) para obtener el EMV de P( X 1400) , y hallar la estimacin
de P( X 1400) .
(Sugerencia: P( X 1400) 1 e 1400 ).
41