Está en la página 1de 5

Estimación puntual.

Esperanza de una variable aleatoria discreta.


i= N
E( X)= ∑ x i⋅P(x i)=μ
i=1

Varianza de una variable aleatoria discreta.


i=N N
E[ xi −E(X )]2 =∑ [ xi −E(X )]2⋅P( x i )=∑ x 2i⋅P(x i)−[ E(X )]2 =σ2
V ( X )=⏟
definición
i=1 ⏟
i=1
cálculo

Es decir: V (X )=σ 2

El método empleado para la estimación puntual es escoger al azar una muestra de tamaño n de una
población f(xi;θ) y luego por cierta fórmula preconcebida llegar a un número, por ejemplo θ^ , que
aceptamos como estimación de θ.

El estimador puntual (o simplemente estimador) es una función de valor real de las n observaciones
de la muestra que no depende de ningún parámetro desconocido. El estimador es una función de n
variables aleatorias independientes.
^
θ(x 1 , x 2 ,…, x n)

Daremos tres ejemplos:


x 1+ x2 +…+ x n 1 n
x̄= = ⋅∑ x i
n n i=1

n
1
s 2= ⋅∑ (x − x̄)2
n−1 i=1 i

m
^ =X i (máximomuestral)

Propiedades de un buen estimador.

1. Ser insesgado. Un estimador es insesgado si su esperanza es igual al parámetro que se


quiere estimar, es decir:
^
E( θ)=θ

Por ejemplo: la media muestral es un estimador insesgado de la media poblacional.

E( x̄ )=μ (debe probarse)

( )
i=n
x
E( x̄ )=E ∑ ni pero n no interviene en la sumatoria, de modo que sale de la misma,
i=1

i=n
1 1
E( x̄ )= ⋅∑ E( x i)= ⋅n⋅μ=μ
n i=1 n
i=n
( x i− x̄)2
s =∑
2
Otro ejemplo: la varianza muestral definida como es un estimador
i=1 n−1
insesgado de la varianza poblacional (debemos probarlo).

[∑ ] { }
n 2 n
(x i− x̄) 1
2
E(s )=E
n−1
=
n−1
⋅E ∑ [(⏟
xi −μ)−( x̄−μ) ]
2
=… (Ec.1a)
i=1 i=1
sumo y resto μ

Desarrollando el cuadrado del binomio:

{∑ }
n
1
…= ⋅E [(x i−μ)2−2( x̄−μ)⋅(xi −μ )+( x̄−μ)2 ]
n−1 i=1

{ }
n n n
1
…=
n−1
⋅E ∑ ( x i−μ )2−2( x̄−μ)⋅∑ ( xi −μ)+∑ ( x̄−μ)2 (Ec.1b)
i=1 i=1 i =1

Marcamos en rojo una sumatoria porque es necesario que hagamos un cálculo auxiliar para
encontrar su valor:
n
xi
∑ ( xi −μ )=∑ x i−n⋅μ= n⋅∑ −n⋅μ=n⋅x̄−n⋅μ=n⋅( x̄−μ)
i=1 ⏟n
mult . y divido por n

Regresando a la expresión que veníamos desarrollando:

{∑ }
n
1
…= ⋅E ( x i−μ )2−2( x̄−μ)⋅n⋅( x̄−μ)+n⋅( x̄−μ )2 (Ec.2)
n−1 i=1

En el segundo término de la sumatoria podemos realizar el producto y agruparlo con el


tercer término:

{ }
n
1
…=
n−1
⋅E ∑ ( x i−μ )2−2⋅n⋅( x̄−μ)2 +n⋅( x̄−μ )2
i=1

{∑ }
n
1
…= ⋅E ( x i−μ )2−n⋅( x̄−μ )2 (Ec.3)
n−1 i=1

Aplicando las propiedades de la esperanza:

{ }
n
1
2
E( s )=…= ⋅ ∑ E (xi −μ)2 −n⋅E( x̄ −μ)2 (Ec.4)
n−1 i=1

Observando la expresión obtenida, puede verse que el primer término de la sumatoria es, por
definición, la varianza poblacional. El término en verde es la varianza de la media
muestral; para demostrar esto debemos hacer nuevos cálculos auxiliares:
2
V ( x̄)=E( x̄−μ) = σ
2
(hay que demostrarlo)
n
( )
n
x
V ( x̄)=V ∑ ni =…
i=1

Pero n no interviene en la sumatoria (es una constante). Podemos aplicar las propiedades de
la varianza y simplificando:

(∑ )
n n n
xi 1 1 1 2
V ( x̄)=V = 2⋅∑ V (x i)= 2⋅∑ σ 2= 2⋅n⋅σ 2= σ =σ x̄
i=1 n n i=1 n i=1 n n

Volviendo a nuestro cálculo anterior (Ec.4) , tendremos:

{ } { }
n n
1 1
E( s2 )=…= ⋅ ∑ E ( xi −μ)2 −n⋅E( x̄ −μ)2 = ⋅ ∑ σ 2−n⋅σ2x̄
n−1 i=1 n−1 i=1

{ } { }
n 2 n
1 1
…= ⋅ ∑ σ2−n⋅σ2x̄ = ⋅ ∑ σ2−n⋅ σ y simpificando:
n−1 i =1 n−1 i=1 n

{ }
n
2
1 1 1
E( s2 )=…= ⋅ ∑ σ2−n⋅ σ = ⋅{n⋅σ2 −σ2 }= ⋅{σ 2⋅(n−1) }=σ2
n−1 i =1 n n−1 n−1

2. Ser consistente. Un estimador es consistente si se verifican dos condiciones:

^
1. E( θ)=θ ^
2. lim V ( θ)=0
n →∞

Ejemplo para la media muestral:

2. lim V ( x̄ )=lim V σ =0
1. E( x̄ )=μ ( ya demostrado)
n →∞ n→∞ n ( )
Comentario: también se puede definir que un estimador es consistente si se verifica que

^ |−ε]=1
lim P[|θ−θ con ε>0
n →∞

Esto se denomina convergencia en probabilidad. Es decir que un estimador es consistente si


converge en probabilidad al valor del parámetro que se está intentando estimar (conforme el
tamaño de la muestra crece).
Esta desigualdad indica que la probabilidad de la diferencia (en valor absoluto) entre el valor
del estimador θ^ y el valor del parámetro verdadero θ , tiende a 1, a medida que
aumenta el tamaño de la muestra.
Hagamos un ejemplo. Para demostrar esta última afirmación en el caso de la media
muestral, partiremos de la desigualdad de Tchebychev.

1
P[|x̄−μ|<ε]⩾1− 2
donde ε=k⋅σ x̄
k

1
En consecuencia: P[|x̄−μ|<k⋅σ x̄ ]⩾1− 2
k
A partir de ε=k⋅σ x̄ podemos deducir que:

ε=k⋅σ x̄ =ε=k⋅ σ
√n
… de modo que podemos escribir:
2
1 σ2
ε2=k 2⋅σ … y despejando: =
n k 2 n⋅ε2

Reemplazando en la expresión de la desigualdad de Tchebychev, tendremos:


2
P[|x̄−μ|<k⋅σ x̄ ]⩾1− σ 2 al que le aplicaremos límites:
n⋅ε
2
lim P[|x̄ −μ|< k⋅σ x̄ ]⩾lim 1−lim σ 2 en consecuencia:
n →∞ n→ ∞

n→ ∞ n⋅ε

es cero

lim P[|x̄ −μ|<ε]=1


n →∞

3. Eficiencia. Dados dos estimadores θ^ 1 y θ^ 2 diremos que es más eficiente aquel


estimador que tiene menor varianza.

Si V ( θ^ 1)<V ( θ^ 2) entonces θ^ 1 es más eficiente.

Eficiencia relativa. La eficiencia relativa de θ^ 1 respecto de θ^ 2 se define como:

V ( θ^ 1)
e ( θ^ 1 ; θ^ 2)=
V ( θ^ )
2
entonces, si:
e ( θ^ 1 ; θ^ 2)>1 entonces θ^ 2 es más eficiente.

e ( θ^ 1 ; θ^ 2)<1 entonces θ^ 1 es más eficiente.

4. Suficiente. Decimos que un estimador es suficiente cuando utiliza toda la información que
proporciona la muestra.

xi
x̄=∑ es un estimador suficiente porque utiliza todos los valores de xi.
n

R=(x max−x min ) (el rango) no es un estimador suficiente; sólo utiliza dos datos de la muestra.

Estimadores máximo verosímiles

Si seleccionamos al azar una muestra de n observaciones x1, x2, …, xn de una variable aleatoria
discreta X y si su distribución de probabilidad P(xi) es función de un solo parámetro θ, entonces la
probabilidad conjunta de observar estos n valores independientes de X es:
L=P(x 1 , x 2 ,…, x n ;θ)=P(x 1)⋅P (x2 )⋅…⋅P( x n )

A esta probabilidad, Fisher la llamó verosimilitud de la muestra y sugirió que se debería escoger
como estimación de θ, al valor de θ^ que maximiza la función L.
En el caso de que la muestra provenga de una variable contínua X, con función de densidad de
probabilidad f(xi; θ), la verosimilitud L de la muestra de n observaciones x1, x2, …, xn es:

L=f (x 1 , x 2 ,… , x n ; θ)=f (x1 )⋅f ( x 2)⋅…⋅f ( x n)

Método para obtener estimadores máximo verosímiles.

1. Presentar la función de probabilidad conjunta (función de verosimilitud L).


2. Aplicar el logaritmo natural a L (esto reduce la complejidad del cálculo).
3. Derivar respecto al parámetro o los parámetros a estimar.
4. Igualar a cero la derivada (esto equivale a buscar el máximo de L).
5. Despejar el estimador del parámetro.

Ejemplo. Hallar el estimador máximo verosimil para la distribución de Poisson.

1. L=P ( x1 , x 2 , … , x n ; λ)=P(x 1)⋅P( x 2)⋅…⋅P ( x n)=…


n

−λ x1 −λ x2 −λ xn −n λ
∑ xi
e ⋅λ e ⋅λ e ⋅λ e ⋅λ i=1

…= ⋅ ⋅…⋅ =
x 1! x2 ! x n! x 1!x 2!… x n!

n
2. ln (L)=−n λ+ ∑ x i⋅( ln λ)−ln x 1!−ln x 2!−…−ln x n!
i=1

d ln L
∑ xi
i=1
3. =−n+
dλ λ

∑ xi
4. −n+ i=1λ =0

n n

∑ xi ∑ xi
=λ^
i=1 i=1
5. =n en consecuencia:
λ n

También podría gustarte