Está en la página 1de 13

INFERENCIA ESTADSTICA

Notas de clase

Profesores:

A. Leonardo Bauelos S.
Nayelli Manzanarez Gmez

TEMA II
ESTIMACIN PUNTUAL DE PARMETROS
POBLACIONALES

S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.1
Sea

una muestra aleatoria de tamao

poblacin con media


La estimacin puntual de un parmetro relativo a una poblacin es el valor
numrico de un estadstico correspondiente a ese parmetro.

y variancia

extrada de una

. Determinar si los siguientes

estimadores son sesgados o insesgados.


a)

En la eleccin de un estimador deben tenerse en cuenta las siguientes


propiedades: insesgabilidad, eficiencia, consistencia y suficiencia.
b)
INSESGABILIDAD
Cuando se obtiene una estimacin puntual de un parmetro cualquiera, es
deseable que la distribucin de dicha estimacin se centre en el parmetro real (al
cual se le llamar parmetro-objetivo),si se cumple la condicin anterior entonces
el estimador se llama insesgado.

c)
Resolucin
a) Para determinar si tiene o no sesgo debe obtenerse

es insesgado.
Fig. 2.1
b)
Definicin 2.1
Sea

un estimador puntual del parmetro


se dice que

. Entonces si

es un estimador insesgado de

lo contrario se dice que es sesgado.

, de

INFERENCIA ESTADSTICA

Tema II

Pg. 2

Recordando que
c)

entonces:
y de forma similar

Pero

Es insesgado.*falta nota de la desviacin estndar


S)))))))))))))))))))))))))))))))))))))))
En la prctica se suelen preferir los estimadores insesgados sobre los
sesgados; por ello que cuando se desean hacer estimaciones con respecto a la
variancia
Es sesgado.
Otra forma de calcular si el estadstico

es insesgado, es a travs de

la variable aleatoria ji cuadrada.


Se desea obtener

pero se sabe que, para una v.a. ji cuadrada


De donde

A.L.B.S./N.M .G

, si

de una poblacin se utiliza el estadstico

La siguiente tabla muestra algunos de los parmetros objetivos ms


comunes, juntos con sus valores esperados y sus variancias.

INFERENCIA ESTADSTICA
Parmetroobjetivo

Tamao de
las muestras

Tema II

Pg. 3

Estimador
puntual

Tabla 2.1

Valores esperados y variancias de estimadores basados en


muestras grandes.

EFICIENCIA

En la figura 2.2 se observan las distribuciones de los estadsticos

prefiere al estadstico

porque tiene menor variancia y esto repercute en

estimaciones con menos variabilidad.


S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.2
Supngase que se tiene una muestra aleatoria de tamao

Definicin 2.2
y

con variancias

dos estimadores insesgados del parmetro


y

entonces la eficiencia relativa de


se define como:

poblacin denotada por

, respectivamente,
con respecto de

de una
. Sean

y
,

dos estimadores de

. Determina cul es el mejor estimador de

Explicar la seleccin.
Resolucin
y

A.L.B.S./N.M .G

del parmetro , considerando que ambos estimadores son insesgados, se

Puesto que es posible obtener ms de un estimador insesgado para el mismo


parmetro objetivo, deber utilizarse el de mnima variancia, que recibe el
nombre de estimador eficiente.

Sean

Fig. 2.2

son estimadores insesgados; sin embargo

INFERENCIA ESTADSTICA

mientras

Tema II

que

se concluye que
ms eficiente que

puesto

Pg. 4

que

es un estimador

por lo que el mejor estimador es

La eficiencia relativa de

se define como

S)))))))))))))))))))))))))))))))))))))))
Error Cuadrtico M edio
si
Cuando se desean comparar dos estimadores, de los cuales al menos uno no es
insesgado, entonces la eficiencia relativa no se calcula como el cociente de las
variancias, sino como el cociente de los errores cuadrticos medios,

entonces

es mejor estimador que

S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.3
Supngase que

son estimadores del parmetro

sabe que

. Si se
,

Definicin 2.3
El error cuadrtico medio de un estimador

, del parmetro

, utilizando el criterio del error

cuadrtico medio, determinar el mejor estimador.


Resolucin
Para los primeros dos estimadores, se tiene que el error cuadrtico

se define como:

medio,

, es:

El error cuadrtico medio tambin puede escribirse en trminos de la


variancia y del sesgo.

y para el tercer estimador


sumando y restando

, se tiene:
Por lo que el mejor estimador es

donde a la cantidad
y se denota mediante la letra
A.L.B.S./N.M .G

se le llama sesgo, o bien, error cometido,


, entonces:

, puesto que tiene menor error

cuadrtico medio.
S)))))))))))))))))))))))))))))))))))))))
CONSISTENCIA
Mientras mayor sea el tamao de la muestra, la estimacin deber ser ms
precisa. Si el estimador cumple con la caracterstica anterior entonces se llama
consistente. Por ejemplo

es un estimador consistente de

INFERENCIA ESTADSTICA

Tema II

Pg. 5
Puesto que

Definicin 2.4
El estimador

es consistente al estimar a

poblacin con media

si para cualquier

forman una muestra aleatoria de una


y variancia

, entonces

, y lo primero que se prueba es el insesgamiento de

se cumple:
los estimadores.

Para un estimador insesgado se puede probar la consistencia evaluando


el lmite de la variancia cuando

, i.e. un estimador insesgado de

es

es insesgado

consistente si:

Cuando el estimador es sesgado, debe probarse que


es insesgado
para que

sea consistente. Esto es, el lmite del error cuadrtico medio cuando

n tiende a infinito debe ser cero. Existen estimadores consistentes que son
sesgados.
S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.4
Sea

una muestra aleatoria de una poblacin con media


y variancia

. Considrense los tres estimadores siguientes para

Resolucin
A.L.B.S./N.M .G

Los tres estimadores son insesgados.


Para las variancias, puesto que
entonces:

Determinar si los estimadores son consistentes para

es insesgado

INFERENCIA ESTADSTICA

Tema II

Pg. 6
es un estimador suficiente para

o no.

Resolucin
Por lo que:

Y el nico estimador consistente para

es

No depende de

S)))))))))))))))))))))))))))))))))))))))
SUFICIENCIA
Un estimador es suficiente si toma en cuenta toda la informacin de la muestra
de manera adecuada. Adems no dar la mxima informacin que pueda
obtenerse del parmetro desconocido.

S)))))))))))))))))))))))))))))))))))))))

Definicin 2.5
Sea

es un estimador suficiente para

un parmetro desconocido y

MTODOS PARA
PUNTUALES

una

DETERMINAR

ESTIMADORES

muestra aleatoria. Entonces el estadstico

es suficiente para
dado

Anteriormente se explicaron las caractersticas deseables para un estimador, en


esta seccin se ver la forma de obtenerlas. Como debe intuirse, existen varias
formas de estimar un parmetro, por lo que no debe ser una sorpresa el hecho de
que existan varios mtodos para determinar los estimadores. Dos de los mtodos
ms comunes son: el de los momentos y el de mxima verosimilitud.

si la distribucin condicional de
no depende de

S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.5
Considrese una muestra aleatoria de tamao
poblacin Bernoulli con parmetro

A.L.B.S./N.M .G

. Determinar si

M TODOS DE LOS M OM ENTOS


de una
El mtodo de los momentos sugiere utilizar como estimador de alguno de los
momentos de la poblacin, al mismo momento con respecto a la muestra.

INFERENCIA ESTADSTICA

Tema II

Pg. 7

Definicin 2.6 M todo de los momentos.


Elegir como estimadores puntuales, a aquellos valores de los
parmetros que sean solucin de las ecuaciones
;
donde

es igual al nmero de parmetros a estimar y

El estimador es
y

representan los momentos con respecto al origen de la


poblacin y de la muestra, respectivamente.

y una estimacin est dada por

S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.6
Sea

una v.a. con distribucin normal y parmetros

desconocidos. Determinar los estimadores de dichos parmetros por el


mtodo de los momentos.
Resolucin
Puesto que se buscan dos parmetros se requieren dos momentos. La
media de

es el primer momento con respecto al origen, y la variancia

es el segundo momento con respecto a la media, pero que puede

S)))))))))))))))))))))))))))))))))))))))
En la prctica, es mucho ms sencillo igualar momentos con respecto a
la media. Es decir, se pueden igualar momentos con respecto al origen, o bien,
momentos con respecto a la media, respectivamente, segn sea ms conveniente.
En el ejemplo anterior basta entonces con igualar los primeros momentos
con respecto al origen (poblacional y muestral, respectivamente):

expresarse a travs de momentos con respecto al origen.


Para la media.

El estimador es

y los segundos momentos con respecto a la media (poblacional y muestral,


respectivamente)

y una estimacin est dada por

Para la variancia, se utilizan los segundos momentos con respecto a la


media, por lo que
A.L.B.S./N.M .G

INFERENCIA ESTADSTICA

Tema II

Pg. 8

S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.7
Sea

una v.a. con distribucin de Pascal (binomial negativa) con

parmetros

desconocidos. Utilizar el mtodo de los momentos


Estimador de

para obtener estimadores de dichos parmetros.


Resolucin
Puesto que

Y sustituyendo la ltima expresin en

entonces los momentos poblacionales son:

Estimador de
S)))))))))))))))))))))))))))))))))))))))
M TODO DE M XIM A VEROSIM ILITUD
Y los momentos muestrales son:

Uno de los mejores mtodos para realizar estimacin puntual es el de mxima


verosimilitud, el cual consiste bsicamente en obtener una funcin de
verosimilitud y maximizarla.

por lo que al igualar con los momentos poblacionales con los muestrales
se tiene:
. . . (a)

Definicin 2.7
Sea

la distribucin de una poblacin donde

parmetro a estimar. La funcin de verosimilitud es una funcin


de las vv.aa. de muestreo y del parmetro

. . . (b)

Resolviendo simultneamente para

es el

a estimar definida

como sigue:

de (b)
. . . (c)
pero de (a)
y sustituyendo en (c)

A.L.B.S./N.M .G

Ntese que la funcin de verosimilitud


las vv.aa. de muestreo si stas son independientes.

es la distribucin conjunta de

INFERENCIA ESTADSTICA

Tema II

Pg. 9

Definicin 2.8
Un estimador de mxima verosimilitud es aquel que maximiza la
funcin de verosimilitud.
En la prctica, para maximizar la funcin de verosimilitud se utiliza el
cambio de variable de

por

, como se observa en el siguiente ejemplo.

S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.8
Construir un estimador de mxima verosimilitud para el parmetro
de una distribucin Bernoulli, utilizando una muestra de tamao

Resolucin
La distribucin de Bernoulli es
El estimador de mxima verosimilitud de

es

La funcin de verosimilitud es
S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.9
Obtener un estimador de mxima verosimilitud para el parmetro

de

una distribucin geomtrica, utilizando una muestra aleatoria de tamao


Puesto que si un valor
maximiza a

maximiza a

se puede realizar el cambio

tambin

.
Resolucin
La distribucin geomtrica es

utilizando las propiedades de los logaritmos


por lo que la funcin de verosimilitud es

Maximizando

A.L.B.S./N.M .G

INFERENCIA ESTADSTICA

Tema II

Pg. 10

S)))))))))))))))))))))))))))))))))))))))
Si se desconocen dos o ms parmetros de una distribucin entonces se
plantea la funcin de verosimilitud como una funcin de todos los parmetros
desconocidos; y se optima aplicando logaritmos y resolviendo el sistema de
ecuaciones que se obtiene de las derivadas parciales de la funcin logaritmo de
la funcin de verosimilitud.

Tomando logaritmos

S)))))))))))))))))))))))))))))))))))))))
Ejemplo 2.10
Considere que
distribucin normal con media

y variancia

desconocidas.

Construir los estimadores de mxima verosimilitud para dichos


parmetros y decir si son insesgados o no.
Resolucin
Para la distribucin normal

Derivando e igualando a cero

despejando a

es una muestra aleatoria de una

,
Por lo que la funcin de verosimilitud es

Tomando logaritmos

El estimador de mxima verosimilitud de

es
. . . (a)

A.L.B.S./N.M .G

INFERENCIA ESTADSTICA

Tema II

Pg. 11

Derivando parcialmente e igualando a cero


. . . (b)
Como se demostr anteriormente
y

es un estimador sesgado de

es un estimador insesgado de

S)))))))))))))))))))))))))))))))))))))))
Tpico especial:
Uso de la funcin de verosimilitud para determinar la suficiencia de un
estimador
. . . (c)
Y las ecuaciones (b) y (c) forman un sistema de dos ecuaciones con dos
incgnitas.
De (b)

La suficiencia de un estimador est relacionada con la funcin de verosimilitud


a travs del siguiente teorema

Teorema 2.1
Sea

un estimador del parmetro

aleatoria
para

. Entonces

si y slo si la verosimilitud

, basado en la muestra
es un estimador suficiente
se puede factorizar en dos

. . . (d)
funciones no negativas
El estimador para

A.L.B.S./N.M .G

, i.e.

S))))))))))))))))))))))))))))))))))))Q
Ejemplo 2.11

Sustituyendo (d) en (c)

El estimador para

es

es

Sea

una muestra aleatoria de una distribucin

Rayleigh con parmetro

INFERENCIA ESTADSTICA

Tema II

Pg. 12

BIBLIOGRAFA
Demostrar que

es suficiente para

.
Hines, William W. y Montgomery, Douglas C., et al .- Probabilidad y Estadstica para
Ingeniera y Administracin, Cuarta Edicin..- CECSA.- Mxico, 2004.

Resolucin
La funcin de verosimilitud es

Wackerly, Dennis D., Mendenhall, William, y Scheaffer, Richard L.- Estadstica


Matemtica con Aplicaciones, Sexta edicin.- Editorial Thomson.- Mxico, 2002.
Milton, Susan J. y Arnold, Jesse C.- Introduction to probability and statistics, Fourth
Edition.- McGraw-Hill, 2003.
Walpole, Ronald E., et al..- Probabilidad y Estadstica para Ingenieros.- Prentice Hall.Sexta Edicin.- Mxico, 1999.

Si

Scheaffer, Richard L y McClave, James T.- Probabilidad y Estadstica para Ingeniera.Grupo Editorial Iberoamrica.- Mxico 1993.

Canavos, George C.- Probabilidad y Estadstica Aplicaciones y Mtodos.- McGraw-Hill.Mxico, 1988.

entonces
y puesto que la funcin de verosimilitud puede factorizarse en dos
funciones no negativas
Y

es suficiente para

y
.

S))))))))))))))))))))))))))))))))))))Q
Evidentemente, existen varias factorizaciones de la funcin de
verosimilitud

, con las cuales se puede probar la suficiencia. Cualquiera de ellas

es igualmente vlida.

A.L.B.S./N.M .G

Borras Garca, Hugo E., et al.- Apuntes de Probabilidad y Estadstica.-Facultad de


Ingeniera, Mxico 1985.
Rosenkrantz, Walter A.- Introduction to Probability and Statistics for Scientists and
Engineers.- McGraw-Hill.- EE.UU. 1997.

También podría gustarte