Está en la página 1de 10

Universidad nacional Santiago Antúnez de Mayolo

ESTIMACIÓN PUNTUAL DE PARAMETROS

I. INTRODUCCIÓN:
Al realizar una investigación estadística a menudo se sabe o se supone que
la población (discreta o continua), de la cual se selecciona una muestra aleatoria,
tiene una forma funcional específica 𝑓(𝑥) cuyo(s) parámetro(s) se intenta
determinar. Si el parámetro a determinar es denotado por 𝜃 , entonces, la
distribución de la población será denotada por 𝑓(𝑥, 𝜃).
Los métodos de la inferencia estadística consisten en seleccionar una
muestra aleatoria de la población, de manera que a partir de la información que se
obtenga de la muestra:
1. Determinar el valor del parámetro desconocido 𝜃, ó
2. Decidir si 𝜃, ó alguna función de 𝜃, es igual a algún valor preconcebido 𝜃0
de 𝜃.

El primero de estos dos procedimientos se denomina estimación del


parámetro 𝜃. El segundo procedimiento se conoce como prueba de hipótesis del
parámetro 𝜃.

El método de estimación de un parámetro puede ser puntual o por


intervalos, veamos el primer caso.

II. ESTIMACIÓN PUNTUAL DE PARAMETROS

Definición: Sea 𝑋1 , 𝑋2 , 𝑋3 , … , 𝑋𝑛 una muestra aleatoria de tamaño n


seleccionada de una población cuya distribución es 𝑓(𝑥, 𝜃) , siendo 𝜃 el
parámetro. Se denomina estimador puntual del parámetro 𝜃 a cualquier
estadístico 𝛩̂ = 𝐻( 𝑋1 , 𝑋2 , 𝑋3 , … , 𝑋𝑛 ), cuyo valor 𝜃̂ = 𝐻( 𝑥1 , 𝑥2 , 𝑥3 , … , 𝑥𝑛 ), ,
proporcionará una estimación del parámetro en cuestión.

Un estimador puntual del parámetro 𝜃 es pues, una variable aleatoria


(función de la muestra) 𝛩̂, mientras que el estimador puntual es el valor numérico
𝜃̂ del estimador.

ESTIMACIÓN PUNTUAL DE PARÁMETROS PARA LA MEDIA | ISI


Universidad nacional Santiago Antúnez de Mayolo

Por dar un ejemplo, un estimador puntual de la media poblacional 𝜃 , es la


estadística media muestral (variable aleatoria) 𝛩̂ = 𝑋̅ , cuyo valor numérico 𝜃̂ =
𝑥̅ es la estimación puntual del parámetro 𝜃.

La estimación puntual consiste en utilizar el valor de una estadística para


inferir el parámetro de una población

No toda función de la muestra es un buen estimador del parámetro, un buen


estimador, es aquel que está más cerca del parámetro que se estima. Para que un
estimador puntual sea bueno debe tener ciertas propiedades. Una de estas
propiedades, es que sea insesgado, propiedad conocida también como no sesgado,
imparcial, o sin vicio.

“Los estimadores son variables aleatorias”

 Tienen una distribución de probabilidad, correspondiente a las


distribuciones muestrales.
 Su distribución (media, varianza, etc.) le confiere una serie de
propiedades estadísticas (sesgo, mínima varianza, consistencia,
suficiencia):
 Se puede definir la calidad del estimador.
 Se puede comparar con otros estimadores.
 No hay ningún estimador perfecto: Siempre habrá algún error en el
proceso de estimación.
 No deben estudiarse las distintas propiedades de los estimadores para
predecir cuál es el más apropiado.

2.1. ESTIMACIÓN INSESGADO

Definición: Se dice que la estadística 𝛩̂ = 𝐻( 𝑋1 , 𝑋2 , 𝑋3 , … , 𝑋𝑛 ), es un


estimador insesgado del parámetro 𝜃 si 𝐸(𝜃̂ ) = 𝜃. En caso contrario,
se dice que es estimador sesgado.

ESTIMACIÓN PUNTUAL DE PARÁMETROS PARA LA MEDIA | ISI


Universidad nacional Santiago Antúnez de Mayolo

Si la estadística 𝛩̂ = 𝐻( 𝑋1 , 𝑋2 , 𝑋3 , … , 𝑋𝑛 ) es un estimador
insesgado del parámetro 𝜃, entonces, su valor 𝜃 = 𝐻( 𝑥1 , 𝑥2 , 𝑥3 , … , 𝑥𝑛 )
es la estimación insesgada del parámetro 𝜃.

Ejemplo1:

Sea 𝑋1 , 𝑋2 , 𝑋3 , … , 𝑋𝑛 una muestra aleatoria de tamaño n extraída


de una población cualquiera 𝑓(𝑥, 𝜇, 𝜎 2 ), (Discreta o continua). Entonces,

a) La media muestral 𝑋̅ es un estimador insesgado de la media


poblacional 𝜇 , ya que

𝐸(𝑋̅) = 𝜇

El valor 𝑥̅ de 𝑋̅ es la estimación insesgada de 𝜇

b) La proporción muestral 𝑃̅ es un estimador insesgado de la


proporción de éxitos p de una población binomial, porque,

𝐸(𝑃̅) = 𝑝

c) La varianza muestral

∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )2
𝑠2 =
𝑛

Es un estimador sesgado de la varianza poblacional 𝜎 2 , ya que

𝑛−1
𝐸(𝑠 2 ) = 𝜎2 .
𝑛

Sin embargo, la estadística,

𝑛𝑠 2 ∑𝑛𝑖=1(𝑥𝑖 − 𝑥̅ )2
𝑠̂ 2 = =
𝑛−1 𝑛−1

Es un estimador insesgado de la varianza poblacional 𝜎 2 , porque,

𝐸(𝑠̂ 2 ) = 𝜎 2 .

ESTIMACIÓN PUNTUAL DE PARÁMETROS PARA LA MEDIA | ISI


Universidad nacional Santiago Antúnez de Mayolo

Nota: El cálculo de la varianza por 𝑠̂ 2 es denominado método del


amuestra mientras que el cálculo de la varianza por 𝑠 2 es denominado
método de la población. Observar que cuando n es suficientemente
𝑛−1
grande el coeficiente tiene a uno.
𝑛

Ejemplo 2.

a) La diferencia 𝑋̅1 − 𝑋̅2 de dos medidas muestrales es estimador


insesgado de la diferencia 𝜇1 − 𝜇2 de dos mediadas
poblacionales. Ya que ,
𝐸( 𝑋̅1 − 𝑋̅2 ) = 𝜇1 − 𝜇2 .

b) La diferencian de dos proporciones muestrales 𝑃̅1 − 𝑃̅2 es un


estimador insesgado de la diferencia de dos proporciones de
éxitos binomiales 𝑝1 − 𝑝2 . Puesto que,
𝐸( 𝑃̅1 − 𝑃̅2 ) = 𝑝1 − 𝑝2 .

2.2. ESTIMADOR EFICIENTE

Definición: Si hay dos o más estimadores puntuales insesgado de un


parámetro 𝜃, se denomina estimador más eficiente a aquel estimador que
tenga menor varianza.

Ejemplo 3:

Sea 𝑋1 , 𝑋2 , 𝑋3 , 𝑋4 una muestra aleatoria de cualquier población con


distribución 𝑓(𝑥, 𝜇, 𝜎 2 ). Dados los estimadores del parámetro 𝜇:

𝑋1 +𝑋2 + 𝑋3 +𝑋4 4𝑋 −𝑋 +𝑋
𝑎) 𝛩̂1 = , y 𝑏) 𝛩̂2 = 1 4 3 4
4

Verificar que la media de la muestra; es el estimador más eficiente de


𝜇.

Solución

ESTIMACIÓN PUNTUAL DE PARÁMETROS PARA LA MEDIA | ISI


Universidad nacional Santiago Antúnez de Mayolo

Ambos estimadores son insesgados. En efecto,

4𝜇 4𝜇−𝜇+𝜇 4𝜇
𝐸(𝛩̂1 ) = 4 = 𝜇 y 𝐸(𝛩̂2 ) = = 4 =𝜇
4

Por otra parte, las varianzas respectivas son:

4𝜎 2 𝜎 2 16𝜎 2 +𝜎 2 +𝜎 2 18𝜎2
𝑉(𝛩̂1 ) = 16 = 4 y 𝑉(𝛩̂2 ) = =
16 16

Luego la estadística 𝛩̂1 que está definida como la media de la


muestra; es el estimador más eficiente de 𝜇.

2.3. CONSTRUCCIÓN DE ESTIMADORES

Se tendrá como objetivo el de construir un estimador del parámetro


poblacional 𝜃 = (𝜃1, 𝜃2, 𝜃3, … 𝜃𝑘 )

Habiéndose estudiado las propiedades deseables de un buen


estimador (insesgadez, consistencia, eficiencia, etc.), en el contexto de la
estimación puntual, y ahora se nos presenta el problema de cómo obtener
estimadores y además que sean buenos. Para ello, existen varios métodos
para la obtención de estimadores, también propiedades que cumplen los
estimadores obtenidos por los diferentes métodos.

Los métodos son:

 El método de los momentos.


 El método de la máxima verosimilitud.
 El método de la mínima 𝑥 2 .
 El método de los mínimos cuadrados.

Solo se hará uso de dos primeros métodos para la construcción de


estimadores.

2.3.1. MÉTODO DE LOS MOMENTOS


 Los momentos caracterizan una distribución de probabilidad

ESTIMACIÓN PUNTUAL DE PARÁMETROS PARA LA MEDIA | ISI


Universidad nacional Santiago Antúnez de Mayolo

 Si dos variables aleatorias tienen los mismos momentos entonces


dichas variables tienen o siguen la misma función de densidad.
Podemos emplear los momentos muestrales para estimar los
parámetros, basándonos en la intuición de que los momentos de la
población 𝛼𝑟 , se “parecerán” a los respectivos momentos de la
muestra 𝑎𝑟 , r-ésimo momento ordinario 𝑎𝑟 de una muestra aleatoria
𝑋1 , 𝑋2 , 𝑋3 , … , 𝑋𝑛

Igualamos los 𝑲 primeros momentos de una población a los


correspondientes momentos de una muestra

∑𝑁 𝑟
𝑖=1 𝑋𝑖
𝑎𝑟 = 𝛼𝑟 =
𝑁
Entonces si una distribución tiene 𝐾 parámetros desconocidos,
para su estimación se tendrá lo siguiente:
𝑎1 = 𝛼1
𝑎2 = 𝛼2
𝑎3 = 𝛼3
.
.
.
𝑎𝐾 = 𝛼𝐾

Ejemplo 4:
Sea una variable aleatoria con distribución exponencial de
parámetro 𝜆; queremos encontrar el estimador del parámetro usando
método de los momentos: 𝑋 = 𝑒 𝜆
Distribución exponencial:
𝑓𝜆 (𝑥) = 𝜆𝑒 −𝜆𝑥 … . 𝑥 > 𝑜
Media de una función exponencial:
1
𝑋̅ =
𝜆
Solución:
Como la distribución tiene un parámetro
𝑎1 = 𝛼1

ESTIMACIÓN PUNTUAL DE PARÁMETROS PARA LA MEDIA | ISI


Universidad nacional Santiago Antúnez de Mayolo

∑𝑁
𝑖=1 𝑋𝑖
𝛼1 = = 𝑋̅
𝑁
1 ∑𝑁
𝑖=1 𝑋𝑖 1
Entonces: 𝑎1 = 𝛼1 → = → 𝜆 = 𝑋̅
𝜆 𝑁
1 1
𝜆̂ = ≈ →𝜆
𝑋̅ 𝑋̅

2.3.2. MÉTODO DE MÁXIMA VEROSIMILITUD

Supongamos que una población 𝑋 está distribuida como 𝑓(𝑥, 𝜃),


en donde θ es el parámetro que tratamos de estimar.

El procedimiento para determinar el estimador de la máxima


verosimilitud es como sigue:

1. Elegir una muestra aleatoria 𝑋1 , 𝑋2 , 𝑋3 , … , 𝑋𝑛 de la población y


determinar la distribución conjunta de la muestra en sus valores
observados respectivos 𝑥1 , 𝑥2 , 𝑥3 , … , 𝑥𝑛 . Esta función de
parámetro θ conocida también como función de verosimilitud
está dada por:
𝑛

𝐿(𝜃) = 𝑓( 𝑥1 , 𝑥2 , 𝑥3 , … , 𝑥𝑛 ; 𝜃) = 𝑓( 𝑥1 ; 𝜃)𝑓( 𝑥2 ; 𝜃) … 𝑓( 𝑥𝑛 ; 𝜃) = ∏ 𝑓( 𝑥𝑖 ; 𝜃)
𝑖=1

2. El valor de θ que maximiza a la función 𝐿(𝜃), es la estimación de


la máxima verosimilitud (EMV) de θ. Este valor denotaremos por.
𝜃̂ = 𝐻( 𝑥1 , 𝑥2 , 𝑥3 , … , 𝑥𝑛 )

La estadística correspondiente 𝛩̂ = 𝐻( 𝑋1 , 𝑋2 , 𝑋3 , … , 𝑋𝑛 ) es el
estimador de la máxima verosimilitud de θ.

3. A menudo se usa 𝐿 = ln(𝐿(𝜃)). En este caso el valor de θ que


maximiza a 𝐿(𝜃) es la solución 𝜃̂ de la ecuación:
𝑑𝐿
=0
𝑑𝜃

ESTIMACIÓN PUNTUAL DE PARÁMETROS PARA LA MEDIA | ISI


Universidad nacional Santiago Antúnez de Mayolo

4. Si la distribución de probabilidad de la población contiene 𝑘


parámetros 𝜃1, 𝜃2, 𝜃3, … 𝜃𝑘 , la función de verosimilitud está dada
por:
𝑛

𝐿(𝜃1, 𝜃2, 𝜃3, … 𝜃𝑘 ) = ∏ 𝑓( 𝑥𝑖 ; 𝜃1, 𝜃2, 𝜃3, … 𝜃𝑘 )


𝑖=1

La estimación de máxima verosimilitud de cada parámetro 𝜃𝑖 es la


solución 𝜃̂𝑖 de la ecuación respectiva:
𝜕𝐿 𝜕𝐿 𝜕𝐿 𝜕𝐿
= 0, = 0, = 0, … , =0
𝜕𝜃1 𝜕𝜃2 𝜕𝜃3 𝜕𝜃𝑘

Donde 𝐿 = ln(𝐿(𝜃1, 𝜃2, 𝜃3, … 𝜃𝑘 )).

Ejemplo 5:
Sea 𝑋1 , 𝑋2 , 𝑋3 , … , 𝑋𝑛 una muestra aleatoria de tamaño 𝑛,
seleccionada de una población con distribución binomial 𝐵(1, 𝑝).
Hallar el estimador del parámetro 𝑝 usando el método de máxima
verosimilitud.
Solución:
La distribución de probabilidad de cada variable aleatoria 𝑋𝑖 es:
𝑓( 𝑥𝑖 , 𝑝) = 𝑝 𝑥𝑖 (1 − 𝑝) 1−𝑥𝑖 , 𝑥𝑖 = 0,1

La función de verosimilitud de la muestra aleatoria es entonces,


𝐿(𝑝) = ∏𝑛𝑖=1 𝑓( 𝑥𝑖 ; 𝑝) = (𝑝)∑ 𝑥𝑖 (1 − 𝑝)𝑛−∑ 𝑥𝑖 …..(*)

Luego, 𝐿 = ln( 𝐿(𝑝)) = (ln( 𝑝)) ∑𝑛𝑖=1 𝑥𝑖 + (ln( 1 − 𝑝))(𝑛 − ∑𝑛𝑖=1 𝑥𝑖 )


Derivando la función 𝐿con respecto a 𝑝 e igualando a cero, da:

𝜕𝐿 ∑𝑛𝑖=1 𝑥𝑖 𝑛 − ∑𝑛𝑖=1 𝑥𝑖
= − =0
𝜕𝑝 𝑝 1−𝑝

De donde resulta que:

∑𝑛𝑖=1 𝑥𝑖
𝑝̂ = = 𝑝̅
𝑛

ESTIMACIÓN PUNTUAL DE PARÁMETROS PARA LA MEDIA | ISI


Universidad nacional Santiago Antúnez de Mayolo

Luego, la proporción muestral 𝑝̅ es la estimación (𝑝̅ es el estimador)


de máxima verosimilitud de la proporción poblacional 𝑝, siempre que:

𝑛 𝑛

∑ 𝑥𝑖 ≠ 0, 𝑦 ∑ 𝑥𝑖 ≠ 𝑛
𝑖=1 𝑖=1

Observar que:

Si ∑𝑛𝑖=1 𝑥𝑖 = 0, entonces, de (*) resulta que el E.M.V de 𝑝 es 𝑝̂ = 0

Si ∑𝑛𝑖=1 𝑥𝑖 = 𝑛, entonces, de (*) resulta que el E.M.V de 𝑝 es 𝑝̂ = 1

ESTIMACIÓN PUNTUAL DE PARÁMETROS PARA LA MEDIA | ISI


Universidad nacional Santiago Antúnez de Mayolo

BIBLIOGRAFÍA:

 George C. Canavos, PROBABILIDAD Y ESTADISTICA II. Aplicaciones y


Métodos, Facultad de Ciencias UNAM, Mexico.
 José M. Casas Sánchez. IFERENCIA ESTADISTICA PARA ECONOMÍA Y
ADMINISTRACIÓN DE EMPRESAS, Editorial Centro de estudios Ramón
Areces, S.A.
 Luiz A. Santaló, PROBABILIDAD E INFERENCIA ESTADÍSTICA,
Argentina.
 Universidad Nacional Experimental Plitecnica Antonio Jóse de Sucre,
POBABILIDAD Y ESTADISTICA. APLICADA A LA INGENIERÍA. página
http://www.bqto.unexpo.edu.ve

ESTIMACIÓN PUNTUAL DE PARÁMETROS PARA LA MEDIA | ISI

También podría gustarte