Está en la página 1de 5

ESTADISTICA INFERENCIAL IND - 411

GUÍA N° 4
ESTIMACIÓN PUNTUAL

Proceso por el cual se realiza un análisis de la información para determinar un estimador


que permite representar o aproximar a un parámetro desconocido poblacional.
Estimador
Se llama estimador a cualquier función de n variables en la que, después de sustituir los
valores muéstrales, el resultado obtenido puede servir como sustituto del valor de un
parámetro poblacional. El estimador es una cantidad numérica calculada sobre una
muestra

Estimación
Valor numérico concreto que resulta de un estimador, cuando se calcula este sobre una
muestra.

Estimación Puntual
La estimación puntual del valor de un parámetro poblacional desconocido es un número
que se utiliza para aproximar al verdadero valor de dicho parámetro poblacional.

TIPO DE
FUNCIÓN MEDIA VARIANZA
FUNCIÓN

𝟏 𝟏
Exponencial 𝒇(𝒙, 𝝀) = 𝝀 ∗ 𝒆−𝝀𝒙 … … … … … … 𝒙 ≥ 𝟎 ̅=
𝑿 𝑽(𝑿) =
𝝀 𝝀𝟐

Exponencial 𝟏 −𝟏 𝒙
̅=𝝀
Negativa 𝒇(𝒙, 𝝀) = ∗ 𝒆 𝝀 ………………𝒙 ≥ 𝟎 𝑿 𝑽(𝑿) = 𝝀𝟐
𝝀

𝟏 (𝒙−𝝁)𝟐

Normal 𝒇(𝒙) = ∗𝒆 𝟐𝝈𝟐 ………− ∞ < 𝒙 < ∞ ̅=𝝁
𝑿 𝑽(𝑿) = 𝝈𝟐
√𝟐𝝅𝝈

𝒆−𝝀 ∗ 𝝀𝒙
Poisson 𝒇(𝒙, 𝝀) = ………………𝒙 ≥ 𝟎 ̅=𝝀
𝑿 𝑽(𝑿) = 𝝀
𝒙!

𝟏 𝒂+𝒃 (𝒃 − 𝒂)𝟐
Uniforme 𝒇(𝒙) = ………………𝒂 ≤ 𝒙 ≤ 𝒃 ̅=
𝑿 𝑽(𝑿) =
𝒃−𝒂 𝟐 𝟏𝟐
𝒏!
Binomial 𝒑(𝒙 = 𝒌) = 𝒑𝒌 𝒒𝒏−𝒌 ̅ = 𝒏𝒑
𝑿 𝑽(𝑿) = 𝒏𝒑𝒒
𝒌! (𝒏 − 𝒌)!

Verosimilitud de la Muestra

Univ. Liz Nohemi Serrano Yujra 1


ESTADISTICA INFERENCIAL IND - 411

Si 𝑋⃗ = (𝑋1 , 𝑋2 , 𝑋3 … … , 𝑋𝑛 ) es una muestra aleatoria de tamaño n, densidad o cuantía


conjunta de la muestra se denomina, verosimilitud de la muestra.

𝒏
⃗⃗⃗; 𝜽) = 𝑳(𝑿𝟏 , 𝑿𝟐 , 𝑿𝟑 … … … … , 𝑿𝒏 ; 𝜽) = ∏ 𝒇(𝑿𝒊 )
𝑳(𝑿
𝒊=𝟏

⃗⃗⃗; 𝜽) = 𝒇(𝑿𝟏 ; 𝜽)𝒇(𝑿𝟐 ; 𝜽)𝒇(𝑿𝟑 ; 𝜽) … … … … 𝒇(𝑿𝒏 ; 𝜽)


𝑳(𝑿
𝒏
⃗⃗⃗; 𝜽) = 𝑳(𝑿𝟏 , 𝑿𝟐 , 𝑿𝟑 … … … … , 𝑿𝒏 ; 𝜽) = ∏ 𝒑(𝑿𝒊 )
𝑳(𝑿
𝒊=𝟏

⃗⃗⃗; 𝜽) = 𝒑(𝑿𝟏 ; 𝜽)𝒑(𝑿𝟐 ; 𝜽)𝒑(𝑿𝟑 ; 𝜽) … … … … 𝒑(𝑿𝒏 ; 𝜽)


𝑳(𝑿

- Método de Máxima Verosimilitud


Consiste en seleccionar los valores que hacen máximo la función de verosimilitud para
identificarlos como estimadores de los parámetros.
En algunos casos se debe utilizar la función isomorfa que consiste en aplicar el operador
logarítmico neperiano (ln) a la función verosimilitud.

⃗⃗⃗; 𝜽𝟏 , 𝜽𝟐 , 𝜽𝟑 … … … … 𝜽𝒌 )
𝒎𝒂𝒙 𝑳(𝑿

𝑳∗ = 𝑭𝒖𝒏𝒄𝒊𝒐𝒏 𝑰𝒔𝒐𝒎𝒐𝒓𝒇𝒂 ⃗⃗⃗; 𝜽𝟏 , 𝜽𝟐 , 𝜽𝟑 … … … … 𝜽𝒌 )


𝒎𝒂𝒙 𝑳∗ (𝑿

⃗⃗⃗; 𝜽𝟏 , 𝜽𝟐 , 𝜽𝟑 … … … … 𝜽𝒌 )]
𝒎𝒂𝒙 𝒍𝒏[𝑳(𝑿

⃗⃗⃗; 𝜽𝟏 , 𝜽𝟐 , 𝜽𝟑 … … … … 𝜽𝒏 )
𝝏𝑳∗ (𝑿
=𝟎
𝝏𝜽𝟏
⃗⃗⃗; 𝜽𝟏 , 𝜽𝟐 , 𝜽𝟑 … … … … 𝜽𝒏 )
𝝏𝑳∗ (𝑿
=𝟎
𝝏𝜽𝟐
⃗⃗⃗; 𝜽𝟏 , 𝜽𝟐 , 𝜽𝟑 … … … … 𝜽𝒏 )
𝝏𝑳∗ (𝑿
=𝟎
𝝏𝜽𝒌

- Método de Momentos
Consiste en igualar los k primeros momentos ordinarios de la población con los k
primeros momentos ordinarios de la muestra.

Univ. Liz Nohemi Serrano Yujra 2


ESTADISTICA INFERENCIAL IND - 411

𝒎𝟏 = 𝑴𝟏 = 𝑬[𝑿𝟏 ]
𝒎𝟐 = 𝑴𝟐 = 𝑬[𝑿𝟐 ]
𝒎𝟑 = 𝑴𝟑 = 𝑬[𝑿𝟑 ]
………………………
𝒎𝒌 = 𝑴𝒌 = 𝑬[𝑿𝒌 ]

- Métodos de Bayes
Si al parámetro a estimar es 𝜃 con función de probabilidad 𝜑(𝜃); al emplear en lugar de
𝜃 su estimador 𝜃̂, se produce una perdida que se define por la función:

̂)
𝝅 = (𝜽; 𝜽

Riesgo ̂ ) = 𝑬[𝝅(𝜽; 𝜽
𝑹(𝜽; 𝜽 ̂ )]

Riesgo Medio ̂ ) = 𝑬[𝑹(𝜽; 𝜽


̅ (𝜽; 𝜽
𝑹 ̂ )] = 𝜷(𝜽
̂)

El valor de 𝜃̂ que hace mínimo la función anterior se denomina estimador de Bayes:

𝜽
̂ ) = ∫ 𝝅(𝜽; 𝜽
𝒎𝒊𝒏 𝜷(𝜽 ̂) 𝒉 ( ) 𝒅𝜽
𝑹𝜽 𝑿𝟏 , 𝑿𝟐 , 𝑿𝟑 , … … … … , 𝑿𝒏

Propiedades de los Estimadores

- Insesgamiento

̂ es insesgado si cumple
𝜽 ̂] = 𝜽
𝑬[𝜽
que:
De lo contrario es segado: ̂] − 𝜽
𝑺𝒆𝒔𝒈𝒐 = 𝑬[𝜽
̂ cumple:
𝜽 ̂] = 𝜽
𝐥𝐢𝐦 𝑬[𝜽
𝒏→∞

- Consistencia
Se dice que un estimador es consistente cuando a medida que crece el tamaño de la
muestra 𝑛 → ∞ el 𝜃̂ converge al 𝜃.
Para verificar la Consistencia en probabilidad se de cumplir:

̂ − 𝜽| > 𝒌) = 𝟎
𝐥𝐢𝐦 𝒑(|𝜽 ̂ − 𝜽| ≤ 𝒌) = 𝟏
𝐥𝐢𝐦 𝒑(|𝜽
𝒏→∞ 𝒏→∞

Univ. Liz Nohemi Serrano Yujra 3


ESTADISTICA INFERENCIAL IND - 411

También se puede verificar el cumplimiento de la Consistencia si se supone


simultáneamente las siguientes condiciones:

i. ̂] = 𝜽
𝐥𝐢𝐦 𝑬[𝜽 ii. ̂] = 𝟎
𝐥𝐢𝐦 𝑽[𝜽
𝒏→∞ 𝒏→∞

- Suficiencia
Se dice que un estimador es suficiente si utiliza toda la información muestral.
Para verificar la suficiencia se debe factorizar la función de verosimilitud en dos
funciones no negativas de acuerdo a lo siguiente:

̂ , 𝜽)𝒉(𝑿𝟏 , 𝑿𝟐 , … … … … , 𝑿𝒏 )
⃗⃗⃗; 𝜽) = 𝑳(𝑿𝟏 , 𝑿𝟐 , 𝑿𝟑 … … … … , 𝑿𝒏 ; 𝜽) = 𝒈(𝜽
𝑳(𝑿

- Eficiencia
Se dice que un estimador es eficiente si se cumple con las siguientes condiciones:

i. Estimador Insesgado ̂] = 𝜽
𝑬[𝜽
ii. Estimador con varianza mínima ̂ ] = 𝒎í𝒏𝒊𝒎𝒂 = 𝑽[𝜽
𝑽[𝜽 ̂]
𝑪𝑪𝑹

- Desigualdad de Cramer - Rao


Proporciona una cota inferior para la varianza que garantiza que por debajo de su valor
no es posible encontrar otro valor.

[𝟏 + 𝒇´(𝑿; 𝜽)]𝟐
̂]
𝑽[𝜽 ≥
𝑪𝑪𝑹
𝝏 𝐥𝐧 𝒇(𝑿; 𝜽) 𝟐
𝒏𝑬 [ ]
𝝏𝜽
𝟏
̂]
𝑽[𝜽 ≥
*Estimador insesgado 𝑪𝑪𝑹
𝝏 𝐥𝐧 𝒇(𝑿; 𝜽) 𝟐
𝒏𝑬 [ ]
𝝏𝜽

EJERCICIOS

Univ. Liz Nohemi Serrano Yujra 4


ESTADISTICA INFERENCIAL IND - 411

1. Determinar el estimador de máxima verosimilitud del parámetro de la función


exponente inverso.
2. Sea (X1, X2,……….,Xn) una muestra aleatoria de una variable aleatoria X ~ B(1,p).
Si se eligen al azar n objetos de una línea de producción y cada uno se clasifica
como defectuoso (Xi=1). Entonces p=P (Xi=1), es decir la verdadera proporción
de objetos defectuosos en la producción total. Determinar la estimación de MV.
3. Una muestra de tamaño n1 procede de una población normal de media 1 y
varianza 1. Si se toma una segunda muestra n2 de una población normal de media
2 y varianza 2.
a. Cuál es el estimador de MVL de 𝛽̂ = 𝜇 ̂1 − 𝜇̂ 2
b. Suponiendo fijo el tamaño de n=n1+n2 de la muestra total, como debería
dividirse las n observaciones de ambas poblaciones para que fuese
mínima la varianza de 𝛽̂

EJERCICIO DE CLASE

1. Determinar el estimador de MVL de la función exponencial, además demuestre


las 4 propiedades que debe cumplir.

PRACTICA N°1

1. Sea (X1, X2, ………, Xn) una muestra aleatoria de una población que tiene
media μ y varianza 𝜎 2

Considere los siguientes estimadores de μ


𝑋1 + 𝑋2 + ⋯ . +𝑥7
𝜇̂ 1 =
7
2𝑋1 − 𝑋6 + 𝑋4
𝜇̂ 2 =
2
a. ¿Alguno de los estimadores es insesgado?
b. ¿Cuál estimador es el “mejor”?
c. ¿En qué sentido es mejor?

2. Determine la estimación por máxima verosimilitud y por momentos para la


función:

𝑓(𝑋: 𝜃) = (𝜃 + 1)𝑋 𝜃 0≤𝑋≤1

Univ. Liz Nohemi Serrano Yujra 5

También podría gustarte