Está en la página 1de 31

ESTIMACION PUNTUAL

Método de Inferencia
Permite calcular un valor especifico de
nuestros estimadores
El verdadero valor real del parámetro
nunca lo conoceremos
Determina el valor que mejor se aproxima
al parámetro
PROPIEDADES
 Supongamos que tomamos una muestra de cierta variable 𝑥 con parámetro 𝜃
 Tenemos un estimador 𝜃(𝑥
መ 1 , 𝑥2 … 𝑥𝑛 )
 El estimador esta formado por la manera que se utilizan los valores de la muestra
 El objetivo es buscar una función que provea la mejor estimación
 𝜃መ es una Variable Aleatoria
 Un estimador es aceptable si su distribución muestral se concentra alrededor del
parámetro
 EMC(Error Medio Cuadrático)
 EMC mide la dispersión alrededor del parámetro
2
 El EMC esta relacionado con la varianza→ 𝑉 𝜃መ = 𝐸 𝜃መ − 𝐸 𝜃መ
𝐸𝑀𝐶 𝜃መ = 𝐸 𝜃መ 2 − 2𝜃𝜃
መ + 𝜃2
𝐸𝑀𝐶 𝜃መ = 𝐸(𝜃መ 2) − 𝐸 2𝜃𝜃
መ + 𝐸(𝜃 2)
𝐸𝑀𝐶 𝜃መ = 𝐸(𝜃መ 2) − 2𝜃𝐸 𝜃መ + 𝐸(𝜃 2 )
2
𝐸𝑀𝐶 𝜃መ = 𝐸(𝜃መ 2) − 2𝜃𝐸 𝜃መ + 𝐸 𝜃 2 + 𝐸 𝜃መ መ 2
− [𝐸(𝜃)]
𝐸𝑀𝐶 𝜃መ መ 2 − 2𝜃𝐸 𝜃መ + 𝐸 𝜃 2 + 𝐸 𝜃መ 2
= 𝐸(𝜃መ 2) − [𝐸(𝜃)]
መ 2 − 2𝜃𝐸 𝜃መ + 𝜃 2 + 𝐸 𝜃መ 2
𝐸𝑀𝐶 𝜃መ = 𝐸(𝜃መ 2) − [𝐸(𝜃)]
መ 2 + 𝐸 𝜃መ 2 − 2𝜃𝐸 𝜃መ + 𝜃 2
𝐸𝑀𝐶 𝜃መ = 𝐸(𝜃መ 2) − [𝐸(𝜃)]
2
𝐸𝑀𝐶 𝜃መ = 𝑉 𝜃መ + 𝐸 𝜃መ − 𝜃
𝐸𝑀𝐶 𝜃መ = 𝑉 𝜃መ + 𝑆𝑒𝑠𝑔𝑜 2
 El mejor Estimador es aquel que tenga el mínimo EMC
 PROBLEMA→ ningún estimador puede minimizar el EMC para todos
 Algunos pueden minimizar el error para algunos valores de 𝜃
INSESGADEZ
• Un estimador es insesgado cuando sus datos
están cercanos al parámetro

• Ejemplo 𝑋ത → 𝜇, es decir 𝐸 𝑋ത = 𝜇
EFICIENCIA RELATIVA
 Un
Estimador es eficiente en sentido relativo
con otro estimador cuando posee la varianza
mas chica

𝑉 𝜃෠ = 0 → 𝑉𝑎𝑟𝑖𝑎𝑛𝑧𝑎 𝑀𝑖𝑛𝑖𝑚𝑎
CONSISTENCIA

 Un estimador es consistente si su distribución se concentra


alrededor del verdadero valor del parámetro a medida que la
muestra es mas completa
 𝑛→∞
 lim 𝐸𝑀𝐶 𝜃መ = 0
𝑛→∞

 lim 𝑉 𝜃መ = 0
𝑛→∞

 Es condición suficiente pero no necesaria


ROBUSTEZ
 Un estimador es robusto cuando es insensible ante
la violación de algunos de sus supuestos

 Ejemplo→ Una función de distribución incorrecta

 Los resultados no varían ante la presencia de


irregularidades
SUFICIENCIA

 Un estimador es suficiente cuando


utiliza toda la información
BIBLIOGRAFÍA

Bachini, D.; Vázquez, L.; Bianco, M. J.; García Fronti, J. (2018), Introducción a la probabilidad y
estadística, Buenos Aires, CMA-FCE-UBA

Canavos, G. (1984), Probabilidad y estadística, aplicaciones y métodos, México, Mc Graw-Hill


MUCHAS GRACIAS!!!!!!!
MUESTREO
Supongamos una Poblacion Normal
𝜇 𝑋ത
𝑥~𝑁(𝜇; 𝜎)

𝑛 ത
𝑋~𝑁 (𝜇

𝐸 𝑋ത = 𝜇

𝐸 𝑥1 + 𝑥2 + ⋯ + 𝑥𝑛 = 𝐸 𝑥1 + 𝐸 𝑥2 + ⋯ + 𝐸 𝑥𝑛 = 𝑛𝜇

𝜇 𝜇 𝜇
MUESTREO
Supongamos una Poblacion Normal
𝜇 𝑋ത
𝑥~𝑁(𝜇; 𝜎)

𝜎
𝑛 ത
𝑋~𝑁 (𝜇 ; )
𝑛

𝜎
𝑉 𝑋ത =
𝑛
2
𝑉 𝑥1 + 𝑥2 + ⋯ + 𝑥𝑛 = 𝑉 𝑥1 + 𝑉 𝑥2 + ⋯ + 𝑉 𝑥𝑛 = 𝑛𝜎

𝜎2 𝜎2 𝜎2
𝑛𝑋ത − 𝑛𝜇 = 𝑛 𝑋ത − 𝜇

𝜒12 𝑔𝑙 + 𝜒12 𝑔𝑙 + ⋯ + 𝜒12 𝑔𝑙 𝜒𝑛2 𝑔𝑙


𝜒12 𝑔𝑙
𝑆𝑛2
2
2 ~𝜒𝑛−1 𝑔𝑙
𝑆𝑛−1
ത 𝑛−1 𝑔𝑙 =
𝑋~𝑡
𝜎
• Si tenemos una población con distribución Normal
• Deseamos analizar la media
• No conocemos el desvio

𝑥~𝑁(𝜇; 𝜎)

𝑛→∞
𝑛 ≥ 30

𝜎
𝜇 𝑋ത ~𝑁(𝜇; ) ~𝑡𝑛−1 𝑔𝑙
𝑛 𝑛 ≥ 30
𝜎
Se define a la Proporcion como una parte de la población que cumple con ciertas
caracteristicas

𝑥~𝑁(𝜇; 𝜎)

𝑥
𝑝ҧ = 𝑝Ƹ = ~𝑁( 𝑃;
𝑛

𝑥
1−𝑃=1− =1−𝜋=𝑄
𝑁
𝑥
𝐸 𝑝Ƹ = 𝐸 = 𝑃
𝑛

𝑥
𝑉 𝑝Ƹ = 𝑉 =
𝑛
𝜎 𝑋ത − 𝜇
𝜎 𝑁 𝜇;
𝑛
𝑧=𝜎
ൗ 𝑛

𝑆𝑛
𝑆𝑛−1 𝑋ത − 𝜇 𝑋ത − 𝜇
𝑋ത σ 𝑡𝑛−1(𝜇; = ) 𝑡𝑛−1 = =
𝜇 𝑛 < 30
𝑛−1 𝑛 𝑆𝑛

𝑆𝑛−1
൘ 𝑛
𝑛−1
𝑋ത − 𝜇
𝑛 ≥ 30 𝑁(𝜇; 𝑆ൗ ) 𝑧=
𝑛 𝑆ൗ
𝑛

𝜎2

𝑝ҧ − 𝑃
𝑥 ) 𝑧=
𝑃 𝑃∗𝑄
𝑁
𝑛
CRITERIO DE LA PRECISION POR INSESGADEZ
• Supongamos una población con 3 elementos {1; 2; 3}
• Si tomo muestras aleatorias de tamaño 2
• Si tomo todos promedios y saco un promedio entre ellos

𝒙𝟏 ; 𝒙𝟐 ഥ
𝑿
1;1 1
• El promedio de todos los estimadores es igual al
1; 2 3/2 parámetro
1;3 2 • Si analizo la muestra con un estimador menos, estoy
dando la libertad al resto de los estimadores a tomar
2;1 3/2 cualquier valor, es decir el estimador que no utilizamos
2;2 2 tomara el valor que se requiere para ser igual al
2;3 5/2 parámetro.(No tiene sesgo)
• Este es el concepto de grados de libertad de una
3;1 2 muestra
3;2 5/2 • Es un concepto teorico que se cumple numéricamente
3;3 3 • En la varianza se toma el mismo concepto
DIFERENCIA DE
𝑥 ~𝑁(𝜇 ; 𝜎 )
MEDIAS
1 1 1 𝑥2~𝑁(𝜇2; 𝜎2 )

𝜇1 − 𝜇2

𝑋ത1 − 𝑋ത2 ~𝑁 ( 𝜇1 − 𝜇2;


𝜎2
𝜎1 𝑋ത2~𝑁(𝜇2 )

𝑋1 ~𝑁(𝜇1 ) 𝑛2
𝑛1

𝐸 𝑋ത1 − 𝑋ത2 = 𝐸(𝑋ത1 ) − 𝐸 𝑋ത2 = 𝜇1 − 𝜇2


(𝑋ത1 −𝑋ത2 ) − (𝜇1 − 𝜇2)
𝑧=
𝜎12 𝜎22 𝜎12 𝜎22
𝑉 𝑋ത1 − 𝑋ത2 = 𝑉(𝑋ത1 ) + 𝑉 𝑋ത2 = + +
𝑛1 𝑛2 𝑛1 𝑛2
• Supongamos que no conocemos los desvios
• Los suponemos iguales
• Debemos tener cuenta

2 𝑆 2 (𝑛2 − 1)
𝑆𝑛1 −1 (𝑛1 − 1) 𝑛 −1
ത 2
𝑉 𝑋1 ~𝜒𝑛1 −1 = 𝑉 𝑋ത2 ~𝜒𝑛2−1 =
2 2

𝜎12 𝜎22

𝑆𝑛21 −1(𝑛1 −1) 𝑆𝑛22 −1(𝑛2−1)


𝑉 𝑋ത1 − 𝑋ത2 = 𝑉(𝑋ത1 ) + 𝑉 𝑋ത2 = + ~𝜒𝑛21 +𝑛2−2
𝜎12 𝜎22

• La diferencia de medias con desvios desconocidos distribuye T-Student


𝜎12 = 𝜎22
DIFERENCIA DE PROPORCIONES

𝑃1 − 𝑃2

𝑝Ƹ 1 − 𝑝Ƹ 2 ~𝑁 (𝑃1 − 𝑃2;

𝐸(𝑝1Ƹ − 𝑝Ƹ2 ) = 𝐸(𝑝Ƹ1 ) − 𝐸(𝑝Ƹ2 ) = 𝑃1 − 𝑃2

𝑃1 ∗ 𝑄1 𝑃2 ∗ 𝑄2
𝑉(𝑝1Ƹ − 𝑝Ƹ2 ) = 𝑉(𝑝1Ƹ ) + 𝑉(𝑝Ƹ 2 ) = +
𝑛1 𝑛2
DIFERENCIA DE VARIANZAS
2 𝑆 2 ∗ (𝑛2 − 1)
2 2
𝑆𝑛1 −1 ∗ (𝑛1 − 1) 2 2 𝑛 2 −1
𝑆𝑛1 −1~𝜒𝑛1−1 𝑔𝑙 = 𝑆𝑛2 −1~𝜒𝑛2−1 𝑔𝑙 =
𝜎12 𝜎22
𝑋ത1 − 𝑋ത2 − 𝜇 − 𝜇2
𝜎 𝑧=
𝜎12 𝜎22
𝑛1 + 𝑛2

𝑋ത1 − 𝑋ത2 − 𝜇1 − 𝜇2 𝑆𝑛21 −1∗ 𝑛1 −1 +𝑆𝑛22 −1∗(𝑛2 −1)


𝜇1 − 𝜇2 𝑋ത1 − 𝑋ത2 σ 𝑡𝑛1+𝑛2−2 = Donde 𝑆𝑝 =
1 1 𝑛1+𝑛2 −2
𝑛1 𝑛2 ∗ 𝑆𝑝
+

𝜎12 𝑆𝑛21−1 𝑆𝑛21 −1 ∗ 𝜎22


𝜎22 𝑆𝑛22−1
𝐹 𝑛1 −1;𝑛2−1 = 2
𝑆𝑛2 −1 ∗ 𝜎12

𝑝1Ƹ − 𝑝2Ƹ − 𝑃1 − 𝑃2
𝑃1 − 𝑃2 𝑝1Ƹ − 𝑝Ƹ 2 𝑧=
𝑃1 ∗ 𝑄1 𝑃2 ∗ 𝑄2
𝑛1 + 𝑛2
BIBLIOGRAFÍA

Bachini, D.; Vázquez, L.; Bianco, M. J.; García Fronti, J. (2018), Introducción a la probabilidad y
estadística, Buenos Aires, CMA-FCE-UBA

Canavos, G. (1984), Probabilidad y estadística, aplicaciones y métodos, México, Mc Graw-Hill


MUCHAS GRACIAS!!!!!!!

También podría gustarte