Está en la página 1de 21

Curso de Probabilidad y Estadı́stica

Inferencia estadı́stica

D.Bertsekas. Tsitsiklis. IntroductionProbability


wackerly . Mendenhall. Sheaffer. MathematicalStatistics

April 29, 2022


Explorando TLC
Suponga n variables aleatorias iid, con Xi ∼ exp(λ = 0.01)

Supongamos n=10. Veamos como se comporta la variable

X¯n − µ
Zn = √
σ n

Usando R, generemos k=50 observaciones para Zn y veamos su


distribución gráfica (histograma)
Supongamos n=10. Veamos como se comporta la variable

X¯n − µ
Zn = √
σ n
Supongamos n=60. Veamos como se comporta la variable

X¯n − µ
Zn = √
σ n
Supongamos n=500. Veamos como se comporta la variable

X¯n − µ
Zn = √
σ n
Distribuciones usuales en el muestreo

▶ Sea Z ∼ N(0, 1) y sea X := Z 2 la distribución de la nueva


variable aleatoria X se conoce como χ2(1)
▶ Si Z1 , Z2 , ...Zn son variables aleatorias todas independientes
con distribución N(0, 1) y

X := Z1 + Z2 + .. + Zn

, entonces X ∼ χ2(n)
▶ Si Z ∼ N(0, 1) y X ∼ χ2(n) independientes entre si. Entonces
Z
la nueva variable aleatoria Y := p ∼ T T- student con n
x/n
grados de libertad.
La distribución T student tiene una gráfica similar a la normal
(colas más pesadas). Es una distribución asintótica que tiende
a la Normal cuando n → ∞
Distribuciones usuales en el muestreo

▶ Si X1 ∼ χ2(n) y X2 ∼ χ2(m) y X1 , X2 son variables aleatorias


independientes, a la distribución de la variable aleatoria

X1 /n
X2 /m

se le llama distribución F. F de fisher Snedecor con n,m


grados de libertad.

Ejemplo Determine la función de densidad de una Variable


aleatoria con distribución χ2(1) ( caso 1 de las distribuciones de
muestreo mencionadas)
Distribución T-student Distribución Chi cuadrado

Curva suave y simétrica con


media de cero
Se define a partir de los g.l que Es la distribución de la suma del
están relacionados con el tamaño cuadrado de k variables
muestral. aleatorias independientes con
Es útil para tamaños muestrales distribución normal estándar.
pequeños, cuando la desviación Es un caso especial de la
estándar de la población no se distribución gamma y es una de
conoce, o ambos. las distribuciones de probabilidad
más usadas en inferencia.
Definición

Un estimador θ̂ para el parámetro θ es una función de la muestra


θ̂(X1 , X2 , ...Xn ) que no depende de θ. El valor que tome θ̂ va a
depender de la muestra que se obtenga (método de muestreo
probabilı́stico).
De cómo sea la distribución del estimador, va a depender que tan
”bueno” sea el mismo.
▶ Decimos que θ̂ es insesgado para θ, si y solo si E (θ̂) = θ.
Además
sesgo(θ̂) = θ − E (θ̂)
▶ si θˆ1 y θˆ2 son estimadores insesgados de θ, entonces decimos
que θ̂1 es más eficiente que θ̂2 si y solo si

var (θ̂1 ) < var (θ̂2 )


▶ Error cuadrático medio (ECM)

ECM(θ) = E [(θ − θ̂2 ]

El criterio del ECM es elegir entre varios estimadores el de


menor valor de ECM
Ejemplo:

Sea Y1 , Y2 , ..., Yn una muestra aleatoria uniforme en (0, θ). Sean


n + 1
θˆ1 = 2Ȳ y θˆ2 = Ymax
n
donde Ymax = max{Y1 , Y2 , ..., Yn }.
1. Muetsre que θˆ1 y θˆ2 son insesgados
2. CUál es el más eficiente?
▶ Considere una muestra de tamaño n. Decimos que θ̂n es
consistente, si ∀ε > 0

lim P(|θ̂n − θ| ≤ ε) = 1
n→∞
lim P(|θ̂n − θ| > ε) = 0
n→∞
...

Teorema: Sea θ̂n un estimador insesgado, θ̂n es consistente


si: limn→∞ var (θ̂n ) = 0

Corolario: Sea Y1 , ..., Yn una muestra aleatoria de una


variable con distribución particular, con media µ y varianza σ 2
finita. Entonces Y¯n es un estimador consistente de µ

También podría gustarte