Documentos de Académico
Documentos de Profesional
Documentos de Cultura
2022-II
Contenido
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística
Tipos de inferencia
Deductiva(Matemática) e inductiva(Ciencias empíricas)
Inferencia deductiva: Se llega a una conclusión a partir de las
premisas, siguiendo una serie de pasos lógicos. Busca afirmar la
verdad en la totalidad de los casos posibles.
Inferencia inductiva: Se extraen conclusiones a partir de
determinadas observaciones o experiencias particulares. Los
argumentos inductivos parten de esta observación y luego se
generaliza. Obtienen una conclusión basándose en las probabilidades
y en la intuición.
Capítulo 1: Introducción y conceptos básicos
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Tipos de inferencia
Inferencia deductiva: Ejemplo
Premisa 1: Uno de los ángulos interiores de todo triángulo rectángulo
es igual a 90◦
Premisa 2: El triángulo A es un triángulo rectángulo
Premisa 3: Conclusión: uno de los ángulos del triángulo A es de 90◦
Inferencia inductiva: Ejemplo
Premisa 1: María comió chocolate y se le subió la presión arterial.
Premisa 2: Sandra también comió chocolate y se le subió la presión
arterial.
Conclusión: Comer chocolate sube la presión arterial.
Capítulo 1: Introducción y conceptos básicos
Inferencia
Estadística
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Poblaciones y muestras
El problema central consiste en observar algunos de los elementos de
interés (de la población) y sobre la base de esta observación, hacer
una afirmación sobre la totalidad de los elementos (sobre la
población).
Capítulo 1: Introducción y conceptos básicos -
Continuación
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Poblaciones y muestras
Población objetivo:
Es la totalidad de elementos que están bajo discusión y acerca de los
cuales se desea tener información.
Muestra aleatoria:
Sean X1 , X2 , ..., Xn variales aleatorias que tienen densidad conjunta
fX1 ,X2 ,...,Xn (., ..., .) tal que
fX1 ,X2 ,...,Xn (x1 , x2 , ..., xn ) = f (x1 )f (x2 ), ...f (xn ),
donde f (.) es la densidad común a cada Xi . Entonces, X1 , X2 , ..., Xn
se define como una muestra aleatoria de tamaño n de una población
con densidad f (.). n recibe el nombre de tamaño de la muestra.
Población muestreada:
Sea X1 , X2 , ..., Xn una muestra aleatoria de una población con
densidad f (.); entonces esta población se denomina la población
muestreada.
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Distribución de la muestra
Sea X1 , X2 , ..., Xn que denota una muestra de tamaño n. La
distribución de la muestra X1 , ..., Xn se define como la distribución
conjunta de X1 , ..., Xn .
Ejemplo
Suponga que una variable X tiene distribución Bernoulli, es decir,
f (x ) = p x q 1−x I0,1 (x ). La densidad conjunta para una muestra
aleatoria tamaño dos de f (x ), es
fX1 ,X2 (x1 , x2 ) = f (x1 )f (x2 ) = p x1 +x2 q 2−x1 −x2 I0,1 (x1 )I0,1 (x2 ) (1)
Si hacemos
y 2−y Y = X1 + X2 , se tiene que la densidad de Y es fY (y ) =
2
y p q
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Distribución de la muestra
Observaciones
Si X1 , X2 , ..., Xn es una muestra aleatoria de tamaño n de f (.),
entonces la distribución de la muestra aleatoria X1 , X2 , ..., Xn ,
definida como la distribución conjunta de X1 , X2 , ..., Xn , está dada
por fX1 ,X2 ,...,Xn (x1 , x2 , ..., xn ) = f (x1 )f (x2 ), ...f (xn )
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Estadístico
Un estadístico (o una estadística ) es una función de variables
aleatorias observables, que en sí misma es una variable aleatoria
observable, que no contiene parámetros desconocidos.
Ejemplos
Si la variable aleatoria observable X tiene la densidad ϕµ,σ2 (x ),
donde µ y σ son desconocidos, entonces X − µ y X /σ, no son
estadísticos.
Si X1 , X2 , ..., Xn es
Puna muestra aleatoria de la densidad f (.; θ),
n
entonces X̄n = n1 i=1 Xi y min [X1 , X2 , ..., Xn ] son estadísticos.
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística Momento muestral
Víctor Hugo
Morales Ospina Sea X1 , X2 , ..., Xn una muestra aleatoria de la densidad f (.; θ).
Entonces el r-ésimo momento central alrededor de 0, denotado por
Mr′ , está definido como
n
1X r
Mr′ = X . (2)
n i=1 i
Observación
Los momentos muestrales son estadísticos.
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística
Víctor Hugo
Morales Ospina Teorema
Sea X1 , X2 , ..., Xn una muestra aleatoria de una población con
densidad f (.). El valor esperado del r-ésimo momento muestral
alrededor de 0, es igual ael r-ésimo momento poblacional. Esto es,
E [Mr′ ] = µ′r (si µ′r existe.)
Prueba
" n #
X
E [Mr′ ] = E Xir
i=1
(4)
= µ′r
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Corolario
Sea X1 , X2 , ..., Xn una muestra
Pn aleatoria de una población con
densidad f (.) y sea X̄ = n1 i=1 Xi la media muestral; entonces
E [X̄ ] = µ (5)
y
1 2
Var [X̄ ] = σ (6)
n
donde µ y σ 2 son, respectivamente, la media y la varianza de f (.)
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Media muestral
El primer momento es la media muestral, definida como
n
1X
X̄ = Xi (7)
n i=1
Inferencia
Estadística Media y varianza
Víctor Hugo
Morales Ospina Teorema:
Sea X1 , X2 , ..., Xn una muestra aleatoria de la densidad
Pn f (.), la cual
tiene media µ y varianza finita σ 2 , y sea X̄ = n1 i=1 Xi . Entonces
1 2
E [X̄ ] = µX̄ = µ y Var [X̄ ] = σX̄2 = σ (8)
n
donde X1 , X2 , ..., Xn es una muestra aleatoria de una densidad f (.).
X̄ es una función de las variables aleatorias X1 , X2 , ..., Xn y por lo
tanto, teóricamente, la distribución de X̄ puede determinarse.
Observación
E [X̄ ] = µ indica que el promedio de X̄ es igual al parámetro que
está siendo estimado o que la distribución de X̄ está centrada
alrededor de µ
Var [X̄ ] = n1 σ 2 indica que el "ancho" de los valores de X̄
alrededor de µ es más pequeño para tamaños de muestra
grandes, comparado con tamaños de muestra pequeños.
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística
Diferencia de medias
Víctor Hugo
Morales Ospina
σ12 σ2
X̄ ∼ N(µ1 , ) y Ȳ ∼ N(µ2 , 2 ) (9)
n1 n2
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Diferencia de medias-continuación
σ12 σ22
E (X̄ − Ȳ ) = µX − µY y Var (X̄ − Ȳ ) = Var (X̄ ) + Var (Ȳ ) = +
n1 n2
(10)
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística Ley de los grandes números
Víctor Hugo
Morales Ospina Contexto: Sea E [X ] denotado por µ en la densidad f (.)
Problema: Estimar µ
En un sentido vago, E [X ] es el promedio calculado a partir de
un número infinito de valores de la variable aleatoria X .
Pregunta: Se puede hacer inferencia acerca de E [X ] usando solo
un número finito de valores de X
Respuesta: Si es posible
Ley de los grandes números: Se puede determinar un número
entero n tal que si se toma una muestra aleatoria de tamaño n o
más, de una población con densidad f (.) (con E [X ] = µ), la
probabilidad de que X̄ se desvíe de µ en menos que cualquier
pequeña cantidad especificada arbitrariamente, puede hacerse
tan cercana a uno como se quiera.
En símbolos: Para cualquier ϵ > 0 y 0 < δ < 1 existe un entero
n tal que para todo entero m≥ n, P[|X̄m − µ| < ϵ] ≥ 1 − δ.
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística
Ley debil de los grandes números
Víctor Hugo
Morales Ospina
Teorema: Sea f (.) una densidad con media µ y varianza finita σ 2 , y
sea X̄n la media muestral de una muestra de variables aleatorias de
tamaño n de f (.). Sean ϵ y δ dos números específicos que satisfacen
2
que ϵ > 0 y 0 < δ < 1. Si n es cualquier entero mayor que ϵσ2 δ ,
entonces
P[−ϵ < X̄m − µ < ϵ] ≥ 1 − δ (11)
E (g(X ))
P[g(X ) ≥ k] ≤ (12)
k
o equivalentemente,
E (g(X ))
P[g(X ) < k] ≥ 1 − (13)
k
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Ejemplo
Suponga que alguna distribución con media desconocida tiene
varianza igual a 1. Qué tan grande debe ser una muestra con el fin
de que la probabilidad de que la media muestral esté dentro de 0.5 de
la media poblacional, sea de al menos 0.95 ?
Solución
Por las condiciones del problema, se tiene que σ 2 = 1, ϵ=0.5,
δ=0.05. De acuerdo con el teorema,
σ2 1
n> = = 80 (15)
ϵ2 δ (0.52 )(0.05)
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística Ley debil de los grandes números - Comentarios adicionales
Víctor Hugo
Morales Ospina Teorema: Sea X1 , X2 , ... una sucesión de variables aleatorias
independientes e igualmente distribuidas con media µ y varianza
finita σ 2 . Entonces, para todo ϵ > 0, se satisface que:
X1 + ... + Xn σ2
P[| − µ| > ϵ| ≤ 2 (16)
n nϵ
de donde se deduce que, para todo ϵ > 0, se tiene que
X1 + ... + Xn
lim P[| − µ| > ϵ| = 0 (17)
x →∞ n
También, si X1 , X2 , ... una sucesión de variables aleatorias
independientes e igualmente distribuidas con media µ y varianza
finita σ 2 , entonces
X1 + ... + Xn
→µ (18)
n
la convergencia es en probabilidad
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Teorema del límite central - Ejemplo
Una distribución desconocida tiene media 90 y desviación estándar
15. Se sacan muestras de tamaño 25 de la población. Encuentre la
probabilidad de que la media muestral esté entre 85 y 92
Solución
Sea X la variable aleatoria asociada a la población, por que se tiene
que E (X ) = 90 y Var (X ) = 15.
Sea X̄ la media muestral a partir de muestras de tamaño n = 25. Se
sabe que
15
X̄ ∼ N(90, √ ) (20)
25
Se desea hallar P(85 < X < 92).
Por TLC se tiene que X̄ −E
σ
√
(X )
∼ N(0, 1), por lo que
n
P(85 < X < 92) = P(−1.667 < Z < 0.667) = 0.69
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística Media muestral
Víctor Hugo
Morales Ospina teorema
Sea X̄n la media muestral de una muestra aleatoria de tamaño n de
una distribución normal con media µ y varianza σ 2 . Entonces X̄n
2
tiene una distribución normal con media µ y varianza σn
Prueba
Inferencia
Estadística
Víctor Hugo
Media muestral
Morales Ospina
Prueba-continuación
n n
Y 1 Y t
E [exp(t( Xi ))] = mXi ( )
i=1
n i=1
n
n
Y µt 1 σt
= exp(( + ( )2 ))
i=1
n 2 n (22)
n
1 (σt)2
µt
= exp(( + ))
n 2 (n)2
1 σ2
= exp((µt + t 2 ))
2 n
lo cual corresponde a la fgm de una distribución normal con media µ
2
y varianza σn
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística
Víctor Hugo
Morales Ospina La distribución Chi-cuadrado
El objetivo es derivar la distribución de
n
1 X
S2 = (Xi − X̄ )2 (23)
n − 1 i=1
Inferencia
Estadística
Víctor Hugo
Morales Ospina La distribución Chi-cuadrado-continuación
Observación
La densidad Chi-cuadrado es un caso particular de la densidad
gamma, con parámetros r y λ iguales a k/2 y 1/2, respectivamente
(Véase, teorema 16, página 112, texto guía). Así, si una variable
aleatoria tiene distribución Chi-cuadrado con k g.l, entonces
k/2 k/2
E [X ] = =k y Var [X ] = = 2k (25)
1/2 (1/2)2
también
" #2 2
1/2 1
mX (t) = 1 = , t < 1/2 (26)
2 −t
1 − 2t
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística
Víctor Hugo
Morales Ospina Teorema
Observación
Si las variables aleatorias Xi , i = 1, 2, 3, ... son normales, e
independientes con media µi y varianza σi2 , entonces
k k/2
X Xi − µi
U= (27)
i=1
σi
tiene una distribución Chi-cuadrado con k grados de libertad
Prueba
Sea Zi = (Xi − µi )/σi . Se sabe que Zi tiene distribución normal
estándar.
Para probar el teorema, se hará uso de la fgm. Se debe mostrar que
la fgm de U tiene la forma de la fgm de una Chi-cuadrado
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística
Víctor Hugo
Morales Ospina Teorema-continuación
Continuación de prueba
mU (t) = E (exp(tU))
X
= E [exp(t zi2 ]
= E [exp(tz12 + tz22 + ... + tzk2 ]
k
Y (28)
= E[ exp(tZi2 ]
1
k
Y
= E [exp(tZi2 ]
1
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Teorema-continuación
Continuación de prueba
Ahora, sabemos que
Z ∞
2 1 −1 2
E [exp(tZi ] = exp(tz 2 ) √ exp( z )dz
−∞ 2π 2
Z ∞
1 −1
= √ exp(( )(1 − 2t)z 2 ) dz
−∞ 2π 2
Z ∞ √
1 1 − 2t −1
=√ √ exp(( )(1 − 2t)z 2 ) dz
1 − 2t −∞ 2π 2
1
=√
1 − 2t
(29)
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Teorema-continuación
Continuación de prueba
Luego,
k k
Y Y 1
E [exp(tZi2 ] = √
1 1
1 − 2t
k 1/2
Y 1 (30)
=
1
1 − 2t
k/2
1 1
= ,t <
1 − 2t 2
Inferencia
Estadística
Víctor Hugo
Morales Ospina
La distribución Chi-cuadrado
Teorema
Si Z1 , Z2 , ..., Zn es una muestra aleatoria de una distribución normal
estándar, entonces
Z̄ tiene distribución normal con media 0 y varianza 1/n
Pn
Z̄ y i=1 (Zi − Z̄ )2 son independientes
Pn 2
i=1 (Zi − Z̄ ) tiene una distriución chi-cuadrado con n − 1 g.l.
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística La distribución Chi-cuadrado
Víctor Hugo
Morales Ospina Teorema-prueba
La parte i) del teorema, es un caso particular de lo dicho en la
expresión (21)
Prueba de ii) para n=2
Z1 + Z2
Z̄ = (31)
2
2
X
(Zi − Z̄ )2 = (Z1 − Z̄ )2 + (Z2 − Z̄ )2
i=1
2
2
Z1 + Z2 Z1 + Z2
= Z1 − + Z2 −
2 2 (32)
2 2
2Z1 − Z1 − Z2 2Z2 − Z1 − Z2
= +
2 2
2 2
Z1 − Z2 Z2 − Z1
= +
2 2
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística
La distribución Chi-cuadrado
Víctor Hugo
Morales Ospina
Teorema-prueba
2 2
(Z1 − Z2 )2 (Z2 − Z1 )2 (Z2 − Z1 )2
Z1 − Z2 Z2 − Z1
+ = + =
2 2 4 4 2
(33)
P2
Así, Z̄ y i=1 (Zi − Z̄ )2 son funciones de Z1 + Z2 y Z2 − Z1
respectivamente.
Pn En consecuencia, para probar la independencia
entre Z̄ y i=1 (Zi − Z̄ )2 , es suficiente probar la independencia entre
Z1 + Z2 y Z2 − Z1 .
Para ello, usamos la fgm:
mZ1 +Z2 ,Z2 −Z1 (t1 , t2 ) = E (exp(t1 (Z1 + Z2 ) + t2 (Z2 − Z1 ))) (34)
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística
Víctor Hugo
Morales Ospina
La distribución Chi-cuadrado
Corolario
Si
n
2 1 X
S = (Xi − X̄ )2 (35)
n − 1 i=1
es la varianza muestral de una muestra aleatoria de una distribución
normal con media µ y varianza σ 2 , entonces
(n − 1)S 2
U= (36)
σ2
tiene distribución chi-cuadrado con n − 1 g.l.
Antes de considerar la prueba del corolario, veamos lo siguiente:
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística La distribución Chi-cuadrado
Víctor Hugo
Morales Ospina Corolario - continuación
El teorema 8 está dado para muestras aleatorias de una normal
estándar. Si queremos hacer inferencia acerca de µ y σ 2 , debemos
considerar muestras de una normal con media µ y varianza σ 2
Sea X1 , X2 , ..., Xn una muestra aleatoria de una distribución normal
con media µ y varianza σ 2 . Entonces los Zi del teorema 8 se
convierten en
P
Z̄ = (1/n) (Xi − µ)/σ = (X̄ − µ)/σ tiene distribución normal
con media 0 y varianza 1/n
P
Z̄
P= (1/n) (Xi −P µ)/σ y
n 2
i=1 (Zi − Z̄ ) = [((Xi − µ)/σ) − ((X̄ − µ)/σ)]2 son
independientes, lo cual implica que X̄ y (Xi − X̄ ) son
independientes
Pn 2
[(Xi − X̄ )/σ]2 tiene una distriución
P
i=1 (Zi − Z̄ ) =
chi-cuadrado con n − 1 g.l.
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística
Víctor Hugo
Morales Ospina
La distribución Chi-cuadrado
Corolario - prueba
(n − 1)S 2
U=
σ2
(n − 1) 1 X
= 2
(Xi − X̄ )2 (37)
σ (n − 1)
(Xi − X̄ )2
P
=
σ2
En iii) se probó que U tiene distribución chi-cuadrado con n − 1 g.l
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística La distribución F
Víctor Hugo
Morales Ospina Se supone que se tienen dos variables independientes U y V con
distribución Chi-cuadrado y grados de libertad m y n
respectivamente. Su densidad conjunta es
1
fU,V (u, v ) = u (m−2)/2 v (n−2)/2 e (−1/2)(u+v ) I(0,∞) (u)
Γ(m/2)Γ(n/2)2(m+n)/2
(38)
Interesa encontrar la distribución de la expresión
U/m
X= (39)
V /n
n 2n2 (m + n − 2)
E (X ) = , n > 2 y var (X ) = (40)
n−2 m(n − 2)2 (n − 4)
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística
Víctor Hugo
Morales Ospina
La distribución t de student
Si Z tiene una distriución normal estándar, si U tiene una
distribución Chi-cuadrado con k grados de libertad y si Z y U son
independientes, nos interesa la distribución de
Z
X= (41)
U/k
La distribución de X es t de Student con k g.l, y además,
la densidad conjunta de Z y U es
1 1 1 k (k
fZ ,U (z, u) = √ ( ) 2 u − 1) (42)
2π Γ( k2 ) 2 2
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística
Víctor Hugo
Morales Ospina Ejemplos
Ejercicio 12 - Mood
Una encuestadora desea tomar una muestra de votantes en un estado
dado, lo suficientemente grande, como para tener una probabilidad
de solo 0.01 de encontrar que la proporción que favorece a un
determinado candidato sea de menos del 50% cuando la verdadera
proporción es del 52%. Qué tamaño de muestra deben tomar?
Capítulo 2: Distribuciones muestrales
Inferencia
Estadística
Víctor Hugo
Morales Ospina Ejemplos
Ejercicio 12 - Mood
Una encuestadora desea tomar una muestra de votantes en un estado
dado, lo suficientemente grande, como para tener una probabilidad
de solo 0.01 de encontrar que la proporción que favorece a un
determinado candidato sea de menos del 50% cuando la verdadera
proporción es del 52%. Qué tamaño de muestra deben tomar?
Solución P
Xi
p = 0.52, n =?, p̂ = n = X̄ . Se quiere que
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Ejemplos
Ejercicio 12 - Mood - continuación
Aplicando el TLC, se tiene que
0.5 − 0.52
0.1 = P(X̄ < 0.5) = q (45)
(0.52)(0.48)
n
Inferencia
Estadística
Inferencia
Estadística
Inferencia
Estadística Convergencia de sucesiones de variables aleatorias
Víctor Hugo
Morales Ospina Sean X , X1 , X2 , ... variables aleatorias reales definidas sobre el mismo
espacio de probabilidad. Se definirán algunos modos de convergencia
de la sucesión (Xn )n a X .
Convergencia puntual-Definición
Sea X1 , X2 una sucesión infinita de variables aleatorias. Se dice que
esta sucesión converge puntualmente a X si para cada w ∈ Ω,
limn→∞ Xn (w ) = X (w ), ∀w ∈ Ω
Ejemplo
Considere el espacio medible ([0, 1], β[0, 1]), y defina la sucesión de
variables aleatorias Xn (w ) = w n
Capítulo 3: Estimación puntual
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Estimación puntual
La estimación puntual involucra dos problemas:
Primero: idear algún medio de obtener un estadístico para
utilizarlo como estimador.
Segundo: seleccionar criterios y técnicas para definir y encontrar
un mejor estimador entre muchos estimadores posibles.
Capítulo 3: Estimación puntual
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Métodos para encontrar estimadores
Problema: Se asume que X1 , X2 , ..., Xn es una muestra aleatoria
de una densidad f (.; θ), donde es conocida la forma de la
densidad, pero el parámetro θ es desconocido. Asumimos que θ
es un vector de números reales, digamos, θ = (θ1 , ..., θk ).
(Frecuentemente k será la unidad). Los elementos θ1 , ..., θk son
los parámetros. Al conjunto de los posibles valores que el
parámetro θ puede asumir, se le denomina espacio de
parámetros y se denota con el símbolo Θ.
Objetivo: Encontrar estadísticos para ser usados como
estimadores de t1 (θ), ..., tr (θ) (los cuales son funciones de
θ = (θ1 , ..., θk )).
Capítulo 3: Estimación puntual
Inferencia
Estadística
Inferencia
Estadística Métodos para encontrar estimadores
Víctor Hugo
Morales Ospina
Método de máxima verosimilitud (MV)
El método de estimación por MV se basa en encontrar el valor del
parámetro θ (o g(θ)), para el cual es máxima la probabilidad de
observar una muestra x1 , x2 , ..., xn
.
Situación - Ejemplo (Tomado de Zhang y Gutiérrez)
Suponga que la alcaldía de Bogotá está interesada en conocer el
número promedio de homicidios mensuales en la localidad de Usme.
Por las características de la variable (conteo), se puede asociar una
distribución Poisson con parámetro θ desconocido.
Interesa conocer θ
Suponga que en los últimos tres meses el número de homicidios
promedio fue 11, 9 y 7.
Los valores dados anteriormente, se consideran realizaciones de las
variables aleatorias X1 , X2 y X3
Cuál es la probabilidad de observar una muestra como esta?
Capítulo 3: Estimación puntual
Inferencia
Estadística
Víctor Hugo
Morales Ospina Métodos para encontrar estimadores
Método de máxima verosimilitud (MV)
Para dar respuesta a la pregunta anterior, se debe tener en cuenta
que el parámetro desconocido θ
Por ejemplo, si θ fuera igual a 5, entonces
θ 5 6 7
Pr 3.1 × 10−5 2.1 × 10−4 6.8 × 10−4
8 9 10
1.3 × 10−3 1.5 × 10−3 1.3 × 10−3
Capítulo 3: Estimación puntual
Inferencia
Estadística
Víctor Hugo
Morales Ospina Métodos para encontrar estimadores
Método de máxima verosimilitud (MV Definición)
Dadas n variables aleatorias X1 , ..., Xn , la función de verosimilitud se
define como la función de densidad conjunta de las n variables, y se
denota por L(x1 , ..., Xn , θ), es decir,
n
Y
L(x1 , ..., Xn , θ) = f (x1 )...f (xn ) = f (xi , θ) (48)
i=1
Nota
El método de máxima verosimilitud estima el valor de θ para el cual
se maximiza la función de verosimilitud.
Capítulo 3: Estimación puntual
Inferencia
Estadística
Inferencia
Estadística
Inferencia
Estadística Métodos para encontrar estimadores
Víctor Hugo
Morales Ospina Método de máxima verosimilitud - Ejemplo 2
Capítulo 3: Estimación puntual
Inferencia
Estadística Métodos para encontrar estimadores
Víctor Hugo
Morales Ospina Método de máxima verosimilitud - Ejemplo 2
Capítulo 3: Estimación puntual
Inferencia
Estadística Métodos para encontrar estimadores
Víctor Hugo
Morales Ospina Método de máxima verosimilitud - Ejemplo 3
Sea X1 , ..., Xn una muestra aleatoria de una población distribución
uniforme contínua de parámetro θ, cuya densidad está dada por
Inferencia
Estadística
Métodos para encontrar estimadores
Víctor Hugo
Morales Ospina
Método de máxima verosimilitud - Ejemplo 2 - continuación
es igual a 1 si y solo si todos los xi , i = 1, 2, ..., n pertenecen al
intervalo [θ − 12 , θ + 12 ], es decir, θ − 12 ≤ x(1) , x(2) , ..., x(n) ≤ θ + 21
Sea y1 = min {x1 , ..., xn } y yn = max {x1 , ..., xn }, entonces:
θ − 12 ≤ y1 y yn ≤ θ + 12 , de donde
θ ≤ y1 + 12 y yn − 12 ≤ θ, de donde
yn − 21 ≤ θ ≤ y1 + 12 , de donde
I[yn − 21 ,y1 + 12 ] (θ)(∗) .
La función indicadora toma solo dos valores: 0 ó 1. La función de
verosimilitud será máxima, en este caso, cuando se satisfaga ∗.
Así, el estimador de máxima verosimilitud de θ es cualquier valor θ̂
que satisfaga yn − 21 ≤ θ̂ ≤ y1 + 12 , como por ejemplo
y1 + yn
θ̂ = (55)
2
Capítulo 3: Estimación puntual
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Métodos para encontrar estimadores
Método de los momentos)
Sea f (.; θ1 , ..., θk ) la densidad de una variable aleatoria X , la cual
depende de k parámetros θ1 , ..., θk .
Sea µ′r que denota el r −ésimo momento alrededor de cero, es decir,
µ′r = E (X r )
En general, se asume que µ′r = µ′r (θ1 , ..., θk )
Sea X1 , ..., Xn una muestra aleatoria de la densidad f (.; θ1 , ..., θk ), y
sea Mj′ el j-ésimo momento muestral, esto es
n
1X j
Mj′ = X (56)
n i=1 i
Capítulo 3: Estimación puntual
Inferencia
Estadística
Víctor Hugo
Morales Ospina Métodos para encontrar estimadores
Método de los momentos - (continuación)
Forme las k ecuaciones
..
. (58)
µ′k = µ′k (θ1 , ..., θk ) (59)
y sea θ̂1 , ..., θ̂k su solución
Decimos que el estimador θ̂1 , ..., θ̂k , donde θ̂j estima a θj , es el
estimador de θ1 , ..., θk . por el método de los momentos.
Los estimadores se obtienen reemplazando los momentos
poblacionales por los momentos muestrales.
Capítulo 3: Estimación puntual
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Métodos para encontrar estimadores
Método de los momentos - (Ejemplo 1)
Sea X1 ., , , .Xn una muestra aleatoria de una distribución normal con
media µ y varianza σ 2 . Sea (θ1 , θ2 ) = (µ, σ)
Estime los parámetros µ y σ usando el método de los momentos.
Solución
1 M1′ = µ′1 (µ, σ) = µ, dado que µ′1 = E (X 1 ) = E (X ) = µ
2 M2′ = µ′2 (µ, σ) = µ2 + σ 2 , dado que
µ′2 = E (X 2 ) = σ 2 + µ2 = σ 2 + (E (X ))2
De (1) se obtiene que el estimador de µ por el método de los
momentos es
n
1X
M1′ = Xi = X̄ (60)
n i=1
Capítulo 3: Estimación puntual
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Métodos para encontrar estimadores
Método de los momentos - Ejemplo 2
Capítulo 3: Estimación puntual
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Propiedades de los estimadores puntuales
Error cuadrático medio
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Propiedades de los estimadores puntuales
Error cuadrático medio
Dada una muestra X1 , ..., Xn proveniente de una distribución con
parámetro desconocido θ, y sea T un estimador de θ. Se define el
error cuadrático medio de T , denotado por ECMT , como
ECMT = Eθ [(T − θ)2 ].
Nota
El ECM de un estimador el la distancia cuadrática promedio
entre el estimador y el parámetro a estimar.
El ECM de un estimador T es una medida de la dispersión de
los valores de T alrededor de θ
Si comparamos dos estimadores teniendo en cuenta sus
respectivos errores cuadráticos medios, se prefiere aquel que
tenga el menor de estos.
Capítulo 3: Estimación puntual
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Propiedades de los estimadores puntuales
Error cuadrático medio - Observación
Se puede probar que
ECMT = Var (T ) + (θ − Eθ (T ))2 = Var (T ) + BT2 . Ejercicio: Probar
Nota
Si T es un estimador insesgado de θ, entonces ECMT = Var (T ).
El error cuadrático medio es la suma de dos cantidades no negativas.
Un buen estimador debe tener un error cuadrático medio pequeño. Si
el estimador es insesgado, entonces es deseable que tenga poca
variabilidad.
Ejemplo
Sea X1 , X2 , ..., Xn una muestra aleatoria proveniente de una
distribución con media µ y varianza σ 2
Capítulo 3: Estimación puntual
Inferencia
Estadística Propiedades de los estimadores puntuales
Víctor Hugo
Morales Ospina
Solución
1 X
E (X̄ ) = E( Xi )
n (61)
1X 1
= E (Xi ) = nµ = µ
n n
Inferencia
Estadística Propiedades de los estimadores puntuales
Víctor Hugo
Morales Ospina Suficiencia- Definición
Dada una muestra aleatoria X1 , ..., Xn con fd f (xi , θ) y sea
T = T (X1 , ..., Xn ) un estimador de θ. Se dice que T es suficiente
para θ si la distribución condicional de X dados valores de T , no
depende de θ.
Ejemplo
Capítulo 3: Estimación puntual
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística Propiedades de los estimadores puntuales
Víctor Hugo
Morales Ospina Suficiencia - Familia exponencial
Definición y Ejemplo1
Capítulo 3: Estimación puntual
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Propiedades de los estimadores puntuales
Suficiencia - Familia exponencial
Ejemplo2
Capítulo 3: Estimación puntual
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística Propiedades de los estimadores puntuales
Víctor Hugo
Morales Ospina Cota de Cramer-Rao - Definición
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Propiedades de los estimadores puntuales
Definición - UMVUE
Dada una muestra aleatoria X1 , ..., Xn con función de densidad
f (xi , θ), y T un estimador insesgado para θ, si Var (T ) ≤ Var (T ∗ )
para todo θ, para cualquier otro estimador insesgado T ∗ de θ,
entonces se dice que T es un estimador insesgado de varianza
uniformemente mínima (UMVUE).
Si un estimador insesgado tiene su varianza igual a la cota de
Cramer-Rao, entonces es un UMVUE.
Si un experimentador utiliza un estimador insesgado cuya
varianza sea cercana a la de la cota de Cramer-Rao, entonces
está usando un buen estimador.
Capítulo 3: Estimación puntual
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística Propiedades de los estimadores puntuales
Víctor Hugo
Morales Ospina
Cota de Cramer-Rao - Ejemplo 1
Capítulo 3: Estimación puntual
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Propiedades de los estimadores puntuales
Ejemplo 2 - UMVUE
Capítulo 3: Estimación puntual
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Propiedades de los estimadores puntuales
Ejemplo 4 - UMVUE
Capítulo 3: Estimación puntual
Inferencia
Estadística
Propiedades de los estimadores puntuales-Consistencia
Víctor Hugo
Morales Ospina
Las propiedades de los estimadores vistas hasta el momento, han
asumido que n es constante. La propiedad que se define a
continuación, considera a n variable.
Capítulo 3: Estimación puntual
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Intervalos de confianza
La estimación por intervalos representa una alternativa a la
estimación puntual.
En la estimación por intervalos se puede cuantificar la
posibilidad de llegar a una conclusión equivocada
Estimación por intervalos
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Intervalos de confianza
En algunos casos sólo interesa el valor superior del IC
Por ejemplo, si se realiza un estudio sobre el nivel de nicotina en
cigarrillos, el interés estará en los valores altos de los niveles de
nicotina, puesto que, en este caso, mientras menor cantidad de
nicotina contengan los cigarrillos, será mejor.
Estimación por intervalos
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Intervalos de confianza
De manera análoga, en algunos casos sólo interesa el valor
inferior del IC
Por ejemplo, si se realiza un estudio sobre el tiempo de vida de
unas bombillas, el interés estará en los valores bajos de los
tiempos de vida de los bombillos puesto que, en este caso,
mientras mayor sea el tiempo de duración de los bombillos, será
mejor.
Estimación por intervalos-Bajo normalidad
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Una muestra-µ
Uno de los métodos más conocidos para encontrar un IC para un
parámetro, es el de la variable pivote o de la cantidad pivotal.
Estimación por intervalos-Bajo normalidad
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Una muestra-µ
Estimación por intervalos-Bajo normalidad
Inferencia
Estadística Una muestra-µ
Víctor Hugo
Morales Ospina
Estimación por intervalos-Bajo normalidad
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Una muestra-µ
Luego de realizar algunas operaciones algebraicas, se obtiene la
siguiente expresión:
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Una muestra-µ
El intervalo que finalmente se obtiene, viene dado por
Estimación por intervalos-Bajo normalidad
Inferencia
Estadística Una muestra-µ
Víctor Hugo
Morales Ospina Ejemplo
Estimación por intervalos-Bajo normalidad
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Una muestra-µ, sigma desconocido
Cantidad pivotal
Estimación por intervalos-Bajo normalidad
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística
Víctor Hugo
Morales Ospina Una muestra-µ, sigma desconocido
Sn−1 (b − a)
l= √ (65)
n
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Una muestra-µ, sigma desconocido
El intervalo de confianza resultante es
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística IC para σ 2 cuando µ es conocida
Víctor Hugo
Morales Ospina Sea X1 , ..., Xn una muestra aleatoria proveniente de una distribución
N(µ, σ 2 )
En este caso, la cantidad pivotal es
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística
Víctor Hugo
Morales Ospina
IC para σ 2 cuando µ es conocida
Inferencia
Estadística
Víctor Hugo
Morales Ospina
IC para σ 2 cuando µ es desconocida
Estimación por intervalos-Bajo normalidad
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística IC para la diferencia de medias - varianzas conocidas
Víctor Hugo
Morales Ospina
Estimación por intervalos-Bajo normalidad
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Conceptos preliminares
Pruebas de hipótesis
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Conceptos preliminares
Pruebas de hipótesis
Inferencia
Estadística
Inferencia
Estadística
Prueba de razón de verosimilitudes
Víctor Hugo
Morales Ospina
Es un método para encontrar reglas de decisión.
Definición Sea X1 , X2 , ..., Xn una muestra aleatoria de una densidad
f (x ; θ), donde θ es el parámetro desconocido.
Suponga que se quiere probar el sistema de hipótesis H0 : θ = θ0 Vs
H1 : θ = θ1 .
Se denomina prueba de razón de verosimilitudes a la prueba con regla
de decisión dada por: Rechazar H0 si λ > k, para alguna constante
k, donde λ está dada por
Q
L(θ1 ; x1 , ..., x1 ) f (x1 ; θ1 )
λ= =Q (68)
L(θ0 ; x1 , ..., x1 ) f (x1 ; θ0 )
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Prueba de razón de verosimilitudes
Ejemplo Sea X1 , ..., X1 una muestra aleatoria de
f (x ; θ) = θexp(−θx )I(0,∞) (x ) donde θ = θ1 o θ = θ0 con θ0 y θ1
números fijos desconocidos tales que θ1 > θ0 . Establecer una regla de
decisión para probar la hipótesis H0 : θ = θ0 Vs H1 : θ = θ1 , θ1 > θ0
Solución
L1 = θ1n exp(−θ1 xi ) y L0 = θ0n exp(−θ0 xi )
P P
De acuerdo con la PRV, se debe rechazar H0 si λ > k ∗ o
equivalentemente, si
θ1n exp(−θ1 xi )
P
> k∗ (69)
θ0n exp(−θ0 xi )
P
Pruebas de hipótesis
Inferencia
Estadística Prueba de razón de verosimilitudes
Víctor Hugo
Morales Ospina Ejemplo-continuación
equivalentemente, rechazar H0 si
n
θ1 X
exp(−(θ1 − θ0 ) xi ) > k ∗ (70)
θ0
equivalentemente
n
X 1 θ0 ∗
xi > ln k =k (71)
θ0 − θ1 θ1
Inferencia
Estadística Ejemplo 2
Víctor Hugo
Morales Ospina Sea X1 , ..., X1 una MA de una N(µ, σ 2 ) con σ 2 = σ02 conocida.
Determinar una regla de decisión para probar H0 : µ = µ0 Vs
H1 : µ > µ 0
Pruebas de hipótesis
Inferencia
Estadística Ejemplo 2
Víctor Hugo
Morales Ospina
−µ
x̄√
rechazar H0 si > z1−α
σ/ (n)
Continuación Inferencia
Inferencia
Estadística Ejemplo 4.2.1
Víctor Hugo
Morales Ospina El sistema de hipótesis es
Inferencia
Estadística
Inferencia
Estadística
Víctor Hugo
En este caso se usa el concepto de error tipo I. Así, se desea que
Morales Ospina
dado H0 cierta
Pero
n
1X
P(σ 2 − σ02 > K1 ) = P( (Xi − µ)2 > K1 + σ02 ) (76)
n i=1
De donde
Pn
i=1 (Xi − µ)2 nK1
α = P( > + n) (77)
σ02 σ02
Pn
(Xi − µ)2 nK2
+P( i=1 2 < + n) (78)
σ0 σ02
Prueba de hipótesis para la varianza-continuación
Inferencia
Estadística Bajo H0 cierta (σ 2 = σ02 ),
Víctor Hugo Pn
Morales Ospina
i=1 (Xi − µ)2
∼ χ2n (79)
σ02
Así,
nK1 nK2
2 +n y 2 +n (80)
σ0 σ0
son percentiles de la distribución χ2n
Los percentiles que comúnmente (por practicidad) se escogen
son
nK1
χ2n,1− α2 = +n (81)
σ02
y
nK2
χ2n, α2 = +n (82)
σ02
Prueba de hipótesis para la varianza-continuación
Inferencia
Estadística
Víctor Hugo
de donde se obtienen
Morales Ospina
(χ2n,1− α − n)
2
K1 = (83)
nσ02
(χ2n, α − n)
2
K2 = (84)
nσ02
Finalmente, la regla de decisión es: rechazar H0 cuando
Pn 2
i=1 (Xi − µ)
> χ2n,1− α2 (85)
σ02
ó
Pn
i=1 (Xi − µ)2
< χ2n, α2 (86)
σ02
Prueba de hipótesis para la varianza
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Ejemplo
Un fabricante de baterías para automóvil asegura que la duración de
sus baterías tiene distribución aproximadamente normal con una
desviación estándar igual a 0.9 años. Si una muestra aleatoria de 10
de éstas baterías tiene una desviación estándar de 1.2 años, piensa
usted que σ > 0.9 años?. Use α = 0.05
Solución
El fabricante desea probar que sus baterías no tienen una variabilidad
mayor a la que él indica, y adicionalmente, la muestra parecería ir en
contra de su afirmación. Así, el sistema de hipótesis que se debe
probar es
Inferencia
Estadística
Víctor Hugo
Morales Ospina
Ejemplo-cotinuación
Como
n
1X
σ̂ 2 = (Xi − µ)2 = (1.2)2 = 1.44 (88)
n i=1
entonces
Pn
i=1 (Xi − µ)2 1.94n
= = 17.77 = χ20 (89)
0.9 0.81
El percentil correspondiente de la Chi-cuadrado es χ20.95,10 = 18.307,
con lo que se concluye que no hay evidencia suficiente para rechazar
H0