Está en la página 1de 125

Inferencia Estadística

Notas de clase - Universidad de Córdoba

Víctor Hugo Morales Ospina

2022-II
Contenido

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Capítulo 1: Introducción y conceptos básicos


Capítulo 2: Distribuciones muestrales
Capítulo 3: Estimación puntual de parámetros
Capítulo 4: Estimación por intervalos
Capítulo 5: Pruebas de hipótesis
Capítulo 1: Introducción y conceptos básicos

Inferencia
Estadística

Víctor Hugo Inferencia Estadística


Morales Ospina
Conjunto de métodos que permiten inducir, a partir de la información
contenida en una muestra, el comportamiento de una determinada
población, con un riesgo de error medible en términos de probabilidad.

Tipos de inferencia
Deductiva(Matemática) e inductiva(Ciencias empíricas)
Inferencia deductiva: Se llega a una conclusión a partir de las
premisas, siguiendo una serie de pasos lógicos. Busca afirmar la
verdad en la totalidad de los casos posibles.
Inferencia inductiva: Se extraen conclusiones a partir de
determinadas observaciones o experiencias particulares. Los
argumentos inductivos parten de esta observación y luego se
generaliza. Obtienen una conclusión basándose en las probabilidades
y en la intuición.
Capítulo 1: Introducción y conceptos básicos

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Tipos de inferencia
Inferencia deductiva: Ejemplo
Premisa 1: Uno de los ángulos interiores de todo triángulo rectángulo
es igual a 90◦
Premisa 2: El triángulo A es un triángulo rectángulo
Premisa 3: Conclusión: uno de los ángulos del triángulo A es de 90◦
Inferencia inductiva: Ejemplo
Premisa 1: María comió chocolate y se le subió la presión arterial.
Premisa 2: Sandra también comió chocolate y se le subió la presión
arterial.
Conclusión: Comer chocolate sube la presión arterial.
Capítulo 1: Introducción y conceptos básicos

Inferencia
Estadística

Víctor Hugo Inferencia(inductiva)


Morales Ospina

Llegar a conclusiones acerca de una población, basados en la


información contenida en una muestra.
Investigador =⇒ datos =⇒ Conclusiones
Investigador =⇒ generaliza (va de lo particular a lo general) =⇒
inferencia inductiva =⇒ incertidumbre
Capítulo 1: Introducción y conceptos básicos

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Poblaciones y muestras
El problema central consiste en observar algunos de los elementos de
interés (de la población) y sobre la base de esta observación, hacer
una afirmación sobre la totalidad de los elementos (sobre la
población).
Capítulo 1: Introducción y conceptos básicos -
Continuación
Inferencia
Estadística

Víctor Hugo
Morales Ospina
Poblaciones y muestras
Población objetivo:
Es la totalidad de elementos que están bajo discusión y acerca de los
cuales se desea tener información.
Muestra aleatoria:
Sean X1 , X2 , ..., Xn variales aleatorias que tienen densidad conjunta
fX1 ,X2 ,...,Xn (., ..., .) tal que
fX1 ,X2 ,...,Xn (x1 , x2 , ..., xn ) = f (x1 )f (x2 ), ...f (xn ),
donde f (.) es la densidad común a cada Xi . Entonces, X1 , X2 , ..., Xn
se define como una muestra aleatoria de tamaño n de una población
con densidad f (.). n recibe el nombre de tamaño de la muestra.
Población muestreada:
Sea X1 , X2 , ..., Xn una muestra aleatoria de una población con
densidad f (.); entonces esta población se denomina la población
muestreada.
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Distribución de la muestra
Sea X1 , X2 , ..., Xn que denota una muestra de tamaño n. La
distribución de la muestra X1 , ..., Xn se define como la distribución
conjunta de X1 , ..., Xn .

Ejemplo
Suponga que una variable X tiene distribución Bernoulli, es decir,
f (x ) = p x q 1−x I0,1 (x ). La densidad conjunta para una muestra
aleatoria tamaño dos de f (x ), es

fX1 ,X2 (x1 , x2 ) = f (x1 )f (x2 ) = p x1 +x2 q 2−x1 −x2 I0,1 (x1 )I0,1 (x2 ) (1)

Si hacemos
 y 2−y Y = X1 + X2 , se tiene que la densidad de Y es fY (y ) =
2
y p q
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Distribución de la muestra
Observaciones
Si X1 , X2 , ..., Xn es una muestra aleatoria de tamaño n de f (.),
entonces la distribución de la muestra aleatoria X1 , X2 , ..., Xn ,
definida como la distribución conjunta de X1 , X2 , ..., Xn , está dada
por fX1 ,X2 ,...,Xn (x1 , x2 , ..., xn ) = f (x1 )f (x2 ), ...f (xn )

Si X1 , X2 , ..., Xn es una muestra aleatoria, entonces X1 , X2 , ..., Xn son


independientes.
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Estadísticos y momentos muestrales


Problema
Estudiar una población que tiene función de densidad f (.; θ)
Se conoce la forma de la densidad pero esta contiene un
parámetro desconocido
Solución
Tomar una muestra aleatoria X1 , X2 , ..., Xn de tamaño n, de esta
densidad
Utilizar el valor de alguna función, digamos, l(x1 , x2 , ..., xn ), para
representar o estimar el parámetro desconocido θ.
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Estadístico
Un estadístico (o una estadística ) es una función de variables
aleatorias observables, que en sí misma es una variable aleatoria
observable, que no contiene parámetros desconocidos.
Ejemplos
Si la variable aleatoria observable X tiene la densidad ϕµ,σ2 (x ),
donde µ y σ son desconocidos, entonces X − µ y X /σ, no son
estadísticos.
Si X1 , X2 , ..., Xn es
Puna muestra aleatoria de la densidad f (.; θ),
n
entonces X̄n = n1 i=1 Xi y min [X1 , X2 , ..., Xn ] son estadísticos.
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística Momento muestral
Víctor Hugo
Morales Ospina Sea X1 , X2 , ..., Xn una muestra aleatoria de la densidad f (.; θ).
Entonces el r-ésimo momento central alrededor de 0, denotado por
Mr′ , está definido como
n
1X r
Mr′ = X . (2)
n i=1 i

En particular, sin r = 1, tenemos la media muestral X̄ (o X̄n ).


El r-ésimo momento muestral alrededor de X̄n , denotado por Mr , está
definido por
n
1X
Mr = (Xi − X̄n )r . (3)
n i=1

Observación
Los momentos muestrales son estadísticos.
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina Teorema
Sea X1 , X2 , ..., Xn una muestra aleatoria de una población con
densidad f (.). El valor esperado del r-ésimo momento muestral
alrededor de 0, es igual ael r-ésimo momento poblacional. Esto es,
E [Mr′ ] = µ′r (si µ′r existe.)

Prueba

" n #
X
E [Mr′ ] = E Xir
i=1
(4)
= µ′r

De forma análoga, se tiene que Var [Mr′ ] = n1 [µ′2r − (µ′r )2 ]. Si r = 1,


se tiene el corolario siguiente
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Corolario
Sea X1 , X2 , ..., Xn una muestra
Pn aleatoria de una población con
densidad f (.) y sea X̄ = n1 i=1 Xi la media muestral; entonces

E [X̄ ] = µ (5)

y
1 2
Var [X̄ ] = σ (6)
n
donde µ y σ 2 son, respectivamente, la media y la varianza de f (.)

Nota: Revisar definición 7 (Varianza muestral)


Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Media muestral
El primer momento es la media muestral, definida como
n
1X
X̄ = Xi (7)
n i=1

donde X1 , X2 , ..., Xn es una muestra aleatoria de una densidad f (.).


X̄ es una función de las variables aleatorias X1 , X2 , ..., Xn y por lo
tanto, teóricamente, la distribución de X̄ puede determinarse.
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística Media y varianza
Víctor Hugo
Morales Ospina Teorema:
Sea X1 , X2 , ..., Xn una muestra aleatoria de la densidad
Pn f (.), la cual
tiene media µ y varianza finita σ 2 , y sea X̄ = n1 i=1 Xi . Entonces

1 2
E [X̄ ] = µX̄ = µ y Var [X̄ ] = σX̄2 = σ (8)
n
donde X1 , X2 , ..., Xn es una muestra aleatoria de una densidad f (.).
X̄ es una función de las variables aleatorias X1 , X2 , ..., Xn y por lo
tanto, teóricamente, la distribución de X̄ puede determinarse.
Observación
E [X̄ ] = µ indica que el promedio de X̄ es igual al parámetro que
está siendo estimado o que la distribución de X̄ está centrada
alrededor de µ
Var [X̄ ] = n1 σ 2 indica que el "ancho" de los valores de X̄
alrededor de µ es más pequeño para tamaños de muestra
grandes, comparado con tamaños de muestra pequeños.
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística
Diferencia de medias
Víctor Hugo
Morales Ospina

Considere una característica medida sobre dos poblaciones, digamos,


1 y 2, y sean X e Y las variables aleatorias que representan estas
características en las poblaciones 1 y 2, respectivamente. Suponga
que la población 1 tiene media µ1 y varianza σ12 , y la población 2,
tiene media µ2 y varianza σ22 . Entonces tomamos todas las muestras
de tamaño n1 de la población 1, y la media muestral, X̄ , es calculada
para cada muestra. De manera similar, para la población dos,
tomamos todas las muestras de tamaño n2 , y la media muestral, Ȳ ,
es calculada para cada muestra. Entonces consideramos todas las
posibles diferencias de medias X̄ y Ȳ . Si ambas poblaciones son
normales, esto es, X ∼ N(µ1 , σ12 ) y Y ∼ N(µ2 , σ22 ), entonces

σ12 σ2
X̄ ∼ N(µ1 , ) y Ȳ ∼ N(µ2 , 2 ) (9)
n1 n2
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Diferencia de medias-continuación

Como las variables aleatorias X e Y son independientes y


normalmente distribuidas, entonces X − Y tiene también distribución
normal. Así, la distribución muestral de la diferencia de dos medias
muestrales, es también normal con media

σ12 σ22
E (X̄ − Ȳ ) = µX − µY y Var (X̄ − Ȳ ) = Var (X̄ ) + Var (Ȳ ) = +
n1 n2
(10)
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística Ley de los grandes números
Víctor Hugo
Morales Ospina Contexto: Sea E [X ] denotado por µ en la densidad f (.)
Problema: Estimar µ
En un sentido vago, E [X ] es el promedio calculado a partir de
un número infinito de valores de la variable aleatoria X .
Pregunta: Se puede hacer inferencia acerca de E [X ] usando solo
un número finito de valores de X
Respuesta: Si es posible
Ley de los grandes números: Se puede determinar un número
entero n tal que si se toma una muestra aleatoria de tamaño n o
más, de una población con densidad f (.) (con E [X ] = µ), la
probabilidad de que X̄ se desvíe de µ en menos que cualquier
pequeña cantidad especificada arbitrariamente, puede hacerse
tan cercana a uno como se quiera.
En símbolos: Para cualquier ϵ > 0 y 0 < δ < 1 existe un entero
n tal que para todo entero m≥ n, P[|X̄m − µ| < ϵ] ≥ 1 − δ.
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística
Ley debil de los grandes números
Víctor Hugo
Morales Ospina
Teorema: Sea f (.) una densidad con media µ y varianza finita σ 2 , y
sea X̄n la media muestral de una muestra de variables aleatorias de
tamaño n de f (.). Sean ϵ y δ dos números específicos que satisfacen
2
que ϵ > 0 y 0 < δ < 1. Si n es cualquier entero mayor que ϵσ2 δ ,
entonces
P[−ϵ < X̄m − µ < ϵ] ≥ 1 − δ (11)

Prueba Se sabe que

E (g(X ))
P[g(X ) ≥ k] ≤ (12)
k
o equivalentemente,

E (g(X ))
P[g(X ) < k] ≥ 1 − (13)
k
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Prueba(continuación) Sea g(X ) = (X̄n − µ)2 y k = ϵ2 . Entonces

P[−ϵ < X̄m − µ < ϵ] = P[|X̄m − µ| < ϵ]


= P[|X̄m − µ|2 < ϵ2 ]
= P[(X̄m − µ)2 < ϵ2 ]
(14)
E [(X̄m − µ)2 ]
≥1−
ϵ2
2
(1/n)σ
1− ≥1−δ
ϵ2
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Ejemplo
Suponga que alguna distribución con media desconocida tiene
varianza igual a 1. Qué tan grande debe ser una muestra con el fin
de que la probabilidad de que la media muestral esté dentro de 0.5 de
la media poblacional, sea de al menos 0.95 ?

Solución
Por las condiciones del problema, se tiene que σ 2 = 1, ϵ=0.5,
δ=0.05. De acuerdo con el teorema,

σ2 1
n> = = 80 (15)
ϵ2 δ (0.52 )(0.05)
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística Ley debil de los grandes números - Comentarios adicionales
Víctor Hugo
Morales Ospina Teorema: Sea X1 , X2 , ... una sucesión de variables aleatorias
independientes e igualmente distribuidas con media µ y varianza
finita σ 2 . Entonces, para todo ϵ > 0, se satisface que:

X1 + ... + Xn σ2
P[| − µ| > ϵ| ≤ 2 (16)
n nϵ
de donde se deduce que, para todo ϵ > 0, se tiene que
X1 + ... + Xn
lim P[| − µ| > ϵ| = 0 (17)
x →∞ n
También, si X1 , X2 , ... una sucesión de variables aleatorias
independientes e igualmente distribuidas con media µ y varianza
finita σ 2 , entonces
X1 + ... + Xn
→µ (18)
n
la convergencia es en probabilidad
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Ley fuerte de los grandes números


Teorema: Si las variables aleatorias X1 , X2 , ..., Xn constituyen una
muestra aleatoria
 de una población con valor esperado µ, entonces la
sucesión X̄n − µ converge casi seguro a cero, es decir,

P[ lim X̄n − µ = 0] = 1
x →∞
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Teorema del límite central


Sea f (.) una densidad con media µ y varianza σ 2 . Sea X̄n la media
muestral de una muestra aleatoria de tamaño n de f (.). Sea

X̄n − E (X̄n ) X̄n − µ


Zn = q = σ (19)

Var [X̄n ] n

Entonces, la distribución de Zn se aproxima a la distribución normal


estándar cuando n tiende al infinito.
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Teorema del límite central - Ejemplo
Una distribución desconocida tiene media 90 y desviación estándar
15. Se sacan muestras de tamaño 25 de la población. Encuentre la
probabilidad de que la media muestral esté entre 85 y 92
Solución
Sea X la variable aleatoria asociada a la población, por que se tiene
que E (X ) = 90 y Var (X ) = 15.
Sea X̄ la media muestral a partir de muestras de tamaño n = 25. Se
sabe que
15
X̄ ∼ N(90, √ ) (20)
25
Se desea hallar P(85 < X < 92).
Por TLC se tiene que X̄ −E
σ

(X )
∼ N(0, 1), por lo que
n
P(85 < X < 92) = P(−1.667 < Z < 0.667) = 0.69
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística Media muestral
Víctor Hugo
Morales Ospina teorema
Sea X̄n la media muestral de una muestra aleatoria de tamaño n de
una distribución normal con media µ y varianza σ 2 . Entonces X̄n
2
tiene una distribución normal con media µ y varianza σn
Prueba

mX̄n (t) = E [exp(t X̄n )]


n
1X
= E [exp(t( Xi ))]
n i=1
n
Y 1 (21)
= E[ exp(t( Xi ))]
i=1
n
n
Y 1
= E [exp(t( Xi ))]
i=1
n
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Media muestral
Morales Ospina
Prueba-continuación

n n
Y 1 Y t
E [exp(t( Xi ))] = mXi ( )
i=1
n i=1
n
n
Y µt 1 σt
= exp(( + ( )2 ))
i=1
n 2 n (22)
n
1 (σt)2

µt
= exp(( + ))
n 2 (n)2
1 σ2
= exp((µt + t 2 ))
2 n
lo cual corresponde a la fgm de una distribución normal con media µ
2
y varianza σn
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina La distribución Chi-cuadrado
El objetivo es derivar la distribución de
n
1 X
S2 = (Xi − X̄ )2 (23)
n − 1 i=1

el cual se usa para estimar el parámetro σ 2 . Antes, se da la definición


de la distribución Chi cuadrado.
Definición Si X es una variable aleatoria con densidad
 2
1 1 k −1
fX (x ) = k x 2 −1 e 2 x I(0,∞) (x ) (24)
Γ( 2 ) 2
entonces X tiene una distribución Chi-cuadrado con k grados de
libertad.
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina La distribución Chi-cuadrado-continuación
Observación
La densidad Chi-cuadrado es un caso particular de la densidad
gamma, con parámetros r y λ iguales a k/2 y 1/2, respectivamente
(Véase, teorema 16, página 112, texto guía). Así, si una variable
aleatoria tiene distribución Chi-cuadrado con k g.l, entonces

k/2 k/2
E [X ] = =k y Var [X ] = = 2k (25)
1/2 (1/2)2
también
" #2  2
1/2 1
mX (t) = 1 = , t < 1/2 (26)
2 −t
1 − 2t
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina Teorema
Observación
Si las variables aleatorias Xi , i = 1, 2, 3, ... son normales, e
independientes con media µi y varianza σi2 , entonces
k  k/2
X Xi − µi
U= (27)
i=1
σi
tiene una distribución Chi-cuadrado con k grados de libertad
Prueba
Sea Zi = (Xi − µi )/σi . Se sabe que Zi tiene distribución normal
estándar.
Para probar el teorema, se hará uso de la fgm. Se debe mostrar que
la fgm de U tiene la forma de la fgm de una Chi-cuadrado
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina Teorema-continuación
Continuación de prueba

mU (t) = E (exp(tU))
X
= E [exp(t zi2 ]
= E [exp(tz12 + tz22 + ... + tzk2 ]
k
Y (28)
= E[ exp(tZi2 ]
1
k
Y
= E [exp(tZi2 ]
1
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Teorema-continuación
Continuación de prueba
Ahora, sabemos que
Z ∞
2 1 −1 2
E [exp(tZi ] = exp(tz 2 ) √ exp( z )dz
−∞ 2π 2
Z ∞
1 −1
= √ exp(( )(1 − 2t)z 2 ) dz
−∞ 2π 2
Z ∞ √
1 1 − 2t −1
=√ √ exp(( )(1 − 2t)z 2 ) dz
1 − 2t −∞ 2π 2
1
=√
1 − 2t
(29)
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Teorema-continuación
Continuación de prueba
Luego,
k k
Y Y 1
E [exp(tZi2 ] = √
1 1
1 − 2t
k  1/2
Y 1 (30)
=
1
1 − 2t
 k/2
1 1
= ,t <
1 − 2t 2

que corresponde a la fgm de una Chi-cuadrado


Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina

La distribución Chi-cuadrado
Teorema
Si Z1 , Z2 , ..., Zn es una muestra aleatoria de una distribución normal
estándar, entonces
Z̄ tiene distribución normal con media 0 y varianza 1/n
Pn
Z̄ y i=1 (Zi − Z̄ )2 son independientes
Pn 2
i=1 (Zi − Z̄ ) tiene una distriución chi-cuadrado con n − 1 g.l.
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística La distribución Chi-cuadrado
Víctor Hugo
Morales Ospina Teorema-prueba
La parte i) del teorema, es un caso particular de lo dicho en la
expresión (21)
Prueba de ii) para n=2
Z1 + Z2
Z̄ = (31)
2
2
X
(Zi − Z̄ )2 = (Z1 − Z̄ )2 + (Z2 − Z̄ )2
i=1
 2
 2
Z1 + Z2 Z1 + Z2
= Z1 − + Z2 −
2 2 (32)
 2  2
2Z1 − Z1 − Z2 2Z2 − Z1 − Z2
= +
2 2
 2  2
Z1 − Z2 Z2 − Z1
= +
2 2
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística
La distribución Chi-cuadrado
Víctor Hugo
Morales Ospina
Teorema-prueba

2 2
(Z1 − Z2 )2 (Z2 − Z1 )2 (Z2 − Z1 )2
 
Z1 − Z2 Z2 − Z1
+ = + =
2 2 4 4 2
(33)
P2
Así, Z̄ y i=1 (Zi − Z̄ )2 son funciones de Z1 + Z2 y Z2 − Z1
respectivamente.
Pn En consecuencia, para probar la independencia
entre Z̄ y i=1 (Zi − Z̄ )2 , es suficiente probar la independencia entre
Z1 + Z2 y Z2 − Z1 .
Para ello, usamos la fgm:

mZ1 +Z2 ,Z2 −Z1 (t1 , t2 ) = E (exp(t1 (Z1 + Z2 ) + t2 (Z2 − Z1 ))) (34)
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina
La distribución Chi-cuadrado
Corolario
Si
n
2 1 X
S = (Xi − X̄ )2 (35)
n − 1 i=1
es la varianza muestral de una muestra aleatoria de una distribución
normal con media µ y varianza σ 2 , entonces

(n − 1)S 2
U= (36)
σ2
tiene distribución chi-cuadrado con n − 1 g.l.
Antes de considerar la prueba del corolario, veamos lo siguiente:
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística La distribución Chi-cuadrado
Víctor Hugo
Morales Ospina Corolario - continuación
El teorema 8 está dado para muestras aleatorias de una normal
estándar. Si queremos hacer inferencia acerca de µ y σ 2 , debemos
considerar muestras de una normal con media µ y varianza σ 2
Sea X1 , X2 , ..., Xn una muestra aleatoria de una distribución normal
con media µ y varianza σ 2 . Entonces los Zi del teorema 8 se
convierten en
P
Z̄ = (1/n) (Xi − µ)/σ = (X̄ − µ)/σ tiene distribución normal
con media 0 y varianza 1/n
P

P= (1/n) (Xi −P µ)/σ y
n 2
i=1 (Zi − Z̄ ) = [((Xi − µ)/σ) − ((X̄ − µ)/σ)]2 son
independientes, lo cual implica que X̄ y (Xi − X̄ ) son
independientes
Pn 2
[(Xi − X̄ )/σ]2 tiene una distriución
P
i=1 (Zi − Z̄ ) =
chi-cuadrado con n − 1 g.l.
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina

La distribución Chi-cuadrado
Corolario - prueba

(n − 1)S 2
U=
σ2
(n − 1) 1 X
= 2
(Xi − X̄ )2 (37)
σ (n − 1)
(Xi − X̄ )2
P
=
σ2
En iii) se probó que U tiene distribución chi-cuadrado con n − 1 g.l
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística La distribución F
Víctor Hugo
Morales Ospina Se supone que se tienen dos variables independientes U y V con
distribución Chi-cuadrado y grados de libertad m y n
respectivamente. Su densidad conjunta es

1
fU,V (u, v ) = u (m−2)/2 v (n−2)/2 e (−1/2)(u+v ) I(0,∞) (u)
Γ(m/2)Γ(n/2)2(m+n)/2
(38)
Interesa encontrar la distribución de la expresión

U/m
X= (39)
V /n

X es una variable aleatoria con distribución F con m y n grados de


libertad, y además

n 2n2 (m + n − 2)
E (X ) = , n > 2 y var (X ) = (40)
n−2 m(n − 2)2 (n − 4)
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina
La distribución t de student
Si Z tiene una distriución normal estándar, si U tiene una
distribución Chi-cuadrado con k grados de libertad y si Z y U son
independientes, nos interesa la distribución de
Z
X= (41)
U/k
La distribución de X es t de Student con k g.l, y además,
la densidad conjunta de Z y U es
1 1 1 k (k
fZ ,U (z, u) = √ ( ) 2 u − 1) (42)
2π Γ( k2 ) 2 2
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina

La distribución t de student - continuación


También se tiene que

E (X ) = 0 y Var (X ) = k/(k − 2) (43)


Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina Ejemplos
Ejercicio 12 - Mood
Una encuestadora desea tomar una muestra de votantes en un estado
dado, lo suficientemente grande, como para tener una probabilidad
de solo 0.01 de encontrar que la proporción que favorece a un
determinado candidato sea de menos del 50% cuando la verdadera
proporción es del 52%. Qué tamaño de muestra deben tomar?
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina Ejemplos
Ejercicio 12 - Mood
Una encuestadora desea tomar una muestra de votantes en un estado
dado, lo suficientemente grande, como para tener una probabilidad
de solo 0.01 de encontrar que la proporción que favorece a un
determinado candidato sea de menos del 50% cuando la verdadera
proporción es del 52%. Qué tamaño de muestra deben tomar?
Solución P
Xi
p = 0.52, n =?, p̂ = n = X̄ . Se quiere que

P(X̄ < 0.5) = 0.1 (44)


P P P
Xi ∼ Bin(n, p), E ( Xi ) = np, Var ( Xi ) = npq
pq
E (X̄ ) = p y Var (X̄ ) = n
Capítulo 2: Distribuciones muestrales

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Ejemplos
Ejercicio 12 - Mood - continuación
Aplicando el TLC, se tiene que
0.5 − 0.52
0.1 = P(X̄ < 0.5) = q (45)
(0.52)(0.48)
n

de donde se tiene que


0.5 − 0.52
−2.32 = q (46)
(0.52)(0.48)
n

de donde, finalmente, se obtiene que n ≈ 3317


Taller 1 - G2

Inferencia
Estadística

Víctor Hugo Puntos


Morales Ospina
Punto 1
Sea X1 , ..., Xn una muestra aletoria de una población normal con
media µ y varianza σ 2 . Sea Y = X̄ . Determine la distribución de Y .
Punto 2
Si las variables aleatorias X1 , ..., Xn cosntituyen una muestra aleatoria
de una población con valor esperado µ y varianza 4, determine el
número de elementos que deben considerarse para que la probabilidad
de que el valor esperado y el promedio de la muestra no difieran en
más de 0.1, sea superior a 0.95
Punto 3
Una empresa de mensajería que opera en la ciudad tarda una media
de 35 minutos en llevar un paquete, con una desviación típica de 8
minutos. Supongamos que durante el día de hoy han repartido 200
paquetes. ¿Cuál es la probabilidad de que la media de los tiempos de
entrega de hoy no excedan los 35 minutos?.
Taller 1 - G1

Inferencia
Estadística

Víctor Hugo Puntos


Morales Ospina
Punto 1
Sea z1 , ..., zn una muestra aletoria de una población normal con
media 0 y varianza 1. Determine formalmente la distribución de Z̄ .
Punto 2
Una droga estándar es conocida por ser efectiva en cerca del 80% de
los casos en los cuales es usada para tratar infecciones. Se ha
encontrado que una nueva droga ha sido efectiva en 85 de 100 casos.
Es superior la nueva droga, que la droga estándar?
Punto 3
Una empresa de mensajería que opera en la ciudad tarda una media
de 35 minutos en llevar un paquete, con una desviación típica de 8
minutos. Supongamos que durante el día de hoy han repartido 200
paquetes. ¿Cuál es la probabilidad de que la media de los tiempos de
entrega esté dentro de 1.5 desviaciones estándar de la media
poblacional?.
Capítulo 3: Convergencia estocástica

Inferencia
Estadística Convergencia de sucesiones de variables aleatorias
Víctor Hugo
Morales Ospina Sean X , X1 , X2 , ... variables aleatorias reales definidas sobre el mismo
espacio de probabilidad. Se definirán algunos modos de convergencia
de la sucesión (Xn )n a X .

Convergencia puntual-Definición
Sea X1 , X2 una sucesión infinita de variables aleatorias. Se dice que
esta sucesión converge puntualmente a X si para cada w ∈ Ω,
limn→∞ Xn (w ) = X (w ), ∀w ∈ Ω
Ejemplo
Considere el espacio medible ([0, 1], β[0, 1]), y defina la sucesión de
variables aleatorias Xn (w ) = w n
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Supongamos que el valor de algún estadístico, digamos


t(X1 , X2 , ..., Xn ), representa o estima el desconocido τ (θ). Un
estadístico como t(X1 , X2 , ..., Xn ) recibe el nombre de estimador
puntual.

Estimación por intervalos


En la segunda forma de hacer estimación, se definen dos estadísticos,
digamos t1 (X1 , X2 , ..., Xn ) y t2 (X1 , X2 , ..., Xn ), donde
t1 (X1 , X2 , ..., Xn ) < t2 (X1 , X2 , ..., Xn ), por lo que t1 (X1 , X2 , ..., Xn ) y
t2 (X1 , X2 , ..., Xn ) constituyen un intervalo para el cual puede
determinarse la probabilidad de que éste contenga al parámetro
desconocido τ (θ).
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Estimación puntual
La estimación puntual involucra dos problemas:
Primero: idear algún medio de obtener un estadístico para
utilizarlo como estimador.
Segundo: seleccionar criterios y técnicas para definir y encontrar
un mejor estimador entre muchos estimadores posibles.
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Métodos para encontrar estimadores
Problema: Se asume que X1 , X2 , ..., Xn es una muestra aleatoria
de una densidad f (.; θ), donde es conocida la forma de la
densidad, pero el parámetro θ es desconocido. Asumimos que θ
es un vector de números reales, digamos, θ = (θ1 , ..., θk ).
(Frecuentemente k será la unidad). Los elementos θ1 , ..., θk son
los parámetros. Al conjunto de los posibles valores que el
parámetro θ puede asumir, se le denomina espacio de
parámetros y se denota con el símbolo Θ.
Objetivo: Encontrar estadísticos para ser usados como
estimadores de t1 (θ), ..., tr (θ) (los cuales son funciones de
θ = (θ1 , ..., θk )).
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo Métodos para encontrar estimadores


Morales Ospina

Método de máxima verosimilitud (MV)


Cuando se observa una muestra, debe tenerse en cuenta que
esta proviene de una población
Se asume que a la población se asocia una distribución de
probabilidad conocida
Se asume que la distribución se encuentra regida, direccionada,
gobernada, por un parámetro (o varios) θ
Por ejemplo, si se observa una muestra de una población normal
con media µ y varianza 1 como por ejemplo
1.52, 1.70, −0.33, 0.83, 0.34,
será poco probable que provenga de una población N(10, 1),
dado que no parece verosímil (creíble), que de una población con
tal distribución, se obtenga una muestra así.
Capítulo 3: Estimación puntual

Inferencia
Estadística Métodos para encontrar estimadores
Víctor Hugo
Morales Ospina
Método de máxima verosimilitud (MV)
El método de estimación por MV se basa en encontrar el valor del
parámetro θ (o g(θ)), para el cual es máxima la probabilidad de
observar una muestra x1 , x2 , ..., xn
.
Situación - Ejemplo (Tomado de Zhang y Gutiérrez)
Suponga que la alcaldía de Bogotá está interesada en conocer el
número promedio de homicidios mensuales en la localidad de Usme.
Por las características de la variable (conteo), se puede asociar una
distribución Poisson con parámetro θ desconocido.
Interesa conocer θ
Suponga que en los últimos tres meses el número de homicidios
promedio fue 11, 9 y 7.
Los valores dados anteriormente, se consideran realizaciones de las
variables aleatorias X1 , X2 y X3
Cuál es la probabilidad de observar una muestra como esta?
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina Métodos para encontrar estimadores
Método de máxima verosimilitud (MV)
Para dar respuesta a la pregunta anterior, se debe tener en cuenta
que el parámetro desconocido θ
Por ejemplo, si θ fuera igual a 5, entonces

P((X1 = 11, X2 = 9, X3 = 7)|θ = 5) = 3.1 × 10−5 (47)

θ 5 6 7
Pr 3.1 × 10−5 2.1 × 10−4 6.8 × 10−4

8 9 10
1.3 × 10−3 1.5 × 10−3 1.3 × 10−3
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina Métodos para encontrar estimadores
Método de máxima verosimilitud (MV Definición)
Dadas n variables aleatorias X1 , ..., Xn , la función de verosimilitud se
define como la función de densidad conjunta de las n variables, y se
denota por L(x1 , ..., Xn , θ), es decir,
n
Y
L(x1 , ..., Xn , θ) = f (x1 )...f (xn ) = f (xi , θ) (48)
i=1

donde f es la fdp común para todas las n variables aleatorias.

Nota
El método de máxima verosimilitud estima el valor de θ para el cual
se maximiza la función de verosimilitud.
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo Métodos para encontrar estimadores


Morales Ospina
Método de máxima verosimilitud - Ejemplo 1
Dada una muestra aleatoria X1 , ..., Xn de una distribución Poisson de
parámetro θ, determinar el estimador de MV para θ.
Solución
L(x1 , ..., Xn , θ) = f (x1 )...f (xn )
e −θ θx1 e −θ θxn
= I0,1,... (x1 )... I0,1,... (xn )
x1 ! xn ! (49)
Pn
n
e −nθ θ i=1 xi Y
= Qn I0,1,... (xi )
i=1 xi ! i=1

Para maximizar L con respecto a θ, se pueden omitir los términos que


no dependen
Pn de θ. Así, máximizar a L, es equivalente a maximizar a
−nθ xi
e θ i=1
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo Métodos para encontrar estimadores


Morales Ospina

Método de máxima verosimilitud - Ejemplo1 - continución


Ahora, con el objetivo de simplificar la expresión que se debe
maximizar, es frecuente tomar el logaritmo de ésta. Así, maximizar L
es equivalente, finalmente, a maximizar la expresión
Pn n
X
xi
L′ (θ) = ln(e −nθ θ i=1 ) = −nθ + xi ln(θ) (50)
i=1

Un proceso de maximización requiere derivar respecto al parámetro


que se quiere estimar, e igualar a cero es decir, se debe resolver la
ecuación:
∂L′ (θ)
=0 (51)
∂θ
Pn
cuya solución es θ̂ = ni=1
Capítulo 3: Estimación puntual

Inferencia
Estadística Métodos para encontrar estimadores
Víctor Hugo
Morales Ospina Método de máxima verosimilitud - Ejemplo 2
Capítulo 3: Estimación puntual

Inferencia
Estadística Métodos para encontrar estimadores
Víctor Hugo
Morales Ospina Método de máxima verosimilitud - Ejemplo 2
Capítulo 3: Estimación puntual

Inferencia
Estadística Métodos para encontrar estimadores
Víctor Hugo
Morales Ospina Método de máxima verosimilitud - Ejemplo 3
Sea X1 , ..., Xn una muestra aleatoria de una población distribución
uniforme contínua de parámetro θ, cuya densidad está dada por

f (x ; θ) = I[θ− 21 ,θ+ 12 ] (x ) (52)


Hallar el estimador de MV de θ. Solución
L(x1 , ..., Xn , θ) = f (x1 )...f (xn )
n
Y (53)
= I[θ− 12 ,θ+ 12 ] (xi )
i=1

El procedimiento tradicional falla en este caso. Ahora,


n
Y
I[θ− 21 ,θ+ 12 ] (xi ) (54)
i=1
Capítulo 3: Estimación puntual

Inferencia
Estadística
Métodos para encontrar estimadores
Víctor Hugo
Morales Ospina
Método de máxima verosimilitud - Ejemplo 2 - continuación
es igual a 1 si y solo si todos los xi , i = 1, 2, ..., n pertenecen al
intervalo [θ − 12 , θ + 12 ], es decir, θ − 12 ≤ x(1) , x(2) , ..., x(n) ≤ θ + 21
Sea y1 = min {x1 , ..., xn } y yn = max {x1 , ..., xn }, entonces:
θ − 12 ≤ y1 y yn ≤ θ + 12 , de donde
θ ≤ y1 + 12 y yn − 12 ≤ θ, de donde
yn − 21 ≤ θ ≤ y1 + 12 , de donde
I[yn − 21 ,y1 + 12 ] (θ)(∗) .
La función indicadora toma solo dos valores: 0 ó 1. La función de
verosimilitud será máxima, en este caso, cuando se satisfaga ∗.
Así, el estimador de máxima verosimilitud de θ es cualquier valor θ̂
que satisfaga yn − 21 ≤ θ̂ ≤ y1 + 12 , como por ejemplo

y1 + yn
θ̂ = (55)
2
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Métodos para encontrar estimadores
Método de los momentos)
Sea f (.; θ1 , ..., θk ) la densidad de una variable aleatoria X , la cual
depende de k parámetros θ1 , ..., θk .
Sea µ′r que denota el r −ésimo momento alrededor de cero, es decir,
µ′r = E (X r )
En general, se asume que µ′r = µ′r (θ1 , ..., θk )
Sea X1 , ..., Xn una muestra aleatoria de la densidad f (.; θ1 , ..., θk ), y
sea Mj′ el j-ésimo momento muestral, esto es
n
1X j
Mj′ = X (56)
n i=1 i
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina Métodos para encontrar estimadores
Método de los momentos - (continuación)
Forme las k ecuaciones

µ′1 = µ′1 (θ1 , ..., θk ) (57)

..
. (58)
µ′k = µ′k (θ1 , ..., θk ) (59)
y sea θ̂1 , ..., θ̂k su solución
Decimos que el estimador θ̂1 , ..., θ̂k , donde θ̂j estima a θj , es el
estimador de θ1 , ..., θk . por el método de los momentos.
Los estimadores se obtienen reemplazando los momentos
poblacionales por los momentos muestrales.
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Métodos para encontrar estimadores
Método de los momentos - (Ejemplo 1)
Sea X1 ., , , .Xn una muestra aleatoria de una distribución normal con
media µ y varianza σ 2 . Sea (θ1 , θ2 ) = (µ, σ)
Estime los parámetros µ y σ usando el método de los momentos.
Solución
1 M1′ = µ′1 (µ, σ) = µ, dado que µ′1 = E (X 1 ) = E (X ) = µ
2 M2′ = µ′2 (µ, σ) = µ2 + σ 2 , dado que
µ′2 = E (X 2 ) = σ 2 + µ2 = σ 2 + (E (X ))2
De (1) se obtiene que el estimador de µ por el método de los
momentos es
n
1X
M1′ = Xi = X̄ (60)
n i=1
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Métodos para encontrar estimadores


Método de los momentos - (Ejemplo 1 - continuación)
Para encontrar el estimador de σ, se usa la ecuación (2). En esta
ecuación se reemplaza la solución hallada en (1):
′ ′
q M2 − µ2 =q
De (2): σ 2 , de donde q P
σ = M2′ − X̄ 2 = n1 Xi − X̄ 2 = n1 (Xi − X̄ )2
P 2
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Métodos para encontrar estimadores
Método de los momentos - Ejemplo 2
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Propiedades de los estimadores puntuales
Error cuadrático medio

La tabla muestra los resultados de utilizar tres estimadores T1 ,T2 y


T3 para estimar un parámetro desconocido θ, luego de utilizar siete
muestras distintas.
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Propiedades de los estimadores puntuales


Error cuadrático medio - Definición de sesgo
Dada una muestra X1 , ..., Xn proveniente de una distribución con
parámetro desconocido θ, y sea T un estimador de θ. Se define el
sesgo de T como BT = E (T ) − θ.
Cuando BT = 0, se dice que T es un estimador insesgado de θ.
Cuando BT > 0, se dice T sobreestima a θ. Cuando BT < 0, se dice
T subestima a θ.
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Propiedades de los estimadores puntuales
Error cuadrático medio
Dada una muestra X1 , ..., Xn proveniente de una distribución con
parámetro desconocido θ, y sea T un estimador de θ. Se define el
error cuadrático medio de T , denotado por ECMT , como
ECMT = Eθ [(T − θ)2 ].
Nota
El ECM de un estimador el la distancia cuadrática promedio
entre el estimador y el parámetro a estimar.
El ECM de un estimador T es una medida de la dispersión de
los valores de T alrededor de θ
Si comparamos dos estimadores teniendo en cuenta sus
respectivos errores cuadráticos medios, se prefiere aquel que
tenga el menor de estos.
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Propiedades de los estimadores puntuales
Error cuadrático medio - Observación
Se puede probar que
ECMT = Var (T ) + (θ − Eθ (T ))2 = Var (T ) + BT2 . Ejercicio: Probar
Nota
Si T es un estimador insesgado de θ, entonces ECMT = Var (T ).
El error cuadrático medio es la suma de dos cantidades no negativas.
Un buen estimador debe tener un error cuadrático medio pequeño. Si
el estimador es insesgado, entonces es deseable que tenga poca
variabilidad.
Ejemplo
Sea X1 , X2 , ..., Xn una muestra aleatoria proveniente de una
distribución con media µ y varianza σ 2
Capítulo 3: Estimación puntual

Inferencia
Estadística Propiedades de los estimadores puntuales
Víctor Hugo
Morales Ospina
Solución

1 X
E (X̄ ) = E( Xi )
n (61)
1X 1
= E (Xi ) = nµ = µ
n n

es decir, X̄ es un estimador insesgado para µ,además,


1 X
Var (X̄ ) = 2
Var ( Xi )
n
(62)
1 X 1 σ2
= 2 Var (Xi ) = 2 nσ 2 =
n n n
Se puede probar (ver pág 99 del texto), que E (Sn2 ) = n−1 2
n σ y que
2 2 2 2
E (Sn−1 ) = σ , es decir, Sn es sesgado, mientras que Sn−1 , no.
Capítulo 3: Estimación puntual

Inferencia
Estadística Propiedades de los estimadores puntuales
Víctor Hugo
Morales Ospina Suficiencia- Definición
Dada una muestra aleatoria X1 , ..., Xn con fd f (xi , θ) y sea
T = T (X1 , ..., Xn ) un estimador de θ. Se dice que T es suficiente
para θ si la distribución condicional de X dados valores de T , no
depende de θ.
Ejemplo
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Propiedades de los estimadores puntuales


Suficiencia - Teorema de factorización de Fisher-Neyman
Definición
Capítulo 3: Estimación puntual

Inferencia
Estadística Propiedades de los estimadores puntuales
Víctor Hugo
Morales Ospina Suficiencia - Familia exponencial
Definición y Ejemplo1
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Propiedades de los estimadores puntuales
Suficiencia - Familia exponencial
Ejemplo2
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Propiedades de los estimadores puntuales


Suficiencia - Familia exponencial
Resultado
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Propiedades de los estimadores puntuales


Suficiencia - Familia exponencial
Ejemplo 1- Suficiencia a partir de la familia exponencial
Considerar caso de la distribución Poisson.
Capítulo 3: Estimación puntual

Inferencia
Estadística Propiedades de los estimadores puntuales
Víctor Hugo
Morales Ospina Cota de Cramer-Rao - Definición

Como generalmente estamos interesados en que T sea un estimador


insesgado, entonces la anterior expresión se expresa generalmente
como
[g ′ (θ)]2
Var (T ) ≥ (63)
nIX (θ)
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Propiedades de los estimadores puntuales
Definición - UMVUE
Dada una muestra aleatoria X1 , ..., Xn con función de densidad
f (xi , θ), y T un estimador insesgado para θ, si Var (T ) ≤ Var (T ∗ )
para todo θ, para cualquier otro estimador insesgado T ∗ de θ,
entonces se dice que T es un estimador insesgado de varianza
uniformemente mínima (UMVUE).
Si un estimador insesgado tiene su varianza igual a la cota de
Cramer-Rao, entonces es un UMVUE.
Si un experimentador utiliza un estimador insesgado cuya
varianza sea cercana a la de la cota de Cramer-Rao, entonces
está usando un buen estimador.
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Propiedades de los estimadores puntuales


Resultado - UMVUE
Dada una muestra aleatoria X1 , ..., Xn con función de densidad
f (xi , θ), y T un estimador insesgado para θ, si se tiene la siguiente
factorización
n
∂ Y
ln f (xi , θ) = K (θ, n)(t(x1 , ..., xn ) − g(θ)) (64)
∂θ i=1
entonces la varianza de T es igual a la cota de Cramer-Rao, y por lo
tanto T es un UMVUE para g(θ)
Capítulo 3: Estimación puntual

Inferencia
Estadística Propiedades de los estimadores puntuales
Víctor Hugo
Morales Ospina
Cota de Cramer-Rao - Ejemplo 1
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Propiedades de los estimadores puntuales
Ejemplo 2 - UMVUE
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Propiedades de los estimadores puntuales


Ejemplo 3 - UMVUE
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Propiedades de los estimadores puntuales
Ejemplo 4 - UMVUE
Capítulo 3: Estimación puntual

Inferencia
Estadística
Propiedades de los estimadores puntuales-Consistencia
Víctor Hugo
Morales Ospina
Las propiedades de los estimadores vistas hasta el momento, han
asumido que n es constante. La propiedad que se define a
continuación, considera a n variable.
Capítulo 3: Estimación puntual

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Propiedades de los estimadores puntuales-Consistencia


Ejemplo
Sea X1 , ..., Xn una muestra aleatoria de una población con media µ y
varianza σ 2 . La media muestral, X̄ , es un estimador consistente para
µ.
Prueba
E (X̄ ) = µ, por lo que limn→∞ (E (X̄ )) = µ.
2
limn→∞ (Var (X̄ )) = limn→∞ ( σn ) = 0
Por resultado anterior, se concluye que X̄ es consistente para µ.
Estimación por intervalos

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Intervalos de confianza
La estimación por intervalos representa una alternativa a la
estimación puntual.
En la estimación por intervalos se puede cuantificar la
posibilidad de llegar a una conclusión equivocada
Estimación por intervalos

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Intervalos de confianza
En algunos casos sólo interesa el valor superior del IC
Por ejemplo, si se realiza un estudio sobre el nivel de nicotina en
cigarrillos, el interés estará en los valores altos de los niveles de
nicotina, puesto que, en este caso, mientras menor cantidad de
nicotina contengan los cigarrillos, será mejor.
Estimación por intervalos

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Intervalos de confianza
De manera análoga, en algunos casos sólo interesa el valor
inferior del IC
Por ejemplo, si se realiza un estudio sobre el tiempo de vida de
unas bombillas, el interés estará en los valores bajos de los
tiempos de vida de los bombillos puesto que, en este caso,
mientras mayor sea el tiempo de duración de los bombillos, será
mejor.
Estimación por intervalos-Bajo normalidad

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Una muestra-µ
Uno de los métodos más conocidos para encontrar un IC para un
parámetro, es el de la variable pivote o de la cantidad pivotal.
Estimación por intervalos-Bajo normalidad

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Una muestra-µ
Estimación por intervalos-Bajo normalidad

Inferencia
Estadística Una muestra-µ
Víctor Hugo
Morales Ospina
Estimación por intervalos-Bajo normalidad

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Una muestra-µ
Luego de realizar algunas operaciones algebraicas, se obtiene la
siguiente expresión:

El intervalo queda determinado completamente al conocer a y b.


Una forma de resolver este problema, es utilizar multiplicadores de
Lagrange.
Esta técnica permite encontrar los valores de a y b que minimicen la
longitud del intervalo.
Estimación por intervalos-Bajo normalidad

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Una muestra-µ
El intervalo que finalmente se obtiene, viene dado por
Estimación por intervalos-Bajo normalidad

Inferencia
Estadística Una muestra-µ
Víctor Hugo
Morales Ospina Ejemplo
Estimación por intervalos-Bajo normalidad

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Una muestra-µ, sigma desconocido
Cantidad pivotal
Estimación por intervalos-Bajo normalidad

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Una muestra-µ, sigma desconocido


Cantidad pivotal

La expresión anterior depende del parámetro de interés(µ), no


depende del parámetro desconocido(σ), y la distribución no depende
de µ ni de σ. por lo tanto, es una cantidad pivotal en este caso.
Estimación por intervalos-Bajo normalidad

Inferencia
Estadística

Víctor Hugo
Morales Ospina Una muestra-µ, sigma desconocido

En la expresión anterior, igual que en el caso de σ conocido, se desea


hallar los valores de a y b.
En este caso, la longitud del intervalo obdece a la expresión

Sn−1 (b − a)
l= √ (65)
n

la cual depende de Sn−1 , lo que la convierte en una variable aleatoria,


por lo que su longitud no puede medirse de manera directa(para cada
muestra, Sn−1 cambia, y por lo tanto l)
Estimación por intervalos-Bajo normalidad

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Una muestra-µ, sigma desconocido
El intervalo de confianza resultante es

Este intervalo es también simétrico con respecto a X̄ , y su longitud es


2tn−1,1− α2 Sn−1
l= √ (66)
n

que es una variable aleatoria. Una estimación de l para distintos


valores de n, puede hacerse por medio de simulación.
Estimación por intervalos-Bajo normalidad

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Una muestra-µ, sigma desconocido


La expresión que relaciona el error máximo en la estimación de µ a
través de X̄ , y el tamaño de la muestra, es
2
z1− α2 σ̂

n= (67)
l/2

El cálculo de un IC en R, se hace con la función t.test


Estimación por intervalos-Bajo normalidad

Inferencia
Estadística IC para σ 2 cuando µ es conocida
Víctor Hugo
Morales Ospina Sea X1 , ..., Xn una muestra aleatoria proveniente de una distribución
N(µ, σ 2 )
En este caso, la cantidad pivotal es

De acuerdo con las indicaciones para hallar intervalos de confianza,


se considera la expresión
Estimación por intervalos-Bajo normalidad

Inferencia
Estadística

Víctor Hugo
Morales Ospina

IC para σ 2 cuando µ es conocida


Estimación por intervalos-Bajo normalidad

Inferencia
Estadística

Víctor Hugo
Morales Ospina
IC para σ 2 cuando µ es conocida

la esperanza de la longitud del intervalo anterior, es

revisar IC para la desviación estándar.


Estimación por intervalos-Bajo normalidad

Inferencia
Estadística

Víctor Hugo
Morales Ospina
IC para σ 2 cuando µ es desconocida
Estimación por intervalos-Bajo normalidad

Inferencia
Estadística

Víctor Hugo
Morales Ospina

IC para la diferencia de medias - varianzas conocidas


Estimación por intervalos-Bajo normalidad

Inferencia
Estadística

Víctor Hugo
Morales Ospina

IC para la diferencia de medias - varianzas conocidas


Estimación por intervalos-Bajo normalidad

Inferencia
Estadística IC para la diferencia de medias - varianzas conocidas
Víctor Hugo
Morales Ospina
Estimación por intervalos-Bajo normalidad

Inferencia
Estadística

Víctor Hugo
Morales Ospina

IC para la diferencia de medias - varianzas desconocidas pero iguales


Estimación por intervalos-Bajo normalidad

Inferencia
Estadística

Víctor Hugo
Morales Ospina

IC para la diferencia de medias - varianzas desconocidas pero iguales


Pruebas de hipótesis

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Conceptos preliminares
Pruebas de hipótesis

Inferencia
Estadística

Víctor Hugo
Morales Ospina

Conceptos preliminares
Pruebas de hipótesis

Inferencia
Estadística

Víctor Hugo Conceptos preliminares


Morales Ospina
Pruebas de hipótesis

Inferencia
Estadística
Prueba de razón de verosimilitudes
Víctor Hugo
Morales Ospina
Es un método para encontrar reglas de decisión.
Definición Sea X1 , X2 , ..., Xn una muestra aleatoria de una densidad
f (x ; θ), donde θ es el parámetro desconocido.
Suponga que se quiere probar el sistema de hipótesis H0 : θ = θ0 Vs
H1 : θ = θ1 .
Se denomina prueba de razón de verosimilitudes a la prueba con regla
de decisión dada por: Rechazar H0 si λ > k, para alguna constante
k, donde λ está dada por
Q
L(θ1 ; x1 , ..., x1 ) f (x1 ; θ1 )
λ= =Q (68)
L(θ0 ; x1 , ..., x1 ) f (x1 ; θ0 )

Si L(θ1 ; x1 , ..., x1 ) > L(θ0 ; x1 , ..., x0 ), entonces se deduce que es más


creible θ1 que θ0 . Esto es equivalente a decir que si λ es grande,
entonces los datos muestran evidencia en favor de θ1 , es decir, se
rechazaría H0 .
Pruebas de hipótesis

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Prueba de razón de verosimilitudes
Ejemplo Sea X1 , ..., X1 una muestra aleatoria de
f (x ; θ) = θexp(−θx )I(0,∞) (x ) donde θ = θ1 o θ = θ0 con θ0 y θ1
números fijos desconocidos tales que θ1 > θ0 . Establecer una regla de
decisión para probar la hipótesis H0 : θ = θ0 Vs H1 : θ = θ1 , θ1 > θ0
Solución
L1 = θ1n exp(−θ1 xi ) y L0 = θ0n exp(−θ0 xi )
P P
De acuerdo con la PRV, se debe rechazar H0 si λ > k ∗ o
equivalentemente, si

θ1n exp(−θ1 xi )
P
> k∗ (69)
θ0n exp(−θ0 xi )
P
Pruebas de hipótesis

Inferencia
Estadística Prueba de razón de verosimilitudes
Víctor Hugo
Morales Ospina Ejemplo-continuación
equivalentemente, rechazar H0 si
 n
θ1 X
exp(−(θ1 − θ0 ) xi ) > k ∗ (70)
θ0

equivalentemente
 n 
X 1 θ0 ∗
xi > ln k =k (71)
θ0 − θ1 θ1

teniendo en cuenta que una prueba estadística debe estar


P relacionada
con el error tipo I, entonces se debe satisfacer que P( xi > k) = α
(*).
Como la suma de variables exponenciales es Gamma, entonces k se
debe tomar como el qualtil de la distribución gamma que satisface
(*).
Pruebas de hipótesis

Inferencia
Estadística Ejemplo 2
Víctor Hugo
Morales Ospina Sea X1 , ..., X1 una MA de una N(µ, σ 2 ) con σ 2 = σ02 conocida.
Determinar una regla de decisión para probar H0 : µ = µ0 Vs
H1 : µ > µ 0
Pruebas de hipótesis

Inferencia
Estadística Ejemplo 2
Víctor Hugo
Morales Ospina

−µ
x̄√
rechazar H0 si > z1−α
σ/ (n)
Continuación Inferencia

Inferencia
Estadística Ejemplo 4.2.1
Víctor Hugo
Morales Ospina El sistema de hipótesis es

H0 : µ = 350 vs H1 ̸= 350 (72)


En

este caso la rela de decisión

es: Rechazar H0 si
n(X̄ −µ0 ) n(X̄ −µ0 )
sn−1 > tn−1,1−(α/2) ó sn−1 < −tn−1,1−(α/2) .
Se asume α = 0.5. A partir de la muestra se tiene que x̄ = 349.85 y
sn−1 = 5.4. √
−µ0 )
De lo anterior, se tiene que n(sX̄n−1 = −0.124. Los puntos críticos
serían −t19,0975 = 2.093 y t19,0975 = 2.093. Se observa que el valor
de la estadística de prueba se encuentra en la reión de aceptación,
por lo que se concluye que no hay evidencia sufienciente para pensar
que la máquina realiza un llenado de las botellas con un contenido
sinificativamente distinto de 350 ml. El valor p corresponde a la
probailidad 2P(T19 < −0.124). En R, se calcula con la sintaxis
2pt(−0.124, 19, lower .tail = T ). El comando t.test(x ) realiza la
prueba de la hipótesis.
Prueba de hipótesis para la varianza

Inferencia
Estadística

Víctor Hugo Caso de una población y µ conocido


Morales Ospina

Se asume que se tiene una muestra aleatoria X1 , ..., Xn


proveniente de una distribución N(µ, σ 2 )
La hipótesis de interés, es:

H0 : σ 2 = σ02 vs σ 2 ̸= σ02 (73)


El estimador de MV de σ 2 es
n
1X
σ̂ 2 = (Xi − µ)2 (74)
n i=1

De acuerdo con la forma del sistema de hipótesis, para tener una


regla de decisión, se puede hacer la consideración: Rechazar H0
si σ 2 − σ02 > K1 ó σ 2 − σ02 < K2 para constantes K1 y K2
Prueba de hipótesis para la varianza-continuación

Inferencia
Estadística

Víctor Hugo
En este caso se usa el concepto de error tipo I. Así, se desea que
Morales Ospina

α = P(σ 2 − σ02 > K1 ) + P(σ 2 − σ02 < K2 ) (75)

dado H0 cierta
Pero
n
1X
P(σ 2 − σ02 > K1 ) = P( (Xi − µ)2 > K1 + σ02 ) (76)
n i=1

De donde
Pn
i=1 (Xi − µ)2 nK1
α = P( > + n) (77)
σ02 σ02
Pn
(Xi − µ)2 nK2
+P( i=1 2 < + n) (78)
σ0 σ02
Prueba de hipótesis para la varianza-continuación

Inferencia
Estadística Bajo H0 cierta (σ 2 = σ02 ),
Víctor Hugo Pn
Morales Ospina
i=1 (Xi − µ)2
∼ χ2n (79)
σ02
Así,
nK1 nK2
2 +n y 2 +n (80)
σ0 σ0
son percentiles de la distribución χ2n
Los percentiles que comúnmente (por practicidad) se escogen
son
nK1
χ2n,1− α2 = +n (81)
σ02
y
nK2
χ2n, α2 = +n (82)
σ02
Prueba de hipótesis para la varianza-continuación

Inferencia
Estadística

Víctor Hugo
de donde se obtienen
Morales Ospina

(χ2n,1− α − n)
2
K1 = (83)
nσ02

(χ2n, α − n)
2
K2 = (84)
nσ02
Finalmente, la regla de decisión es: rechazar H0 cuando
Pn 2
i=1 (Xi − µ)
> χ2n,1− α2 (85)
σ02
ó
Pn
i=1 (Xi − µ)2
< χ2n, α2 (86)
σ02
Prueba de hipótesis para la varianza

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Ejemplo
Un fabricante de baterías para automóvil asegura que la duración de
sus baterías tiene distribución aproximadamente normal con una
desviación estándar igual a 0.9 años. Si una muestra aleatoria de 10
de éstas baterías tiene una desviación estándar de 1.2 años, piensa
usted que σ > 0.9 años?. Use α = 0.05

Solución
El fabricante desea probar que sus baterías no tienen una variabilidad
mayor a la que él indica, y adicionalmente, la muestra parecería ir en
contra de su afirmación. Así, el sistema de hipótesis que se debe
probar es

H0 : σ 2 = 0.81 vs σ 2 > 0.81 (87)


Prueba de hipótesis para la varianza

Inferencia
Estadística

Víctor Hugo
Morales Ospina
Ejemplo-cotinuación
Como
n
1X
σ̂ 2 = (Xi − µ)2 = (1.2)2 = 1.44 (88)
n i=1
entonces
Pn
i=1 (Xi − µ)2 1.94n
= = 17.77 = χ20 (89)
0.9 0.81
El percentil correspondiente de la Chi-cuadrado es χ20.95,10 = 18.307,
con lo que se concluye que no hay evidencia suficiente para rechazar
H0

También podría gustarte