Está en la página 1de 10

Unidad 4: Inferencia Estadística y Pruebas de Hipótesis

Tipos de estimadores. Estimador puntual y por intervalos. Distribuciones t, χ² y F. Prueba de


Hipótesis. Hipótesis Nula y Alternativa. Hipótesis Simples y Compuestas. Errores tipo I y II. Potencia
del test. Curva de potencia. Selección de tamaño de muestra.

4-1 Tipos de estimadores. Estimador puntual. (Distribuciones t, χ² y F)

4-2 Estimación de parámetros por intervalo

4-3 Prueba de Hipótesis. Hipótesis Nula y Alternativa. Hipótesis Simples y Compuestas. Errores
tipo I y II. Potencia del test. Curva de potencia. Selección de tamaño de muestra.

4-1: Muestra Aleatoria:

Sea X1,X2, · · · ,Xn colección de n variables aleatorias. Se dice que forman una muestra aleatoria de
tamaño n si satisfacen:
1) 1 Las Xi son v.a. independientes
2) 2 Las Xi tienen la misma función de distribución.
Si se cumplen 1) y 2) entonces se dice que las Xi son variables aleatorias independientes e
idénticamente distribuidas (v.a.i.i.d.)
Unidad 4:

Distribuciones Muestrales:
Sea X1,X2, · · · ,Xn una muestra aleatoria de v.a.i.i.d con E(Xi ) = μ, Var (Xi ) = σ2
n
1
X =¿ ∑ X es la media muestral de la muestra X1,X2, · · · ,Xn
n i=1 i

n
To =∑ X i es el total muestral de la muestra X1,X2, · · · ,Xn
i=1

 μ❑=E ()=μ μ¿ =E ( T o )=n μ


2
σ
 Var ( )= Var(To)= n.σ 2
n

Ejemplo: Supongamos que un empleado toma un autobús para ir al trabajo a la mañana y otro a
la tarde para regresar a su casa, los cinco días hábiles de la semana. Supongamos que el tiempo de
espera a la mañana está distribuido uniformemente en el intervalo real [ 0 ; 5 ] mientras que el
tiempo de espera a la tarde está uniformemente distribuido en el intervalo real [ 0 ; 10 ] ,
independientemente del de la mañana.

a) Si toma un autobús cada mañana y cada tarde por una semana, ¿cuál es el tiempo total que
espera perder esperando el autobús?

b) ¿cuál es el tiempo promedio de espera semanal por la mañana?


PROPOSICIÓN: Si Y = a1 X1 +a2X2 +... + anXn es una combinación lineal de variables aleatorias
independientes con Xi N (μi ; σ i ) entonces Y tiene distribución normal con μY =∑ ai X i , σ Y =
2 2

∑ a2i σ 2i .
2
σ
Más aún si las Xi son iid (Xi N ( μ ; σ 2 ) , ∀ i=1 , 2 ,... , n ⟹ X N (μ ; ¿
n
TEOREMA CENTRAL DEL LÍMITE:

Sea X1; X2;…; Xn vaiid con media μ y varianza σ , ENTONCES si n es suficientemente grande X̄ =
2

n
1
∑ X tiene aproximadamente distribución normal con media μ❑=E ()=μ y varianza Var ( )=
n i=1 i
2
σ
.
n
n
Además To=∑ X i tiene aproximadamente distribución normal con media μ¿ =E ( T o )=n μ y
i=1
varianza Var(To)= n.σ 2.
100
Ejemplo: Sean X1; X2;…; Xn vaiid con función de densidad f(x) = 2x para 0 ≤ x ≤ 1. Sea To=∑ X i.
i=1
Hallar la probabilidad de que la variable aleatoria To, esté comprendida entre 64 y 68.

TEOREMA de DE MOIVRE-LAPLACE:

Se X una variable aleatoria B(n;p), cuando n tiende a infinito, entonces X tiende en distribución a
una N(n.p; n.p.q).

Demostración: queremos probar que:

X−n. p
→ N ( 0 ; 1 ) ,con n→ ∞
√ n. p . q
Una v.a. X B(n;p) puede expresarse como suma de n variables aleatorias independientes de
n
Bernulli, de parámetro p. Es decir X = To=∑ X i, siendo las xi variables aleatorias independientes,
i=1

con distribución Bernoulli de parámetros p entonces aplicando el Teorema Central del Límite, lo
cual es posible debido a que se cumplen las condiciones establecidas en la hipótesis del
denominado caso de componentes iguales queda probado, a modo de corolario del Teorema
Central del Límite que:

X−n. p
→ N ( 0 ; 1 ) ,con n→ ∞
√ n. p . q
La esencia de este teorema es que si X es una v.a. binomial, para la que el número de ensayos es
suficientemente grande, se dice que X posee una distribución normal aproximada con media n.p y
desviación típica √ n . p . q .

1
De hecho, la aproximación es adecuada tanto cuando n.p > 5, cuando p ≤ , o cuando n.p > 5, para
2
1
p>
2

Esto es,

P (a ≤ XB ≤ b) ≈ P
( a−np
√ npq
≤X ≤
√npq )
b−np
N (1)

Ésta aproximación puede mejorarse si se tiene en cuenta que lo que se desea es aproximar
probabilidades para una variable aleatoria discreta a partir del intervalo de probabilidades de una
variable aleatoria continua. Por ejemplo, si se desea determinar la probabilidad de que X asuma un
valor igual a x; se sabe que para cualquier valor específico x de una v.a. binomial, la probabilidad
puntual es ≠ de cero. Sin embargo, si se emplea la aproximación normal dada por este teorema,
P(X=x) = 0.

En lugar de emplear la expresión anterior, se usará la aproximación normal para P(X=x) que
determina la probabilidad de un intervalo de longitud uno (igual al impremento de la v.a.
binomial), de manera que el punto medio del intervalo sea igual al valor x. Por lo tanto,

P ( X B=x )=P
( x−np−0
√ npq
,5
≤X ≤
√ npq )
x−np+0 , 5
N

Como resultado, la expresión (1) puede modificarse de la siguiente forma:

P (a ≤ XB ≤ b) ≈ P
( a−np−0
√ npq
,5
≤X ≤
√npq )
b−np+0 , 5
N

Ejemplo:

Una organización política planea llevar a cabo una encuesta para detectar la preferencia de los
votantes con respecto a los candidatos A y B, que ocuparán un puesto en la administración pública
y para ello, se extrae una muestra aleatoria de 1000 ciudadanos. Suponiendo que la preferencia
con respecto a los candidatos se encuentre igualmente dividida, calcular la probabilidad de que:

a) 515 estén a favor del candidato A.


b) Más de 550 de los votantes indiquen una preferencia por el candidato A.

X es v.a. B(1000;0,5); en virtud del teorema de De Moivre Laplace, X →N(500;15,81)

a) P ( X B=515 ) =P ( 515−500−0
15 , 81
,5
≤X N ≤
515−500+ 0 ,5
15 , 81 )
= θ ( 0 , 98 ) −θ ( 0 , 92 )=¿ se

busca en tabla.

0,8365−0,8212=0,015 3

b)

P ( X B >550 ) =1−P(0 ≤ X ¿¿ B ≤550)=1− θ


[( 550−500+0 , 5
15 ,81
−θ ) (
550−500−0 , 5
15 , 81
¿= )]
1−θ ( 3 , 2 ) +θ (−31 , 6 )=0,000 7

DISTRIBUCIÓN CHI CUADRADA ( χ 2)

TEOREMA:

Sean X1; X2;...; Xn muestra aleatoria de una distribución normal con media 0 y desviación típica 1
2 2 2 2
⟹ χ = X 1 + X 2 +…+ X n, siendo n el número de variables aleatorias que la integran, denominado
grados de libertad.

Como el campo de variación de las v.a. normales es R, y χ 2 es la suma de sus cuadrados, su campo
de variabilidad es el intervalo [ 0 ; ∞ ¿

Para el cálculo de probabilidades es preciso recurrir a tablas que, al igual que en el caso de la
N(0;1), proporcionan valores aproximados.

p
La tabla proporciona: P( χ 2 ≥ χ 2p) = = p%
100
La forma de la función cambia según sea el valor de n. La esperanza matemática μ= n, y la varianza
2
σ = 2n.

1 n 2 (n−1)S
2
Sea X1; X2;…; Xn vaiid con media μ y varianza σ , ENTONCES 2 ∑ ( X i− X ) =
2
tiene
σ i=1 σ2
distribución χ 2con (n-1) grados de libertad. Además X y S2 son v.a. independientes.

DISTRIBUCIÓN t DE STUDENT

Z
Sean Z v.a. N(0;1) y χ 2 una v.a. con n grados de libertad y Z y χ 2son independientes⟹ t =

Z
√ χ2 =
n
√ n. χ 2 es una t de Student con n grados de libertad.

El número de grados de libertad es igual al número de variables que figuran en el denominador de
t.

El campo de variación de la variable t es el intervalo (-∞ ; ∞ ¿.

La función de densidad es simétrica con respecto al eje de ordenadas.

n
La esperanza matemática μ = 0, y la varianza σ 2=
n−2
La importancia de esta v.a. reside en el hecho de no depender de la varianza de las variables que la
integran, no figura en la función de densidad, y su utilidad se verá plenamente cuando se estudie
inferencia estadística y σ 2 se desconoce.

Para el cálculo de probabilidades es preciso recurrir a tablas que, al igual que en el caso de la
N(0;1), proporcionan valores aproximados.
DISTRIBUCIÓN F DE FISHER-SNEDECOR:
2 2
Sean χ n y χ n variables aleatorias chi- cuadrada independientes con n 1 y n2 grados de libertad,
1 2

respectivamente, decimos que la v.a


2
χn 1

n1
F= 2 , tiene distribución F con n1 y n2 grados de libertad.
χn 2

n2

Las principales características de la función de densidad de esta distribución son las siguientes:

No depende de la varianza de las variables integrantes.

No es simétrica.

Su campo de variación es el intervalo [ 0 ; ∞ ¿ .


Algunas distribuciones muestrales:

I) Distribución de la proporción muestral ^p


Pueden presentarse los siguientes casos:

a) que la muestra aleatoria se elija con reemplazo; en este caso ^p tendrá distribución binomial y
los valores previstos se calculan de la siguiente manera:

E( p^ )=p ;
D( ^p )=+
√ p⋅q
n

b) que la muestra aleatoria se elija sin reemplazo; en este caso ^p tendrá distribución
hipergeométrica y los valores previstos se calculan de la siguiente manera:

E( p^ )=p=
N1
N ;
D( ^p )=+ (√ p⋅qn )⋅( NN−1
−n
)
c) que la muestra aleatoria seleccionada sea grande (n  100), en este caso:

^p⃗
n →∞ N p; (
p⋅q
n ) , por teorema de De Moivre-Laplace.

II) Distribución de la media muestral X̄

Pueden presentarse los siguientes casos:

a) que la muestra aleatoria se elija con reemplazo y sea pequeña.


Los valores previstos se calculan de la siguiente manera:

E( X̄)=E( X)
;
D( X̄ )=+
√ D2 ( X )
n
, donde E(X) y D2(X) son poblacionales
b) que la muestra aleatoria se elija sin reemplazo y sea pequeña.
Los valores previstos se calculan de la siguiente manera:

E( X̄)=E( X)
;
D( X̄ )=+
√ D2 ( X ) ( N −n)

n ( N−1)

c) que la muestra provenga de una población normal, es decir X es N( μ;2), entonces:


X̄ es N μ 2
( ;  /n)
(Nota: n puede asumir cualquier valor, no necesariamente debe ser grande, pues la muestra
proviene de una población normal).
ESTIMACIÓN PUNTUAL

INTRODUCCIÓN

Al realizar una investigación, el científico a menudo supone o sospecha que la población o v.a. X a
partir de la cual se realiza el muestreo tiene determinada forma funcional, cuyo parámetro intenta
evaluar.

En general, tenemos una población X dada a través de su función de densidad o de distribución y


en esa distribución aparece uno o más parámetros desconocidos. ( θ puede ser unidimensional o
multidimensional).

ESTIMACIÓN PUNTUAL:

NÚMERO COMO ESTIMACIÓN DE UN PARÁMETRO

El proceso consiste en seleccionar una muestra aleatoria de n observaciones X 1, X2,..., Xn de una


población f(x;θ ), luego se utiliza algún método conocido para llegar a un número como θ^ a partir
de estas observaciones, y que aceptamos como estimador de θ .

DEFINICIÓN: un estadístico es una función de v.a. que constituyen una o más muestras.

Ejemplo: X̄ = media muestral de la muestra X1,X2, · · · ,Xn. (Notar que un estadístico también es una
variable aleatoria).
Supongamos que la variable aleatoria X tiene función de densidad f (x) caracterizada por el
parámetro θ.
Si X1,X2, · · · ,Xn es una muestra aleatoria de tamaño n de X, un estimador puntual del parámetro
poblacional θ se obtiene seleccionando un estadístico apropiado g(X1, · · · ,Xn). Al calcular su valor
utilizando los datos muestrales se obtiene una estimación puntual de θ, que se denota porθ^ .

Ejemplo:
Se quiere determinar la duración (en horas de escritura) de una birome. Se supone que la duración
(tiempo de vida) de la birome sigue una distribución normal con media μ y desviación estándar σ.
Se compran 10 biromes y una máquina las prueba continuamente hasta que se les acaba la tinta.
Denotemos por X1, · · · ,X10 la muestra aleatoria que representan las duraciones de esas 10
biromes, y por x1, · · · , x10 los tiempos observados. Si:
x1 = 23.0 x2 = 28.4 x3 = 26.3 x4 = 35.1 x5 = 31.6 x6 = 30.9 x7 = 25.2 x8 = 28.0 x9 = 27.3 x10 = 29.2
Posibles estimadores de μ son:
10
^μ= X̄ (media muestral), con estimación x = ∑ x i/10 = 28.5
i=1
^μ= ~X = XMe (mediana muestral), con estimación xMe = 28.20
min xi +máx x i
^μ= (promedio de los extremos de las duraciones), con estimación (23.0+35.1)/2 =
2
29.05

¿Cuál de ellos está más próximo al verdadero valor de μ?


En el mejor de los casos, θ^ = θ, pero esto es imposible ya que θ^ es resultado de una variable
aleatoria. Así:
θ^ = θ + ε dondeε es un error de estimación. Un estimador “preciso” será el que haga ese error
pequeño.

Definición: Se dice que el estimador θ^ es un estimador insesgado de θ si


E(θ^ ) = θ
.
Si θ^ no es insesgado, entonces E(θ^ − θ) = sesgo deθ^
Unidad 4: Datos - 2013

- 2013

DEFINICIÓN: se llama estimador θ^ de θ a un estadístico θ^ =θ^ (x1; x2;...; xn) que proporciona un valor
aproximado del parámetro desconocido θ .

PROPIEDADES DE UN BUEN ESTIMADOR:

 INSESGABILIDAD: se dice que un estimador es insesgado, centrado o no viciado si su valor esperado es


^) = θ
idéntico al parámetro θ que se estima. E(θ

 Definición: se dice que un estimador es asintóticamente insesgado si: ^ ) → θ , cuando n→ ∞.


E(θ

^ de θ es consistente si θ^ converge en probabilidad hacia θ ,


 CONSISTENCIA: decimos que un estimador θ
cuando el tamaño de la muestra tiende a infinito. lim P(|θ−θ
^ |¿ ¿ ε )=1 , ∀ ε > 0 ¿
n→∞

^ un estimador de θ basado en una muestra de tamaño n, si ^


lim E(¿ θ)=θ ¿y
 Teorema: Sea θ
n→∞
2 ^
lim D (¿ θ)=0 ¿ ENTONCES θ^ un estimador consistente de θ .
n→∞

 CRITERIO DE EFICIENCIA: se dice que un estimador θ ^ 1 centrado es más eficiente que otro estimador
^ 2 para θ , si la varianza del primero es menor que la varianza del segundo. D2 ¿1) < D2 ¿2).
centrado θ

 Definición: se dice que un estimador θ^ 1 insesgado es un estimador de varianza mínima si D2 ¿1) < D2 ¿2)
donde θ^ 2 es cualquier estimador insesgado de θ diferente de θ^ 1.

 SUFICIENCIA: se dice que un estimador es suficiente si aporta tanta información como sea posible
acerca del parámetro, de modo que cualquier otro estimador proporcione escasa información adicional.

DEFINICIONES: Sea X1,X2, ...,Xn muestra aleatoria de la v.a X (discreta o continua) con función de
distribución F(x)
 El k-ésimo momento respecto al origen es:∝k =E(Xk)
n
1
 El k-ésimo momento de la muestra es mk = ∑ xk
n i=1 i
MÉTODO DE LOS MOMENTOS: se eligen como estimaciones de los parámetros a aquellos valores
de los mismos que son soluciones de las ecuaciones: ∝k =mk, con k=1, 2,...,t donde t es el número
de parámetros de interés.

Ejemplo: Sea X1,X2, ...,Xn muestra aleatoria de una v.a X con distribución uniforme en (0; θ ), con θ
desconocido. Estimar θ por el método de los momentos. (Ayuda: E(X) = θ /2 )

FUNCIÓN DE VEROSIMILITUD:

Sea (X1, X2,..., Xn) una muestra aleatoria proveniente de una población caracterizada por la v.a. X
con función de densidad f(x;θ ) y sean (x1, x2,..., xn) los valores muestrales. La función de
verosimilitud:

L ( X1 , X2, … , X n, θ)=
⟨ f ( x1 , θ ) f ( x 2 ,θ ) … f ( x n ,θ )
p 1 ( x 1 ,θ ) . p2 ( x 2 , θ ) … pn ( x n , θ )

DEFINICIÓN: el estimador de máxima verosimilitud de θ , llamado θ^ , basado en una muestra


aleatoria (X1, X2,..., Xn) es el valor de θ que maximiza a L ( X 1 , X 2 , … , X n , θ ) .

También podría gustarte