Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Calcuando el valor-p:
1
• Si el test es bilateral y la media de T bajo H0 es µ, “tanto o más extremos” serán valores de T con
|T − µ| ≥ |tobs − µ|.
f (x, y)
fY |X (y|x) =
fX (x)
y la esperanza condicional correspondiente por
X Z ∞
E(Y |X = x) = fY |X (y | x) = fY |X (y | x)dy.
y −∞
Covarianza y Correlación
Tanto en el caso discreto como en el caso continuo, la covarianza y correlación de X e Y satisfacen
Cov(X, Y )
Cov(X, Y ) = E[(X − E(X))(Y − E(Y ))] = E[XY ] − E[X]E[Y ]; ρ(X, Y ) = ,
DS(X)DS(Y )
2
4 Estadísticas descriptivas para datos bivariados
Datos: (x1 , y1 ), (x2 , y2 ), ... , (xn , yn ).
Covarianza muestral:
n
1X
σ
bx,y = (xi − x)(yi − y).
n i=1
Propiedades de la covarianza de dos v.a. y de la covarianza muestral
1
Pn
• σ bx2 =
bx2 denota la varianza muestral de los xi : σ n i=1 (xi − x)2 .
• c una v.a. constante (columna izquierda) y un vector constante (columna derecha).
• x + y denota el vector (x1 + y1 , ..., xn + yn ); y + z el vector (y1 + z1 , ..., yn + zn ).
• ax denota el vector (ax1 , ..., axn ); by denota el vector (by1 , ..., byn ).
5 Normal bivariada
Definición: Caso estándar.
X y Y variables aleatorias normales estándar con correlación ρ.
Sean U ypV i.i.d. N(0, 1). El vector aleatorio (X, Y ) tiene una distribución normal bivariada estándar si
(U, ρU + 1 − ρ2 V ) tiene la misma distribución conjunta que (X, Y ).
3
• (Y |X = x) ∼ N(ρx, 1 − ρ2 ), por lo cual E(Y |X = x) = ρx, Var(Y |X = x) = 1 − ρ2 .
6. θbn es asintóticamente eficiente si es consistente y para cualquier otro estimador consistente θ̃n , se tiene
ECM(θbn ; θ) ≤ (1 + δ) ECM(θ̃n ; θ)
para δ > 0 peque no y n suficientemente grande.
8 Método de momentos
Momentos: µk = E Xik .
1
Pn
Momentos muestrales: Mk = n i=1 Xik , k = 1, 2, ....
4
9 Estimador de máxima verosimilitud
• Función de verosimilitd: L (θ; x1 , . . . , xn ) = fn (x1 , . . . , xn | θ).
τ2
α)) ' g(α),
E(g(b α)) ' [g 0 (α)]2 Var(b
Var(g(b α) = [g 0 (α)]2 .
n
12 Intervalos de Confianza
Los tres intervalos de confianza que estudiamos son:
con τ = σ (la desviación estándar de la distribución si esta es conocida) y τ = σ 0 (la desviación estándar de
los datos) si no.
Denotamos la cumulativa del pivote por F (normal estándar o t(n − 1)). Entonces k es la solución de
α
F (k) = 1 −
2
5
En el caso particular en que los xi solo pueden tomar los valores 0 y 1 , el intervalo del 95%( útil si
0, 4 < p < 0, 6) se puede aproximar por:
1 1
x̄ − √ , x̄ + √
n n
El margen de error e asociado a un tamaño muestral n :
100
e= √
n
El tamaño muestral n necesario para obtener un margen de error e :
2
100
n=
e
13 Regresión lineal
Estimadores de máxima verosimilitud
−1
Xn n
X
2
(b̂ | X = x) = (xj − x̄) (xi − x̄) Yi − Ȳ
j=1 i=1
2
R
Pn 2 Pn 2
2 (ŷi − ȳ) (yi − ŷi )
R = Pi=1
n 2 = 1 − Pi=1
n 2
i=1 (yi − ȳ) i=1 (yi − ȳ)
Caso con predictor binario:
a = y0 , bb = y − y .
b 1 0
n
X n1 n0
(xj − x)2 = ,
j=1
n
6
14 Muestreo
Notación general
• Unidades de la población objetivo (que se supone igual a la población muestreada):
U = {1, 2, ..., N }.
• Parámetro de interés: µ.
• Datos: Una muestra aleatoria simple con reemplazo de tamaño n: y1 , ..., yn . En realidad son yi1 , ..., yin .
• Modelo estadístico: Los yi de la muestra son realizaciones de variables aleatorias i.i.d. Y1 , ..., Yn con
E(Yi ) = µ y Var(Yi ) = σ 2 .
7
√
• Regla de n: En este caso σ 2 ≤ 1/2 y y(1 − y) ≤ 1/2, de modo que un intervalo de confianza de al
menos 95% será
1 1
y− √ , y+ √ .
n n
Y el tamaño muestral n que asegura un margen menor o igual que e cualesquiera sea p es:
1 1
n= ⇐⇒ e= √ .
e2 n
σ2
E(Yi ) = µ, Var(Yi ) = σ 2 , Cov(Yi , Yj ) = − .
N −1
• Intervalo de confianza:
p σ p σ
y − 1, 96 f √ , y + 1, 96 f √ .
b b
n n
Muestreo estratificado
Cuando es posible particionar la población en varios estratos y las media o varianzas varían entre estratos,
es posible obtener estimadores más precisos usando muestreo estratificado (para un tamaño n dado de la
muestra total).
Muestreo estratificado consiste en tomar una muestra aleatoria simple (que suponemos con reemplazo) en
cada uno de los estratos.
Notación:
• K: Número de estratos, 1,2,...,K. El estrato genérico tiene subíndice k.
• Nk : Número de unidades en el estrato k.
8
• Y k : Media muestral del estrato k, con valor observado y k .
bk2 : Varianza muestral del estrato k.
• σ
Seguimos denotando por µ la media poblacional y por σ 2 la varianza poblacional.
Tenemos:
X X X X X
N = Nk , n = nk , µ = wk µk , σ2 = wk σk2 + wk (µk − µ)2 .
k k k k k
σ2 σ2
a
E(Y k ) = µk , Var(Y k ) = k , Y k ∼ N µk , k .
nk nk
Consideramos el estimador de µ que viene dada por el promedio ponderado (los ponderadores son los los
tamaños relativos de los estratos) de medias muestrales de estratos:
K
s X
Y = wk Y k .
k=1
s
Entonces Y es un estimador insesgado de µ, con una distribución aproximadamente normal y con
s X σk2
Var(Y ) = wk2 .
nk
k
con s
s X bk2
σ
DS(Y
c )= wk2 .
nk
k
Definimos X X
σ2 = wk σk2 , σ= wk σk .
k k
15 Estimación Bayesiana
• Parámetro de interés: θ.
• Datos: x = (x1 , ..., xn ).
• Modelo estadístico: Los datos son realizaciones de variables aleatorias i.i.d. X1 , ..., Xn con f.d.p. (o
f.p.) que depende de θ.
9
• Previa: π(θ).
• Verosimilitud: L(θ; x) = f (x | θ) = f (x1 | θ) · f (x2 | θ) · ... · f (xn | θ).
• Posterior: π(θ | x) ∝ L(θ; x) · π(θ).
Resumiendo la posterior:
• Estimador de Bayes: θbBayes (x) = E(θ | x).
Previas conjugadas
Modelo Bernoulli-Beta:
• Modelo estadístico: X1 , ..., Xn i.i.d. Ber(θ).
Modelo Poisson-Gamma:
Donde la última propiedad, eficiencia, se refiere a que el el estimador de Bayes minimiza la esperanza del
ECM, usando como ponderador la densidad posteror:
Z
θBayes = argminθb ECM(θ; θ)π(θ
b b | x)dθ.
10