Está en la página 1de 9

(A3) Ann ∈ N una familia disjunta de eventos, entonces

Proba y Estadı́stica ∞
! ∞
[ X
Sebastián Sepúlveda A. P Ai = P(Ai )
i=1 i=1

1. Probabilidades (1 ) Monotonia: Sean A, B eventos. Si A ⊆ B, entonces


P(A) ≤ P(B)
1.1. Combinatoria n
Reglas de suma y producto S∞Sea {Ai }i=1
(2 ) Subaditividad: P∞una familia finita de eventos,
entonces P ( i=1 Ai ) ≤ i=1 P(Ai )
C
Regla de la suma: Si una tarea T puede ser llevada a (3 ) Propiedad del complemento: P(A ) = 1 − P(A)
cabo en paralelo por dos procesos P1 y P2 , tal que (4 ) Principio de Inclusión y Exclusión:
hay m maneras de llevar a cabo P1 , hay n maneras
de llevar a cabo P2 , y hay p maneras de llevar a cabo P(A ∪ B) = P(A) + P(B) − P(A ∩ B)
tanto P1 como P2 , entonces T puede ser llevado a cabo
de n + m − p maneras. 1.3. Probabilidades en eventos
Regla del producto: Si T puede ser llevada a cabo en Def Probabilidad condicional Sean A, B eventos tales
serie por dos procesos P1 y P2 , tal que hay m maneras que P(B) > 0. La probabilidad de A condicionado por B se
de llevar a cabo P1 y n maneras de llevar a cabo P2 , define por:
entonces hay mn maneras de llevar a cabo T . P(A ∩ B)
P(A|B) =
P(B)
Def Permutaciones (Variaciones) Simples. Son las di-
ferentes ordenaciones que se pueden hacer en un arreglo de Teo Fórmula de Bayes: Dados A,B eventos, se tiene que:
tamaño r con n elementos distinguibles, donde los objetos
P(A|B)P(B)
se pueden usar sólo una vez. P(B|A) =
P(A)
n!
Prn = Teo Probabilidades Totales: Sea Ω un espacio muestral
(n − r)!
y {An }n∈N partición de Ω, entonces:
Obs: Usualmente se le llama permutación al caso especial
r = n donde: Pn = n! P(A) =
X
P(A|A )P(A )
n n
n∈N
Def Permutaciones con elementos repetidos. Si se
tienen n elementosPdivididos en k grupos, con n i : cant. de Def Independencia: Diremos que dos eventos A y B son
k
objetos tipo i, tq i=1 ni = n. El total de permutaciones independientes si
posibles es:
P(A ∩ B) = P(A)P(B)
n!
Qk
n
i=1 i 1.4. Variable aleatoria:
Def Combinaciones: Dada una agrupación de n elemen- Def Variable aleatoria: Una variable aleatoria se dice
tos, la cantidad de subconjuntos de k elementos de dicha continua si existe una función fx : R → [0, ∞), llamada
agrupación está dada por: densidad de probabilidad de X, tal que ∀A ⊆ R:
  Z x
n n!
n
Ck = = P(x ∈ A) = fX (x)dx
k k! · (n − k)! A

Obs: El número total de subconjuntos no vacı́os que se pue- Una variable aleatoria se dice discreta si ∀A ⊆ R:
den formar es: 2n − 1 X
P(x ∈ A) = pX (k)
1.2. Axiomatica de probabilidades k∈A∩RX

Def Una medida de probabilidad sobre un espacio Γ cum- Donde:


ple. pX (k) = P(X = k)
Def Función de distribución acumulada: Dada X va-
(A1) 0 ≤ P (A) ≤ 1 riable aleatoria continua, definimos su función de distribu-
(A2) P (Ω) = 1, P (∅) = 0 ción acumulada (FX (x) = P(X ≤ x)) como:
1.5. Tipos de V.A Discretas
Z x
dFX (x)
FX (x) = fX (z)dz ⇒ fX (x) = Def V.A Bernoulli Esta variable aleatoria se caracteriza
−∞ dx
por tener dos posibilidades, cuando X = 1 (éxito) o X = 0
Caso discreto: (fracaso). Sea p la probabilidad de éxito y (1 − p) la de
fracaso, ası́:
X
F (b) = p(xi )
xi ≤b p(0) = P(X = 0) = 1 − p
p(1) = P(X = 1) = p
Def Esperanza La esperanza es como el centro de masa
de la probabilidad y se define: E(X) = p

 X V ar(X) = p(1 − p)
 k · pX (k) con kva discreta
F (0) = P(X ≤ 0) = 1 − p



k∈RX
E(x) = Z ∞ F (1) = P(X ≤ 1) = 1

xf (x)dx con xva continua



−∞ Def V.A Binomial Esta variable aleatoria busca i éxitos
en n. Escribimos X ∼ Bin(n, p):
Para todos los valores que pede tomar x tq p(x) ≥ 0  
n k
R∞ p(k) = p (1 − p)n−k i = 0, . . . , n
(1 ) E(g(X)) = g(x)f (x)dx k
−∞

(2 ) E(1A ) = P(A) E(X) = np


(3 ) EαX + β = αE(X) + β V ar(X) = np(1 − p)
(4 ) E(α) = α Pk
F (a) = P(X ≤ a) = a n

pk (1 − p)n−k
k
(5 ) Si X ⊥
⊥ Y ⇒ E(XY ) = E(X)E(Y )
Def V.A poisson Es una variable aleatoria que toma
los valores X = 0, 1, 2, . . . con parámetro λ se escribe
Def Covarianza Sean X e Y va. Supongamos que la dis- X ∼ poisson(λ)
tribución conjunta existe y que V ar(X),V ar(Y ) existen.
λk
pX (k) = P(X = k) = e−λ i = 0, . . . , n
k!
Cov(X, Y ) = E((X − E(X)(Y − E(Y )))
E(X) = λ
= E(X, Y ) − E(X)E(Y )
V ar(X) = λ
Obs: Si X,Y son independientes, entonces Cov(X, Y ) = 0, el
λ
reciproco, en general, es falso. P(X ≤ k) = P(X = i − 1) Importante para calcular
k
Def Varianza Representa como el momento de inercia y la función distribución.
se define como:
P∞ λj
Recordar que eλ = j=1
j!
V ar(x) = E (X − E(X))2

Def V.A Geométrica: modela la probabilidad de obtener
= E(X 2 ) − E(X)2 un primer éxito en el intento k, con probabilidad de éxito
p ∈ (0, 1). X ∼ Geom(p):
Además:
pX (k) = (1 − p)k−1 p
V ar(X, Y ) = V ar(X) + V ar(Y ) + 2Cov(X, Y ) 1
E(X) =
p p
(1 ) Desviación estándar: σ(X) = V ar(X) 1−p
2
V ar(X) =
(2 ) V ar(αX + β) = α · V ar(X) p2
− p)k−1 p = 1 − (1 − p)a
P
(3 ) X ⊥
⊥ Y ⇒ V ar(X, Y ) = V ar(X) + V ar(Y ) F (a) = P(X ≤ a) = i≤a (1
1.6. Tipos de V.A Continuas Prop Sea X ⊥
⊥Y v.a.0 s ⇒ MX+Y (t) = MX (t)MY (t)
Def V.A Uniforme Una variable aleatoria uniforme en Teo X, Y v.a.0 s, con MX , MY finitas en un intervalo en
un intervalo (a,b) tiene como función densidad a: torno a 0, entonces:

 1
 X, Y tienen la misma distribución ⇔ MX = MY ∀t ∈ R
si a ≤ x ≤ b
f (x) = a − b
Def Función Gamma: Dado θ > 0:
0 en otro caso.

Z ∞
a+b Γ(θ) = e−z z θ−1 dz
E(X) = 0
2
Obs: Si integramos por partes, resulta:
(b − a)2
V ar(X) =
12 Γ(θ) = (θ − 1)Γ(θ − 1)
Rj j−a
F (j) = −∞ f (x)dx = Γ(n) = (n − 1)!
b−a
Def Distribución Gamma: θ > 0, λ > 0, X ∼
Def V.A Normal X sigue una variable aleatoria normal Gamma(θ, λ)
de media µ y varianza σ 2 (X ∼ N (µ, σ 2 )). Su función de
densidad esta dada por: λe−λx (λx)θ−1
fX (x) = 1[0,∞] (x)
Γ(θ)
1 2 2
f (x) = √ e−(x−µ) /2σ − ∞ < x < ∞
σ 2π Prop X1 , . . . , Xn v.a independientes con Xi ∼ exp(λ),
entonces:
E(X) = µ
X = X1 , . . . , Xn ⇒ X ∼ Gamma(n, λ)
V ar(X) = σ 2
φ(−t) = 1 − φ(t) Def Proceso de Poisson: Modela la ocurrencia de suce-
sos que ocurren uno después del otro “sin condición”. Ejem-
aX + b ∼ N (aµ + b, a2 σ 2 ) plo: llegada de clientes a un banco.
Denotamos ∀i = 1, 2, . . .:
Def V.A Exponencial X sigue una variable aleatoria ex-
ponencial de parámetro λ > 0(X ∼ Exp(λ)) . Su función Ti := Tiempo que transcurre entre la llegada del cliente
densidad esta definida como: i = 1 y el i-ésimo
Pk
( Sk := Instante en que llega el cliente k-ésimo = i=1 Ti
λe−λx si x ≥ 0
f (x) = (S0 = 0)
0 en otro caso.
Supuesto del modelo:
1
E(X) = λ
Los Ti son independientes, Ti ∼ exp(λ), donde es la
1
V ar(X) = λ2
tasa de llegada de clientes

P(X > s + t | X > t) = P(X > s). La exponencial Lo anterior implica que Sk ∼ Gamma(k, λ)
cumple la propiedad de perdida de memoria.
Para t ≥ 0, definimos la va:

1.7. F.G.M. y Proceso de Poisson Nt := La cantidad de clientes que han llegado hasta el
instante t = |{k | Sk ≤ t}|
Def Función generadora de momentos (f.g.m): Sea
X v.a., se define su f.g.m como: Visto como una función (aleatoria) de t, la colección (Nt )t>0
se llama proceso de Poisson.
Prop ∀t ≥ 0 Nt ∼ P oisson:
Mx : R → [0, ∞]
t → MX (t) = E(etx ) eλt (λt)k
P(Nt = k) =
k!
Prop Se define el k-ésimo momento de una va como:
Prop (Nt )t≥0 , (Mt )t≥0 procesos de Poisson independientes
k
d MX (0) con tasa λ y µ respectivamente, entonces:
k
= E(X k ) ∀k = {1, 2, . . .} (N t + Mt )t≥0 es un proceso de poisson con tasa λ + µ
dt
1.8. Vectores Aleatorios Prop : Dados X ⊥
⊥ Y va continuas, entonces:
Un vector aleatorio es una función X ~ : Ω → R , donde n
fX+Y = fX ∗ fY
(Ω, P) es un espacio de probabilidad, implicito. Se escribe
~ = (X1 , ..., Xn ) cuyas componentes son v.a. inde- L[g ∗ f ](s) = L[g](s) · L[f ](s)
como X
pendientes entre ellas. Teo Método del Cambio de variable Sean X, Y va
Def Distribución Conjunta Sea (X, Y ) ~v a. Entonces la con densidad conjunta f (x, y) conocida. Sea g : R2 → R2
X,y
distribución del ~v a es: g suave, invertible y g −1 suave, entonces ∀(u, v) ∈ R2 :
(i) Discreta
pX,Y (n, v) = P(X = n, Y = v) fX,Y (x, y)
fU,V (u, v) =
|det(Jg (x, y))|
= P((X = n) ∩ (Y = v))
= fX,Y (g −1 (u, v)) · |det(Jg−1 (u, v))|(∗)
(ii) Continua
Z Z Recordar: Jacobiano, sea:
P((X, Y ) ∈ A) = fX,Y (u, v)dudv  
h1 (x, y)
A
h(x, y) =
h2 (x, y)
Def Distribución Acumulada (Conjunta) Dado un Entonces:
vector aleatorio (X, Y ) conjuntamente continuo, es posible
∂h1 (x, y) ∂h1 (x, y)
 
ver que: F = FX1 ,...Xn de un vector aleatorio (X1 , ..., Xn ) es
Jh (x, y) =  ∂x ∂y
definido por:
 
∂h (x, y) 2 ∂h2 (x, y) 
∂x ∂y
FX (x) = P(X ≤ x) Pasos para resolver problema estándar con Cambio de Va-
= P((X, Y ) ∈ {(−∞, x] × R}) riable:
Zx Z∞
(i) Dados (X, Y ) va independientes con distribuciones
= fX,Y (u, v)dydu iguales o distintas cada una, nos solicitan encontrar
−∞ −∞ la densidad conjunta de dos va (U, V ) que dependen
de X e Y de distinta manera
Def Densidades  Marginales: Al aplicar el TFC en la
(ii) Definimos g(X, Y ) = (U, V ) = (f (X), g(Y ))

dFX (x) R∞
formula anterior = fX (x) = −∞ (x, y)dy
dx (iii) Luego despejamos X e Y, y nos definimos g −1 (U, V ) =
P (X, Y ) = (g1−1 , g2−1 ).
(i) pX (u) = v∈Rec(Y ) pX,Y (u, v)
P
pY (v) = u∈Rec(X) pX,Y (u, v) (iv) Calculamos su Jacobiano:
R∞  −1
∂g1−1 (u, v)

(ii) fX (u) = −∞ fX,Y (u, v)dv ∂g1 (u, v)
R∞
fY (v) = −∞ fX,Y (u, v)du Jg−1 (u, v) =  −1∂u ∂v
 
∂g1 (u, v) ∂g1−1 (u, v)

Prop Sea (X, Y ) va conjuntamente continuo, y sea g : ∂u ∂v
R2 → R, entonces:
(v) Calculamos el determinante del jacobiano, y su valor
Z Z absoluto
E(g(x, y)) = g(x, y)fX,Y (x, y)dxdy
R2 (vi) Finalmente obtenemos la densidad conjunta ocupan-
do (∗) como:
Def Independencia Las variables aleatorias X1 , ..., Xn se
dicen independientes si su distribución acumulada conjunta fU,V (u, v) = fX,Y (g −1 (u, v)) · |det(Jg−1 (u, v))|
se factoriza como producto de sus distribuciones marginales.
FX1 ,...,Xn (x1 , ..., xn ) = FX1 (x1 ) · ... · FXn (xn ) (vii) Obs: Notar que estos pasos son análogos cuando se
analiza una sola va, considerando un vector de 1 × 1
Def Convolución Sean g, h : R → R, su convolución es
Def Correlación Si X e Y son va de modo que la distri-
la función:
bución conjunta existe y que V ar(X), V ar(Y ) existen y no
g∗h:R →R nulas, entonces:
Z ∞
z → (g ∗ h)(z) = g(x)h(z − x)dx Cov(X, Y )
pX,Y (x, y) = p
−∞ V ar(x)V ar(y)
Def Distribución condicional 1.9. Convergencia
fX,Y (x, y) Def Sea {Yn } una sucesión de va y Y una va. Entonces:
fX|Y =y =
fY (y) (i) Decimos que Yn converge a Y casi seguramente,
C.S
anotado Yn −−→ Y , si:
análogamente se obtiene la fórmula de Bayes: n

P(Yn → Y ) = 1
pX/Y =y (x) · pY (y)
pY /X=x(y) =
pX (x) (ii) Decimos que Yn converge a Y en probabilidad, ano-
P
tado Yn −
→, si:
n
Def Esperanza Condicional
P(|Yn → Y ≥ |) −−→ 0 ∀ > 0
P n
E(X|Y = y) = x · pX|Y =y (x)
x∈RX
(iii) Decimos que Yn converge a Y en distribución, o en
R∞ L
E(X|Y = y) = x · fX|Y =y (x)dx ley anotado ası́ Yn −−→ si:
−∞ n

L
FYn (y) −−→ FY (y) ∀y ∈ R
R
E(g(x)|Y = y) = g(x) · fX|Y =y (X|Y )dx n

RPT continua para esperanzas: en que Fy (·) es continua


Z ∞ Prop
E(x) = E(X|Y = y)fY (y)dy
−∞ C.S P L
Yn −−→ Y ⇒ Yn −−→ Y ⇒ Yn −
→Y
n n n

Con P(A|Y = y) = E(1|Y = y)


Def Ley Fuerte de los Grandes Números Sea
Z ∞ {Xi }i∈[1,...,n] una sucesión de v.a ⊥
⊥, de modo que E(Xi ) =
P(A) = P(A|Y = y)fY (y)dy µ 6= ∞, ∀n ∈ N, con µ ∈ R:
−∞
C.S
X n −−→ µ
n
Teo E(E(X|Y )) = E(X)
Teo Teorema del limite central: Sean X1 , X2 . . . se-
Def Varianza Condicional
Pnde v.a ⊥
cuencia ⊥ con µ = E(Xi ), σ 2 = V ar(Xi ) y sea:
1
X i n i=1 Xi . Suponiendo que µ y σ son finitos, entonces:
(y − E(Y |X = x))2 pY |X=x (y)
P
V (Y |X = x) =
y∈RY
Xn − µ L
Zn = σ −−−→ N (0, 1) (∗)
R∞ n
V (Y |X = x) = (y − E(Y |X = x))2 fY |X=x (y) √
−∞ n

Prop Sea (X,Y) va:


~ Este limite no depende del tipo de distribución de los
Xi , es siempre igual para todas.
(a) E(y) = E(E(Y |X)) En la práctica (∗) significa que las probabilidades de Zn
(b) V ar(y) = E(V ar(Y |X)) + V ar(E(Y |X)) se aproximan a la de Z ∼ N (0, 1), ie.
P(Zn ∈ A) − → P(Z ∈ A) ∀A ⊆ R “razonable”
n
Prop Desigualdad de Markov Sea X va que toma va-
lores (no negativos). Entonces ∀a > 0: 2. Estadı́stica
E(X) Def Muestra aleatoria simple: Una m.a.s es una colec-
P(X ≥ a) ≤
a ción X1 , . . . Xn de variales aleatorias independientes o iden-
ticamente distribuidas.
Prop Desigualdad de Chebyshev Sea X va con µ = Obs: Los X1 , . . . , Xn corresponden a los datos antes de saber
E(X) y σ 2 = V ar(X) finitos, entonces ∀b > 0 su valor. Si nos referimos a los valores que toman anotaremos
x1 , . . . xn . Además supondremos que la distribución de la
σ 2 cual provienen los datos poseen un parámetro θ ∈ R el cual
P(|X − µ| ≥ b) ≤ 2 se desea aproximar.
b
2.1. Estimadores Obs: θ̂M V = argmax logL((x1 , . . . , xn ) ; θ) Obs: Si hay p
θ∈R
Def Estadistico: Es una función de la muestra: parámetros desconocidos (θ~ = (θ1 , . . . , θp )) el método es el
mismo: θ̂M V = argmax logL((x1 , . . . , xn ) ; θ)
e = e(X1 , . . . , Xn ) θ∈Rp
Obs: Si L es suave, para maximizar L c/r a θ~ se buscan
Def Estimador Un estimador θ̂ para el parámetro θ es puntos criticos:
un estadı́stico:
θ̂ = θ̂(X1 , . . . , Xn ) ∇θ~ L(x1 , ..., xn ; θ) = 0
que se usa para aproximar θ
Def Método de los momentos: Se definen ∀k
Def Estimador insesgado: Un estimador se dice inses-
gado si: mk = E(X1k ) k-ésimo momento real
E(θ̂) = θ n
1X k
m̂k = X k-ésimo momento muestral
h i
Prop La cantidad E(θ̂) − θ se llama sesgo n i=1 i
Prop Sean µ = E(Xi ), σ 2 = V ar(Xi ), son estimadores
insesgados: donde X1 , . . . , Xn en la m.a.s. Suponemos que hay p
parámetros desconocidos θ1 , . . . , θp . El método de los
n
X̄ =
P
para µ momentos propone imponer: mi = m̂i . Esto genera p
i=1 ecuaciones para las p incognitas. La solución corresponde a
1 n los estimadores del método de los momentos.
s2 = n−1 2 2
P
i=1 (Xi − X̄) para σ

Obs: Def Intervalo de confianza: Deseamos proveer de un


n n
2 1X 2 1X 2 intervalo [θ̂L , θ̂U ] (dependientes de la muestra), llamado in-
S = (Xi − X̄) = X − X̄ 2 tervalo de confianza, tal que el parámetro desconocido θ esté
n i=1 n i=1 i
en él con alta probabilidad, es decir:
Def Error cuadrático medio (θ̂):
P(θ ∈ [θ̂L , θ̂U ]) = 1 − α
2
ECM (θ̂) = E((θ̂ − θ) )
Donde α = 5 %, α = 1 % son usuales.
Teo ECM (θ̂) = V ar(θ̂) + sesgo(θ̂)2
P
Método gral para encontrar i.d.c para θ:
Def Consistencia: Se dice que θ̂ es consistente si θ̂ −−→ θ,
n
es decir, si: Trabajar con un estadı́stico U cumpliendo que el es-
P(|θ̂ − θ| > ) −−−−→ 0 tadistico involucre el parámetro desconocido θ pero su
n→∞ distribución no dependa de θ y sea desconocida.
Prop Si θ̂ es insesgado y V ar(θ̂) −−−−→ 0 entonces θ̂ es Imponer el nivel deseado a un intervalo para U (posi-
n→∞
consistente blemente con una condición de simetrı́a).

Def Función de verosimilitud: Suponiendo que la dis- De una tabla se obtienen los extremos del intervalo.
tribución de los X1 , . . . , Xn posee densidad f = f (x, θ) ∀x ∈ Finalmente se despeja θ.
R, luego definimos la FV como:
Teo Sea X1 , . . . , Xn m.a.s, con distribución común N (µ, σ)
k con µ y σ 2 desconocidos. Para encontrar el i.d.c para µ al
nivel (1 − α), entonces:
Y
L(X1 , . . . , Xn ; θ) := f (xi ; θ)
i=1  
σ σ
µ ∈ x̄ − c √ , x̄ + c √
Donde la segunda expresión es la densidad conjunta del n n
vector X~ = (X1 , . . . , Xn ) (con va. iid)
α
Donde c cumple P(N (0, 1) > c) =
Def Método de máxima verosimilitud: método que 2
permite encontrar estimadores. Propone estimar θ mediante Teo Si la distribución común es genérica (no necesaria-
lo siguiente: si x1 , . . . , xn son los números especificos obte- mente normal) y se busca un i.d.c para µ = E(X1 ) con
2
nidos en la muestra, tenemos: σ = V ar(X 1 ) conocida, el estadı́stico:

X̄ − µ
θ̂M V = argmax L((x1 , . . . , xn ) ; θ) Z= √
θ∈R σ/ n
será aproximadamente N (0, 1) para n grande (por TCL). Si los extremos se salen del intervalo [0, 1] pueden truncarse,
Este método entrega un i.d.c aproximado para µ obteniendo:

Def Variable aleatoria T-student Una va. T se dice P (p ∈ max (b1 , 0) , min (b2 , 1)) ≈ (1 − α)
T-student con n grados de libertad si su densidad es:
Estimación de idc para una varianza
Γ n+1
 
x 2
−( n+1
2 ) Dado una m.a.s X1 , ..., Xn con distribución común N(µ, σ 2 )
2
fT (x) = √ 1+ ∀x con µ, σ 2 desconocidos, queremos encontrar un i.d.c para σ
Γ n2

n n
al nivel (1 − α)
La anotamos como T ∼ tn
x2 Def PChi-cuadrado: Sean Z1 , ..., Zn i.i.d N(0, 1). La va.


Obs: Notar qe para n grande, ft (x) = ce 2
n
U = i=1 Zi2 se llama chi-cuadrado con n-grados de liber-
tad, anotado U ∼ χ2n . Se puede mostrar que:
Prop Sea X1 , . . . , X2 m.a.s de una N (µ, σ 2 ), entonces:
1 n x

X̄ − µ fn (x) = n x 2 −1 e− 2 1[0,∞] (x)


T = √ ∼ tn−1 2 2 Γ( 12 )
s/ n
1
Pn
2 1
Pn 2
Prop Sea X1 , ..., Xn de N(µ, σ 2 ), con s2 = n−1 i=1 (Xi −
Donde s = n−1 i=1 (Xi − X̄) X̄)2 , entonces:
Para encontrar el Intervalo de confianza para µ con µ y σ
desconocidos, a un nivel (1 − α) y n genéricos tenemos la s2
siguiente fórmula: (n − 1) ∼ χ2n−1
σ2
α
P(tn−1 > c) = Def Estadı́stico:
2
Donde c se obtiene de la tabla t-student en la posición s2
U = (n − 1) ∼ χ2n−1
[tn−1 , α2 ] σ2
Tabla Chi-cuadrado: Conocido (n − 1) y α podemos ob-
Estimación de proporción tener (a, b) de:
L C.S. α
Prop Si Yn −−−−→ Y y An −−−−→ 1, entonces: P(χ2n > a) = 1 −
n→∞ n→∞
2
α
L
An Yn −−−−→ Y P(χ2n > b) =
n→∞ 2

Estimación de idc para una Bernoulli Con esto sabemos que:


Dada una m.a.s X1 , ..., Xn de una Bernoulli(p) con p
desconocido queremos encontrar un i.d.c para p. 
s2

1 − α = a ≤ (n − 1) 2 ≤ b
σ
Def Estimador:
2
s2
 
s 2
1 − α = P (n − 1) ≤ σ ≤ (n − 1)
#10 s b a
p̂ = = X̄
n
Por tanto el i.d.c para la varianza es:
Por TCL y Prop Anterior, definimos el estadistico:
s2 s2
 
p̂ − p p̂ − p L (n − 1) , (n − 1)
Z= p = p −−−−→ N (0, 1) b a
p(1 − p) p̂(1 − p̂) n→∞
√ √
n n Test de hipótesis
Donde para n grande, ocupamos Z para encontrar el inter-
Dado un parámetro desconocido θ, nos interesa comparar
valo de confianza para p, que es:
dos afirmaciones sobre θ y ver en base a los datos si es ra-
zonable descartar una en favor de la otra.
" p p #
p̂(1 − p̂) p̂(1 − p̂)
p̂ − c √ , p̂ + c √ = [b1 , b2 ]
n n H0 : Hipotesis nula. Es la afirmación de base
α
donde c cumple P(N(0, 1) > c) = 2 H1 : Hipotesis alternativa. sobre la cual se constrasta
H0
Se rechaza H 0 Se rechaza H 1 donde L es de la función de verosimilitud:
Si H 0 es cierta Error tipo 1 No hay error n
Y
Si H 1 es cierta No hay error Error tipo 2 L(~
x; θ) = f (xi ; θ)
i=1
Tipicamente se controla: donde f (xi ; θ) es la densidad común de los xi
α = P(error tipo I)
Ejemplo útil
α = P(Rechaza H0 | H0 es cierta)
Sea una m.a.s X1 , ..., Xn de una N(µ, σ 2 ) con σ 2 conocido.
α = P(condenar a un inocente)
Sean:
Def Hipótesis simple: una hipotesı́s se dice simple si H0 : µ = µ0
ella determina completamente la distribución de los datos.
En otro caso se dice compuesta. H1 : µ = µ1
Tipicamente una hipótesis se dice simple cuando es de la
con µ0 < µ1 Encontrar el test más potente a nivel α
forma “θ = θ0 ” para θ0 ∈ R conocido, donde θ es el úni-
Sol:
co parámetro desconocido. Por ejemplo, si la muestra tiene
distribución común exp(λ): 1. Definir función de verosimilitud:
n
H: λ = 2 es simple Y 1 −(xi −µ)2
⇔ L(~
x; µ) = √e 2σ2
H:
e λ = 2 es simple i=1
2πσ
√ 1
P 2

Siempre trabajaremos con hipótesis nula H0 de tipo simple. x; µ) = ( 2πσ)−n e− 2σ2 (xi −µ)
⇔ L(~

Def Potencia: La potencia de un test con H1 simple es: 2. Desarrollamos la condición sobre la región para que el
test sea potencia máxima:
Potencia = P(rechaza H0 | H1 )
L(~
x ; θ0 )
= 1 − P(No rechaza H0 | H1 ) ⇔ ≤ cte
L(~
x ; θ1 )
= 1 − P(Error tipo II)
⇔ ...
=1−β
⇔ 2(µ0 − µ1 )nx̄ ≤ cte
f (∗)
Tipicamente, ante dos test con el mismo α se prefiere aquel cte
f
con menor β, es decir, el test con mayor potencia. ⇔ x̄ ≥
2(µ0 − µ1 )n
Def Región de rechazo: Dado a que un test es un criterio ⇔ x̄ ≥ cte
f
f
para decidir cuando rechaza, decimos que un test correspon-
de a un R ⊆ Rn llamada Región de rechazo, tal que el 3. La forma de la región de rechazo es:
test se rechaza sı́ y sólo sı́ el vector de datos (x1 , . . . , xn ) = ~
x
pertenece a R. Es de la forma: x ∈ Rn | ~
R = {~ x ≥ a}
x̄ − µ0
= {~
x∈R | √ ≥ c} (∗∗)
x ∈ Rn : U(~
R = {~ x > c)} σ/ n
donde U = U(X1 , . . . , Xn ) es un estadı́stico adecuado y
4. Lo cual permite despejar c imponiendo que:
c es una constante que se adecua para lograr el nivel deseado.
x ∈ R | H0 ) = α
P(~
Teo Lema de Neyman - Pearson: Sea una m.a.s
X1 , ..., Xn cuya distribución común tine un único parámetro x̄µ
y sabiendo que √ ∼ N(0, 1)
desconocido θ y sean: σ/ n

H0 : θ = θ0 Obs 1: La forma de (∗∗) es la misma para todo µ0 < µ1


En tal caso decimos que el test es uniformemente más
H1 : θ = θ1 potente para el caso µ0 < µ1
Entonces dado α fijo, el test con la potencia máxima tiene
Obs 2: Si µ0 > µ1 la región de rechazo cambia a:
región de rechazo de la forma:
 
n x̄ − µ0

R= ~ x∈R √ ≤c
 
L(~
x ; θ0 )
R= ~ x ∈ Rn : ≤ cte σ/ n
L(~
x ; θ1 )
Cuadro 1: Resumen Distribuciones
nombre parámetros notacion tipo soporte distribucion esperanza varianza f.g.m

pX (0) = 1 − p
bernoulli p ∈ (0, 1) X ∼ Bernoulli(p) discreta {0,1} p p(1 − p) 1 − p + pet
pX (1) = p

n
n ∈ N∗ , p ∈ (0, 1)

binomial X ∼ bin(n, p) discreta {0, 1, . . . , n} pX (k) = k pk (1 − p)( n − k) np np(1 − np) (1 − p + pet )n

geométrica p ∈ (0, 1) X ∼ geom(p) discreta {1, 2, 3, . . . } pX (k) = (1 − p)( k − 1)p 1 1−p pet
p p2 1 − (1 − p)et

binomial r
r r(1 − p) pet

k−1
r ∈ N∗ , p ∈ (0, 1)

X ∼ BN (r, p) discreta {r, r+1, . . . } pX (k) = r−1 (1 − p)( k − r)pr
negativa p p2 1 − (1 − p)et

λk t
Poisson λ>0 X ∼ P oisson(λ) discreta {0, 1, 2, . . . } pX (k) = eλ λ λ eλ(e −1)
k!

1 a+b (b − a)2 etb − eta


uniforme a, b ∈ R, a < b X ∼ unif (a, b) continua [a, b] fX (x) = 1[a,b] (x)
b−a 2 12 t(b − a)

exponencial λ>0 X ∼ exp(λ) continua [0, ∞) fX (x) = λe−λx 1[0,∞) (x) 1 1 λ


∀t<λ
λ λ2 λ−t

(x − µ)2
1 − 1 22
normal µ ∈ R, σ > 0 X ∼ N (µ, σ 2 ) continua R fX (x) = √ e 2σ 2 µ σ2 µt+ σ t
σ 2π e 2

λe−λx (λx)θ−1 θ θ

λ

gamma θ > 0, λ > 0 X ∼ gamma(θ, λ) continua [0, ∞) fX (x) = 1[0,∞) (x) ∀t < λ
Γ(θ) λ λ2 λ−t

También podría gustarte