Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Proba y Estadı́stica ∞
! ∞
[ X
Sebastián Sepúlveda A. P Ai = P(Ai )
i=1 i=1
Obs: El número total de subconjuntos no vacı́os que se pue- Una variable aleatoria se dice discreta si ∀A ⊆ R:
den formar es: 2n − 1 X
P(x ∈ A) = pX (k)
1.2. Axiomatica de probabilidades k∈A∩RX
X V ar(X) = p(1 − p)
k · pX (k) con kva discreta
F (0) = P(X ≤ 0) = 1 − p
k∈RX
E(x) = Z ∞ F (1) = P(X ≤ 1) = 1
xf (x)dx con xva continua
−∞ Def V.A Binomial Esta variable aleatoria busca i éxitos
en n. Escribimos X ∼ Bin(n, p):
Para todos los valores que pede tomar x tq p(x) ≥ 0
n k
R∞ p(k) = p (1 − p)n−k i = 0, . . . , n
(1 ) E(g(X)) = g(x)f (x)dx k
−∞
1
X, Y tienen la misma distribución ⇔ MX = MY ∀t ∈ R
si a ≤ x ≤ b
f (x) = a − b
Def Función Gamma: Dado θ > 0:
0 en otro caso.
Z ∞
a+b Γ(θ) = e−z z θ−1 dz
E(X) = 0
2
Obs: Si integramos por partes, resulta:
(b − a)2
V ar(X) =
12 Γ(θ) = (θ − 1)Γ(θ − 1)
Rj j−a
F (j) = −∞ f (x)dx = Γ(n) = (n − 1)!
b−a
Def Distribución Gamma: θ > 0, λ > 0, X ∼
Def V.A Normal X sigue una variable aleatoria normal Gamma(θ, λ)
de media µ y varianza σ 2 (X ∼ N (µ, σ 2 )). Su función de
densidad esta dada por: λe−λx (λx)θ−1
fX (x) = 1[0,∞] (x)
Γ(θ)
1 2 2
f (x) = √ e−(x−µ) /2σ − ∞ < x < ∞
σ 2π Prop X1 , . . . , Xn v.a independientes con Xi ∼ exp(λ),
entonces:
E(X) = µ
X = X1 , . . . , Xn ⇒ X ∼ Gamma(n, λ)
V ar(X) = σ 2
φ(−t) = 1 − φ(t) Def Proceso de Poisson: Modela la ocurrencia de suce-
sos que ocurren uno después del otro “sin condición”. Ejem-
aX + b ∼ N (aµ + b, a2 σ 2 ) plo: llegada de clientes a un banco.
Denotamos ∀i = 1, 2, . . .:
Def V.A Exponencial X sigue una variable aleatoria ex-
ponencial de parámetro λ > 0(X ∼ Exp(λ)) . Su función Ti := Tiempo que transcurre entre la llegada del cliente
densidad esta definida como: i = 1 y el i-ésimo
Pk
( Sk := Instante en que llega el cliente k-ésimo = i=1 Ti
λe−λx si x ≥ 0
f (x) = (S0 = 0)
0 en otro caso.
Supuesto del modelo:
1
E(X) = λ
Los Ti son independientes, Ti ∼ exp(λ), donde es la
1
V ar(X) = λ2
tasa de llegada de clientes
P(X > s + t | X > t) = P(X > s). La exponencial Lo anterior implica que Sk ∼ Gamma(k, λ)
cumple la propiedad de perdida de memoria.
Para t ≥ 0, definimos la va:
1.7. F.G.M. y Proceso de Poisson Nt := La cantidad de clientes que han llegado hasta el
instante t = |{k | Sk ≤ t}|
Def Función generadora de momentos (f.g.m): Sea
X v.a., se define su f.g.m como: Visto como una función (aleatoria) de t, la colección (Nt )t>0
se llama proceso de Poisson.
Prop ∀t ≥ 0 Nt ∼ P oisson:
Mx : R → [0, ∞]
t → MX (t) = E(etx ) eλt (λt)k
P(Nt = k) =
k!
Prop Se define el k-ésimo momento de una va como:
Prop (Nt )t≥0 , (Mt )t≥0 procesos de Poisson independientes
k
d MX (0) con tasa λ y µ respectivamente, entonces:
k
= E(X k ) ∀k = {1, 2, . . .} (N t + Mt )t≥0 es un proceso de poisson con tasa λ + µ
dt
1.8. Vectores Aleatorios Prop : Dados X ⊥
⊥ Y va continuas, entonces:
Un vector aleatorio es una función X ~ : Ω → R , donde n
fX+Y = fX ∗ fY
(Ω, P) es un espacio de probabilidad, implicito. Se escribe
~ = (X1 , ..., Xn ) cuyas componentes son v.a. inde- L[g ∗ f ](s) = L[g](s) · L[f ](s)
como X
pendientes entre ellas. Teo Método del Cambio de variable Sean X, Y va
Def Distribución Conjunta Sea (X, Y ) ~v a. Entonces la con densidad conjunta f (x, y) conocida. Sea g : R2 → R2
X,y
distribución del ~v a es: g suave, invertible y g −1 suave, entonces ∀(u, v) ∈ R2 :
(i) Discreta
pX,Y (n, v) = P(X = n, Y = v) fX,Y (x, y)
fU,V (u, v) =
|det(Jg (x, y))|
= P((X = n) ∩ (Y = v))
= fX,Y (g −1 (u, v)) · |det(Jg−1 (u, v))|(∗)
(ii) Continua
Z Z Recordar: Jacobiano, sea:
P((X, Y ) ∈ A) = fX,Y (u, v)dudv
h1 (x, y)
A
h(x, y) =
h2 (x, y)
Def Distribución Acumulada (Conjunta) Dado un Entonces:
vector aleatorio (X, Y ) conjuntamente continuo, es posible
∂h1 (x, y) ∂h1 (x, y)
ver que: F = FX1 ,...Xn de un vector aleatorio (X1 , ..., Xn ) es
Jh (x, y) = ∂x ∂y
definido por:
∂h (x, y) 2 ∂h2 (x, y)
∂x ∂y
FX (x) = P(X ≤ x) Pasos para resolver problema estándar con Cambio de Va-
= P((X, Y ) ∈ {(−∞, x] × R}) riable:
Zx Z∞
(i) Dados (X, Y ) va independientes con distribuciones
= fX,Y (u, v)dydu iguales o distintas cada una, nos solicitan encontrar
−∞ −∞ la densidad conjunta de dos va (U, V ) que dependen
de X e Y de distinta manera
Def Densidades Marginales: Al aplicar el TFC en la
(ii) Definimos g(X, Y ) = (U, V ) = (f (X), g(Y ))
dFX (x) R∞
formula anterior = fX (x) = −∞ (x, y)dy
dx (iii) Luego despejamos X e Y, y nos definimos g −1 (U, V ) =
P (X, Y ) = (g1−1 , g2−1 ).
(i) pX (u) = v∈Rec(Y ) pX,Y (u, v)
P
pY (v) = u∈Rec(X) pX,Y (u, v) (iv) Calculamos su Jacobiano:
R∞ −1
∂g1−1 (u, v)
(ii) fX (u) = −∞ fX,Y (u, v)dv ∂g1 (u, v)
R∞
fY (v) = −∞ fX,Y (u, v)du Jg−1 (u, v) = −1∂u ∂v
∂g1 (u, v) ∂g1−1 (u, v)
Prop Sea (X, Y ) va conjuntamente continuo, y sea g : ∂u ∂v
R2 → R, entonces:
(v) Calculamos el determinante del jacobiano, y su valor
Z Z absoluto
E(g(x, y)) = g(x, y)fX,Y (x, y)dxdy
R2 (vi) Finalmente obtenemos la densidad conjunta ocupan-
do (∗) como:
Def Independencia Las variables aleatorias X1 , ..., Xn se
dicen independientes si su distribución acumulada conjunta fU,V (u, v) = fX,Y (g −1 (u, v)) · |det(Jg−1 (u, v))|
se factoriza como producto de sus distribuciones marginales.
FX1 ,...,Xn (x1 , ..., xn ) = FX1 (x1 ) · ... · FXn (xn ) (vii) Obs: Notar que estos pasos son análogos cuando se
analiza una sola va, considerando un vector de 1 × 1
Def Convolución Sean g, h : R → R, su convolución es
Def Correlación Si X e Y son va de modo que la distri-
la función:
bución conjunta existe y que V ar(X), V ar(Y ) existen y no
g∗h:R →R nulas, entonces:
Z ∞
z → (g ∗ h)(z) = g(x)h(z − x)dx Cov(X, Y )
pX,Y (x, y) = p
−∞ V ar(x)V ar(y)
Def Distribución condicional 1.9. Convergencia
fX,Y (x, y) Def Sea {Yn } una sucesión de va y Y una va. Entonces:
fX|Y =y =
fY (y) (i) Decimos que Yn converge a Y casi seguramente,
C.S
anotado Yn −−→ Y , si:
análogamente se obtiene la fórmula de Bayes: n
P(Yn → Y ) = 1
pX/Y =y (x) · pY (y)
pY /X=x(y) =
pX (x) (ii) Decimos que Yn converge a Y en probabilidad, ano-
P
tado Yn −
→, si:
n
Def Esperanza Condicional
P(|Yn → Y ≥ |) −−→ 0 ∀ > 0
P n
E(X|Y = y) = x · pX|Y =y (x)
x∈RX
(iii) Decimos que Yn converge a Y en distribución, o en
R∞ L
E(X|Y = y) = x · fX|Y =y (x)dx ley anotado ası́ Yn −−→ si:
−∞ n
L
FYn (y) −−→ FY (y) ∀y ∈ R
R
E(g(x)|Y = y) = g(x) · fX|Y =y (X|Y )dx n
Def Función de verosimilitud: Suponiendo que la dis- De una tabla se obtienen los extremos del intervalo.
tribución de los X1 , . . . , Xn posee densidad f = f (x, θ) ∀x ∈ Finalmente se despeja θ.
R, luego definimos la FV como:
Teo Sea X1 , . . . , Xn m.a.s, con distribución común N (µ, σ)
k con µ y σ 2 desconocidos. Para encontrar el i.d.c para µ al
nivel (1 − α), entonces:
Y
L(X1 , . . . , Xn ; θ) := f (xi ; θ)
i=1
σ σ
µ ∈ x̄ − c √ , x̄ + c √
Donde la segunda expresión es la densidad conjunta del n n
vector X~ = (X1 , . . . , Xn ) (con va. iid)
α
Donde c cumple P(N (0, 1) > c) =
Def Método de máxima verosimilitud: método que 2
permite encontrar estimadores. Propone estimar θ mediante Teo Si la distribución común es genérica (no necesaria-
lo siguiente: si x1 , . . . , xn son los números especificos obte- mente normal) y se busca un i.d.c para µ = E(X1 ) con
2
nidos en la muestra, tenemos: σ = V ar(X 1 ) conocida, el estadı́stico:
X̄ − µ
θ̂M V = argmax L((x1 , . . . , xn ) ; θ) Z= √
θ∈R σ/ n
será aproximadamente N (0, 1) para n grande (por TCL). Si los extremos se salen del intervalo [0, 1] pueden truncarse,
Este método entrega un i.d.c aproximado para µ obteniendo:
Def Variable aleatoria T-student Una va. T se dice P (p ∈ max (b1 , 0) , min (b2 , 1)) ≈ (1 − α)
T-student con n grados de libertad si su densidad es:
Estimación de idc para una varianza
Γ n+1
x 2
−( n+1
2 ) Dado una m.a.s X1 , ..., Xn con distribución común N(µ, σ 2 )
2
fT (x) = √ 1+ ∀x con µ, σ 2 desconocidos, queremos encontrar un i.d.c para σ
Γ n2
n n
al nivel (1 − α)
La anotamos como T ∼ tn
x2 Def PChi-cuadrado: Sean Z1 , ..., Zn i.i.d N(0, 1). La va.
−
Obs: Notar qe para n grande, ft (x) = ce 2
n
U = i=1 Zi2 se llama chi-cuadrado con n-grados de liber-
tad, anotado U ∼ χ2n . Se puede mostrar que:
Prop Sea X1 , . . . , X2 m.a.s de una N (µ, σ 2 ), entonces:
1 n x
Siempre trabajaremos con hipótesis nula H0 de tipo simple. x; µ) = ( 2πσ)−n e− 2σ2 (xi −µ)
⇔ L(~
Def Potencia: La potencia de un test con H1 simple es: 2. Desarrollamos la condición sobre la región para que el
test sea potencia máxima:
Potencia = P(rechaza H0 | H1 )
L(~
x ; θ0 )
= 1 − P(No rechaza H0 | H1 ) ⇔ ≤ cte
L(~
x ; θ1 )
= 1 − P(Error tipo II)
⇔ ...
=1−β
⇔ 2(µ0 − µ1 )nx̄ ≤ cte
f (∗)
Tipicamente, ante dos test con el mismo α se prefiere aquel cte
f
con menor β, es decir, el test con mayor potencia. ⇔ x̄ ≥
2(µ0 − µ1 )n
Def Región de rechazo: Dado a que un test es un criterio ⇔ x̄ ≥ cte
f
f
para decidir cuando rechaza, decimos que un test correspon-
de a un R ⊆ Rn llamada Región de rechazo, tal que el 3. La forma de la región de rechazo es:
test se rechaza sı́ y sólo sı́ el vector de datos (x1 , . . . , xn ) = ~
x
pertenece a R. Es de la forma: x ∈ Rn | ~
R = {~ x ≥ a}
x̄ − µ0
= {~
x∈R | √ ≥ c} (∗∗)
x ∈ Rn : U(~
R = {~ x > c)} σ/ n
donde U = U(X1 , . . . , Xn ) es un estadı́stico adecuado y
4. Lo cual permite despejar c imponiendo que:
c es una constante que se adecua para lograr el nivel deseado.
x ∈ R | H0 ) = α
P(~
Teo Lema de Neyman - Pearson: Sea una m.a.s
X1 , ..., Xn cuya distribución común tine un único parámetro x̄µ
y sabiendo que √ ∼ N(0, 1)
desconocido θ y sean: σ/ n
pX (0) = 1 − p
bernoulli p ∈ (0, 1) X ∼ Bernoulli(p) discreta {0,1} p p(1 − p) 1 − p + pet
pX (1) = p
n
n ∈ N∗ , p ∈ (0, 1)
binomial X ∼ bin(n, p) discreta {0, 1, . . . , n} pX (k) = k pk (1 − p)( n − k) np np(1 − np) (1 − p + pet )n
geométrica p ∈ (0, 1) X ∼ geom(p) discreta {1, 2, 3, . . . } pX (k) = (1 − p)( k − 1)p 1 1−p pet
p p2 1 − (1 − p)et
binomial r
r r(1 − p) pet
k−1
r ∈ N∗ , p ∈ (0, 1)
X ∼ BN (r, p) discreta {r, r+1, . . . } pX (k) = r−1 (1 − p)( k − r)pr
negativa p p2 1 − (1 − p)et
λk t
Poisson λ>0 X ∼ P oisson(λ) discreta {0, 1, 2, . . . } pX (k) = eλ λ λ eλ(e −1)
k!
(x − µ)2
1 − 1 22
normal µ ∈ R, σ > 0 X ∼ N (µ, σ 2 ) continua R fX (x) = √ e 2σ 2 µ σ2 µt+ σ t
σ 2π e 2
λe−λx (λx)θ−1 θ θ
λ
θ
gamma θ > 0, λ > 0 X ∼ gamma(θ, λ) continua [0, ∞) fX (x) = 1[0,∞) (x) ∀t < λ
Γ(θ) λ λ2 λ−t