Documentos de Académico
Documentos de Profesional
Documentos de Cultura
1 Probabilidades PDF
1 Probabilidades PDF
Fı́sicas y Matemáticas
Universidad de Chile
Martinez, Servet
MA3401 - Probabilidades
Transcriptor:
Alan Beltrán Flores1
Otoño 2013
1
Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Román, que pasaron sus apuntes de clases
a las que falté (justificadamente, por supuesto)
2
Índice general
Clase 01 - 12/03/2013 1
Clase 02 - 14/03/2013 5
Clase 03 - 19/03/2013 9
Clase 04 - 21/03/2013 13
Clase 05 - 26/03/2013 17
Clase 06 - 28/03/2013 21
Clase 07 - 02/04/2013 23
Clase 08 - 04/04/2013 25
Clase 09 - 09/04/2013 27
Clase 10 - 16/04/2013 31
Clase 11 - 18/04/2013 35
Clase 12 - 23/04/2013 37
Clase 13 - 25/04/2013 41
Clase 14 - 29/04/2013 45
Clase 15 - 02/05/2013 49
Clase 16 - 07/05/2013 53
Clase 17 - 09/05/2013 57
Clase 18 - 14/05/2013 61
Clase 19 - 16/05/2013 63
3
4 ÍNDICE GENERAL
Clase 01 - 12/03/2013
Axiomática de Probabilidades
- Ω 6= ∅ conjunto de puntos llamado espacio muestral
- β clase de eventos
Los elementos de β son subconjuntos de Ω, es decir, β ⊆ P(Ω), en donde P(Ω) = {ω ⊆ Ω}
es el conjunto potencia de Ω.
Propiedad Toda σ-algebra β es un algebra [de conjuntos], es decir, verifica las propiedades 0,
1, 2 y:
30 . A, B ∈ β ⇒ A ∪ B ∈ β
1
2 ÍNDICE GENERAL
Por 3’ !
n
[ n+1
[
⇒ Bi ∪ Bn+1 ∈ β ⇒ Bi ∈ β
i=1 i=1
Para numerables:
!c !c
[ \ \ [
Bi = (Bic ) | Bi = (Bic )
n∈N n∈N n∈N n∈N
\
Nota Bi = {ω ∈ Ω : ω ∈ Bn , ∀n ∈ N}
n∈N
Demostracion
n
0 [
a) B1 , ..., Bn ∈ β ⇒(2) B1c , ..., Bnc ∈ β ⇒(3 ) Bic ∈ β
i=1
n
!c n
[ \
⇒ Bic = Bi ∈ β
i=1 i=1
b) Es analoga a la anterior.
A, B ∈ β ⇒ A \ B ∈ β
A, B ∈ β ⇒ A 4 B ∈ β
ÍNDICE GENERAL 3
A\B = A ∩ Bc
A4B = (A \ B) ∪ (B \ A) = (A ∩ B c ) ∪ (B ∩ Ac )
lı́m sup Bn ∈ β
n→∞
lı́m inf Bn ∈ β
n→∞
En donde:
\ [
lı́m sup Bn = Bk
n→∞
n∈N k≥n
[ \
lı́m inf Bn = Bk
n→∞
n∈N k≥n
Nota
|A| = Cardinal de A
Demostracion
0. β ∩ β 0 ⊆ P(Ω)
1. ∅, Ω ∈ β; ∅, Ω ∈ β 0 ⇒ ∅, Ω ∈ β ∩ β 0
2. B ∈ β ∩ β 0 ⇒ B c ∈ β ∩ β 0
[
3. (Bn : n ∈ N) ⊆ β ∩ β 0 ⇒ Bn ∈ β ∩ β 0
n∈N
Nota \
βλ = {B ∈ P(Ω) : B ∈ βλ ∀λ ∈ Λ}
λ∈Λ
Demostracion
\
0. βλ ⊆ P(Ω) ∀λ ∈ Λ ⇒ βλ ⊆ P(Ω)
λ∈Λ
\
1. ∅, Ω ∈ βλ ∀λ ∈ Λ ⇒ ∅, Ω ∈ βλ
λ∈Λ
\ \
2. B ∈ βλ ⇔ B ∈ βλ ∀λ ∈ Λ ⇒ B c ∈ βλ ∀λ ∈ Λ ⇔ B c ∈ βλ
λ∈Λ λ∈Λ
\
3. (Bn : n ∈ N) ⊆ βλ ⇔ (Bn : n ∈ N) ⊆ βλ ∀λ ∈ Λ
λ∈Λ
[ [ \
⇒ Bn ∈ βλ ∀λ ∈ Λ ⇔ Bn ∈ βλ
n∈N n∈N λ∈Λ
Clase 02 - 14/03/2013
Nota N ⊂ P(Ω), excepto cuando Ω = {α}, en cuyo caso N = P(Ω) = {∅, {α}}
Proposicion Sea Ω 6= ∅ y sea Γ ⊆ P(Ω). Entonces, ∃! σ-algebra que notaremos σ(Γ) y que
llamaremos σ-algebra generada por Γ, que verifica las siguientes propiedades:
a) σ(Γ) es σ-algebra.
b) Γ ⊆ σ(Γ)
c) Si Γ ⊆ β y β es σ-algebra, entonces σ(Γ) ⊆ β
5
6 ÍNDICE GENERAL
\
Hemos probado que σ(Γ) = β verifica (a, b, c). Ademas, es la unica σ-algebra que lo hace,
β∈Λ
pues si β 0 tambien lo verificase, deduciriamos de (c) que β 0 ⊆ σ(Γ) y que σ(Γ) ⊆ β 0 , concluyendo
que β 0 = σ(Γ).
n
Y
Nota |ai , bi | ∩ Rn ∈ β(Rn ), ∀ai , bi tal que −∞ ≤ ai ≤ bi ≤ ∞.
i=1
Definicion Sea (Ω, β) espacio medible. P es una medida de probabilidad en (Ω, β) si verifica:
a) P es funcion P : β → [0, 1]
B → P(B)
b) P(Ω) = 1
!
[ X
c) ∀(Bn : n ∈ N) ⊆ β familia disjunta en β se tiene que P · Bn = P(Bn )
n∈N n∈N
(0) µ : β → R+ ∪ {∞}
(1) µ(∅) = 0
(2) µ es σ-aditiva
λ((a, b]) = b − a, ∀a ≤ b en R
9
10 ÍNDICE GENERAL
Nota Las propiedades a), b), c) y e) son comunes a todas las medidas.
Demostracion
e) A ∪ B = A ∩ B ∪· B \ A ∪· A \ B = A ∩ B ∪· (B \ A ∩ B) ∪· (A \ A ∩ B). Luego:
a)
P(A ∪ B) = P(A ∩ B) + P(B \ A ∩ B) + P(A \ A ∩ B)
b)
= P(A ∩ B) + P(B) − P(A ∩ B) + P(A) − P(A ∩ B)
= P(A) + P(B) − P(A ∩ B)
Primero suma todos las probabilidades de conjuntos, luego le resta las intersecciones dobles,
después le suma las intersecciones triples, le resta las cuádruples y ası́.
Para el caso n = 2 obtenemos e). Para el caso n = 3 obtenemos:
Demostración
Demostración Se demuestran:
(a) por sub-σ-aditividad.
(b) por (a) y Morgan.
Clase 04 - 21/03/2013
Definición Si lı́m inf Bn = lı́m sup Bn , se dice que ∃ lı́m Bn = lı́m sup Bn
n→∞ n→∞ n→∞ n→∞
[
Si Bn %, se tiene que lı́m Bn = Bn
n→∞
n∈N
\
Si Bn &, se tiene que lı́m Bn = Bn
n→∞
n∈N
Probabilidad Condicional
Sea (Ω, β, P) un espacio de probabilidades, que vamos a usar de aquı́ en adelante.
13
14 ÍNDICE GENERAL
Propiedad Sea P(B) > 0. Entonces P( · |B) : β |B → [0, 1] es una medida de probabilidad
A → P(A|B)
en (B, β |B ), es decir, (B, β |B , P( · |B)) es espacio de probabilidad.
Demostración
P(∅ ∩ B)
(a) P(∅|B) = =0
P(B)
P(B ∩ B)
(b) P(B|B) = =1
P(B)
!
[ X
(c) Nos basta demostrar que ∀(Bn : n ∈ N) ⊆ β se cumple P An B = P(An |B)
n∈N n∈N
(pues β |B ⊆ β). En efecto:
! !
[ 1 [ 1 X X
An B = ·P An ∩ B = · P(An ∩ B) = P(An |B)
P
P(B) P(B)
n∈N n∈N n∈N n∈N
(a) P(B|B) = 1
(b) P(∅|B) = 0
(c) P(A4B) = 0 ⇒ P(A|B) = 1
(d) P(A4B c ) = 1 ⇒ P(A|B) = 0
(e) P(Ω|B) = 1
(f) P(A) = 1 ⇒ P(A|B) = 1
(g) P(A) = 0 ⇒ P(A|B) = 0
(h) P(B) = 1 ⇒ P(A|B) = P(A), ∀A ∈ β
Demostración PROPUESTOS. Puede ser útil, para (c), (d), (f) y (g), probar:
Fórmula de Bayes
Sea I un conjunto numerable (finito o no). Sea (Ai : i ∈ I) ⊆ β partición medible de Ω, es
decir:
(0) (Ai : i ∈ I) ⊆ β
(p1 ) i ∈ I) disjuntos
(Ai : [
(p2 ) Ω = · Ai
i∈I
ÍNDICE GENERAL 15
[ X
Luego, intersectando, ∀B ∈ β : B = · (B ∩Ai ), de donde P(B) = P(B ∩Ai ). Si asumimos
i∈I i∈I
X
P(Ai ) > 0 ∀i ∈ I, tenemos que P(B) = P(B|Ai ) · P(Ai ). Si P(B) > 0, verificamos, ∀j ∈ I:
i∈I
P(B|Aj ) · P(Aj )
P(Aj |B) = X Conocida como la formula de Bayes
P(B|Ai ) · P(Ai )
i∈I
Demostración
Independencia
Definición A, B ∈ β se dicen (P-)independientes (notado ⊥
⊥)si P(A ∩ B) = P(A) · P(B)
Propiedades
Demostración
Proposición ⊥B ⇒
A⊥ A⊥⊥B c
c
A ⊥⊥B c
c
A ⊥⊥B c
17
18 ÍNDICE GENERAL
Demostración ...
X ≥ 0 ∀ω ∈ Ω
(i) p(ω)
(ii) p(ω) = 1
ω∈Ω
Caso Ω finito
Por lo dicho, una medida de probabilidad en (Ω, β) está dada por p : Ω → R+ .
La medida de probabilidad llamada equiprobable en Ω es tal que
1
p(ω) = , ∀ω ∈ Ω
|Ω|
También se le llama uniforme (en Ω). Es la única medida de probabilidad en (Ω, β) en que a
cada punto de Ω se le da el mismo peso.
X |B|
En este caso se tiene la igualdad P(B) = p(ω) = , es decir, un caso equiprobable.
|Ω|
ω∈B
Combinatoria
Recordemos algunas igualdades de cardinalidad. Notaremos por In un conjunto de n ele-
mentos, |In | = n. Para todo efecto de cardinalidad podemos suponer In = {1, . . . , n}, (I0 = ∅,
|I0 | = 0)
Se tiene: k
Y Y k k
Y
Inl = |Inl | = nl
l=1 l=1 l=1
Luego |Ink | = nk . Esta igualdad se puede escribir como |F(Ik , In )| = nk , donde F(Ik , In ) =
{f : Ik → In }. En efecto F(Ik , In ) → Ink es una biyección.
f → (f (i) : i ∈ Ik )
Sea I(Ik , In ) = {f : Ik → In , f inyectiva}. Se tiene I(Ik , In ) 6= ∅ solo en el caso k ≤ n.
Supongamos k ≤ n. Se tiene
n!
|I(Ik , In )| = = n(n − 1) · · · (n − k + 1)
(n − k)!
k−1
Y
Demostración I(Ik , In ) → In−l
l=0
f → (f (1), . . . , f (k))
Si f es inyectiva,
k−1 ∈ In , f (2) ∈ In \ {f1 }, . . . , f (k) ∈ In \ {f (1), . . . , f (k − 1)}. Luego
f (1)k−1
Y Y
|I(Ik , In )| = In−l = (n − l) = n(n − 1) · · · (n − k + 1)
l=0 l=0
En particular, para k = n, I(Ik , In ) = P er(In ), conjunto de biyecciones de In → In cuyos
elementos partición se llaman permutaciones de In . Se cumple que |P er(In )| = n!
21
22 ÍNDICE GENERAL
f ≡ g ⇔ {f (i) : i ∈ Ik } = {g(i) : i ∈ Ik }
⇔ f (Ik ) = g(Ik ) : los conjuntos imagen son los mismos
i : Pk (n) → I(Ik , In )/ ≡
B → i(B) = {f ∈ I(Ik , In ) : f (Ik ) = B}
i está bien definido, pues |B| = k = |f (Ik )| ∀f ∈ I(Ik , In ). Además, i es claramente biyección.
Luego:
n!
|Pk (n)| = |I(Ik , In )/ ≡ | =
(n − k)! k!
pues ∀f ∈ I(Ik , In ), |Clase de equivalencia de f | = |P er(f (1), . . . , f (k))| = k!
k
X
Definición Sea In . Sean n1 , . . . , nk ≥ 0 tal que = n. Definimos
i=1
Hipergeométrica
Hay una urna con n bolas, de las cuales n1 son rojas y n2 = n − n1 son negras. Sea 1 ≤ k1 ≤
k ≤ n. Se saca “al azar” k bolas. ¿Cual es la probabilidad de que se hayan sacado exactamente
k1 bolas rojas? (Con k2 = k − k1 bolas negras)
Clase 07 - 02/04/2013
Revisitemos la Hipergeomeométrica.
In = J ∪· J c In = representa urna con n bolitas
J = conjunto de bolas rojas |J| = n1
J c = conjunto de bolas negras |J c | = n2 = n − n1
El experimento consiste en sacar “al azar” un conjunto de k bolitas. Nos preguntamos por la
probabilidad de que este conjunto contuviera k1 bolitas rojas y luego k2 = k − k1 bolitas negras,
donde 0 ≤ k1 ≤ k ≤ n.
Tomemos:
Ω = Pk (n) = {ω : ω ⊆ In , |ω| = k}
El conjunto “al azar”, es un conjunto ω ∈ Ω que se escoje de manera equiprobable en Ω, es
1 1 1
decir, P({ω}) = = = , ∀ω ∈ Ω
|Ω| |Pk (n)| n
k
Nos interesa calcular P(A), en donde:
A = {ω ∈ Ω : |ω ∩ J| = k1 , |ω ∩ J c | = k − k1 }
= {ω ∈ Ω : |ω ∩ J| = k1 } Ya que |ω| = k, ∀ω ∈ Ω
X |A| |A|
Con lo que P(A) = P({ω}) = =
|Ω| n
ω∈A
k
Además |A| : A → Pk1 (n1 ) × P(k2 )(n2 )
ω → ω ∩ J × ω ∩ Jc
que es claramente un biyección, por lo que concluimos que:
n n n1 n − n1
k1 k k1 k−k
P(Ak ) = 2 = 2
n n
k k
Que es tambien:
k n−k
k1 n−k
P(Ak ) = 1
n
n1
En donde In = J ∪ J c ; Ω = Pk (n) = {ω ⊆ In : |ω| = k}; Ak = {ω ∈ Ω : |ω ∩ J| = k} es
cambiada a In = K ∪ K c ; Ωe = Pn (n) = {ω ⊆ In : |ω| = n1 }; A
1
g k1 = {ω̃ ∈ Ω : |ω̃ ∩ K| = k}
e
23
24 ÍNDICE GENERAL
Generalización de la Hipergeométrica
Sea una urna In con n bolas, In esta particionado en bolas de r colores distintos.
[r Xr
In = · Jl , Jl =bolas de color l. Notamos que Jl = nl , luego n = nl
l=1 l=1
Se saca “al azar” un conjunto de k bolas. Cuál es la probabilidad de que obtenga k1 bolas de
r
X
J1 , ..., kr bolas de Jr ? Notar que k = kl
l=1
1 1
Ω = Pk (n) = {ω : ω ⊆ In , |ω| = k}; P({ω}) = =
|Ω| n
k
Akl = {ω ∈ Ω : |ω ∩ Jl | = kl }, ∀l = 1, . . . , r
Se tiene que Ak1 ...kr → Pk1 (J1 ) × · · · × Pkr (Jr ) es biyección, luego:
ω → (ω ∩ J1 , . . . , ω ∩ Jr )
Y r
n1 nr nl
|Ak1 ,...,kr | = ··· =
k1 kr kl
l=1
r
nl
Y
kl
Luego, la probabilidad buscada es: P(Ak1 ,...,kr ) = l=1 Notemos que si n = 2 es igual a
n
k
lo que habiamos hecho antes.
Variables Aleatorias
Sea (Ω, β, P) espacio de probabilidad que consideraremos fijo.
Propiedades
Nota Por (iii) y (iv), el conjunto de v. a. es espacio vectorial; por (iii), (iv) y (v) el conjunto
de v. a. es un álgebra conmutativa; por (vii) el conjunto de v. a. es un reticulado (cerrado para
el máximo y el mı́nimo); por (i), (iii), (iv) y (v) el conjunto de v. a. es un álgebra conmutativa
unitaria, pues la funcion constante 1 : Ω → R es el neutro de la multiplicación.
ω → 1(ω) = 1
25
26 ÍNDICE GENERAL
La segunda parte de (ii), resulta de lo hecho previamente (la parte “si”) y de (*?) tomando
C = {1} ∈ P(R), para la parte solo si.
Demostración (Continuación)
(iii) Sea X v. a. y α ∈ R. Digamos α 6= 0. Para C ∈ β(R) debemos mostrar que (αX)−1 (C) ∈
1 1
β. Se tiene (αX)−1 (C) = {ω ∈ Ω : αX(ω) ∈ C} = {ω ∈ Ω : X(ω) ∈ C} = X −1 ( C), en donde
α α
1 1
C = {y ∈ R : αy ∈ C} ∈ β(R). Luego, como X es v. a., X −1 ( C) ∈ β.
α α
(vi) Sean X, Y v. a. Por demostrar que Z = máx(X, Y ) es v. a. Para esto, basta probar que
Z −1 ((−∞, a]) ∈ β ∀a ∈ R
Corolario
X
a) Sean X, Y v. a. Entonces, es v. a.
Y {Y 6=0}
b) Sea (Xn : n ∈ N) sucesión de v. a. Entonces ( lı́m Xn ) es v. a.
n→∞ {∃ lı́m Xn }
n→∞
X
Observación Y (ω) = 0 ⇒ = 0 por definición.
Y
es 1 si ∃ lı́m Xn y 0 en caso contrario.
{∃ lı́m Xn } n→∞
n→∞
27
28 ÍNDICE GENERAL
lı́m inf Xn y lı́m inf Xn son v. a., lı́m inf y lı́m sup van de Ω a R
n→∞ n→∞
Nota lı́m sup Xn (ω)| lı́m inf Xn (ω) = sup.|ı́nf. de la acumulación de {Xn (ω) : n ∈ N}.
n→∞ n→∞
Nota Todas las funciones continuas o con un conjunto aislado numerable de discontinuida-
des son funciones borelianas.
Si C ∈ β(R), la indicadora 1C es boreliana.
El conjunto de funciones borelianas tiene las propiedades ya descritas de v. a. (espacio
vectorial, reticulado, álgebra unitaria).
Demostración
(0) PX esta bien definida en β(R) pues X es v. a. Luego ∀C ∈ β(R), X −1 (C) ∈ β, luego
∃ P(X −1 (C)) ∈ [0, 1]
(1) PX (R) = P(X −1 (C)) = P(Ω) = 1
(2) Sean (Cn : n ∈ N) ⊆ β(R) familia disjunta de borelianos. Entonces:
! ! !
[ [ [ X X
−1 −1
PX · Cn = P(X · Cn ) = P · (X Cn ) = P(X −1 (Cn )) = PX (Cn )
n∈N n∈N n∈N n∈N n∈N
n
! n
\ Y
Esto es: P {Xi ∈ Ci } = P(Xi ∈ Ci )
i=1 i=1
Yn
= PXi (Ci )
i=1
Demostración Ejercicio.
30 ÍNDICE GENERAL
Clase 10 - 16/04/2013
X −1 ({a}) = {ω ∈ Ω : X(ω) = a} ∈ β, ∀a ∈ I
Admitimos la generalización siguiente: X : Ω → R v. a. d. si ∃I ⊆ R numerable tal que
P(X ∈ I) = 1
31
32 ÍNDICE GENERAL
Y −a
Observación Sean a, b ∈ R, a 6= b. Si P(Y = a) = 1 − p , entonces X = es Bernoulli(p).
b−a
P(Y = b) = p
Dicho de otro modo, si X es Bernoulli(p), entonces Y = a + bX es tal que P(Y = a) = 1 − p .
P(Y = b) = p
n
X
Propiedades Sean X1 , . . . , Xn v. a. Bernoulli(p) independientes. Entonces Y = Xi es
i=0
n k
Binomial(n, p), es decir, P(Y = k) = p (1 − p)n−k , ∀k = 0, . . . , n
k
Nota Binomial se puede ver como el numero k de caras que aparecen en n lanzamientos.
Demostración
n
!
X
P(Y = k) = P Xi = k= P(|{i ∈ {1, . . . , n} : Xi = 1}| = k)
i=1 !
[ X
=P {{i ∈ In : Xi = 1} = J} = P(Xi = 1, ∀i ∈ J; Xi = 0, ∀i ∈ J k )
J⊆In J⊆In
|J|=k |J|=k
X Y Y X
|J| n−|J| n k
= ( P(X = 1))( P(X = 0)) = p (1 − p) = p (1 − p)n−k
0
|{z} k n
J⊆In i∈J i∈J J⊆In |{J⊆In :|J|=k}|=( k )
|J|=k |J|=k
ÍNDICE GENERAL 33
Demostración
P(Y = k) = P(ı́nf({i ∈ N : Xi = 1}) = k) = P(Xi = 0 ∀i < k; Xk = 1)
k−1
Y
= P(Xi = 0)P(Xk = 1) = (1 − p)k−1 p
i=1
Comprobemos Se tiene
X X λk
P(X ∈ Z+ ) = PX (k) = e−λ = eλ e−λ = 1
k!
k∈Z+ k∈Z+
Propiedad → λ
Sea X Poisson(λ), entonces si Yn es Binomial(n, p(n)) y np(n) |{z}
n→∞
P(X = k) = lı́m P(Yn = k)
x→∞
Se puede interpretar como el numero de llamadas recibidas en una unidad de tiempo con una
escala λ
Clase 11 - 18/04/2013
Función de Distribución
Tratemos el caso general de v. a. de X → R. Vamos a describir PX (que la llamaremos ley
de X) como PX (C) = P(X −1 ∈ C) = P(X ∈ C) Cuando C = (−∞, ∞] se tiene PX ((−∞, x]) =
P(X ≤ x), x ∈ R Vemos que esto ultimo caracteriza la ley de X. A continuacion definiremos y
consideraremos generales:
Observaciones
• Siempre existe F (x− ) = lı́m+ F (x − h) ∀x ∈ R
h→0
• x es punto de continuidad si F (x− ) = F (x+ ) = F (x)
• x es punto de discontinuidad si F (x− ) 6= F (x+ ) (Obviamente se tiene F (x− ) ≤ F (x+ ))
Notamos DF = {x : F (x− ) = 6 F (x+ )} el conjunto de discontinuidades de F
Teorema
a) Si P es una medida de probabilidad en (R, β(R)), entonces F (x) := P((−∞, x]), x ∈ R define
una función de distribución.
b) Si F : R → [0, 1] es función de distribución, entonces ∃!P medida de probabilidad en (R, β(R))
tal que F (x) = P((−∞, x])
35
36 ÍNDICE GENERAL
[
(3) Si xn → ∞, se tiene (−∞, xn ) creciente y R = (−∞, xn ). Por continuidad monotona
! n∈N
[
P(R) = P (−∞, xn ) ⇒ lı́m F (x) = 1
n→∞
n∈N
\
(4) Si xn → −∞, (−∞, xn ] es decreciente y ∅ = (−∞, xn ], por lo que
n∈N
P(∅) = lı́m P((−∞, xn ]) ⇒ lı́m F (xn ) = 0
n→∞ n→∞
Demostración Con (a) se obtienen todas las demas, asi que demostramos solo esa:
(a) Consideramos hn > 0, hn → 0. Se tiene F (x− ) = lı́m F (x − hn ) = lı́m P((−∞, x − hn ))
n→∞ n→∞
Clase 12 - 23/04/2013
Nota Observemos que si F (a− ) = 0, entonces P([a, ∞)) = 1, luego P(C) = P(C ∩[a, ∞)), ∀C ∈
β(R). Si la (función
Z de) distribución F tiene densidad f , entonces f (z) = 0, ∀z ∈ (−∞, a) y
luego P(C) = f (z) dz
C∩[a,∞)
Observación Sea F (función de) distribución con (función de) densidad f . Notemos que f
puede ser alterado o redefinido en un conjunto finito o numerable de punto sin que F o P sean
modificados. Más generalmente, f puede modificarse en un conjunto A tal que λ(A) = 0 sin que
F o P sean modificados. Aqui λ : β(R) → [0, ∞) es la medida de Lebesgue.
37
38 ÍNDICE GENERAL
Propiedad Sea U v. a. uniforme [0, 1). Entonces, la v. a. X = a + (b − a)U es uniforme [a, b].
En efecto:
0 si x < a
x − a
x−a
FX (x) = P(X ≤ x) = P(a + (b − a)U ≤ x) = P U ≤ = si x ∈ [a, b]
b−a b−a
1 si x > b
Z∞
g(z)
Nota General Si g(x) ≥ 0 y 0 < g(x) dx < ∞, entonces f (z) = R∞ es función de
−∞ g(x) dx
−∞
densidad (es decir, es la normalización de g)
ÍNDICE GENERAL 39
z−µ
Demostración Tomando y = debemos mostrar que
σ
Z∞ Z∞ r
1 2
− y2 − y2
2
π
√ e dy = 1, equivalente a e dy =
2π 2
−∞ 0
y
Haciendo el cambio x = √ queda
2
Z∞ √ Z∞ Z∞
2 π 2
+y 2 ) π
e−x dx = equivalente a e−(x dx dy =
2 4
0 0 0
Independencia
Propiedad Si X1 , . . . , Xn son v. a. independientes y hi : R → R, ∀i = 1, . . . , n son funciones
borelianas, entonces las v. a. h1 (X1 ), . . . , hn (Xn ) son independientes.
Como en el caso real, se tiene que FX1 ,...,Xn : Rn → [0, 1] caracteriza la medida de probabi-
lidad PX1 ,...,Xn : β(Rn ) → [0, 1] ∀D ∈ β(Rn ),
D → PX1 ,...,Xn (D) = P({(X1 , . . . , Xn ) ∈ D})
= P({ω ∈ Ω : (X1 (ω), . . . , Xn (ω)) ∈ D})
que es llamada ley conjunta de X1 , . . . , Xn
41
42 ÍNDICE GENERAL
Definición El vector aleatorio (X1 , . . . , Xn ) se dice abs. continuo si ∃fX1 ,...,Xn : Rn → R+ que
Zx1 Zxn
verifique: FX1 ,...,Xn (x1 , . . . , xn ) = · · · fX1 ,...,Xn (z1 , . . . , zn ) dz1 . . . dzn , ∀(x1 , . . . , xn ) ∈ Rn
−∞ −∞
A fX1 ,...,Xn se le llama (función de) densidad conjunta de (X1 , . . . , XN ). Necesariamente
fX1 ,...,Xn verifica:
d(FX1 ,...,Xn )
Además se cumple: (x1 , . . . , xn ) = fX1 ,...,Xn (x1 , . . . , xn ), ∀(x1 , . . . , xn ) ∈ Rn
dx1 , . . . , dxn
Nota En este contexto fXi se llama la densidad marginal de fX1 ,...,Xn (Lo mismo con FXi , que
se llama la distribución marginal de FX1 ,...,Xn )
Cambio de Variables
Lo haremos solo en caso de una v. a. (más adelante veremos el caso del vector aleatorio).
Y = h◦X : Ω → R
ω → Y (ω) = h◦X(ω) = h(X(ω))
d
Aplicando queda:
dy
1 1
fY (y) = −fX (h−1 (y)) = fX (h−1 (y)) 0 −1
h0 (h−1 (y)) |h (h (y))|
Veamos el caso no inyectivo: Por simpleza solo veremos el caso h0 6= 0, excepto por el punto
0
h (x0 ) = 0, en que la situacion es un “maximo” o “minimo”.
44 ÍNDICE GENERAL
Ası́ pues, sea D abierto, {x : fX (x) > 0} ⊆ D, que lo llamaremos S̃. Para h : D → R con
derivada continua y tal que {x ∈ D : h0 (x) = 0} es un conjunto finito de puntos aislados. Se
tendra que la v. a. Y = h◦X verifica el teorema ya enunciado.
Y es absolutamente continua con densidad fY tal que FY (y) = 0 si y ∈
/ h(D). Para y ∈ h(D):
X 1
fY (y) = fX (X(y)) ·
|h0 (X(y))|
X(y)∈h−1 (y)
Ejemplo Sea X v. a. abs. continua con fX (x) > 0 ∀x ∈ R. Sea h : R → R con h(x) = x2 .
Y = h◦X = X 2 (y). Por lo anterior D = R = {x : fX (x) > 0}; h(D) = R+ . Y tiene densidad
fY (y) = 0 si y ∈
/ R+ . Además, podemos considerar fY (0) = 0
Para y > 0 se tiene:
√ √
FY (y) = P(Y ≤ y) = P(X 2 ≤ y) = P(− y ≤ X ≤ y)
√ √ √ √
= P(X ≤ y) − P(X ≤ − y) = FX ( y) − FX (− y)
d
Luego, :
dy
√ 1 √ 1
fY (y) = fX ( y) √ + fX (− y) √
2 y 2 y
√ √ X 1
h−1 (y) = {− y, y}, fY (y) = fX (X(y)) ·
|h0 (X(y))|
X(y)∈h−1 (y)
45
46 ÍNDICE GENERAL
Entonces cada v.a X1 es abs. continua con densidad fXi dada por
+∞
Z +∞
Z Z
fXi (xi ) = dz1 · · · dzn fX1 ,...,Xn (z1 , . . . , xi , . . . , zn ), Sin tomar en cuenta zi
|{z}
−∞ −∞ posicion i
Demostración
FXi = P(Xi ≤ xi ) = P(X1 ≤ ∞, . . . , Xi ≤ xi , . . . , Xn ≤ Xn )
= P((X1 , . . . , Xn ) ∈ (−∞, xi ) × Rn−1 )
+∞
Z Zxi +∞
Z
= dz1 · · · dzi · · · dzn fX1 ,...,Xn (z1 , . . . , zn )
−∞ −∞ −∞
Zx
d
h(t)dt = h(x) ⇒
dx
−∞
+∞
Z +∞
Z
dFXi (xi )
fXi (xi ) = = dz1 · · · dzn fX1 ,...,Xn (z1 , . . . , xi , . . . , zn )
dxi
−∞ −∞
Esperanza
La esperanza es el valor medio o “esperado” de una v. a.
+0
Z− +∞
Z
Sobre la existencia: E(X) = x dFX (x) + x dFX (x)
−∞ 0−
| {z } | {z }
≤0 ≥0
Z0− Z∞
• E(X) no existe si x dFX (x) = −∞ y x dFX (x) = ∞
−∞ 0−
Z0− Z∞
• E(X) existe si x dFX (x) > −∞ y/o x dFX (x) > ∞ (el y implica que es finito)
−∞ 0−
Cada vez que escribamos E(X) supondremos que existe y es finita.
ÍNDICE GENERAL 47
Propiedades
(a) Si Xa = a, v. a. cte.E(Xa ) = a
(b) Si X = 1B con B ∈ β (funciń indicadora)E(1B ) = P(B)
(c) X ≥ 0 ⇒ E(X) ≥ 0; X ≥ Y ⇒ E(X) ≥ E(Y )
(d) X, Y v. a. α, β ∈ R. Entonces: E(αX + βY ) = αE(X) + βE(Y ). (Lineal)
X
(e) Si X es discreta, es decir para cierto I numerable X = a1{X=a} , entonces
a∈I
X X
E(X) = aP(X = a) = aPX (a)
a∈I a∈I
+∞
Z
(f) Si X es abs. continua con densidad fX : E(X) = x fX (x)dx
−∞
+∞
Z
(g) Si h : R → R Boreliano, entonces E(h(X)) = h(x) dFX (x), dFX (x)
−∞
Propiedades
(a) Si X1 , . . . , Xn son v. a. y h : Rn → R función boreliana, entonces
h(X1 (ω), . . . , Xn (ω) : Ω → R es v. a. Se tiene
ω → h(X1 , . . . , Xn )
Z
E(h(X1 , . . . , Xn )) = h(X1 , . . . , Xn ) dFX1 ,...,Xn (x1 , . . . , xn )
Rn
49
50 ÍNDICE GENERAL
n
Y
Y si además h(X1 , . . . , Xn ) = hi (xi ) queda
i=1
n
Z Y n Z
Y
E(h(X1 , . . . , Xn )) = hi (xi ) dFX1 (x1 ) . . . dFXn (xn ) = hi (xi ) dFXi (xi )
Rn i=1 i=1Rn
Demostración Como X ≥ 0, si P(X = 0) < 1, ∃a > 0 tal que P(X ≥ a) > 0. Además,
como X ≥ 0 se tiene X(ω) ≥ a · 1{X≥a} . Luego, E(X) ≥ E(a)E(1{X≥a} ) = aP(X ≥ a) lo que es
una contradicción.
Propiedades
• E(X 2k ) ≥ (E(X))2k , ∀k ≥ 1
• Si X ≥ 0, entonces E(X k ) ≥ (E(X))k , ∀k ≥ 1
Es decir, m2k ≥ m2k
1 y si X ≥ 0, mk ≥ m1
k
Demostración Por (i) y como g(x) = x2k es convexa para k ≥ 1 se deduce la primera. La
segunda se deduce de g : R+ → R, g(x) = xk con k ≥ 1 es convexa y de X(Ω) = R+ .
Varianza
Definición Sea X v. a. Su varianza es
Nota V ar(X) esta definida si E(X) es finita. V ar(X) es finita si E(X) y E(X 2 ) son finitas.
Para todo efecto consideraremos que V ar(X) existe y es finita.
ÍNDICE GENERAL 51
Demostración
(1) (X − µX )2 ≥ 0 ⇒ V ar(X) = E((X − µX )2 ) ≥ 0
(2) Sea Y = (X − µX )2 , se tiene Y ≥ 0. E(Y ) = V ar(X). Si V ar(X) = 0 se tiene E(Y ) = 0, y
se concluye P(Y = 0) = 1, esto es P(X = µX ) = 1. Además P(X = a) = 1 para cierto a ∈ R se
tiene E(X) = a, de donde P(X = µX ) = 1 y V ar(X) = E((X − µX )2 ) = 0. Juntando todo esto
se tienen las equivalencias.
(3) Sea Y = α + βX. Por linealidad E(Y ) = α + βE(X), es decir, µY = α + βE(X) = α + βµX .
Luego, V ar(α + βX) = V ar(Y ) = E((α + βX − α − βµX )2 ) = E(β 2 (X − µX )2 ) = β 2 V ar(X)
(4) V ar(X) = E((X − µX )2 ) = E(X 2 − 2XµX + µ2X )
= E(X 2 ) − 2E(X)µX + µ2X = E(X 2 ) − µ2X
(5) ϕ(C) = E((X − C)2 ) = E(X 2 − 2CX + C 2 ) = E(X 2 ) − 2CµX + C 2 . Derivando con respecto
a C, obtenemos C = µX . Volviendo a derivar con respecto a C obtenemos 2 y 2 > 0, luego en
C = µX alcanza su mı́nimo y por definición ϕ(µX ) = V ar(X).
(6) Sean X, Y v. a. indep. Se tiene µx+y = µX + µY .
V ar(X + Y ) = E((X + Y − µX − µy )2 ) = E((X − µX )2 + 2(X − µX )(Y − µY ) + (Y − µY )2 ) .
= V ar(X) + 2E((X − µx )(Y − µY )) + V ar(Y )
Como X, Y indep., E(X −µx )E(Y −µY ) que es 0 por (g’). Luego, V ar(X +Y ) = V ar(X)+V ar(Y )
Covarianza
Definición Si X, Y son v. a., su Covarianza es:
Demostración
(1) Por lo hecho en (6)
(2) Por un desarrollo análogo
(3) Directa
Definición
• Una v. a. Z tal que E(Z) = 0 se dice centrada
• Una v. a. Z tal que E(Z) = 0 y V ar(Z) = 1 se dice normalizada.
Propiedades
• Sea X v. a. Si E(X) es finita, entonces Z = X − E(X) es centrada.
X − E(X)
• Sea X v. a. Si E(X) es finita y 0 < V ar(X) < ∞, entonces Z = p es normalizada.
V ar(X)
Nota V ar(X) > 0 quiere decir que X no es constante.
Demostración Punto 2:
!
X − E(X) V ar(X)
V ar p = =1
V ar(X) |{z} V ar(X)
(3)
52 ÍNDICE GENERAL
p X − µX
Nota σX = V ar(X) se llama desviación tı́pica. Luego, si X no es constante es
σX
normalizada.
Clase 16 - 07/05/2013
Convolución.
Probabilidades totales
z}|{ X
Demostración PX+Y = P(X + Y = k) = P(X + Y = l|X = l)
X l∈Z X
= P(Y = k − l|X = l) = P(Y = k − l)P(X = l)
l∈Z
X l∈Z
= PY (k − l)PX (l)
l∈Z
X
Nota La convolución p ∗ q(k) = p(l)q(k − l):
l∈Z
Es conmutativa: p ∗ q = q ∗ p
Es asociativa: p ∗ (q ∗ r) = (p ∗ q) ∗ r. Luego, se escribe p ∗ q ∗ r
(
1 Si k = 0
δ0 dada por δ0 (k) = es neutro de ∗: p ∗ δ0 = δ0 ∗ p = p, pues δ0 es la
2 Si k 6= 0
densidad discreta de X = 0
53
54 ÍNDICE GENERAL
k− n−2
P
k k−l
X X1 i=1 li
X n−1
X
PX1 ,...,Xn (k) = ··· PX1 (l1 )PX2 (l2 ) · · · PXn (k − li )
l1 =0 l2 =0 ln−1 i=0
Sea (X, Y ) vector aleatorio abs. continuo con densidad f(X,Y ) (x, y). Entonces:
Si además X e Y toman valores en R+ (fX (u) = fY (u) = 0 cuando u < 0), entonces X + Y
toma valores en R+ y se tiene:
Zz
fX+Y (z) = fX (x)fy (z − x) dx
0
ÍNDICE GENERAL 55
Demostración
Z∞
FX+Y (z) = P(X + Y ≤ z) = P(X ∈ (x, x + dx], X + Y ≤ z)
−∞
Z∞
= P(X ∈ (x, x + dx], Y ≤ z − x)
−∞
Z∞
= P(X ∈ (x, x + dx])P(Y ≤ z − x)
−∞
Z∞
= fX (x)FY (z − x)
−∞
d
Entonces, haciendo obtenemos:
dz Z∞
fX+Y (z) = fX (x)fY (z − x) dx
−∞
Demostración Inducción
f ∗ g = g ∗ f , es conmutativa.
f ∗ (g ∗ h) = (f ∗ g) ∗ h, es asociativa.
Desigualdades - Tchevycheff
Propiedades
2. Se aplica 1 a la v. a. Z = |X − µX |p y p .
56 ÍNDICE GENERAL
Desigualdad de Tchevycheff
Sea X v. a., > 0, entonces
E(|X|)
1. P(|X| ≥ ) ≤
E(|X − µX |p )
2. Si µX es finita, entonces: P(|X − µX | ≥ ) ≤ , ∀p ≥ 1
ep
3. P(X ≥ ) ≤ e−t P(etX ), ∀t > 0
Demostración Se tiene:
1. |X| ≥ 1|X|≥ . Luego, E(|X|) ≤ E(1|X|> ) = P(|X| ≥ )
2. Resulta de aplicar E a |X − µX |p ≥ p 1|X−µX |≥
Tipos de Convergencia
Primero veamos algunos tipos de convergencia. Sea (Ω, β, P) espacio de probabilidad y (Xn :
n ∈ N) es sucesión de v. a. y X es v. a.
Definición
Lp
→ X en Lp (P) si para p ≥ 1, E(|Xn − X|p ) |{z}
(c) Xn |{z} → 0
n→∞ n→∞
Proposición Se tiene:
→ X Pcs ⇒ Xn → X en probabilidad.
(1) Xn |{z}
n→∞
Lp
→ X ⇒ Xn → X en probabilidad.
(2) Xn |{z}
n→∞
Demostración
\ [ \
→ X Pcs si y solo si P(
Luego, Xn |{z} C(m, k)) = 1
n→∞ m∈N n∈N k≥n
57
58 ÍNDICE GENERAL
[ \
Se tiene que C(m, k) decrece con m, de donde:
n∈N k≥n
[ \
→ X Pcs si y solo si ∀m ∈ N P(
Xn |{z} C(m, k)) = 1
n→∞ n∈N k≥n
\ [
esto es si y solo si ∀m ∈ N P( ( C(m, k)c )) = 0
n∈N k≥n
[
Se tiene que C(m, k) decrece con n, de donde:
k≥n
[
→ X Pcs si y solo si ∀m ∈ N lı́m P(
Xn |{z} C(m, k)c ) = 0
n→∞
n→∞ k≥n
[
Como C(m, n)c ⊆ C(m, k)c , se tiene que lo anterior implica
k≥n
E(|Xn − X|p )
(2) Por Tchevycheff, ∀ > 0 se tiene P(|Xn − X| ≥ ) ≤
p
Entonces:
Lp
→ X, ∃ subsucesión nk % ∞ tal que Xn |{z}
1. Si Xn |{z} → X con Pcs
n→∞ n→∞
Lp
→ X con Pcs y sup |Xn | ≤ Y , con E(|Y |p ) < ∞, entonces Xn |{z}
2. Si Xn |{z} → X
h≥1
n→∞ n→∞
Ejemplo Tomemos Ω = [0, 1], β([0, 1]) = {B ∈ β(R) : tales que B ∈ [0, 1]} y P = λ, medida
de Lebesgue en ([0, 1], β([0, 1])), es decir, λ((a, b]) = b − a, ∀(a, b] ∈ [0, 1]
Todo n ∈[N lo representamos de manera única como n = 2l + r, l ≥ 0, r ∈ {0, 1, . . . , 2l − 1},
ya que N = · {2l , . . . , 2l+1 − 1}. Entonces: Xn = 1( r , r+1 )
2l 2l
l≥0
Para > 0 se tiene
r r+1 1
P(|Xn | > ) = λ(|Xn | > ) = λ , = → 0
2l 2l 2l |{z}
n→∞
Es decir:
N
1 X
P({ω ∈ Ω : lı́m Xn (ω) = E(X1 )}) = 1
N →∞ N
n=1
Que significa que el promedio empı́rico converge al teórico, y se le llama a menudo Teorema
Fuerte de los Grandes Números.
Nota Si Xn ∼Bernoulli(p), se tiene E(Xn ) = p. Luego, en este caso el Teorema de los Grandes
Números:
N
1 X
→ p, Pcs
Xn |{z}
N n=1 N →∞
N
!
X
Xn = |{n ∈ {1, . . . , N } : Xn − 1}| ∼ Binomial(n, p)
n=1
Por hipotesis E(X1 ) es finito. Probaremos bajo estas hipotesis la convergencia en L2 , ya que
probamos que implica la convergencia en probabilidad.
XN
Sea Sn = Xn . Se tiene:
n=1
N
! N
Sn 1 X 1 X V ar(X1 )
V ar = 2 V ar Xn =
|{z} N 2 V ar(Xn ) |{z}
=
N N n=1 n=1
N
ind. = dist.
Luego: " #
Sn L2 V ar(X1 )
→ E(X1 ) pues → 0
N |{z} N |{z}
N →∞ N →∞
V ar SNn
Sn V ar(X1 )
P − E(X1 ) ≥ ≤
= → 0
N 2 2 N |{z}
N →∞
Nota
n n
1X 1X
Xi − E(X1 ) = (Xi − E(Xi )), pues E(Xi ) = E(X1 ), ∀i ∈ N
n i=1 n i=1
1
Expansión Diádica y v. a. Bernoulli
2
Ah, sı́, sı́
61
62 ÍNDICE GENERAL
dn ψX (s)
(e) Si E(|X n |) < ∞, entonces ∃ = (−1)n E(X n )
dsn 0
(f) Si X es discreta
X tomando valores
X en el conjunto numerable I ⊆ [m, ∞), se tiene:
−sa −sa
ψX (s) = e PX (a) = e P(X = a)
a∈I a∈I
Demostración
(a) e−sX ≤ e−sm si X ≥ m
(b) e−0X = 1
Z∞ Z∞
Nota FX (x) = 1(−∞,X] (z) dFX (z), ψX (s) = e−sz dFX (z)
−∞ −∞
Nota Si F funcion de distribucion tal que F (m− ) = 0 (es decir, F esta “concentrado” en
[m, ∞)), se define:
Z∞
∀s ≥ 0 ψF (s) = e−sx dF (x) Transformada de Laplace
m
Z∞
∀µ ∈ (0, 1] ξF (µ) = µx dF (x) Función generadora de F
m
Se tiene entonces:
Z∞ Z∞ Z∞
itx
ϕX (t) = e FX (x) = cos(tx) dFX (x) + i sin(tx) dFX (x)
−∞ −∞ −∞
Propiedades
63
64 ÍNDICE GENERAL
(f) Si X : discreta
X a valores en XI ⊆ R numerable
itx
ϕX (t) = e PX (a) = eitx P(X = a)
a∈I a∈I
Demostración
(0) X v. a. ⇒ cos(tx) y sin(tx) son v. a. Estan acotados, toman valores en [−1, 1] por lo que
E(cos(tX)) y E(sin(tX)) ∃ y son finitas, de donde ϕX (t) ∈ C esta bien definido.
(j) ϕX (t) ∈ R ∀t ⇔ ϕX (t) = ϕX (t) ⇔ ϕX (t) = ϕX (−t) ⇔ ϕX (t) = ϕ−X (t) Luego, ϕX = ϕ−X
y por (b) concluimos que FX = F−X
Ejemplo
Y despues con un poquito de magia (que tengo que añadir despues) sale.
D
Propiedad Xn → X en probabilidad ⇒ Xn → X
n→∞