Está en la página 1de 70

Facultad de Ciencias

Fı́sicas y Matemáticas
Universidad de Chile

Martinez, Servet

MA3401 - Probabilidades

Transcriptor:
Alan Beltrán Flores1

Otoño 2013
1
Agradecimientos a Constanza Yovaniniz, Camilo Ulloa y Esteban Román, que pasaron sus apuntes de clases
a las que falté (justificadamente, por supuesto)
2
Índice general

Clase 01 - 12/03/2013 1

Clase 02 - 14/03/2013 5

Clase 03 - 19/03/2013 9

Clase 04 - 21/03/2013 13

Clase 05 - 26/03/2013 17

Clase 06 - 28/03/2013 21

Clase 07 - 02/04/2013 23

Clase 08 - 04/04/2013 25

Clase 09 - 09/04/2013 27

Clase 10 - 16/04/2013 31

Clase 11 - 18/04/2013 35

Clase 12 - 23/04/2013 37

Clase 13 - 25/04/2013 41

Clase 14 - 29/04/2013 45

Clase 15 - 02/05/2013 49

Clase 16 - 07/05/2013 53

Clase 17 - 09/05/2013 57

Clase 18 - 14/05/2013 61

Clase 19 - 16/05/2013 63

3
4 ÍNDICE GENERAL
Clase 01 - 12/03/2013

Axiomática de Probabilidades
- Ω 6= ∅ conjunto de puntos llamado espacio muestral
- β clase de eventos
Los elementos de β son subconjuntos de Ω, es decir, β ⊆ P(Ω), en donde P(Ω) = {ω ⊆ Ω}
es el conjunto potencia de Ω.

En la axiomatica, β es una σ-algebra (sigma-algebra).

Definicion β es una σ-algebra si:


0. β ⊆ P(Ω)
1. ∅, Ω ⊆ β
2. B ∈ β ⇒ B c ∈ β, en donde B c = Ω \ B
[
3. Bn ∈ β ∀n ∈ N ⇒ Bn ∈ β
n∈N

A la propiedad 3 se le llama “ser cerrado por complemento”, mientras a la propiedad 4 se le


llama “ser cerrado por union numerable”.

Nota Bn ∈ β ∀n ∈ N lo escribiremos (Bn : n ∈ N)

Definicion Si β es σ-algebra, a la pareja (Ω, β) se le llama espacio medible.

Propiedad Toda σ-algebra β es un algebra [de conjuntos], es decir, verifica las propiedades 0,
1, 2 y:
30 . A, B ∈ β ⇒ A ∪ B ∈ β

Demostracion Tomemos B1 = A, B2 = B y Bn = A ∀n > 2. Se tiene entonces que


Bn ∈ β ∀n ∈ N. Luego,
[
A∪B = Bn , que pertenece a β gracias a 3.
n∈N

Observacion Notemos que la propiedad 3’ equivale a:


n
[
∀n ∈ N, B1 , . . . , Bn ∈ β =⇒ Bi ∈ β
i=1

1
2 ÍNDICE GENERAL

Demostracion Por induccion:


Para n = 1, es evidente. Entonces, si tenemos un n, demostremos para el n + 1:
n
[
B1 , ..., Bn , Bn+1 ∈ β ⇒ Bi ∈ β; Bn+1 ∈ β
i=1

Por 3’ !
n
[ n+1
[
⇒ Bi ∪ Bn+1 ∈ β ⇒ Bi ∈ β
i=1 i=1

Y queda asi demostrado.

Recuerdo Recordemos las leyes de Morgan:


Para finitos:
n
!c n n
!c n
[ \ \ [
Bi = (Bic ) | Bi = (Bic )
i=1 i=1 i=1 i=1

Para numerables:
!c !c
[ \ \ [
Bi = (Bic ) | Bi = (Bic )
n∈N n∈N n∈N n∈N

\
Nota Bi = {ω ∈ Ω : ω ∈ Bn , ∀n ∈ N}
n∈N

Propiedad Si β es σ-algebra, entonces:


n
\
a) B1 , ..., Bn ∈ β ⇒ ∈β
i=1
\
b) (Bn : n ∈ N) ⊆ β ⇒ ∈β
n∈N

Demostracion
n
0 [
a) B1 , ..., Bn ∈ β ⇒(2) B1c , ..., Bnc ∈ β ⇒(3 ) Bic ∈ β
i=1
n
!c n
[ \
⇒ Bic = Bi ∈ β
i=1 i=1
b) Es analoga a la anterior.

Propiedad Si β es σ-algebra, entonces verifica que:

A, B ∈ β ⇒ A \ B ∈ β

A, B ∈ β ⇒ A 4 B ∈ β
ÍNDICE GENERAL 3

Demostracion Ambas pueden ser escritas en forma de uniones e intersecciones

A\B = A ∩ Bc
A4B = (A \ B) ∪ (B \ A) = (A ∩ B c ) ∪ (B ∩ Ac )

Todos los conjuntos resultados de uniones e intersecciones, uniones numerables, diferencias y


diferencias simetricas estaran en β.

Propiedad Sea β σ-algebra. Sea (Bn : n ∈ N) ⊆ β. Entonces:

lı́m sup Bn ∈ β
n→∞

lı́m inf Bn ∈ β
n→∞

En donde:  
\ [
lı́m sup Bn =  Bk 
n→∞
n∈N k≥n
 
[ \
lı́m inf Bn =  Bk 
n→∞
n∈N k≥n

Nota

lı́m sup Bn = {ω ∈ Ω : ∀n ∈ N ∃k ≥ n tal que ω ∈ Bk }


n→∞
= {ω ∈ Ω : ∃kn → ∞ tal que ω ∈ Bkn }
= {ω ∈ Ω : |{k ∈ N : ω ∈ Bn }| < ∞}

lı́m inf Bn = {ω ∈ Ω : ∃n ∈ N ∀k ≥ n tal que ω ∈ Bk }


n→∞
= {ω ∈ Ω : |{k ∈ N : ω ∈
/ Bn }| < ∞}

|A| = Cardinal de A

Observaciones Por la ley de Morgan:


 c
lı́m sup Bn = lı́m inf Bnc
n→∞ n→∞
 c
lı́m inf Bn = lı́m sup Bnc
n→∞ n→∞

Propiedad Sea Ω 6= ∅ un espacio. Sean β, β 0 σ-algebras. Entonces β ∩ β 0 es σ-algebra. Luego,


para i = 1, ..., n:
n
\
Bi es σ-algebra.
i=1
4 ÍNDICE GENERAL

Demostracion

0. β ∩ β 0 ⊆ P(Ω)
1. ∅, Ω ∈ β; ∅, Ω ∈ β 0 ⇒ ∅, Ω ∈ β ∩ β 0
2. B ∈ β ∩ β 0 ⇒ B c ∈ β ∩ β 0
[
3. (Bn : n ∈ N) ⊆ β ∩ β 0 ⇒ Bn ∈ β ∩ β 0
n∈N

2 y 3 son porque β y β’ son σ-algebras.

Propiedad Sean Ω, Λ 6= ∅ espacios. Si βλ es σ-algebra en Ω ∀λ ∈ Λ, entonces:


\
βλ es σ-algebra.
λ∈Λ

Nota \
βλ = {B ∈ P(Ω) : B ∈ βλ ∀λ ∈ Λ}
λ∈Λ

Demostracion
\
0. βλ ⊆ P(Ω) ∀λ ∈ Λ ⇒ βλ ⊆ P(Ω)
λ∈Λ
\
1. ∅, Ω ∈ βλ ∀λ ∈ Λ ⇒ ∅, Ω ∈ βλ
λ∈Λ
\ \
2. B ∈ βλ ⇔ B ∈ βλ ∀λ ∈ Λ ⇒ B c ∈ βλ ∀λ ∈ Λ ⇔ B c ∈ βλ
λ∈Λ λ∈Λ
\
3. (Bn : n ∈ N) ⊆ βλ ⇔ (Bn : n ∈ N) ⊆ βλ ∀λ ∈ Λ
λ∈Λ
[ [ \
⇒ Bn ∈ βλ ∀λ ∈ Λ ⇔ Bn ∈ βλ
n∈N n∈N λ∈Λ
Clase 02 - 14/03/2013

Sea Ω 6= ∅. Notemos que siempre podemos definir en el las σ-algebras:

a) N = {∅, Ω} σ-algebra trivial


b) P(Ω) σ-algebra discreta

Demostracion: Ambos cumplen trivialmente con 0, 1 y 2. Veamos 3:


[
a) Sea (Bn : n ∈ N). Si Bn = ∅ ∀n ∈ N ⇒ Bn = ∅ ∈ N
n∈N
[
Si ∃n ∈ N tal que Bn = Ω ⇒ Bn = Ω ∈ N
n∈N

Como esos son los unicos casos Posibles, entonces es verdad


[
b) (Bn : n ∈ N) ⊆ P(Ω) ⇒ Bn ∈ P(Ω)
n∈N

Nota N ⊂ P(Ω), excepto cuando Ω = {α}, en cuyo caso N = P(Ω) = {∅, {α}}

Proposicion Sea Ω 6= ∅ y sea Γ ⊆ P(Ω). Entonces, ∃! σ-algebra que notaremos σ(Γ) y que
llamaremos σ-algebra generada por Γ, que verifica las siguientes propiedades:

a) σ(Γ) es σ-algebra.
b) Γ ⊆ σ(Γ)
c) Si Γ ⊆ β y β es σ-algebra, entonces σ(Γ) ⊆ β

Nota σ(Γ) es la σ-algebra mas pequeña que contiene a Γ.

Demostracion Definamos Λ = {β : β es σ-algebra y Γ ⊆ β}. Se tiene P(Ω) ⊆ Λ, luego


Λ 6= ∅. Por propiedad anterior, \
β es σ-algebra
β∈Λ
\
Como Γ ⊆ β ∀β ∈ Λ ⇒ Γ ⊆ β
β∈Λ
\
Por ultimo, si Γ ⊆ β 0 y β 0 es σ-algebra, entonces β 0 ∈ Λ. Luego β ⊆ β0
β∈Λ

5
6 ÍNDICE GENERAL
\
Hemos probado que σ(Γ) = β verifica (a, b, c). Ademas, es la unica σ-algebra que lo hace,
β∈Λ
pues si β 0 tambien lo verificase, deduciriamos de (c) que β 0 ⊆ σ(Γ) y que σ(Γ) ⊆ β 0 , concluyendo
que β 0 = σ(Γ).

Nota Si Ω es numerable (finito o de cardinalidad de N), entonces siempre consideraremos


en Ω la σ-algebra discreta P(Ω).
Observemos que en este caso Ω numerable se tiene

P(Ω) = σ(Γ), con Γ = {{ω} : ω ∈ Ω}

En efecto, si B ∈ P(Ω), entonces:


[
B= {w}, union numerable de conjuntos en Γ
ω∈B

Luego B ∈ σ(Γ), de donde P(Ω) ⊆ σ(Γ)

Nota Sea Ω 6= ∅, Γ = {{ω} : ω ∈ Ω} la familia de singletons. Entonces:

σ(Γ) = {B ⊆ Ω : B es numerable o B c es numerable} DEMOSTRARLO

Definicion σ-algebra de Borel:


En Ω = R, la σ-algebra de Borel se define por β(R) = σ(Γ), con Γ = {(−∞, a] : a ∈ R}

Propiedad ∀a, b ∈ R, con a ≤ b se tiene que:



(−∞, a] [a, b]  
(−∞, a) (a, b]   cualquier union o interseccion

[a, ∞) [a, b) numerable, complemento o ∈ β(R)
(a, ∞) (a, b)  diferencia de estos conjuntos



{a}

Demostracion  Caso por caso



[ 1
1) (−∞, a) = −∞, a −
n
 n∈N 
1 [  1

Como −∞, a − ∈ Γ, ∀n ∈ N, deducimos −∞, a − ∈ σ(Γ) = β(R)
n n
n∈N
2) [a, ∞) = (−∞, a)c . Como (−∞, a) ∈ β(R), se deduce que (−∞, a)c ∈ β(R)
3) [a, b) = (−∞, b) ∩ [a, ∞). Como ambos estan en β(R), entonces [a, b) ∈ β(R)
4) a = [a, a] ∈ β(R)

Nota B ∈ β(R) se llamara Boreliano


Ademas, β(R) ⊂ P(R) (∃A ⊆ R tal que A ∈
/ β(R))

Definicion Analogamente, se tiene en Ω = Rn la σ-algebra de Borel, definida β(Rn ) = σ(Γ),


n
Y
con σ(Γ) = { (−∞, ai ) : ai , . . . , an ∈ R}
i=1
ÍNDICE GENERAL 7

Nota A los B ⊆ Rn tal que B ∈ β(Rn ) se les llama Borelianos.

n
Y
Nota |ai , bi | ∩ Rn ∈ β(Rn ), ∀ai , bi tal que −∞ ≤ ai ≤ bi ≤ ∞.
i=1

Definicion Diremos que (Bn : n ∈ N) es familia disjunta si Bi ∩ Bj = ∅ ∀i 6= j, con i, j ∈ N

Definicion Sea (Ω, β) espacio medible. P es una medida de probabilidad en (Ω, β) si verifica:

a) P es funcion P : β → [0, 1]
B → P(B)
b) P(Ω) = 1
!
[ X
c) ∀(Bn : n ∈ N) ⊆ β familia disjunta en β se tiene que P · Bn = P(Bn )
n∈N n∈N

A esta ultima propiedad se le llama σ-aditividad.

Propiedad Sea P medida de probabilidad. Entonces P(∅) = 0.

Demostracion Tomemos Bn = ∅!∀n ∈ N. Entonces (Bn : n ∈ N) ⊆ β son disjuntos.


[ X
Luego, por σ-aditividad P · Bn = P(Bn ).
n∈N
[ X n∈N
Como · Bn = ∅, entonces P(∅) = P(∅).
n∈N n∈N
Luego, P(∅) = ∞ o P(∅) = 0. Y como P ∈ [0, 1], entonces P(∅) = 0.
8 ÍNDICE GENERAL
Clase 03 - 19/03/2013

Una medida µ en (Ω, β) verifica:

(0) µ : β → R+ ∪ {∞}
(1) µ(∅) = 0
(2) µ es σ-aditiva

Se dira medida finita si µ(B) 6= ∞, ∀B ∈ β


Se tiene que si µ es medida, entonces es una medida de probabilidad si y solo si µ(Ω) = 1.
µ(B)
Por otra parte, si µ es medida finita y µ(Ω) 6= 0, entonces P(B) = , B ∈ β es medida
µ(Ω)
de probabilidad.

Definicion ∃! medida λ en (R, β(R)) llamada medida de Lebesgue que verifica:

λ((a, b]) = b − a, ∀a ≤ b en R

Se tiene λ(R) = ∞, λ({a}) = 0, ∀a ∈ R

Definicion ∃! medida λn en (Rn , β(Rn )) llamada medida de Lebesgue que verifica:


n
Y n
Y
λn ( (ai , bi )) = (bi − ai )
i=1 i=1

Se tiene λn (Rn ) = ∞, λn ({x}) = 0, ∀x ∈ Rn

Propiedades Sea (Ω, β, P)) espacio de probabilidad. P es una medidad de probabilidad en


(Ω, β). Entonces:

a) P es aditiva, es decir, si B1 , . . . , Bn ∈ β son disjuntos, se tiene


n
! n
[ X
P · Bi = P(Bi )
i=1 i=1
b) Si A, B ∈ β, A ⊆ B, entonces P(B \ A) = P(B) − P(A)
c) Si A, B ∈ β, A ⊆ B, entonces P(A) ≤ P(B)
d) ∀B ∈ β, P(B c ) = 1 − P(B)
e) P(A ∪ B) = P(A) + P(B) − P(A ∩ B)

9
10 ÍNDICE GENERAL

Nota Las propiedades a), b), c) y e) son comunes a todas las medidas.

Demostracion

a) Tomemos Bi = ∅ ∀i > n. Luego, (Bi : i ∈ N) ⊆ β son disjuntos, y por σ-aditividad:


n
! ! n
P(∅)=0X
[ [ X
P · Bi = P · Bi =
z}|{
P(Bi ) = P(Bi )
i=1 i∈N i∈N i=1

b) A ⊆ B ⇒ A ∧ B \ A = B ∩ Ac , son conjuntos disjuntos y verifican B = A ∪· (B \ A). Luego


por a) deducimos P(B) = P(A) + P(B \ A)
c) Como P(B \ A) ≥ 0, por b) deducimos P(A) ≤ P(B)
d) Resulta de tomar B ⊆ Ω, luego por b), y ya que B c = Ω \ B:

P(Ω \ B) = P(Ω) − P(B) = 1 − P(B)

e) A ∪ B = A ∩ B ∪· B \ A ∪· A \ B = A ∩ B ∪· (B \ A ∩ B) ∪· (A \ A ∩ B). Luego:
a)
P(A ∪ B) = P(A ∩ B) + P(B \ A ∩ B) + P(A \ A ∩ B)
b)
= P(A ∩ B) + P(B) − P(A ∩ B) + P(A) − P(A ∩ B)
= P(A) + P(B) − P(A ∩ B)

Fórmula de Inclusión-Exclusión Sea B1 , . . . , Bn ∈ β. Entonces:


! !  !
[n X \ X n X k
\
P Bi = (−1)|J|+1 P Bi = (−1)k+1  P Bi 
i=1 J⊆{1,...,n} i∈J k=1 1≤i1 <...<ik ≤n i=1
J6=∅

Primero suma todos las probabilidades de conjuntos, luego le resta las intersecciones dobles,
después le suma las intersecciones triples, le resta las cuádruples y ası́.
Para el caso n = 2 obtenemos e). Para el caso n = 3 obtenemos:

P(A ∪ B ∪ C) = P(A) + P(B) + P(C) − P(A ∩ B) − P(A ∩ C) − P(B ∩ C) + P(A ∩ B ∩ C)

Demostración Por inducción, en auxiliar.

Propiedades Sea (Bn : n ∈ N) ⊆ β. Entonces:

(a) Si Bn ⊆ Bn+1 ∀n ∈ N (Se escribe Bn % y se dice Bn creciente), se tiene


!
[
P Bn = lı́m P(Bn ) (Continua Monótona Creciente)
n→∞
n∈N
(b) Si Bn+1 ⊆ Bn ∀n ∈ N (Se escribe Bn & y se dice Bn decreciente), se tiene
!
\
P Bn = lı́m P(Bn ) (Continua Monótona Decreciente)
n→∞
n∈N
!
[ X
(c) P es sub-σ-aditiva. Es decir, P Bn ≤ P(Bn )
n∈N n∈N
ÍNDICE GENERAL 11

Demostración

(a) Definamos (An : n ∈ N) por A1 = B1 ; An+1 = Bn+1 \ Bn , ∀n ∈ N. Se tiene


(An : n ∈ N) ⊆ β, además los An son disjuntos [probarlo] y se verifica que:
[ [
(∗) An ⊆ Bn ∀n ∈ N ⇒ · An ⊆ Bn
n∈N n∈N
n
[ [ [
(∗∗) Bn = · Ai ∀n ∈ N ⇒ Bn ⊆ · An
i=1 n∈N n∈N
[ [
(∗) + (∗∗) =⇒ · An = Bn . Luego:
n∈N n∈N
! ! n
!
[ [ X X
P Bn =P · An = P(An ) = lı́m P(Ai )
n→∞
n∈N n∈N n∈N i=1
n
!
[
= lı́m P · Ai = lı́m P(Bn )
n→∞ n→∞
i=1
(b) Se deduce de (a) y Morgan. En efecto, Bn &⇒ Bnc % . Luego, por (a):
!
[
P Bn = lı́m (P(Bnc )) = lı́m (1 − P(Bn )). Además:
c
n→∞ n→∞
n∈N
!c ! !
\ \
P Bn =1−P Bn , Luego
n∈N n∈N
! !
\ \
1−P Bn = lı́m (1 − P(Bn )) ⇒ P Bn = lı́m (P(Bn ))
|{z} n→∞ n→∞
n∈N Morgan n∈N
n
!
[
(c) Definamos (An : n ∈ N) por A1 = B1 ; An+1 = Bn+1 \ Bi ∀n ∈ N
i=1
Se tiene (An : n ∈ N) ⊆ β, son disjuntos y verifican:
[n [ [
An ⊆ Bn ∧ Bn = · Ai , ∀n ∈ N. Luego, · An = Bn y deducimos
i=1 n∈N n∈N
! ! Por * y porque P es creciente
[ [ X z}|{ X
P Bn =P · An = P(An ) ≤ P(Bn )
n∈N n∈N n∈N n∈N

Nota (c) implica la sub-aditividad:


∀B1 , . . . , Bn ∈ β, y tomando Bi = ∅, ∀i > n, tenemos
n
! n
[ X
P ≤ P(Bn )
i=1 i=1
12 ÍNDICE GENERAL

Corolario Sea (Bn : n ∈ N) ⊆ β !


[
(a) Si P(Bn ) = 0 ∀n ∈ N, entonces P Bn =0
n∈N !
\
(b) Si P(Bn ) = 1 ∀n ∈ N, entonces P Bn =1
n∈N

Demostración Se demuestran:
(a) por sub-σ-aditividad.
(b) por (a) y Morgan.
Clase 04 - 21/03/2013

Definición Si lı́m inf Bn = lı́m sup Bn , se dice que ∃ lı́m Bn = lı́m sup Bn
n→∞ n→∞ n→∞ n→∞
[
Si Bn %, se tiene que lı́m Bn = Bn
n→∞
n∈N
\
Si Bn &, se tiene que lı́m Bn = Bn
n→∞
n∈N

Propiedad Las ultimas propiedades (a) y (b), se pueden enunciar como:


Sea (Bn : n ∈ N) ⊆ β. Si Bn % o Bn &, entonces:
 
P lı́m Bn = lı́m P(Bn )
n→∞ n→∞

Definicion y Propiedad Sea (Ω, β) un espacio medible. Sea Ω0 ∈ β, Ω0 6= ∅ (en particular


Ω0 ⊆ Ω). Se tiene:
(∗)
β |Ω0 = {B ∈ β : B ∈ Ω0 } = {B ∩ Ω0 : B ∈ β}

(**)β |Ω0 es σ-algebra (en Ω0 ) y se llama σ-algebra inducida (o restringida) en Ω0 . La pareja


(Ω0 , β |Ω0 ) es espacio medible. Además, β |Ω0 ⊆ β.

Demostración (*) es trivial


(**) (1) ∅, Ω0 ∈ β |Ω0 evidentemente.
(2) B ∈ β |Ω0 ⇒ Ω0 \ B = Ω0[∩ B c ∈ nβ |Ω0
(3) (Bn : n ∈ N) ⊆ β |Ω0 ⇒ Bn ∈ β |Ω0
n∈N

Probabilidad Condicional
Sea (Ω, β, P) un espacio de probabilidades, que vamos a usar de aquı́ en adelante.

Definición Sean A, B ∈ β, con P(B) > 0. Definimos:


P(A ∩ B)
P(A|B) = y lo llamamos probabilidad de A condicional a B.
P(B)

13
14 ÍNDICE GENERAL

Propiedades Obvias Sea P(B) > 0. Se tiene:

(a) P(A|B) = P(A ∩ B|B)


(b) P(A ∩ B) = P(A|B) · P(B)
P(B)
(c) Si P(A) > 0 ⇒ P(A|B) · P(B) = P(B|A) · P(A) ⇒ P(A|B) = P(B|A) ·
P(A)

Propiedad Sea P(B) > 0. Entonces P( · |B) : β |B → [0, 1] es una medida de probabilidad
A → P(A|B)
en (B, β |B ), es decir, (B, β |B , P( · |B)) es espacio de probabilidad.

Demostración
P(∅ ∩ B)
(a) P(∅|B) = =0
P(B)
P(B ∩ B)
(b) P(B|B) = =1
P(B)
!
[ X
(c) Nos basta demostrar que ∀(Bn : n ∈ N) ⊆ β se cumple P An B = P(An |B)


n∈N n∈N
(pues β |B ⊆ β). En efecto:
! !
[ 1 [ 1 X X
An B = ·P An ∩ B = · P(An ∩ B) = P(An |B)

P
P(B) P(B)
n∈N n∈N n∈N n∈N

Propiedades Sea P(B) > 0:

(a) P(B|B) = 1
(b) P(∅|B) = 0
(c) P(A4B) = 0 ⇒ P(A|B) = 1
(d) P(A4B c ) = 1 ⇒ P(A|B) = 0
(e) P(Ω|B) = 1
(f) P(A) = 1 ⇒ P(A|B) = 1
(g) P(A) = 0 ⇒ P(A|B) = 0
(h) P(B) = 1 ⇒ P(A|B) = P(A), ∀A ∈ β

Demostración PROPUESTOS. Puede ser útil, para (c), (d), (f) y (g), probar:

Sea (Ω, β, P). Entonces, ∀A ∈ β, se tiene: ∀C ∈ β, P(A4C) = 0 ⇒ P(C) = P(A)

Fórmula de Bayes
Sea I un conjunto numerable (finito o no). Sea (Ai : i ∈ I) ⊆ β partición medible de Ω, es
decir:
(0) (Ai : i ∈ I) ⊆ β
(p1 ) i ∈ I) disjuntos
(Ai : [
(p2 ) Ω = · Ai
i∈I
ÍNDICE GENERAL 15
[ X
Luego, intersectando, ∀B ∈ β : B = · (B ∩Ai ), de donde P(B) = P(B ∩Ai ). Si asumimos
i∈I i∈I
X
P(Ai ) > 0 ∀i ∈ I, tenemos que P(B) = P(B|Ai ) · P(Ai ). Si P(B) > 0, verificamos, ∀j ∈ I:
i∈I

P(B|Aj ) · P(Aj )
P(Aj |B) = X Conocida como la formula de Bayes
P(B|Ai ) · P(Ai )
i∈I

Nota Lo anterior también es válido si (Ai : i ∈ I) es una P-partición medible, es decir:


(0) (Ai : i ∈ I) ⊆ β
0
(p1 ) P(Ai ∩ Aj ) =!0, ∀i 6= j
0
[
(p2 ) P Ω \ Ai = 0
i∈I

Proposición ∀B1 , . . . , Bn ⊆ β, con P(Bi ) > 0 ∀i = 1, . . . , n, se tiene que:


!  
\ n Yn i−1
\
P Bi = P Bi Bj 
i=1 i=1 j=1

= P(Bn |Bn−1 ∩ . . . ∩ B1 ) · . . . · P(B2 |B1 ) · P(B1 )

Demostración

P(B1 ∩ . . . ∩ Bn ) = P(Bn |B1 ∩ . . . ∩ Bn−1 ) · P(Bn−1 ∩ . . . ∩ B1 )


= P(Bn |B1 ∩ . . . ∩ Bn−1 ) · P(Bn−1 |B1 ∩ . . . ∩ Bn−2 ) · P(Bn−2 ∩ . . . ∩ B1 )
..
= .
= P(Bn |B1 ∩ . . . ∩ Bn−1 ) · . . . · P(B2 |B1 ) · P(B1 )
 
i−1
0
\ \
Nota En la primera igualdad, cuando i = 1, Bj = Ω, por lo que P B1 Bj  =
j=1 j=1
P(B1 |Ω) = P(B1 )
16 ÍNDICE GENERAL
Clase 05 - 26/03/2013

Independencia
Definición A, B ∈ β se dicen (P-)independientes (notado ⊥
⊥)si P(A ∩ B) = P(A) · P(B)

Propiedades

(a) P(A) = 0 o 1 ⇒ A es independiente en todo B ∈ β


(b) Si P(A), P(B) > 0, entonces A⊥ ⊥B ⇔ P(A|B) = P(A) ⇔ P(B|A) = P(B)
(c) Si P(A), P(B) ∈ (0, 1), entonces, A ∩ B = ∅ ⇒ A⊥
⊥B

(d) A⊥⊥A ⇔ P(A) = 0 o 1

Demostración

(a) Si P(A) = 0 ⇒ P(A ∩ B) = 0 ⇒ A⊥⊥B


Si P(A) = 1 ⇒ P(B) = P(B ∩ A) + P(B ∩ Ac ) = P(B ∩ A) ⇒ A⊥
⊥B
(b) Por definición
(c) P(A ∩ B) = 0 6= P(A) · P(B)
(d) P(A) = P(A ∩ A) = P(A)2 ⇒ P(A) = 0 ∨ P(A) = 1

Proposición ⊥B ⇒
A⊥ A⊥⊥B c
c
A ⊥⊥B c
c
A ⊥⊥B c

Demostración Basta probar A⊥ ⊥B c . En efecto:


⊥B ⇒ A⊥

P(A ∩ B c ) = P(A \ A ∩ B) = P(A) − P(A ∩ B) = P(A) − P(A) · P(B)


= P(A)(1 − P(B)) = P(A) · P(B c )

Definición Sea n ≥ 2. Sean B1 , . . . , Bn ∈ β. B1 , . . . , Bn se dicen independientes si:


n
! n
\ Y
P Ai = P(Ai ), ∀Ai = Bi o Ai = Bic , i = 1, . . . , n
i=1 i=1

Proposición Sean B1 , . . . , Bn ∈ β. Se tiene: !


\ Y
(a) B1 , . . . , Bn son independientes sı́ y solo sı́ ∀J ⊆ {1, . . . , n} P Bi = P(Bi )
i∈J i∈J
(b) Si B1 , . . . , Bn son ⊥
⊥, entonces Bi1 , . . . , B1k son independientes, ∀ 1 ≤ i1 < . . . < ik ≤ n

17
18 ÍNDICE GENERAL

Demostración ...

Definición (Bn : n ∈ N) ⊆ β es una familia de eventos independientes si ∀J finito, J ⊆ N


se tiene (Bi : i ∈ J) independiente. Se cumple (Bn : n ∈ N) ⊆ β es familia independiente si
∀n ∈ N, B1 , . . . , Bn independiente.

Observación Sea (Ω, β, P) espacio de probabilidad. Sean a1 , a2 ⊆ β σ-álgebras incluidas en


β (se llaman sub-σ-álgebras). Ellas se dicen independientes sı́ y solo sı́ ∀A1 ∈ a1 , ∀A2 ∈ a2 , se
tiene P(A1 ∩ A2 ) = P(A1 ) · P(A2 )
Se tiene que A, B ∈ β son independientes sı́ y solo sı́ σ(A) y σ(B) son independientes, donde
σ(A) y σ(B) son las σ-álgebras generadas por A y B respectivamente. En efecto es cierto, ya
que σ(A) = {∅, A, Ac , Ω} y σ(B) = {∅, B, B c , Ω}.

Caso Discreto Combinatorio


Si Ω es numerable (finito o infinito), lo dotamos de la σ-lgebra β = P(Ω). En este caso, una me-
dida de probabilidad en (Ω, β) esta determinada por una función, llamada densidad de probabili-
dad discreta p : Ω → R+ que verifica:
ω → p(ω)

X ≥ 0 ∀ω ∈ Ω
(i) p(ω)
(ii) p(ω) = 1
ω∈Ω

Nota En particular p(ω) ∈ [0, 1] ∀ω ∈ Ω


En efecto, si P es una medida de probabilidad en (Ω, β), entonces p(ω) = P({ω}), ∀ω ∈ Ω
verifica (i) y (ii), ya que
!
[ X
1 = P(Ω) = P · {ω} = P({ω})
ω∈Ω ω∈Ω

Recı́procamente, si p verifica (i) y (ii) entonces P : β → [0, 1] definida por


X
P(B) = p(ω), ∀B ∈ β = P(Ω)
ω∈B

tambien lo cumple. Observemos


X que P({ω}) = p(ω). Además, P ası́ definido es una función de
β → [0, 1], pues 0 ≤ P(B) ≤ p(ω) = 1. Por otra parte, P(Ω) = 1, y además si (Bn : n ∈ N) ⊆
ω∈Ω
P(Ω) disjuntos se verifica que
! !
[ X X X X
P · Bn = p(ω) = p(ω) = P(Bn )
S
n∈N ω∈ · Bn n∈N ω∈Bn n∈N
n∈N

por lo que la σ-aditividad se cumple.


ÍNDICE GENERAL 19

Caso Ω finito
Por lo dicho, una medida de probabilidad en (Ω, β) está dada por p : Ω → R+ .
La medida de probabilidad llamada equiprobable en Ω es tal que

1
p(ω) = , ∀ω ∈ Ω
|Ω|

También se le llama uniforme (en Ω). Es la única medida de probabilidad en (Ω, β) en que a
cada punto de Ω se le da el mismo peso.
X |B|
En este caso se tiene la igualdad P(B) = p(ω) = , es decir, un caso equiprobable.
|Ω|
ω∈B

|B| Casos favorables


∀B ∈ Ω : P(B) = :
|Ω| Casos posibles
20 ÍNDICE GENERAL
Clase 06 - 28/03/2013

Combinatoria
Recordemos algunas igualdades de cardinalidad. Notaremos por In un conjunto de n ele-
mentos, |In | = n. Para todo efecto de cardinalidad podemos suponer In = {1, . . . , n}, (I0 = ∅,
|I0 | = 0)
Se tiene: k
Y Y k k
Y
Inl = |Inl | = nl


l=1 l=1 l=1

Luego |Ink | = nk . Esta igualdad se puede escribir como |F(Ik , In )| = nk , donde F(Ik , In ) =
{f : Ik → In }. En efecto F(Ik , In ) → Ink es una biyección.
f → (f (i) : i ∈ Ik )
Sea I(Ik , In ) = {f : Ik → In , f inyectiva}. Se tiene I(Ik , In ) 6= ∅ solo en el caso k ≤ n.
Supongamos k ≤ n. Se tiene

n!
|I(Ik , In )| = = n(n − 1) · · · (n − k + 1)
(n − k)!

I(Ik , In ) esta en biyección con {(x1 , . . . , xk ) ∈ Ink : xi 6= xj , ∀i 6= j}

k−1
Y
Demostración I(Ik , In ) → In−l
l=0
f → (f (1), . . . , f (k))
Si f es inyectiva,
k−1 ∈ In , f (2) ∈ In \ {f1 }, . . . , f (k) ∈ In \ {f (1), . . . , f (k − 1)}. Luego
f (1)k−1
Y Y
|I(Ik , In )| = In−l = (n − l) = n(n − 1) · · · (n − k + 1)


l=0 l=0
En particular, para k = n, I(Ik , In ) = P er(In ), conjunto de biyecciones de In → In cuyos
elementos partición se llaman permutaciones de In . Se cumple que |P er(In )| = n!

Sea k ≤ n. Consideremos Pk (n) = {B : B ⊆ In , |B| = k}, subconjuntos de In con k elementos.


Se tiene:
 
n n!
|Pk (n)| = = , ∀k ≤ n
k (n − k)! k!

21
22 ÍNDICE GENERAL

Demostración En I(Ik , In ) definamos la relación de equivalencia:

f ≡ g ⇔ {f (i) : i ∈ Ik } = {g(i) : i ∈ Ik }
⇔ f (Ik ) = g(Ik ) : los conjuntos imagen son los mismos

Sea I(Ik , In )/ ≡ el conjunto de clases de equivalencia. Se tiene

i : Pk (n) → I(Ik , In )/ ≡
B → i(B) = {f ∈ I(Ik , In ) : f (Ik ) = B}

i está bien definido, pues |B| = k = |f (Ik )| ∀f ∈ I(Ik , In ). Además, i es claramente biyección.
Luego:
n!
|Pk (n)| = |I(Ik , In )/ ≡ | =
(n − k)! k!
pues ∀f ∈ I(Ik , In ), |Clase de equivalencia de f | = |P er(f (1), . . . , f (k))| = k!

k
X
Definición Sea In . Sean n1 , . . . , nk ≥ 0 tal que = n. Definimos
i=1

P art(n1 , . . . , nk ) = {(B1 , . . . , Bk ) : conjunto de particiones de In en k conjuntos


B1 , . . . , Bk tal que |Bi | = n1 , ∀i = 1, . . . , k}

Notemos que si k = 2 se tiene n2 = n − n1 , luego P art(n1 , n − n1 ) → Pn1 (n) es una biyección,


pues todo B ∈ Pn1 (n) determina únicamente (B, B c ) ∈ P art(n1 , n − n1 ).
Se tiene:
 k−2
 k−1

   X X
n n − n1 n − nl n − nl
|P art(n1 , . . . , nk )| = ···
n1 n2
 
l=1 l=1
nk−1 nk
 ! 
i−1
X
n− nl ! 
 i−1

k X k 

n − nl Y 
Y 
l=1
= =

  i
! 
l=1  
i=1 i=1 
X
ni n ! n− i n ! l
l=1
n!
=
n1 ! · · · nk !

Hipergeométrica
Hay una urna con n bolas, de las cuales n1 son rojas y n2 = n − n1 son negras. Sea 1 ≤ k1 ≤
k ≤ n. Se saca “al azar” k bolas. ¿Cual es la probabilidad de que se hayan sacado exactamente
k1 bolas rojas? (Con k2 = k − k1 bolas negras)
Clase 07 - 02/04/2013

Revisitemos la Hipergeomeométrica.
In = J ∪· J c In = representa urna con n bolitas
J = conjunto de bolas rojas |J| = n1
J c = conjunto de bolas negras |J c | = n2 = n − n1
El experimento consiste en sacar “al azar” un conjunto de k bolitas. Nos preguntamos por la
probabilidad de que este conjunto contuviera k1 bolitas rojas y luego k2 = k − k1 bolitas negras,
donde 0 ≤ k1 ≤ k ≤ n.
Tomemos:
Ω = Pk (n) = {ω : ω ⊆ In , |ω| = k}
El conjunto “al azar”, es un conjunto ω ∈ Ω que se escoje de manera equiprobable en Ω, es
1 1 1
decir, P({ω}) = = =   , ∀ω ∈ Ω
|Ω| |Pk (n)| n
k
Nos interesa calcular P(A), en donde:

A = {ω ∈ Ω : |ω ∩ J| = k1 , |ω ∩ J c | = k − k1 }
= {ω ∈ Ω : |ω ∩ J| = k1 } Ya que |ω| = k, ∀ω ∈ Ω
X |A| |A|
Con lo que P(A) = P({ω}) = = 
|Ω| n
ω∈A
k
Además |A| : A → Pk1 (n1 ) × P(k2 )(n2 )
ω → ω ∩ J × ω ∩ Jc
que es claramente un biyección, por lo que concluimos que:
     
n n n1 n − n1
k1 k k1 k−k
P(Ak ) =  2 =   2
n n
k k
Que es tambien:   
k n−k
k1 n−k
P(Ak ) =   1
n
n1
En donde In = J ∪ J c ; Ω = Pk (n) = {ω ⊆ In : |ω| = k}; Ak = {ω ∈ Ω : |ω ∩ J| = k} es
cambiada a In = K ∪ K c ; Ωe = Pn (n) = {ω ⊆ In : |ω| = n1 }; A
1
g k1 = {ω̃ ∈ Ω : |ω̃ ∩ K| = k}
e

23
24 ÍNDICE GENERAL

Generalización de la Hipergeométrica
Sea una urna In con n bolas, In esta particionado en bolas de r colores distintos.
[r Xr
In = · Jl , Jl =bolas de color l. Notamos que Jl = nl , luego n = nl
l=1 l=1
Se saca “al azar” un conjunto de k bolas. Cuál es la probabilidad de que obtenga k1 bolas de
r
X
J1 , ..., kr bolas de Jr ? Notar que k = kl
l=1
1 1
Ω = Pk (n) = {ω : ω ⊆ In , |ω| = k}; P({ω}) = = 
|Ω| n
k
Akl = {ω ∈ Ω : |ω ∩ Jl | = kl }, ∀l = 1, . . . , r
Se tiene que Ak1 ...kr → Pk1 (J1 ) × · · · × Pkr (Jr ) es biyección, luego:
ω → (ω ∩ J1 , . . . , ω ∩ Jr )
    Y r  
n1 nr nl
|Ak1 ,...,kr | = ··· =
k1 kr kl
l=1
r  
nl
Y
kl
Luego, la probabilidad buscada es: P(Ak1 ,...,kr ) = l=1  Notemos que si n = 2 es igual a
n
k
lo que habiamos hecho antes.

Observemos que lo hecho anteriormente, es decir, sacar el conjunto ω ∈ Ω = Pk (n) de


manera equiprobable, es enteramente equivalente a: sacar una bola “al azar” de In , llamada v1 ,
sacar una segunda bola “al azar” de In \ {v1 } y ası́ hasta sacar una k-ésima vola “al azar” de
In \ {v1 , . . . , vk−1 }. El conjunto ω = {v1 , . . . , vk } ası́ escogido, es un conjunto de k elementos
elegidos “al azar”, es decir, de manera equiprobable en Pk (n). Este experimento es sacar las
bolas de In sin repetición y sin reposición.
En el caso con reposicion: Se sacan k bolas de manera independiente desde In , cada una de
ellas escogida de manera equiprobable.
Sea x1 , . . . , xk las bolas ası́ escogidas de In . Es decir, xp ∈ In . En este caso |{x1 , . . . , xk }| ≤ k,
1 1
pues puede haber repetición. Ası́, se tiene Ω = Ink y P(x1 , . . . , xk ) = = k
|In |k n
Clase 08 - 04/04/2013

Variables Aleatorias
Sea (Ω, β, P) espacio de probabilidad que consideraremos fijo.

Definición La función X : Ω → R se dice variable aleatoria si ∀C ∈ β(R), X −1 (C) ∈ β, es


decir, {ω ∈ Ω : X(ω) ∈ C} ∈ β, ∀C ∈ β(R)
Es facil mostrar que X : Ω → R es variable aleatoria si y solo si ∀a ∈ R, X −1 ((−∞, a]) ∈ β,
es decir, si y solo si ∀a ∈ R, {ω ∈ Ω : X(ω) ≤ a} ∈ β.

Propiedades

(i) La función constante Xa : Ω → R definida por Xa (ω) = a, ∀ω ∈ Ω es v. a.


(ii) Sea B ∈ β, la función indicadora 1B : Ω → R  es v. a.
1 si ω ∈ B
ω → 1B (ω) =
0 si ω ∈
/B
Más aún, para B ⊆ Ω se tiene que 1B es una v. a. si y solo si B ⊆ β
(iii) Si X es v. a. y α ∈ R, entonces αX es v. a.
(iv) Si X, Y son v. a., entonces X + Y es v.a.
(v) Si X, Y son v. a., entonces X · Y es v. a.
X
(vi) Si X, Y son v. a., Y 6= 0, entonces es v. a.
Y
(vii) Si X, Y son v. a., entonces máx(X, Y ) y mı́n(X, Y ) son v. a.
(viii) Si (Xn : n ∈ N) es familia de v. a. tal que ∃ lı́m Xn , entonces lı́m Xn es v. a.
n→∞ n→∞

Nota Por (iii) y (iv), el conjunto de v. a. es espacio vectorial; por (iii), (iv) y (v) el conjunto
de v. a. es un álgebra conmutativa; por (vii) el conjunto de v. a. es un reticulado (cerrado para
el máximo y el mı́nimo); por (i), (iii), (iv) y (v) el conjunto de v. a. es un álgebra conmutativa
unitaria, pues la funcion constante 1 : Ω → R es el neutro de la multiplicación.
ω → 1(ω) = 1

Demostración Solo la de (ii) y la de (i) por mientras:


(ii) Sea B ∈ β y 1B : Ω → R 
1 si ω ∈ B
ω → 1B (ω) =
0 si ω ∈ /B

25
26 ÍNDICE GENERAL

Para probar que 1B es v. a. debemos probar que ∀C ∈ β(R), 1−1


B (C) ∈ β. Se tiene que
1−1
B (C) = {ω ∈ Ω : 1B (Ω) ∈ β}, asi que, por casos:

Caso 1: Si {0, 1} ⊆ C por definición 1−1


B (C) = Ω ∈ β
/ C por definición 1−1
Caso 2: Si 1 ∈ C, 0 ∈ B (C) = B ∈ β
/ C por definición 1−1
Caso 3: Si 0 ∈ C, 1 ∈ c
B (C) = B ∈ β
/ C por definición 1−1
Caso 4: Si {0, 1} ∈ B (C) = ∅ ∈ β

Como son los unicos casos posibles, concluimos que 1−1


B (C) ∈ β, ∀C ∈ β(R), luego 1B es v. a.

La segunda parte de (ii), resulta de lo hecho previamente (la parte “si”) y de (*?) tomando
C = {1} ∈ P(R), para la parte solo si.

(i) Notemos que si a = 1, X = 1Ω , luego ese caso se deduce de (ii).


En general la función Xa = a es v. a. pues:

Ω si a ∈ C
Xa−1 (C) =
∅ si a ∈
/C

Y como Ω, ∅ ∈ β, se deduce el resultado.


Clase 09 - 09/04/2013

Demostración (Continuación)

(iii) Sea X v. a. y α ∈ R. Digamos α 6= 0. Para C ∈ β(R) debemos mostrar que (αX)−1 (C) ∈
1 1
β. Se tiene (αX)−1 (C) = {ω ∈ Ω : αX(ω) ∈ C} = {ω ∈ Ω : X(ω) ∈ C} = X −1 ( C), en donde
α α
1 1
C = {y ∈ R : αy ∈ C} ∈ β(R). Luego, como X es v. a., X −1 ( C) ∈ β.
α α
(vi) Sean X, Y v. a. Por demostrar que Z = máx(X, Y ) es v. a. Para esto, basta probar que
Z −1 ((−∞, a]) ∈ β ∀a ∈ R

Z −1 ((−∞, a]) = {ω ∈ Ω : Z(ω) ≤ a} = {ω ∈ Ω : máx(X(ω), Y (ω)) ≤ a}


= {ω ∈ Ω : X(ω) ≤ a ∧ Y (ω) ≤ a}
= {ω ∈ Ω : X(ω) ≤ a} ∩ {ω ∈ Ω : Y (ω) ≤ a}
= X −1 ((−∞, a]) ∩ Y −1 ((−∞, a]) ∈ β

Corolario
X
a) Sean X, Y v. a. Entonces, es v. a.
Y {Y 6=0}

b) Sea (Xn : n ∈ N) sucesión de v. a. Entonces ( lı́m Xn ) es v. a.

n→∞ {∃ lı́m Xn }
n→∞

X
Observación Y (ω) = 0 ⇒ = 0 por definición.
Y
es 1 si ∃ lı́m Xn y 0 en caso contrario.


{∃ lı́m Xn } n→∞
n→∞

Notación Escribiremos {X ∈ C} = {ω ∈ Ω : X(ω) ∈ C}. Ası́ mismo, escribiremos su notación


análoga {X1 ∈ C1 , . . . , Xn ∈ Cn } = {ω ∈ Ω : X1 (ω) ∈ C1 , . . . , Xn (ω) ∈ Cn }
También {∃ lı́m Xn } = {ω ∈ Ω : ∃ lı́m Xn }
n→∞ n→∞

Observación Lo que hemos hecho hasta ahora en R tambien se puede hacer en R = R ∪


{−∞, ∞}, llamado R extendido.
β(R) = σ(J), con J = {[−∞, a], [a, ∞], (−∞, a], [a, ∞)}
Todas las propiedades son análogas cuando estan bien definidas:
( (
−∞ · 0 = 0 (±)∞ ± ∞
Definidas: No definidas:
∞·0=0 (±)∞ · (±)∞

27
28 ÍNDICE GENERAL

Propiedad Sean (Xn : n ≥ 1) v. a. tal que ∀n ∈ N Xn : Ω → R (o R). Entonces

lı́m inf Xn y lı́m inf Xn son v. a., lı́m inf y lı́m sup van de Ω a R
n→∞ n→∞

Nota lı́m sup Xn (ω)| lı́m inf Xn (ω) = sup.|ı́nf. de la acumulación de {Xn (ω) : n ∈ N}.
n→∞ n→∞

Definición h : R → R o R → R se dice boreliano si ∀C ∈ β(R) : h−1 (C) ∈ β(R), con


h−1 (C) = {x ∈ R : h(x) ∈ C}. Se prueba que esta propiedad es equivalente a:

∀a ∈ R, h−1 ((−∞, a]) = {x ∈ R : h(x) ≤ a} ∈ β(R)

Nota Todas las funciones continuas o con un conjunto aislado numerable de discontinuida-
des son funciones borelianas.
Si C ∈ β(R), la indicadora 1C es boreliana.
El conjunto de funciones borelianas tiene las propiedades ya descritas de v. a. (espacio
vectorial, reticulado, álgebra unitaria).

Propiedad Sea X : ω → R y h : R → R boreliano, entonces h◦X : Ω → R es v. a.

Demostración Sea C ∈ R. Entonces (h◦X)−1 (C) = X −1 (h−1 (C)) ∈ β

Definición y Propiedad Sea X : Ω → R una v. a., entonces PX : β(R) → [0, 1] es


C → P(X −1 (C))
una medida de probabilidad en (R, β(R)) que se llama probabilidad inducida por X o ley de X.

Demostración

(0) PX esta bien definida en β(R) pues X es v. a. Luego ∀C ∈ β(R), X −1 (C) ∈ β, luego
∃ P(X −1 (C)) ∈ [0, 1]
(1) PX (R) = P(X −1 (C)) = P(Ω) = 1
(2) Sean (Cn : n ∈ N) ⊆ β(R) familia disjunta de borelianos. Entonces:
! ! !
[ [ [ X X
−1 −1
PX · Cn = P(X · Cn ) = P · (X Cn ) = P(X −1 (Cn )) = PX (Cn )
n∈N n∈N n∈N n∈N n∈N

Observación Notemos que para Xi : Ω → R v. a. ∀i = 1, . . . , n se tiene:

∀C1 , . . . , Cn ∈ β(R), {ω ∈ Ω : Xi (ω) ∈ Ci , ∀i = 1, . . . , n} ∈ β


n
\ n
\
{Xi ∈ Ci ∀i = 1, . . . , n} = {Xi ∈ Ci } = X −1 (Ci ) ∈ β
i=1 i=1
ÍNDICE GENERAL 29

Definición Las v. a. X1 , . . . , Xn se dicen (P-)independientes si:


n
Y
P({Xi ∈ Ci , ∀i = 1, . . . , n}) = P(Xi ∈ Ci ), ∀C1 , . . . , Cn ∈ β(R)
i=1

n
! n
\ Y
Esto es: P {Xi ∈ Ci } = P(Xi ∈ Ci )
i=1 i=1
Yn
= PXi (Ci )
i=1

Propiedad Para X v. a., σ(X) = {X −1 (C) : C ∈ β(R)} es una σ-álgebra contenida en β.


Se tiene que X1 , . . . , Xn son independientes si y solo si las σ-algebras σ(X1 ), . . . , σ(Xn ) son
independientes entre si (en (Ω, β, P))

Demostración Ejercicio.
30 ÍNDICE GENERAL
Clase 10 - 16/04/2013

Variables Aleatorias Discretas


Definición X : Ω → R v. a. se dice discreta si la imagen X(Ω) es un conjunto que notamos
I = X(Ω), tal que I ⊆ R numerable. Equivalentemente lo podriamos definir como X : Ω → I v.
a. tal que I es conjunto numerable; esto ocurre si y solo si

X −1 ({a}) = {ω ∈ Ω : X(ω) = a} ∈ β, ∀a ∈ I
Admitimos la generalización siguiente: X : Ω → R v. a. d. si ∃I ⊆ R numerable tal que
P(X ∈ I) = 1

Definición Sea X : Ω → I v. a. d. Definimos su función de densidad discreta por:


PX (a) = P(X = a), a ∈ I
La función de densidad se extiende a R si PX (x) = 0, x ∈
/ I.
Como P(X ∈ I) = 1, se tiene que:
X
• PX (a) ≥ 0 • PX (a) = 1
a∈I

Observación Si Xi : Ω → Ii , i = 1, . . . , n son v. a. d., siempre podemos suponer Xi : Ω → I,


[ n
∀i = 1, . . . , n, tomando I = Ii . Analogamente si Xi : Ω → Ii es v. a. d para i ∈ N, lo podemos
[ i=1
hacer si tomamos I = Ii .
i∈N

Propiedad Sean Xi : Ω → I, i = 1, . . . , n v. a. d., entonces ellas son independientes si y solo


si n
\
!
Y n
P {Xi = ai } = P(Xi = ai )
i=1 i=1
En efecto, esto implica
n
! n
\ Y
P {Xi ⊆ Ci } = P(Xi ⊆ Ci ) ∀Ci ∈ I, i = 1, . . . , n
i=1 i=1
Y por otra parte esto implica que se cumple ∀Ci ∈ P(R), pues
n
! n
!
\ \
P {Xi ⊆ Ci } = P {Xi ⊆ (Ci ∩ I)}
i=1 i=1
ya que n
!
\
c
P {Xi ⊆ (Ci ∩ I )} =0
i=1

31
32 ÍNDICE GENERAL

Clases de Variables Aleatorias Discretas


1ra Clase - Constante
Sea a0 ∈ R. Xa0 : Ω → R es v. a. d. con I = {a0 }. En este caso
ω → X(ω) = a0
(
1 Si a = a0
PXa0 (a) = δa,a0 = Se dice Xa0 v. a. constante a0 .
0 Si a 6= a0

2da Clase - Bernoulli(p)


Sea p ∈ [0, 1], X : Ω → R es v. a. Bernoulli(p) si P(X ∈ {0, 1}) = 1 tal que P(X = 0) = 1 − p
P(X = 1) = p

Nota Si p = 0 o p = 1, es igual a la v. a. constante X0 o X1 respectivamente.

Y −a
Observación Sean a, b ∈ R, a 6= b. Si P(Y = a) = 1 − p , entonces X = es Bernoulli(p).
b−a
P(Y = b) = p
Dicho de otro modo, si X es Bernoulli(p), entonces Y = a + bX es tal que P(Y = a) = 1 − p .
P(Y = b) = p

3ra Clase - Binomial(n, p)


Sea n ≥ 1, p ∈ [0, 1]. X : Ω → R v. a. d. se dice Binomial(n, p) si P(X ∈ {0, . . . , n}) = 1 y
 
n k
PX (k) = P(X = k) = p (1 − p)n−k , ∀k ∈ {0, . . . , n}
k

Nota En lo anterior 0k = 0 si k > 0, 00 = 1. Observemos que


n n  
X X n k
PX (k) = p (1 − p)n−k = (p + (1 − p))n = 1
k
k=0 k=0

n
X
Propiedades Sean X1 , . . . , Xn v. a. Bernoulli(p) independientes. Entonces Y = Xi es
  i=0
n k
Binomial(n, p), es decir, P(Y = k) = p (1 − p)n−k , ∀k = 0, . . . , n
k
Nota Binomial se puede ver como el numero k de caras que aparecen en n lanzamientos.

Demostración
n
!
X
P(Y = k) = P Xi = k= P(|{i ∈ {1, . . . , n} : Xi = 1}| = k)
i=1 !
[ X
=P {{i ∈ In : Xi = 1} = J} = P(Xi = 1, ∀i ∈ J; Xi = 0, ∀i ∈ J k )
J⊆In J⊆In
|J|=k |J|=k  
X Y Y X
|J| n−|J| n k
= ( P(X = 1))( P(X = 0)) = p (1 − p) = p (1 − p)n−k
0
|{z} k n
J⊆In i∈J i∈J J⊆In |{J⊆In :|J|=k}|=( k )
|J|=k |J|=k
ÍNDICE GENERAL 33

Relación entre Bernoulli(p) y la Indicadora Sea X v. a. Bernoulli(p). Entonces, X(ω) ∈


{0, 1} ∀ω ∈ Ω, de donde X = 1B con B = {ω ∈ Ω : X(ω) = 1}. En efecto,
(
1 Si ω ∈ B ⇔ X(ω) = 1
X(ω) = 1B (ω) =
0 Si ω ∈/ B ⇔ X(ω) = 0
Se tiene P(B) = p, pues P(B) = P(X = 1) = p ⇒ X Bernoulli(p) es indicadora. Notemos que
X = 1B = 1{X=1}

Observación Si Xi v. a. Bernoulli(p) ∀i = 1, . . . , n, ellas son independientes si y solo si


(Bi : i = 1, . . . , n) son independientes, ya que Bi = 1{Xi =1} , ∀i = 1, . . . , n

Definición La sucesión de v. a. Xm : Ω → R, n ∈ N son independientes si y solo si ∀N ∈ N :


X1 , . . . , XN son independientes. Es decir, una familia de v. a. es independiente si y solo si toda
subfamilia finita de ellas es independiente.

4ta Clase - Geométrica(p)


Sea p ∈ [0, 1]. La v. a. Z : Ω → R se dice Geométrica(p) si

P(Z ∈ N) = 1 y PZ (k) = P(Z = k) = (1 − p)k−1 p, ∀k ∈ N

Nota En lo anterior 0k = 0 si k > 0, 00 = 1. Observemos que


X X 1
PZ (k) = (1 − p)k−1 p = p =1
1 − (1 − p)
k∈N k≥1

Propiedad Sea (Xi : i = 1 ∈ N) una familia independiente de v. a. Bernoulli(p). Entonces,


Y = ı́nf({i ∈ N : Xi = 1}) es Geométrica(p), es decir: P(Y = k) = (1 − p)k−1 p, ∀k ∈ N

Demostración
P(Y = k) = P(ı́nf({i ∈ N : Xi = 1}) = k) = P(Xi = 0 ∀i < k; Xk = 1)
k−1
Y
= P(Xi = 0)P(Xk = 1) = (1 − p)k−1 p
i=1

Nota P(Y = N) = 1, pues Y ∈ N ∩ {∞}, pero P(Y = ∞) Y= 0. Observemos que Y = ∞ ⇔


Xi = 0 ∀i ∈ N, por lo que P(Y = ∞) = P(Xi = 0 ∀i ∈ N) = (1 − p) = 0
i∈N

Observación Si Z Geométrica(p)⇒ W = Z − 1 es Geométrica(p) en {0, 1, . . .}. Se tiene que

P(W ∈ {0, 1, . . .}) = 1


PW (k) = P(W = k) = P(Z − 1 = k) = P(Z = k + 1) = (1 − p)(k+1)−1 p = (1 − p)k p, ∀k ≥ 0

5ta Clase - Poisson(λ)


Sea λ > 0 ∈ R. La v. a. X se dice Poisson(λ) si
λk −λ
P(X ∈ Z+ ) = 1 y PX (k) = P(X = k) = e , ∀k ≤ 0
k!
34 ÍNDICE GENERAL

Comprobemos Se tiene
X X λk
P(X ∈ Z+ ) = PX (k) = e−λ = eλ e−λ = 1
k!
k∈Z+ k∈Z+

Propiedad → λ
Sea X Poisson(λ), entonces si Yn es Binomial(n, p(n)) y np(n) |{z}
n→∞
P(X = k) = lı́m P(Yn = k)
x→∞
Se puede interpretar como el numero de llamadas recibidas en una unidad de tiempo con una
escala λ
Clase 11 - 18/04/2013

Función de Distribución
Tratemos el caso general de v. a. de X → R. Vamos a describir PX (que la llamaremos ley
de X) como PX (C) = P(X −1 ∈ C) = P(X ∈ C) Cuando C = (−∞, ∞] se tiene PX ((−∞, x]) =
P(X ≤ x), x ∈ R Vemos que esto ultimo caracteriza la ley de X. A continuacion definiremos y
consideraremos generales:

Definicion F : R → [0, 1] se dice funcion de distribucion si verifica:


(0) F : R → [0, 1] es funcion
(1) F creciente, es decir, x ≤ y ⇒ F (x) ≤ F (y)
(2) F continua a la derecha, es decir, F (x+ ) = F (x), donde F (x+ ) = lı́m+ F (x + h) (3) F (0) = 1
h→0
(4) F (∞) = 0, donde F (∞) = lı́m F (x)
x→∞

Observaciones
• Siempre existe F (x− ) = lı́m+ F (x − h) ∀x ∈ R
h→0
• x es punto de continuidad si F (x− ) = F (x+ ) = F (x)
• x es punto de discontinuidad si F (x− ) 6= F (x+ ) (Obviamente se tiene F (x− ) ≤ F (x+ ))
Notamos DF = {x : F (x− ) = 6 F (x+ )} el conjunto de discontinuidades de F

Teorema
a) Si P es una medida de probabilidad en (R, β(R)), entonces F (x) := P((−∞, x]), x ∈ R define
una función de distribución.
b) Si F : R → [0, 1] es función de distribución, entonces ∃!P medida de probabilidad en (R, β(R))
tal que F (x) = P((−∞, x])

Demostración Solo demostraremos a).


Sea P medida de probabilidad en (R, β(R)). Debemos demostrar que F (x) = P((−∞, x]), x ∈
R verifica (0) a (4) para ser distribucion.
(0) Como (−∞, x] ∈ β(R), P((−∞, x]) esta bien definido y como P es medida de probabilidad
P((−∞, x]) ∈ [0, 1]
(1) x ≤ y ⇒ (−∞, x] ⊆ (−∞, y) |{z} ⇒ P((−∞, x]) ≤ P((−∞, y]) ⇔ F (x) ≤ F (y)
P creciente
(2) F (x+ ) = F (x) equivale a: ∀hn > 0, hn → 0 se tiene lı́m F (X + hn ) = F (x). Entonces, sea
n→∞ \
hn que cumple con lo pedido. Se tiene (−∞, x + hn ] decreciente y (−∞, x] = (−∞, x + hn ].
n∈N
Por continuidad monotona de P: P((−∞, x]) = F (x) = lı́m P(−∞, x + hn ] = F (x+ )
n→∞

35
36 ÍNDICE GENERAL
[
(3) Si xn → ∞, se tiene (−∞, xn ) creciente y R = (−∞, xn ). Por continuidad monotona
! n∈N
[
P(R) = P (−∞, xn ) ⇒ lı́m F (x) = 1
n→∞
n∈N
\
(4) Si xn → −∞, (−∞, xn ] es decreciente y ∅ = (−∞, xn ], por lo que
n∈N
P(∅) = lı́m P((−∞, xn ]) ⇒ lı́m F (xn ) = 0
n→∞ n→∞

Propiedades Para F (x) = P((−∞, x]), se tiene:


(a) P((−∞, x)) = F (x− ), ∀x ∈ R
(b) P({x}) = F (x) − F (x− )
(c) P((a, b]) = F (b) − F (a)
(d) P((a, b)) = F (b− ) − F (a)
(e) P([a, b]) = F (b) − F (a− )
(f) P([a, b)) = F (b− ) − F (a− )
(g) P([a, ∞)) = 1 − F (a− )
(h) P((a, ∞)) = 1 − F (a)

Demostración Con (a) se obtienen todas las demas, asi que demostramos solo esa:
(a) Consideramos hn > 0, hn → 0. Se tiene F (x− ) = lı́m F (x − hn ) = lı́m P((−∞, x − hn ))
n→∞ n→∞
Clase 12 - 23/04/2013

Nota Observemos que si F (a− ) = 0, entonces P([a, ∞)) = 1, luego P(C) = P(C ∩[a, ∞)), ∀C ∈
β(R). Si la (función
Z de) distribución F tiene densidad f , entonces f (z) = 0, ∀z ∈ (−∞, a) y
luego P(C) = f (z) dz
C∩[a,∞)

Observación Sea F (función de) distribución con (función de) densidad f . Notemos que f
puede ser alterado o redefinido en un conjunto finito o numerable de punto sin que F o P sean
modificados. Más generalmente, f puede modificarse en un conjunto A tal que λ(A) = 0 sin que
F o P sean modificados. Aqui λ : β(R) → [0, ∞) es la medida de Lebesgue.

Variables Aleatorias Absolutamente Continuas


Sea X : Ω → R v. a. La medida de probabilidad PX : β(R) → [0, 1] llamada ley de X carac-
terizada por la función de distribucion de X= FX : R → [0, 1]
x → FX (x) = PX ((−∞, x)) = P(X ≤ x)
Se tiene DFX = {x ∈ R : FX (x) 6= FX (x− )} conjunto numerable.
= {x ∈ R : PX ({x}) ≥ 0} = {x ∈ R : P(X = x) ≥ 0}
Si PX (DFX ) = 1 se tiene que X es v. a. discreta, pues toma valores en el conjunto numerable
DFX .
Si PX (DFX ) = 0, se tiene P(X = x) = 0 ∀x ∈ R, o equivalentemente FX (x) = FX (x− ) ∀x ∈
R, es decir FX es continua.

Definición X es v. a. absolutamente continua si su función de distribución FX es absoluta-


d(FX (x))
mente continua, es decir si: ∃fX (x) = , ∀x ∈ R llamada densidad de X y que verifica:
dx
Z∞ Z
fX ≥ 0 y fX (z) dz = 1. Luego, ∀C ∈ β(R) se tiene PX (C) = P(X ∈ C) = fX (z) dz
−∞ C
Por lo dicho anteriormente, fX esta definida salvo en un conjunto que tenga medida de
Lebesgue 0.
Escribiremos X ∼ FX o X ∼ fX para decir respectivamente que X tiene distribucion FX o
densidad fX .

37
38 ÍNDICE GENERAL

Familias de Variables Aleatorias Absolutamente Continuas


1ra Familia - Uniforme
Definición Sea a < b. La variable aleatoria X se dice uniforme [a, b] si es abs. continua con den-

 z− 0 si z < a
1 a
sidad fX (z) = · 1[a,b] (z) y función de distribución asociada FX (z) = si z ∈ [a, b]
b−a 
 b − a
1 si z > b
1
Además PX (C) = PX (C ∩ [a, b]) = = λ(C ∩ [a, b]), λ medida de Lebesgue.
b−a
Para definir la uniforme podemos utilizar 1|a,b| en vez de 1[a,b] , pues fX se puede modificar
en un número finito de puntos.

Propiedad Sea U v. a. uniforme [0, 1). Entonces, la v. a. X = a + (b − a)U es uniforme [a, b].
En efecto:
0 si x < a

  
x − a
x−a
FX (x) = P(X ≤ x) = P(a + (b − a)U ≤ x) = P U ≤ = si x ∈ [a, b]
b−a b−a


1 si x > b

2da Familia - Exponencial (λ)


Sea λ > 0. La v. a. X se dice Exponencial (λ) si es abs. continua con densidad fX (z) =
Z∞ Z∞ ∞
λe−λz · 1(0,∞) (z). A λ se le llama tasa. Es claro que fX (z) dz = fX (z) dz = −e−λz = 1.

0
( −∞ 0
−λx
1−e si x > 0
Su función de distribución es FX (x) = . Luego, FX (x) = 1 − FX (x) =
0 si x ≤ 0
P(X > x) = e−λx , ∀x > 0
X
Nota Si Y ∼Geometrica(p), P(Y > n) = (1 − p)k−1 = (1 − p)n = e−θn , con θ =
k>n
− log(1 − p) si p ∈ (0, 1)
Luego, la Exponencial es la versión continua de la Geométrica.

3ra Familia - Gamma (α)


Z∞
Sea α > 0. Recordemos que Γ(α) = e−x xa−1 dx esta en (0, ∞) y se verifica Γ(n) = (n − 1)!,
0
para n ∈ N.
e−z z α−1
La v. a. X se dice Gamma(α) si es abs. continua con densidad fX (z) = · 1(0,∞) (z)
Γ(α)

Z∞
g(z)
Nota General Si g(x) ≥ 0 y 0 < g(x) dx < ∞, entonces f (z) = R∞ es función de
−∞ g(x) dx
−∞
densidad (es decir, es la normalización de g)
ÍNDICE GENERAL 39

4ta Familia - Normal o Gaussiana


Sea µ ∈ R y σ > 0. La v. a. X se dice N (µ, σ 2 ) si es absolutamente continua con densidad
Z∞
1 1
·( z−µ )
2
fX (z) = √ e 2 σ , z ∈ R. Es claro que fX ≥ 0. Probemos que fX (z) dz = 1.
σ 2π
−∞

z−µ
Demostración Tomando y = debemos mostrar que
σ
Z∞ Z∞ r
1 2
− y2 − y2
2
π
√ e dy = 1, equivalente a e dy =
2π 2
−∞ 0

y
Haciendo el cambio x = √ queda
2
Z∞ √ Z∞ Z∞
2 π 2
+y 2 ) π
e−x dx = equivalente a e−(x dx dy =
2 4
0 0 0

Luego, haciendo el cambio a coordenadas polares:


π
Z∞ Z2
2 π
r e−r dθ dr =
4
0 0

Que es fácil ver que se cumple.

Propiedad Sea X ∼ N (0, 1). Entonces Y = µ + σX ∼ N (µ, σ 2 ).

Demostración Sea Y = µ + σX. Se tiene


y−µ y−µ
FY (z) = P(Y ≤ y) = P(µ + σX ≤ y) = P(X ≤ ) = FX ( )
σ σ
Luego Y es abs. continua con densidad

d(FY (z)) d(FX ( y−µ


σ )) 1 y−µ 1 z−µ 2
) = √ e 2 ·( σ ) ∼ N (µ, σ 2 )
1
fY (z) = (y) = = fX (
dz dy σ σ σ 2π
40 ÍNDICE GENERAL
Clase 13 - 25/04/2013

Independencia
Propiedad Si X1 , . . . , Xn son v. a. independientes y hi : R → R, ∀i = 1, . . . , n son funciones
borelianas, entonces las v. a. h1 (X1 ), . . . , hn (Xn ) son independientes.

Demostración {hi (Xi )Ci } = {Xi ∈ h−1


i (Ci )}, Ci ∈ β(R) por ser boreliano.
De donde
P(hi (Xi ) ∈ Ci , ∀i = 1, . . . , n) = P(Xi ∈ h−1
i (Ci ), ∀i = 1, . . . , n)
Yn n
Y
= P(Xi ∈ h−1
i (C i )) = P(hi (Xi ) ∈ Ci )
i=1 i=1

Propiedad Es facil ver que las v. a. son independientes si y solo si


n
Y
P(Xi ≤ ai , ∀i = 1, . . . , n) = P(Xi ≤ ai ), ∀a1 , . . . , an ∈ R
i=1
Yn
= FXi (ai )
i=1

Nota En lo que sigue notaremos: FX1 ,...,Xn : R → [0, 1] que llama-


(a1 , . . . , an ) → FX1 ,...,Xn (a1 , . . . , an )
remos función de distribución conjunta de las v. a. X1 , . . . , Xn . Ella verifica:
(0) FX1 ,...,Xn es función
(1) FX1 ,...,Xn es creciente: xi ≤ yi ∀i = 1, . . . , n ⇒ FX1 ,...,Xn (x1 , . . . , xn ) ≤ FX1 ,...,Xn (y1 , . . . , yn )
(2) FX1 ,...,Xn es continua por la derecha: FX1 ,...,Xn ((x1 , . . . , xn )+ )
= lı́m + . . . lı́m + FX1 ,...,Xn (x1 + h1 , . . . , xn + hn ) = FX1 ,...,Xn (x1 , . . . , xn )
h1 →0 hn →0

(3) FX1 ,...,Xn (∞, . . . , ∞) = lı́m . . . lı́m FX1 ,...,Xn (x1 , . . . , xn ) = 1


x1 →∞ xn →∞

(4) FX1 ,...,Xn (a1 , . . . , −∞, . . . , an ) = lı́m FX1 ,...,Xn (x1 , . . . , xi , . . . , xn ) = 0


|{z} xi →−∞
Posición i

Como en el caso real, se tiene que FX1 ,...,Xn : Rn → [0, 1] caracteriza la medida de probabi-
lidad PX1 ,...,Xn : β(Rn ) → [0, 1] ∀D ∈ β(Rn ),
D → PX1 ,...,Xn (D) = P({(X1 , . . . , Xn ) ∈ D})
= P({ω ∈ Ω : (X1 (ω), . . . , Xn (ω)) ∈ D})
que es llamada ley conjunta de X1 , . . . , Xn

41
42 ÍNDICE GENERAL

Con esta notacion, las v. a. X1 , . . . , Xn son independientes si y solo si


n
Y
FX1 ,...,Xn (x1 , . . . , xn ) = FXi (xi )
i=1

Nota (X1 , . . . , Xn ) : Ω → Rn se llama vector aleatorio; con ley PX1 ,...,Xn en


ω → (X1 (ω), . . . , Xn (ω))
(Rn , β(Rn )) y distribución FX1 ,...,Xn

Definición El vector aleatorio (X1 , . . . , Xn ) se dice abs. continuo si ∃fX1 ,...,Xn : Rn → R+ que
Zx1 Zxn
verifique: FX1 ,...,Xn (x1 , . . . , xn ) = · · · fX1 ,...,Xn (z1 , . . . , zn ) dz1 . . . dzn , ∀(x1 , . . . , xn ) ∈ Rn
−∞ −∞
A fX1 ,...,Xn se le llama (función de) densidad conjunta de (X1 , . . . , XN ). Necesariamente
fX1 ,...,Xn verifica:

(0) fX1 ,...,Xn : Rn → R


(1) fX1 ,...,Xn ≥ 0
Z∞ Z∞
(2) · · · fX1 ,...,Xn (z1 , . . . , zn ) dz1 . . . dzn = 1
−∞ −∞

d(FX1 ,...,Xn )
Además se cumple: (x1 , . . . , xn ) = fX1 ,...,Xn (x1 , . . . , xn ), ∀(x1 , . . . , xn ) ∈ Rn
dx1 , . . . , dxn

Nota En este contexto fXi se llama la densidad marginal de fX1 ,...,Xn (Lo mismo con FXi , que
se llama la distribución marginal de FX1 ,...,Xn )

Propiedad Las v. a. X1 , . . . , Xn absolutamente continuas (conjuntamente) son independientes


si y solo si: n
Y
fX1 ,...,Xn (x1 , . . . , xn ) = fXi (xi )
i=1

Es decir, la densidad conjunta en el producto de las densidades marginales.

Demostración Tenemos que las v. a. X1 , . . . , Xn son independientes si y solo si


n
Y
FX1 ,...,Xn (x1 , . . . , xn ) = FXi (xi )
i=1 Zx1 Zxn
dn
Aplicando se obtiene lo buscado. Reciprocamente, si aplicamos · · · a fX1 ,...,Xn
dx1 , . . . , dxn
−∞ −∞
obtenemos lo aquı́ presentado.

Nota Todo lo relativo a densidad conjunta es salvo conjunto de medida de Lebesgue 0 en Rn


Observemos que si X es abs. continua, entonces Y = X 2 es abs. continua, pero el vector
aleatorio (X, X 2 ) no es abs. continuo.

Definición La sucesión de v. a. X1 , . . . , Xn son independientes si y solo si ∀n ≥ 1; X1 , . . . , Xn


son independientes.
ÍNDICE GENERAL 43

Cambio de Variables
Lo haremos solo en caso de una v. a. (más adelante veremos el caso del vector aleatorio).

Teorema Sea X : Ω → R v. a. abs. continua con densidad fX y sea h : R → R con derivada


continua. Entonces:

Y = h◦X : Ω → R
ω → Y (ω) = h◦X(ω) = h(X(ω))

Es v. a. abs. continua cuya función de densidad fY verifica:


X 1
fY (y) = · fX (X(y)), ∀y ∈ R
|h0 (X(y))|
X(y)∈h−1 ({y})

Luego, si h es inyectiva (como h : R → R esto significa h creciente o decreciente), lo anterior


es:
1
fY (y) = · fX (h−1 (y)), ∀y ∈ R
|h0 (h−1 (y))|

Nota Sea S = h(X(Ω)) ⊆ R, el rango de h ◦ X. Entonces, las 2 anteriores ecuaciones se


deben leer ∀y ∈ S en vez de ∀y ∈ R
Por otra parte, se necesita que {z ∈ S̃ : h0 (z) = 0} sea un conjunto de puntos aislados. Donde
S̃ abierto, X(Ω) ⊆ S̃, (h : S̃ → S).

Demostración Lo hacemos considerando todas las regularidades que necesitamos. Sea h


creciente con h0 > 0.
FY (y) = P(Y ≤ y) = P(h◦X ≤ y)
= P(X ≤ h−1 (y)) = FX (h−1 (y))
|{z}
h creciente
d
Aplicando queda:
dy
d(FY (y)) d(FX (h−1 (y))) 1
fY (y) = = = fX (h−1 (y)) 0 −1
dy dy h (h (y))

Sea h decreciente con h0 < 0.


FY (y) = P(Y ≤ y) = P(h◦X ≤ y)
= P(X ≥ h−1 (y)) = P(X > h−1 (y)) = 1 − FX (h−1 (y))
|{z}
h decreciente

d
Aplicando queda:
dy
1 1
fY (y) = −fX (h−1 (y)) = fX (h−1 (y)) 0 −1
h0 (h−1 (y)) |h (h (y))|

Veamos el caso no inyectivo: Por simpleza solo veremos el caso h0 6= 0, excepto por el punto
0
h (x0 ) = 0, en que la situacion es un “maximo” o “minimo”.
44 ÍNDICE GENERAL

Sea y ∈ [0, h(x0 )], h−1 (y) = {X− (y), X+ (y)}:

FY (y) = P(Y ≤ y) = P(ω : h(X(ω)) ≤ y)


= P(ω : X(ω) ≤ X− (y) ∨ X(ω) ≥ X+ (y))
= P(X ≤ X− (y)) + P(X ≥ X+ (y))
|{z} | {z }
disjuntos abs. continua
= FX (X− (y)) + (1 − FX (X+ (y)))
Luego:
d(X− (y)) d(X+ (y))
fY (y) = fX (X− (y)) · − fX (X+ (y)) ·
dy dy
1 1
= fX (X− (y)) · 0 + fX (X+ (y)) · 0
|h (X− (y))| |h (X+ (y))|
X 1
= fX (X(y)) · 0
−1
|h (X(y))|
X(y)∈h (y)
Clase 14 - 29/04/2013
Z
Si X v. a. abs. continua, entonces PX (x ∈ R : fX (x) > 0) = 1, pues fX (x)dx = 0. Luego,
{x:fX (x)=0}
en caso abs. continuo, podemos suponer que:

X(Ω) = {x ∈ R : fX (x) > 0}

Ası́ pues, sea D abierto, {x : fX (x) > 0} ⊆ D, que lo llamaremos S̃. Para h : D → R con
derivada continua y tal que {x ∈ D : h0 (x) = 0} es un conjunto finito de puntos aislados. Se
tendra que la v. a. Y = h◦X verifica el teorema ya enunciado.
Y es absolutamente continua con densidad fY tal que FY (y) = 0 si y ∈
/ h(D). Para y ∈ h(D):

X 1
fY (y) = fX (X(y)) ·
|h0 (X(y))|
X(y)∈h−1 (y)

Si h es inyectivo, para y ∈ h(D):


1
fY (y) = fX (h−1 (y))
|h0 (h−1 (y))|

Ejemplo Sea X v. a. abs. continua con fX (x) > 0 ∀x ∈ R. Sea h : R → R con h(x) = x2 .
Y = h◦X = X 2 (y). Por lo anterior D = R = {x : fX (x) > 0}; h(D) = R+ . Y tiene densidad
fY (y) = 0 si y ∈
/ R+ . Además, podemos considerar fY (0) = 0
Para y > 0 se tiene:
√ √
FY (y) = P(Y ≤ y) = P(X 2 ≤ y) = P(− y ≤ X ≤ y)
√ √ √ √
= P(X ≤ y) − P(X ≤ − y) = FX ( y) − FX (− y)

d
Luego, :
dy
√ 1 √ 1
fY (y) = fX ( y) √ + fX (− y) √
2 y 2 y

√ √ X 1
h−1 (y) = {− y, y}, fY (y) = fX (X(y)) ·
|h0 (X(y))|
X(y)∈h−1 (y)

Complemento a la densidad del vector aleatorio.

45
46 ÍNDICE GENERAL

Proposición Sean X1 , ldots, Xn v. a. Supongamos que el vector aleatorio (X1 , . . . , Xn ) tiene


densidad conjunta fX1 ,...,Xn , es decir:
Z
P(ω : (X1 (ω), . . . , Xn (ω) ∈ C) = fX1 ,...,Xn (x1 , . . . , xn )dX1 , . . . , dXn ∀C ∈ β(Rn )
C

Entonces cada v.a X1 es abs. continua con densidad fXi dada por
+∞
Z +∞
Z Z
fXi (xi ) = dz1 · · · dzn fX1 ,...,Xn (z1 , . . . , xi , . . . , zn ), Sin tomar en cuenta zi
|{z}
−∞ −∞ posicion i

Demostración
FXi = P(Xi ≤ xi ) = P(X1 ≤ ∞, . . . , Xi ≤ xi , . . . , Xn ≤ Xn )
= P((X1 , . . . , Xn ) ∈ (−∞, xi ) × Rn−1 )
+∞
Z Zxi +∞
Z
= dz1 · · · dzi · · · dzn fX1 ,...,Xn (z1 , . . . , zn )
−∞ −∞ −∞
Zx
d
h(t)dt = h(x) ⇒
dx
−∞
+∞
Z +∞
Z
dFXi (xi )
fXi (xi ) = = dz1 · · · dzn fX1 ,...,Xn (z1 , . . . , xi , . . . , zn )
dxi
−∞ −∞

Esperanza
La esperanza es el valor medio o “esperado” de una v. a.

Definición Sea X v. a. Entonces, cuando existe su esperanza es:


+∞
Z
E(X) = x dFX (x)
−∞

+0
Z− +∞
Z
Sobre la existencia: E(X) = x dFX (x) + x dFX (x)
−∞ 0−
| {z } | {z }
≤0 ≥0
Z0− Z∞
• E(X) no existe si x dFX (x) = −∞ y x dFX (x) = ∞
−∞ 0−
Z0− Z∞
• E(X) existe si x dFX (x) > −∞ y/o x dFX (x) > ∞ (el y implica que es finito)
−∞ 0−
Cada vez que escribamos E(X) supondremos que existe y es finita.
ÍNDICE GENERAL 47

Propiedades

(a) Si Xa = a, v. a. cte.E(Xa ) = a
(b) Si X = 1B con B ∈ β (funciń indicadora)E(1B ) = P(B)
(c) X ≥ 0 ⇒ E(X) ≥ 0; X ≥ Y ⇒ E(X) ≥ E(Y )
(d) X, Y v. a. α, β ∈ R. Entonces: E(αX + βY ) = αE(X) + βE(Y ). (Lineal)
X
(e) Si X es discreta, es decir para cierto I numerable X = a1{X=a} , entonces
a∈I
X X
E(X) = aP(X = a) = aPX (a)
a∈I a∈I
+∞
Z
(f) Si X es abs. continua con densidad fX : E(X) = x fX (x)dx
−∞
+∞
Z
(g) Si h : R → R Boreliano, entonces E(h(X)) = h(x) dFX (x), dFX (x)
−∞

(g’) E(X − E(X)) = 0


(h) Si X, Y son v. a. independientes, entonces E(XY ) = E(X)E(Y ). Aún más, si
ϕ : R → R y ψ : R → R son borelianas, entonces ϕ(X), ψ(Y ) son independientes,
por lo que E(ϕ(X)ψ(Y )) = E(ϕ(X))E(ψ(Y ))
(i) Si h : R → R es convexa, E(h(X)) ≥ h(E(X)). Si es concava, E(h(X)) ≤ h(E(X))
(j) Si Xn % X puntualmente y monotonamente, entonces E(Xn ) % E(X).
Si Xn & X puntualmente y monotonamente, entonces E(Xn ) & E(X)
→ X puntualmente y se tiene |Xn | ≤ Y con E(Y ) < ∞, entonces E(Xn ) |{z}
Si Xn |{z} → E(X)
n→∞ n→∞
48 ÍNDICE GENERAL
Clase 15 - 02/05/2013

Demostración Propiedades de la clase anterior


(a) Sea Xa = a v. a. cte. FXa (x) = P(Xa ≤ a) = P(a ≤Xa ) = escalón de Heaviside
1 Si x ≥ a
= 1a =
0 Si x < a
Z∞
E(Xa ) = x dFXa (x) = a (FXa (a) − FXa (a− )) = a
| {z }
−∞ =1

0
 Si x < 0
c
(b) Sea B ∈ β, X = 1B FX (x) = P(ω : 1B (ω) ≤ x) = P(B ) = 1 − P(B) Si x ∈ [0, 1)

1 Si x ≥ 1

+∞
Z
Entonces E(1B ) = xdFX (x) = 0(1 − P(B)) + 1(1 − (1 − P(B))) = P(B)
−∞
X
(e) X discreta a valores en I ⊆ R numerable. X = P(X = a) Entonces
a∈I
Z∞ X X
E(X) = xdFX (x) = a(FX (a) − FX (a− )) = aP(X = a)
−∞ a∈I a∈I

(h) Probemoslo solo para X = 1B y Y = 1D con B, D ∈ β. 1B y 1D independientes ⇔ B y D


independientes.
E(1B 1D ) = E(1B∩D ) = P(B ∩ D) = P(B)P(D) = E(1B )E(1D )

Propiedades
(a) Si X1 , . . . , Xn son v. a. y h : Rn → R función boreliana, entonces
h(X1 (ω), . . . , Xn (ω) : Ω → R es v. a. Se tiene
ω → h(X1 , . . . , Xn )
Z
E(h(X1 , . . . , Xn )) = h(X1 , . . . , Xn ) dFX1 ,...,Xn (x1 , . . . , xn )
Rn

Si los X1 , . . . , Xn son independientes se tiene


Z
E(h(X1 , . . . , Xn )) = h(X1 , . . . , Xn ) dFX1 (x1 ) . . . dFXn (xn )
Rn

49
50 ÍNDICE GENERAL

n
Y
Y si además h(X1 , . . . , Xn ) = hi (xi ) queda
i=1

n
Z Y n Z
Y
E(h(X1 , . . . , Xn )) = hi (xi ) dFX1 (x1 ) . . . dFXn (xn ) = hi (xi ) dFXi (xi )
Rn i=1 i=1Rn

(b) Se tiene h ≥ 0, E(X) = 0 ⇒ P(X = 0) = 1

Nota P(X = a) = 1 se dice X = a normalmente.

Demostración Como X ≥ 0, si P(X = 0) < 1, ∃a > 0 tal que P(X ≥ a) > 0. Además,
como X ≥ 0 se tiene X(ω) ≥ a · 1{X≥a} . Luego, E(X) ≥ E(a)E(1{X≥a} ) = aP(X ≥ a) lo que es
una contradicción.

Si X v. a. notamos µX = E(X). En general escribiremos mk = E(X k ) para k ≥ 1 y los


llamamos momentos de orden k. Ası́ pues m1 = µX

Propiedades
• E(X 2k ) ≥ (E(X))2k , ∀k ≥ 1
• Si X ≥ 0, entonces E(X k ) ≥ (E(X))k , ∀k ≥ 1
Es decir, m2k ≥ m2k
1 y si X ≥ 0, mk ≥ m1
k

Demostración Por (i) y como g(x) = x2k es convexa para k ≥ 1 se deduce la primera. La
segunda se deduce de g : R+ → R, g(x) = xk con k ≥ 1 es convexa y de X(Ω) = R+ .

Varianza
Definición Sea X v. a. Su varianza es

V ar(X) = E((X − µX )2 ) = E((X − E(X))2 )

Propiedades Para X v. a. se verifica:


(1) V ar(X) ≥ 0
(2) V ar(X) > 0 ⇔ P(X = µX ) = 1 ⇔ X = a cte. con probabilidad 1.
(3) Si α, β ∈ R, V ar(α + βX) = β 2 V ar(X)
(4) V ar(X) = E(X 2 ) − (E(X))2
(5) La función desviación cuadrática ϕ(C) = E((X − C)2 ) alcanza su minimo en C = µX y
ϕ(µX ) = V ar(X)
(6) Si X, Y son independientes, entonces V ar(X + Y ) = V ar(X) + V ar(Y ). Más generalmente, si
n
X n
X
X1 , . . . , Xn son v. a. independientes y a0 , . . . , an ∈ R, se tiene V ar(a0 + ai xi ) = a2i V ar(Xi )
i=1 i=1

Nota V ar(X) esta definida si E(X) es finita. V ar(X) es finita si E(X) y E(X 2 ) son finitas.
Para todo efecto consideraremos que V ar(X) existe y es finita.
ÍNDICE GENERAL 51

Demostración
(1) (X − µX )2 ≥ 0 ⇒ V ar(X) = E((X − µX )2 ) ≥ 0
(2) Sea Y = (X − µX )2 , se tiene Y ≥ 0. E(Y ) = V ar(X). Si V ar(X) = 0 se tiene E(Y ) = 0, y
se concluye P(Y = 0) = 1, esto es P(X = µX ) = 1. Además P(X = a) = 1 para cierto a ∈ R se
tiene E(X) = a, de donde P(X = µX ) = 1 y V ar(X) = E((X − µX )2 ) = 0. Juntando todo esto
se tienen las equivalencias.
(3) Sea Y = α + βX. Por linealidad E(Y ) = α + βE(X), es decir, µY = α + βE(X) = α + βµX .
Luego, V ar(α + βX) = V ar(Y ) = E((α + βX − α − βµX )2 ) = E(β 2 (X − µX )2 ) = β 2 V ar(X)
(4) V ar(X) = E((X − µX )2 ) = E(X 2 − 2XµX + µ2X )
= E(X 2 ) − 2E(X)µX + µ2X = E(X 2 ) − µ2X
(5) ϕ(C) = E((X − C)2 ) = E(X 2 − 2CX + C 2 ) = E(X 2 ) − 2CµX + C 2 . Derivando con respecto
a C, obtenemos C = µX . Volviendo a derivar con respecto a C obtenemos 2 y 2 > 0, luego en
C = µX alcanza su mı́nimo y por definición ϕ(µX ) = V ar(X).
(6) Sean X, Y v. a. indep. Se tiene µx+y = µX + µY .
V ar(X + Y ) = E((X + Y − µX − µy )2 ) = E((X − µX )2 + 2(X − µX )(Y − µY ) + (Y − µY )2 ) .
= V ar(X) + 2E((X − µx )(Y − µY )) + V ar(Y )
Como X, Y indep., E(X −µx )E(Y −µY ) que es 0 por (g’). Luego, V ar(X +Y ) = V ar(X)+V ar(Y )

Covarianza
Definición Si X, Y son v. a., su Covarianza es:

Cov(X, Y ) = E((X − µx )(Y − µY ))


Propiedades
(1) V ar(X + Y ) = V ar(X) + 2Cov(X, Y ) + V ar(Y )
(2) Cov(α + βX, γ + δY ) = βδCov(X, Y )
(3) Cov(X, X) = V ar(X)

Demostración
(1) Por lo hecho en (6)
(2) Por un desarrollo análogo
(3) Directa

Definición
• Una v. a. Z tal que E(Z) = 0 se dice centrada
• Una v. a. Z tal que E(Z) = 0 y V ar(Z) = 1 se dice normalizada.

Propiedades
• Sea X v. a. Si E(X) es finita, entonces Z = X − E(X) es centrada.
X − E(X)
• Sea X v. a. Si E(X) es finita y 0 < V ar(X) < ∞, entonces Z = p es normalizada.
V ar(X)
Nota V ar(X) > 0 quiere decir que X no es constante.

Demostración Punto 2:
!
X − E(X) V ar(X)
V ar p = =1
V ar(X) |{z} V ar(X)
(3)
52 ÍNDICE GENERAL

p X − µX
Nota σX = V ar(X) se llama desviación tı́pica. Luego, si X no es constante es
σX
normalizada.
Clase 16 - 07/05/2013

Sumas de Variables Aleatorias Independientes


Caso Discreto
Recordemos que si X toma Xvalores en I ⊆ R numerable, colocabamos PX (a) = P(X = a), su
densidad discreta y se tenia PX (a) = 1
a∈I

Proposición Sean X e Y v. a. independientes a valores en Z. Entonces X + Y es v. a. a valores


en Z con densidad discreta:
X
PX+Y (k) = PX (l)PY (k − l), ∀k ∈ Z, es decir PX+Y (k) = PX ∗ PY
l∈Z

Convolución.
Probabilidades totales
z}|{ X
Demostración PX+Y = P(X + Y = k) = P(X + Y = l|X = l)
X l∈Z X
= P(Y = k − l|X = l) = P(Y = k − l)P(X = l)
l∈Z
X l∈Z
= PY (k − l)PX (l)
l∈Z

X
Nota La convolución p ∗ q(k) = p(l)q(k − l):
l∈Z

Es conmutativa: p ∗ q = q ∗ p
Es asociativa: p ∗ (q ∗ r) = (p ∗ q) ∗ r. Luego, se escribe p ∗ q ∗ r
(
1 Si k = 0
δ0 dada por δ0 (k) = es neutro de ∗: p ∗ δ0 = δ0 ∗ p = p, pues δ0 es la
2 Si k 6= 0
densidad discreta de X = 0

Propiedad Si X1 , . . . , Xn son v. a. ind. a valores en Z, entonces X1 + . . . + Xn es ind. a valores


en Z y:
PX1 +...+Xn = PX1 ∗ · · · ∗ PXn

Demostración Por inducción.

53
54 ÍNDICE GENERAL

Corolario Sea X, Y v. a. indep. a valores en Z+ . Entonces, X + Y es a valores en Z+ y se


tiene:
k
X
PX+Y (k) = PX (k − l)PY (k) = PX ∗ PK , ∀k ∈ Z+
l=0

PX+Y (k) = 0 si k < 0

Demostración PY (l) = 0 si l < 0 y PX (k − l) = 0 si l > k, pues X, Y a valores en Z+

Una expresión análoga para X1 , . . . , Xn a valores en Z+ es:

k− n−2
P
k k−l
X X1 i=1 li
X n−1
X
PX1 ,...,Xn (k) = ··· PX1 (l1 )PX2 (l2 ) · · · PXn (k − li )
l1 =0 l2 =0 ln−1 i=0

Caso Absolutamente Continuo


Sea X v. a. Se tiene:
dFX (x) = P(X ∈ (x, x + dx])

Luego, si X v. a. abs. continua con densidad fX (x):

dFX (x) = fX (x)dx = P(X ∈ (x, x + dx])

Sea (X, Y ) vector aleatorio abs. continuo con densidad f(X,Y ) (x, y). Entonces:

f(X,Y ) (x, y) dx dy = P(X ∈ (x, x + dx], Y ∈ (y, y + dy])


= P((X, Y ) ∈ (x, x + dx] × (y, y + dy])

Propiedad Sean X, Y v. a. abs. continuas e indep. Entonces, X + Y es v. a. abs. continua con


densidad:
Z∞
fX+Y (z) = fX (z) ∗ fY (z) = fX (x)fy (z − x) dx
−∞

Si además X e Y toman valores en R+ (fX (u) = fY (u) = 0 cuando u < 0), entonces X + Y
toma valores en R+ y se tiene:

Zz
fX+Y (z) = fX (x)fy (z − x) dx
0
ÍNDICE GENERAL 55

Demostración
Z∞
FX+Y (z) = P(X + Y ≤ z) = P(X ∈ (x, x + dx], X + Y ≤ z)
−∞
Z∞
= P(X ∈ (x, x + dx], Y ≤ z − x)
−∞
Z∞
= P(X ∈ (x, x + dx])P(Y ≤ z − x)
−∞
Z∞
= fX (x)FY (z − x)
−∞

d
Entonces, haciendo obtenemos:
dz Z∞
fX+Y (z) = fX (x)fY (z − x) dx
−∞

Propiedad Si X1 , . . . , Xn v. a. abs. continuas e indep., se tiene:

fPni=1 Xi = fX1 ∗ · · · ∗ fXn

Demostración Inducción

Nota Si f, g, h densidades, entonces:

f ∗ g = g ∗ f , es conmutativa.

f ∗ (g ∗ h) = (f ∗ g) ∗ h, es asociativa.

δ0 = delta de Dirac es el neutro de ∗

Desigualdades - Tchevycheff
Propiedades

1. Si X v. a. ≥ 0, entonces, ∀ > 0 X ≥ 1x≥

2. Si X v. a. y µX = E(X) es finita, entonces ∀p > 0, ∀ > 0, |X − µX |p ≥ p 1|X−µX |≥

Demostración Si X(ω) ≥ , la desigualdad es lo mismo, pues 1X≥ = 1

1. Si X ∈ [0, ), entonces queda X > 0.

2. Se aplica 1 a la v. a. Z = |X − µX |p y p .
56 ÍNDICE GENERAL

Desigualdad de Tchevycheff
Sea X v. a.,  > 0, entonces
E(|X|)
1. P(|X| ≥ ) ≤

E(|X − µX |p )
2. Si µX es finita, entonces: P(|X − µX | ≥ ) ≤ , ∀p ≥ 1
ep
3. P(X ≥ ) ≤ e−t P(etX ), ∀t > 0

Demostración Se tiene:
1. |X| ≥ 1|X|≥ . Luego, E(|X|) ≤ E(1|X|> ) = P(|X| ≥ )
2. Resulta de aplicar E a |X − µX |p ≥ p 1|X−µX |≥

3. Como t > 0, etX ≥ et 1X≥ . Luego se aplica E


Clase 17 - 09/05/2013

Tipos de Convergencia
Primero veamos algunos tipos de convergencia. Sea (Ω, β, P) espacio de probabilidad y (Xn :
n ∈ N) es sucesión de v. a. y X es v. a.

Definición

→ X con probabilidad casi segura (Pcs ) si P({ω ∈ Ω : Xn (ω) → X(ω)}) = 1


(a) Xn |{z}
n→∞

→ X en probabilidad si ∀ > 0 : lı́m P({ω ∈ Ω : |Xn (ω) − X(ω)| > }) = 0


(b) Xn |{z}
n→∞
n→∞

Lp
→ X en Lp (P) si para p ≥ 1, E(|Xn − X|p ) |{z}
(c) Xn |{z} → 0
n→∞ n→∞

Proposición Se tiene:

→ X Pcs ⇒ Xn → X en probabilidad.
(1) Xn |{z}
n→∞

Lp
→ X ⇒ Xn → X en probabilidad.
(2) Xn |{z}
n→∞

Demostración

(1) Para m, n ∈ N definimos:


1
C(m, n) = {ω ∈ Ω : |Xn (ω) − X(ω) ≤ }
m
en donde C(m + 1, n) ⊆ C(m, n). Se tiene:

→ X(ω) ⇔ ∀m ∈ N ∃n ∈ N tal que ∀k ≥ n, ω ∈ C(m, k)


Xn (ω) |{z}
n→∞
\ [ \
⇔ω∈ C(m, k)
m∈N n∈N k≥n

\ [ \
→ X Pcs si y solo si P(
Luego, Xn |{z} C(m, k)) = 1
n→∞ m∈N n∈N k≥n

57
58 ÍNDICE GENERAL
[ \
Se tiene que C(m, k) decrece con m, de donde:
n∈N k≥n
[ \
→ X Pcs si y solo si ∀m ∈ N P(
Xn |{z} C(m, k)) = 1
n→∞ n∈N k≥n
\ [
esto es si y solo si ∀m ∈ N P( ( C(m, k)c )) = 0
n∈N k≥n
[
Se tiene que C(m, k) decrece con n, de donde:
k≥n
[
→ X Pcs si y solo si ∀m ∈ N lı́m P(
Xn |{z} C(m, k)c ) = 0
n→∞
n→∞ k≥n
[
Como C(m, n)c ⊆ C(m, k)c , se tiene que lo anterior implica
k≥n

∀m ∈ N, lı́m P(C(m, n)c ) = 0, esto es


n→∞
1
∀m ∈ N, lı́m P(|Xn − X| ≥ )=0
n→∞ m
→ X en probabilidad P
que equivale a Xn |{z}
n→∞

E(|Xn − X|p )
(2) Por Tchevycheff, ∀ > 0 se tiene P(|Xn − X| ≥ ) ≤
p

Nota Supongamos para p ≥ 1 fijo:

∀n ∈ N, E(|Xn |p ) < ∞, E(|X|p ) < ∞

Entonces:
Lp
→ X, ∃ subsucesión nk % ∞ tal que Xn |{z}
1. Si Xn |{z} → X con Pcs
n→∞ n→∞

Lp
→ X con Pcs y sup |Xn | ≤ Y , con E(|Y |p ) < ∞, entonces Xn |{z}
2. Si Xn |{z} → X
h≥1
n→∞ n→∞

Ejemplo Tomemos Ω = [0, 1], β([0, 1]) = {B ∈ β(R) : tales que B ∈ [0, 1]} y P = λ, medida
de Lebesgue en ([0, 1], β([0, 1])), es decir, λ((a, b]) = b − a, ∀(a, b] ∈ [0, 1]
Todo n ∈[N lo representamos de manera única como n = 2l + r, l ≥ 0, r ∈ {0, 1, . . . , 2l − 1},
ya que N = · {2l , . . . , 2l+1 − 1}. Entonces: Xn = 1( r , r+1 )
2l 2l
l≥0
Para  > 0 se tiene
 
r r+1 1
P(|Xn | > ) = λ(|Xn | > ) = λ , = → 0
2l 2l 2l |{z}
n→∞

→ 0 en probabilidad P, pero {ω ∈ [0, 1] : Xn |{z}


Luego Xn |{z} → 0} =
6 ∅. Luego, Xn 9 0 con Pcs
n→∞ n→∞
ÍNDICE GENERAL 59

Teorema de los Grandes Números


Sea (XN : n ≥ 1) sucesión de v. a. indep. igualmente distribuidas. Asumimos que E(X1 ) es
finito. Entonces:
N
1 X
→ E(X1 ), Pcs
Xn |{z}
N n=1
N →∞

Es decir:
N
1 X
P({ω ∈ Ω : lı́m Xn (ω) = E(X1 )}) = 1
N →∞ N
n=1

Que significa que el promedio empı́rico converge al teórico, y se le llama a menudo Teorema
Fuerte de los Grandes Números.

Nota El Teorema Débil de los Grandes Números se refiere a:


N
1 X
→ E(X1 ), en probabilidad P
Xn |{z}
N n=1
N →∞

Nota Si Xn ∼Bernoulli(p), se tiene E(Xn ) = p. Luego, en este caso el Teorema de los Grandes
Números:
N
1 X
→ p, Pcs
Xn |{z}
N n=1 N →∞

N
!
X
Xn = |{n ∈ {1, . . . , N } : Xn − 1}| ∼ Binomial(n, p)
n=1

Demostración Solo probaremos el Teorema Debil. En caso

E(|Xn |2 ) < ∞, ∀n E(|X|2 ) < ∞

Por hipotesis E(X1 ) es finito. Probaremos bajo estas hipotesis la convergencia en L2 , ya que
probamos que implica la convergencia en probabilidad.
XN
Sea Sn = Xn . Se tiene:
n=1

  N
! N
Sn 1 X 1 X V ar(X1 )
V ar = 2 V ar Xn =
|{z} N 2 V ar(Xn ) |{z}
=
N N n=1 n=1
N
ind. = dist.

Por otra parte:  


Sn
E = E(X1 )
N
Luego:
   2 !
Sn Sn V ar(X1 )
V ar =E − E(X1 ) =
N N N
60 ÍNDICE GENERAL

Luego: " #
Sn L2 V ar(X1 )
→ E(X1 ) pues → 0
N |{z} N |{z}
N →∞ N →∞

Recordemos que por Tchevycheff:

V ar SNn
  
Sn V ar(X1 )
P − E(X1 ) ≥  ≤
= → 0
N 2 2 N |{z}
N →∞

Que es la convergencia en probabilidad.


Clase 18 - 14/05/2013

Teorema de los Grandes Numeros en Lp


Sean (Xn : n ∈ N) v. a. ind. id. dist. tal que E(X1 ) finita. Supongamos que para p ≥ 1 fijo se
tiene: E(|X1 |p ) < ∞. Entonces:
n
n p !
1X Lp
1 X
→ E(X1 ), i. e. E
Xi |{z} Xi − E(X1 ) |{z}→ 0

n i=1 n
i=1

n→∞ n→∞

Nota
n n
1X 1X
Xi − E(X1 ) = (Xi − E(Xi )), pues E(Xi ) = E(X1 ), ∀i ∈ N
n i=1 n i=1

 
1
Expansión Diádica y v. a. Bernoulli
2
Ah, sı́, sı́

Transf. de Laplace y Funcion Generadora de Momentos


Definición Sea X v. a. acotada inferiormente i. e. ∃m ∈ R tal que P(X ≥ m) = 1. Su
Transformada de Laplace es a función:
Z∞
−sX
ψX : R+ → R+ con ψX (s) = E(e ) = e−sx dFX (x)
s → ψX (s) m

Nota Como X es acotado inferiormente, ψX (s) es finito ∀s ∈ R

Propiedades Sea X acotado inferiormente por m:


(a) ψX (s) ∈ (0, e−sm ], ∀s ≥ 0. En particular si X ≥ 0 se tiene ψX (s) ∈ (0, 1]
(b) ψX (0) = 1
(c) Si α ∈ R, β ≥ 0 se tiene ψα+βX (s) = e−sα ψX (βs)
(d) La funcion ψX solo depende de FX . Aún más, se cumple que:
ψX = ψY ⇔ FX = FY , donde ψX (s) = ψY (s) ∀s ∈ R+

61
62 ÍNDICE GENERAL

dn ψX (s)
(e) Si E(|X n |) < ∞, entonces ∃ = (−1)n E(X n )
dsn 0

(f) Si X es discreta
X tomando valores
X en el conjunto numerable I ⊆ [m, ∞), se tiene:
−sa −sa
ψX (s) = e PX (a) = e P(X = a)
a∈I a∈I

(g) Si X es abs. continua con densidad fX tal que fX = 0 si x < m se verifica:


Z∞
ψX (s) = e−sx fX (x) dx
m

(h) Si X e Y son independientes: ψX+Y (s) = ψX (s) · ψY (s)

Nota De (c) y (h) se obtiene:


Si X1 , . . . , Xn son v. a. indep. acotadas inferiormente, α ∈ R y β1 , . . . , βn ≥ 0, entonces:
n
Y
ψ n
P = e−sα ψXj (βj s)
α+ βj Xj
j=1 j=1

Demostración
(a) e−sX ≤ e−sm si X ≥ m
(b) e−0X = 1

(c) ψα+βX (s) = E(e−(α+βX)s ) = e−αs E(e−βXs ) = e−αs ψX (βs)


Z Z
(d) FX = FY ⇒ ψX = e−sx dFX (x) = e−sx dFY (x) = ψY (s), ∀s ∈ R+

Z∞ Z∞
Nota FX (x) = 1(−∞,X] (z) dFX (z), ψX (s) = e−sz dFX (z)
−∞ −∞

(e) Si E(|X|n ) < ∞, entonces:


Z∞  n −sx  Z∞
dn ψX (s) d e
= dFX (x) = (−1)n xn dFX (x) = (−1)n E(X n )

dsn 0 dsn 0
m m

(h) Sean X e Y indep. Entonces:


ψX+Y (s) = E(e−s(X+Y ) ) = E(e−sX e−sY ) = E(e−sX )E(e−sY ) = ψX (s)ψY (s)

A ψX (s), s ∈ R+ a menudo se le llama funcion generadora de momentos, aunque tambien


Z∞
X
se usa este nombre para la funcion ξX : (0, 1) → R+ con ξX (µ) = E(µ ) = µx dFX (x).
µ → ξX (µ) m
Notemos que ξX (µ) = ψX (− log(µ)), ∀µ ∈ (0, 1] y reciprocamente ψX (s) = ξX (e−s ), ∀s ≥ 0
Clase 19 - 16/05/2013

Nota Si F funcion de distribucion tal que F (m− ) = 0 (es decir, F esta “concentrado” en
[m, ∞)), se define:
Z∞
∀s ≥ 0 ψF (s) = e−sx dF (x) Transformada de Laplace
m
Z∞
∀µ ∈ (0, 1] ξF (µ) = µx dF (x) Función generadora de F
m

Transformada de Fourier. Función Caracterı́stica


Definición Sea X v. a. Su función caracteristica es la función:

ϕX : R → C con ϕX (t) = E(eitX ) = E(cos(tX) + i sin(tX)) = E(cos(tX)) + iE(sin(tX))


t → ϕX (t)

Se tiene entonces:
Z∞ Z∞ Z∞
itx
ϕX (t) = e FX (x) = cos(tx) dFX (x) + i sin(tx) dFX (x)
−∞ −∞ −∞

Nota Si F es función de distribución, se define su función caracterı́stica por:


Z∞ Z∞ Z∞
itx
ϕF : R → C con ϕF (t) = e FX (x) = cos(tx) dFX (x) + i sin(tx) dFX (x)
t → ϕX (t) −∞ −∞ −∞

Propiedades

(a) Para toda v. a. X siempre ∃ su función caracterı́stica.

(b) |ϕX (t)| ≤ 1, ∀t ∈ R

(c) ∀a, b ∈ R, ϕa+bX (t) = eita ϕX (bt)

(d) ϕX solo depende de FX . Aún más, ϕX = ϕY ⇔ FX = FY


dn
(e) Si ∃E(|X|n ) < ∞ para cierto n ∈ N, entonces ∃ n ϕX (t) = in E(X n )

dt 0

63
64 ÍNDICE GENERAL

(f) Si X : discreta
X a valores en XI ⊆ R numerable
itx
ϕX (t) = e PX (a) = eitx P(X = a)
a∈I a∈I

(g) Si X abs. continua con densidad fX


Z∞ Z∞ Z∞
−tx
ϕX (t) = e fX (x)dx = cos(tx)fX (x) dx + i sin(tx)fX (x) dx
−∞ −∞ −∞

(h) Si X e Y son indep. se tiene: ϕX+Y (t) = ϕX (t)ϕY (t)

(i) ϕX (−t) = ϕX (t), siendo a + ib = a − ib su complejo conjugado.

(j) ϕX (t) ∈ R, ∀t ∈ R ⇔ FX = F−X , es decir X es simetrica con respecto al 0

(k) ϕX (t) uniformemente continua si ∀ > 0 ∃δ > 0 tal que:


|t − t0 | < δ() ⇒ |ϕX (t) − ϕX (t0 )| < 

Nota De (c) y (h) se tiene que si X1 , . . . , Xn indep. y α, β1 , . . . , βn ∈ R:


n
Y
ϕ n
P (t) = eiαt ϕXj (βj t)
α+ βj Xj
j=1 j=1

Demostración

(0) X v. a. ⇒ cos(tx) y sin(tx) son v. a. Estan acotados, toman valores en [−1, 1] por lo que
E(cos(tX)) y E(sin(tX)) ∃ y son finitas, de donde ϕX (t) ∈ C esta bien definido.

(a) |ϕX (t)|2 = |E(cos(tX)) + iE(sin(tX))|2 = (E(cos(tX)))2 + (E(sin(tX)))2


≤ E(cos(tX)2 ) + E(sin(tX)2 ) = E(cos(tX)2 + sin(tX)2 ) = E(1) = 1

(i) ϕX (−t) = E(cos(−tX)) + iE(sin(−tX)) = E(cos(tX)) − iE(sin(tX)) = ϕX (t)

(j) ϕX (t) ∈ R ∀t ⇔ ϕX (t) = ϕX (t) ⇔ ϕX (t) = ϕX (−t) ⇔ ϕX (t) = ϕ−X (t) Luego, ϕX = ϕ−X
y por (b) concluimos que FX = F−X

Nota Todos los demas son iguales a las demostraciones de Laplace.

Ejemplo

(1) Xa = a v. a. constante. Se tiene ϕXa (t) = eiat ∀t ∈ R

(2) X ∼Bernoulli(p), ϕX (t) = (1 − p) + peit ∀t ∈ R

Propiedad Si X ∼ N (µ, σ 2 ), entonces:


1 2
σ2
ϕX (t) = eiµt− 2 t , ∀t ∈ R
En particular, si X ∼ N (0, 1), entonces:
t2
ϕX (t) = e− 2
ÍNDICE GENERAL 65

Demostración Si X ∼ N (0, 1), entonces µ + σX ∼ N (µ, σ 2 ). Usando la propiedad (c),


ϕµ+σX (t) = eiµt ϕX (σt). Luego, solo hay que demostrar el caso particular.
Sea X ∼ N (0, 1), entonces,
Z∞ Z∞
1 2
itx − x2 1 x−it 2 t2
ϕX (t) = √ e e dx = √ e−( 2 ) e− 2 dx
2π 2π
−∞ −∞

Y despues con un poquito de magia (que tengo que añadir despues) sale.

Teorema Central del Limite


Demos el marco conceptual para este resultado.

Definicion Sea (Fn : n ≥ 1)sucesión de funciones de distribucion y F funcion de distribucion.


Definimos:
d
Fn → F ⇔ ∀x punto de continuidad de F se tiene lı́m Fn (x) = F (x)
n→∞
y se dice que Fn converge debilmente a F

Nota x punto de continuidad de F si F (x− ) = F (x). Recordemos que F (x) = F (x+ )


siempre, luego, x punto de continuidad si F (x− ) = F (x) = F (x+ )

Definición La sucesion de v. a. (Xn : n ∈ N) converge en distribucion a la v. a. X si:


d D
FXn → FX . Se escribe XN → X

Nota Tambien se dice que Xn converge en ley a X

En v. a. esta convergencia es la mas debil de las definidas, pues se tiene:

D
Propiedad Xn → X en probabilidad ⇒ Xn → X
n→∞

Demostración Sea Xn → X en probabilidad. Debemos mostrar que

lı́m FXn (x) = FX (x) ∀x tal que FX (x− ) = FX (x)


n→∞

Nos bastara probar lo siguiente:


∀x0 < x < x00 , FX (x0 ) ≤ lı́m inf FXn (x) ≤ lı́m sup FXn (x) ≤ FX (x00 )
n→∞ n→∞
Esto es suficiente pues si x es punto de continuidad de F nos basta tomar x0 % x y x00 & x y
se deduce FX (x) = lı́m FXn (x)
n→∞
Solo probaremos la primera desigualdad, ya que la tercera es analoga y la segunda es trivial.

FX (x0 ) = P(X ≤ x0 ) = P(X ≤ x0 , |Xn − X| > x − x0 ) + P(X ≤ x0 , |Xn − X| ≤ x − x0 )


≤ P(|Xn − X| > x − x0 ) + P(Xn ≤ x)

Tomando lı́m inf , como x − x0 > 0 y usando Xn → X en probabilidad, deducimos


n→∞
66 ÍNDICE GENERAL

También podría gustarte