Está en la página 1de 68

PROBABILIDAD

Ricardo Bautista Mercado


20 de julio de 2007

Resumen
Este trabajo fue motivado por el curso de Probabilidad I, impartido
por el Dr. Raul Montes De Oca del Departamento de Matematicas de la
UAM-I, en el trimestre 07-I

VARIABLES ALEATORIAS
1. VARIABLES ALEATORIAS DISCRE-
TAS
1.1. Variable Aleatoria Binomial
Sea ǫ un experimento aleatorio tal que
Ω ={exito, fracaso}
p = P [{exito}]
Observación 1. P [fracaso}] = 1 − p
X =número de exitos en las n repeticiones independientes de ǫ

P [X = k] = Ckn pk (1 − p)n−k k ∈ {0, 1, . . . , n}


X[Ω] = {0, 1, 2, 3, . . .}

Notación: X ∼ B(n, p)
Observación 2.
n
X n
X
P [X = k] = Ckn pk (1 − p)n−k = (p + (1 − p))n = 1
k=0 k=0

1
Ejemplo 1. I) Sea m una moneda con P ({aguila}) = 32 , P ({sol}) = 13
Suponga que lanzamos la moneda 100 veces, de manera independien-
te
¿cual es la probabilidad de obtener 2 aguilas o mas?
„ «
2
X ∼ B 100,
3

P [X ≥ 2] = 1 − P [X < 2]
= 1 − (P [X = 0] + P [X = 1])
„ «100 „ « „ «99
1 2 1
= 1− − 100
3 3 3

II) Los motores de un avión operan independientemente unos de otros


con P ({no fallar}) = 0,99 . Un avión llega a su destino siempre y
cuando no fallen al menos la mitad de sus motores
¿cual es la probabilidad de que un tetramotor llegue a su destino
exitosamente?

X ∼ B (4, 0,99)

P [X ≥ 2] = P [X = 2] + P [X = 3] + P [X = 4]
= C24 (0,99)2 (0,01)2 + C34 (0,99)3 (0,01) + C44 (0,99)4

III) Se tienen N objetos de los cuales M son blancos y el resto de color


negro
si se toma una muestra de n objetos con sustitucion
¿cual es la probabilidad de obtener k objetos blancos?
„ «
M
X ∼ B n,
N

„ «k „ «n−k
M M
P [X = k] = Ckn 1−
N N

Observación 3. El muestreo sin sustitucion no se puede plantear


como binomial pues no hay independencia

2
III) Un sistema de protección contra misiles esta construido con n uni-
dades de radar que funcionan de forma independiente, cada uno con
una probabilidad de 0.9 de detectar un misil.
a) Si n = 5 y pasa un misil, ¿cual es la probabilidad de que 4 uni-
dades lo detecten?
!
5
P [X = 4] = (0,9)4 (0,1) = 0,32805
4
b) ¿cual debe ser el valor de n para que la probabilidad de dectar un
misil sea 0.999?

0,999 = P [X ≥ 1]
= 1 − (1 − 0,9)n

(1 − 0,9)n = 1 − 0,999
(0,1)n = 0,001

log(0,001)
n =
log(0,1)
= 3

1.2. Variable Aleatoria de Poisson


Lema 1. Sea θ(x) una función tal que

θ(x)
lı́m =0
x→0 x
Sea a ∈ R. Entonces

lı́m [1 + ax + θ(x)]1/x = ea
x→0

3
Teorema 1 (Poisson). Sea Xn ∼ B(n, Pn ) n = 1, 2, . . .
Supongangase que lı́mn→+∞ Pn = 0 y que lı́mn→+∞ nPn = λ > 0
Entonces

λk e−λ
P [Xn = k] → k = 0, 1, 2, . . .
k!
Demostración. Como n · Pn → λ cuando n → ∞
entonces
g(n) = n · Pn − λ → 0 cuando n → ∞
Por otro lado
n · Pn − λ = g(n) ⇒ Pn = g(n)n
+nλ

g(n)
en particular n → 0 cuando n → ∞
Luego utilizando la hipotesis Xn ∼ B(n, Pn ) tenemos que

P [Xn = k] = Ckn Pnk (1 − Pn )n−k


„ «k „ „ ««n−k
n(n − 1) · · · (n − k + 1) λ g(n) λ g(n)
= + 1− +
k! n n n n
„ «n−k
1 n(n − 1) · · · (n − k + 1) k λ g(n)
= (λ + g(n)) 1 − −
k! nk n n
„ « „ « „ «n „ «−k
1 1 k−1 λ g(n) λ g(n)
= 1− ··· 1 − (λ + g(n))k 1 − − 1− −
k! n n n n n n
1
sea x = n
, entonces

„ « „ « „ «−k
1 1 k−1 1 λ g(n)
P [Xn = k] = 1− ··· 1 − (λ + g(n))k (1 − λx − xg(n)) x 1 − −
k! n n n n

λ −λ
∴ lı́mn→∞ P [Xn = k] = k!
e

k
Observación 4. a) 0 ≤ λk! e−λ ≤ 1 ∀k = 0, 1, . . .
P+∞ λk −λ P λk
b) k=1 k! e = e−λ +∞k=1 k! = 1

Observación 5.
+∞ m
X z
ez = , z∈R
m!
k=1

X =número de veces que ocurre cierto evento aleatorio, cuando sabe-


mos que este ocurre en promedio λ veces por unidad de tiempo

λk −λ
P [X = k] = e
k!
X[Ω] = {0, 1, 2, . . .}

Notación: X ∼ P[λ]

4
Ejemplo 2. En una carretera ocurren en promedio 2 accidentes por dia

λ=2
X ∼ P[2]

I) ¿cual es la probabilidad de que mañana no ocurra ningun accidente?

P [X = 0] = e−2 = 0,1353
II) ¿cual es la probabilidad de que ocurra al menos 1 accidente?

P [X ≥ 1] = 1 − P [X = 0] = 1 − e−2 = 1 − 0,1353 = 0,864


III)

P [4 < X ≤ 7] = P [X = 5] + P [X = 6] + P [X = 7]
25 −2 26 −2 27 −2
= e + e + e
5!
„ 6! 7!«
32 64 128
= + + e−2
120 720 5040
= 0,051556298

Ejemplo 3. Supóngase que un deposito contiene 10000 partı́culas. la pro-


babilidad de que una de esas partı́culas salga del depósito es igual a 0.0004
¿Cuál es la probabilidad de que ocurran más de 5 salidas? (Puede supo-
nerse que las salidas son independientes unas de otras).

X ∼ B(10000, 0,0004)
λ = (10000)(0,0004) = 4

P [X > 5] ≈ 1 − (P [X = 0] + P [X = 1] + · · · + P [X = 5])
„ 0 «
−4 4 41 42 43 44
= 1−e + + + +
0! 1! 2! 3! 4!
= 0,2151

1.3. Variable Aleatoria Geometrica


Sea ǫ un experimento Bernoulli,
Ω = {exito, f racaso},
p := P [{exito}] p ∈ (0, 1)
Se repite ǫ, de manera independiente, una infinidad de veces
Sea Ω′ := Ω × Ω × Ω × · · ·

5
Observación 6. ω ∈ Ω ⇔ Ω = (exito ó fracaso, exito ó fracaso, . . .)

X : Ω′ → R
X =número de repeticiones de ǫ hasta obtener exito por vez primera

P [X = k] = (1 − p)k−1 p
X[Ω′ ] = {1, 2, 3, . . .}

Notación: X ∼ G[p]
Observación 7.
+∞ +∞ +∞
!
X X X 1
P [X = k] = p(1 − p)k−1 = p (1 − p)k−1 =p =1
1 − (1 − p)
k=1 k=1 k=1

Ejemplo 4. La probabilidad de encontrar cierto medicamento en una


farmacia es de 0.20
Calcule la probabilidad de que una persona que requiere de ese medi-
camento:
I) Tenga que recorrer 3 farmacias para hallarlo?
p = 0,20

P [X = 3] = (1 − p)2 p = (0,8)2 (0,20) = 0,128


II) Se vea obligada a recorrer por lo menos 3 farmacias para encontrarlo?

P [X ≥ 3] = 1 − P [X = 1] − P [X = 2]
= 1 − (0,20) − (0,8)(0,20)
= 0,64

Ejemplo 5. Cierto atleta logra saltar la varilla a 2.28 mts de altura el


60 % de las veces. En una competencia olimpica dispone de 3 intentos y si
logra salvar esa altura ganara medalla de oro. Determine la probabilidad
de que gane dicha medalla
p = 0,6

P [{gane la medalla de oro}] = P [X = 1] + P [X = 2] + P [X = 3]


= (0,6) + (0,4)(0,6) + (0,4)2 (0,6)
= 0,936

Observación 8. Se supuso que los saltos sean independientes

6
Ejemplo 6. Suponga que un joven envia muchos mensajes por é-mail a
su prometida, pero ella solo responde el 5 % de los mensajes que recibe.
¿cuantos correos debera este insistente joven enviar a su novia para tener
una probabilidad de por lo menos 0.8 de que por fin uno de ellos sea
respondido?

p = 0,05

P [{algun correo es respondido}] = P [X = 1] + P [X = 2] + · · · + P [X = n]


= p + (1 − p)p + (1 − p)2 p + · · · + (1 − p)n−1 p
= [1 + (1 − p) + (1 − p)2 + · · · + (1 − p)n−1 ]p
1 − (1 − p)n
= p
1 − (1 − p)
= 1 − (1 − p)n
≥ 0,8

(1 − p)n ≤ 1 − 0,8
= 0,2

log(0,2)
n ≥
log(0,95)
= 31,38

7
1.4. Función de distribucion acumulativa
Sea X una variable aleatoria discreta
Definimos la funcion de distribucion acumulativa de X como la función
FX : R → R dada por:
X
FX := P [X ≤ x] = P [X = k], x∈R
k∈X[Ω]:k≤x

Ejemplo 7. Hallar FX :
X ∼ B(3, 12 )
` 1 ´3
k P [X = k] = Ck3 · 2
= Ck3 · 1
8
1
0 8
3
1 8
3
2 8
1
3 8

P [X = k]

8
>
> 0 si x<0
< 18
>
> si 0≤x<1
4
FX = 8
si 1≤x<2
> 7
>
>
> 8
si 2≤x<3
:
1 si x≥3

8
FX

1.4.1. Propiedades de la distribución acumulativa asociada


a una variable aleatoria discreta
FX es creciente (i.e x < y ⇒ FX (x) ≤ FX (y))
lı́mx→∞ FX (x) = 1;
lı́mx→−∞ FX (x) = 0
FX es continua a la derecha de los puntos del rango
P [X = k] = FX (k) − FX (− k) k ∈ X[Ω]

Ejemplo 8. Supongase que X toma los valores −1, 0, 1 con probabilidades


1 1 1
, , respectivamente
3 2 6

I) Hallar la función de probabilidad puntual de Y1 = X2

Y1 [Ω] = {0, 1}
P [Y1 = 0] = P [X2 = 0] = P [X = 0] = 12
P [Y1 = 1] = P [X2 = 1] = P [X = 1] + P [X = −1] = 1
6
+ 1
3
= 1
2
II) Hallar la función de probabilidad puntual de Y2 = 3X + 1

Y2 [Ω] = {−2, 1, 4}
1
P [Y2 = −2] = P [3X + 1 = −2] = P [X = −1] = 3
P [Y2 = 1] = P [3X + 1 = 1] = P [X = 0] = 12
P [Y2 = 4] = P [3X + 1 = 4] = P [X = 1] = 61

9
Ejemplo 9. X ∼ G( 21 )

0 si X toma un valor par
Y=
1 si X toma un valor impar
Hallar la función de probabilidad puntual de Y

Y[Ω] = {0, 1}
` ´2 ` ´4 ` ´6
P [Y = 0] = 12 + 21 + 21 + · · · = 13
` ´3 ` ´5 ` ´7
P [Y = 1] = 12 + 21 + 12 + + 21 + · · · = 2
3

1.5. Variable Aleatoria Hipergeometrica


Considere N objetos tales que M de ellos cumplen cierta propiedad p,
entonces para el problema del muestreo sin substitución (con tamaño de
muestra n) se tiene el siguiente modelo probabilistico:

X =número de objetos que cumplen la propiedad p


N −M
CkM Cn−k
P [X = k] = N
Cn
X[Ω]={k| k es un entero no negativo que cumple: k ≤ M y k ≤ N −M }

Notación: X ∼ H[N, M, k]

Ejemplo 10. En una fabrica hay 1500 lavadoras de las cuales 400 son
defectuosas. Si se toman sin sustitucion 200 lavadoras al azar, ¿cual es la
probabilidad de que al menos una de las 200 lavadoras sea defectuosa?

X ∼ H (1500, 400, 200)

P [X ≥ 1] = 1 − P [X = 0]
1100
C200
= 1− 1500
C200

10
2. ESPACIOS DE PROBABILIDAD Y
VARIABLES ALEATORIAS
Definición 1. Sean Ω un conjunto y F una familia de subcon juntos de

Diremos que F es una σ-álgebra de subconjuntos de Ω si:
a) ∅, Ω ∈ F
b) si A ⊂ F entonces Ac ∈ F;
y
c) A1 , A2 , . . . ∈ F, entonces
∪+∞
n=1 An ∈ F

Observación 9. Sean A1 , A2 , . . . ∈ F entonces (por las leyes de De-


Morgan) ` +∞ ´c
∩+∞
n=1 An = ∪n=1 An
Lema 2. Si F1 , F2 son σ-álgebras de Ω entonces F1 ∩ F2 tambien es σ-
álgebra

Demostración. a) Como ∅, Ω ∈ Fi i = 1, 2
entonces

∅, Ω ∈ F1 ∩ F2
b) Sea A ⊂ F1 ∩ F2 entonces Ac ∈ F1 y Ac ∈ F2
luego entonces

Ac ∈ F 1 ∩ F 1
c) Sean A1 , A2 , . . . ∈ F1 ∩ F2 , entonces

A1 , A 2 , . . . ∈ F 1

A1 , A 2 , . . . ∈ F 2
entonces

∪+∞
n=1 An ∈ Fi i = 1, 2
por lo tanto

∪+∞
n=1 An ∈ F1 ∩ F2 i = 1, 2

Ejemplo 11. a) Sea Ω un subconjunto. Entonces F1 = {∅, Ω} y F2 =


P (ω) (conjunto potencia de Ω)
son σ-álebra de subconjuntos de Ω
b) Sean Ω un conjunto y τ ⊂ Ω τ 6= ∅

B(τ ) := ∩{F : F es σ-álgebra y F ⊇ τ }


Notación: B(τ ) := σ-álgebra de Borel de Ω

11
Definición 2. Sea Ω un subconjunto y F una σ-álgebra de subconjuntos
de Ω
Diremos que
p : F : [0, 1]
es una medida de probabilidad sobre F si:
a) P [Ω]=1;
y
b) si A1 , A2 , . . . ∈ F y son ajenos , entonces
+∞
` ´ X
P ∪+∞
n=1 An = P (An )
n=1

A la terna (Ω, F, P ) se le llama espacio de probabilidad


Definición 3. Diremos que X es una variable aleatoria si

[X ≤ x] := {ω ∈ Ω : X(ω) ≤ x} ∈ F
∀x ∈ R
Observación 10. [X ≤ x] = {ω ∈ Ω : X(ω) < x} = ∪+∞ 1
i=1 [X ≤ x− n ] ∈ F
Definición 4. Diremos que X es una variable aleatoria discreta si

X[Ω] := {X(ω) : ω ∈ Ω}
es un conjunto finito o numerable
Para una variable aleatoria discreta, con rango X[Ω] = {x1 , x2 , . . .} se
define la función de probabilidad puntual como:

PX ({xi }) := P [X = xi ], ∀i = 1, 2, . . .
Observación 11. a) 0 ≤ PX ({xi }) ≤ 1 ∀i = 1, 2 . . .
P+∞ P+∞
b) i=1 PX ({xi }) = i=1 P [X = xi ] = 1

2.1. VARIABLES ALEATORIAS CONTINUAS


Definición 5. Sea X una variable aleatoria diremos que X es una variable
aleatoria continua si

P [X = x] = 0 ∀x ∈ R
Observación 12. Igual que en el caso discreto, se puede definir la función
de distribucion acumulativa asociada a una variable aleatoria continua
como
F : R → R, dada F (x) = P [X ≤ x] ∀x ∈ R (esta funcion F cumple
con las propiedades obtenidas para el caso discreto)
(i) como P [X = x] = F (x) − F (− x) = 0 ⇒ F es continua
(ii) Notese que P [X ∈ R] = 1 y que no puede estar ”soportada”por un
conjunto finito o numerable
si A = {y1 , y2 , . . .}
⇒ P [X ∈ A] = P [X = y1 ] + P [X = y2 ] + · · · = 0

12
(iii) Sean a, b ∈ R, a < b

F (b) − F (a) = P [X ≤ b] − P [X ≤ a] = P [a < X ≤ b]


= P [a ≤ X < b]
= P [a < X < b]
= P [a ≤ X ≤ b]

2.1.1. VARIABLES ALEATORIAS CONTINUAS DEFI-


NIDAS MEDIANTE DENSIDADES
Definición 6. Sea f : R → R diremos que f es una densidad de probabilidad
si
a) f ≥ 0;
y
R +∞
b) −∞ f (x)dx = 1
Ry
Observación 13. (i) y f (x)dx = 0;
y
Rx
(ii) F (x) := −∞ f (t)dt, x∈R
⇒ F cumple con con todas las propiedades de una funcion de distrución
de una variable aleatoria continua
Entonces por un teorema debido a Kolmogorov, existen un espacio de
probabilidad (Ω, F, p) y una variable aleatoria X : Ω → R tal que
Z x
FX = F (X) = f (t)dt, x∈R
−∞

13
2.2. Ejemplos de variables aleatorias continuas
1. Variable Aleatoria Uniforme
a, b ∈ R, a < b
 1
b−a
si x ∈ [a, b]
f (x) =
0 si x ∈
/ [a, b]

X =seleccion de un punto al azar de [a, b]


Z c2
P [c1 ≤ X ≤ c2 ] = f (x)dx [c1 , c2 ] ⊂ [a, b]
c1

Notación: X ∼ U [a, b]
Ejemplo 12. El tiempo medido en minutos en que cierta persona
invierte en ir de la estacion de su casa al tren es un fenomeno alea-
torio que sigue una ley de probabilidad uniforme en el intervalo de
20-25. ¿cual es la probabilidad de que alcance el tren que sale de la
estacion a las 7:28 AM en punto si deja su casa exactamente a las
7:05 AM

X ∼ U (20, 25)

P [{alcance el tren}] = P [20 ≤ X ≤ 23]


Z 23
1 3
= dt =
20 5 5

14
2. Variable Aleatoria Exponencial
Sea λ > 0

λ exp−λx si x ≥ 0
f (x) =
0 si x < 0

T =tiempo transcurrido hasta que cierto evento ocurre,


T[Ω] = [0, +∞)
Z +∞ Z +∞ ˛+∞
λe−λx dx = −e−λx ˛
˛
f (x)dx =
−∞ 0 0

Notación: T ∼ exp[λ]
Ejemplo 13. Supongase que un sistema contiene cierto tipo de com-
ponente cuya duracion en años está dada por una variable aleatoria
distribuida en forma exponencial con λ = 51 . Si se instalan 5 de estos
componentes en diferentes sistemas, ¿cual es la probabilidad de que
por lo menos 2 funcionen 8 años ó mas?
[Supongase que estos componentes son independientes unos de otros]

» –
1
T ∼ exp
5

Z +∞
1 − 15 x
P [T ≥ 8] = e dx
8 5
8
= e− 5 = 0,2018

Por lo tanto la probabilidad de que un componente dure 8 años ó mas


8
es e− 5 , ahora solo falta calcular la probabilidad de que por lo menos
8
2 de los 5 componentes sigan funcionando: X ∼ B(5, e− 5 )

15
P [X ≥ 2] = 1 − (P [X = 0] + P [X = 1])
“ ”
8 5
“ 8”“ ”
8 4
= 1 − 1 − e− 5 − 5 e− 5 1 − e− 5
= 1 − ,323814 − 0,409577
= ,2666

Proposición 1 (perdida de memoria de la exponencial). Sea T ∼


exp [λ]
Entonces

P [T > s + t|T > s] = P [T > t] ∀t, s > 0

Demostración.
P [T > s + t, T > s]
P [T > s + t|T > s] =
P [T > s]
P [T > s + t]
= pues [T > s + t] ⊆ [T > s]
P [T > s]

por otra parte

Z +∞
P [T > s] = λe−λt dt
s

= e−λs dt

por lo tanto

e−λ(s+t)
P [T > s + t|T > s] =
e−λs
= e−λt
= P [T > t]

16
3. Variable Aleatoria Normal
Observación 14. La variable aleatoria normal trata de ajustarse a
la binomial

Función de densidad normal:

1 − 1 (x−µ)2
f (x) = √ e 2σ2 (1)
2πσ
Definición 7. Una variable aleatoria X con densidad dada por 1
será llamada variable aleatoria normal con parametros µ y σ 2 se
denota
X ∼ N (µ, σ 2 )
Observación 15. X[Ω] = R
P [0 ≤ X ≤ z] = φ(z) =Área bajo la curva normal estándar de 0 a z
3.1.10

17
CALCULO DE PROBABILIDADES CON LA NOR-
MAL
a) X∗ ∼ N (0, 1)
X∗ =Normal estándar (centrada por el eje de las y’s)
Ejemplo 14. I) P [0 ≤ X∗ ≤ 1,42] = φ(1,42) =.4222

II) P [−0,73 ≤ X∗ ≤ 0] = φ(0,73) =.2673

III) P [−1,73 ≤ X∗ ≤ 2,01] = φ(2,01) + φ(1,73) =.4778

18
IV) P [0,65 ≤ X∗ ≤ 1,26] = φ(1,26) − φ(0,65) =.1540

V) P [−1,79 ≤ X∗ ≤ −0,54] = φ(1,79) − φ(,54) = ,4633 −


,2054 =.2579

VI) P [X∗ ≥ 1,13] = 1


2
− ,3708 =.1292

19
VII) determine a tal que P [−a ≤ X∗ ≤ −0,5] = 0,004

0,004 = φ(a) − φ(0,5)


= φ(a) − 0,1915

entonces

φ(a) = 0,004 + 0,1915 = 0,1955


de donde
a ≈.51
b) X ∼ N (µ, σ 2 ), µ 6= 0, σ 6= 1

X−µ
Proposición 2. Si Y := σ
entonces

Y ∼ N (0, 1)

Demostración.

FY (y) = P [Y ≤ y]
» –
X−µ
= P ≤y
σ
= P [X ≤ σy + µ]
Z σy+µ
1 − 1 (t−µ)2
= √ e 2σ2 dt
−∞ 2πσ

sea ξ := σ1 t − σµ
entonces dξ := σ1 dt
por lo tanto

Z σy+µ
1 − 1 (t−µ)2
FY (y) = √ e 2σ2 dt
−∞ 2πσ
Z y
1 1 2
= √ e− 2 ξ dξ
−∞ 2π
1 1 2
= √ e− 2 y y∈R

20
Ejemplo 15. Sea X ∼ N (0,25, (0,02)2 )
hallar
I) P [X ≤ 0,2] ∼ P [X∗ ≤ 0,2−0,25
0,02
] = 12 − φ(2,5) = 0,0062
0,28−0,25
II) P [X ≥ 0,28] ∼ P [X∗ ≥ 0,02
] = 1
2
− φ(1,5) = 0,0668
III) P [0,2 ≤ X ≤ 0,28]
» –
0,2 − 0,25 X − 0,25
P [0,2 ≤ X ≤ 0,28] ∼ P ≤ ≤ 1,5
0,02 0,02
= P [−2,5 ≤ X∗ ≤ 1,5]
= φ(2,5) + φ(1,5)
= 0,4938 + 0,4332
= 0,927
Ejemplo 16. Si X ∼ N (80, 102 )
determine
I) P [X ≤ 100] ∼ P [X∗ ≤ 100−80
10
] = 21 + φ(2) = 0,9772
∗ 80−80
II) P [X ≤ 80] ∼ P [X ≤ 10 ] = 12
III) P [75 ≤ X ≤ 100] ∼ P [ 75−80
10
≤ X∗ ≤ 100−8010
] = φ(2) + φ(0,5) =
,6687
IV) P [X ≥ 75] ∼ P [X∗ ≥ 75−80
10
] = 12 + φ(,5) = 0,6915
V) P [|X−80| ≤ 19,6] ∼ P [− 19,6
10
≤ X∗ ≤ 19,6
10
] = φ(1,96)+φ(1,96) = 1,95
Observación 16.
|x| ≤ a ⇔ x ∈ [−a, a]
|x| ≥ a ⇔ x ∈ (−∞, −a] ∪ [a, +∞)
Ejemplo 17. Una maquina troqueladora produce tapas de latas cuyos
diametros estan normalmente distribuidos con σ = 0,01 pulgadas.
En que valor de µ debe ajustarse la maquinaria de tal manera que el
5 % de las tapas producidas tengan diametro que excede las 3 pulgadas

D ∼ N (µ, (0,01)2 )

0,05 = P [D > 3]
» –
3−µ
∼ P D∗ >
0,01
„ «
1 3−µ
= −φ
2 0,01

21
por lo tanto
„ «
3−µ
φ = 0,45
0,01
entonces
3−µ
≈ 1,65
0,01

µ = 3 − (0,01)(1,65) = 2,9835

22
3. VARIABLES ALEATORIAS (BIDIMEN-
SIONALES)
Sea ǫ un experimento aleatorio con espacio de probabilidad (Ω, F, P )
Sea X : Ω → R2 , X = (X, Y) una funcion ω 7→ X(ω) = (X(ω), Y(ω))
Definición 8. Diremos que X es un vector aleatorio (bidimensional) si
[X ≤ x, Y ≤ y] ∈ F ∀x, y ∈ R
[X ≤ x, Y ≤ y] := {ω ∈ Ω : X(ω) ≤ x, Y(ω) ≤ y}
I. Caso discreto
Definición 9. Diremos que X es un vector aleatorio discreto si

X[Ω] = {(xi , yi ) : xi ∈ X[Ω], yj ∈ Y[Ω]}


es finito o numerable

3.0.1. Función de probabilidad puntual de X

PX ({(xi , yj )}) := P [X = xi , Y = yi ]
= P [{ω ∈ Ω : X(ω) = xi , Y = yj }]

Propiedades
0 ≤ PX ({(xi , yj )}) ≤ 1 ∀i, j

!
XX X X
PX {(xi , yj )} = P [X = xi , Y = yj ]
j i j i
X
= P [Y = yi ]
j

= P [Ω] = 1

3.0.2. Funciones de probabilidad puntual marginales

X
P [X = xi ] = P [X = xi , Y = yj ], ∀i
j
X
P [Y = yj ] = P [X = xi , Y = yj ], ∀j
i

3.0.3. Funciones de probabilidad condicional

P [X = xi , Y = yj ]
P [X = xi |Y = yj ] :=
P [Y = yj ]
P [X = xi , Y = yj ]
P [Y = yj |X = xi ] :=
P [X = xi ]

23
Independencia
Definición 10. X y Y son independientes ssi

P [X = xi , Y = yj ] = P [X = xi ]P [Y = yj ] ∀i, j
X
Y 0 1 2 3 P [X = x]
1 2 3 6
0 0 42 42 42 42
Ejemplo 18. 2 3 4 5 14
1 42 42 42 42 42
4 5 6 7 22
2 42 42 42 42 42
6 9 12 15
P [Y = y] 42 42 42 42

X[Ω] = {0, 1, 2}
Y[Ω] = {0, 1, 2, 3}

X[Ω] = X[Ω] × Y[Ω]


= {0, 1, 2} × {0, 1, 2, 3}
= {(0, 0), (0, 1), (0, 2), (0, 3), (1, 0), (1, 1), (1, 2), (1, 3), (2, 0), (2, 1), (2, 2), (2, 3)}

Ejemplo 19.
3
P [X = 1, Y = 1] = PX ({(1, 1)}) =
42
Ejemplo 20.
P [X > Y] = P [{(1, 0), (2, 0), (2, 1)}]
2 4 5
= + +
42 42 42
11
=
42
Ejemplo 21.
6
P [X < 1] = P [X = 0] =
42
Ejemplo 22.
P [X = 0, Y = 1]
P [X = 0|Y = 1] =
P [Y = 1]
1/42
=
9/42
1
=
9
Ejemplo 23.
P [X = 1, Y = 1]
P [X = 1|Y = 1] =
P [Y = 1]
3/42
=
9/42
3
=
9

24
Ejemplo 24.

P [X = 2, Y = 1]
P [X = 2|Y = 1] =
P [Y = 1]
5/9
=
1
5
=
9
Observación 17.
1 3 5
P [X = 0|Y = 1] + P [X = 1|Y = 1] + P [X = 2|Y = 1] = + +
9 9 9
= 1

(veáse los ejemplos 22, 23, 24)


Observación 18.

P [X = 0, Y = 0] = 0
„ «2
6
6=
42
= P [X = 0] · P [Y = 0]

∴ X, Y no son independientes
II. Caso Continuo
Definición 11. Diremos que X es un vector aleatorio continuo si

P [X = x, Y = y] = 0 ∀x, y

Observación 19. Igual que en el caso unidimensional tenemos:

FX (x, y) := P [X ≤ x, Y ≤ y] ∀x, y

3.0.4. Vectores aleatorios generados por densidades


Definición 12. Una función f : R2 → R será llamada una densidad
de probabilidad si
a) f ≥ 0 (i.e f (x, y) ≥ 0 ∀x, y)
R
b) R2 f = 1
Proposición 3. Sea f una densidad de probabilidad
Z x Z y
F (x, y) = f (u, v)dvdu, x, y ∈ R
−∞ −∞

entonces
Z
PX (A) = f, A ∈ B(R2 ) (veáse ejemplo 11)
A

25
Ejemplo 25. Sea X = (x, y) con densidad

e−y si x ≥ 0, y > x
f (x, y) =
0 en otro caso

Z Z ∞ „Z +∞ «
f = f (x, y)dy dx
R2 0 x
Z ∞ „Z +∞ «
= e−y dy dx
Z0 ∞ x

−x
= e dx
0
= 1

3.0.5. Densidades Marginales

Z +∞
fX (x) = f (x, y)dy, x ∈ X[Ω]
−∞
Z +∞
fY (y) = f (x, y)dx, y ∈ Y[Ω]
−∞
Ejemplo 26. Sea f (x, y) la función de densidad dada en el ejemplo
25
entonces

Z +∞
fX (x) = f (x, y)dy, x ∈ [0, +∞)
x
Z +∞
= e−y dy
x
−x
= e , x≥0

26
Z y
fY (y) = f (x, y)dx, y ∈ [0, +∞)
Z0 y
= e−y dx
0

= ye−y , y≥0

Independencia
Definición 13. X y Y son independientes sii

f (x, y) = fX (x) · fY (y) ∀(x, y)


Ejemplo 27. Sea f (x, y) la función de densidad dada en el ejemplo
25
entonces
X y Y no son independientes, pues

f (0, 0) = 1
6= 0
= fX (0) · fY (0)

Calculo de Probabilidades
Ejemplo 28. Sea f (x, y) la función de densidad dada en el ejemplo
25

P [X ≥ 1, Y ≥ 2]
P [X ≥ 1|Y ≥ 2] =
P [Y ≥ 2]

27
Z Z
P [X ≥ 1, Y ≥ 2] = f (x, y)dydx
Z ∞ Z y
= e−y dxdy
2 1
Z +∞
= (ye−y − e−y )dy
2
Z +∞ Z +∞
−y
= ye dy − e−y dy
2 2

= 3e−2 − e−2
= 2e−2

Z ∞
P [Y ≥ 2] = fY (y)dy
Z2 ∞
= ye−y dy por ejemplo 26
2
» Z ∞ –∞
= −ye−y + e−y dy
2 2
ˆ −y −y ˜∞
= −ye −e 2

= 2e−2 + e −2

= 3e−2

Observación 20.
y
lı́m ye−y = lı́m
y→+∞ y→+∞ ey
1
= lı́m regla de L’Hopital
y→+∞ ey
= 0

entonces

P [X ≥ 1, Y ≥ 2]
P [X ≥ 1|Y ≥ 2] =
P [Y ≥ 2]
2e−2
=
3e−2
2
=
3

28
3.0.6. Densidades Condicionales
f (x,y)
fY|X (y|x) := fX (x)
, fX (x) > 0
f (x,y)
fX|Y (x|y) := fY (y)
, fY (y) > 0

29
Ejemplo 29. Sea f (x, y) la función de densidad dada en el ejemplo 25
Sea x ≥ 0 fijo

f (x, y)
fY|X (y|x) =
fX (x)
e−y
= por ejemplo 26
e−x
−(y−x)
= e

Sea y > 0 fijo

f (x, y)
fX|Y (x|y) =
fY (x)
e−y
= por ejemplo 26
ye−y
1
=
y

30
PROBLEMA 21. Supongamos que el vector aleatorio discreto (X, Y)
está definido por
X
Y 1 2 3
1 1
1 2 6
0
1 1
2 0 9 5
1 1 2
3 8 4 15

1. Hallar las funciones de probabilidad marginales y las funciones de


probabilidad condicionales
Diga si X y Y son independientes
2. Supóngase que el vector aleatorio continuo tiene densidad

kx(x − y) si 0 < x < 2, −x < y < x
f (x, y) =
0 en otro caso
a) Encuentre el valor de k
b) Determine fX y fY y diga si X y Y son independientes

31
3.0.7. Densidades de funciones de variable aleatoria
Ejemplo 30. Supóngase que X ∼ U [0, 1]. Encuentre la densidad de Y =
4X2 + 2
(g(x) = 4x2 + 2, x ∈ R)
Solución 22. a) Determinar el rango de Y

Y[Ω] = [2, 6]
Observación 23. fuera de es este rango mide 0
b) Sea y ∈ [2, 6] fijo
Observación 24.
y ∈ [2, 6] ⇔ 2≤y≤6
⇔ 0≤y−2≤4
y−2
⇔ 0≤ ≤1
4

FY (y) = P [Y ≤ y]
= P [4X + 2 ≤ y]
» –
y−2
= P X2 ≤
4
" r #
y−2
= P |X| ≤
4
" r r #
y−2 y−2
= P − ≤X≤
4 4
q
Z y−2 r
4 y−2
= 1 · dt =
0 4

32
Conclusión Si y ∈ [2, 6], entonces
1
(y − 2) 2
FY (y) =
2

fY (y) = FY′ (y)


„ «
1 1 −1
= (y − 2) 2
2 2
1 1
= √
4 y−2
 1√1
4 y−2
si y ∈ (2, 6]
fY (y) =
0 en otro caso

33
Ejemplo 31. Supongase que X ∼ U [0, 1]. Encuentre la densidad de Z =
eX
Solución 25. a) Determinar el rango de Z

Z[Ω] = [1, e]
Observación 26. fuera de es este rango mide 0
b) Sea z ∈ [1, e] fijo
Observación 27.

z ∈ [1, e] ⇔ 1≤z≤e
⇔ 0 ≤ ln z ≤ 1

FZ (z) = P [Z ≤ z]
= P [exp[X] ≤ z]
= P [X ≤ ln z]
Z ln z
= 1 · dt = ln z
0

34
Conclusión Si z ∈ [1, e], entonces

FZ (z) = ln z

fZ (z) = FZ′ (z)


1
=
z
 1
z
si z ∈ [1, e]
fZ (z) =
0 en otro caso

35
Ejemplo 32. Sea X ∼ U [−1, 1]. Hallar la densidad de Y = 5X3 + 3
Solución 28. a) Determinar el rango de Y

Y[Ω] = [−2, 8]
Observación 29. fuera de es este rango mide 0
b) Sea y ∈ [−2, 8] fijo
Observación 30.

y ∈ [−2, 8] ⇔ −2 ≤ y ≤ 8
⇔ −5 ≤ y − 3 ≤ 5
y−3
⇔ −1 ≤ ≤1
5

FY (y) = P [Y ≤ y]
= P [5X3 + 3 ≤ y]
» –
y−3
= P X3 ≤
5
" r #
3 y − 3
= P X≤
5
q
Z 3 y−3 r
5 1 1 3 y−3
= · dt =
0 2 2 5

36
Conclusión Si y ∈ [−2, 8]\{3}, entonces
„ «1
1 (y − 3) 3
FY (y) =
2 5

fY (y) = FY′ (y)


„ «2
1 (y − 3) 3
= si y 6= 3
30 5
8
< “ ”2
1 (y−3) 3
fY (y) = 30 5
si y ∈ (2, 3) ∪ (3, 6]
: 0 en otro caso
PROBLEMA 31. Supóngase que X tiene densidad

2x si 0 < x < 1
f (x) =
0 en otro caso
Encuentre las densidades de
a) Y = 3X + 1
b) Z = e−X

37
3.0.8. Densidades de la suma y del producto de variables
aleatorias independientes
Sean Z := X + Y
Densidad de la suma

FZ (z) = P [Z ≤ z] z fijo
= P [X + Y ≤ z]
Z Z
= fX (x, y)dydx
x+y≤z
Z Z
= f (x) · g(y)dydx independencia
x+y≤z
Z +∞ „Z z−x «
= f (x) · g(y)dy dx
−∞ −∞
Z +∞ „Z z−x «
= f (x) g(y)dy dx
−∞ −∞
Z +∞ „Z z «
= f (x) g(u − x)du dx cambio de variable: u = y + x
−∞ −∞
Z z „Z +∞ «
= f (x)g(u − x)dx du T. Fubini
−∞ −∞


R +∞
FZ′ = −∞ f (x)g(z − x)dx

Z +∞
convolución: fX+Y (z) = f (x)g(z − x)dx
−∞

38
Ejemplo 33. Sean X ∼ exp(λ1 ), Y ∼ exp(λ2 ). Suponga que X y
Y son independientes y que λ1 6= λ2
Hallar fX+Y

λ1 e−λ1 x si x ≥ 0
f (x) =
0 en otro caso

λ2 e−λ2 y si y ≥ 0
g(y) =
0 en otro caso

entonces

x ≥0
z ≥x pues y = z − x ≥ 0
(X + Y)[Ω] = [0, ∞)

Sea z ∈ [0, +∞)

Z z
fX+Y (z) = λ1 e−λ1 x · λ2 e−λ2 (z−x) dx convolución
0
Z z
= λ1 λ2 e−λ2 z e−x(λ1 −λ2 ) dx
0
λ1 λ2 −λ2 z “ −z(λ1 −λ2 ) ”
= − e e −1
λ1 − λ2
λ1 λ2 “ −λ1 z ”
= e − e−λ2 z
λ2 − λ1

39
Densidad del producto
Z +∞
1
fX·Y (z) = f (x) · g(z/x) dx (2)
−∞ |x|
Ejemplo 34. Supóngase que X y Y tienen densidades

2x si 0 < x < 1
f (x) =
0 en otro caso

y 2 /9 si 0 < y < 3
g(y) =
0 en otro caso
respectivamente

Suponiendo X y Y independientes encuentre fX·Y


0<y<3
1 z
3
z<x pues y = x
<3

X · Y = [0, 3]

40
Sea z ∈ (0, 3)

Z 1
z2 1 1
fX·Y (z) = 2x · dx
1z x2 9 x
3
Z 1
2 2 dx
= z
9 1z x2
3
„ «
2 2 3
= z −1
9 z
2` ´
= 3z − z 2
9

Ejemplo 35. Sean


6i(1 − i) si 0 ≤ i ≤ 1
I : f (i) =
0 en otro caso

2r si 0 < r < 1
R : g(r) =
0 en otro caso

I, R independientes

Hallar la densidad de W = I 2 · R

I 2 [Ω] = [0, 1]

41
FI 2 (z) = P [I 2 ≤ z]

= P [I ≤ z]
Z z√

= 6i(1 − i)di
0
Z √ Z √
z z
= 6 idi − 6 i2 di
0 0

= 3z − 2z 3/2

entonces

3 − 3i1/2 si 0 ≤ i ≤ 1
fI 2 (i) = FI′ 2 (i) =
0 en otro caso
por otro lado

0≤i≤1
z
z<i pues r = i
<1

Z 1
z 1
FI 2 ·R = (3 − 2i1/2 )(2 ) di usando 2
z i |i|
Z 1 Z 1
1
= 6z 2
di − 4z i−3/2 di
z i z

= (6 − 6z) + (8z − 8z (1/2) )



= 2z − 8 z + 6

42
3.1. ESPERANZA Y VARIANZA
3.1.1. Esperanza
Definición 14. Sea X una variable aleatoria (discreta o continua). Se
define la esperanza como
8 P
< k kP [X = k], X discreta
E[X] := R
: ∞
−∞
xfX (x)dx, X continua
Observación 32. La esperanza de X se define solo si
X
|k|P [X = k] < +∞
k


Z ∞
|x|fX (x)dx < +∞
−∞

Ejemplo 36. Encuentra E[X] en los casos siguientes:


a) X ∼ B(n, p)

n
X
E[X] = kCkn pk (1 − p)n−k
k=0
n
X n!
= k pk (1 − p)n−k
k!(n − k)!
k=1
n
X n(n − 1)!
= pk (1 − p)n−k
(k − 1)!(n − k)!
k=1
n
X (n − 1)!
= (np) pk−1 (1 − p)n−k
(k − 1)!(n − k)!
k=1
n−1
X (n − 1)!
= (np) pz (1 − p)n−(z+1) cambio de variable: z = k − 1
z=0
z!((n − 1) − z)!
n−1
X
= (np) Czn−1 pz (1 − p)(n−1)−z
z=0
= np

Conclusión
Si X ∼ B(n, p) ⇒ E[X] = np
b) X ∼ U [a, b]

43
Z +∞
E[X] = xfX (x)dx
−∞
Z b
1
= x dx
a b − a
Z b
1
= xdx
b−a a
b 2 − a2
=
2(b − a)
a+b
=
2

Conclusión
a+b
Si X ∼ U [a, b] ⇒ E[X] = 2

` ´
Ejemplo 37. X ∼ B 3, 12 (veáse ejem-
plo 7)

3
E[X] =
2

44
3.1.2. Varianza
Definición 15. Sea X una variable aleatoria (discreta o continua) con
esperanza E[X]. Se define la varianza de X como:
8 P 2
< k (k − E[X]) P [X = k], X discreta
var(X) :=
: R∞
−∞
(X − E[X])2 fX (x)dx, X continua
Observación 33. var(X) ≥ 0
Ejemplo 38. Hallar var(X) en los casos:
a) X ∼ B(n, p)

n
X
var(X) = (k − np)2 P [X = k]
k=0
Xn n
X n
X
= k2 P [X = k] − 2np kP [X = k] + (np)2 P [X = k]
k=0 k=1 k=1
Xn
= k2 P [X = k] − (np)2 por problema 36
k=0
Xn
= k(k − 1)Ckn pk (1 − p)n−k + np − (np)2
k=2
n
X n!
= k(k − 1) p2 pk−2 (1 − p)n−k + np − (np)2
k!(n − k)!
k=2
n
X (n − 2)!
= n(n − 1)p2 pk−2 (1 − p)n−k + np − (np)2
(k − 2)!(n − k)!
k=2
n−2
X (n − 2)!
= n(n − 1)p2 pz (1 − p)n−2−z + np − (np)2 c.v: z = k − 2
z=0
z!((n − 2) − z)!
n−2
X
= n(n − 1)p2 Czn−z pz (1 − p)(n−2)−z + np − (np)2
z=0

= n(n − 1)p2 + np − (np)2


= (np)2 − np2 + np − (np)2
= np(1 − p)

Conclusión
Si X ∼ B(n, p) ⇒ var(X) = np(1 − p)
b) X ∼ U [a, b]

45
Z +∞ „ «2
a+b
var(X) = x− fX (x)dx
−∞ 2
Z +∞ Z +∞
(a + b)2
= x2 fX (x)dx − (a + b) xfX (x)dx +
−∞ −∞ 4
Z b 2 2
1 (a + b) (a + b)
= x2 dx − +
a b − a 2 4
1 (a + b)2
= (b3 − a3 ) −
3(b − a) 4
(b − a)(b2 + ab + a2 ) (a + b)2
= −
3(b − a) 4
4b2 + 4ab + 4a2 − 3a2 + 6ab − 3b2
=
12
b2 − 2ab + a2
=
12
(b − a)2
=
12

Conclusión
(b−a)2
Si X ∼ U [a, b] ⇒ var(X) = 12

cuadro de esperanzas y varianzas


variable aleatoria Esperanza Varianza
B(n, p) np np(1 − p)
1−p
G(p) 1/p pz
P(λ) λ λ
M
H(N, M, n) N
n nM
N
(1 − M N −n
)
N N −1
a+b (b−a)2
U [a, b] 2 12
2
exp(λ) 1/λ 1/λ
N (µ, σ 2 ) µ σ2

46
3.1.3. Esperanza de funciones de variables aleatorias
Definición 16. Supongamos Y := g ◦ X = g(X), entonces
8 P
< k∈Y[Ω] kP [Y = k], Y discreta
E[Y] = E[g(X)] =
: R∞
−∞
yfY (y)dy, Y continua

Ejemplo 39. Sea X ∼ U [−1, 1]


Hallar E[X2 ] (Y = X2 )
obtención de la densidad de Y:
1◦ Y[Ω] = [0, 1]
2◦ Sea y ∈ [0, 1] fijo

FY (y) = P [Y ≤ y]
= P [X2 ≤ y]
√ √
= P [− y ≤ X ≤ y]
Z y√
1
= 2 dx
0 2

= y

Observación 34.

y ∈ [0, 1] ⇔ 0≤y≤1

⇔ 0≤ y≤1

y análogamente −1 ≤ − y ≤ 0
entonces
8 1
< √ ,
2 y
0<y≤1
fY (y) =
:
0, en otro caso

Z +∞
E[Y] = yfY (y)dy
−∞
Z 1
1
= y √ dy
0 2 y
Z 1
1 1
= lı́m y 2 dy
2 ǫ→0 ǫ
1 2
= · lı́m (1 − ǫ3/2 )
2 3 ǫ→0
1
=
3

47
Teorema 2. Supongamos Y = g(X), entonces

8 P
< k∈X[Ω] g(k)P [X = k], X discreta
E[Y] = E[g(X)] :=
: R∞
−∞
g(x)fX (x)dx, X continua

Ejemplo 40.

E[Y] = E[X2 ]
Z +∞
= x2 fX (x)dx
−∞
Z 1
1
= x2 dx
−1 2
1
=
3
Observación 35.
8 P 2
< k (k − E[X]) P [X = k], X discreta
var(X) :=
: R∞
−∞
(X − E[X])2 fX (x)dx, X continua
2
= E[(X − E[X]) ]

(g(x) = (x − E[X])2 , x ∈ R)

3.1.4. Esperanza asociada a funciones de vectores aleato-


rios
Teorema 3. Supongamos X = g(X, Y), entonces

8 P P
< x y g(x, y)P [X = x, Y = y], X, Y discreta
E[g(X, Y)] :=
: R∞ R∞
−∞ −∞
g(x, y)fX (x, y)dxdy, (X, Y) continua

48
3.1.5. Propiedades de la Esperanza
1. Si X = c, entonces

E[X] = c
Observación 36. X = c

X[Ω] = {c}
P [X = c] = 1
2. Si c es constante, entonces

E[cX] = cE[X]
3. E[X + Y] = E[X] + E[Y]

Demostración. Sea

g(x, y) = x + y, ∀(x, y) ∈ R2

y supongase que (X, Y) es un vector continuo con densidad fX

X + Y = g(X, Y)

E[X + Y] = E[g(X, Y)]


Z +∞ Z +∞
= (x + y)fX (x, y)dxdy
−∞ −∞
Z +∞ Z +∞ Z +∞ Z +∞
= xfX (x, y)dxdy + yfX (x, y)dxdy
−∞ −∞ −∞ −∞
Z +∞ Z +∞ Z +∞ „Z +∞ «
= xfX (x, y)dydx + y fX (x, y)dx dy
−∞ −∞ −∞ −∞
Z +∞ „Z +∞ « Z +∞
= x fX (x, y)dydx + yfY (y)dy
−∞ −∞ −∞
Z +∞
= xfX (x)dx + E[Y] por definición de densidad marginal y esperanza
−∞
= E[X] + E[Y]

4. Sean X y X variables aleatorias independientes, entonces

E[X · Y] = E[X] · E[Y]

49
Demostración. Sea

g(x, y) = x · y, ∀(x, y) ∈ R2

y supóngase que (X, Y) es un vector continuo con densidad fX

X · Y = g(X, Y)

E[X · Y] = E[g(X, Y)]


Z +∞ Z +∞
= x · yfX (x, y)dxdy
−∞ −∞
Z +∞ Z +∞
= x · yfX (x)fY (y)dxdy pues X y Y son independientes
−∞ −∞
Z +∞ „Z +∞ «
= y xfX (x)dx fY (y)dy
−∞ −∞
Z +∞
= E[X] yfY (y)dy
−∞
= E[X] · E[Y]

3.1.6. Propiedades de la Varianza

var(X) := E[(X − E[X])2 ]


1. Sea c es constante
Entonces

var(X + c) = var(X)

Demostración.

var(X + c) = E[(X + c − E[X + c])2 ]


= E[(X + c − E[X] − c)2 ]
= E[(X − E[X])2 ]
= var(X)

2. Sea c una constante


Entonces

var(cX) = c2 var(X)

50
Demostración.

var(cX) = E[(cX − E[cX])2 ]


= E[(cX − cE[X])2 ]
= c2 E[(X − E[X])2 ]
= c2 var(X)

3. Sean X y X variables aleatorias independientes, entonces

var(X + Y) = var(X) + var(Y)

Demostración.

var(X + Y) = E[((X + Y) − E[X + Y])2 ]


= E[(X − E[X]) + (Y − E[Y])2 ]
= var(X) + 2E[(X − E[X])(Y − E[Y])] + var(Y)
= var(X) + var(Y) + 2(E[XY] − E[X]E[Y] − E[X]E[Y] + E[X]E[Y])
= var(X) + var(Y) + 2(E[XY] − E[X]E[Y])
= var(X) + var(Y)

51
Ejemplo 41. Suponga que X y Y son variables aleatorias independientes
con densidades:
f (x) = x83 , x > 2;
g(y) = 2y, 0 < y < 1
a) Encuentre la densidad de Z = XY
primero observe que
z
z = xy ⇒ y =
x
de donde 0 < y < 1 ⇒ 0 < z < x
8 8
< x3
si x > 2
f (x) =
:
0 en otro caso
8
< 2y si 0 < z < x
g(y) =
:
0 en otro caso

Sea z ∈ [0, ∞]

Z ∞ „ «
8 2z 1
fXY (z) = dx
x3 x |x|
Z2 ∞
16z
= dx
2 x5
16z
=
4(2)4
z
=
4
Sea z ∈ [2, ∞]

52
Z ∞ „ «
8 2z 1
fXY (z) = dx
x3 x |x|
Zz ∞
16z
= dx
z x5
4
=
z3

por lo tanto
8 z
< 4
si 0 ≤ z < 2
fXY (z) =
: 4
z3
si z > 2
b) Obtenga E[Z] de dos maneras:
i) Usando la densidad de Z

Z +∞
E[Z] = zfZ (z)dz
−∞
Z 2 Z +∞
z 4
= z dz + z dz
0 4 2 z3
Z 2 Z +∞
1 2
= z dz + 4 z −2 dz
4 0 2
8
=
3
ii) Directamente, sin usar la densidad de Z

E[Z] = E[XY]
= E[X]E[Y]
„Z ∞ « „Z 1 «
8
= x 3 dx y(2y)dy
2 x 0
„ Z ∞ «„ Z 1 «
−2
= 8 x dx 2 y 2 dy
2 0
8
=
3

53
Ejemplo 42. Suponga que X es una variable aleatoria tal que E[X] = 10
y var(X) = 25
¿Para que valores positivos de a y de b tiene Y = aX − b esperanza
cero y varianza 1?

1 = var(Y)
= var(aX − b)
= var(aX)
= a2 · var(X)
= a2 · 25

entonces
1
a=
5

0 = E[Y]
= E[aX − b]
= a · E[X] − b
1
= · 10 − b
5

entonces
b=2

54
3.1.7. Desigualdad de Chebyschev
Sea X una variable aleatoria con esperanza y varianza, ambas finitas.
Entonces para cada δ > 0, se cumple

var(X)
P [|X − E[X]| < δ] ≥ 1 − (3)
δ2
Observación 37.
var(X)
1− ≤ P [|X − E[X]| < δ] ≤ 1
δ2
Demostración. Supongase que X es continua

var(X) = E[(X − E[X])2 ]


Z +∞
= (X − E[X])2 fX (x)dx
−∞
Z Z
= (X − E[X])2 fX (x)dx + (X − E[X])2 fX (x)dx
{x:|X−E[X]|<δ} {x:|X−E[X]|≥δ}
Z
≥ (X − E[X])2 fX (x)dx
{x:|X−E[X]|≥δ}
Z
= (X − E[X])2 fX (x)dx
{x:(X−E[X])2 ≥δ 2 }
Z
≥ δ2 fX (x)dx
{x:(X−E[X])2 ≥δ 2 }
Z
= δ2 fX dx
{x:P [(X−E[X])2 ≥δ 2 ]}
Z
= δ2 fX dx
{x:P [|X−E[X]|≥δ]}

= δ 2 P [|X − E[X]| ≥ δ]
= δ 2 (1 − P [|X − E[X]| < δ])

var(X)
P [|X − E[X]| < δ] ≥ 1 −
δ2

Observación 38. Sea X una variable aleatoria tal que var(X) = 0. En-
tonces X ≡ E[X]

55
3.1.8. Ley debil de los grandes números
Sean X1 , X2 , . . . variables aleatorias independientes e identicamente
distribuidas
Supongase que X1 tiene esperanza y varianza finitas. Denotemos, para
cada n = 1, 2, 3, . . .

Sn := X1 + X2 + · · · + Xn
Entonces para cada δ > 0 tenemos
»˛ ˛ –
˛ Sn ˛
lı́m P ˛˛ − E[X1 ]˛˛ < δ = 1
n→∞ n
Sn
(para n grande n
≈ E[X1 ])

Demostración. Note que para n = 1, 2, . . .


E[Sn ] = E[X1 + · · · + Xn ] = n · E[X1 ]
var(Sn ) = var(X1 + · · · + Xn ) = n · var(X1 )
Entonces, dado δ > 0

»˛ ˛ –
˛ Sn ˛
P ˛
˛ − E[X1 ]˛˛ < δ = P [|Sn − n · E[X1 ]| < n · δ]
n
var(Sn )
≥ 1− usando la desigualdad de chebyschev
n2 δ 2
n · var(X1 )
= 1−
n2 · δ 2
var(X1 )
= 1−
n · δ2
por tanto, para cada n = 1, 2, . . .
»˛ ˛ –
˛ Sn ˛ var(X1 )
1 ≥ P ˛˛ − E[X1 ]˛˛ < δ ≥ 1 −
n n · δ2
se sigue entonces que cuando n → ∞:
»˛ ˛ –
˛ Sn ˛
lı́m P ˛˛ − E[X1 ]˛˛ < δ = 1
n→∞ n

56
3.1.9. Ley fuerte de los grandes números
Sean X1 , X2 , . . . variables aleatorias independientes e identicamente
distribuidas
Supongase que X1 tiene esperanza finita
Entonces,

Sn
→ E[X1 ] con probabilidad 1
n
( Snn ≈ E[X1 ], para n grande)
Observación 39. Supongase que X ∼ B(1, p), Y ∼ B(1, p), y que X y Y
son independientes
¿Cuál es la distribución probabilistica de X + Y?

(X + Y)[Ω] = {0, 1, 2}

P [X + Y = 0] = P [X = 0, Y = 0]
= (P [X = 0])2
= (1 − p)2
= C02 p0 (1 − p)2

P [X + Y = 1] = 2P [X = 0] · P [Y = 1]
= C12 p(1 − p)

P [X + Y = 2] = C22 p2 (1 − p)0

∴ X + Y ∼ B(2, p)
Observación 40. En general es posible demostrar por inducción que:
Si X1 , X2 , . . . , Xn son independientes y Xi ∼ B(1, p), ∀i = 1, 2, . . . , n,
entonces

X1 + X2 + · · · + Xn ∼ B(n, p)

57
Ejemplo 43 (frecuencia relativa). Sea ǫ un experimento aleatorio con
espacio de probabilidad (Ω, F, P )
Sea A un evento tal que p = P [A]
Para cada i = 1, 2, . . . , n sea Xi ∼ B(1, p) y suponga que X1 , X2 , . . . , Xn
son variables independientes.

observe que:
E[Xi ] = p ∀i = 1, 2, . . . , n
Sn X1 +X2 +···+Xn
n
= n
(frecuencia relativa de A)
pues Sn = X1 + X2 + · · · + Xn ∼ B(n, p)
por la ley de los grandes números

Sn
→ p = P (A), con probabilidad 1
n

3.1.10. Teorema Limite Central (Forma Clásica)


Teorema 4 (Teorema Limite Central). Sean X1 , X2 , . . . variables inde-
pendientes identicamente distribuidas.
Supongase que X1 tiene esperanza y varianza finitas, con var(X1 ) > 0
Entonces
" # Z x
Sn − E[Sn ] 1 t2
lı́m P p ≤x = √ e− 2 dt
n→∞ var(Sn ) 2π −∞
x ∈ R, Sn := X1 + · · · + Xn , n = 1, 2, . . .
Observación 41. En pocas palabras el teorema dice que si n es grande,

Sn − E[Sn ]
p ≈ X∗
var(Sn )
Observación 42. El teorema anterior se puede interpretar para X∗ ∼
N (0, 1) como sigue:
" #
Sn − E[Sn ]
lı́m P p ≤ x = P [X∗ = x]
n→∞ var(Sn )
Observación 43. var(X) = 0 ⇒ X constante
Observación 44.
" #
Sn − E[Sn ] 1
E p = p E[Sn − E[Sn ]]
var(Sn ) var(Sn )
1
= p (E[Sn ] − E[Sn ])
var(Sn )
= 0

58
!
Sn − E[Sn ] 1
var p = p var(Sn − E[Sn ])
var(Sn ) var(Sn )
1
= p var(Sn )
var(Sn )
= 1

Observación 45. Si X ∼ B(n, p), entonces para poder aplicar el teorema


se debe satisfacer tambien lo siguiente:

X = Sn = X1 + · · · + Xn
Xi ∼ B(1, p), ∀i = 1, 2, . . . , n
X1 , . . . , Xn son independientes
Ejemplo 44 (Aproximacion normal a la Binomial). Sea X ∼ B(900, 12 )
entonces
E[X] = (900)( 21 ) = 450
var(X) = (900)( 21 )(1 − 21 ) = 225
X = S900 por observación 40

P [X ≥ 500] = P [S900 ≥ 500]


" #
S900 − E[S900 ] 500 − 450
= P p ≥ √
var(S900 ) 225
≈ P [X∗ ≥ 3,33]
= 0,0004

P [400 ≤ X ≤ 500] = P [400 ≤ S900 ≤ 500]


" #
400 − 450 S900 − E[S900 ] 500 − 450
= P √ ≤ p ≤ √
225 var(S900 ) 225
= 0,9992

P [X = 420] = P [419,5 ≤ X ≤ 420,5]


» –
419,5 − 450 ∗ 420,5 − 450
= P √ ≤X ≤ √
225 225

= P [−2,63 ≤ X ≤ −1,96]
= φ(2,03) − φ(1,96)
= 0,4788 − 0,4750
= 0,0638

59
PROBLEMA 46. Al sumar números, una computadora aproxima cada
número al entero mas próximo. Supongase que todos los errores de apro-
ximación son independientes y que están distribuidos uniformemente en
[-0.5,0.5]. Si se suman 1500 números, ¿cuál es la probabilidad de que el
valor absoluto del error total exceda a 15?
Solución 47.
8
< Xi = errores de aproximación i = 1, 2, . . . , 1500
:
Xi ∼ U [−0.5, 0.5] ∀i = 1, 2, . . . , 1500

S1500 = X1 + · · · + X1500

P [|S1500 | > 15] = P [S1500 > 15] + P [S1500 < −15]


15 − 0 −15 − 0
≈ P [X∗ > ] + P [X∗ < ]
11.18 11.18
= P [X∗ > 1,341] + P [X∗ < −1,341]
= 2P [X∗ > 1,341]
„ «
1
= 2 − φ(1,341)
2
= 0.1802

PROBLEMA 48. Supongase que los tiempos de espera para los clientes
que pasan por una caja registradora a la salida de una tienda son variables
aleatorias independientes e identicamente distribuidas con esperanza 1.5
minutos y varianza 1.0
Aproxime la probabilidad de que se pueda atender a 100 clientes en
menos de 120 minutos.
Solución 49.
Xi = tiempo de espera del i-esimo cliente i = 1, 2, . . . , 100

S100 = X1 + · · · + X100

120 − 150
P [S100 ≤ 120] ≈ P [X∗ ≤ ]
10

= P [X ≤ 3]
1
= + φ(3)
2
= 0.9974

60
PROBLEMA 50. Supongase que tenemos 20 voltajes vi , i = 1, 2, . . . , 20
con ruido independiente
P que se reciben en lo que se llama un ”sumador
de voltaje”. Sea V = 20
i=1 vi donde se supone que vi ∼ U [0, 10] para toda
i = 1, . . . , 20

Aproxime P [V > 105]


Solución 51.
8
< Xi = voltajes con ruido i = 1, 2, . . . , 20
:
Xi ∼ U [0, 10] ∀i = 1, 2, . . . , 20

S20 = V

P [V > 105] = P [S20 > 105]


105 − 100
≈ P [X∗ > ]
12.90

= P [X > 0.3875]
1
= − φ(0,3875)
2
= 0.352

61
PROBLEMA 52. a) Sea c una constante y X una variable aleatoria
con E[X] = µ y var(X) = σ 2
Demuestre que

E[(X − c)2 ] = (µ − c)2 + σ 2


b) Supongase que E[(X − c)2 ] se piensa como función de c,
es decir

g(c) = E[(X − c)2 ], c∈R


¿Para que valor de c, g alcanza su mı́nimo?
Solución 53. a)

E[(X − c)2 ] = E[X2 ] − 2cµ + c2 + µ2 − µ2


= (µ − c)2 + (E[X2 ] − µ2 )
= (µ − c)2 + (E[X2 − (E[X])2 ])
= (µ − c)2 + var(X)

b) c = µ
PROBLEMA 54. Construya un ejemplo de una distribución de proba-
bilidad cuya esperanza exista pero su varianza no (es decir esperanza finita
y varianza infinita)
Observación 55. Sea X una variable aleatoria tal que la función de
probabilidad puntual esta definida según la siguiente regla:
1 1
P [X = n] = , n= 1, 2, . . .
π / 6 n2 | {z }
rango de X
entonces

+∞
X
E[X] = n · P [X = n]
n=1
+∞
X 1 1
= n·
n=1
π 2 /6 n2
+∞
1 X1
=
π 2 /6 n=1 n
= +∞

62
Observación 56.
1
Sn − E[Sn ] n
(Sn − E[Sn ])
p = 1
p
var(Sn ) n
var(Sn )
Sn
n
− E[ Snn ]
= q
1
n2
var(Sn )
Sn
n
− E[ Snn ]
= q
var( Snn )
≈ X∗ para n grande

Ejemplo 45. Supongase que un instrumento electrónico tiene una dura-


ción T que está distribuida exponencialmente con parametro λ =0.001
Si se prueban 100 de tales instrumentos (lo que da valores observados:
T1 , . . . , T100 )
¿Cuál es la probabilidad de que 950 < T < 1100?
T1 +···+T100
Observación 57. T = 100

» –
T1 + · · · + T100
E[T] = E
100
1
= E[T1 + · · · + T100 ]
100
100
= E[T1 ]
100
= E[T1 ]
1
=
λ
= 1000

s „ «
q
T1 + · · · + T100
var(T) = var
100
1 p
= var(T1 + · · · + T100 )
100
10 p
= var(T1 )
100
r
1 1
=
10 λ2
„ «
1 1
=
10 0,001
= 100

Observación 58. Se supuso que T1 , . . . , T100 son independientes

63
» –
950 − 1000 ∗ 1100 − 1000
P [950 < T < 1100] ≈ P <T <
100 100

= P [−0,5 < T < 1]
= 0,5328

PROBLEMA 59. Sean X1 , X2 , . . . variables independientes identica-


mente distribuidas
Supongase que E[X1 ] = λ y que var(X1 ) = q
Utilice el teorema lı́mite central para determinar el menor valor de n
para el cual
»˛ ˛ –
˛ Sn ˛
P ˛˛ − λ˛ < 0,3 ≥ 0,95
˛
n
donde Sn := X1 + · · · + Xn

64
Áreas bajo la curva
normal estándar
de 0 a z
z 0 2 2 3 4 5 6 7 8 9
0.0 .0000 .0040 .0080 .0120 .0160 .0199 .0239 .0279 .0319 .0359
0.1 .0000 .0040 .0080 .0120 .0160 .0199 .0239 .0279 .0319 .0359
0.2 .0000 .0040 .0080 .0120 .0160 .0199 .0239 .0279 .0319 .0359
0.3 .1179 .1217 .1255 .1293 .1331 .1368 .1406 .1443 .1480 .1517
0.4 .1179 .1217 .1255 .1293 .1331 .1368 .1406 .1443 .1480 .1517
0.5 .1179 .1217 .1255 .1293 .1331 .1368 .1406 .1443 .1480 .1517
0.6 .2258 .2291 .2324 .2357 .2389 .2422 .2454 .2486 .2518 .2549
0.7 .2258 .2291 .2324 .2357 .2389 .2422 .2454 .2486 .2518 .2549
0.8 .2258 .2291 .2324 .2357 .2389 .2422 .2454 .2486 .2518 .2549
0.9 .3159 .3186 .3212 .3238 .3264 .3289 .3315 .3340 .3365 .3389
1.0 .3159 .3186 .3212 .3238 .3264 .3289 .3315 .3340 .3365 .3389
1.1 .3159 .3186 .3212 .3238 .3264 .3289 .3315 .3340 .3365 .3389
1.2 .3159 .3186 .3212 .3238 .3264 .3289 .3315 .3340 .3365 .3389
1.3 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
1.4 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
1.5 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
1.6 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
1.7 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
1.8 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
1.9 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
2.0 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
2.1 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
2.2 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
2.3 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
2.4 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
2.5 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
2.6 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
2.7 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
2.8 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
2.9 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
3.0 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
3.1 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
3.2 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
3.3 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
3.4 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990
3.5 .4987 .4987 .4987 .4988 .4988 .4989 .4989 .4989 .4990 .4990

65
PROBABILIDAD
CONDICIONAL
Sea ǫ un experimento con espacio muestral Ω

Proposición 4.

P (Ac ) = 1 − P (A) para todo evento A

Proposición 5.
P (B\A) = P (B) − P (A ∩ B)
Proposición 6.

P (A ∪ B) = P (A) + P (B) − P (A ∩ B)

Observación 60. En general

n
X X X
P (A1 ∪A2 ∪· · ·∪An ) = P (Ak )− P (Ai ∩Aj )+ P (Ai ∩Ak ∩Aj )−· · ·+(−1)n−1 P (A1 ∩· · ·∩An )
k=1 i<k i<k<j

Definición 17.
P (A ∩ B)
P (A|B) :=
P (B)
Teorema 5 (Teorema de la multiplicación). Sean A1 , A2 , . . . , Am eventos
tales que P (A1 ∩ · · · ∩ Am ) > 0. Entonces

P (A1 ∩· · ·∩Am ) = P (A1 )·P (A2 |A1 )·P (A3 |A1 ∩A2 ) · · · P (Am |A1 ∩A2 ∩· · ·∩Am−1 )

Definición 18. Diremos que los eventos A1 , . . . , An forman una partición


de Ω si
a) Ai ∩ Aj = ∅ si i 6= j
b) Ω = A1 ∪ A2 ∪ · · · ∪ An
c) P (Ai ) > 0 ∀i = 1, . . . , n
Teorema 6 (Teorema de la probabilidad total). Sea {Ai }n
i=1 una parti-
ción de Ω. Entonces, si A es un evento tenemos que
n
X
P (A) = P (A|Ai )P (Ai )
i=1

Demostración. A = (A ∩ A1 ) ∪ (A ∩ A2 ) ∪ · · · ∪ (A ∩ An )
entonces
n
X n
X
P (A) = P (A ∩ Ai ) = P (A|Ai ) · P (Ai )
i=1 i=1

66
Teorema 7 (Fórmula de Bayes). Supongase las hipótesis del Teorema
anterior. Sea Ak un elemento de la partición y sea A un evento, con
P (A) > 0. Entonces

P (Ak ∩ A) P (A|Ak ) · P (Ak )


P (Ak |A) = = Pn
P (A) i=1 P (A|Ai ) · P (Ai )

Ejemplo 46. Un motor V8 de autómovil tiene tres soportes independien-


tes, cuyas probabilidades de romperse en un lapso de 8 años son, respec-
tivamente, 0.2, 0.4 y 0.3 %. Si el conductor del vehı́culo percibe el ruido
caracterı́stico de dos soportes quebrados, halle la probabilidad de que se
hayan roto los soportes primero y segundo.

Llamemos pi la probabilidad de que se haya roto el soporte i y qi la


probabilidad de que no se haya roto el soporte i

p1 = 0,2
p2 = 0,4
p3 = 0,3

B1 = { se rompieron 1 y 2 pero no el 3}
B2 = { se rompieron 1 y 3 pero no el 2}
B3 = { se rompieron 2 y 3 pero no el 1}

P (B1 ) = p1 p2 q3
P (B2 ) = p1 q2 p3
P (B3 ) = q1 p2 p3

Sea A = {se rompieron 2 soportes}


3
X
P (A) = P (Bi ) = 0,1880
i=1
Aplicando Bayes obtenemos:

P (B1 )P (A|B1 )
P (B1 |A) =
P (A)
p1 p2 q3
=
P (A)
= 0,2978

67
Índice
1. VARIABLES ALEATORIAS DISCRETAS 1
1.1. Variable Aleatoria Binomial . . . . . . . . . . . . . . . . . . 1
1.2. Variable Aleatoria de Poisson . . . . . . . . . . . . . . . . . 3
1.3. Variable Aleatoria Geometrica . . . . . . . . . . . . . . . . . 5
1.4. Función de distribucion acumulativa . . . . . . . . . . . . . 8
1.4.1. Propiedades de la distribución acumulativa asociada
a una variable aleatoria discreta . . . . . . . . . . . 9
1.5. Variable Aleatoria Hipergeometrica . . . . . . . . . . . . . . 10

2. ESPACIOS DE PROBABILIDAD Y VARIABLES ALEA-


TORIAS 11
2.1. VARIABLES ALEATORIAS CONTINUAS . . . . . . . . . 12
2.1.1. VARIABLES ALEATORIAS CONTINUAS DEFI-
NIDAS MEDIANTE DENSIDADES . . . . . . . . . 13
2.2. Ejemplos de variables aleatorias continuas . . . . . . . . . . 14

3. VARIABLES ALEATORIAS (BIDIMENSIONALES) 23


3.0.1. Función de probabilidad puntual de X . . . . . . . . 23
3.0.2. Funciones de probabilidad puntual marginales . . . . 23
3.0.3. Funciones de probabilidad condicional . . . . . . . . 23
3.0.4. Vectores aleatorios generados por densidades . . . . 25
3.0.5. Densidades Marginales . . . . . . . . . . . . . . . . . 26
3.0.6. Densidades Condicionales . . . . . . . . . . . . . . . 29
3.0.7. Densidades de funciones de variable aleatoria . . . . 32
3.0.8. Densidades de la suma y del producto de variables
aleatorias independientes . . . . . . . . . . . . . . . 38
3.1. ESPERANZA Y VARIANZA . . . . . . . . . . . . . . . . . 43
3.1.1. Esperanza . . . . . . . . . . . . . . . . . . . . . . . . 43
3.1.2. Varianza . . . . . . . . . . . . . . . . . . . . . . . . . 45
3.1.3. Esperanza de funciones de variables aleatorias . . . . 47
3.1.4. Esperanza asociada a funciones de vectores aleatorios 48
3.1.5. Propiedades de la Esperanza . . . . . . . . . . . . . 49
3.1.6. Propiedades de la Varianza . . . . . . . . . . . . . . 50
3.1.7. Desigualdad de Chebyschev . . . . . . . . . . . . . . 55
3.1.8. Ley debil de los grandes números . . . . . . . . . . . 56
3.1.9. Ley fuerte de los grandes números . . . . . . . . . . 57
3.1.10. Teorema Limite Central (Forma Clásica) . . . . . . . 58

68

También podría gustarte