Documentos de Académico
Documentos de Profesional
Documentos de Cultura
INTRODUCCIN
En la naturaleza existen fenmenos que se denominan aleatorios. Que sean
aleatorios signica simplemente que no es posible predecir con entera exactitud
sus resultados.
El que un fenmeno sea aleatorio no necesariamente es una propiedad del
fenmeno mismo, sino de la posicin relativa del observador. Por ejemplo, un
eclipse solar ha dejado de ser aleatorio porque con las leyes de la mecnica
celeste hoy da se le puede predecir con entera certeza, pero para alguien que
no conoce de mecnica celeste, el eclipse solar es esencialmente un fenmeno
aleatorio; los nmeros aleatorios generados por una computadora en el fondo
no son aleatorios porque se producen en forma recursiva, pero al no conocerse
explcitamente dicha funcin recursiva, s resultan aleatorios en el sentido de
que no podemos predecir la secuencia.
Ejemplos de fenmenos aleatorios:
1. En Fsica: La resistencia a la tensin de una barra de acero.
2. En poltica: El nmero de integrantes del padrn electoral que va a votar
por un cierto candidato.
3. En Economa: El ndice de inacin al nal del ao.
4. En produccin: El nmero de artculos defectuosos que se producirn en
una jornada de trabajo.
5. En meteorologa: La temperatura de maana a las 8 de la maana.
6. En Educacin: El nmero de alumnos que aprobarn el curso de probabilidad.
7. En Medicina: El nmero de pacientes que resultarn curados cuando se
les aplique un nuevo medicamento.
Ante la presencia de un fenmeno aleatorio, hay dos actitudes posibles:
(a) Resignarse y decir no hay nada que yo pueda hacer al respecto.
(b) Reconocer que la aleatoriedad est presente, enfrentarla y proceder a cuanticarla (actitud cientca y racional).
(b) se aborda matemticamente a travs de una abstraccin llamada modelo
de probabilidad, que se representa por ( ; A; P ), donde
representa los
resultados posibles del fenmeno aleatorio, A es un conjunto de subconjuntos
de llamados eventos cuyo azar es de inters cuanticar y P es una funcin de
A en R que asigna una magnitud a cada evento, as que, se hablar de P (A),
8A 2 A; a P se le llama medida de probabilidad.
1
Este modelo de probabilidad realiza todo lo que un ser humano puede hacer
con respecto a un fenmeno aleatorio, que es cuanticar la incertidumbre a
travs de la asignacin de probabilidades a los eventos. Todo lo dems, es decir,
la prediccin de un resultado especco de un fenmeno aleatorio, solo puede ser
obra de un ser con poderes sobrenaturales. Hay que notar que en el momento
en que un fenmeno sea predecible, deja de ser til el concepto de modelo de
probabilidad, ya que el fenmeno deja de ser aleatorio por denicin.
La Teora de Probabilidad tiene por objeto estudiar las propiedades del
modelo ( ; A; P ); por ejemplo, si se conoce el valor de P (A) para ciertos tipos
de eventos A, podemos estudiar cules son los valores de P (B) para eventos B
que son de estructura ms compleja que A.
EL CURSO
Este curso es slo una introduccin a la probabilidad, consistiendo bsicamente en identicar cada uno de los elementos del modelo ( ; A; P ) y en
construir procesos y estrategias que nos permitan aprender a asignar medidas
de probabilidad a ciertos eventos en situaciones especcas, esto es lo que comnmente se denomina clculo de probabilidades.
1.1
1.1.1
El espacio de Probabilidad ( , A, PX )
Probabilidad a Priori, a Posteriori y Axiomtica
Frecuencia
nA
nS
200
Frecuencia Relativa
nA =200
nS =200
1
1.1.2
El Espacio Muestral
Denicin: Se llama espacio muestral al conjunto formado por todos los
resultados posibles de un experimento.
El espacio muestral ser denotado con la letra griega
Ejemplos:
1. Lanzar una moneda.
1. Sean
3gg
0, 8A 2 A
1
S
i=1
Ai
1
X
P (Ai ).
i=1
1.1.3
) P (;) = P
) P (;) =
)
1
P
i=2
1
P
1
S
Ai
i=1
P (;)
1
P
i=1
i=1
) P (;) = 0
2) Si A1 , A2 ; :::; An ; son eventos ajenos a pares, entonces P
n
P
n
S
i=1
P (Ai )
i=1
Demostracin:
Tomemos An+1 = ;, An+2 = ;; An+3 = ;; :::
7
Ai
)P
n
S
1
S
=P
i=1
Ai
i=1
1
S
n
S
Ai
i=1
1
P
Ai
i=1
P (Ai ) =
i=1
1
P
P (Ai )
i=1
P (Ai ) +
i=1
n
P
1
P
P (;)
i=n+1
i=1
3) P (Ac ) = 1
P (A)
Demostracin:
= P (A [ Ac )
P( )
= P (A) + P (Ac )
) 1 = P (A) + P (Ac ); por lo tanto, P (Ac ) = 1
4) 0
P (A)
P (A).
Demostracin:
Por denicin, P (A)
!!!contradiccin.
Por lo tanto 0 P (A)
5) Si A
B ) P (A)
P (A) < 0
1.
P (B).
Demostracin:
B = A [ (B A), pero A \ (B A) =
) P (B) = P (A)+P (B A), pero P (B A)
6) P (A [ B) = P (A) + P (B)
P (A):
P (A \ B).
Demostracin:
A [ B = (A \ B) [ (A
P (A [ B)
B) [ (B
A)
= P (A \ B) + P (A
B) + P (B
A)
= P (A \ B) + P (A
B) + P (B
A) + P (A \ B)
= P (A) + P (B)
P (A \ B):
6)
8
P (A \ B)
P (A1 [ A2 [ A3 )
En general:
n
n
X
S
P ( Ai ) =
P (Ai )
i=1
i=1
P (A1 \ A2 )
P (A1 \ A3 )
P (A2 \ A3 ) + P (A1 \ A2 \ A3 )
X
i<j
P (Ai \ Aj ) +
i<j<k
P (Ai \ Aj \ Ak )
+ ( 1)n+1 P (A1 \ A2 \
\ An )
Ejemplos:
1. Un estudiante seleccionado de una clase puede ser chico o chica. Si la probabilidad de que un chico sea seleccionado es 0.3, cul es la probabilidad
de que sea seleccionada una chica?
Solucin:
P (chica)
=1
P (chico)
=1
0:3
= 0:7
2. Se selecciona un punto (x; y) del cuadrado S que contiene todos los puntos
(x; y) tales que 0 x 1 y 0 y 1. Supngase que la probabilidad de
que el punto seleccionado pertenezca a cualquier subconjunto especco
de S es igual al rea de ese subconjunto. Determnese la probabilidad del
1
subconjunto de puntos tales que (x 12 )2 + (y 12 )2
4.
Solucin:
P ((x; y) 2 A) =rea A, A
B = f(x; y) j (x
P (B)
=1
+ (y
P ((x; y) j (x
S. Nos piden
1 2
2)
1 2
2)
1
4g
+ (y
1 2
2)
1
4)
( 14 )
=1
=1
=
1 2
2)
4
4
1.1.4
Espacios nitos
Teorema de caracterizacin de probabilidad en un espacio nito: Sea
= f! 1 ; ! 2 ; :::; ! n g un espacio muestral con un nmero nito de elementos.
Sea p1 ; p2 ; :::; pn nmeros reales tales que pi
0; i = 1; 2; :::; n y tales que
n
P
pi = 1: Entonces
i=1
de probabilidad sobre 2 :
n
P
i=1
b) P (f! i g) = pi , i = 1; 2; :::; n
Ejemplos:
1. Consideremos como el conjunto de resultados posibles del lanzamiento
de un dado, esto es,
= f1; 2; 3; 4; 5; 6g: Sea P (fig) = pi = 1=6; 8i =
1; 2; 3; 4; 5; 6: Entonces, las pi cumplen las propiedades del teorema. Calcula ahora la probabilidad de que salga un nmero que est en el intervalo
[2, 5].
Sol.: P (f2; 3; 4; 5g) = P (f2g) + P (f3g) + P (f4g) + P (f5g) = 4=6
2. Las pi no tienen porque ser iguales, por ejemplo un espacio muestral que
frecuentemente aparece en la prctica es uno de la forma
= f0; 1; 2;
:::; ng; por ejemplo,
podra ser el nmero de artculos defectuosos en
n i
un lote de n. Si denimos P (fig) = pi =
p (1 p)n i , donde p es
i
la probabilidad de que un artculo sea defectuoso, estas pi cumplen las
condiciones del teorema. Veremos ms adelante que a P se le denomina
distribucion binomial:
10
Espacios Numerables
Teorema de caracterizacin de probabilidad en un espacio numerable:Sea = f! 1 ; ! 2 ; :::; ! n g un espacio muestral numerable, sean p1 ; p2 ; p3 ;
1
P
:::; una sucesin de nmeros tales que pi 0, i = 1; 2; ::: y tales que
pi = 1.
i=1
Entonces
1
P
a) La funcin P : 2 ! R denida por P (A) =
IA (! i )pi es una medida
i=1
de probabilidad sobre 2 .
b) P (f! i g) = pi , i = 1; 2; 3; :::;
c) Si Q es una medida de probabilidad tal que Q(f! i g) = P (f! i g), entonces
Q(A) = P (A), 8A 2 2 .
Ejemplos:
1. Distribucin Geomtrica: Supngase que en un cierto proceso slo se
observan dos resultados posibles, 1=xito o 0=fracaso. Supongamos que
el experimento consiste en realizar una y otra vez el proceso hasta que
ocurra el primer xito y se anota el nmero de realizaciones. Entonces
= f1; 2; :::; g, si se sabe que probabilidad de xito=p se puede determinar
que P (! i ) = pi = p(1 p)i 1 , i = 1; 2; ::: Notar: Que el espacio no
es uniforme, ya que pi 6= pj , i 6= j. Hallar la probabilidad de que el
experimento concluya realizando el proceso a lo ms tres veces.
2. Distribucin Poisson: Se usa cuando se estudia la incertidumbre de
eventos raros (por ejemplo, no. de accidentes de trnsito en una cierta
esquina), tambin juega un papel importante en la teora de colas = f0;
i
e
1; 2; :::; g, pi =
, i = 0; 1; 2; :::;
i!
Ambas distribuciones se vern con mucho detalle en el tema de variables
aleatorias.
Espacios Continuos
Se reere al caso en el que el espacio muestral
es un conjunto innito no
numerable y lo estudiaremos con detalle en la unidad de variables aleatorias.
1.1.5
Espacios Equiprobables
11
1
Teorema: En un modelo de probabilidad uniforme, P (f! i g) = , i = 1;
n
#A
2; :::; n y P (A) =
,A22 .
#
Ejemplos
1) Supngase que una moneda equilibrada va a ser lanzada diez veces y se desea
determinar (a) la probabilidad de obtener exactamente tres caras y (b) la
probabilidad de obtener a la ms tres caras.
Solucin: (a) Sea el evento A: se obtienen exactamente tres caras en los
(10)
10 lanzamientos, entonces P (A) = 2310 = 0:1172
(b) Sea el evento B: salen a lo ms 3 caras en los 10 lanzamientos, entonces
10
10
(10)+(10
1 )+( 2 )+( 3 )
= 176
P (B) = 0
210
210 = 0:1719
2) Supngase que en una clase hay 15 muchachos y 30 muchachas, y que se van
a seleccionar al azar 10 estudiantes para una tarea especial. Calcular la
probabilidad de seleccionar exactamente 3 muchachos.
Solucin: Sea el evento A: Entre los 10 seleccionados hay exactamente 3
(15)(30)
muchachos. Entonces, P (A) = 3 45 7 = 0:2904
(10)
3) Consideremos el experiment o de lanzar dos dados. Calcule la probabilidad
de que la suma de los nmeros que aparecen sea 7.
Solucin:
= f(x; y) j 1
6; x; y 2 N}
Es sensato suponer que es tan probable que salga una cierta pareja (x; y)
como cualquier
otra, as que trabajaremos con un modelo de probabilidad uniforme. Entonces si denimos
A7 :La suma de los nmeros que aparecen es 7, tenemos
P (A7 ) =
P (A7 )
#A7
; pero #
#
=
6
36
1
6
3524
3624
no muestran el 1. Entonces la
= 0:491
P (A) = 1
5 r
6
> 1=2 ) r
4:
9 k
10
8 k
10
12!
3! 4!4!4!
15!
5!5!5!
4
8
3!(12
4 )(4)(4)
5
10
(15
5 )( 5 )(5)
(n r r 1 1)
(18
3)
n
K k (M K)n k , por tanto
k
n
K k (M K)n k
k
P (Ak ) =
Mn
#Ak =
= f(x1 ; x2 ; :::; xn ) j xi = 1;
ii)
#
xi
M , xi 6= xj , i 6= jg
=PM;n
n
PK;k PM
k
#Ak =
P (Ak )
K;n k ,
n
PK;k PM
k
PM;n
entonces
K;n k
n!
k!
(M K)!
k!(n k)! (K k)! [(M K) (n_k)]!
=
M!
n!
(M n)!
1
=
k!(n
K
k
k!
(M K)!
k)! (K k)! [(M K) (n k)]!
M!
n!
(M n)!
M
n
M
n
K
k
14
Bajo (i) cul es la probabilidad de que las n bolas extradas tengan nmeros
distintos?
= f(x1 ; x2 ; ; :::; xn ) j 1
#
=M
xi
M , xi 2 Ng
= (365)k
#B c =P365;k
P (B)
= P (al menos 2)
=1
P (B c )
=1
P365;k
(365)k
15
p2
= 2p1
p3
= 2p2 = 2(2p1 ) = 22 p1
p4
= 2p3 = 2(22 p1 ) = 23 p1
..
.
pj
= 2j
p1
por tanto
P (Ak )
k
P
pi
i=1
k
P
2i
p1
i=1
= p1
k
P
2i
i=1
= p1
1 2k
1 2
= p1 (2k
1) (*)
i=1
por tanto
p1
N
P
2i
p1 = 1,
i=1
1
N
P
2i
i=1
=
=
1 2N
1 2
1
2N
recordar que 1 + x + x2 +
2k
2N
1.2
1.2.1
+ xn =
xn+1
1 x
1
:
1
El Teorema de Bayes
Eventos Condicionados
16
Por ejemplo, supongamos que una urna contiene n bolas de las cuales m son
rojas y n m son blancas y que el experimento consiste en extraer al azar de
la urna 2 bolas, una despus de la otra.
Pues bien, se extrajo la primera bola y se encontr que es roja. De este
modo, el evento B: la primera bola extrada es roja, es un evento que ya ha
ocurrido.
Ante esta situacin nuestra asignacin original de probabilidades a travs de
P ya no es apropiada. Sin duda alguna esto es as, porque ahora que sabemos
que B ha ocurrido, es imposible que ocurra B c ! aunque originalmente pudimos
haberle asignado una probabilidad positiva. La cuestin ahora es, cmo deben
nuestras probabilidades cambiar a la luz de la nueva informacin?
Por ejemplo, pensando de nuevo en la urna con las bolas rojas y blancas,
cul sera la probabilidad de que la segunda bola extrada sea roja, dado que
la primera es roja?.
Veamos, queremos P (A dado que ya ocurri B) donde A: la 2a. bola extrada
es roja. Denotemos esta probabilidad por P (AjB):
Como B ha ocurrido, entonces se sabe que el resultado del experimento
es uno de los incluidos en B. Por tanto, para evaluar la probabilidad de que
A ocurra, se debe considerar el conjunto de los resultados incluidos en B que
tambin implican la ocurrencia de A. Considerando probabilidad uniforme en
B tendremos entonces
#(A \ B)
P (A j B) =
#B
=
#(A \ B)=n(n 1)
P (A \ B)
=
#B=n(n 1)
P (B)
1
12
1
18
= ; P (A \ B) =
=
36
2
36
3
P (T < 8 j T impar)
P (A \ B)
P (B)
1=3
1=2
2
=
3
17
1
4
3
4
1
3
P (Bj j Rj )
w
i
b
k j
b+w
k j
5) P (A j B) + P (Ac j B) = 1
18
Demostracin:
P (A j B) + P (Ac j B)
P (A \ B) P (Ac \ B)
+
P (B)
P (B)
P (B)
P (B)
=1
6) Sean A1 ; A2 ; A3 ; :::; eventos mutuamente excluyentes, entonces
1
1
P
S
P (Ai j B)
P ( Ai j B) =
i=1
i=1
Demostracin:
P(
1
S
i=1
P
Ai j B)
Ai
i=1
\ B)
P (B)
1
S
i=1
1
S
(Ai \ B)
P (B)
1
P
i=1
P (Ai \ B)
P (B)
1
P
P (Ai \ B)
P (B)
i=1
1
P
=
P (Ai j B)
=
i=1
7) Si A1 ; A2 2 A, entonces:
1. P (A1 j B) = P (A1 \ A2 j B) + P (A1 \ Ac2 j B)
2. P (A1 [ A2 j B) = P (A1 j B) + P (A2 j B)
3. Si A1
A2 , P (A1 j B)
P (A2 j B)
8) Si A1 ; A2 ; :::; An 2 A, entonces
n
P
P (A1 [ A2 [
[ An j B)
P (Ai j B)
i=1
19
P (A1 \ A2 j B)
1.2.2
Regla de la Multiplicacin
m
T
Ai
> 0;
i=1
n
T
Ai
i=1
P (An j A1 \ A2 \
\ An 1 )
Notar que es una generalizacin de la propiedad no. 1 de la probabilidad
condicional.
Demostracin:
Partiendo del lado derecho de la igualdad:
P (A1 )
P (A2 \ A1 ) P (A1 \ A2 \ A3 )
P (A1 )
P (A2 \ A1 )
P (A1 \ A2 \
P (A1 \ A2 \
\ An )
\ An 1 )
= P (A1 \ A2 \
=P
n
T
i=1
Ejercicios
P (R1 \ A2 )
i = 1; 2
= P (A2 j R1 )P (R1 )
=
b
r+b
r
1 r+b
Ai
\ An )
Ri : La i
Ai : La i
i = 1; 2; 3; 4
1.2.3
Eventos Independientes
= P (A) + P (B)
P (A \ B)
= P (A) + P (B)
P (A)P (B)
1 1
+
3 4
1
=
2
=
1
12
) P (A) = P [(A \ B) [ (A \ B c )] = P (A \ B) + P (A \ B c )
entonces
P (A \ B c )
= P (A)
P (A \ B)
= P (A)
P (A)P (B)
= P (A)[1
P (A)P (B)]
= P (A)P (B c )
por tanto A y B c son independientes.
2. Ac y B c son independientes.
Demostracin: Se deduce inmediatamente del anterior.
Denicin: Decimos que los eventos en una coleccin innita numerable
m
T
de eventos A1 ; A2 ; A3 ; :::; son independientes si se cumple que P ( Aji ) =
m
Q
i=1
i=1
22
P (Ai )
= P (fi; 4g)
= P (fig) + P (f4g)
= 1=4 + 1=4
= 1=2
[ [0:9; 0:91)
= P (s 2 [0; 0:01))
= 0:01
= (0:1)(0:1)
= P (A)P (B)
Solucin:
Denamos Ei : La i sima componente funciona. i = 1; 2; :::; n.
n
n
S
T
) P
Ei
=1 P
Eic
i=1
i=1
=1
n
Q
i=1
=1
n
Q
P (Eic )
(1
pi )
i=1
1.2.4
[ (B \ An )]
+ P (B \ An )]
= P (B j A1 )P (A1 ) + P (B j A2 )P (A2 ) +
+ P (B j An )P (An )
50
P
i=1
El espacio muestral
P (Y = 50 j X = i)P (X = i)
= f(x; y) j y
24
xg
+ P (Y = 50 j X = 50)P (X = 50)
P (X = i) =
1
50
P (Y = 50 j X = i)
=
=
1
(i
50
1)
1
51
por tanto
50
P
i=1
P (Y = 50 j X = i)P (X = i)
i=1
1.2.5
50
P
1
51
1
i 50
50
1 P
1
50 i=1 51 i
Teorema de Bayes
Demostracin:
P (Ai \ B)
P (Ai j B) =
P (B)
=
P (B j Ai )P (Ai )
P (B j A1 )P (A1 ) + P (B j A2 )P (A2 ) +
P (B j Ai )P (Ai )
= P
n
P (B j Aj )P (Aj )
+ P (B j An )P (An )
j=1
Ejercicios:
1. Supngase que paseando por la calle observas que salubridad est realizando gratuitamente una prueba mdica para detectar cierta enfermedad.
La prueba es able al 90% en el siguiente sentido: Si una persona tiene
la enfermedad, existe una probabilidad de 0.9 de que la prueba d un resultado positivo; de igual manera, si una persona no tiene la enfermedad,
existe una probabilidad de slo 0.1 de que la prueba d un resultado positivo. Los datos indican que las probabilidades depadecer la enfermedad
son solo 1 en 10,000. Sin embargo, puesto que la prueba no cuesta nada
y es rpida e indolora, decides parar y someterte a ella. Unos das despus te enteras de que el resultado de la prueba fue positivo. Cul es la
probabilidad de que padezcas la enfermedad?
25
Solucin:
Denamos los siguientes eventos:
A : La prueba di positivo
B : La persona padece la enfermedad
P (A j B) = 0:9
P (B) =
1
10; 000
P (A j B c ) = 0:1
P (B \ A)
P (A)
P (B j A)P (B)
P (B j A)P (B) + P (A j B c )P (B c )
(0:9)(1=10; 000)
0:9(1=10; 000) + 0:1(1 1=10; 000)
= 0:0003996
2. Un cierto estado agrupa a sus conductores con licencia de acuerdo a la
edad dentro de las siguientes caractersticas:
Grupo 1: De 16 a 25 aos
Grupo 2: De 26 a 45 aos
Grupo 3: De 46 a 65 aos y
Grupo 4: Arriba de 65 aos.
La siguiente tabla enlista para cada grupo, la proporcin de conductores
en el grupo que tuvieron accidentes
Grupo
1
2
3
4
Tamao
0:151
0:356
0:338
0:155
Proporcin de accidentes
0:098
0:044
0:056
0:086
26
3. En una etapa de investigacin criminal el inspector a cargo est 60% convencido de la culpabilidad de un cierto sospechoso. Supongamos ahora
que una nueva evidencia muestra que el criminal tiene ciertas caractarsticas (tales como que es zurdo, calvo y gero). Si el 20% de la poblacin
posee estas caractersticas, que tan seguro estar ahora el inspector de la
culpabilidad del sospechoso si resulta que ste tiene las caractersticas?.
Solucin:
Denamos los siguientes eventos:
A : El sospechoso es culpable
B : El sospechoso tiene las caractersticas que seala la nueva evidencia.
Entonces:
P (A j B)
P (B j A)P (A)
P (B j A)P (A) + P (B j Ac )P (Ac )
=
(1)(0:6)
(1)(0:6) + (0:2)(0:4)
= 0:88
4. Un mdico se encuentra ante el siguiente dilema: Si yo estuviese 80% seguro de que mi paciente tiene la enfermedad, entonces le recomendara una
ciruga, mientras que si yo no tuviese la certeza, entonces le recomendara
pruebas adicionales que son costosas y algunas veces dolorosas. Ahora,
inicialmente yo estaba nicamente 60% seguro de que el Sr. Prez tiene
la enfermedad, as que orden la serie de pruebas A, la cual siempre da
positivo cuando el paciente tiene la enfermedad y casi nunca cuando est
saludable. El resultado fue positivo y estaba a punto de recomendar la
ciruga cuando el Sr. Prez me inform, por primera vez, que es diabtico.
Esta informacin complica la situacin, porque aunque no cambia ni estimado original de 60% de oportunidad de tener la enfermedad, si afecta
la interpretacin de los resultados de la prueba A. Esto es as, porque
mientras la prueba A casi nunca da positivo cuando el paciente est sano,
desafortunadamente, en cambio, da positivo en el 30% de los casos de pacientes diabticos que no sufren la enfermedad. Qu habo? Ms pruebas
o ciruga inmediata?.
Solucin:
Denamos los siguientes eventos:
C : El paciente tiene la enfermedad.
B : La prueba A fue positiva.
Entonces
27
P (C j B)
P (B j C)P (C)
P (B j C)P (C) + P (B j C c )P (C c )
(1)(0:6)
(1)(0:6) + (0:3)(0:4)
0:6
=
0:6 + 0:7
=
= 0:83
28
Variables aleatorias
j X(!) 2 Bg)
N otacion
= P (f! 2
= P (X 2 (a; b))
= P (a < X < b)
29
P (X 2 B):
PX (fag)
= P (f! 2
j X(!) 2 fag)
= P (X 2 fag)
= P (X = a)
PX (( 1; a])
= P (f! 2 j X(!)
= P (X a)
ag)
X es la v.a. denominada variable aleatoria Bernoulli y que estudiaremos ampliamente en este curso.
Si se denota por p a la probabilidad P (X = 1), esto es, p es la probabilidad
de xito, entonces P (X = 0) = 1 p y la distribucin de X se puede calcular
como sigue
PX (B) = pIB (1) + (1 p)IB (0):
Esta distribucin recibe el nombre de Distribucin Bernoullicon parmetro
p. En lo sucesivo la denotaremos por Bernoulli (p).
Comentarios sobre variables aleatorias:
Tenemos entonces que un espacio de probabilidad ( , A; P ) y una variable
aleatoria X, juntos, dan lugar a un segundo espacio de probabilidad (R, B, PX ).
Muchas veces el trabajar con el espacio (R, B, PX ), no slo es adecuado por el
aspecto de los resultados del experimento en el que estamos interesados, sino
que muchas veces es a travs de una v.a. como tenemos un camino posible para
medir la incertidumbre en espacios muestrales altamente complejos. Un ejemplo
de un espacio as, es el espacio que describe las distintas formas en que puede
suceder el estado del tiempo, digamos, del da de maana, denir una medida
de probabilidad para los eventos de un espacio as es prcticamente imposible.
Pero si pensamos no en los detalles del estado del tiempo sino solo en si va a
llover o no entonces el problema expresado mediante variables aleatorias resulta
ahora abordable.
2.1
i=1
suma nita).
x2B\RX
1
P
p(xi ) = 1
i=1
ii) 0
p(xi )
1.
1
X
i=0
p(i) = 1 )
(b) P (X = 0) =
(c) P (X > 2)
:
0!
1
X
c
i=0
i!
=1 ) ce = 1 ) c = e
=e
=1
P (X
2)
=1
P (X = 0)
=1
P (X = 1)
P (X = 2)
2.1.1
e
:
2
Distribucin Bernoulli
Consideremos un experimento donde slo hay dos resultados posibles: xito
o fracaso, con probabilidad de xito p. Si denimos la v.a.
X=
Tambin nos referimos a esta funcin masa de probabilidad como la Distribucin Bernoulli.
Ejercicio:Vericar que p es una funcin masa de probabilidad.
Distribucin Binomial
Denicin: Ensayos repetidos e independientes se llaman ensayos Bernoulli,
cuando en cada ensayo, solo hay dos resultados posibles y sus probabilidades
son las mismas en todos los ensayos.
Supongamos que se realiza una sucesin de n ensayos Bernoulli y que en
cada realizacin la probabilidad de xitoes p y la de fracasoes 1 p. Si X
representa el nmero de xitosque ocurren en los n ensayos, entonces se dice
que X es una variable aleatoria Binomial con parmetros (n; p), y que
en lo sucesivo ser denotado por X s Binomial(n, p).
Teorema: Si X s Binomial(n, p), entonces la funcin masa de probabilidad de X est dada por
n i
p(i) = P (X = i) =
p (1 p)n i ; i = 0; 1; 2; :::; n
i
Notar!!! Una variable Bernoulli(p) es una Binomial(1, p).
Tambin nos referimos a la funcin masa de probabilidad de la variable
aleatoria binomial como Distribucin Binomial.
33
=
=
n i
p (1
i
p)n
, entonces
n!
(n i)!i! n
n i
n
n
n(n
1)
ahora, cuando n ! 1
1)
n(n
1):::(n
ni
i
2)
3)
!1
n
n
(n
i + 1)
ni
!e
i + 1)
i!
9
>
!1 >
>
>
>
>
>
>
=
>
>
>
>
>
>
>
>
;
n
i
) cuando n ! 1, P (X = i) =
e
i!
34
1
,
365
1
)=
= (500)( 365
1:3699
k
Binomial
P oisson
0
0:2537
0:2541
1
0:3484
0:3481
2
0:2388
0:2385
3
0:1089
0:1089:
4
0:0372
0:0373
5
0:0101
0:0102
6
0:0023
0:0023
= np = 2
P (X = 1) + P (X = 2) + P (X = 3)] =
Distribucin Geomtrica
Consideremos una sucesin de ensayos Bernoulli con probabilidad de xito p.
Sea la v.a.
X =nmero de ensayos requeridos hasta que ocurra el primer xito.
Entonces RX = f1; 2; 3; :::; g.
La distribucin de X est dada por p(n) = P (X = n) = (1 p)n 1 p, n = 1;
2; 3; :::;
A X se le llama v.a. Geometrica y a p(n) = P (X = n) se le denomina
distribucion Geometrica con parametro p. Denotado por (Geo(p)).
Tambin se puede encontrar en la literatura que la variable aleatoria Geometrica
es
X1 =nmero de ensayos requeridos antes de que ocurra el primer xito,
en cuyo caso, RX = f0; 1; 2; 3; ; :::g y la correspondiente funcin masa de
probabilidad es
p(n) = P (X = n) = (1 p)n p; n = 0; 1; 2; ; :::
Ejemplos
35
1. En cierta regin la probabilidad de que una lluvia con truenos y relmpagos ocurra un da cualquiera durante el verano (digamos, julio y agosto)
es igual a 0.1. Suponiendo la independencia de un da con otro, cul es la
probabilidad de que la primera lluvia con truenos y relmpagos del verano
ocurra el 3 de agosto?
Solucin: Sea X=No. de das transcurridos, a partir del 1 de julio, hasta
que ocurre la primera lluvia con truenos y relmpagos.
Se Quiere hallar P (X = 34): X s Geo(0:1); entonces,
P (X = 34) = (1
0:1)33 (0:1)
p)4 p
s+t; X>s)
s+t)
(1 p)
Dem.: P (X
s + t j X > s) = P (XP (X>s)
= PP(X
=
( X>s) =
(1 p)s
(1 p)t 1 = P (X t)
El teorema anterior indica que la distribucin geomtrica no tiene memoria
en el sentido siguiente: Supongamos que el evento A no ha ocurrido durante
las primeras repeticiones del experimento. Entonces la probabilidad de que
no ocurra durante las prximas t repeticiones es la misma que la probabilidad
de que no ocurra durante las primeras t repeticiones. En otras palabras, la
informacin de ningn xito es olvidada en lo que se reere a los clculos
subsecuentes.
1 ensayos
1 xitos en k
= P (X = k)
=p
=
k
r
k
r
1 r
p
1
1 r
p (1
1
(1
p)k
p)k
r
37
p(k)
= P (X = k)
b
k
N
n
N
n
b
k
=1
P (A)
=1
P (A j 4D)P (4D)
=1
=1
4
0
6
3
10
3
(0:3)
P (A j 1D)P (1D)
1
0
9
3
10
3
(0:7)
54
100
46
100
Por lo tanto, el 46% de los lotes sern rechazado.
3. Para evitar que lo descubran en la aduana, un viajero ha colocado 6
=
1)=
(61)(92)
+
(15
3)
(62)(91) (63)(90)
+ 15 = 0:815:
(15
(3)
3)
4. Un ensamblaje consta de 3 componentes mecnicos. Supn que las probabilidades de que el primero, el segundo y el tercer componentes cumplan con
las especicaciones son 0.95, 0.98 y 0.99. Supn que las componentes son independientes. Determina la funcin distribucin de X=No. de componentes del
ensamblaje que cumplen con las especicaciones.
2.2
si
Ejemplos:
1: f (x) = I[0; 1] (x)
(
1; si
=
0; de
x 2 [0; 1]
otro modo
continua.
= I[0; 1) (x)
(
1; si
=
0; de
x 2 [0; 1)
otro modo
39
Observaciones:
1. Si X es una v.a. continua, su funcin de densidad f no tiene que ser
una probabilidad, as que, no necesariamente se tiene que 0 f (x) 1.
Ejemplo:
( Cuando f es
2; si x 2 [0; 1=2)
f (x) =
0; de otro modo
2. Del Teorema se tiene que
P (a
b)
= P (a < X
= P (a
b)
X < b)
= P (a < X < b)
3. La funcin de densidad f dene una medida de probabilidad PX (B) sobre
los borelianos.
4. Notar lo(siguiente. Consideremos la funcin de densidad
1; si x 2 [0; 1]
f (x) =
0; de otro modo
La medida de probabilidad que determina sobre los borelianos es
Z
PX (B) =
f (x)dx
B
B\[0; 1]
dx =
B\(0;1)
dx =
g(x)dx
1; si x 2 (0; 1])
0; de otro modo
Entonces, g es tambin una funcin de densidad para la v.a. X!!!
Concluyendo: A una v.a. continua le pueden corresponder varias funciones
de densidad (de hecho, innitas), lo comn, es trabajar con una continua si es
que la hay. Nota que cualquiera que sea la que usemos el valor de la probabilidad
para B 2 B es la misma es decir, las densidades f y g determinan la misma
medida de probabilidad sobre los borelianos B. En general, si dos densidades
continuas dieren en a lo ms un conjunto numerable de puntos, entonces las
medidas de probabilidades a que dan lugar son exactamente las mismas.
Ejemplos:
1.- Supngase que la funcin de densidad (f:d:) de una v.a. X es
(
cx; si 0 < x < 4
f (x) =
0;
de otro modo
(donde c es una constante dada)
donde g(x)
Determinar
(a) el valor de c,
(b) calcular la probabilidad de que P (1
40
2) y
(c) P (X
2).
Solucin:
(a)
f (x)dx = 1
cx2
2
cxdx = 1
0
4
=1
0
) c = 1=8
(b)
P (1
2)
1
xdx
8
= 3=16
(c)
P (X
2)
=
=
Z2 4
2
f (x)dx
1
xdx
8
= 3=4
Observacin:
Si X es una v.a. (continua o discreta), entonces P (a
b) P (X < a).
b) = P (X
Demostracin:
P (X
b)
= P (a
X < a)
= P (a
b) + P (X < a)
por tanto
P (a
b) = P (X
b)
P (X < a).
41
2.2.1
Distribucin Uniforme Una v.a. X se dice que est unif ormemente distribuida
sobre un intervalo (a; b) (o [a; b] o (a; b] o [a; b)) si su funcin de densidad est
dada por
8 1
<
; si x 2 (a; b)
b a
f (x) =
:
0;
de otro modo
Si X es una variable aleatoria uniforme sobre (a; b) se denotar X s U (a;
b).
Esta distribucin est asociada a problemas en los que se selecciona aleatoriamente un punto de un intervalo (a; b) y el inters est en determinar la
probabilidad de que el punto seleccionado X pertenezca a algn subintervalo I
de I
:
de (a; b);en cuyo caso P (X 2 I) = Longitud
b a
Ejemplos:
1. Un conmutador recibe una llamada telefnica al azar en un intervalo de
un minuto. El conmutador se satura por completo durante 15 segundos en este
perodo de 1 minuto. Cul es la probabilidad de que la llamada entre cuando
el conmutador no est completamente saturado?
Solucin: Sea X=el tpo. en el intervalo de 60 segundos en que se realiza la
llamada.
Entonces X s U (0; 60)
1
0 < x < 60
60 ;
f (x) =
0; de otro modo
Z15
1
x 15
P (0 < X < 15) = 60
dx = 60
j0 = 15
60 = 0:25 que es la probabilidad de que
0
42
P (X > 55) =
Z70
1
20 dx
15
20
= 0:75
55
15
43
Sea X =tiempo (en minutos) que dura la llamada de la persona que lleg
antes que t. Se pide hallar P (X > 10). Veamos:
Z 1
1
x
P (X > 10) =
e 10 dx
10 10
=
=e
x
10
1
10
0:368
La variable aleatoria exponencial, es una variable aleatoria que carece de
memoria, este hecho se expresa en el siguiente
Teorema: Sea X s exp( ). Para cualesquiera s; t
t) = P (X > s)( ) .
0 P (X > s + t j X >
Demostracin:
P (X > s + t j X > t)
=
=
P (X > s + t \ X > t)
P (X > t)
(s+t)
=e
e
s
= P (X > s)
Corolario: Si X s exp( ), para cualesquiera s; t
0 P (X > s + t) =
P (X > s)P (X > t)
Si X es el tiempo de vida en horas de algn instrumento, la expresin (*)
establece que la probabilidad de que el instrumento sobreviva por al menos s + t
horas, dado que ya sobrevivi t horas, es la misma que la probabilidad inicial
de que sobreviva al menos s horas. En otras palabras, si el instrumento tiene
edad t, la distribucin del tiempo restante que va a sobrevivir es la misma que
la del tiempo de vida original, esto es, es como si el instrumento no recordase
que ya ha sido usado por un tiempo t.
Distribucin Gamma La funcin de densidad de la distribucin Gamma
Z1
incluye la llamada funcin Gamma cuya denicin es ( ) = x 1 e x dx;
0
> 0:
Usando integracin por partes se puede mostrar que ( ) = (
1) (
1);
para > 1:
Notar que (1) = 1; lo cual conduce a que (n) = (n 1) (n 1) = ::: =
(n 1)!; cuando n es un entero positivo.
44
( 12 )
Z1
; (2) x
dx =
( )
> 0;
> 0:
Z1
Ejemplo: Evaluar x2 e
4x
dx
Def.: Una variable aleatoria X se dice que tiene distribucin Gamma con
parmetros y ; si su funcin de densidad est dada por:
1
x
; x > 0, > 0; > 0:
f (x) = x ( )e
Se denota X s Gamma( ; )
Al parmetro se le llama parmetro de forma y al parmetro se le llama
parmetro de escala.
Si = 1; la distribucin Gamma se convierte en una distribucin exponencial
con parmetro :
Ejemplo: El tiempo en horas que semanalmente requiere una mquina
para mantenimiento es una variable aleatoria con distribucin Gamma(1/2, 3).
Encuentra la probabilidad de que en alguna semana el tiempo de mantenimiento
sea mayor a 8 horas.
Solucin: Sea X la duracin del mantenimiento en horas
Z8
1
1
P (X > 8) = 1 P (X 8) = 1 16 x2 e 2 x dx = 0:2381
0
45
(ji-cuadrada)
Distribucin F
Distribucin Beta
2.2.2
46
8
0;
si x < 0
>
>
>
>
6=36;
si
0 x<1
>
>
>
>
< 16=36; si 1 x < 2
24=36; si 2 x < 3 AQUI VA LA GRAFICA
F (x) =
>
>
30=36;
si 3 x < 4
>
>
>
>
34=36;
si
4 x<5
>
>
:
1;
si x 5
Propiedades de la f:d:a:.
lim F (x) = 1
i) F ( 1)
x! 1
x!+1
ii) F es una funcin no decreciente, esto es, si a < b, entonces F (a) < F (b).
iii) F es continua desde la derecha, esto es lim+ F (x + h) = F (x):
h!0
Una f:d:a: est denida de manera nica para cada v.a. Su importancia reside en que una vez conocida, puede ser usada para el clculo de probabilidades.
En general, todas las cuestiones de probabilidad acerca de una v.a. X pueden
ser respondidas en trminos de la f:d:a: F .
Veamos:
Teorema:
a) P (a < x
b) = F (b)
F (a):
Demostracin:
fX
bg = fX ag [ fa < X
) P (X b) = P (X
bg
a) + P (a < X
por lo tanto
P (a < X
b)
= P (X
= F (b)
b) P (X > a) = 1
b) P (X
F (a):
F (a):
d)
47
a)
b)
P (X = a)
= lim F (y)
y!a+
= F (a)
Ejemplo:
8
>
>
>
>
<
F (x) =
>
>
>
>
:
lim F (y)
y!a
lim F (y):
y!a
AQUI VA LA GRAFICA
Calcular
a) P (X < 3)
b) P (X = 1)
c) P (X > 1=2)
d) P (2 < X
4)
Solucin:
a) P (X < 3) = lim F (y) = 11=12
y!3
b)
P (X = 1)
= F (1)
= 2=3
= 1=6
c)
P (X > 1=2)
d)
P (2 < X
4)
lim F (y)
y!1
1=2
= 1 P (X
= 1 1=4
= 3=4
1=2)
= F (4) F (2)
= 1 11=12
= 1=12
48
Teo-
= P (X
P x)
=
p(xj )
fjjxj xg
P
=
f (xj )
fjjxj
y ya!!
xg
fjjxj
f (xj ).
xg
= P (X = xj )
= lim+ F (y)
y!xj
= F (xj )
lim F (y)
y!xj
lim F (y)
y!xj
= P (X 2:5)
= P (X = 1) + P (X = 2)
= 1=6 + 1=6
= 1=3:
f (3)
= F (3)
= 3=6
= 1=6
2.2.3
lim F (y)
y!3
2=6
Notar!!!
= (1)P (X = 1) + (0)P (X = 0)
=p
Ejercicios:
1. Sea X s Binomial(n; p). Demostrar que E(X) = np.
2. Sea X s P oisson( ). Demostrar que E(X) = .
3. Sea X s Geo(p). Demostrar que E(X) =
1
.
p
Denicin: Sea X una v.a.
51
Solucion:
E(X)
1
1
xf (x)dx
Z 1500
Z 3000
1
2
x dx
=
x(x
(1500)2 0
1500
= 1500 minutos.
Ejemplo 4: Si X s U (a; b), hallar E(X).
Solucin:
Z
x
dx
b
a
a
1
b2 a2
=
b a
2
(b a)(b + a)
=
2(b a)
b+a
=
2
Ejercicios:
E(X)
), demostrar queE(X) = .
3. Si X s t, hallar E(X).
4. Si X s
, hallar E(X).
52
3000)dx
Para lo que sigue considerar que si y = g(x) es una funcin sobre el conjunto
de nmeros reales y X es una variable aleatoria, entonces Y = g(X) es tambin
una variable aleatoria, de hecho, es una variable aleatoria que es funcin de la
variable aleatoria X. Como tal, es posible hablar de la esperanza y la varianza
de Y y para hallarlos no es necesario tener la funcin de densidad de Y , basta
con tener la de X como se establece en el siguiente Teorema.
Teorema:
(a) Si X es una v.a. discreta con funcin
Pmasa de probabilidad p, entonces
para cualquier funcin real g, E(g(X)) =
g(xi )p(xi ).
xi 2RX
(b) Si X es unaZ v.a. continua con f:d:; f ; entonces para cualquier funcin
1
real g, E(g(X)) =
g(x)fX (x)dx.
1
Demostracin:
* Si X es discreta, RX = fx1 ; x2 ; ; :::g
E(aX + b)
1
P
(axi + b)p(xi )
i=1
1
P
=a
xi p(xi ) + b
i=1
= aE(X) + b
1
P
p(xi )
i=1
= aE(X) + b
53
a) = 1; entoncesE(X)
b) = 1, entonces E(X)
a.
b:
pues como
P (X
ahora,
P
xi p(xi )
xi a
=a
xi a
ap(xi )
p(xi )
xi a
= aP (X
=a
a)
a.
b) = 1 ) a
E(X)
b.
Demostracin:
Si
)
p or 2
)
y
P (a
P (X
X b) = 1
b) = 1 = P (X
E(X)
E(X)
Por tanto, a
a)
b
a
E(X)
b.
n
Q
i=1
E(Xi ):
i=1
1,
0,
Xi
=n
=1
1
n
=Y
=1
entonces, E(Y )
0.
= Ef[X E(X)]2 g
= E[X 2 2XE(X) + [E(X)]2 ]
= E(X 2 ) 2E(X)E(X) + [E(X)]2
= E(X 2 ) 2[E(X)]2 + [E(X)]2
= E(X 2 ) [E(X)]2
[E(X)]2
Demostracin:
V ar(X + c)
= Ef[(cX) E(cX)]2 g
= Ef[cX cE(X)]2 g
= Ef[c(X [E(X)]2 g
= Efc2 [(X [E(X)]2 g
= c2 V ar(X)
= E(c2 X 2 ) [E(cX)]2
= c2 E(X 2 ) [cE(X)]2
= c2 E(X 2 ) c2 [E(X)]2
= c2 (E(X 2 ) [E(X)]2 )
= c2 V ar(X)
pero
Ef[X
E(X)][Y
E(X)]k g se denomina
Notacin:
k
= Ef[X
E(X)]k g,
as,
1
= EfX E(X)g
= E(X) E(X)
=0
= Ef[X E(X)]2 g
= V ar(X)
= E(X 2 ) [E(X)]2
0
0
= 2 ( 1 )2
= Ef[X E(X)]3 g
= EfX 3 3X 2 E(X) + 3X[E(X)]2 ] [E(X)]3 g
= E(X 3 ) 3E(X 2 )E(X) + 3[E(X)]3 ] [E(X)]3 g
0
0
0
0
= 3 3 1 2 + 2( 1 )3
Si
1
P
etxi P (X = xi ).
i=1
etx fX (x)dx.
60
Observacin:
mX (t)
= E(etX )
(tX)2
(tX)3
+
+
2!
3!
2
3
t
t
= 1 + tE(X) + E(X 2 ) + E(X 3 ) +
2!
3!
2
t
0
) mX (t) = E(X) + tE(X 2 ) + E(X 3 ) +
2!
= E 1 + (tX) +
) mX (0) = E(X) =
(primer momento).
00
mX (0) = E(X 2 ) =
t2
4
2! E(X )
(segundo momento)
En general:
(k)
mX (0) = E(X k ) =
k.
I[0; 1) (x),
> 0.
Solucin:
Por denicin,
m(t) = E(etX ), pero como la v.a. es continua, entonces
Z 1
m(t) =
etx f (x)dx
=
=
1
1
1
1
etx e
e(t
)x
e(t
)x
I[0; 1) (x)dx
dx
=
e(t
1
0
m(t) =
, si t
< 0, esto es, si t < :
t
Que es lo mismo que escribir,
m(t) =
, si
> t:
61
x!
, x = 0; 1; 2; :::;
Hallar la f:g:m: de X.
Solucin:
m(t)
= E(etX )
=
1
P
eti
e
i!
i=0
=e
( et )i
i!
i=0
=e
=e
1
P
et
(et 1)
; 8t 2 R
m (t)
= et ( et )( et )exp[ (et
t
t 2
= e + ( e ) exp[ (e
00
) m (0)
1)] ) m (0) =
E(X) =
1)]
1)]
= (
1)
E(X 2 ) = (
1)
De donde,
V ar(X)
= E(X 2 )
= (
1)
[E(X)]2
2
=
Teorema: Sean X e Y dos variables aleatorias con densidades fX y fY
respectivamente. Supongamos que mX (t) y mY (t) existen y son iguales para
todos los valores de t en un intervalo h < t < h, para algn h > 0. Entonces
las f:d:a: FX y FY son iguales.
Ejemplo: Supongamos que una v.a. X tiene funcin generadora de momentos
1
m(t) =
; 1 < t < 1. Cul es la densidad de X?.
1 t
Solucin:
Su f. g. m. es de la forma
exp( )
Por tanto, X s exp(1).
62
1)
Solucin:
m(t)
= E(etX )
Z 1
1
exp
=
etx p
2
1
Z 1
1
p
exp
=
1 2
Z 1
1
p
exp
=
2
1
Z 1
1
p
exp
=
1 2
2 2
t
2
= exp t +
1
2
1
2
x
2
dx
!
+ tx dx
2
(x
2
(x
Z
1
p
2
1
t)2
t)2
exp
2 2
t
2
+t +
dx
2 2
t
2
exp t +
1
2
(x
( +
dx
2
t)
dx
2 2
t
2
= exp t +
!
2
1 (x ( + 2 t)
1
p
Notar:
exp
dx es la f:d: de una v.a.
2
1 2
que se distribuye N (t + 2 ; ) y es igual a 1 porque esta evaluada en ( 1;
1).
Z
t2
t 0+ 1 2t
Notar:
2 2
m0X (t) = ( +
t)exp( t +
t
), entonces E(X) = m0X (0) = .
2
Tambin
m00X (t) = ( +
2 2
t
2 ):
t)exp( t +
2 2
t
2
)+
= E(X 2 ),
63
exp( t +
2 2
t
2
)+
t( +
t)exp( t +
; de donde
[E(X)]2
= E(X 2 )
) V ar(X)
[E(X)]2
))Z=
s N (0; 1).
Demostracin:
mZ (t)
= E(e
= E(e
Xt
=e
=e
= e(
)
t
E(e
Xt
)
)
2 t2
2 2
e(
+ t2 )
t2
=e2
t2
Notar: que mZ (t) = e 2 es la f:g:m: de una N (0; 1), por tanto Z s N (0;
1):
Teorema: Supngase que la v.a. X tiene f:g:m. mX . Sea Y =
Entonces la f:g:m. de Y est dada por mY (t) = et mX (t ).
X+ :
Demostracin:
mY (t)
= E(etY )
= E(et(
X+ )
= E(e(t
)X
= et E(e(t
et )
)X
= et mX (t )
64
(a) P (X < 3)
(b) P (X > 1:5)
(c) P (X = 1)
(d) P (X
(e) P (jXj
0)
2)
0:5)
2X + 3
8)
65
5).
P (Y
5)
= P (2X + 1
= P (X
Z 1
e
=
5)
2)
x
dx
1
:
e2
Hagamos ahora un anlisis general para cada uno de los tipos de v.a.
Caso 1: X es una v.a. discreta
X es una v.a. discreta ) Y = H(X) es una v.a. discreta. De hecho si s1 ;
s2 ; :::; sn ; :::; es el RX ) t1 = H(s1 ); :::; tn = H(sn ); es el RY .
Si H es 1 1 ) P (Y = ti ) = P (X = si ), o sea fY (ti ) = fX (si ).
3: Si X toma los valores 1, 0 y 1 con probabilidad 1/3, 1/2 y 1/6, respectivamente, entonces Y = 3X + 1 toma los valores 2, 1 y 4, con probabilidad
1/3, 1/2 y 1/6 respectivamente.
Pero H no siempre es 1
1.
66
1
P
P (Y = 1) =
i=1
1
P
i=1
1
2
2i
1
4
1
4
4
1
3
1
= :
3
=
P (Y =
1)
=1
P (Y = 1)
=1
1
3
2
:
3
P (Y =
1) = P (X < 0) =
fX (x)dx ,
1
= P (Y
= P (3X + 1
y)
=P
8
>
>
0;
>
>
>
>
>
< Z
3
si
1
3
0,y
y 1
2xdx; si 0 <
<1,1<y<4
>
3
>
0
>
>
>
>
y 1
>
: 1;
si
1,y 4
3
8
0;
si y 1
>
>
>
>
<
2
y 1
=
; si 1 < y < 4
>
3
>
>
>
:
1;
si y 4
g(y)
y)
= G (y)
8
0;
>
>
>
>
< 2
(y
=
9
>
>
>
>
: 0;
si
1);
8
< 2 (y
9
=
:
0;
1);
si 1 < y < 4
si
si
1<y<4
de
otro modo
= P (Y
=P
=F
y)
y
1
3
1
3
= F (K(y))
donde K(y) =
1
3
68
G (y)
= F 0 (K(y)) K (y)
1
= f (K(y))
3
8
< 2K(y) 1 ; si 0 < K(y) < 1
3
=
:
0;
de otro modo
(
2
(y 1); si 1 < y < 4
=
9
0;
de otro modo
= P (Y
y)
X
= P (e
= P( X
y)
ln y)
= P (X
ln y)
8 Z 1
>
>
2x dx;
>
>
<
ln y
=
>
0;
>
>
>
:
1;
8
>
1 (ln y)2 ;
>
>
>
<
0;
=
>
>
>
>
: 1;
8
< 2 ln y
0
g(y) = G (y) =
:
0;
si 0 <
si
ln y
si
ln y
si 1 > y >
si
= P (Y
=1
1
e
1
e
1
1
<y<1
y ; si
e
de otro modo
si
Otra forma:
G(y)
ln y < 1
y)
F ( ln y)
69
G (y)
1
y
F ( ln y)
1
= f ( ln y)
y
8
>
< 2 ln y 1 ; si 0 < ln y < 1
y
=
>
: 0;
de otro modo
8
>
< 2 ln y 1 si 1 < y < 1
y
e
:
=
>
: 0;
de otro modo
2x; si
otro modo
dx
Entonces por el teorema anterior, g(y) = f (x)
dy
g(y)
=f
de
y H(x) = 3x + 1.
y x=
1
3
por tanto
1
3
8
< 2 (y
9
=
:
0;
0;
0<x<1
1);
si
1<y<4
de
otro modo
2x; si
0;
de
70
0<x<1
otro modo
y H(x) = e
dx
dy
y x=
= f ( ln y)
8
>
<
2 ln y
>
:
ln y
por tanto
1
y
1
y
si
<y<1
0;
de otro modo
Ejemplo 3: Supongamos que X es una variable aleatoria con f d dada por
1=2;
1<x<1
f (x) =
0;
otros
Sea Y = X 2 : Determinar la funcin de densidad de Y .
Solucin: La funcin y = x2 no es uno a uno. As que, no queda ms que
resolver el problema a pie.
Hallemos primero la fda G de Y , esto es, hallaremos G(y) = P (Y
y);
8y 2 R :
Si y < 0; claramente G(y) = P (Y
y) = P (X 2 y) = 0:
Supongamos ahora que y 0:
G(y) =
P (X 2 y)
p
p
=
P ( py < X < y)
R y
p f (x)dx
=
y
( Rp
p
y 1
p
y<1
dx; 0
y 2
=
p
1;
y 1
p
R py 1
p
p
p
y
p
dx = 12 x py = 12 ( y + y) = y:
y 2
As,
8
8
y<0
y<0
< 0;
< 0;
p
p
p
y; 0
y<1
y; 0 y < 1
G(y) = P (Y
y) =
p
= :
:
1;
1;
y
y 1
de donde la f d de Y es,
1
p
0<y<1
2 y;
g(y) =
0;
otros casos
Esperanza de una funcin de una variable aleatoria
Teorema:
(a) Si X es una v.a. discreta con funcinPmasa de probabilidad
p, entonces para cualquier funcin real g, E(g(X)) =
g(xi )p(xi ).
xi 2RX
(b) Si X es unaZ v.a. continua con f:d:; f ; entonces para cualquier funcin
1
real g, E(g(X)) =
g(x)fX (x)dx.
1
71
Solucin:
Sabemos que RX = f0; 1; 2g con P (X = 0) = 1=4, P (X = 1) = 1=2,
P (X = 2) = 1=4.
Sea Y = X 2 ,
entonces RY = f0; 1; 4g
P (X = 0) = 1=4,
P (X = 1) = 1=2,
P (X = 2) = 1=4,
por el Teorema,
1
1
1
+1
+4
E(Y ) = 0
4
2
4
3
=
2
Ejemplo 2: Si X esta distribuida uniformemente sobre (0; 1), calcular
E(eX ).
Solucin:
X
E(e ) =
e f (x)dx =
ex dx = e
1.
375
4
x4
x5
5
4
0
= $4800
Hay una gran cantidad de situaciones en la vida real en donde lo que se requiere
es estudiar variables aleatorias bidimensionales. Por ejemplo: 1) Cuando se
quiere estudiar la relacin entre el peso y la altura de los estudiantes de la
UADY, 2) Cuando se administran diferentes cantidades de una droga para el
catarro a dos grupos de pacientes para estudiar la frecuencia de catarro durante
72
3.1
a) p(x; y)
b) Existe X
un conjunto nito o innito numerable C tal que p(x; y) = 0 si (x; y) 2
=
C y
p(x; y) = 1.
C
1
2
3
Determinar:
a) P (X 2; Y
b) P (X = 1).
Solucin:
1
0:1
0:3
0
2
0
0
0:2
2)
a)
73
3
0:1
0:1
0
4
0
0:2
0
P (X
2; Y
2)
b)
P (X = 1)
= P (X = 1; Y = 1) + P (X = 1; Y = 2) + P (X = 1; Y = 3) + P (X = 1; Y = 4)
= 0:1 + 0 + 0:1 + 0
= 0:2
3.2
f (x; y)dxdy = 1:
Notar!!
P ((X; Y ) 2 f(x; y)g = P (X = x; Y = y)
Z Z
f (x; y)dxdy
=
f(x; y)g
=0
En general, cualquier punto o cualquier conjunto nito o innito numerable
en el plano tiene probabilidad cero.
* Tambin, cualquier curva unidimensional en el plano xy tiene probabilidad
cero. Por lo tanto la probabilidad de que (X; Y ) pertenezca a cualquier recta o
circunferencia en el plano, es cero.
Ejemplo 1: Suponga que la f d conjunta de X e Y es
(
cx2 y; si x2 y < 1
f (x; y)=
0;
de otro modo
a) Determinar la constante c.
b) Hallar P (X Y ).
Solucin:
a)
74
1
1
f (x; y)dxdy
=1
=
=
b)
P (X
Y)
Z 1Z
0
x2
cx2 ydydx
1 x2
4
21
c)c=
21
4
21 2
x ydydx
4
3
20
Ejemplo 2: Supngase que la variable aleatoria bidimensional (X; Y ) tiene
x2 + xy
0 x 1; 0 y 2
3
f d conjunta dada por f (x; y) =
:
0;
para cualquier otro punto
Sea B = fX + Y
1g : Calcular P (B):
Solucin:
Puede ser
as
R 2calculado
R1
R1R1
xy
65
2
P (B) = 1 0 x2 + xy
3 dxdy + 0 1 y x + 3 dxdy = 72 = 0:90277
o bien,
R 1 R 1 y 2 xy
7
1 P (B) = 0 0
= 65
x + 3 dxdy = 1 72
72
=
1
area de C
0
para (x; y) 2 C
en otro caso
pero el rea
8 de C = 9 ;entonces
< 1 ; si (x; y) 2 C
9
f (x; y) =
:
:
0;
de otro modo
75
3.3
= P (X x; Y
y)
Z x Z y
f (u; v)dvdu
=
1
Solucin:
8
>
>
< @2
f (x; y) =
>
>
:
3.4
1
xy(x + y)
16
; 0
@y@x
0
x; y
2 =
1
8 (x
+ y);
0;
x; y
otros
otros
Distribuciones marginales
Con cada variable aleatoria bidimensional (X; Y ) estn asociadas dos variables
aleatorias unidimensionales: la v. a. X y la v. a. Y . De este modo, podemos interesarnos por la distribucin de probabilidades de X o por la de Y , nicamente.
Veamos cmo a partir de la conjunta f se pueden obtener estas distribuciones
fX y fY ; a las cuales se les denomina marginales de X e Y , respectivamente.
Con X, Y v.a. discretas:
fX (x)
= P (X = x)
P
=
P (X = x; Y = y)
y2RY
p(x; y)
y2RY
anlogamente
76
fY (y)
= P (Y = y)
P
=
P (X = x; Y = y)
x2RX
p(x; y)
x2RX
1
1
f (x; y)dx:
f (x; y)dy
21 2
x ydy;
x2 4
Z
21 2 1
x
ydy;
=
4
x2
=
fY (y)
=
=
=
21x2
21x6
8
1
21
4 y
1<x<1
1<x<1
f (x; y)dx
1
p
y
p
1<x<1
21 2
4 x ydx;
p
0<y<1
= 27 y 5=2 ; 0 <
conocen fX y fY
y<1
Si se
no necesariamente es posible reconstruir a partir de
ellas a la conjunta de X e Y , pues solas no necesariamente proporcionan alguna
informacin acerca de la relacin entre X e Y .
Tambin es cierto que si se conoce la f da conjunta F de dos variables aleatorias X, Y , se pueden obtener las f da marginales FX y FY ; para X e Y
respectivamente. Veamos cmo:
77
x; Y
y!1
y)
= lim F (x; y)
y!1
Anlogamente, si
FY (y)
1<y<1
= lim P (X
x!1
x; Y
y)
= lim F (x; y)
x!1
3.5
1).
Solucin:
Como las medidas son independientes, entonces la conjunta de X e Y es
(
4xy; si 0 x; y 1
f (x; y) =
0;
de otro modo
78
) P (X + Y
1) =
ZZ
f (x; y)dxdy
Z 1Z
1 x
1
6
Ejemplo 2: Usando las v.a. X e Y con f (x; y) dado por la siguiente tabla,
las v.a. X e Y son independientes?.
) P (X + Y
1) =
y
x
1
2
3
4xydydx =
1
0:1
0:3
0
2
0
0
0:2
3
0:1
0:1
0
4
0
0:2
0
Solucin:
Slo tenemos que checar si p(x; y) = pX (x) pY (y) para cualquier pareja
(x; y): Veamos.
p(1; 3) = 0:1; pX (1) = 0:2; pY (3) = 0:3
) p(1; 3) 6= pX (1) pY (3):
Por tanto, las v.a. no son independientes.
Teorema: Si X e Y son v.a. que tienen una distribucin bidimensional
continua con f:d: conjunta f , entonces X e Y sern independientes , se puede
representar en la siguiente forma para 1 < x; y < 1:
f (x; y) = g1 (x)g2 (y)
Donde g1 es una funcin no negativa de x solamente, y g2 es una funcin no
negativa de y solamente.
Notar!!! QueRsi f (x; y) = g1 (x)g
R 21(y)
R1
1
) fX (x) =
f (x; y)dy =
g (x)g2 (y)dy = g1 (x) 1 g2 (y)dy =
1
1 1
cg1 (x)
esto es, la marginal de X es un mltiplo de g1 (x): Anlogamente, la marginal
de Y es un mltiplo de g2 (y):
Ejemplo 3: Supngase que la funcin de densidad conjunta de dos v.a. X
e Y es la siguiente:
(
ke (x+y) ; si x 0, y 0
f (x; y) =
0;
de otro modo
a) Determinar si las v.a. son independientes.
b) Determinar las f:d: marginales.
Solucin:
a) Denamos las siguientes funciones
79
g1 (x) =
y
g2 (y) =
(
(
ke
0;
e
0;
si
de
otro modo
si
de otro modo
(
ke (x+y) ; si
=
0;
de
) g1 (x)g2 (y)
0, y
otro modo
= f (x; y)
Por lo tanto, las v.a. X e Y son independientes.
b) Ahora hallemos las marginales:
fX (x)
Como
1)c=
= cg1 (x)
(
cke
=
0;
si
de
otro modo
Z 1
1
fX (x)dx = 1 )
cke x dx = 1 )=
1
1
k
) fX (x) =
si
cke
x 1
j0
= 1 ) ck =
; esto es X s exp(1)
0;
de otro modo
Anlogamente se halla la marginal de Y .
3.6
Distribuciones Condicionales
p(x; y)
pY (y)
P (X = x; Y = y)
P (X = x)
p(x; y)
pX (x)
anlogamente
P (Y = y j X = x)
80
Teorema: Sea p1 (x j y) =
Sea p2 (y j x) =
p(x; y)
, p1 es la f:d: de la v.a. X j Y = y.
pY (y)
p(x; y)
, p2 es la f:d: de la v.a. Y j X = x
pX (x)
1
2
3
1
0:1
0:3
0
2
0
0
0:2
3
0:1
0:1
0
4
0
0:2
0
Solucin:
p2 (y j 2) =
p(2; y)
p(2; y)
=
,
pX (2)
0:6
y = 1; 2; 3; 4
p(2; 1)
0:6
p(2; 2)
P (Y = 2 j X = 2) = p2 (2 j 2) =
0:6
p(2; 3)
P (Y = 3 j X = 2) = p2 (3 j 2) =
0:6
p(2; 4)
P (Y = 4 j X = 2) = p2 (4 j 2) =
0:6
P (Y = 1 j X = 2) = p2 (1 j 2) =
0:3
0:6
0
=
0:6
0:1
=
0:6
0:2
=
0:6
=
= 0:5
=0
= 0: 16667
= 0:333:
3
1
jX=
.
4
2
81
Solucin:
a) g2 (y j x) =
f (x; y)
; calculando fX (x) obtenemos:
fX (x)
8
< 21 x2 (1
8
fX (x) =
:
0;
por tanto g2 (y j x) =
b)
P
3
1
jX=
4
2
x4 );
8
<
:
x2
de
otro modo
2y
;
1 x4
si
x2
0;
de
otro modo
=
=
=
3.7
si
Z
Z
1
1
1
3
4
g2 (y j 21 )dy
2y
dy
15=16
7
15
0
1
2
3
0
0
0:01
0:01
0:01
1
0:01
0:02
0:03
0:02
2
0:03
0:04
0:05
0:06
3
0:05
0:05
0:05
0:06
4
0:07
0:06
0:05
0:06
5
0:09
0:08
0:06
0:05
Solucin:
a) RU = f0; 1; 2; 3g
P (U = 0)
= P (min(X; Y ) = 0)
= P (X = 0 o Y = 0)
= P (X = 0) + P (Y = 0)
= 0:3 + 0:25
P (X = 0; Y = 0)
= 0:28
P (U = 1)
= P (min(X; Y ) = 1)
3
P
P (X = 1, Y = i) +
i=1
= 0:07 + 0:25
5
P
P (X = j; Y = 1)
P (X = 1; Y = 1)
j=1
0:02
= 0:3
anlogamente obtenemos
P (U = 2) = 0:25
P (U = 3) = 0:17.
b) Z = X + Y , RZ = f0; 1; 2; 3; 4; 5; 6; 7; 8g
P (Z = 0)
= P (X + Y = 0)
= P (X = 0; Y = 0)
=0
P (Z = 1)
= P (X + Y = 1)
= P (X = 0; Y = 1) + P (X = 1; Y = 0)
= 0:02
P (Z = 2)
= P (X + Y = 2)
2
P
=
P (X = i; Y = 2
i)
i=0
En general
P (Z = k) =
k
P
P (X = i; Y = k
i), k = 0; 1; :::; 8
i=0
La funcin generadora de momentos tambin puede ser usada para determinar la distribucin de una funcin de dos variables aleatroria. Se mostrar
cmo a travs de los siguientes ejemplos.
Ejemplos:
1. Sean X, Y variables aleatorias independientes tales que X s Binomial(n1 ; p)
y Y s Binomial(n2 ; p): Cmo se distribuye X + Y ?
83
1)
= P (Z
z)
= P (max(X; Y )
= P (X
z; Y
= P (X
z) P (Y
z)
z)
z)
= FX (z) FY (z)
y si suponemos que X e Y tienen la misma distribucin:
G(z)
g(z)
= P (U u)
= P (min(X; Y ) u)
= 1 P (min(X; Y ) > u)
= 1 P (X > u; Y > u)
= 1 P (X > u)P ( Y > u)
= 1 [1 P (X u)] [1 P (Y
u)]
1 [1 FX (u)] [1 FY (u)]
De aqu, derivando G se obtiene la f d de U .
Ejemplo: Sean X e Y variables aleatorias independientes. Hallar la f d del
max(X; Y ), si X s U (0; 1) y Y s U (1; 2):
Se proporcionar a continuacin un proceso que permitir hallar la f d de
una funcin de dos variables aleatorias bajo ciertas condiciones. De hecho este
proceso no es ms que la generalizacin del deducido para fY cuando Y = H(X).
84
@x
@z
@y
@z
@x
@w
@y
@w
De donde,
fE (e)
@r
@w
@i
@w
= abs
1
w
e
w2
= g(w)h( we ) w1 ; 0
e2
1
= (2w)( 9w
0
2 )( w );
2 e2
=
;
0
2
9w
Z1
@r
@e
@i
@e
w
w
w
2 e2
9 w2 dw;
Z1
=
1; 0
1; 0
1; 0
1
w
e
w
e
e
3
3w
3w
e=3
3.7.1
2 2
9e
1
w2 dw;
=
=
=
e=3
2 2w 1 1
e
9
1 e=3 ;
2 2
3
9 e (1
e );
2
e(3
e);
9
0
0
0
e
e
e
3
3
3
Suponga que X e Y son dos v.a. con f:d: conjunta f . Determinar la f:d: de la
v.a. Z = X + Y .
Solucin:
Sea W = X entonces
Z =X +Y
z =x+y
W =X
w=x
x=w
y=z
f (w; z
y J(z; w) =
=1
w)
w)dw.
z =x+y
W =Y
y=x
f (z
x=z
y=w
w; w)
w; w)dw.
86
y J(z; w) =
=1
fX (z
w)fY (w)dw
w<1
0<z<1
1<z<2
0<z<1
1<z<2
Solucin:
Tenemos que
y1 = x1 + x2 ;
1
2
y 1 + y2
;
) x1 =
2
) fY1 ; Y2 (y1 ; y2 )
y2 = x1
x2 =
=f
x2
y1
) jJ(y1 ; y2 )j = abs
y2
2
y1 + y2 y1 y 2
;
2
2
8
< 1 ; si
2
=
:
0; de
8
< 1 ; si
2
=
:
0; de
y1 + y2
2
otro modo
y1 + y2
otro modo
87
1
2
1
2
1
2
1
2
= abs
1
2
1; 0
2; 0
y1
y2
2
y1
y2
1
2
f (x; y) =
(x+y)
0;
x 0; y 0
otros casos
Sea W = X entonces
x=w
z =x+y
)
y J(z; w) =
w=x
y=z w
Z =X +y
W =X
dw = ze
,z
w) = e
;w
0; z
0
1
w
1
1
=1
3.8
3.8.1
E(X)
E X
Y = E(Y )
Ejemplos:
1. Para la variable aleatoria (X , Y ) cuya funcin masa de probabilidad
conjunta est dada por:
X
0
1
2
3
4
5
Y
0
0
0:01 0:03 0:05 0:07 0:08
1
0:01 0:02 0:04 0:05 0:06 0:07
2
0:01 0:03 0:05 0:05 0:05 0:06
3
0:01 0:02 0:06 0:06 0:06 0:05
determinar el vector de medias.
Solucin:
Hallemos E(X) y E(Y ):
E(X) = 0 P (X = 0) + 1 P (X = 1) + 2 P (X = 2) + 3 P (X = 3) + 4 P (X =
4) = 0:08 + (2)(0:18) + (3)(0:21) + (4)(0:24) + (5)(0:26) = 3:33
E(Y ) = 0 P (Y = 0) + 1 P (Y = 1) + 2 P (Y = 2) + 3 P (Y = 3) =
0:25 + (2)(0:25) + (3)(0:26) = 1:53
Por tanto el vector de medias es
3:33
E X
Y = 1:53
2. Para la variable aleatoria (X , Y ) cuya funcin de densidad de conjunta
est dada por:8
< 21 x2 y; si x2 y 1
4
f (x; y) =
:
0;
de otro modo
3.8.2
La Covarianza
X )(Y
)]
89
2
X
< 1 y
2
X
< 1, Cov(X;
Demostracin:
Cov(X; Y )
= E[(X
X )(Y
= E[(XY
= E(XY )
= E(XY )
)]
X
X
+
Y
)]
6Y
E(X)E(Y )
+ Y/ )]2 g
X)
+ (Y
2
Y/ )] g
2
X)
+ (Y
Y/ )
= Ef[(X + Y )
= Ef[(X
= E[(X
= V ar(X) + V ar(Y )
3. Cov(X; Y ) = Cov(Y; X)
4. Cov(X; X) = V ar(X)
5. Cov(aX; bY ) = abCov(X; Y )
3.8.3
2(X
X )(Y
Y/ )]
2Cov(X; Y )
El Coeciente de Correlacin
90
es la desviacin estndar de X y
es la desviacin estndar de
Y.
Teorema:
(X; Y )
1.
Comentarios:
Se dice que X e Y estn correlacionados positivamente si (X; Y ) > 0.
Se dice que X e Y estn correlacionados negativamente si (X; Y ) < 0.
Se dice que X e Y no estn correlacionados si (X; Y ) = 0.
Notar que Cov(X; Y ) y (X; Y ) deben tener el mismo signo.
El valor de (X; Y ) proporciona una medida del grado en que dos v.a. X e
Y estn linealmente relacionadas.
Si la distribucin conjunta de X e Y en el plano xy est relativamente
concentrada alrededor de una recta que tiene pendiente positiva, entonces (X;
Y ) generalmente estar cerca de 1.
Si est concentrada alrededor de una recta que tiene pendiente negativa,
entonces (X; Y ) generalmente estar cerca de 1.
E(X)E(Y ) = 0
(X; Y ) = 0
Nota:
mide la relacin lineal entre X e Y . Si t 1 t 1 ) la
relacin entre X e Y es muy fuerte, esto es, los valores estn ms cerca de una
lnea recta.
91
3.8.4
La matriz de covarianzas
Denicin: Sea (X; Y ) una variable aleatoria bidimensional tal que V ar(X) <
1 y V ar(Y ) < 1:La matriz de covarianzas de (X,Y)
E f[X E(X)] [X E(X)]g E f[X E(X)] [Y E(Y )]g
Cov(X; X) Cov(X; Y )
=
E f[Y E(Y )] [X E(X)]g E f[Y E(Y )] [Y E(Y )]g
Cov(Y; X) Cov(Y; Y )
V ar(X)
Cov(X; Y )
Cov(Y; X)
V ar(Y )
Notar: la matriz de covarianzas es una matriz simtrica
3.8.5
La Normal Bivariada
Sea (X; Y ) una variable bidimensional continua. Decimos que (X; Y ) tiene
distribucin normal bivariada si su funcin conjunta est dada por:
f (x; y) =
1
2
exp
1
2)
2(1
X
X
(x
X )(y
X
Y
Y
Donde
X es la media de la variable aleatoria X y X es su desviacin estndar
Y es la media de la variable aleatoria Y y Y es su desviacin estndar
es el coeciente de correlacin de X e Y
Se denota (X; Y ) s N (!; ), donde ! =
X
Y
V ar(X)
Cov(X; Y )
Cov(Y; X)
V ar(Y )
X;
Y s N(
Si
2
X)
2
Y
XjY = y s N
Y jX = x s N
X
Y
Y
X
(y
);
(x
X) ;
2
X (1
2
Y
(1
4.1
94