Está en la página 1de 94

1

CONCEPTOS BSICOS DE PROBABILIDAD

INTRODUCCIN
En la naturaleza existen fenmenos que se denominan aleatorios. Que sean
aleatorios signica simplemente que no es posible predecir con entera exactitud
sus resultados.
El que un fenmeno sea aleatorio no necesariamente es una propiedad del
fenmeno mismo, sino de la posicin relativa del observador. Por ejemplo, un
eclipse solar ha dejado de ser aleatorio porque con las leyes de la mecnica
celeste hoy da se le puede predecir con entera certeza, pero para alguien que
no conoce de mecnica celeste, el eclipse solar es esencialmente un fenmeno
aleatorio; los nmeros aleatorios generados por una computadora en el fondo
no son aleatorios porque se producen en forma recursiva, pero al no conocerse
explcitamente dicha funcin recursiva, s resultan aleatorios en el sentido de
que no podemos predecir la secuencia.
Ejemplos de fenmenos aleatorios:
1. En Fsica: La resistencia a la tensin de una barra de acero.
2. En poltica: El nmero de integrantes del padrn electoral que va a votar
por un cierto candidato.
3. En Economa: El ndice de inacin al nal del ao.
4. En produccin: El nmero de artculos defectuosos que se producirn en
una jornada de trabajo.
5. En meteorologa: La temperatura de maana a las 8 de la maana.
6. En Educacin: El nmero de alumnos que aprobarn el curso de probabilidad.
7. En Medicina: El nmero de pacientes que resultarn curados cuando se
les aplique un nuevo medicamento.
Ante la presencia de un fenmeno aleatorio, hay dos actitudes posibles:
(a) Resignarse y decir no hay nada que yo pueda hacer al respecto.
(b) Reconocer que la aleatoriedad est presente, enfrentarla y proceder a cuanticarla (actitud cientca y racional).
(b) se aborda matemticamente a travs de una abstraccin llamada modelo
de probabilidad, que se representa por ( ; A; P ), donde
representa los
resultados posibles del fenmeno aleatorio, A es un conjunto de subconjuntos
de llamados eventos cuyo azar es de inters cuanticar y P es una funcin de
A en R que asigna una magnitud a cada evento, as que, se hablar de P (A),
8A 2 A; a P se le llama medida de probabilidad.
1

Este modelo de probabilidad realiza todo lo que un ser humano puede hacer
con respecto a un fenmeno aleatorio, que es cuanticar la incertidumbre a
travs de la asignacin de probabilidades a los eventos. Todo lo dems, es decir,
la prediccin de un resultado especco de un fenmeno aleatorio, solo puede ser
obra de un ser con poderes sobrenaturales. Hay que notar que en el momento
en que un fenmeno sea predecible, deja de ser til el concepto de modelo de
probabilidad, ya que el fenmeno deja de ser aleatorio por denicin.
La Teora de Probabilidad tiene por objeto estudiar las propiedades del
modelo ( ; A; P ); por ejemplo, si se conoce el valor de P (A) para ciertos tipos
de eventos A, podemos estudiar cules son los valores de P (B) para eventos B
que son de estructura ms compleja que A.
EL CURSO
Este curso es slo una introduccin a la probabilidad, consistiendo bsicamente en identicar cada uno de los elementos del modelo ( ; A; P ) y en
construir procesos y estrategias que nos permitan aprender a asignar medidas
de probabilidad a ciertos eventos en situaciones especcas, esto es lo que comnmente se denomina clculo de probabilidades.

1.1
1.1.1

El espacio de Probabilidad ( , A, PX )
Probabilidad a Priori, a Posteriori y Axiomtica

El estudio de la probabilidad no es reciente, desde que surgieron los juegos de


azar ha existido la necesidad de estudiar las probabilidades y es por esto que en
un principio la teora de probabilidad estuvo fuertemente asociada con juegos
de azar. Su estudio formal se inici en el siglo XVII y estuvo motivado precisamente por el inters de los jugadores por tratar de anticiparlos resultados de
un juego. El Caballero De Mer, un jugador profesional de ese tiempo, plante a
su amigo Pascal (s, precisamente al matemtico francs Pascal) muchos problemas cuya solucin requera conocer para tener xito en las mesas de juego. Para
resolver estos problemas Pascal introdujo importantes ideas que empezaron a
darle forma a lo que podra llamarse una teora de la probabilidad y que alcanz
su apogeo cuando Pascal inicia un intercambio de correspondencia con Fermat
(quien en esa poca era considerado uno de los mejores matemticos) para discutir la forma de resolverlos. Esta celebrada correspondencia es actualmente
considerada por muchos como el nacimiento de la Teora de Probabilidad.
La Teora de Probabilidad tal como hoy la conocemos no es exactamente la
misma que desarrollaron Pascal y Fermat. En realidad, actualmente se reconocen tres tipos de probablidad: la probabilidad clsica o a priori, la probabilidad
de frecuencias o a posteriori y la probabilidad axiomtica.
Probabilidad Clsica o a Priori La asociacin de la probabilidad a los
juegos de azar, fue lo que dio lugar a la denicin de probabilidad clsica.
Veamos cmo fue esto.

An cuando en los juegos de azar el resultado de un solo ensayo es incierto,


los jugadores reconocan que en un nmero grande de ensayos el resultado es
predecible. Saban
por ejemplo, que en una gran cantidad de lanzamientos
de una moneda legal, aproximadamente la mitad de las veces saldra guila.
Es esta regularidad solo predecible en muchas corridas lo que hace que las casas
de juego se embarquen en este tipo de negocio.
Actualmente se sabe que un tipo similar de incertidumbre y de regularidad
a largo plazo ocurre en las ciencias experimentales, por ejemplo,una compaa
de seguros no puede predecir si una persona en particular va a morirse a los 50
aos, pero s predecir muy satisfactoriamente cuntas gentes en el pas morirn
a esa edad.
Pues bien, haciendo uso de esta regularidad, los jugadores procedan como
sigue. Supongamos que queremos hallar la probabilidad de que al lanzar una
moneda legal salga guila. Como slo hay dos maneras de que caiga una
moneda, guila o sol, y puesto que la moneda es legal, uno esperara que sea tan
probable que salga guila como que salga sol (o sea, que en un nmero grande
de tiradas sera tan frecuente que salga guila como que salga sol ); entonces, al
evento de que salga guila debe asignrsele el valor 1/2. La generalizacin de
este razonamiento es lo que dio lugar a la denicin de probabilidad clsica.
Denicin (Probabilidad Clsica): Si en un experimento aleatorio se
pueden obtener n resultados mutuamente excluyentes e igualmente probables y
si nA de estos resultados, tienen un atributo A, entonces la probabilidad de A
nA
.
es la fraccin
n
Ejemplo:
Se lanza un dado ordinario. Entonces, hay 6 resultados posibles. Estos 6
resultados son mutuamente excluyentes puesto que no pueden salir dos o ms
caras simultneamente. Como el dado es legal los 6 resultados son igualmente
probables, es decir, se espera que cada cara aparezca con aproximadamente la
misma frecuencia relativa a largo plazo. Ahora supongamos que queremos hallar
la probabilidad de que el resultado del lanzamiento sea un nmero par. Tres de
los 6 resultados posibles tienen esta propiedad. Por lo tanto, la probabilidad de
que salga un nmero par cuando se lanza un dado es 3/6, o 1/2. Similarmente la
probabilidad de que salga el 5 es 1/6, y la probabilidad de que salga un nmero
mayor que 2 es 2/3.
Una denicin como la dada tiene claramente muchas limitaciones:
! No puede ser aplicada cuando el nmero de resultados posibles del experimento es innito: ejemplo, cuando el experimento consiste en lanzar una
moneda hasta que salga guila.
! No puede ser aplicada cuando los resultados posibles no son igualmente
probables: ejemplo, se lanza una moneda dos veces, hay tres resultados
posibles, dos guilas, dos soles o una guila y un sol; los diferentes resultados no son igualmente probables. Tenemos el mismo problema si se lanza
una moneda desbalanceada una sola vez.

! La denicin es circular: igualmente probables es un concepto relacionado


con lo que se quiere denir. Adems, cmo decidir que todos los eventos
son igualmente probables?
Ante esta situacin requerimos alterar o extender nuestra denicin de modo
que podamos incluir dentro del marco de la teora a este tipo de problemas.
Esta ms ampliamente aplicable probabilidad es la llamada probabilidad
a posteriori, o f recuentista:
Probabilidad Frecuentista o a Posteriori Cuando en la probabilidad
clsica establecemos que la probabilidad de que al lanzar una moneda salga
guila es 1/2, llegamos a ello mediante razonamientos puramente deductivos, y
por tanto no requerimos que sea lanzada alguna moneda ni que tengamos a la
mano una moneda. En la probabilidad a posteriori es diferente.
Consideremos de nuevo el problema de hallar la probabilidad de que salga
guila en el lanzamiento de una moneda. El procedimiento es, se lanza una
moneda muchas veces, digamos 200 veces, y se tabulan las frecuencia relativas
obtenidas. De estas frecuencias relativas se obtendr la probabilidad buscada.
Por ejemplo si las tabulaciones son
Resultado
A
S
Total

Frecuencia
nA
nS
200

Frecuencia Relativa
nA =200
nS =200
1

La probabilidad de que salga guila es entonces su frecuencia relativa correnA


:
spondiente, es decir, P (A) = 200
Una probabilidad de este tipo ya no tiene los problemas que presentaba la
probabilidad clsica, pero, presenta otros:
! Qu tan grande debe ser el nmero de repeticiones?
! Hay situaciones que legtimamente deben ser estudiadas bajo el enfoque
de probabilidad pero que no es posible analizarlos en el marco de experimentos repetibles, por ejemplo si se quiere responder a la pregunta cul
es la probabilidad de que yo me enferme en el prximo verano?
Probabilidad Axiomtica Actualmente existe una Teora de probabilidad lo
sucientemente rica para incluir la probabilidad a priori, la a posteriori y que
adems permite estudiar problemas que no quedan en el marco de la repetibilidad, se denomina P robabilidad Axiomatica, es la que estudiaremos en este
curso y es la que se desarrolla a partir del modelo ( ; A; P ). Como su nombre lo indica, su estudio empieza con un conjunto de axiomas, a partir de los
cuales se obtendrn nuevas proposiciones que son las que precisamente nos sern
tiles para el clculo de probabilidades. Empezaremos nuestro curso identicando cada uno de los elementos del objeto ( ; A; P ) para luego desarrollar su
contenido trabajando con la terna completa:
4

1.1.2

Conceptos Bsicos: El Espacio Muestral, el Espacio de Eventos


y la medida de probabilidad

El Espacio Muestral
Denicin: Se llama espacio muestral al conjunto formado por todos los
resultados posibles de un experimento.
El espacio muestral ser denotado con la letra griega

Ejemplos:
1. Lanzar una moneda.

= fa; sg (espacio muestral nito)

2. Lanzar una moneda hasta que salga sol.


muestral innito numerable).

= fs; as; aas; aaas; :::g (espacio

3. Hay experimentos que generan espacios innitos no numerables? S los


hay, por ejemplo, se enciende una bombilla hasta que se queme y se anota
el tiempo de duracin. En este caso = [0; 1) o, tal vez alguien diga que
es [0; 500). De este modo, el espacio muestral no tiene porque ser nico.
4. Observar el estado del tiempo del da de maana.Este es un espacio muestral muy complicado.
5. Una computadora genera de manera aleatoria pares de enteros. El primer
entero est entre 1 y 5, inclusive, y el segundo est entre 1 y 4, inclusive.
Representa el espacio muestral en un sistema de ejes coordenados, donde
x es el primer nmero y y es el segundo.
Moraleja: No siempre es fcil representar un espacio muestral.
El Espacio de Eventos A
Denicin: Un evento es un subconjunto del espacio muestral :
Ejemplo: Considera el experimento de lanzar un dado, entonces = f1; 2; 3; 4; 5; 6g:
El subconjunto A = f2; 4; 6g es un evento. Escrito de otra forma, A: El resultado de lanzar un dado es un nmero par, es un evento.
A menos que se establezca lo contrario, TODOS LOS SUBCONJUNTOS de
un espacio muestral estarn incluidos como posibles eventos.
El espacio de eventos A es el conjunto conformado por todos los eventos
que provienen de : A lo largo del curso slo manejaremos dos tipos diferentes
de espacios de eventos uno es A =2 cuando es nito o innito numerable.
Denicin: Un evento elemental o simple es un evento formado por un
solo elementode .
Ejemplo:

1. Sean
3gg

= f1; 2; 3g, entonces, A = f ;

; f1g; {2}, {3}, {1, 2}, {1,3}, f2;

El f1g , {2} y {3} son eventos elementales.


El conjunto f2; 3g es un evento que no es elemental.
2. Sea = f1; 2; 3; 4; 5; 6; 7g: Consideremos los eventos E = f1; 3; 5; 7g, F =
f4; 7; 6g, G = f1; 4g. Escribe con notacin de conjunto los siguientes
eventos: (a) E [ (F \ G); (b) E c \ (F [ G):
3. En el ejemplo 5 relativo a una computadora que genera aleatoriamente
pares de enteros: (a) Escribe en foma de conjunto el evento A: x < y; (b)
Proporciona un evento simple.
Denicin: Sea ! 2
el resultado de un experimento. Decimos que un
evento A ocurre, si ! 2 A.
Por ejemplo, supongamos que el experimento consiste en lanzar un dado.
Sea el evento A: Sale un nmero que es mltiplo de 3, o sea, A = f3; 6g:
Se efecta el experimento y sale el 4, como 42
= A;entonces diremos que el
evento A no ocurri.
Teorema: Sean A y B eventos.
a) Un evento A ocurre, Ac no ocurre.
b) El evento A [ B ocurre , ocurre A o bien ocurre B.
c) El evento A \ B ocurre , ocurren A y B al mismo tiempo.
Ejercicios:
1. Se lanzan dos dados. Sea E el evento de que la suma de los dados sea un
nmero impar y F el evento de que el primer dado caiga en 1. Describe
los eventos : (a) E [ F ; (b) E \ F c :
2. Sean E, F y G tres eventos. Encuentra las expresiones adecuadas en
trminos de E, F y G para los siguientes eventos: (a) slo E ocurre; (b)
ocurren E y G pero no F.
Notar que: Los subconjuntos y ; de ;son siempre eventos sin importar
cmo sea . Se llaman respectivamente, evento seguro y evento imposible,
pues siempre ocurre y nunca ocurre.
Denicin: Dos eventos A y B se dice que son ajenos o mutuamente
excluyentes si A \ B = . Los eventos de una coleccin A1 ; A2 ; ; ::: ; se dice
que son ajenos a pares o mutuamente excluyentes dos a dos, si se cumple
que Ai \ Aj = , 8i 6= j.
6

La Medida o Funcin de Probabilidad


Denicin: Sea
un espacio muestral y A el correspondiente espacio de
eventos. Una medida de probabilidad o funcin de probabilidad es una
funcin P : A ! R que cumple las siguientes condiciones:
i) P ( ) = 1
ii) P (A)

0, 8A 2 A

iii) Si A1 ; A2 ; :::;son ajenos a pares, entonces P

1
S

i=1

Ai

1
X

P (Ai ).

i=1

i), ii) y iii) son los llamados axiomas de probabilidad.


Denicin: Llamamos espacio de probabilidad o modelo de probabilidad a la terna ( ; A; P ).
Ejemplo 1: Sea = f1; 2; 3; 4; 5g, entonces A = 2 . Denamos P (A) =
8A 2 A. Entonces ( ; A; P ) es un espacio de probabilidad.
Ejemplo 2: Sean
= f1; 2; 3; :::g, entonces A = 2 . Sea B
un
#(B \ A)
.
conjunto nito con n elementos. Denamos la funcin P (A) =
n
Entonces ( ; A; P ) es un espacio de probabilidad.
#A
5

1.1.3

Teoremas Bsicos que se Derivan de los Axiomas de Probabilidad

Sea ( ; A; P ) un espacio de probabilidad. Entonces


1) P (;) = 0
Demostracin:
Tomemos A1 = ;, A2 = ;; A3 = ;; :::
1
S
);=
Ai
i=1

) P (;) = P
) P (;) =
)

1
P

i=2

1
P

1
S

Ai

i=1

P (;)

1
P

P (Ai ); por el axioma 3

i=1

i=1

P (;) = 0 y P (;) > 0

) P (;) = 0
2) Si A1 , A2 ; :::; An ; son eventos ajenos a pares, entonces P
n
P

n
S

i=1

P (Ai )

i=1

Demostracin:
Tomemos An+1 = ;, An+2 = ;; An+3 = ;; :::
7

Ai

)P

n
S

1
S

=P

i=1

Ai

i=1

1
S

Pero, por el axioma 3, P


)P

n
S

Ai

i=1

1
P

Ai

i=1

P (Ai ) =

i=1

1
P

P (Ai )

i=1

P (Ai ) +

i=1

Por la propiedad 1) P (;) = 0


n
n
S
P
)P
Ai =
P (Ai )
i=1

n
P

1
P

P (;)

i=n+1

i=1

3) P (Ac ) = 1

P (A)

Demostracin:
= P (A [ Ac )

P( )

= P (A) + P (Ac )
) 1 = P (A) + P (Ac ); por lo tanto, P (Ac ) = 1
4) 0

P (A)

P (A).

Demostracin:
Por denicin, P (A)
!!!contradiccin.
Por lo tanto 0 P (A)
5) Si A

B ) P (A)

0, si P (A) > 1, entonces P (Ac ) = 1

P (A) < 0

1.
P (B).

Demostracin:
B = A [ (B A), pero A \ (B A) =
) P (B) = P (A)+P (B A), pero P (B A)
6) P (A [ B) = P (A) + P (B)

0, por lo tanto, P (B)

P (A):

P (A \ B).

Demostracin:
A [ B = (A \ B) [ (A
P (A [ B)

B) [ (B

A)

= P (A \ B) + P (A

B) + P (B

A)

= P (A \ B) + P (A

B) + P (B

A) + P (A \ B)

= P (A) + P (B)

P (A \ B):

6)
8

P (A \ B)

P (A1 [ A2 [ A3 )

= P (A1 ) + P (A2 ) + P (A3 )

En general:
n
n
X
S
P ( Ai ) =
P (Ai )
i=1

i=1

P (A1 \ A2 )

P (A1 \ A3 )

P (A2 \ A3 ) + P (A1 \ A2 \ A3 )
X
i<j

P (Ai \ Aj ) +

i<j<k

P (Ai \ Aj \ Ak )

+ ( 1)n+1 P (A1 \ A2 \

\ An )

Ejemplos:
1. Un estudiante seleccionado de una clase puede ser chico o chica. Si la probabilidad de que un chico sea seleccionado es 0.3, cul es la probabilidad
de que sea seleccionada una chica?
Solucin:
P (chica)

=1

P (chico)

=1

0:3

= 0:7
2. Se selecciona un punto (x; y) del cuadrado S que contiene todos los puntos
(x; y) tales que 0 x 1 y 0 y 1. Supngase que la probabilidad de
que el punto seleccionado pertenezca a cualquier subconjunto especco
de S es igual al rea de ese subconjunto. Determnese la probabilidad del
1
subconjunto de puntos tales que (x 12 )2 + (y 12 )2
4.
Solucin:
P ((x; y) 2 A) =rea A, A
B = f(x; y) j (x
P (B)

=1

+ (y

P ((x; y) j (x

S. Nos piden
1 2
2)
1 2
2)

1
4g

+ (y

1 2
2)

1
4)

( 14 )

=1
=1
=

1 2
2)

4
4

3. Considrense dos eventos A y B tales que P (A) = 1=3 y P (B) = 1=2:


Determnese el valor de P (B \ Ac ) si A B:

Solucin: DeSla frmula para la unin tenemos que P (B \ Ac ) = P (B) +


P (Ac ) P (B Ac ) = 1=2 + 2=3 P ( ) = 1=2 + 2=3 1 = 1=6

1.1.4

Espacios de Probabilidad Discretos y Continuos

La funcin indicadora Denicin: Sea A


un conjunto arbitrario.
Denotaremos por IA a la funcin de en R denida por
(
1; si ! 2 A
IA (!) =
0; si ! 2
=A
esta funcin recibe el nombre de funcin indicadora del conjunto A.
Ejemplos
( 2
x ; si x 2 (2; 3)
2
1. f (x) = x I(2; 3) (x) =
0;
si x 2
= (2; 3)
8
< 1 ; si x > 0
x
2. f (x) = x1 I(0; 1) (x)=
:
0; si x 0

Espacios nitos
Teorema de caracterizacin de probabilidad en un espacio nito: Sea
= f! 1 ; ! 2 ; :::; ! n g un espacio muestral con un nmero nito de elementos.
Sea p1 ; p2 ; :::; pn nmeros reales tales que pi
0; i = 1; 2; :::; n y tales que
n
P
pi = 1: Entonces
i=1

a) La funcin P : 2 ! R denida por P (A) =

de probabilidad sobre 2 :

n
P

IA (! i )pi es una medida

i=1

b) P (f! i g) = pi , i = 1; 2; :::; n
Ejemplos:
1. Consideremos como el conjunto de resultados posibles del lanzamiento
de un dado, esto es,
= f1; 2; 3; 4; 5; 6g: Sea P (fig) = pi = 1=6; 8i =
1; 2; 3; 4; 5; 6: Entonces, las pi cumplen las propiedades del teorema. Calcula ahora la probabilidad de que salga un nmero que est en el intervalo
[2, 5].
Sol.: P (f2; 3; 4; 5g) = P (f2g) + P (f3g) + P (f4g) + P (f5g) = 4=6
2. Las pi no tienen porque ser iguales, por ejemplo un espacio muestral que
frecuentemente aparece en la prctica es uno de la forma
= f0; 1; 2;
:::; ng; por ejemplo,
podra ser el nmero de artculos defectuosos en
n i
un lote de n. Si denimos P (fig) = pi =
p (1 p)n i , donde p es
i
la probabilidad de que un artculo sea defectuoso, estas pi cumplen las
condiciones del teorema. Veremos ms adelante que a P se le denomina
distribucion binomial:
10

Espacios Numerables
Teorema de caracterizacin de probabilidad en un espacio numerable:Sea = f! 1 ; ! 2 ; :::; ! n g un espacio muestral numerable, sean p1 ; p2 ; p3 ;
1
P
:::; una sucesin de nmeros tales que pi 0, i = 1; 2; ::: y tales que
pi = 1.
i=1

Entonces
1
P
a) La funcin P : 2 ! R denida por P (A) =
IA (! i )pi es una medida
i=1

de probabilidad sobre 2 .

b) P (f! i g) = pi , i = 1; 2; 3; :::;
c) Si Q es una medida de probabilidad tal que Q(f! i g) = P (f! i g), entonces
Q(A) = P (A), 8A 2 2 .
Ejemplos:
1. Distribucin Geomtrica: Supngase que en un cierto proceso slo se
observan dos resultados posibles, 1=xito o 0=fracaso. Supongamos que
el experimento consiste en realizar una y otra vez el proceso hasta que
ocurra el primer xito y se anota el nmero de realizaciones. Entonces
= f1; 2; :::; g, si se sabe que probabilidad de xito=p se puede determinar
que P (! i ) = pi = p(1 p)i 1 , i = 1; 2; ::: Notar: Que el espacio no
es uniforme, ya que pi 6= pj , i 6= j. Hallar la probabilidad de que el
experimento concluya realizando el proceso a lo ms tres veces.
2. Distribucin Poisson: Se usa cuando se estudia la incertidumbre de
eventos raros (por ejemplo, no. de accidentes de trnsito en una cierta
esquina), tambin juega un papel importante en la teora de colas = f0;
i
e
1; 2; :::; g, pi =
, i = 0; 1; 2; :::;
i!
Ambas distribuciones se vern con mucho detalle en el tema de variables
aleatorias.
Espacios Continuos
Se reere al caso en el que el espacio muestral
es un conjunto innito no
numerable y lo estudiaremos con detalle en la unidad de variables aleatorias.
1.1.5

Espacios Equiprobables

Sea = f! 1 ; ! 2 ; :::; ! n g un espacio muestral nito y sean P (! 1 ) = p1 ; P (! 2 ) =


p2 ; ..., P (! n ) = pn : Cuando se tiene que todas las pi son iguales, estaremos
hablando de un espacio uniforme.
Denicin: Decimos que un modelo de probabilidad con espacio muestral
nito
= f! 1 ; ! 2 ; :::; ! n g es equiprobable o uniforme, si la medida de
probabilidad P cumple que P (f! 1 g) = P (f! 2 g) =
= P (f! n g).

11

1
Teorema: En un modelo de probabilidad uniforme, P (f! i g) = , i = 1;
n
#A
2; :::; n y P (A) =
,A22 .
#
Ejemplos
1) Supngase que una moneda equilibrada va a ser lanzada diez veces y se desea
determinar (a) la probabilidad de obtener exactamente tres caras y (b) la
probabilidad de obtener a la ms tres caras.
Solucin: (a) Sea el evento A: se obtienen exactamente tres caras en los
(10)
10 lanzamientos, entonces P (A) = 2310 = 0:1172
(b) Sea el evento B: salen a lo ms 3 caras en los 10 lanzamientos, entonces
10
10
(10)+(10
1 )+( 2 )+( 3 )
= 176
P (B) = 0
210
210 = 0:1719
2) Supngase que en una clase hay 15 muchachos y 30 muchachas, y que se van
a seleccionar al azar 10 estudiantes para una tarea especial. Calcular la
probabilidad de seleccionar exactamente 3 muchachos.
Solucin: Sea el evento A: Entre los 10 seleccionados hay exactamente 3
(15)(30)
muchachos. Entonces, P (A) = 3 45 7 = 0:2904
(10)
3) Consideremos el experiment o de lanzar dos dados. Calcule la probabilidad
de que la suma de los nmeros que aparecen sea 7.
Solucin:
= f(x; y) j 1

6; x; y 2 N}

Es sensato suponer que es tan probable que salga una cierta pareja (x; y)
como cualquier
otra, as que trabajaremos con un modelo de probabilidad uniforme. Entonces si denimos
A7 :La suma de los nmeros que aparecen es 7, tenemos
P (A7 ) =
P (A7 )

#A7
; pero #
#
=

6
36

1
6

= 36, por tanto

4) La Paradoja de De Mer (siglo XVII): Se cuenta que el problema se plante


en una mesa de juego y que en 1654 De Mer se lo propuso a Pascal. Se
supone que este incidente estimul mucho el desarrollo de la probabilidad.
Cul de los dos eventos es ms probable?
12

(a) En cuatro tiradas de un dado sacar al menos un as, o


(b) En 24 tiradas de dos dados sacar al menos un (1,1), i. e., un doble as.
Nota: Los jugadores de juegos de azar crean que las probabilidades eran
iguales. Llegaban a ello con el siguiente razonamiento: Si lanzo un dado
una vez, la probabilidad de que salga un as es 1/6, entonces si lo lanzo 4
veces la probabilidad de tener al menos un as es 4 16 = 23 ;anlogamente,
si lanzo dos dados una vez, la probabilidad de que salga un doble as es
1/36, entonces si lo lanzo 24 veces la probabilidad de tener al menos un
1
doble as es 24 36
= 23
Solucin: (a) # = 64 ; 54 elementos de
4
671
= 0:5177
probabilidad es 1- 654 = 1296
(b) La probabilidad es 1

3524
3624

no muestran el 1. Entonces la

= 0:491

4) Se tira un dado. Cuntas tiradas se necesitan para que la oportunidad


de sacar al menos un 6 sea mejor que la de sacar un nmero par en una
tirada?
Solucin: Sea el evento A: Se saca al menos un 6 en r tiradas. Tenemos
entonces,
P (Ac ) = 1

P (A) = 1

5 r
6

> 1=2 ) r

4:

5) Cul es la probabilidad de que entre k dgitos aleatorios por lo menos no


aparezca uno de los dgitos 0 y 1?.
Solucin: 2

9 k
10

8 k
10

6) Quince nuevos estudiantes son igualmente distribuidos en 3 salones de clase.


Suponga que entre los 15 hay 3 estudiantes que son muy malos. Cul es
la probabilidad de que cada saln de clase tenga uno?.
Solucin:

12!
3! 4!4!4!
15!
5!5!5!

4
8
3!(12
4 )(4)(4)
5
10
(15
5 )( 5 )(5)

7) Un autobs recoge a 15 pasajeros y a lo largo de su ruta har 4 paradas.


Cul es la probabilidad de que todos los pasajeros se bajen en la misma
parada?
Solucin:

(n r r 1 1)

(18
3)

9) Supongamos que una urna contiene M bolas numeradas de 1 a M , donde las


primeras K bolas son defectuosas y las restantes M K son no defectuosas.
El experimento consiste en extraer n bolas de la urna. Denamos Ak como
el evento de que la muestra de n bolas contiene exactamente k defectuosas.
Hay dos maneras de extraer la muestra:
(i) con reemplazo y
(ii) sin reemplazo.
13

Hallar P (Ak ) para cada mtodo de muestreo.


Bajo (i), cul es la probabilidad de que las n bolas extradas tengan
nmeros distintos?
Solucin:
i) Con reemplazo
El espacio de probabilidad va a ser considerado uniforme.
= f(x1 ; x2 ; :::; xn ) j xi = 1; 2; :::; M g
#

= M n (ya que la prueba es con reemplazo)

n
K k (M K)n k , por tanto
k
n
K k (M K)n k
k
P (Ak ) =
Mn

#Ak =

Tarea: Si cambio el espacio muestral por


2; ; :::; ng ser

= f(x1 ; x2 ; :::; xn ) j xi = 1;

que obtengamos el mismo resultado?


= f(x1 ; x2 ; ; :::; xn ) j 1

ii)
#

xi

M , xi 6= xj , i 6= jg

=PM;n
n
PK;k PM
k

#Ak =

P (Ak )

K;n k ,

n
PK;k PM
k
PM;n

entonces

K;n k

n!
k!
(M K)!
k!(n k)! (K k)! [(M K) (n_k)]!
=
M!
n!
(M n)!
1
=

k!(n

K
k

k!

(M K)!
k)! (K k)! [(M K) (n k)]!
M!
n!
(M n)!
M
n
M
n

K
k

14

Bajo (i) cul es la probabilidad de que las n bolas extradas tengan nmeros
distintos?
= f(x1 ; x2 ; ; :::; xn ) j 1
#

=M

xi

M , xi 2 Ng

B : Las n bolas extradas son diferentes


#B
P (B) =
#
PM;n
=
Mn
10) Determinar la probabilidad de que al menos dos personas en un grupo de
k (2 k 365) tengan el mismo cumpleaos, esto es, que hayan nacido
el mismo da del mismo mes, pero no necesariamente del mismo ao.
Solucin:
Suponga que
#

= f(x1 ; x2 ; :::; xk ) j xi 2 f1; 2; :::; 365gg

= (365)k

#B c =P365;k
P (B)

= P (al menos 2)
=1

P (B c )

=1

P365;k
(365)k

Notar: Este problema es el mismo que el de las bolas de las cuales se


extraen n distintas.
11) Considere un experimento que tiene N resultados posibles: f! 1 ; ! 2 ; :::;
! n g. Se sabe que el resultado ! j+1 es dos veces ms probable que el
resultado ! j donde j = 1; 2; :::; N 1, esto es, pj+1 = 2pj en donde
pi = P (f! i g). Hallar la probabilidad de Ak , donde Ak = f! 1 ; ! 2 ; :::; ! k g.
Solucin:
El espacio de probabilidad es uniforme

15

p2

= 2p1

p3

= 2p2 = 2(2p1 ) = 22 p1

p4

= 2p3 = 2(22 p1 ) = 23 p1
..
.

pj

= 2j

p1

por tanto
P (Ak )

k
P

pi

i=1
k
P

2i

p1

i=1

= p1

k
P

2i

i=1

= p1

1 2k
1 2

= p1 (2k

1) (*)

ahora veamos a qu es igual p1 :


N
P
Sabemos que
pi = 1, pero pi = 2i
=

p1 por (*), entonces

i=1

por tanto
p1

N
P

2i

p1 = 1,

i=1

1
N
P

2i

i=1

=
=

1 2N
1 2

1
2N

recordar que 1 + x + x2 +
2k
2N

1.2
1.2.1

+ xn =

xn+1
1 x

; por tanto P (Ak ) =

1
:
1

El Teorema de Bayes
Eventos Condicionados

Sea ( , A, P ) un espacio de probabilidad, y B un evento con probabilidad


positiva. Supongamos que sabemos que B ha ocurrido.

16

Por ejemplo, supongamos que una urna contiene n bolas de las cuales m son
rojas y n m son blancas y que el experimento consiste en extraer al azar de
la urna 2 bolas, una despus de la otra.
Pues bien, se extrajo la primera bola y se encontr que es roja. De este
modo, el evento B: la primera bola extrada es roja, es un evento que ya ha
ocurrido.
Ante esta situacin nuestra asignacin original de probabilidades a travs de
P ya no es apropiada. Sin duda alguna esto es as, porque ahora que sabemos
que B ha ocurrido, es imposible que ocurra B c ! aunque originalmente pudimos
haberle asignado una probabilidad positiva. La cuestin ahora es, cmo deben
nuestras probabilidades cambiar a la luz de la nueva informacin?
Por ejemplo, pensando de nuevo en la urna con las bolas rojas y blancas,
cul sera la probabilidad de que la segunda bola extrada sea roja, dado que
la primera es roja?.
Veamos, queremos P (A dado que ya ocurri B) donde A: la 2a. bola extrada
es roja. Denotemos esta probabilidad por P (AjB):
Como B ha ocurrido, entonces se sabe que el resultado del experimento
es uno de los incluidos en B. Por tanto, para evaluar la probabilidad de que
A ocurra, se debe considerar el conjunto de los resultados incluidos en B que
tambin implican la ocurrencia de A. Considerando probabilidad uniforme en
B tendremos entonces
#(A \ B)
P (A j B) =
#B
=

#(A \ B)=n(n 1)
P (A \ B)
=
#B=n(n 1)
P (B)

Def.: Si A y B son eventos con P (B)>0, la probabilidad condicional de A


dado B, denotada por P (AjB), se dene por P (AjB) = P P(A\B)
(B) :
Ejercicios
1. Supngase que se han lanzado 2 dados distinguibles y que se ha observado que la suma T de los dos nmeros ha sido impar. Determine la
probabilidad de que T haya sido menor que 8.
Solucin:
P (B) =

1
12
1
18
= ; P (A \ B) =
=
36
2
36
3

P (T < 8 j T impar)

P (A \ B)
P (B)

1=3
1=2
2
=
3

17

2. Considere el experimento de lanzar dos monedas. Sea = f(A, A), (A,


S), (S, A), (S, S)g y asume que cada punto es igual de probable. Halla la
probabilidad de que salgan dos guilas dado que al menos una es guila.
Solucin:
B = fAS, SA, AAg
P (AA)
P (AS, SA, AA)

1
4
3
4

1
3

3. Si una muestra aleatoria desordenada de tamao k es tomada de una urna


conteniendo r bolas rojas, b bolas negras y w bolas blancas, cul es la
probabilidad condicional de que la muestra contendr exctamente i bolas
blancas dado que contiene exctamente j bolas rojas?
Solucin:
Denamos los eventos:
Ri =De las k extradas hay i bolas rojas
Bj =De las k extradas hay j bolas rojas
Se quiere calcular P (Bj jRj ):

P (Bj j Rj )

w
i

b
k j
b+w
k j

Propiedades de la probabilidad condicional


Sean A y B eventos con P (B) > 0.
1) P (A \ B) = P (A j B)P (B)
2) P (A j ) = P (A)
3) P ( j B) = 0
4) P ( j B) = 1

5) P (A j B) + P (Ac j B) = 1
18

Demostracin:
P (A j B) + P (Ac j B)

P (A \ B) P (Ac \ B)
+
P (B)
P (B)

P ((A \ B) [ (Ac \ B))


P (B)

P (B)
P (B)

=1
6) Sean A1 ; A2 ; A3 ; :::; eventos mutuamente excluyentes, entonces
1
1
P
S
P (Ai j B)
P ( Ai j B) =
i=1

i=1

Demostracin:

P(

1
S

i=1

P
Ai j B)

Ai

i=1

\ B)

P (B)

1
S

i=1

1
S

(Ai \ B)

P (B)

1
P

i=1

P (Ai \ B)
P (B)

1
P

P (Ai \ B)
P (B)
i=1
1
P
=
P (Ai j B)
=

i=1

7) Si A1 ; A2 2 A, entonces:
1. P (A1 j B) = P (A1 \ A2 j B) + P (A1 \ Ac2 j B)
2. P (A1 [ A2 j B) = P (A1 j B) + P (A2 j B)
3. Si A1

A2 , P (A1 j B)

P (A2 j B)

8) Si A1 ; A2 ; :::; An 2 A, entonces
n
P
P (A1 [ A2 [
[ An j B)
P (Ai j B)
i=1

19

P (A1 \ A2 j B)

1.2.2

Regla de la Multiplicacin

Para una coleccin nita de eventos A1 ; A2 ; :::; An tal que P

m
T

Ai

> 0;

i=1

8m < n, 8m 2 N, se tiene que:


P

n
T

Ai

= P (A1 )P (A2 j A1 )P (A3 j A1 \ A2 )P (A4 j A1 \ A2 \ A3 )

i=1

P (An j A1 \ A2 \
\ An 1 )
Notar que es una generalizacin de la propiedad no. 1 de la probabilidad
condicional.
Demostracin:
Partiendo del lado derecho de la igualdad:
P (A1 )

P (A2 \ A1 ) P (A1 \ A2 \ A3 )
P (A1 )
P (A2 \ A1 )

P (A1 \ A2 \
P (A1 \ A2 \

\ An )
\ An 1 )

= P (A1 \ A2 \
=P

n
T

i=1

Ejercicios

1. Supngase que se van a extraer dos bolas aleatoriamente y sin reemplazo


de una urna que contiene r bolas rojas y b azules. Determinar la probabilidad de que la primera bola sea roja y la segunda azul.
Solucin:
Denamos los siguientes eventos:
Ri : La i
Ai : La i

sima bola extrada es roja.


sima bola extrada es azul.

P (R1 \ A2 )

i = 1; 2

= P (A2 j R1 )P (R1 )
=

b
r+b

r
1 r+b

2. Supngase que se extraen cuatro bolas de una en una, sin reemplazo de


una caja que contiene r bolas rojas y b azules (r 2, b 2). Determinar
la probabilidad de obtener la sucesin de resultados rojo, azul, rojo, azul.
Solucin:
Queremos R, A, R, A.
Denamos los siguientes eventos:
20

Ai

\ An )

Ri : La i
Ai : La i

sima bola extrada es roja.


sima bola extrada es azul.

i = 1; 2; 3; 4

Queremos calcular P (R1 \R2 \R3 \A4 ) :


P (R1 \ R2 \ R3 \ A4 )

1.2.3

= P (R1 )P (A2 j R1 )P (R3 j R1 \ A2 )P (R4 j R1 \ A2 \ A3 )


r
b
r 1
b 1
=
r+b r+b 1 r+b 2 r+b 3

Eventos Independientes

Dos eventos A y B ocurren independientemente uno del otro si la ocurrencia o no


ocurrencia de cualquiera de ellos, no tiene relacin ni inuye sobre la ocurrencia
o no del otro.
Denicin: Decimos que dos eventos A y B son independientes si P (A \
B) = P (A)P (B):
Notar: que la denicin no requiere que P (A) o P (B) > 0. De este modo
es independiente de cualquier otro evento.
Ejercicio
Supngase que dos mquinas 1 y 2 de una fbrica funcionan independientemente una de la otra. Sea A el evento de que la mquina 2 se descomponga
durante el mismo perodo y supngase que P (A) = 1=3 y P (B) = 1=4. Determinar la probabilidad de que al menos una de las mquinas se descomponga
durante ese perodo.
Solucin:
Queremos hallar P (A [ B):
P (A [ B)

= P (A) + P (B)

P (A \ B)

= P (A) + P (B)

P (A)P (B)

1 1
+
3 4
1
=
2
=

1
12

Teorema: Si A y B son eventos independientes, entonces


1. A y B c son independientes.
Demostracin:
A = (A \ B) [ (A \ B c ), como (A \ B) \ (A \ B c ) =
21

) P (A) = P [(A \ B) [ (A \ B c )] = P (A \ B) + P (A \ B c )

entonces
P (A \ B c )

= P (A)

P (A \ B)

= P (A)

P (A)P (B)

= P (A)[1

P (A)P (B)]

= P (A)P (B c )
por tanto A y B c son independientes.
2. Ac y B c son independientes.
Demostracin: Se deduce inmediatamente del anterior.
Denicin: Decimos que los eventos en una coleccin innita numerable
m
T
de eventos A1 ; A2 ; A3 ; :::; son independientes si se cumple que P ( Aji ) =
m
Q

i=1

i=1

P (Aji ) 8m 2 N, y cualquier coleccin de m ndices distintos j1 ; j2 ; :::; jm .

Teorema: Si A1 ; A2 ; :::; An (coleccin nita) son eventos independientes,


entonces tambin lo son los eventos B1 ; B2 ; :::; Bn donde Bj es ya sea Ai o bin
Aci .
Ejercicios:
1. Sea un entero seleccionado del conjunto S = f1; 2; 3; 4g de manera que
cualquier otro entero es igualmente verosmil que sea escogido. Adems,
sea Ai = fi; 4g el evento de que i o 4 es seleccionado, i = 1; 2; 3. Muestre
que A1 ; A2 ; A3 son independientes por parejas, pero que no es una coleccin de eventos independientes.
Solucin:
Hay que mostrar que
P (A1 \ A2 ) = P (A1 )P (A2 )
P (A2 \ A3 ) = P (A2 )P (A3 )
P (A1 \ A3 ) = P (A1 )P (A3 )
pero P (A1 \ A2 \ A3 ) 6= P (A1 )P (A2 )P (A3 ).
Tenemos que

22

P (Ai )

= P (fi; 4g)
= P (fig) + P (f4g)
= 1=4 + 1=4
= 1=2

P (Ai \ Aj ) = P (f4g) = 1=4


) P (Ai \ Aj ) = 1=2 1=2 = P (Ai )P (Aj )
P (A1 \ A2 \ A3 ) = P (f4g) = 1=4 6= 1=8 = P (A1 )P (A2 )P (A3 ):
Conclumos que los eventos tomados por pares s son independientes, pero
que no es una coleccin de eventos independientes.
2. Sea s un punto seleccionado del intervalo unitario S = [0; 1] de tal manera
que la probabilidad de que el punto pertenezca a un subintervalo I S es
la longitud de I. Escribamos a s en su expansin decimal como s = s1 s2 :::
donde las sk son enteros entre 0 y 9 inclusive. Por ejemplo, si s = 1=8,
entonces s1 = 1, s2 = 2, s3 = 5 y sk = 0 para k
4: Sea A el evento
de que s1 = 0, y sea B el evento de que s2 = 0, son A y B eventos
independientes?
Solucin:
s 2 S = [0; 1] y s es de la forma s = s1 s2 ::: donde sk 2 f0; 1; :::; 9g
si A = [0; 0:1) ) P (A) = 0:1
B = [0; 0:1) [ [0:1; 0:11) [ [0:2; 0:21) [

[ [0:9; 0:91)

) P (B) = (10)(0:01) = 0:1


P (A \ B)

= P (s 2 [0; 0:01))
= 0:01
= (0:1)(0:1)
= P (A)P (B)

por tanto A y B s son independientes.


3. Un sistema conformado por n componentes separadas se dice que es un
sistema en paralelo si funciona cuando funciona al menos una de las componentes (ver gura de abajo). Para el sistema, si la componente i, independientemente de las otras componentes funciona con probabilidad pi ,
i = 1; 2; :::; n; cul es la probabilidad de que el sistema funcione?
23

Solucin:
Denamos Ei : La i sima componente funciona. i = 1; 2; :::; n.
n
n
S
T
) P
Ei
=1 P
Eic
i=1

i=1

=1

n
Q

i=1

=1

n
Q

P (Eic )

(1

pi )

i=1

1.2.4

Teorema de Probabilidad Total

Sea A1 ; A2 ; :::; An una particin de


y B un evento arbitrario, entonces
P (B) = P (B j A1 )P (A1 ) + P (B j A2 )P (A2 ) +
+ P (B j An )P (An ):
Demostracin:
P (B) = P [(B \ A1 ) [ (B \ A2 ) [
= P (B \ A1 ) + P (B \ A2 ) +

[ (B \ An )]
+ P (B \ An )]

= P (B j A1 )P (A1 ) + P (B j A2 )P (A2 ) +

+ P (B j An )P (An )

Corolario: Si P (Ac ), P (A) > 0, entonces


P (B) = P (B j A)P (A) + P (B j Ac )P (Ac ).
Ejercicios:
1. njijiuhuhiuhiuhiuhiuoi
2. Supngase que en un juego, una persona puede obtener como puntuacin
uno de los 50 nmeros 1, 2, ..., 50 y que todos estos nmeros son puntuaciones igualmente probables. La primera vez que juega, su puntuacin
es X, entonces contina jugando hasta que obtiene otra puntuacin Y tal
que Y
X. Se puede suponer que todos los juegos son independientes.
Determinar la probabilidad de que Y = 50.
Solucin:
Nos piden calcular
P (Y = 50) = P (Y = 50 j X = 1)P (X = 1) +
=

50
P

i=1

El espacio muestral

P (Y = 50 j X = i)P (X = i)
= f(x; y) j y
24

xg

+ P (Y = 50 j X = 50)P (X = 50)

P (X = i) =

1
50

P (Y = 50 j X = i)

=
=

1
(i

50

1)

1
51

por tanto
50
P

i=1

P (Y = 50 j X = i)P (X = i)

i=1

1.2.5

50
P

1
51

1
i 50

50
1 P
1
50 i=1 51 i

Teorema de Bayes

Sea A1 ; A2 ; :::; An una particin de

y B un evento aleatorio tal que P (B) > 0,


P (B j Ai )P (Ai )
entonces 8i se cumple que P (Ai j B) == P
n
P (B j Aj )P (Aj )
j=1

Demostracin:
P (Ai \ B)
P (Ai j B) =
P (B)
=

P (B j Ai )P (Ai )
P (B j A1 )P (A1 ) + P (B j A2 )P (A2 ) +

P (B j Ai )P (Ai )
= P
n
P (B j Aj )P (Aj )

+ P (B j An )P (An )

j=1

Ejercicios:
1. Supngase que paseando por la calle observas que salubridad est realizando gratuitamente una prueba mdica para detectar cierta enfermedad.
La prueba es able al 90% en el siguiente sentido: Si una persona tiene
la enfermedad, existe una probabilidad de 0.9 de que la prueba d un resultado positivo; de igual manera, si una persona no tiene la enfermedad,
existe una probabilidad de slo 0.1 de que la prueba d un resultado positivo. Los datos indican que las probabilidades depadecer la enfermedad
son solo 1 en 10,000. Sin embargo, puesto que la prueba no cuesta nada
y es rpida e indolora, decides parar y someterte a ella. Unos das despus te enteras de que el resultado de la prueba fue positivo. Cul es la
probabilidad de que padezcas la enfermedad?
25

Solucin:
Denamos los siguientes eventos:
A : La prueba di positivo
B : La persona padece la enfermedad
P (A j B) = 0:9

P (B) =

1
10; 000

P (A j B c ) = 0:1

por el teorema de Bayes:


P (B j A)

P (B \ A)
P (A)

P (B j A)P (B)
P (B j A)P (B) + P (A j B c )P (B c )

(0:9)(1=10; 000)
0:9(1=10; 000) + 0:1(1 1=10; 000)

= 0:0003996
2. Un cierto estado agrupa a sus conductores con licencia de acuerdo a la
edad dentro de las siguientes caractersticas:
Grupo 1: De 16 a 25 aos
Grupo 2: De 26 a 45 aos
Grupo 3: De 46 a 65 aos y
Grupo 4: Arriba de 65 aos.
La siguiente tabla enlista para cada grupo, la proporcin de conductores
en el grupo que tuvieron accidentes
Grupo
1
2
3
4

Tamao
0:151
0:356
0:338
0:155

Proporcin de accidentes
0:098
0:044
0:056
0:086

(a) Qu proporcin de conductores con licencia tuvieron accidentes?


(b) Qu proporcin de conductores con licencia que tuvieron accidentes
estaban por arriba de 65 aos?
Solucin: Tarea

26

3. En una etapa de investigacin criminal el inspector a cargo est 60% convencido de la culpabilidad de un cierto sospechoso. Supongamos ahora
que una nueva evidencia muestra que el criminal tiene ciertas caractarsticas (tales como que es zurdo, calvo y gero). Si el 20% de la poblacin
posee estas caractersticas, que tan seguro estar ahora el inspector de la
culpabilidad del sospechoso si resulta que ste tiene las caractersticas?.
Solucin:
Denamos los siguientes eventos:
A : El sospechoso es culpable
B : El sospechoso tiene las caractersticas que seala la nueva evidencia.
Entonces:
P (A j B)

P (B j A)P (A)
P (B j A)P (A) + P (B j Ac )P (Ac )
=

(1)(0:6)
(1)(0:6) + (0:2)(0:4)

= 0:88
4. Un mdico se encuentra ante el siguiente dilema: Si yo estuviese 80% seguro de que mi paciente tiene la enfermedad, entonces le recomendara una
ciruga, mientras que si yo no tuviese la certeza, entonces le recomendara
pruebas adicionales que son costosas y algunas veces dolorosas. Ahora,
inicialmente yo estaba nicamente 60% seguro de que el Sr. Prez tiene
la enfermedad, as que orden la serie de pruebas A, la cual siempre da
positivo cuando el paciente tiene la enfermedad y casi nunca cuando est
saludable. El resultado fue positivo y estaba a punto de recomendar la
ciruga cuando el Sr. Prez me inform, por primera vez, que es diabtico.
Esta informacin complica la situacin, porque aunque no cambia ni estimado original de 60% de oportunidad de tener la enfermedad, si afecta
la interpretacin de los resultados de la prueba A. Esto es as, porque
mientras la prueba A casi nunca da positivo cuando el paciente est sano,
desafortunadamente, en cambio, da positivo en el 30% de los casos de pacientes diabticos que no sufren la enfermedad. Qu habo? Ms pruebas
o ciruga inmediata?.
Solucin:
Denamos los siguientes eventos:
C : El paciente tiene la enfermedad.
B : La prueba A fue positiva.
Entonces

27

P (C j B)

P (B j C)P (C)
P (B j C)P (C) + P (B j C c )P (C c )

(1)(0:6)
(1)(0:6) + (0:3)(0:4)
0:6
=
0:6 + 0:7
=

= 0:83

28

Variables aleatorias

En muchos problemas, no estamos interesados en todos los aspectos del resultado


de un experimento, sino nicamente en una caracterstica numrica particular
del resultado, tal como el nmero de bolas rojas en una muestra, el nmero de
guilas al lanzar diez veces una moneda, el nmero de artculos defectuosos en
una lnea de produccin, la altura de un hombre seleccionado aleatoriamente,
etctera; en muchos otros aunque la caracterstica de inters no sea numrica, el
problema puede ser analizado asignndole un nmero a los elementos del espacio
muestral, por ejemplo, defectuoso=0, no defectuoso=1. En tales situaciones
podemos usar un modelo de probabilidad en donde es ms cmodo trabajar en
vista de que los eventos son subconjuntos de los nmeros reales. En esta Unidad
estudiaremos este espacio de probabilidad.
Denicin: Sea el espacio de probabilidad ( ; A; P ). Una variable aleatoria
(v.a.) X es una funcin X : ! R.
Ejemplo
1.Considera el experimento de lanzar una moneda dos veces. Entonces =
faa; sa; as; ssg:Sea X la funcin denida por nmero de guilas que aparecen,
entonces X(aa) = 2, X(as) = X(sa) = 1, X(ss) = 0.
2. Considera el experimento de lanzar una moneda hasta que sale guila.
Entonces = fa; sa; ssa; sssa; :::g:Sea X la funcin denida por nmero de
lanzamientos hasta que sale guila, entonces, X(a) = 1, X(sa)2; X(ssa) = 3,
X(sssa) = 4; ::.
3. Sea ( , A, P ) un espacio de probabilidad y sea A un evento cualquiera.
La funcin indicadora IA es una v.a.
4. Sea X :
! R denida por X(!) = c, 8! 2
. A X se le llama
Variable aleatoria constante o degenerada.
Si tenemos un espacio de probabilidad ( ; A; P ) y denimos una variable
aleatoria X, se genera un nuevo espacio de probabilidad (R; B; PX ); donde ahora
el espacio muestral es el conjunto de nmeros reales R; el espacio de eventos B
es un conjunto denominado Conjunto de Borel o Conjunto de Borelianos
que se construye aplicndole operaciones de conjuntos (uniones, intersecciones y
complementos) a los intervalos de la forma (-1,x]; y para cualquier subconjunto
B 2 B; PX (B) = P (f! 2

j X(!) 2 Bg)

N otacion

As, por ejemplo,


PX ((a; b))

= P (f! 2

j X(!) 2 (a; b)g)

= P (X 2 (a; b))
= P (a < X < b)

29

P (X 2 B):

PX (fag)

= P (f! 2

j X(!) 2 fag)

= P (X 2 fag)
= P (X = a)
PX (( 1; a])

= P (f! 2 j X(!)
= P (X a)

ag)

Ejemplo: En el experimento de lanzar una moneda dos veces, = faa; sa;


as; ssg y la variable aleatoria X=no. de guilas que aparecen, a qu es igual
P (X = 1); P (2 < X < 3); P (X 2); P (X > 1); P (2 X < 10)?
Solucin:
P (X = 1) = P (f! 2 j X(!) 2 f1gg) = P (f! 2 j X(!) = 1g) = P (fsa;
asg) = 1=2
P (2 < X < 3) = P (f! 2 j 2 < X(!) < 3g) = P (?) = 0
P (X 2) = P (f! 2 j X(!) 2g) = P ( ) = 1
P (X > 1) = P (f! 2 j X(!) > 1g) = P (faa; sa; asg) = 3=4
P (2 X < 10) = P (f! 2 j 2 X(!) < 10g) = P (faag) = 1=4
Denicin: Si X es una v.a., la distribucin de X es la funcin PX :
B ! R.
Ejemplos:
1.- En el de lanzar una moneda dos veces,
= faa; sa; as; ssg y X la
funcin denida por nmero de guilas que aparecen es decir, X(aa) = 2,
X(as) = X(sa) = 1, X(ss) = 0, cul es la distribucin de X?
Solucin:
Debemos hallar PX (B), 8 B 2 B. Ahora bien,
PX (f0g) = P (X = 0) = 1=4
PX (f1g) = P (X = 1) = 2=4 = 1=2
PX (f2g) = P (X = 2) = 1=4;
Nota ahora que una vez dada PX para los eventos elementales podemos
dar PX para cualquier evento B 2 A como sigue:
PX (B) = P (X 2 B) = 41 IB (0) + 21 IB (1) + 14 IB (2)
2.- Sea = fe; f g, es decir, es el conjunto de resultados de un experimento
que solo tiene dos resultados posibles, llamados xito y fracaso. Sea
(
1; si ! = e
X(!) =
0; si ! = f
30

X es la v.a. denominada variable aleatoria Bernoulli y que estudiaremos ampliamente en este curso.
Si se denota por p a la probabilidad P (X = 1), esto es, p es la probabilidad
de xito, entonces P (X = 0) = 1 p y la distribucin de X se puede calcular
como sigue
PX (B) = pIB (1) + (1 p)IB (0):
Esta distribucin recibe el nombre de Distribucin Bernoullicon parmetro
p. En lo sucesivo la denotaremos por Bernoulli (p).
Comentarios sobre variables aleatorias:
Tenemos entonces que un espacio de probabilidad ( , A; P ) y una variable
aleatoria X, juntos, dan lugar a un segundo espacio de probabilidad (R, B, PX ).
Muchas veces el trabajar con el espacio (R, B, PX ), no slo es adecuado por el
aspecto de los resultados del experimento en el que estamos interesados, sino
que muchas veces es a travs de una v.a. como tenemos un camino posible para
medir la incertidumbre en espacios muestrales altamente complejos. Un ejemplo
de un espacio as, es el espacio que describe las distintas formas en que puede
suceder el estado del tiempo, digamos, del da de maana, denir una medida
de probabilidad para los eventos de un espacio as es prcticamente imposible.
Pero si pensamos no en los detalles del estado del tiempo sino solo en si va a
llover o no entonces el problema expresado mediante variables aleatorias resulta
ahora abordable.

2.1

Variables Aleatorias Discretas

Denicin: Una variable aleatoria X se dice que es discreta si su rango es


nito o bien innito numerable.
Notar: si X una variable aleatoria tal que su rango es RX = fx1 ; x2; x3 ;
:::; g y denimos p : RX ! R por p(xi ) = PX (fxi g) = P (X = xi ), entonces se
cumple lo siguiente para p:
a) p(xi ) 0, 8i = 1; 2; 3; :::
1
1
P
P
b)
p(xi ) = 1 (Cuando RX es nito, el simbolo
se sustituye por una
i=1

i=1

suma nita).

Por cumplir estas dos propiedades matemticas a p se le llama funcin


de densidad discreta o funcin masa de probabilidad de la variable
aleatoria X.
El caso es que si conocemos la funcin masa de probabilidad p de una variable
aleatoria discreta X, o sea, si conocemos p(x1 ) = P (X = x1 ); p(x2 ) = P (X =
x2 ); p(x3 ) = P (X = x3 ); :::; entonces 8B 2 B
1
P
P
PX (B) =
IB (xi )p(xi ) =
p(x), 8B 2 B.
i=1

x2B\RX

Esto es, si especicamos p hemos especicado PX (B), para cualquier B 2


B. De este modo, el papel que est jugando la funcin de densidad discreta
31

es proporcionarnos un instrumento para calcular la distribucin de


probabilidades PX de la variable aleatoria X.
Observacin!!! Si X es una v.a. discreta,
i) PX (RX ) =

1
P

p(xi ) = 1

i=1

ii) 0

p(xi )

1.

Ejemplo: La funcin masa de probabilidad de una v.a. X est dada por


c i
, i = 0; 1; 2; :::; donde es algn valor positivo.
p(i) =
i!
a) Hallar c.
b) Hallar P (X = 0)
c) Hallar P (X > 2)
Solucin:
(a) Como

1
X
i=0

p(i) = 1 )

(b) P (X = 0) =
(c) P (X > 2)

:
0!

1
X
c
i=0

i!

=1 ) ce = 1 ) c = e

=e

=1

P (X

2)

=1

P (X = 0)

=1

P (X = 1)

P (X = 2)

2.1.1

e
:
2

Variables aleatorias discretas especiales

Distribucin Bernoulli
Consideremos un experimento donde slo hay dos resultados posibles: xito
o fracaso, con probabilidad de xito p. Si denimos la v.a.
X=

1; cuando ocurre xito


;
0; cuando ocurre fracaso

a X se le llama v.a. Bernoulli con parmetro p, denotado Bernoulli(p).


La funcin masa de probabilidad (o funcin de densidad) de X est dada
por
p(0) = P (X = 0) = 1 p,
p(1) = P (X = 1) = p, o bien,
p(x) = px (1 p)1 x , x = 0; 1
32

Tambin nos referimos a esta funcin masa de probabilidad como la Distribucin Bernoulli.
Ejercicio:Vericar que p es una funcin masa de probabilidad.

Distribucin Binomial
Denicin: Ensayos repetidos e independientes se llaman ensayos Bernoulli,
cuando en cada ensayo, solo hay dos resultados posibles y sus probabilidades
son las mismas en todos los ensayos.
Supongamos que se realiza una sucesin de n ensayos Bernoulli y que en
cada realizacin la probabilidad de xitoes p y la de fracasoes 1 p. Si X
representa el nmero de xitosque ocurren en los n ensayos, entonces se dice
que X es una variable aleatoria Binomial con parmetros (n; p), y que
en lo sucesivo ser denotado por X s Binomial(n, p).
Teorema: Si X s Binomial(n, p), entonces la funcin masa de probabilidad de X est dada por
n i
p(i) = P (X = i) =
p (1 p)n i ; i = 0; 1; 2; :::; n
i
Notar!!! Una variable Bernoulli(p) es una Binomial(1, p).
Tambin nos referimos a la funcin masa de probabilidad de la variable
aleatoria binomial como Distribucin Binomial.

Ejercicio: Vericar que p es una funcin masa de probabilidad.


Ejemplo:
La probabilidad de que un hombre acierte en el blanco es 1/4. Si dispara
10 veces cul es la probabilidad de que acierte exactamente en tres ocasiones?
Cul es la probabilidad de que acierte por lo menos en una ocasin?
Distribucin Poisson
Denicin: Una v.a. X, cuyo recorrido es RX = f0; 1; 2; :::; g se dice que
es una v.a P oisson con parmetro , si para algun > 0,
i
e
, i = 0; 1; 2; :::;
p(i) = P (X = i) =
i!
A la funcin masa de probabilidad p se le llama Distribucin Poisson.
Si X es una variable aleatoria Poisson con parmetro se escribir X s
P oisson( ) que se lee X se distribuye P oisson con parmetro .
Notemos ahora lo siguiente:

33

Si X s Binomial(n, p), donde p =


P (X = i)

=
=

n i
p (1
i

p)n

, entonces

n!
(n i)!i! n

n i

n
n

n(n

1)

ahora, cuando n ! 1
1)

n(n

1):::(n
ni
i

2)

3)

!1

n
n

(n

i + 1)

ni

!e

i + 1)

i!

9
>
!1 >
>
>
>
>
>
>
=
>
>
>
>
>
>
>
>
;

n
i

) cuando n ! 1, P (X = i) =

e
i!

Notar ahora que cuando n ! 1 , entonces p ! 0 , as que, el resultado


anterior dice que podemos aproximar las probabilidades Binomiales con las
probabilidades de la distribucin Poisson, siempre que n sea grande y p sea
pequeo.
Ejemplos de v.a. que usualmente obedecen a la Distribucin Poisson
1. El nmero de errores de impresin en una pgina (o en un libro). Si al
escribir una pagina hay una probabilidad constante de que cualquier letra
se escriba errneamente, y si las condiciones de impresin permanecen
inalterables, entonces tenemos tantos ensayos Bernoulli como letras haya
en la pgina. El nmero de errores tipogrcos en la pgina se distribuye
P oisson (np), donde n =nmero de letras en la pgina, y p =proporcin
de que cualquier letra se escriba errneamente.
2. El nmero de personas en una comunidad que han vivido 100 aos. Cualquier
persona particular, al nacer, tiene una pequea probabilidad de vivir 100
aos y, en una comunidad grande, el nmero n de nacimientos por ao es
grande.El nmero de personas que vivir 100 aos de los nacidos este ao
es una v.a. cuya distribucin se puede aproximar con una Poisson (n, p).
3. El nmero de llamadas equivocadas al telfono de la escuela en un da
dado.

34

4. El nmero de accidentes automovilsticos que ocurren por semana en el


tramo del perifrico que est frente a nuestra Facultad.
Ejemplos:
1: Cul es la probabilidad de que en una cierta escuela haya k estudiantes
que cumplan aos en el da de ao nuevo, si se sabe que la escuela tiene 500
alumnos?
Solucin: P (un estudiante cumpla aos en ao nuevo) =

1
,
365

1
)=
= (500)( 365

1:3699
k
Binomial
P oisson

0
0:2537
0:2541

1
0:3484
0:3481

2
0:2388
0:2385

3
0:1089
0:1089:

4
0:0372
0:0373

5
0:0101
0:0102

6
0:0023
0:0023

2. Supngase que en una gran poblacin la proporcin de personas que


tienen cierta enfermedad es 0.01. Determinar la probabilidad de que en un
grupo aleatorio de 200 personas, al menos 4 tengan la enfermedad.
Solucin: n = 200, p = 0:01 )

= np = 2

X = nmero de personas que tienen la enfermedad,


por tanto, P (X 4) = 1 P (X < 4) = 1 [P (X = 0)
0:1428:

P (X = 1) + P (X = 2) + P (X = 3)] =

Distribucin Geomtrica
Consideremos una sucesin de ensayos Bernoulli con probabilidad de xito p.
Sea la v.a.
X =nmero de ensayos requeridos hasta que ocurra el primer xito.
Entonces RX = f1; 2; 3; :::; g.
La distribucin de X est dada por p(n) = P (X = n) = (1 p)n 1 p, n = 1;
2; 3; :::;
A X se le llama v.a. Geometrica y a p(n) = P (X = n) se le denomina
distribucion Geometrica con parametro p. Denotado por (Geo(p)).
Tambin se puede encontrar en la literatura que la variable aleatoria Geometrica
es
X1 =nmero de ensayos requeridos antes de que ocurra el primer xito,
en cuyo caso, RX = f0; 1; 2; 3; ; :::g y la correspondiente funcin masa de
probabilidad es
p(n) = P (X = n) = (1 p)n p; n = 0; 1; 2; ; :::
Ejemplos
35

1. En cierta regin la probabilidad de que una lluvia con truenos y relmpagos ocurra un da cualquiera durante el verano (digamos, julio y agosto)
es igual a 0.1. Suponiendo la independencia de un da con otro, cul es la
probabilidad de que la primera lluvia con truenos y relmpagos del verano
ocurra el 3 de agosto?
Solucin: Sea X=No. de das transcurridos, a partir del 1 de julio, hasta
que ocurre la primera lluvia con truenos y relmpagos.
Se Quiere hallar P (X = 34): X s Geo(0:1); entonces,
P (X = 34) = (1

0:1)33 (0:1)

2. Supongamos que un mecanismo es inspeccionado al nalizar cada da para


ver si an funciona regularmente. Sea p la probabilidad de falla durante
cualquier da dado. Hallar la probabilidad de que la primera falla se
encuentre en la quinta inspeccin.
Solucin: Sea X=No. de inspecciones realizadas al mecanismo hasta que
se encuentra la primera falla.
Se Quiere hallar P (X = 5): X s Geo(p); entonces,
P (X = 5) = (1

p)4 p

Teorema: Supngase que X tiene una distribucin Geo(p). Entonces para


dos enteros positivos cualesquiera s y t,
P (X s + t j X > s) = P (X t).
s+t

s+t; X>s)
s+t)
(1 p)
Dem.: P (X
s + t j X > s) = P (XP (X>s)
= PP(X
=
( X>s) =
(1 p)s
(1 p)t 1 = P (X t)
El teorema anterior indica que la distribucin geomtrica no tiene memoria
en el sentido siguiente: Supongamos que el evento A no ha ocurrido durante
las primeras repeticiones del experimento. Entonces la probabilidad de que
no ocurra durante las prximas t repeticiones es la misma que la probabilidad
de que no ocurra durante las primeras t repeticiones. En otras palabras, la
informacin de ningn xito es olvidada en lo que se reere a los clculos
subsecuentes.

Distribucin Binomial Negativa


Es una generalizacion de la distribucion Geometrica, surge en la siguiente
situacin: supongamos que se efecta una sucesin de experimentos Bernoulli
con probabilidad de xito p. Los ensayos se realizan hasta que ocurren r xitos.
Sea X =nmero de ensayos requeridos hasta obtener el r simo xito.
Entonces RX = fr; r + 1; r + 2; :::; g:
A X se le denomina variable aleatoria Binomial N egativa.
Hallemos su funcin masa de probabilidad:
36

Obviamente si r = 1, X s Geo(p) y por tanto su distribucin es


P (X = k) = (1 p)k 1 p.
Si r 6= 1,
X = k si y slo si ocurre xito en el k simo ensayo y en los k
anteriores ocurrieron r 1 xitos.
Ahora, el nmero de maneras en las que pueden ocurrir r
k 1
ensayos es
:
r 1

1 ensayos

1 xitos en k

Y, como los ensayos son Bernoulli, la probabilidad de ocurrencia de cada


uno de los arreglos de r 1 xitos y k 1 (r 1) fracasos es pr 1 (1 p)k r .
Por tanto,
p(k)

= P (X = k)
=p
=

k
r
k
r

1 r
p
1
1 r
p (1
1

(1
p)k

p)k
r

A p se le llama distribucion Binomial N egativa, denotado por (BinN (r;


p)).
Ejemplo: Un estudio geolgico de exploracin petrolera indica que, en una
perforacin, la probabilidad de encontrar petrleo en una zona particular es de
0.2. Calcular la probabilidad de que en la quita perforacin encontremos por
tercera vez petrleo en la zona.
Solucin:
Sea X =No. de perforaciones requeridas hasta obtener 3 xitos. Entonces
4
X s BinN (3; 0:2): Se pideP (X = 5) =
(0:2)3 (0:8)2 :
2
Se sabe que, en promedio, de cada 100 placas de rayos X que se realizan,
una es defectuosa.
Distribucin Hipergeomtrica
Supongamos que de una urna conteniendo N bolas, de las cuales b son blancas
y N b son negras, se extraen aleatoriamente y sin reemplazo n bolas.
Sea X =Nmero de bolas blancas seleccionadas de entre las n extradas,
entonces,
RX = f0; 1; ; :::; m{n(n; b)g.
A X se le llama variable aleatoria Hipergeomtrica y su funcin masa
de probabilidad est dada por

37

p(k)

= P (X = k)
b
k

N
n
N
n

b
k

A p se le llama distribucin Hipergeomtrica.


Ejemplos
1. En un vagon de ferrocarril que acarrea a 60 reses el 20% de ellas tienen
la enfermedad de la vaca loca, si con propsito de inspeccion sanitaria se extrae
una muestra del 10% de las reses. Calcula la probabilidad de que hayan 2 reses
con dicha enfermedad.
Solucin: Sea X=No. de reses con la enfermedad entre el 10% seleccionado
(12)(48)
P (X = 2) = 2 60 4
(6)
2. Un comprador de componentes elctricos los compra en lotes de tamao
10. Su poltica es inspeccionar 3 componentes aleatoriamente de un lote y
aceptarlo nicamente si los 3 no son defectuosos. Si el 30% de los lotes tienen 4
componentes defectuosos y el 70% tienen nicamente 1, cul es la proporcion
de lotes que el comprador rechazar?
Solucin:
Sea A : El comprador acepta el lote.
Se pide
P (Ac )

=1

P (A)

=1

P (A j 4D)P (4D)

=1

=1

4
0

6
3
10
3

(0:3)

P (A j 1D)P (1D)
1
0

9
3
10
3

(0:7)

54
100

46
100
Por lo tanto, el 46% de los lotes sern rechazado.
3. Para evitar que lo descubran en la aduana, un viajero ha colocado 6
=

tabletas de narctico en una botella que contiene 9 pldoras de vitamina que


son similares en apariencia. Si el ocial de la aduana selecciona 3 tabletas
aleatoriamente para analizarlas, cul es la probabilidad de que el viajero sea
arrestado por posesin de narcticos?
Solucin: Sea X=No. de tabletas de narctico entre las tres seleccionadas
por el ocial de aduanas.
38

P (viajero sea arrestado por posesin de narcticos) = P (X

1)=

(61)(92)
+
(15
3)

(62)(91) (63)(90)
+ 15 = 0:815:
(15
(3)
3)
4. Un ensamblaje consta de 3 componentes mecnicos. Supn que las probabilidades de que el primero, el segundo y el tercer componentes cumplan con
las especicaciones son 0.95, 0.98 y 0.99. Supn que las componentes son independientes. Determina la funcin distribucin de X=No. de componentes del
ensamblaje que cumplen con las especicaciones.

2.2

Variables aleatorias continuas

Denicin: Una variable aleatoria X se dice que es continua si su rango es


innito no numerable.

si

Denicin: Una funcin f : R ! R se llama funcin de densidad continua


(a) fR (x) 0, 8x 2 R y
1
(b) 1 f (x)dx = 1.

Ejemplos:
1: f (x) = I[0; 1] (x)
(
1; si
=
0; de

x 2 [0; 1]
otro modo

notemos que f (x) 0; 8x, y adems


Z 1
Z 1
1
f (x)dx =
1dx = xj0 = 1: Por tanto f es una funcin de densidad
1

continua.

2.- Si consideramos ahora


g(x)

= I[0; 1) (x)
(
1; si
=
0; de

x 2 [0; 1)
otro modo

entonces g tambin es una densidad continua.


Teorema: Si X es una variable aleatoria continua, existe una funcin de
densidad continua f tal que
Z
PX (B) = P (X 2 B) =
f (x)dx, 8B 2 B
B

a f se le llama funcin de densidad de la variable aleatoria X.

39

Observaciones:
1. Si X es una v.a. continua, su funcin de densidad f no tiene que ser
una probabilidad, as que, no necesariamente se tiene que 0 f (x) 1.
Ejemplo:
( Cuando f es
2; si x 2 [0; 1=2)
f (x) =
0; de otro modo
2. Del Teorema se tiene que
P (a

b)

= P (a < X
= P (a

b)

X < b)

= P (a < X < b)
3. La funcin de densidad f dene una medida de probabilidad PX (B) sobre
los borelianos.
4. Notar lo(siguiente. Consideremos la funcin de densidad
1; si x 2 [0; 1]
f (x) =
0; de otro modo
La medida de probabilidad que determina sobre los borelianos es
Z
PX (B) =
f (x)dx
B

B\[0; 1]

dx =

B\(0;1)

dx =

g(x)dx

1; si x 2 (0; 1])
0; de otro modo
Entonces, g es tambin una funcin de densidad para la v.a. X!!!
Concluyendo: A una v.a. continua le pueden corresponder varias funciones
de densidad (de hecho, innitas), lo comn, es trabajar con una continua si es
que la hay. Nota que cualquiera que sea la que usemos el valor de la probabilidad
para B 2 B es la misma es decir, las densidades f y g determinan la misma
medida de probabilidad sobre los borelianos B. En general, si dos densidades
continuas dieren en a lo ms un conjunto numerable de puntos, entonces las
medidas de probabilidades a que dan lugar son exactamente las mismas.
Ejemplos:
1.- Supngase que la funcin de densidad (f:d:) de una v.a. X es
(
cx; si 0 < x < 4
f (x) =
0;
de otro modo
(donde c es una constante dada)
donde g(x)

Determinar
(a) el valor de c,
(b) calcular la probabilidad de que P (1
40

2) y

(c) P (X

2).

Solucin:
(a)

f (x)dx = 1

cx2
2

cxdx = 1

0
4

=1
0

) c = 1=8
(b)
P (1

2)

1
xdx
8

= 3=16
(c)
P (X

2)

=
=

Z2 4
2

f (x)dx

1
xdx
8

= 3=4
Observacin:
Si X es una v.a. (continua o discreta), entonces P (a
b) P (X < a).

b) = P (X

Demostracin:
P (X

b)

= P (a

X < a)

= P (a

b) + P (X < a)

por tanto
P (a

b) = P (X

b)

P (X < a).

Notar: Si X es una v.a. continua, entonces podemos escribir P (a


b) = P (X b) P (X a).

41

2.2.1

Variables aleatorias continuas especiales

Distribucin Uniforme Una v.a. X se dice que est unif ormemente distribuida
sobre un intervalo (a; b) (o [a; b] o (a; b] o [a; b)) si su funcin de densidad est
dada por
8 1
<
; si x 2 (a; b)
b a
f (x) =
:
0;
de otro modo
Si X es una variable aleatoria uniforme sobre (a; b) se denotar X s U (a;

b).
Esta distribucin est asociada a problemas en los que se selecciona aleatoriamente un punto de un intervalo (a; b) y el inters est en determinar la
probabilidad de que el punto seleccionado X pertenezca a algn subintervalo I
de I
:
de (a; b);en cuyo caso P (X 2 I) = Longitud
b a
Ejemplos:
1. Un conmutador recibe una llamada telefnica al azar en un intervalo de
un minuto. El conmutador se satura por completo durante 15 segundos en este
perodo de 1 minuto. Cul es la probabilidad de que la llamada entre cuando
el conmutador no est completamente saturado?
Solucin: Sea X=el tpo. en el intervalo de 60 segundos en que se realiza la
llamada.
Entonces X s U (0; 60)
1
0 < x < 60
60 ;
f (x) =
0; de otro modo
Z15
1
x 15
P (0 < X < 15) = 60
dx = 60
j0 = 15
60 = 0:25 que es la probabilidad de que
0

se haga la llamada durante el perodo de saturacin.


Por tanto, la probabilidad de que la llamada se realice cuando el conmutador
no est completamente saturado es 1-0.25=0.75.
2. El tiempo que tardan en ir y volver unos camiones que transportan concreto a un lugar donde se construye una autopista est distribuida uniformemente en el intervalo de 50 a 70 minutos. Cul es la probabilidad de que el
tiempo del viaje redondo rebase los 65 minutos si se sabe que hacerlo toma ms
de 55 minutos.
Solucin: Sea X=tpo. en minutos que tarda en realizarse el viaje redondo.
Entonces X s U (50; 70)
(X>65)
X>55)
=P
P (X > 65jX > 55) = P (X>65;
P (X>55)
P (X>55)
Z70
1
5
P (X > 65) = 20
dx = 20
= 0:25
65

42

P (X > 55) =

Z70

1
20 dx

15
20

= 0:75

55

Por tanto, P (X > 65jX > 55) = 0:25


0:75 = 0:33
3. Los autobuses llegan a un paradero en intervalos de 15 minutos empezando a las 7 A.M. Esto es, llegan a las 7, 7:15, 7:30, 7:45, y as sucesivamente. Si un pasajero llega al paradero en un tiempo que est uniformemente
distribuido entre las 7 y las 7:30, hallar la probabilidad de que el pasajero espere
menos de 5 minutos.
Solucin: Sea X =Tpo. de espera de un pasajero, que llega al paradero
entre las 7 y las 7:30, hasta que llega el autobs.
De acuerdo con los datos, X s U (0; 30).
Para que el pasajero espere menos de 5 minutos, se requiere que 10 < X
25 < X 30. Entonces la probabilidad pedida es:
Z 30
Z 15
1
1
dx +
dx
P (10 < X 15) + P (25 < X 30) =
30
30
25
10
1
=
3

15

Distribucin Exponencial Una variable aleatoria continua X cuya funcin


de densidad est dada por
(
e x ; si x 0
f (x) =
0;
si x < 0
donde > 0, se dice que es una variable aleatoria exponencial (o que se
distribuye exponencialmente) con parmetro . Se denotar X s exp( ).
La distribucin exponencial aparece muy frecuentemente en situaciones donde
se est estudiando el tiempo que transcurre hasta que ocurre algn evento especco. Por ejemplo, el tiempo, a partir de hoy, hasta que empiece una guerra
mundial, o el tiempo hasta que alguien reciba una llamada telefnica con nmero
equivocado. Bajo circunstancias muy especiales, la distribucin exponencial
puede ser apropiada para tiempos entre fallas de un sistema, llegadas a una
cola, ... etc.
Ejemplo: Supongamos que el tiempo que dura una llamada telefnica (en
minutos) es una variable aleatoria exponencial con parmetro
= 1=10. Si
alguien llega inmediatamente antes que t a un telfono pblico, hallar la probabilidad de que tengas que esperar ms de 10 minutos.
Solucin:

43

Sea X =tiempo (en minutos) que dura la llamada de la persona que lleg
antes que t. Se pide hallar P (X > 10). Veamos:
Z 1
1
x
P (X > 10) =
e 10 dx
10 10
=

=e

x
10

1
10

0:368
La variable aleatoria exponencial, es una variable aleatoria que carece de
memoria, este hecho se expresa en el siguiente
Teorema: Sea X s exp( ). Para cualesquiera s; t
t) = P (X > s)( ) .

0 P (X > s + t j X >

Demostracin:
P (X > s + t j X > t)

=
=

P (X > s + t \ X > t)
P (X > t)
(s+t)

=e

e
s

= P (X > s)
Corolario: Si X s exp( ), para cualesquiera s; t
0 P (X > s + t) =
P (X > s)P (X > t)
Si X es el tiempo de vida en horas de algn instrumento, la expresin (*)
establece que la probabilidad de que el instrumento sobreviva por al menos s + t
horas, dado que ya sobrevivi t horas, es la misma que la probabilidad inicial
de que sobreviva al menos s horas. En otras palabras, si el instrumento tiene
edad t, la distribucin del tiempo restante que va a sobrevivir es la misma que
la del tiempo de vida original, esto es, es como si el instrumento no recordase
que ya ha sido usado por un tiempo t.
Distribucin Gamma La funcin de densidad de la distribucin Gamma
Z1
incluye la llamada funcin Gamma cuya denicin es ( ) = x 1 e x dx;
0

> 0:
Usando integracin por partes se puede mostrar que ( ) = (
1) (
1);
para > 1:
Notar que (1) = 1; lo cual conduce a que (n) = (n 1) (n 1) = ::: =
(n 1)!; cuando n es un entero positivo.

44

Tambin se cumple que (1)

( 12 )

Z1
; (2) x

dx =

( )

> 0;

> 0:

Z1
Ejemplo: Evaluar x2 e

4x

dx

Def.: Una variable aleatoria X se dice que tiene distribucin Gamma con
parmetros y ; si su funcin de densidad est dada por:
1
x
; x > 0, > 0; > 0:
f (x) = x ( )e
Se denota X s Gamma( ; )
Al parmetro se le llama parmetro de forma y al parmetro se le llama
parmetro de escala.
Si = 1; la distribucin Gamma se convierte en una distribucin exponencial
con parmetro :
Ejemplo: El tiempo en horas que semanalmente requiere una mquina
para mantenimiento es una variable aleatoria con distribucin Gamma(1/2, 3).
Encuentra la probabilidad de que en alguna semana el tiempo de mantenimiento
sea mayor a 8 horas.
Solucin: Sea X la duracin del mantenimiento en horas
Z8
1
1
P (X > 8) = 1 P (X 8) = 1 16 x2 e 2 x dx = 0:2381
0

Distribucin Normal Fue introducida por Moivre en 1733 como un medio


para aproximar las probabilidades asociadas con una v.a. Binomial cuando el
parmetro n es grande. El resultado fue generalizado por Laplace y otros dando
esto lugar a uno de los teoremas ms importantes y conocidos en probabilidad
y estadstica, El Teorema de Lmite Central.
El Teorema del Lmite Central proporciona las bases tericas que sustentan el por qu una gran cantidad de fenmenos aleatorios obedecen, al menos
aproximadamente, a la distribucin normal. Algunos ejemplos de este comportamiento son: la altura de las personas y los errores de medicin de cantidades
fsicas.
En 1809, K. F. Gauss la us para predicciones en astronoma, dando como
resultado que se le conozca como Distribucin Gaussiana.
Una v.a. X se dice que es normal o que est normalmente distribuida con
parmetros y 2 , si la densidad de X est dada por
"
#
2
1
1 x
f (x) = p
exp
; 8x 2 R
2
2
Se denota X s N ( ; 2 )
Ms adelante veremos que representa la media o valor esperado de la v.a.,
mientras que 2 mide la variacin de X.

45

Distribucin Normal Estndar (o Distribucin Normal Tipicada)


Es la distribucin normal con = 0 y 2 = 1. Su funcin de densidad, denotada usualmente por , est dada entonces por
1 2
1
(x) = p exp
x ; 8x 2 R
2
2
Slo se pueden determinar probabilidades para la distribucin normal a
travs de la normal estndar utilizando la tabla de valores de (x). Hay tablas
que solo proporcionan los valores de (x) cuando x
0 , pero no representa
ningn inconveniente pues como f es simtrica respecto a x = 0,
P (X x) = P (X
x) = 1 P (X
x):
Esperaremos hasta haber desarrollado los temas de esperanza y varianza
para mostrar cmo se calculan estas probabilidades.
Distribucin Gamma
Otras distribuciones continuas especiales:
Distribucin t
Distribucin

(ji-cuadrada)

Distribucin F
Distribucin Beta

2.2.2

La Funcin de Distribucin Acumulada

Denicin: La funcin de distribucin acumulada de una v.a. X (discreta o


continua), denotada por f:d:a:; es una funcin con dominio R y contradominio
[0; 1]; denida como sigue:
F (x) = P (X x); 8x 2 R.
Ejemplos:
1.- Consideremos el experimento de tirar una moneda. Sea X el nmero de
guilas que aparecen. Entonces
8
si x < 0
< 0;
1=2; si 0 x < 1 o bien,
F (x) =
:
1;
si x 1
F (x) = 12 I[0; 1] (x) + I[1; 1] (x):

2.- En el experimento de lanzar dos dados, sea Y el valor absoluto de la


diferencia de los puntos que aparecen. entonces

46

8
0;
si x < 0
>
>
>
>
6=36;
si
0 x<1
>
>
>
>
< 16=36; si 1 x < 2
24=36; si 2 x < 3 AQUI VA LA GRAFICA
F (x) =
>
>
30=36;
si 3 x < 4
>
>
>
>
34=36;
si
4 x<5
>
>
:
1;
si x 5

Propiedades de la f:d:a:.
lim F (x) = 1

i) F ( 1)

lim F (x) = 0; y F (+1)

x! 1

x!+1

ii) F es una funcin no decreciente, esto es, si a < b, entonces F (a) < F (b).
iii) F es continua desde la derecha, esto es lim+ F (x + h) = F (x):
h!0

Una f:d:a: est denida de manera nica para cada v.a. Su importancia reside en que una vez conocida, puede ser usada para el clculo de probabilidades.
En general, todas las cuestiones de probabilidad acerca de una v.a. X pueden
ser respondidas en trminos de la f:d:a: F .
Veamos:
Teorema:
a) P (a < x

b) = F (b)

F (a):

Demostracin:
fX

bg = fX ag [ fa < X
) P (X b) = P (X

bg
a) + P (a < X

por lo tanto
P (a < X

b)

= P (X
= F (b)

b) P (X > a) = 1

b) P (X
F (a):

F (a):

c) P (X < a) = lim F (y):


y!a

d)

47

a)

b)

P (X = a)

= lim F (y)
y!a+

= F (a)
Ejemplo:
8
>
>
>
>
<
F (x) =
>
>
>
>
:

lim F (y)

y!a

lim F (y):

y!a

La f:d:a: de una v.a. X est dada por


0;
si x < 0
x=2;
si 0 x < 1
2=3;
si 1 x < 2
11=12; si 2 x < 3
1;
si 3 x

AQUI VA LA GRAFICA

Calcular
a) P (X < 3)
b) P (X = 1)
c) P (X > 1=2)
d) P (2 < X

4)

Solucin:
a) P (X < 3) = lim F (y) = 11=12
y!3

b)
P (X = 1)

= F (1)
= 2=3
= 1=6

c)
P (X > 1=2)

d)
P (2 < X

4)

lim F (y)

y!1

1=2

= 1 P (X
= 1 1=4
= 3=4

1=2)

= F (4) F (2)
= 1 11=12
= 1=12

48

Relacin entre la f:d: y la f:d:a: cuando X es una v.a. discreta.


rema: Si X es una v.a., F puede ser obtenida de f y viceversa.

Teo-

Demostracin: Se har para uan variable aleatoria discreta.


Veamos que F puede ser obtenida de f :
Suponga que RX = fx1 ; x2 ; ; :::g, entonces
F (x)

= P (X
P x)
=
p(xj )
fjjxj xg
P
=
f (xj )
fjjxj

y ya!!

xg

Por lo tanto, F (x) =

fjjxj

f (xj ).
xg

Veamos que f puede ser obtenida de F :


f (xj )

= P (X = xj )
= lim+ F (y)
y!xj

= F (xj )

lim F (y)
y!xj

lim F (y)
y!xj

Ejemplo:En el experimento de lanzar un dado. Sea X =nmero de puntos


que aparecen.
f (x) = P (X
8 = x) = 1=6, 8x = 1; 2; ; :::; 6 y
0;
si x < 1
>
>
>
>
1=6;
si
1 x<2
>
>
>
>
< 2=6; si 2 x < 3
3=6; si 3 x < 4
F (x) =
>
>
4=6; si 4 x < 5
>
>
>
>
5=6; si 5 x < 6
>
>
:
1;
si x 6
5 i
P
=
I[i; i+1] (x) + I[6; 1] (x):
i=1 6
Suponga dado f , hallar F (2:5)
Solucin:
F (2:5)

= P (X 2:5)
= P (X = 1) + P (X = 2)
= 1=6 + 1=6
= 1=3:

Suponga ahora dado F y calcule f (3).


Solucin:
49

f (3)

= F (3)
= 3=6
= 1=6

2.2.3

lim F (y)

y!3

2=6

Esperanza de una Variable Aleatoria

Cuando la variable aleatoria es discreta

Denicin: Sea X una v.a.

discreta con recorrido RX = fx1 ; x2 ; ; :::; g.


El valor esperado de X o valor medio de X o esperanza de X, se dene
por
1
P
E(X) =
xi p(xi ).
i=1

Notar!!!

Si RX fuese nito y todas las p(x) fuesen iguales, E(X) no es ms que el


promedio de todos los valores posibles de X.
Con RX nito o innito numerable, la expresin de E(X) es lo que se
conoce como promedio ponderado de los valores posibles de X.
El valor esperado de una v.a. no necesariamente existe, pues la serie
innita podra no converger.
El concepto de esperanza es anlogo al concepto fsico de centro de gravedad.
Si X es una v.a. discreta que toma los valores x1 ; x2 ; ; :::; y en una barra ubicamos los pesos p(x) que corresponden a cada uno de los valores x, entonces el
punto en el que la barra logra el equilibrio, que en fsica se conoce como centro
de gravedad, es la esperanza de la v.a. X.

AQUI VAN LAS GRAFICAS

Ejemplo 1: Sea X una v.a. tal que RX = f 2; 0; 1; 4g y tal que P (X =


2) = 0:1, P (X = 0) = 0:4, P (X = 1) = 0:3 y P (X = 4) = 0:2. Hallar E(X).
Solucin:
E(X)

= ( 2)(0:1) + (0)(0:4) + (1)(0:3) + (4)(0:2)


= 0:9

Ejemplo 2: Un trabajador recibir un premio de 3000, 2000 o 1000 pesos,


segn el tiempo que tarde en realizar un trabajo en menos de 10 horas, entre
50

10 y 15 horas y ms de 15 horas, respectivamente. La probabilidad de realizar


el trabajo en cada uno de estos casos es de 0.1, 0.4 y 0.5. 1.
(a) Determina la esperanza de la variable aleatoria X=premio recibido.
(b) Dene una nueva variable aleatoria, Y, con valor 1 si tarda menos de 10
horas y valor 0, en caso contrario. Calcula la esperanza de Y.
Ejemplo 3: Sea X s Bernoulli(p). Hallar E(X)
Solucin:
E(X)

= (1)P (X = 1) + (0)P (X = 0)
=p

Ejercicios:
1. Sea X s Binomial(n; p). Demostrar que E(X) = np.
2. Sea X s P oisson( ). Demostrar que E(X) = .
3. Sea X s Geo(p). Demostrar que E(X) =

Cuando la variable aleatoria es continua

1
.
p
Denicin: Sea X una v.a.

continua con funcin de densidad f . El valor esperado


de X o valor medio
Z 1
de X o esperanza de X, se dene por E(X) =
xf (x)dx.
1

Al igual que en variables aleatorias discretas, si X es continua, su esperanza


puede ser interpretada como un centro de gravedad: Si una masa unitaria es
distribuida continuamente
en una recta y f (x) representa la densidad de masa
Z
en x, entonces

xf (x)dx es el centro de gravedad o punto donde la recta

alcanza el equilibrio. Si f es simtrica con respecto a un punto concreto x0 en


el eje x, o sea, que f (x0 + ) = f (x0
) para todos los valores y adems
E(X) existe, entonces E(X) debe ser igual a x0 que es el punto de simetra.

AQUI VAN LAS GRAFICAS

51

Ejemplo 1: Si X es una v.a. continua con funcin de densidad


2x; si 0 < x < 1
0;
de otro modo
Z 1
2
entonces E(X) =
x(2x)dx = .
3
0
f (x) =

Ejemplo 2: Supongamos que X es el tiempo (en minutos) durante el cual


un dispositivo elctrico se utiliza a su mxima carga cierto perodo de tiempo
determinado. Supongamos que X es una v.a. continua con la siguiente f:d::
8
1
>
x;
si 0 x 1500
>
>
< (1500)2
1
f (x) =
(x 3000); si 1500 x 3000
>
2
>
>
: (1500)
0;
de otro modo
hallar E(X).

Solucion:
E(X)

1
1

xf (x)dx
Z 1500

Z 3000
1
2
x dx
=
x(x
(1500)2 0
1500
= 1500 minutos.
Ejemplo 4: Si X s U (a; b), hallar E(X).
Solucin:
Z

x
dx
b
a
a
1
b2 a2
=
b a
2
(b a)(b + a)
=
2(b a)
b+a
=
2
Ejercicios:
E(X)

1. Si X s exp( ), demostrar que E(X) =


2. Si X s N ( ;

), demostrar queE(X) = .

3. Si X s t, hallar E(X).
4. Si X s

, hallar E(X).

52

3000)dx

Para lo que sigue considerar que si y = g(x) es una funcin sobre el conjunto
de nmeros reales y X es una variable aleatoria, entonces Y = g(X) es tambin
una variable aleatoria, de hecho, es una variable aleatoria que es funcin de la
variable aleatoria X. Como tal, es posible hablar de la esperanza y la varianza
de Y y para hallarlos no es necesario tener la funcin de densidad de Y , basta
con tener la de X como se establece en el siguiente Teorema.
Teorema:
(a) Si X es una v.a. discreta con funcin
Pmasa de probabilidad p, entonces
para cualquier funcin real g, E(g(X)) =
g(xi )p(xi ).
xi 2RX

(b) Si X es unaZ v.a. continua con f:d:; f ; entonces para cualquier funcin
1
real g, E(g(X)) =
g(x)fX (x)dx.
1

En la seccin de Funciones de Variables Aleatorias de hablar ms ampliamente de esto.


Algunas propiedades de los valores esperados
stantes, entonces E(aX + b) = aE(X) + b.

1.- Si a y b son con-

Demostracin:
* Si X es discreta, RX = fx1 ; x2 ; ; :::g
E(aX + b)

1
P

(axi + b)p(xi )

i=1
1
P

=a

xi p(xi ) + b

i=1

= aE(X) + b

1
P

p(xi )

i=1

* Si X es continua con f:d:, f ,


Z 1
E(aX + b) =
(ax + b)f (x)dx
Z 11
Z 1
=a
xf (x)dx + b
f (x)dx
1

= aE(X) + b

2.1.- Si existe una constante a tal que P (X


2.2.- Si existe una constante b tal que P (X
Demostracin:
* de 2.1 cuando X es discreta
P
E(X) = Pxi p(xi )
=
xi p(xi )
xi a

53

a) = 1; entoncesE(X)
b) = 1, entonces E(X)

a.
b:

pues como
P (X

a) = 1 ) p(xi ) = 0; 8xi < a,

ahora,
P
xi p(xi )

xi a

=a

xi a

por tanto, E(X)


3.- Si P (a

ap(xi )

p(xi )

xi a

= aP (X
=a

a)

a.
b) = 1 ) a

E(X)

b.

Demostracin:
Si
)

p or 2

)
y

P (a
P (X

X b) = 1
b) = 1 = P (X

E(X)
E(X)

Por tanto, a

a)

b
a
E(X)

b.

Teorema: Si X1 ; X2 ; ; :::; Xn son variables aleatorias cuyas esperanzas


E(Xi ); i = 1; 2; ; :::; n existen, entonces
(a) E(X1 + X2 + ::: + Xn ) = E(X1 ) + E(X2 ) + ::: + E(Xn ):
(b)E(a1 X1 +a2 X2 +:::+an Xn +b) = a1 E(X1 )+a2 E(X2 )+:::+an E(Xn )+b:

Denicin: Dos variables aleatorias X e Y se dice que son independientes


si, para dos conjuntos A, B 2 B cualesquiera, P (X 2 A, Y 2 B) = P (X 2
A)P (X 2 B).
Teorema: Si X1 ; X2 ; ; :::; Xn son variables aleatorias independientes, E
n
Q

n
Q

i=1

E(Xi ):

i=1

Ejemplo: Una persona escribe n cartas, escribe las direcciones en n sobres


y luego introduce cada carta en un sobre en forma aleatoria. Determinar el valor
esperado del nmero X de cartas que se introducen en los sobres correctos.
Solucin:
Denamos las siguientes v.a. para i = 1; 2; ; :::; n
Xi =

1,
0,

si la i sima carta se introduce en el sobre correcto


de otro modo
54

Xi

Cada Xi s Bernoulli(p), donde


p =probabilidad de que la i sima carta se introduzca en el sobre correcto,
1
) p = (nn!1)! = :
n
X = X1 + X2 + ::: + Xn
n
P
) E(X) =
E(Xi )
i=1

=n
=1

1
n

Varianza de una Variable Aleatoria Denicin: Suponga que X es una


v.a. Entonces la varianza de X se dene como sigue:
E(X) = Ef[X E(X)]2 g
Note:
X

E(X) mide la longitud de las dispersiones en los puntos.

La varianza no siempre existe.


Si la varianza es grande, las desviaciones de la media se hacen grandes, o
sea, los puntos estn alejados de la media y viceversa.
Si hacemos
[X E(X)]2
)Y
0
) P (Y
0)

=Y
=1

entonces, E(Y )

0, por tanto V ar(X)

0.

La raz cuadrada de la varianza se denomina desviacin estandar (raz


cuadrada no negativa).
Propiedades de la varianza 1.- V ar(X) = E(X 2 )
Demostracin:
V ar(X)

= Ef[X E(X)]2 g
= E[X 2 2XE(X) + [E(X)]2 ]
= E(X 2 ) 2E(X)E(X) + [E(X)]2
= E(X 2 ) 2[E(X)]2 + [E(X)]2
= E(X 2 ) [E(X)]2

2.- V ar(X + c) = V ar(X)


55

[E(X)]2

Demostracin:
V ar(X + c)

= Ef[(X + c) E(X + c)]2 g


= Ef[X + c E(X) c)]2 g
= Ef[X E(X)]2 g
= V ar(X)

3.- V ar(cX) = c2 V ar(X)


Demostracin:
V ar(cX)

= Ef[(cX) E(cX)]2 g
= Ef[cX cE(X)]2 g
= Ef[c(X [E(X)]2 g
= Efc2 [(X [E(X)]2 g
= c2 V ar(X)

otra forma de demostrarlo:


V ar(cX)

= E(c2 X 2 ) [E(cX)]2
= c2 E(X 2 ) [cE(X)]2
= c2 E(X 2 ) c2 [E(X)]2
= c2 (E(X 2 ) [E(X)]2 )
= c2 V ar(X)

4.- Si X; Y son v.a. independientes, entonces


V ar(X + Y ) = V ar(X) + V ar(Y )
Demostracin:
V ar(X + Y )

= Ef[X + Y E(X + Y )]2 g


= Ef[X + Y E(X) E(Y )]2 g
= Ef[(X E(X)) + (Y E(Y ))]2 g
= Ef(X E(X))2 + 2(X E(X))(Y E(Y )) + (Y E(Y ))2 g
= Ef[X E(X)]2 g + Ef[Y E(Y )]2 g + 2Ef[X E(X)][Y E(Y )]g
= V ar(X) + V ar(Y ) + 2Ef[X E(X)][Y E(Y )]g

pero
Ef[X

E(X)][Y

E(Y )]g = E[XY XE(Y ) Y E(X) + E(X)E(Y )]g


= E(XY ) E(X)E(Y ) E(Y )E(X) + E(X)E(Y )

y como por la independencia de las v.a., tenemos que


E(X)E(Y ) E(X)E(Y ) = 0
entonces Ef[X E(X)][Y E(Y )]g = 0.
por lo tanto
V ar(X + Y ) = V ar(X) + V ar(Y ):
En general, si X1 ; X2 ; ; :::; Xn son v.a. independientes, entonces
V ar(X1 + X2 +
+ Xn ) = V ar(X1 ) + V ar(X2 ) +
+ V ar(Xn )
56

5.- V ar(aX + b) = a2 V ar(X)


Ejemplos:
1. Determinar la varianza de una X s Bernoulli(p):
2. Determinar la media y la varianza de una variable aleatoria X s Binomial(n; p)

Momentos de una variable aleatoria Denicin: Para k = 1; 2; :::; la


cantidad E(X k ) se denomina el k-simo momento de la v.a. X:
0

Notacin: k = E(X k ), as, 1 = E(X) = .


Denicin: Para k = 1; 2; ; :::; la cantidad Ef[X
el k-simo momento central de la v.a. X.

E(X)]k g se denomina

Notacin:
k

= Ef[X

E(X)]k g,

as,
1

= EfX E(X)g
= E(X) E(X)
=0
= Ef[X E(X)]2 g
= V ar(X)
= E(X 2 ) [E(X)]2
0
0
= 2 ( 1 )2
= Ef[X E(X)]3 g
= EfX 3 3X 2 E(X) + 3X[E(X)]2 ] [E(X)]3 g
= E(X 3 ) 3E(X 2 )E(X) + 3[E(X)]3 ] [E(X)]3 g
0
0
0
0
= 3 3 1 2 + 2( 1 )3

Nota: Todo momento central, puede escribirse en trminos de los momentos.

Para qu sirven los momentos de una variable aleatoria?


El n del curso es el clculo de incertidumbres a travs de probabilidades.
Para calcular probabilidades requerimos de la f d o de la f da. Bueno, puede
demostrarse que si se conocen todos los momentos de una variable aleatoria,
puede conocerse la f da de dicha variable. Sin embargo, difcilmente es posible
tener todos los momentos de una variable aleatoria. Lo interesante es que slo
necesitamos unos cuantos para tener una buena idea de cmo es la f d de la
variable aleatoria.
57

Intentar explicar hasta qu punto son importantes los primeros momentos


en la determinacin de una f d, haciendo similitud con un escenario de policas
y ladrones:
*Para dar una descripcin grca de un individuo , podemos recurrir a una
fotografa.
Para dar una descripcin grca de una distribucin de probabilidades podemos
recurrir a una grca de su funcin de densidad.
*Si no hay fotografa podemos hacer alusin a una innidad de caractersticas
fsicas: edad, estatura, complexin, peso, color de la piel, color del cabello, el
tipo de cabello,...etc.
Para describir una distribucin de probabilidades podemos hacer alusin a
una innidad de caractersticas 01 ; 02 ; :::
*Entre ms larga sea la lista de caractersticas fsicas, ms precisa ser la
descripcin del individuo.
Entre ms grande sea la lista de momentos a los que uno haga alusin, ms
precisa ser la descripcin de la distribucin de probabilidades.
*Sin embargo, con unas pocas descripciones fsicas, por ejemplo, edad, estatura, peso y color de piel, podemos llegar a tener una buena idea de cmo es
el individuo. Por esto, son las primeras caractersticas que se le preguntan a los
testigos.
Con solo unos pocos momentos, por ejemplo, 01 ; 02 ; 03 y 04 podemos llegar
a tener una muy buena idea de cmo es la distribucin de probabilidades.
*La longitud de las pestaas de un individuo, un lunar en el dedo gordo del
pie, el dimetro del iris del ojo izquierdo y la longitud de la ua del dedo ndice,
dicen algo del individuo pero no mucho.
Los momentos 0122 ; 0123 ; 0124 ;sin duda dicen algo acerca de la distribucin,
pero no mucho.
*Para obtener una descripcin general de un individuo qu preferiras que
te dijeran? estatura y peso o dimetro del iris del ojo izquierdo y lunar en el
dedo gordo del pie.
Para obtener una descripcin general de una distribucin de probabilidades
preferiramos tener 01 ; 02 ; 03 y 04 a tener 0122 ; 0123 y 0124 :
*Una descripcin de un individuo basado slo en su estatura es muy pobre.
Una descripcin de una distribucin de probabilidades basada solamente en
un valor esperado, es muy pobre. Una muy buena pregunta es entonces, por
qu en la prctica la gente hace precisamente eso?. En los medios informativos
escuchamos o leemos con frecuencia el promedio de longevidad de los mexicanos
es hoy 72 aos, la temperatura mxima de maana ser de un promedio de
31 "; la vida nominal de un foco incandescente de 40 watts es de 100 horas:
Dos variables aleatorias con distribuciones distintas en general no tienen
los mismos momentos, pero si coinciden entre s en los primeros momentos,
digamos del primero al cuarto o quinto, sus respectivas distribuciones son cualitativamente bastante parecidas.
Denicin: Denimos el coeciente de simetra de una v.a., denotada por
Ef[X E(X)]3 g
:
, como 33 , esto es, =
3
58

Si

= 0, entonces la densidad es simtrica.

Si < 0, se dice que hay asimetra hacia la izquierda (valores mayores de


probabilidad a la izquierda).

Si > 0, se dice que hay asimetra hacia la derecha (valores mayores de


probabilidad a la derecha).

Denicin: Denimos el coeciente de kurtosis de una v.a., denotado


Ef[X E(X)]4 g
por k, como 4 3, es decir, k =
3:
4
4

Si k = 0, entonces el pico es como la de la normal estndar.


59

Si k<0, la densidad es aplanada en el centro. (platicrtico).

Si k > 0, indica un pico muy alado.

Funcin generadora de momentos Denicin: Sea X una v.a. con f:d:


fX : El valor esperado de etX se dene como la funcin generadora de momentos (denotada por f:g:m:) de X, si tal valor esperado existe para cualquier
t en algn intervalo h < t < h; h > 0.
Notacin:mX (t) = E(etX )
Ahora:
Si X es una v.a. discreta:
mX (t) =

1
P

etxi P (X = xi ).

i=1

Si X es una v.a. continua:


mX (t) =

etx fX (x)dx.

60

Observacin:
mX (t)

= E(etX )

(tX)2
(tX)3
+
+
2!
3!
2
3
t
t
= 1 + tE(X) + E(X 2 ) + E(X 3 ) +
2!
3!
2
t
0
) mX (t) = E(X) + tE(X 2 ) + E(X 3 ) +
2!
= E 1 + (tX) +

) mX (0) = E(X) =

(primer momento).

00

mX (t) = E(X 2 ) + tE(X 3 ) +


00

mX (0) = E(X 2 ) =

t2
4
2! E(X )

(segundo momento)

En general:
(k)

mX (0) = E(X k ) =

k.

Ejemplos 1.- Sea X una v.a. con f:d: f (x) = e


Hallar la f:g:m. de X.

I[0; 1) (x),

> 0.

Solucin:
Por denicin,
m(t) = E(etX ), pero como la v.a. es continua, entonces
Z 1
m(t) =
etx f (x)dx
=
=

1
1

1
1

etx e

e(t

)x

e(t

)x

I[0; 1) (x)dx

dx

=
e(t

1
0

Ahora, cundo converge esta integral?, cuando t


)x
converge cero, de donde queda que,

< 0, en cuyo caso

m(t) =

, si t
< 0, esto es, si t < :
t
Que es lo mismo que escribir,
m(t) =

, si

> t:

2.- Sea X una v.a. con f:d: f (x) =

61

x!

, x = 0; 1; 2; :::;

Hallar la f:g:m: de X.
Solucin:
m(t)

= E(etX )
=

1
P

eti

e
i!

i=0

=e

( et )i
i!
i=0

=e

=e

1
P

et

(et 1)

; 8t 2 R

Hallar E(X) y V ar(X) en el ejemplo anterior.


0

m (t) = et exp[ (et


00

m (t)

= et ( et )( et )exp[ (et
t

t 2

= e + ( e ) exp[ (e
00

) m (0)

1)] ) m (0) =

E(X) =

1)]
1)]

= (

1)

E(X 2 ) = (

1)

De donde,
V ar(X)

= E(X 2 )
= (

1)

[E(X)]2
2

=
Teorema: Sean X e Y dos variables aleatorias con densidades fX y fY
respectivamente. Supongamos que mX (t) y mY (t) existen y son iguales para
todos los valores de t en un intervalo h < t < h, para algn h > 0. Entonces
las f:d:a: FX y FY son iguales.
Ejemplo: Supongamos que una v.a. X tiene funcin generadora de momentos
1
m(t) =
; 1 < t < 1. Cul es la densidad de X?.
1 t
Solucin:
Su f. g. m. es de la forma

que corresponde a una variable aleatoria

exp( )
Por tanto, X s exp(1).
62

Ejemplo: Supongamos que la f:g:m: de una v.a. X es m(t) = e3(e


cul es la probabilidad de que X = 0?
Solucin:
P (X = 0) = e 3 , pues m es la f:g:m: de una v.a. poisson(3).
Ejercicio: Si X s N ( ; 2 ), hallar la f:g:m: de X.

1)

Solucin:
m(t)

= E(etX )
Z 1
1
exp
=
etx p
2
1
Z 1
1
p
exp
=
1 2
Z 1
1
p
exp
=
2
1
Z 1
1
p
exp
=
1 2
2 2

t
2

= exp t +

1
2
1
2

x
2

dx
!

+ tx dx
2

(x
2

(x
Z

1
p
2
1

t)2
t)2

exp

2 2

t
2

+t +

dx
2 2

t
2

exp t +
1
2

(x

( +

dx
2

t)

dx

2 2

t
2

= exp t +

!
2
1 (x ( + 2 t)
1
p
Notar:
exp
dx es la f:d: de una v.a.
2
1 2
que se distribuye N (t + 2 ; ) y es igual a 1 porque esta evaluada en ( 1;
1).
Z

t2

Si en especial X s N (0; 1) entonces mX (t) = e 2 , ya que mX (t) =


2 2

t 0+ 1 2t

Notar:
2 2

m0X (t) = ( +

t)exp( t +

t
), entonces E(X) = m0X (0) = .
2

Tambin
m00X (t) = ( +
2 2
t
2 ):

t)exp( t +

por tanto, m00X (t) =

2 2

t
2

)+

= E(X 2 ),
63

exp( t +

2 2

t
2

)+

t( +

t)exp( t +

entonces, E(X 2 ) = m00X (0) =


V ar(X) = E(X 2 )

; de donde

[E(X)]2

= E(X 2 )

) V ar(X)

[E(X)]2

Teorema: Supongamos que X s N ( ;

))Z=

s N (0; 1).

Demostracin:
mZ (t)

= E(e
= E(e

Xt

=e

=e
= e(

)
t

E(e

Xt

)
)

2 t2
2 2

e(

+ t2 )

t2

=e2

t2

Notar: que mZ (t) = e 2 es la f:g:m: de una N (0; 1), por tanto Z s N (0;
1):
Teorema: Supngase que la v.a. X tiene f:g:m. mX . Sea Y =
Entonces la f:g:m. de Y est dada por mY (t) = et mX (t ).

X+ :

Demostracin:
mY (t)

= E(etY )
= E(et(

X+ )

= E(e(t

)X

= et E(e(t

et )
)X

= et mX (t )

Clculo de probabilidades cuando X s N ( ;

1. Supngase que la v. a. X tiene una distribucin normal con media 1 y


varianza 4. Determinar el valor de cada una de las probabilidades siguientes:

64

(a) P (X < 3)
(b) P (X > 1:5)
(c) P (X = 1)
(d) P (X
(e) P (jXj

0)
2)

(f) P (2 < X < 5)


(g) P ( 1 < X
(h) P (1

0:5)

2X + 3

8)

2. Supngase que el voltaje medido en cierto circuito elctrico tiene una


distribucin normal con media 120 y desviacin estndar 2. Si se toman
tres medidas independientes del voltaje, cul es la probabilidad de que
las tres medidas estn entre 116 y 118?
3. Supngase que la maestra de un grupo de alumnos dice que es necesario
obtener una nota ubicada en el 10% superior de la distribucin de calicaciones de la clase para sacar una A en un examen particular. Por
experiencia ella estima que la media y la desviacin estndar de este examen sern 72 y 13, respectivamente. Cul es la calicacin mnima
necesaria para obtener una A? Supn que las calicaciones tienen una
distribucin normal.
Funciones de una variable aleatoria Sea un espacio muestral asociado
a un experimento y X una variable aleatoria denida en . Si y = H(x) es una
funcin real de X, entonces Y = H(X) es una v.a.
Ejemplos
1: Suponga que H(x) = x2 ) Y = H(X) = X 2 es una v.a.
Si ahora suponemos que X es una v.a. no negativa y que nos interesa
calcular P (Y > 4 ), tendremos que como el evento fY > 4 g
fX > 2g )
P (Y > 4 ) = P (X > 2); esto es, la probabilidad con la v.a. Y se redujo al
clculo de una probabilidad con la v.a. X.
2: Sea X una v.a. con f:d:
(
e x; x > 0
f (x) =
0;
de otro modo
Suponga que H(x) = 2x + 1. Sea Y = H(X), calcula P (Y
Solucin:

65

5).

P (Y

5)

= P (2X + 1
= P (X
Z 1
e
=

5)

2)
x

dx

1
:
e2

Hagamos ahora un anlisis general para cada uno de los tipos de v.a.
Caso 1: X es una v.a. discreta
X es una v.a. discreta ) Y = H(X) es una v.a. discreta. De hecho si s1 ;
s2 ; :::; sn ; :::; es el RX ) t1 = H(s1 ); :::; tn = H(sn ); es el RY .
Si H es 1 1 ) P (Y = ti ) = P (X = si ), o sea fY (ti ) = fX (si ).
3: Si X toma los valores 1, 0 y 1 con probabilidad 1/3, 1/2 y 1/6, respectivamente, entonces Y = 3X + 1 toma los valores 2, 1 y 4, con probabilidad
1/3, 1/2 y 1/6 respectivamente.
Pero H no siempre es 1

1.

Por ejemplo, tomemos X denida como antes, y Y = X 2 ) RY es f1; 0g y


P (Y = 0) = P (X = 0) = 1=2;
P (Y = 1) = P (X = 1) + P (X = 1) = 1=3 + 1=6 = 1=2, as que en este
caso,
P
fY (ti ) = P (Y = ti ) =
fX (s):
fs2RX j H(s)=ti g

En resumen, para calcular P (Y = ti ), solo tenemos que encontrar el evento


equivalente en funcin de X y calcular las probabilidades correspondientes.
4: Suponga que X toma los valores posibles 1; 2; :::; n; :::; y suponga que
n
1
P (X = n) =
.
2
(
1;
si X es par
Sea Y =
1; si X es impar
) RY es f1;

1g y la distribucin de probabilidades de Y es:

66

1
P

P (Y = 1) =

i=1

1
P

i=1

1
2

2i

1
4

1
4

4
1
3
1
= :
3
=

P (Y =

1)

=1

P (Y = 1)

=1

1
3

2
:
3

Caso 2: X es una v.a. continua.


Subcaso 2.1 Si X es una v.a. continua, puede que Y sea discreta.
Por ejemplo, suponga que X toma valores en ( 1; 1) y
(
1;
X 0
Y =
1; X < 0
para obtener la distribucin de probabilidades de Y procedemos igual que
antes, simplemente determinamos
Z 1 el evento equivalente en X.
P (Y = 1) = P (X 0) =
fX (x)dx
0

P (Y =

1) = P (X < 0) =

fX (x)dx ,
1

si se conoce fX , estas probabilidades pueden ser calculadas.


Subcaso 2.2 El caso ms frecuente es cuando X es una v.a. continua y
Y = H(X) tambin lo es. Planteamos como meta en este caso hallar fY . De
acuerdo a lo que hemos hecho antes un procedimiento adecuado podra ser:
1.- Obtener la f:d:a:, G, de Y .
2.- Derivar G respecto de y para hallar la f:d: de Y , denotada por g.
Ejemplo 1: Suponga que X tiene f:d:
(
2x; si 0 < x < 1
f (x) =
:
0;
de otro modo
67

Sea H(x) = 3x + 1. Hallar la f:d:; g; de Y = H(X).


Solucin:
G(y)

= P (Y

= P (3X + 1

y)

=P

8
>
>
0;
>
>
>
>
>
< Z

3
si

1
3

0,y

y 1
2xdx; si 0 <
<1,1<y<4
>
3
>
0
>
>
>
>
y 1
>
: 1;
si
1,y 4
3
8
0;
si y 1
>
>
>
>
<
2
y 1
=
; si 1 < y < 4
>
3
>
>
>
:
1;
si y 4

g(y)

y)

= G (y)
8
0;
>
>
>
>
< 2
(y
=
9
>
>
>
>
: 0;

si
1);

8
< 2 (y
9
=
:
0;

1);

si 1 < y < 4
si

si

1<y<4

de

otro modo

Otra forma de proceder:


G(y)

= P (Y
=P
=F

y)
y

1
3

1
3

= F (K(y))
donde K(y) =

1
3

, entonces por la regla de la cadena:

68

G (y)

= F 0 (K(y)) K (y)
1
= f (K(y))
3
8
< 2K(y) 1 ; si 0 < K(y) < 1
3
=
:
0;
de otro modo
(
2
(y 1); si 1 < y < 4
=
9
0;
de otro modo

Ejemplo 2: Considere la misma v.a. X del ejemplo 1.


Sea H(x) = e x : Hallar la f:d: de Y = H(X):
Solucin:
G(y)

= P (Y

y)
X

= P (e

= P( X

y)
ln y)

= P (X
ln y)
8 Z 1
>
>
2x dx;
>
>
<
ln y
=
>
0;
>
>
>
:
1;
8
>
1 (ln y)2 ;
>
>
>
<
0;
=
>
>
>
>
: 1;
8
< 2 ln y
0
g(y) = G (y) =
:
0;

si 0 <
si

ln y

si

ln y

si 1 > y >
si

= P (Y
=1

1
e

1
e
1
1
<y<1
y ; si
e
de otro modo

si

Otra forma:
G(y)

ln y < 1

y)

F ( ln y)

aplicando la regla de la cadena

69

G (y)

1
y

F ( ln y)

1
= f ( ln y)
y
8
>
< 2 ln y 1 ; si 0 < ln y < 1
y
=
>
: 0;
de otro modo
8
>
< 2 ln y 1 si 1 < y < 1
y
e
:
=
>
: 0;
de otro modo

Nota: Que el paso clave, es cuando logramos sustituir el evento fY


yg
por otro que est en trminos de la v.a. X. Notemos que esto lo pudimos
hacer porque las funciones H eran estrctamente crecientes o estrctamente decrecientes. De hecho, como procedemos es as:
Si Y
y , H(X) y , X H 1 (y) cuando H es montona creciente y
1
X H (y) cuando es montona decreciente. Esto se puede generalizar en el
siguiente:
Teorema: Sea X una v.a. continua con f:d:; f ; en donde f (x) > 0 para
a < x < b. Supngase que y = H(x) es una funcin estrctamente creciente o
estrctamente decreciente. Suponga que esta funcin es derivable (y por tanto
continua) para toda x, entonces la v.a. Y denida como Y = H(X) tiene una
f:d: denotada por g dada por g(y) = f (x) dx
dy . En donde x se expresa en
trminos de y. Si H es creciente, entonces g es distinto de cero para los valores
de y que satisfacen H(a) < y < H(b). Si H es decreciente, entonces g es distinta
de cero para los valores de y que satisfacen H(b) < y < H(a):

Ejemplo 1: Sea f (x) =

2x; si

otro modo
dx
Entonces por el teorema anterior, g(y) = f (x)
dy
g(y)

=f

de

y H(x) = 3x + 1.
y x=

1
3

por tanto

1
3

8
< 2 (y
9
=
:
0;

0;

0<x<1

1);

Ejemplo 2: Sea f (x) =

si

1<y<4

de

otro modo

2x; si
0;

de
70

0<x<1
otro modo

y H(x) = e

Nuevamente, por el teorema:


g(y) = f (x)
g(y)

dx
dy

y x=

= f ( ln y)

8
>
<

2 ln y

>
:

ln y

por tanto

1
y
1
y

si

<y<1

0;
de otro modo
Ejemplo 3: Supongamos que X es una variable aleatoria con f d dada por
1=2;
1<x<1
f (x) =
0;
otros
Sea Y = X 2 : Determinar la funcin de densidad de Y .
Solucin: La funcin y = x2 no es uno a uno. As que, no queda ms que
resolver el problema a pie.
Hallemos primero la fda G de Y , esto es, hallaremos G(y) = P (Y
y);
8y 2 R :
Si y < 0; claramente G(y) = P (Y
y) = P (X 2 y) = 0:
Supongamos ahora que y 0:
G(y) =
P (X 2 y)
p
p
=
P ( py < X < y)
R y
p f (x)dx
=
y
( Rp
p
y 1
p
y<1
dx; 0
y 2
=
p
1;
y 1
p
R py 1
p
p
p
y
p
dx = 12 x py = 12 ( y + y) = y:
y 2
As,
8
8
y<0
y<0
< 0;
< 0;
p
p
p
y; 0
y<1
y; 0 y < 1
G(y) = P (Y
y) =
p
= :
:
1;
1;
y
y 1
de donde la f d de Y es,
1
p
0<y<1
2 y;
g(y) =
0;
otros casos
Esperanza de una funcin de una variable aleatoria
Teorema:
(a) Si X es una v.a. discreta con funcinPmasa de probabilidad
p, entonces para cualquier funcin real g, E(g(X)) =
g(xi )p(xi ).
xi 2RX

(b) Si X es unaZ v.a. continua con f:d:; f ; entonces para cualquier funcin
1
real g, E(g(X)) =
g(x)fX (x)dx.
1

Ejemplo 1: Sea X el nmero de guilas que aparecen cuando se lanzan


dos monedas. Calcular E(X 2 ).

71

Solucin:
Sabemos que RX = f0; 1; 2g con P (X = 0) = 1=4, P (X = 1) = 1=2,
P (X = 2) = 1=4.
Sea Y = X 2 ,
entonces RY = f0; 1; 4g
P (X = 0) = 1=4,
P (X = 1) = 1=2,
P (X = 2) = 1=4,
por el Teorema,
1
1
1
+1
+4
E(Y ) = 0
4
2
4
3
=
2
Ejemplo 2: Si X esta distribuida uniformemente sobre (0; 1), calcular
E(eX ).
Solucin:
X

E(e ) =

e f (x)dx =

ex dx = e

1.

Ejemplo 3: El tiempo semanal que un despacho de contabilidad usa una


unidad procesadora central (CPU) tiene una funcin de densidad (medidad en
3 2
x); 0 x 4
64 x (4
Usar la CPU le cuesta al
horas) dada por f (x) =
0;
otros
despacho $200 la hora. Calcula el valor esperado del costo semanal del tiempo
de uso de la CPU.
Solucin:
X =tiempo de uso semanal de la CPU
C =costo semanal de uso de la CPU
C = 2000X R 1
) E(C) = 1 2000xf (x)dx
R4
3 2
= 0 (2000x) 64
x (4 x) dx
R
375 4 3
= 4 0 x (4 x)dx
=

375
4

x4

x5
5

4
0

= $4800

Variables aleatorias bidimensionales

Hay una gran cantidad de situaciones en la vida real en donde lo que se requiere
es estudiar variables aleatorias bidimensionales. Por ejemplo: 1) Cuando se
quiere estudiar la relacin entre el peso y la altura de los estudiantes de la
UADY, 2) Cuando se administran diferentes cantidades de una droga para el
catarro a dos grupos de pacientes para estudiar la frecuencia de catarro durante

72

el ao, 3) Cuando se pretende analizar las calicaciones en clculo I y II de los


alumnos de la facultad.
En todos los casos se tiene inters en una pareja ( X , Y ) de variables aleatorias. Esta pareja es tambin una variable aleatoria que se denomina variable
aleatoria bidimensional o bivariada y la densidad que le corresponde se
le llama densidad conjunta. Su distribucin, es denominada distribucin
conjunta.

3.1

Distribuciones conjuntas discretas

Denicin: Sean X; Y v.a. discretas. La funcin masa de probabilidad


conjunta de la v.a. (X; Y ), es una funcin p : R2 ! R tal que:
0; 8(x; y) 2 R2 .

a) p(x; y)

b) Existe X
un conjunto nito o innito numerable C tal que p(x; y) = 0 si (x; y) 2
=
C y
p(x; y) = 1.
C

Sean X; Y v.a. discretas tales que el rango X Y es RX Y = f(x1 ; y1 ); (x2;


y2 ); (x3 ; y3 ); :::; g
denimos p : R2 ! R por
p((x; y)) = P (X = x; Y = y), si (x; y) 2 RX Y , y
p((x; y)) = 0 si (x; y) 2
= RX Y
entonces p cumple las propiedades para ser una funcin masa de probabilidad
conjunta de la v. a. discreta (X; Y ):
Cmo se calculan las probabilidades para cualquier B
R2 ? A partir de
la funcin masa de probabilidad conjunta:
Si B R2
P
P ((X; Y ) 2 B) =
p(xi ; yi )
(xi ;yi )2B

p(xi ; yi ) = P (X = xi ; Y = yi ) = P ((X; Y ) = (xi ; yi ))


Ejemplo: Supongamos que X es una v.a. con recorrido RX = f1; 2; 3g y
que Y es una v.a. con recorrido RY = f1; 2; 3; 4g. La f d conjunta de X e Y
est dada por:
y
x

1
2
3
Determinar:
a) P (X 2; Y
b) P (X = 1).
Solucin:

1
0:1
0:3
0

2
0
0
0:2

2)

a)

73

3
0:1
0:1
0

4
0
0:2
0

P (X

2; Y

2)

= P (2; 2) + P (2; 3) + P (2; 4) + P (3; 2) + P (3; 3) + P (3; 4)


= 0 + 0:1 + 0:2 + 0:2 + 0 + 0
= 0:5

b)
P (X = 1)

= P (X = 1; Y = 1) + P (X = 1; Y = 2) + P (X = 1; Y = 3) + P (X = 1; Y = 4)
= 0:1 + 0 + 0:1 + 0
= 0:2

3.2

Distribuciones conjuntas continuas

Denicin: Sean X; Y v.a. continuas. La funcin de densidad conjunta


de X e Y es una funcin f : R2 ! R tal que:
a) fZ(x; Zy) 0; 8(x; y) 2 R2 :
b)

f (x; y)dxdy = 1:

A partir de la funcin de densidad conjunta se calcula la probabilidad para


toda B 2 R2 :
ZZ
P ((X; Y ) 2 B) =
f (x; y)dxdy.
B

Notar!!
P ((X; Y ) 2 f(x; y)g = P (X = x; Y = y)
Z Z
f (x; y)dxdy
=
f(x; y)g

=0
En general, cualquier punto o cualquier conjunto nito o innito numerable
en el plano tiene probabilidad cero.
* Tambin, cualquier curva unidimensional en el plano xy tiene probabilidad
cero. Por lo tanto la probabilidad de que (X; Y ) pertenezca a cualquier recta o
circunferencia en el plano, es cero.
Ejemplo 1: Suponga que la f d conjunta de X e Y es
(
cx2 y; si x2 y < 1
f (x; y)=
0;
de otro modo
a) Determinar la constante c.
b) Hallar P (X Y ).
Solucin:
a)
74

1
1

f (x; y)dxdy

=1

=
=
b)
P (X

Y)

Z 1Z
0

x2

cx2 ydydx

1 x2

4
21
c)c=
21
4

21 2
x ydydx
4

3
20
Ejemplo 2: Supngase que la variable aleatoria bidimensional (X; Y ) tiene
x2 + xy
0 x 1; 0 y 2
3
f d conjunta dada por f (x; y) =
:
0;
para cualquier otro punto
Sea B = fX + Y
1g : Calcular P (B):
Solucin:
Puede ser
as
R 2calculado
R1
R1R1
xy
65
2
P (B) = 1 0 x2 + xy
3 dxdy + 0 1 y x + 3 dxdy = 72 = 0:90277
o bien,
R 1 R 1 y 2 xy
7
1 P (B) = 0 0
= 65
x + 3 dxdy = 1 72
72
=

Denicin: Decimos que una v.a. continua bidimensional est distribuida


uniformemente en una regin R si:
8
1
>
<
; si (x; y) 2 R
area(R)
f (x; y) =
>
: 0;
de otro modo

Ejemplo: Un punto (X; Y ) se selecciona aleatoriamente del interior del


crculo x2 + y 2 = 9. Determinar la f:d: conjunta de X e Y .
Solucin:
(
f (x; y) =

1
area de C
0

para (x; y) 2 C
en otro caso

pero el rea
8 de C = 9 ;entonces
< 1 ; si (x; y) 2 C
9
f (x; y) =
:
:
0;
de otro modo

75

3.3

La f:d:a: de una variable aleatoria bivariada

Denicin: La funcin de distribucin acumulada conjunta de dos v.a.


X e Y , se dene como la funcin F tal que para todo valor x; y;
F (x; y) = P (X x; Y
y), 1 < x; y < 1.
Notar que si X e Y son v.a. continuas con f d conjunta f y f da conjunta
F , entonces,
F (x; y)

= P (X x; Y
y)
Z x Z y
f (u; v)dvdu
=
1

de donde, la f se puede obtener de F mediante la relacin


@ 2 F (x; y)
) f (x; y) =
, en todos los (x; y) donde exista la derivada.
@y@x
Ejemplo: Suponga que X e Y son v.a. que solamente pueden tomar valores
en los intervalos 0 X 2, 0 Y
2. Suponga tambin que la f:d:a: conjunta
de X e Y para 0 X 2, 0 Y
2 es la siguiente:
1
xy(x + y).
16
Determinar la f:d: conjunta de X e Y .
F (x; y) =

Solucin:
8
>
>
< @2
f (x; y) =
>
>
:

3.4

1
xy(x + y)
16
; 0
@y@x
0

x; y

2 =

1
8 (x

+ y);
0;

x; y
otros

otros

Distribuciones marginales

Con cada variable aleatoria bidimensional (X; Y ) estn asociadas dos variables
aleatorias unidimensionales: la v. a. X y la v. a. Y . De este modo, podemos interesarnos por la distribucin de probabilidades de X o por la de Y , nicamente.
Veamos cmo a partir de la conjunta f se pueden obtener estas distribuciones
fX y fY ; a las cuales se les denomina marginales de X e Y , respectivamente.
Con X, Y v.a. discretas:
fX (x)

= P (X = x)
P
=
P (X = x; Y = y)
y2RY

p(x; y)

y2RY

anlogamente

76

fY (y)

= P (Y = y)
P
=
P (X = x; Y = y)
x2RX

p(x; y)

x2RX

Con X, Y v.a. continuas:


Z 1
fX (x) =
f (x; y)dy
fY (y) =

1
1

f (x; y)dx:

Ejemplo 1: Supongamos que la f:d: conjunta de X e Y es:


8
< 21 x2 y; si x2 y 1
4
f (x; y) =
:
0;
de otro modo
Determinar las marginales de X y de Y , es decir, fX , y fY .
Solucin:
fX (x)

f (x; y)dy

21 2
x ydy;
x2 4
Z
21 2 1
x
ydy;
=
4
x2

=
fY (y)

=
=
=

21x2

21x6

8
1

21
4 y

1<x<1
1<x<1

f (x; y)dx

1
p
y
p

1<x<1

21 2
4 x ydx;
p

0<y<1

x2 dx; 0 < y < 1


y

= 27 y 5=2 ; 0 <
conocen fX y fY

y<1
Si se
no necesariamente es posible reconstruir a partir de
ellas a la conjunta de X e Y , pues solas no necesariamente proporcionan alguna
informacin acerca de la relacin entre X e Y .
Tambin es cierto que si se conoce la f da conjunta F de dos variables aleatorias X, Y , se pueden obtener las f da marginales FX y FY ; para X e Y
respectivamente. Veamos cmo:
77

Para 1 < x < 1;


FX (x) = P (X x)
= lim P (X

x; Y

y!1

y)

= lim F (x; y)
y!1

Anlogamente, si
FY (y)

1<y<1

= lim P (X
x!1

x; Y

y)

= lim F (x; y)
x!1

3.5

Propiedades de las distribuciones bidimensionales cuando


X e Y son independientes

Ya hemos visto que dos variables aleatoria X e Y son independientes , P (X 2


A, Y 2 B) = P (X 2 A) P (Y 2 B).
As que, si X e Y son variables aleatorias independientes, en particular se
tiene que
F (X; Y ) = P (X x; Y
y) = P (X x) P (Y
y) = FX (x) FY (y)
(*)
Pues bien, se puede demostrar el recproco, esto es, que si (*) se satisface
para todos los valores de x e y, entonces X e Y son independientes.
Entonces tenemos que
X e Y son independientes , F (X; Y ) = FX (x) FY (y)
Pero, F (X; Y ) = FX (x) FY (y) , f (x; y) = fX (x)fY (y); 8x; y:
As en resumen, se tiene que
X e Y son independientes , F (X; Y ) = FX (x) FY (y) , f (x; y) =
fX (x)fY (y); 8x; y:
Ejemplo 1: Supngase que se toman dos medidas independientes X e Y
de la lluvia durante un perodo de tiempo en una localidad, y que la f:d: de
cada medida (es una v.a.) es la siguiente:
(
2x; si 0 x 1
g(x) =
0;
de otro modo
Determinar P (X + Y

1).

Solucin:
Como las medidas son independientes, entonces la conjunta de X e Y es
(
4xy; si 0 x; y 1
f (x; y) =
0;
de otro modo

78

) P (X + Y

1) =

ZZ

f (x; y)dxdy

Z 1Z

1 x

1
6
Ejemplo 2: Usando las v.a. X e Y con f (x; y) dado por la siguiente tabla,
las v.a. X e Y son independientes?.
) P (X + Y

1) =

y
x

1
2
3

4xydydx =

1
0:1
0:3
0

2
0
0
0:2

3
0:1
0:1
0

4
0
0:2
0

Solucin:
Slo tenemos que checar si p(x; y) = pX (x) pY (y) para cualquier pareja
(x; y): Veamos.
p(1; 3) = 0:1; pX (1) = 0:2; pY (3) = 0:3
) p(1; 3) 6= pX (1) pY (3):
Por tanto, las v.a. no son independientes.
Teorema: Si X e Y son v.a. que tienen una distribucin bidimensional
continua con f:d: conjunta f , entonces X e Y sern independientes , se puede
representar en la siguiente forma para 1 < x; y < 1:
f (x; y) = g1 (x)g2 (y)
Donde g1 es una funcin no negativa de x solamente, y g2 es una funcin no
negativa de y solamente.
Notar!!! QueRsi f (x; y) = g1 (x)g
R 21(y)
R1
1
) fX (x) =
f (x; y)dy =
g (x)g2 (y)dy = g1 (x) 1 g2 (y)dy =
1
1 1
cg1 (x)
esto es, la marginal de X es un mltiplo de g1 (x): Anlogamente, la marginal
de Y es un mltiplo de g2 (y):
Ejemplo 3: Supngase que la funcin de densidad conjunta de dos v.a. X
e Y es la siguiente:
(
ke (x+y) ; si x 0, y 0
f (x; y) =
0;
de otro modo
a) Determinar si las v.a. son independientes.
b) Determinar las f:d: marginales.
Solucin:
a) Denamos las siguientes funciones

79

g1 (x) =
y
g2 (y) =

(
(

ke

0;
e

0;

si

de

otro modo

si

de otro modo
(
ke (x+y) ; si
=
0;
de

) g1 (x)g2 (y)

0, y

otro modo

= f (x; y)
Por lo tanto, las v.a. X e Y son independientes.
b) Ahora hallemos las marginales:
fX (x)

Como
1)c=

= cg1 (x)
(
cke
=
0;

si

de

otro modo
Z 1
1
fX (x)dx = 1 )
cke x dx = 1 )=
1

1
k

) fX (x) =

si

cke

x 1
j0

= 1 ) ck =

; esto es X s exp(1)
0;
de otro modo
Anlogamente se halla la marginal de Y .

3.6

Distribuciones Condicionales

* Supongamos que X e Y son v.a. discretas, con f d conjunta p. Sean pX y


pY , sus respectivas marginales. Si ya se ha observado el valor y de la variable
aleatoria Y , entonces,
P (X = x; Y = y)
P (X = x j Y = y) =
P (Y = y)
=

p(x; y)
pY (y)

P (X = x; Y = y)
P (X = x)

p(x; y)
pX (x)

anlogamente
P (Y = y j X = x)

80

Teorema: Sea p1 (x j y) =
Sea p2 (y j x) =

p(x; y)
, p1 es la f:d: de la v.a. X j Y = y.
pY (y)

p(x; y)
, p2 es la f:d: de la v.a. Y j X = x
pX (x)

Ejemplo: En la siguiente tabla, hallar la f:d: condicional de Y j X = 2.


y
x

1
2
3

1
0:1
0:3
0

2
0
0
0:2

3
0:1
0:1
0

4
0
0:2
0

Solucin:
p2 (y j 2) =

p(2; y)
p(2; y)
=
,
pX (2)
0:6

y = 1; 2; 3; 4

p(2; 1)
0:6
p(2; 2)
P (Y = 2 j X = 2) = p2 (2 j 2) =
0:6
p(2; 3)
P (Y = 3 j X = 2) = p2 (3 j 2) =
0:6
p(2; 4)
P (Y = 4 j X = 2) = p2 (4 j 2) =
0:6
P (Y = 1 j X = 2) = p2 (1 j 2) =

0:3
0:6
0
=
0:6
0:1
=
0:6
0:2
=
0:6
=

= 0:5
=0
= 0: 16667
= 0:333:

* Sean ahora X e Y v.a. continuas con f d conjunta f y marginales fX ; fY ;


respectivamente.
Supongamos que ya se observ Y = y. No podemos aplicar la denicin de
la condicional como en el caso discreto porque P (Y = y) = 0:
Lo que se hace es extender la expresin que ya se tiene para el caso discreto.
Def.: Sea y un valor tal que fY (y) > 0: Entonces la f d condicional de
f (x; y)
X dado Y = y se dene como g1 (x j y) =
para 1 < x < 1:
fY (y)
f (x; y)
es la f:d: condicional de la v.a. Y j X = x.
Anlogamente, g2 (y j x) =
fX (x)
Ejemplo: Suponga que la f:d: conjunta de X e Y es
8
< 21 x2 y; si x2 y 1
4
f (x; y) =
:
0;
de otro modo

a) Determinar la f:d: condicional de Y j X = x:


b) Determinar P

3
1
jX=
.
4
2
81

Solucin:
a) g2 (y j x) =

f (x; y)
; calculando fX (x) obtenemos:
fX (x)

8
< 21 x2 (1
8
fX (x) =
:
0;

por tanto g2 (y j x) =
b)
P

3
1
jX=
4
2

x4 );
8
<
:

x2

de

otro modo

2y
;
1 x4

si

x2

0;

de

otro modo

=
=
=

3.7

si

Z
Z

1
1

1
3
4

g2 (y j 21 )dy

2y
dy
15=16

7
15

Funciones de dos variables aleatorias

A partir de la f d conjunta de variables aleatorias X e Y; pretenderemos en esta


seccin determinar la distribucin de una funcin de esa dos variables, o sea, la
distribucin de una variable aleatoria de la forma Z = H(X; Y ).
En particular se pondr especial inters en la distribucin de las variables
aleatorias, X + Y , X Y , max(X; Y ) y m{n(X; Y ).
*Cuando X e Y son variables aleatorias discretas.
Ejemplo 1: Dos lneas de produccin manufacturan cierto tipo de artculos.
Supngase que la capacidad en cualquier da dado es de 5 artculos para la lnea
1 y 3 artculos para la lnea 2. Supngase que el nmero verdadero de artculos
producidos por cada una de las lneas es una v.a. bidimensional (X; Y ) donde
X =nmero de artculos producidos por la lnea 1 y Y =nmero de artculos
producidos por la lnea 2. La siguiente tabla proporciona la conjunta de X y Y :
X
Y

0
1
2
3

0
0
0:01
0:01
0:01

1
0:01
0:02
0:03
0:02

2
0:03
0:04
0:05
0:06

3
0:05
0:05
0:05
0:06

4
0:07
0:06
0:05
0:06

a) Sea U = min(X; Y ). Hallar la distribucin de U .


b) Sea Z = X + Y . Hallar la distribucin de Z.
82

5
0:09
0:08
0:06
0:05

Solucin:
a) RU = f0; 1; 2; 3g
P (U = 0)

= P (min(X; Y ) = 0)
= P (X = 0 o Y = 0)
= P (X = 0) + P (Y = 0)
= 0:3 + 0:25

P (X = 0; Y = 0)

= 0:28
P (U = 1)

= P (min(X; Y ) = 1)
3
P

P (X = 1, Y = i) +

i=1

= 0:07 + 0:25

5
P

P (X = j; Y = 1)

P (X = 1; Y = 1)

j=1

0:02

= 0:3
anlogamente obtenemos
P (U = 2) = 0:25
P (U = 3) = 0:17.
b) Z = X + Y , RZ = f0; 1; 2; 3; 4; 5; 6; 7; 8g
P (Z = 0)

= P (X + Y = 0)
= P (X = 0; Y = 0)
=0

P (Z = 1)

= P (X + Y = 1)
= P (X = 0; Y = 1) + P (X = 1; Y = 0)
= 0:02

P (Z = 2)

= P (X + Y = 2)
2
P
=
P (X = i; Y = 2

i)

i=0

En general
P (Z = k) =

k
P

P (X = i; Y = k

i), k = 0; 1; :::; 8

i=0

La funcin generadora de momentos tambin puede ser usada para determinar la distribucin de una funcin de dos variables aleatroria. Se mostrar
cmo a travs de los siguientes ejemplos.
Ejemplos:
1. Sean X, Y variables aleatorias independientes tales que X s Binomial(n1 ; p)
y Y s Binomial(n2 ; p): Cmo se distribuye X + Y ?
83

2. Sean X, Y variables aleatorias independientes tales que X s P oisson(


y Y s P oisson( 2 ): Cmo se distribuye X + Y ?
* Suponga ahora que X, Y son v.a. continuas.

1)

Suponga que X, Y son independientes y que se conocen fX , fY .


Sea Z = max(X; Y ), hallar la f:d: de Z.
Solucin:
Sea G la f:d:a: de Z, entonces
G(z)

= P (Z

z)

= P (max(X; Y )
= P (X

z; Y

= P (X

z) P (Y

z)
z)
z)

= FX (z) FY (z)
y si suponemos que X e Y tienen la misma distribucin:
G(z)
g(z)

= [FX (z)]2 entonces


dG(z)
dz
0
= 2FY (z) FX
(z)
=

= 2FY (z) fX (z)


Mantengamos los supuestos anteriores de que X e Y son continuas, de que
se conocen fX , fY y de que X e Y son independientes. Sea U = min(X; Y ).
Hallar la f:d. de U .
Solucin:
Sea G la f:d:a: de U , entonces
G(u)

= P (U u)
= P (min(X; Y ) u)
= 1 P (min(X; Y ) > u)
= 1 P (X > u; Y > u)
= 1 P (X > u)P ( Y > u)
= 1 [1 P (X u)] [1 P (Y
u)]
1 [1 FX (u)] [1 FY (u)]
De aqu, derivando G se obtiene la f d de U .
Ejemplo: Sean X e Y variables aleatorias independientes. Hallar la f d del
max(X; Y ), si X s U (0; 1) y Y s U (1; 2):
Se proporcionar a continuacin un proceso que permitir hallar la f d de
una funcin de dos variables aleatorias bajo ciertas condiciones. De hecho este
proceso no es ms que la generalizacin del deducido para fY cuando Y = H(X).
84

La idea general es la siguiente.


Sean X e Y variables aleatorias continuas.
*Se tiene Z = H1 (X; Y ). Lo que se quiere es determinar fZ :
*Se introduce una segunda variable W = H2 (X; Y ):
*Se obtiene la conjunta
R 1 fZ;W :
*Se calcula fZ (z) = 1 fZ;W (z; w)dw
Dos preguntas que surgen inmediatamente del proceso anterior son:
Cmo se elige la v.a. W ? Cmo encontrar la conjunta de Z y W ?
Bueno, la v.a. W la escogemos de la manera ms sencilla posible pues a nal
de cuentas slo es un intermediario para llegar a fZ : Frecuentemente resulta til
tomar W = X o W = Y .
La segunda pregunta es bastante razonable pues en apariencia un problema
de hallar la f d de una variable aleatoria unidimensional lo estamos convirtiendo
en uno de hallar la f d de una bivariada!! Efectivamente, es mucho ms difcil
hallar el de una bivariada, afortunadamente el Clculo nos proporciona resultados al respecto que eliminan la dicultad. Estos resultados se expresan en el
siguiente teorema.
Teorema: Suponga que (X; Y ) es una v.a. bidimensional continua con
f:d: conjunta f . Sea Z = H1 (X; Y ) y W = H2 (X; Y ), y supongamos que las
funciones H1 y H2 satisfacen las condiciones siguientes:
a) Las ecuaciones z = H1 (x; y) y w = H2 (x; y) tienen solucin nica para
x e y en funcin de z y w, digamos que x = G1 (z; w), y = G2 (z; w).
@x @x @y @y
,
,
,
, existen y son continuas. En@z @w @z @w
tonces la funcin de densidad conjunta fZ;W de (Z; W ) est dada por
b)Las derivadas parciales

fZ; W (Z; W ) = f (G1 (z; w); G2 (z; w)) j J(z; w) j


en donde J(z; w) =

@x
@z
@y
@z

@x
@w
@y
@w

Ejemplo: Supngase que tenemos un circuito en el cual varian de un modo


aleatorio la corriente I y la resistencia R. Supngase especcamente que I y R
son variables aleatorias continuas independientes con la siguiente f d
I: g(i) = 2i; 0 i 1
2
R: h(r) = r9 ; 0 r 3
Es de inters la variable aleatoria E = IR (el voltaje en el circuito), determina su densidad.
Solucin:
E = IR
Sea W = I
Tenemos entonces las ecuaciones
e = ir
i=w
)
w=i
r = we
85

jJ(e; w)j = abs


Entonces
fE;W (e; w)

De donde,
fE (e)

@r
@w
@i
@w

= abs

1
w

e
w2

= g(w)h( we ) w1 ; 0
e2
1
= (2w)( 9w
0
2 )( w );
2 e2
=
;
0
2
9w
Z1

@r
@e
@i
@e

w
w
w

2 e2
9 w2 dw;

Z1

=
1; 0
1; 0
1; 0

1
w
e
w

e
e

3
3w
3w

e=3

3.7.1

2 2
9e

1
w2 dw;

=
=
=

e=3
2 2w 1 1
e
9
1 e=3 ;
2 2
3
9 e (1
e );
2
e(3
e);
9

0
0
0

e
e
e

3
3
3

Suma de dos variables aleatorias

Suponga que X e Y son dos v.a. con f:d: conjunta f . Determinar la f:d: de la
v.a. Z = X + Y .
Solucin:
Sea W = X entonces
Z =X +Y
z =x+y
W =X

w=x

x=w
y=z

entonces, la f:d: es fZ; W = f (w; z


por tanto
Z
fZ (z) =

f (w; z

y J(z; w) =

=1

w)

w)dw.

Ahora, si hacemos W = Y entonces


Z =X +Y

z =x+y

W =Y

y=x

entonces, la f:d: es fZ; W = f (z


por tanto
Z
fZ (z) =

f (z

x=z
y=w
w; w)

w; w)dw.

86

y J(z; w) =

=1

Frmulas de Convolucin Si Z = X + Y y X e Y son independientes con


funciones de densidad fX y fY respectivamente, entonces f (x; y) = fX (x)
fY (y); de donde
Z 1
fZ (z) =
fX (w)fY (z w)dw
fZ (z) =

fX (z

w)fY (w)dw

A estas frmulas se les llama Convolucin de fX y fY respectivamente.


Ejemplo 1: Sean X1 y X2 v.a. independientes, ambas distribuidas uniformemente en el intervalo (0; 1).
(a) Hallar la funcin de densidad de X1 + X2 :
Solucin: Sea Z = X1 + X2
Por las frmulas
Z 1 de convolucin
fz (z) =
fX (w)fY (z w)dw;
1 8 Z
z
<
dw
=
;
: R 10
dw
z 1
z;
=
2 z;
(b) Sean Y1 = X1 +X2 , Y2 = X1
de Y1 y Y2 .

0 < w < 1; 0 < z

w<1

0<z<1
1<z<2
0<z<1
1<z<2

X2 . Hallar la funcin de densidad conjunta

Solucin:
Tenemos que
y1 = x1 + x2 ;

1
2

y 1 + y2
;
) x1 =
2
) fY1 ; Y2 (y1 ; y2 )

y2 = x1
x2 =

=f

x2

y1

) jJ(y1 ; y2 )j = abs

y2
2

y1 + y2 y1 y 2
;
2
2

8
< 1 ; si
2
=
:
0; de
8
< 1 ; si
2
=
:
0; de

y1 + y2
2
otro modo

y1 + y2

otro modo
87

1
2

1
2

1
2

1
2

= abs

1
2
1; 0

2; 0

y1

y2
2

y1

y2

1
2

Ejemplo 2: Sean X e Y v.a. independientes e idnticamente distribuidas,


con f:d: comn dada por
(
e x ; si x 0
f (x) =
0;
de otro modo
Determinar la funcin de densidad de la v.a. X + Y .
Solucin:
1. Sea f la conjunta de X e Y: Entonces,
e

f (x; y) =

(x+y)

0;

x 0; y 0
otros casos

Sea W = X entonces
x=w
z =x+y
)
y J(z; w) =
w=x
y=z w

Z =X +y
W =X

entonces, la f:d: es fZ; W = f (w; z


Por tanto
Z z
fZ (z) =
e

dw = ze

,z

w) = e

;w

0; z

0
1
w

1
1

=1

Como en el caso de dos variables aleatorias discretas, la funcin generadora


de momentos tambin puede ser usada para determinar la distribucin de una
suma de dos (o ms) variables aleatorias continuas. Se mostrar cmo a travs
de los siguientes ejemplos.
Ejemplos:
1. Si X s N ( 1 ; 21 ) y Y s N ( 2 ; 22 ) y X; Y son variables aleatorias
independientes, hallar la distribucin de X + Y:
2. Si X s N ( 1 ; 21 ) , hallar la distribucin de aX; donde a 2 R:
3. Si X s N ( 1 ; 21 ) y Y s N ( 2 ; 22 ) y X; Y son variables aleatorias
independientes, hallar la distribucin de aX + bY , donde a; b 2 R:
4. X s exp( ) y Y s exp( ) y X; Y son variables aleatorias independientes,
hallar la distribucin de X + Y:
5. X s k1 y Y s k2 y X; Y son variables aleatorias independientes, hallar
la distribucin de X + Y:

3.8
3.8.1

Vector de Medias y Matriz de Covarianzas


Vector de Medias

La media de la variable aleatoria bidimensional (X; Y ), tambin llamado vector


aleatorio, est dado por:
88

E(X)
E X
Y = E(Y )
Ejemplos:
1. Para la variable aleatoria (X , Y ) cuya funcin masa de probabilidad
conjunta est dada por:
X
0
1
2
3
4
5
Y
0
0
0:01 0:03 0:05 0:07 0:08
1
0:01 0:02 0:04 0:05 0:06 0:07
2
0:01 0:03 0:05 0:05 0:05 0:06
3
0:01 0:02 0:06 0:06 0:06 0:05
determinar el vector de medias.
Solucin:
Hallemos E(X) y E(Y ):
E(X) = 0 P (X = 0) + 1 P (X = 1) + 2 P (X = 2) + 3 P (X = 3) + 4 P (X =
4) = 0:08 + (2)(0:18) + (3)(0:21) + (4)(0:24) + (5)(0:26) = 3:33
E(Y ) = 0 P (Y = 0) + 1 P (Y = 1) + 2 P (Y = 2) + 3 P (Y = 3) =
0:25 + (2)(0:25) + (3)(0:26) = 1:53
Por tanto el vector de medias es
3:33
E X
Y = 1:53
2. Para la variable aleatoria (X , Y ) cuya funcin de densidad de conjunta
est dada por:8
< 21 x2 y; si x2 y 1
4
f (x; y) =
:
0;
de otro modo

Determinar el vector de medias.

3.8.2

La Covarianza

La covarianza entre dos variables aleatorias X e Y es una medida numrica de


la variacin conjunta entre las dos v.a. Se dene por
Cov(X; Y ) = E[(X

X )(Y

)]

en donde X = E(X) y Y = E(Y ).


Intuitivamente decimos que X e Y varan en la misma direccin, si es alta la
probabilidad de que valores grandes de X estn asociados con valores grandes
de Y y de que valores pequeos de X estn asociados con valores pequeos
de Y . En tales casos, ambos valores de las desviaciones X
X, Y
Y son
positivos o negativos con probabilidad alta, entonces (X
X )(Y
Y ) es
predominantemente positivo de donde se obtendra que Cov(X; Y ) es positivo.
Anlogamente, si X e Y varan en direcciones opuestas, valores de X
X van
a estar frecuentemente asociados con valores negativos de Y
Y . El producto
es entonces predominantemente negativo y el valor esperado correspondiente
es negativo. En este sentido, el signo de Cov(X; Y ) reeja la direccin de la

89

relacin entre X e Y . Tambin, la magnitud de Cov(X; Y ) puede ser usado


como indicador de la fuerza de la relacin entre X e Y .
Como la Cov(X; Y ) es una esperanza no necesariamente existe, sin embargo
se puede probar que si 2X < 1 y 2Y < 1, entonces existe Cov(X; Y ).

Algunas propiedades relacionadas con la Covarianza

2
X

1. Para cualesquiera v.a. X e Y tal que


Y ) = E(XY ) E(X)E(Y ).

< 1 y

2
X

< 1, Cov(X;

Demostracin:
Cov(X; Y )

= E[(X

X )(Y

= E[(XY

= E(XY )
= E(XY )

)]

X
X

+
Y

)]

6Y

E(X)E(Y )

Notar: Si X e Y son v.a. independientes con varianza nita, entonces


E(XY ) = E(X)E(Y ), y por tanto Cov(X; Y ) = 0.
2. Si X e Y son v.a. con varianza nita, entonces
V ar(X + Y ) = V ar(X) + V ar(Y ) + 2Cov(X; Y ).
Demostracin:
V ar(X + Y )

+ Y/ )]2 g

X)

+ (Y

2
Y/ )] g

2
X)

+ (Y

Y/ )

= Ef[(X + Y )
= Ef[(X
= E[(X

= V ar(X) + V ar(Y )
3. Cov(X; Y ) = Cov(Y; X)
4. Cov(X; X) = V ar(X)
5. Cov(aX; bY ) = abCov(X; Y )
3.8.3

2(X

X )(Y

Y/ )]

2Cov(X; Y )

El Coeciente de Correlacin

La correlacin o coeciente de correlacin, permite medir la asociacin lineal


entre dos variables aleatorias. La diferencia entre correlacin y covarianza, es
que el valor de Cov(X; Y ) depende de las unidades de medicin asociadas con
X e Y , en tanto que la correlacin no depende de stas unidades de medicin.

90

Denicin: Sean X e Y v.a. con varianza nita, 2X < 1 y 2Y < 1,


entonces el coeciente de correlacin entre X e Y est dado por:
Cov(X; Y )
Corr(X; Y ) = (X; Y ) =
,
donde

es la desviacin estndar de X y

es la desviacin estndar de

Y.
Teorema:

(X; Y )

1.

Comentarios:
Se dice que X e Y estn correlacionados positivamente si (X; Y ) > 0.
Se dice que X e Y estn correlacionados negativamente si (X; Y ) < 0.
Se dice que X e Y no estn correlacionados si (X; Y ) = 0.
Notar que Cov(X; Y ) y (X; Y ) deben tener el mismo signo.
El valor de (X; Y ) proporciona una medida del grado en que dos v.a. X e
Y estn linealmente relacionadas.
Si la distribucin conjunta de X e Y en el plano xy est relativamente
concentrada alrededor de una recta que tiene pendiente positiva, entonces (X;
Y ) generalmente estar cerca de 1.
Si est concentrada alrededor de una recta que tiene pendiente negativa,
entonces (X; Y ) generalmente estar cerca de 1.

Si X e Y son v.a. independientes, entonces (X; Y ) = 0, pero lo contrario


no necesariamente es cierto.
Ejemplo: Si X es una v.a. que puede tomar nicamente los tres valores
1, 0 y 1 y cada uno de stos tres valores tiene la misma probabilidad cuando
consideramos la v.a. Y = X 2 , es claro que X e Y no son independientes, pero
cumplen que:
E(XY ) = E(X 3 ) = E(X) = 0
) Cov(X; Y ) = E(XY )
)

E(X)E(Y ) = 0

(X; Y ) = 0

Nota:
mide la relacin lineal entre X e Y . Si t 1 t 1 ) la
relacin entre X e Y es muy fuerte, esto es, los valores estn ms cerca de una
lnea recta.

91

3.8.4

La matriz de covarianzas

Denicin: Sea (X; Y ) una variable aleatoria bidimensional tal que V ar(X) <
1 y V ar(Y ) < 1:La matriz de covarianzas de (X,Y)
E f[X E(X)] [X E(X)]g E f[X E(X)] [Y E(Y )]g
Cov(X; X) Cov(X; Y )
=
E f[Y E(Y )] [X E(X)]g E f[Y E(Y )] [Y E(Y )]g
Cov(Y; X) Cov(Y; Y )
V ar(X)
Cov(X; Y )
Cov(Y; X)
V ar(Y )
Notar: la matriz de covarianzas es una matriz simtrica
3.8.5

La Normal Bivariada

Sea (X; Y ) una variable bidimensional continua. Decimos que (X; Y ) tiene
distribucin normal bivariada si su funcin conjunta est dada por:
f (x; y) =

1
2

exp

1
2)

2(1

X
X

(x

X )(y
X

Y
Y

Donde
X es la media de la variable aleatoria X y X es su desviacin estndar
Y es la media de la variable aleatoria Y y Y es su desviacin estndar
es el coeciente de correlacin de X e Y
Se denota (X; Y ) s N (!; ), donde ! =

X
Y

V ar(X)
Cov(X; Y )
Cov(Y; X)
V ar(Y )

Tambin se cumple lo siguiente:


X s N(

X;

Y s N(

Si

2
X)
2
Y

= 0; entonces X e Y son independientes.

XjY = y s N

Y jX = x s N

X
Y

Y
X

(y

);

(x

X) ;

2
X (1

2
Y

(1

Descripcin de Datos Mediante Mtodos Grcos y Numricos

La estadstica es el lenguaje universal de la ciencia. Como usuarios potenciales


de la estadstica, es necesario dominar la "ciencia" y el "arte" de utilizar correctamente su metodologa. El empleo cuidadoso de los mtodos estadsticos
permite obtener informacin precisa de los datos. Estos mtodos incluyen:
1. Denir cuidadosamente la situacin.
2. Recolectar datos.
92

3. Resumir con precisin los datos. Y,


4. Obtener y comunicar las conclusiones importantes.
En el curso principalmente se hablar de 3 y un poco de 4.
La estadstica implica informacin, nmeros y grcas para resumir la informacin recolectada y para su interpretacin.
El terreno de la estadstica puede dividirse a grandes rasgos en dos reas: la
estadstica descriptiva y la estadstica inferencial.
La estadstica descriptiva es en lo que piensa la mayora de las personas
al escuchar l apalabra estadstica. La estadstica descriptiva incluye la
recoleccin, presentacin y descripcin de datos muestrales.
La estadstica inferencial se reere a la interpretacin de los valores
resultantes de las tcnicas descriptivasy a la toma de decisiones y
obtencin de conclusiones sobre la poblacin.
Def.: Estadstica es la ciencia de recolectar, describir e interpretar datos.
El uso de la estadstica es ilimitado. Es mucho ms difcil mencionatr un
campo en el que no se utilice la estadstica que uno en el que sta sea parte
integral.
Ejemplos de uso de la estadstica:
En educacin se utiliza a menudo la estadstica descriptiva para describir
los resultados de los exmenes.
En la ciencia es necesario recolectar y analizar los datos que se obtienen
de los experimentos.
En el gobierno siempre se recolectan muchos tipos de datos estadsticos,
para mostrar los avances o falta de avance en la economa del pas.
Una parte muy importante del proceso estadstico es la que corresponde al
estudio de los resultados estadsticos y al planteamiento de concluisones idneas.
Estas conclusiones deben comunicarse a otras personas. Nada se obtiene de la
investigacin a menos que los descubrimientos se compartan con la dems gente.
En todas partes se reportan estadsticas: peridicos, revistas, televisin. Leemos
y escuchamos sobre todo tipo de nuevos resultados de investigacin.

4.1

Introduccin a los trminos bsicos

Poblacin: Es la coleccin o conjunto de individuos, objetos o eventos cuyas


propiedades sern analizadas.
La poblacin es la coleccin completa de individuos u objetos de inters
para el recolector de la muestra. La idea ms importante en estadstica es el
concepto de poblacin. La poblacin de inters debe denirse cuidadosamente
y se considera que est completamente denida slo cuando se especica la lista
93

de elementos que pertenecen a ella. Un ejemplo de poblacin es el conjunto de


"todos los mexicanos que han asistido alguna vez a una universidad".
Hay dos tipos de poblaciones: nitas e innitas.
Ejemplo: Los libros de la biblioteca del campus constituyen una poblacin
nita; El conjunto de todos los de 40 watts que sern fabricados en el pas, es
una poblacin innita.
Es difcil estudiar grandes poblaciones por eso se acostumbra seleccionar una
muestra y estudiar los datos de sta.
Muestra: Es un subconjunto de la poblacin. Consta de los individuos,
objetos o medidas seleccionados de la poblacin de modo que representen adecuadamente a la poblacin.
Variable: Caracterstica de inters sobre cada elemento individual de una
poblacin o muestra.
Ejemplo: la edad de un estudiante que ingresa a la universidad, el color de
su cabello, su estatura y su peso son cuatro variables.
Dato: Valor de la variable asociada a un elemento de una poblacin o
muestra. Este valor puede ser un nmero, una palabra o un smbolo.
Por ejemplo, Juan Prez ingres a la universidad a la edad de "23" aos,
su cabello es "caf", mide "1.80" metros y pesa "83" kilogramos. Estas cuatro
piezas de datos son los valores de las cuatro variables aplicadas a Juan Prez.
Bsicamente hay dos clases de variables: 1) variables de las que se obtienen
datos cualitativos y 2) variables de las que se obtiene datos cuantitativos.
Variable cualitativa, de atributos o categrica: variable que clasica
o describe un elemento de la poblacin.
Ejemplo: Una muestra de clientes de un saln de belleza fue cuestionada
en cuanto al "color del cabello", "la colonia en la que viven" y el "nivel de
satisfaccin" respecto a los resultados del saln de belleza. Las tres variables son
ejemplo de variables cualitativas, ya que describe caractersticas de la persona.
Algunas operaciones aritmticas como promediar, no tienen sentido para
datos que resultan de una variable cualitativa.

94

También podría gustarte