Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introducción
1
2 CAPÍTULO 1. INTRODUCCIÓN
1.1. Motivación
En el siglo XVII, un tal Antoine Gombaud (Fig. 1.1) planteó el siguiente problema
a su amigo Blaise Pascal: ¿Conviene o no conviene apostar dinero a
que, si tiro un par de dados 24 veces, al menos en uno de esos 24 tiros
voy a obtener un doble 6? La apuesta consiste en poner una cierta
cantidad de plata sobre la mesa. Si pierdo, me quedo sin nada. Si
gano, me llevo mi plata multiplicada por dos. Los cálculos de Antoine
le decı́an que no convenı́a tomar tal apuesta. Sin embargo, la práctica
le decı́a que sı́ valı́a la pena. Blaise se entusiasmó con el problema, y
lo empezaron a discutir. Las deliberaciones los llevaron a plantear un
segundo desafı́o, que fue discutido en profundidad por Blaise Pascal
y Pierre de Fermat (Fig. 1.1), en un asiduo intercambio de cartas que
se considera un hito en la historia de la probabilidad, quizás dando
lugar a su primer formulación teórica. El problema decı́a lo siguiente.
Supongamos que dos contrincantes se enfrentan en un juego de azar,
que consta de un cierto número de rounds, por ejemplo 7, previamente
acordado. Cada round sale favorable a uno de los contendientes y
desfavorable al otro, y una vez jugados los 7 rounds, el que tiene más
victorias es proclamado ganador. El ganador se lleva toda la plata, y el
perdedor no se lleva nada. Pero ocurre un imprevisto, y el juego debe
interrumpirse antes de completar los 7 rounds, por ejemplo, al cuarto.
Figura 1.1. Antoine ¿Cómo deberı́amos distribuir la paga entre los dos contendientes, si
Gombaud (1607-1684), hasta ese momento, uno de ellos ganó n1 rounds y el otro n2 ?
Blaise Pascal (1623-
1662) y Pierre de
No fue esta la primera vez que se intentó desarrollar un formalis-
Fermat (1607-1665).
mo racional para encarar problemas con información incompleta, o
incierta. Mucho más antiguos son, por ejemplo, los intentos de establecer la inocencia o cul-
pabilidad de una persona en el ámbito criminalı́stico, juzgando su accionar en un contexto en
1.1. MOTIVACIÓN 3
el cual las consecuencias de sus actos eran inciertas, o al menos parcialmente inciertas. Si una
persona hace algo que no necesariamente produce un daño a otra, pero que, en combinación con
otros factores más o menos predecibles, sı́ puede producir un daño, ¿hasta qué punto es culpable
del perjuicio causado? Por muy interesantes que puedan ser estas disquisiciones, la formulación
cuantitativa de problemas con consecuencias en el bienestar de las personas es difı́cil, ya que
no existe una forma objetiva de evaluar los costos y beneficios de acciones que afectan recursos
tales como la dicha de las personas, su salud, sus afectos, estados de ánimo, o valores similares.
En cambio, los juegos de azar ofrecen un contexto en el cual tales costos y beneficios se pueden
evaluar cuantitativamente de una manera mucho más evidente. En primer lugar, los juegos de
azar se diseñan de tal manera de que los posibles resultados sean máximamente impredecibles.
No hay motivo para preferir la cara o la ceca, cuando tiramos una moneda. No hay motivo
para elegir un número en particular, cuando tiramos un dado. No hay motivo para preferir un
número en favor de otro, en la ruleta. Al menos, no si la moneda, el dado y la ruleta están “bien
diseñados”. En segundo lugar, la existencia de una paga hace que el problema se torne natural-
mente cuantitativo. En un problema legal, o religioso, podemos discutir interminablemente la
gravedad de las consecuencias de las posibles acciones a seguir en situaciones inciertas, pero
no existe una métrica intuitiva para tal “gravedad”, y no existe un criterio unánime para decidir
si tal problema de salud es más o menos grave que tal otro problema familiar. En un problema
que implique intercambio de dinero, en cambio, las emociones se tornan cifras: las ganancias o
pérdidas se reportan numéricamente.
Nociones básicas
9
10 CAPÍTULO 2. NOCIONES BÁSICAS
2.1. Motivación
El primer paso para operar con probabilidades es construir una escala con la cual medir
el grado de certeza con que creemos que una dada afirmación es verdadera. Ejemplos de tales
afirmaciones son
En un principio, podrı́amos pensar que estamos habilitades a utilizar la escala que se nos cante
para medir el grado de certeza de afirmaciones de este tipo. Sin embargo, si queremos que el
grado de certeza respete nociones básicas de consistencia lógica, la escala numérica tiene que
cumplir ciertos requerimientos, que englobaremos en lo que llamaremos la definición axiomáti-
ca de la probabilidad. Este capı́tulo introduce tal definición axiomática, y explora algunas de
sus consecuencias.
Para poder formular los criterios de consistencia lógica es necesario dotar al conjunto de
afirmaciones posibles de cierta estructura. Por ejemplo, trabajaremos con afirmaciones de tipo
aristotélica, es decir, afirmaciones que necesariamente son verdaderas o falsas, eliminando la
posibilidad de que tengan valores de verdad intermedio. En los ejemplos anteriores, esto signi-
fica que suponemos que
- Mañana el sol sale o no sale, pero no puede salir parcialmente. Estamos entonces descar-
tando la posibilidad de que estemos en el cı́rculo polar en el equinoccio.
2.2. ALGUNAS DEFINICIONES 11
- Los autos que pasan son blancos o no blancos. Estamos descartando la posibilidad de que
algunos autos sean blancuzcos, es decir, de un color intermedio entre blanco y no blanco.
- En la loterı́a sale el número 666 o no sale el 666. Es decir, la casa central de la loterı́a no
fue bombardeada en el momento del muestreo.
- Mi vecino dijo la verdad o mintió, sin posibilidad de haber transmitido una verdad a
medias.
Este tipo de condicionamientos, ası́ como la existencia de un conjunto universal que incluye
todas las cosas que pueden pasar, requieren que hagamos un breve repaso de nociones de lógica
y de teorı́a de conjuntos antes de seguir adelante.
- Meto la mano en una caja que contiene 10 pelotas blancas y 10 pelotas negras. Revuelvo
sin mirar, y saco una pelota. El resultado del experimento es el color de la pelota extraı́da.
- Tiro una moneda, y me fijo cuál cara queda expuesta. El resultado es cara o ceca.
- Mido cuántas veces pasa el colectivo número 20 por delante del CAB en una hora.
- M = {blanca, negra}.
- M = {cara, ceca}.
2.2. ALGUNAS DEFINICIONES 13
Comentario: Por ahora, supondremos que conocemos el espacio de muestreo. Sin embargo, en
algunos casos, ni siquiera se conoce cuál es el conjunto de valores que pueden ser obtenidos
como resultado de una medición. En esos casos, una opción es trabajar con un conjunto que con
certeza incluya el espacio de muestreo, dejando abierta la posibilidad de que algunos valores
nunca se observen. Tal es el caso de algunos de los ejemplos enumerados arriba: en algunos
casos, estamos incluyendo en el espacio de muestreo valores mucho mas grandes que los reali-
zables en cualquier experimento humano. Otra posibilidad es plantear un meta-problema, donde
la variable aleatoria es el espacio de muestreo del problema original (este caso se discutirá en el
capı́tulo 11).
hay varios conjuntos de resultados que pertenecen a E, las uniones arbitrarias entre ellos,
también pertenecen a E. Esta propiedad también puede enunciarse como: E es cerrado
respecto de la unión.
Comentario: Los espacios de eventos también suelen llamarse “σ-álgebras”, “campo de Borel”
o “espacios medibles”.
Comentario: Lo importante es que estos espacios tienen al conjunto total, al vacı́o, y a todas las
uniones e intersecciones que se puedan hacer con los elementos del conjunto.
Comentario: Dado un espacio de muestreo, el espacio de eventos más sencillo posible, contiene
únicamente al espacio total y al vacı́o.
Comentario: La intersección entre dos conjuntos da un tercer conjunto que contiene un número
de elementos que es necesariamente menor o igual a la suma de los cardinales de los dos origi-
nales. La unión entre dos conjuntos da un tercer conjunto que contiene un número de elementos
que es necesariamente mayor o igual a la suma de los cardinales de los dos originales. Interse-
cando achicamos, y uniendo agrandamos. Estas operaciones, por ende, jerarquizan el espacio
de eventos con la relación de inclusión. Técnicamente, decimos que la relación de inclusión
introduce un orden parcial en el espacio de eventos. Esta jerarquización es crucial para poder
definir una probabilidad (o más generalmente, una medida), como veremos en un momento.
Toda medida (y toda probabilidad) sobre un espacio de eventos debe respetar la jerarquı́a im-
puesta por la relación de inclusión: la medida (o la probabilidad) de los conjuntos más grandes
no puede ser menor a la de los conjuntos que están en su interior.
Definición: Dado un conjunto finito A, el power set de A es el conjunto cuyos elementos son
todos los subconjuntos que se pueden armar con elementos de A.
2.2. ALGUNAS DEFINICIONES 15
Ejemplo: El power set de A = {a, b, c} es Pow(A) = {∅, {a}, {b}, {c}, {a, b}, {b, c}, {c, a},
{a, b, c}}.
Comentario: Dado un espacio de muestreo finito, el espacio de eventos más grande que se puede
definir a partir de él es el power set del conjunto.
Definición: Dado un espacio de eventos E, sus átomos son todos los conjuntos A = {A ∈
E ∧ A 6= ∅/∀B ∈ E, A ∩ B = ∅ ∨ A ∩ B = A}. Es decir, son todos aquellos elementos de E
que, intersecados con cualquier otro elemento de E, dan vacı́o, o sı́ mismos. Son los elementos
de E que, sin ser vacı́os, son los más elementales.
Comentario: Si E es el power set de algún espacio de muestreo, entonces los átomos de E son
los conjuntos unitarios que contienen los elementos del espacio de muestreo. Pero si E no es el
power set del espacio de muestreo, entonces al menos un átomo contiene más de un elemento
del espacio de muestreo.
2.3. Probabilidad
1. ∀A ∈ E : P (A) ≥ 0.
2. P (M ) = 1.
Comentario: Las probabilidades se definen sobre un espacio de eventos, que contiene todas las
uniones que se pueden formar a partir de los átomos. Por ende, basta con definir las probabilida-
des sobre los átomos para que, a través de los axiomas, queden definidas sobre todo el espacio
de eventos. Sin embargo, es importante tener en claro que no siempre es posible definir las pro-
babilidades sobre los átomos. Tal es el caso, por ejemplo, cuando trabajamos con un espacio de
muestreo continuo, que contiene un número infinito no numerable de elementos (ver clase 4).
En tal caso, se definen las probabilidades sobre todos los eventos que no son atómicos (es decir,
sobre intervalos de extensión no nula). Hecho esto, la probabilidad de cada átomo (que para
distribuciones continuas necesariamente se anula) queda definida por un lı́mite: se interpreta al
átomo como el lı́mite de una sucesión de intersecciones, y se deduce su probabilidad usando los
axiomas.
2.3. PROBABILIDAD 17
Comentario: Una medida es una probabilidad que no necesariamente cumple el segundo reque-
rimiento, es decir, que no necesariamente está normalizada. Se pide también que el conjunto
vacı́o mida cero. Esta condición también se cumple con una probabilidad, pero no es necesario
escribirla como un requerimiento adicional, porque se puede deducir de las otras 3 condiciones.
El requerimiento de que el conjunto vacı́o mida cero se exige para evitar la divergencia de la
medida sobre la totalidad de los eventos.
Definición: Probabilidad condicionada. Para todo evento B con probabilidad no nula, se defi-
ne la probabilidad del evento A condicionada al evento B como P (A|B) = P (A ∩ B)/P (B).
Comentarios:
- Sabemos que la probabilidad P (A) crece a medida que agregamos más y más elementos
18 CAPÍTULO 2. NOCIONES BÁSICAS
en el conjunto A1 . Veamos qué sucede con P (A|B) a medida que vamos metiendo más
y más elementos en el conjunto A. Al ir aumentando el cardinal de A, el número de
elementos de A ∩ B no puede disminuir, ası́ que P (A|B) tampoco puede disminuir. Lo
interesante es darse cuenta de que es inútil agregar elementos en A si esos elementos
no pertenecen también a B. Es decir, los elementos del espacio de muestreo que, al ser
agregados en A pueden cambiar el valor de P (A|B) son aquellos que pertenecen a B.
El conjunto B es a P (A|B) lo que el conjunto M es a P (A). En otras palabras, para
aquellos eventos A ⊂ B, P (A|B) es igual a P (A), salvo por un reescaleo global P (B)
que asegura que cuando A = B, P (A) = 1. Cuando A no está incluido en B, la única
parte de A que importa, es aquella que también pertenece a B.
Comentario: Si alguno de los dos eventos A o B (o ambos) tiene probabilidad nula, entonces
los eventos son independientes. Si ambos tienen probabilidad no nula, entonces la condición
de independencia es equivalente a P (A|B) = P (A) y P (B|A) = P (B). Es decir, dos eventos
son independientes cuando (a) alguno de ellos no ocurre nunca, y también cuando (b) el con-
dicionamiento sobre uno de los eventos no altera la probabilidad del otro. Es importante que
esta idea quede clara, porque muchas son las aplicaciones en las que la naturaleza propia de un
suceso nos permite asegurar que dos eventos son independientes. Por ejemplo, si tiro un dado
dos veces, y si X1 y X2 representan los resultados del primer y segundo tiro, respectivamente,
tı́picamente diremos que P (X1 = a, X2 = b) = P (X1 = a) P (X2 = b). Esta propuesta presu-
1
¿cómo sabemos esto? Traten de deducirlo, a partir de los aximoas de probabilidad.
2.4. DISTINTOS MARCOS CONCEPTUALES 19
pone que los eventos X1 = a y X2 = b son independientes. ¿Qué hipótesis sobre el proceso de
tirado de dados están implı́citas en esta suposición? ¿Cambiarı́an las hipótesis si ahora X1 y X2
representan el número de resultados pares, y el número de resultados impares, que se obtuvieron
de los dos dados, respectivamente?
La definición que dimos de probabilidad no fija el valor de las probabilidades en una situación
particular. Cualquier función P : E → R que cumpla con los cuatro requerimientos listados,
es una probabilidad. Sin embargo, nuestra noción intuitiva de probabilidad es especı́fica: en un
contexto determinado, uno tiende a pensar que hay una única probabilidad. No cualquier fun-
ción que cumpla los requerimientos parece ser la probabilidad que entendemos intuitivamente.
El punto es que cualquier función que cumpla con la definición es una posible probabilidad, pe-
ro no necesariamente es la probabilidad que nos interesa. A continuación, discutimos entonces
posibles criterios que sirven para decidir si nos interesa o no trabajar con una dada noción de
probabilidad. Estos criterios siguen bastante de cerca las nociones que históricamente se fueron
utilizando para concebir la noción de probabilidad.
Criterio clásico: Los primeros cientı́ficos y/o filósofos que introdujeron la noción de probabili-
dad (Bernoulli2 y Laplace, que tenı́an pelucas tipo Bach y Mozart, respectivamente), lo hicieron
reduciendo el proceso bajo estudio a sub-procesos equiprobables. Se da por sentado que existe
un nivel suficientemente microscópico para que todos los eventos de ese nivel tengan opcio-
nes que son simétricas. Por ejemplo, si tiramos un dado, y postulamos que el dado es un cubo
perfecto y el proceso de tirado da el mismo trato a cada una de las 6 caras, por simetrı́a los
6 resultados posibles deben ser equiprobables. Esta serı́a la descripción a nivel microscópico.
Luego podemos preguntarnos probabilidades de eventos más grandes, por ejemplo, la probabi-
2
Ojo, cientı́ficos famosos de apellido Bernoulli hay muchos, y todos están emparentados; acá estamos hablando
de Don Jakob
20 CAPÍTULO 2. NOCIONES BÁSICAS
lidad de obtener un número par, o un número primo, o un número múltiplo de 3, etc. El criterio
clásico es elegante, en el sentido que exige que la simetrı́a del problema se refleje en la asig-
nación de probabilidades. La objeción natural, sin embargo, es que existen muchos procesos
que uno puede estar interesado en estudiar, cuya reducción a una descripción en términos de
variables microscópicas simétricas no es de ninguna manera evidente. La clase de procesos que
pueden ser abordados por este método es por ende limitada. Nótese que la determinación de si
una dada probabilidad cumple o no con el criterio clásico es enteramente teórica. Es uno quien
decide si las variables microscópicas tiene o no la simetrı́a adecuada. En el caso del ejemplo
del dado, está claro que ningún dado es por construcción un cubo perfecto. Nosotros podemos
imaginarlo perfecto, y en muchos casos, no nos estaremos apartando significativamente de la
realidad. Pero el criterio clásico no incluye una verificación de si el dado que tenemos delante
es perfecto o no. Se parte de una concepción teórica del proceso, en la cual se supone simetrı́a
perfecta, y a partir de esa suposición se construyen las probabilidades.
Criterio frecuentista: Este criterio surgió como postura empı́rica, opuesta a las abstracciones.
El objetivo fue poder definir probabilidades también en los casos en los que es difı́cil o im-
posible especificar las simetrı́as deseadas, pero el sistema es accesible experimentalmente. La
probabilidad que interesa a un frecuentista se define como el cociente entre el número de ve-
ces que muestreamos un dado evento (suponiendo que medimos muchas veces, en condiciones
idénticas, y muestreos independientes) y el número total de mediciones. Matemáticamente,
nA
∀A ∈ E, P (A) = lı́m , (2.1)
N →∞ N
- La definición supone que el lı́mite existe, cosa que no está garantizada. Uno bien puede
ponerse a hacer un experimento, y observar que los cocientes nA /N no convergen, cuan-
2.4. DISTINTOS MARCOS CONCEPTUALES 21
- La definición supone que los muestreos son independientes unos de otros. La idea in-
tuitiva es que el resultado de un muestreo no afecta el resultado de muestreos pasados o
futuros. Estrictamente, es imposible garantizar que este requerimiento se cumpla. Cuando
se toma una muestra, se altera el estado de un gran número de variables microscópicas.
Y si bien probablemente tales variables influyen mı́nimamente en la próxima medición,
la influencia existe. De hecho, la supuesta aleatoriedad del proceso de muestreo se ba-
sa muchas veces en el estado de las variables microscópicas. El hecho que nosotros no
sepamos describir la forma explı́cita en que las variables microscópicas (alteradas por la
primera medición) afectan el resultado de la segunda medición no significa que no exista
una relación causal entre ellas. La supuesta separación de las variables en microscópicas
y macroscópicas es en última instancia una idealización, un pasaje al lı́mite que sólo se
da en modelos matemáticos. Las variables microscópicas que determinan los valores de
muestreos sucesivos están correlacionadas, y por lo tanto, en última instancia, las varia-
bles macroscópicas (los resultados de las mediciones) están también correlacionadas. Más
grave aún, el requerimiento de ser independientes requiere de la noción de probabilidad.
Por ende, la definición frecuentista es circular, porque una de las premisas experimentales
hace referencia a la independencia, que a su vez, depende de las probabilidades que se
intenta medir.
22 CAPÍTULO 2. NOCIONES BÁSICAS
- La definición sólo es aplicable a eventos medibles. Uno muchas veces está interesado en
calcular la probabilidad de eventos que no se pueden medir, y que si se pudieran medir,
serı́an irrepetibles. Por ejemplo, la probabilidad de que un meteorito choque contra la
Tierra y la pulverice, la probabilidad de que al papa lo maten de un tiro en la cabeza, la
probabilidad de que mi marido me haya engañado con mi vecina la última vez que me
fui de viaje. En el marco de un modelo, estas probabilidades son ciertamente calculables,
pero no es posible hacer experimentos repetidos. Por ejemplo, uno puede partir de un mo-
delo donde se especifica la densidad y distribución de velocidades de los meteoritos que
viajan por el sistema solar, y calcular que uno suficientemente energético pegue contra la
Tierra y la pulverice. El experimento, en cambio, es complicado. En cuanto a los eventos
que implican un estudio del pasado, se refieren a un único evento.
probabilidades en la que los criterios clásico y frecuentista son casos particulares. En el marco
bayesiano, la probabilidad debe entenderse como el grado de certeza que tenemos acerca del
resultado de un dado experimento. En distintos contextos, el grado de certeza de cada resultado
varı́a. En un contexto podemos basar nuestras espectativas en criterios de simetrı́a, y usar el
criterio clásico. En otro contexto podemos desconfiar de formulaciones teóricas, y preferir basar
nuestra concepción del proceso en mediciones repetidas de un experimento. En este caso, en
vez de hacer suposiciones sobre el proceso en sı́, hacemos suposiciones sobre el proceso de
medición (suponemos independencia, estacionariedad, etc.). En otra situación podemos suponer
otra cosa.
La crı́tica obvia al criterio bayesiano es que es completamente subjetivo. Los criterios por
los cuales decidimos el grado de certeza que tenemos sobre el resultado de un experimento pa-
recen ser difı́cil de precisar. Utilizar el criterio Bayesiano implica tomarse el trabajo de justificar
ese grado de certeza. El criterio en sı́ no especifica cómo calcular la probabilidad en un deter-
minado contexto. El punto clave es que en el marco bayesiano, la subjetividad debe basarse en
un análisis racional del problema. Acá la palabra clave es “racional”. Es decir, el hecho de que
interpretemos la probabilidad como el grado de certeza con que esperamos obtener cada uno de
los resultados de una medición, no implica que estemos autorizades a esperar cualquier cosa.
Para poder calcular un grado de certeza, uno debe especificar el contexto en el cual basa sus
creencias. Si bien la probabilidad va a depender de dicho contexto, el criterio bayesiano exige
que el contexto sea racional. Por ejemplo, para calcular la probabilidad de que un meteorito
pulverice la Tierra, es necesario partir de alguna teorı́a fı́sica que especifique la densidad de
meteoritos viajando por el espacio y su distribución de velocidades y masas. Especificando un
modelo para la distribución de meteoritos se puede deducir la probabilidad de que la Tierra sea
destruida. El marco Bayesiano (al igual que el clásico) rescata el hecho de que las probabilida-
des asociadas a un fenómeno básico (los meteoritos) permiten calcular las probabilidades de un
fenómeno derivado (la Tierra destruida). La diferencia es que el criterio clásico está restringido
a situaciones en que el fenómeno básico exhiba cierta simetrı́a, para poder partir de probabilida-
des planas. El marco Bayesiano, al ser más amplio, se permite partir de cualquier distribución,
en tanto y en cuanto esa distribución represente el modelo mental sobre el cual se basan las
24 CAPÍTULO 2. NOCIONES BÁSICAS
basar sus creencias en el resultado de experimentos previos. Sea (X) una variable aleatoria
que se genera por un proceso que le bayesiane desconoce, obteniendo valores x ∈ AX =
{a1 , . . . , ak }. Le bayesiane muestrea esa variable N veces, observa la secuencia de valores
obtenidos, y con ellos define una secuencia de variables aleatorias qN = (q1N , . . . , qkN ) como
nN
i
qiN = ,
N
donde nN
i es el número de veces en las que la secuencia de N valores medidos contenı́a el re-
sultado ai . Para todo valor N ≥ 1, los (q1N , . . . , qkN ) valores obtenidos cumplen con los axiomas
de probabilidad. Podemos decir que es una buena estrategia que el abordaje bayesiano base en
estos numeritos sus expectativas sobre los resultados de experimentos futuros? En general, no,
sobre todo si N es chico. Sin embargo, más adelante veremos que si suponemos que
En aquellos casos en los que tomamos como válidas las hipótesis (a, b), la afirmación de
que Prob(q) tiende a concentrar toda su masa alrededor de p se denomina “Ley de los grandes
26 CAPÍTULO 2. NOCIONES BÁSICAS
números de Borel”. Hay diversas formulaciones de la ley de los grandes números, la de Borel es
sólo una de estas. Volveremos sobre estos temas más adelante. Cabe aclarar, sin embargo, que
las cosas se ponen más complicadas si k → +∞. En el caso de variables continuas, las leyes
de los grandes números (existen varias versiones) pueden o no ser válidas, dependiendo de la
forma de la distribución p(a). Las distribuciones con colas largas son problemáticas.
Comentario: Para ejemplificar los criterios clásico y frecuentista, ası́ como el marco bayesiano
(que puede incluir a los otros dos), volvamos a algunos de los ejemplos discutidos a lo largo de
la clase.
2.5. Ejercicios
1. Demuestre
a) Ā¯ = A.
b) A ∩ B = Ā ∪ B̄.
c) A ∪ B = Ā ∩ B̄.
2. Una bolsa contiene 4 cartas, una de cada palo. Se extraen 2 cartas al azar, y se observa el
palo de la primera carta, y el palo de la segunda. ¿Cuál es el espacio de muestreo si
¿Cómo se modifican las respuestas si ahora la observación no distingue qué palo corres-
ponde a qué carta?
Muestre que el conjunto {M, ∅, A, B} es un espacio de eventos, mientras que los conjun-
tos {M, ∅, A}, {M, A, B}, y {M, ∅, A, B, C} no lo son.
a) P (∅) = 0
b) P (A) = 1 − P (Ā)
c) 0 ≤ P (A) ≤ 1
d) Si A ⊂ B, entonces P (A) ≤ P (B).
e) P (A ∪ B) = P (A) + P (B) − P (A ∩ B)
f ) Si el alfabeto AX = {a1 , . . . , ar } contiene r elementos equiprobables, entonces ∀i,
P (ai ) = 1/r.
a) A ∩ B = ∅
b) A ⊂ B
c) B ⊂ A
12. Dos fábricas producen lamparitas. La fábrica 1 produce 1000 lamparitas, de las cuales
100 están falladas. La fábrica 2 produce 2000 lamparitas, de las cuales 150 están falladas.
Se juntan las 3000 lamparitas y se elige una al azar. Está fallada. ¿Cuál es la probabilidad
de que haya venido de la fábrica 1? Determine si estar fallada o no es independiente de
provenir de una u otra fábrica.
13. Se arroja un dado. Definimos el evento A = “el resultado es par” y el evento B = “el
resultado es menor que 3”. Determine si A y B son independientes. Repita el análisis
para el caso en que el evento B se redefine como “el resultado es menor o igual a 3”.
14. Sean A y B dos subconjuntos del alfabeto AX . Demuestre que si A y B son eventos
independientes, entonces también lo son A y B̄, Ā y B, Ā y B̄.