Está en la página 1de 23

Tema 5.

- Probabilidad

PROBABILIDAD

NOCIÓN DE MODELO PROBABILÍSTICO

Acabamos de constatar a través del estudio de la Estadística Descriptiva la presencia de


variabilidad en cualquier característica de interés de cada población que queramos estudiar: Hay
variabilidad en las características de calidad de cualquier producto fabricado en serie o de cualquier
servicio; en las características biológicas o fisiológicas de los seres humanos, animales o plantas; en
las características sociológicas; en los resultados de las competiciones deportivas; en la evolución
de los indicadores económicos; ... y en toda la naturaleza sin excepción.
Por estar sometidas a la presencia de variabilidad, a estas características de interés de las
poblaciones se las llama variables aleatorias.
En un sentido más amplio, una variable aleatoria es cualquier característica de interés de un
experimento del que no se puede predecir el resultado antes de su realización. Esto incluye, por
supuesto, a los juegos del azar cotidianos que, de hecho, constituyen históricamente el origen y
motivación del estudio científico de la variabilidad a través del Cálculo de Probabilidades como una
disciplina matemática.
En la literatura del Cálculo de Probabilidades, a estos experimentos cuyo resultado no se
puede predecir se les llama habitualmente experimentos aleatorios. El término “aleatorio”, igual
que su sinónimo “estocástico”, utilizado para calificar a dichos experimentos, hace referencia a la
intervención del azar en la determinación del resultado.
El azar o aleatoriedad no es ninguna fuerza oculta. En el ámbito de la producción de
artículos en serie, por ejemplo, sabemos que el azar no es más que el conjunto de causas comunes
(incluidos errores de medición), que no somos capaces de controlar: Pequeñas variaciones en la
materia prima, desajustes menores en las máquinas, caídas imperceptibles de la tensión eléctrica,
fatiga de los operarios, etc.
En otros ámbitos, incluidos los juegos del azar, ocurre exactamente lo mismo: La moneda
lanzada al aire no cae en CARA o CRUZ por designio de los dioses. Si fuéramos capaces de
arrojar la moneda exactamente en las mismas condiciones (altura, velocidad de rotación, ángulo,
velocidad, ...) debería salir siempre el mismo resultado. Pero no somos capaces de controlar esos
factores, que son las causas comunes en este “proceso de producción” particular.
La Estadística Descriptiva nos ha enseñado a explorar y describir la variabilidad,
mostrándonos además que variabilidad o aleatoriedad no significa caos. Hemos observado
patrones comunes a muchas situaciones que en principio no tenían nada en común. Estos patrones
de regularidad no se adivinan de las meras observaciones individuales. Se manifiestan estudiando
muestras de la población suficientemente representativas.
Los patrones de regularidad obedecen a la existencia de modelos matemáticos subyacentes
a las poblaciones y a las variables en estudio. Estos modelos se llaman indistintamente modelos de
probabilidad, modelos probabilísticos, modelos de distribución de probabilidades, distribuciones
de probabilidades, etc.
Cada variable aleatoria tiene un patrón de comportamiento aleatorio que es su distribución
de probabilidades y que puede tener más o menos cosas en común (o incluso coincidir) con otros
patrones de otras variables.

Aunque lo justificaremos más adelante, para fijar ideas conviene ir teniendo claro desde este
momento que, en la mayoría de los casos, la distribución de probabilidades o modelo probabilístico
de una variable aleatoria no es otra cosa que la distribución de frecuencias relativas hipotética que
1
Tema 5.- Probabilidad

se construiría si se midiera la variable a toda la población. Lo que ocurre es que esta medición
exhaustiva es imposible de realizar habitualmente. En un juego de azar, esta población sería el
conjunto de todas las posibles realizaciones pasadas, presentes y futuras de dicho juego.

Ejemplo: Los gráficos siguientes muestran diámetros interiores de arandelas fabricadas con el
propósito de que dichos diámetros midieran 1 cm. Inicialmente, se tomaron muestras de 20
arandelas.
Diámetros interiores de 20 arandelas Diámetros interiores de 20 arandelas Diámetros interiores de 20 arandelas

0.4 0.5 0.6

0.5
0.4
0.3
0.4
0.3
fr. 0.2 fr. fr. 0.3

0.2
0.2
0.1
0.1
0.1

0 0 0

97 98 99 100 101 102 103 97 98 99 100 101 102 103 97 98 99 100 101 102 103
(X 0.01) (X 0.01) (X 0.01)

Los gráficos siguientes corresponden al mismo proceso de producción, pero con muestras
de tamaño 100.

Diámetros interiores de 100 arandelas Diámetros interiores de 100 arandelas Diámetros interiores de 100 arandelas

0.2 0.2 0.2

0.16 0.16 0.16

0.12 0.12 0.12


fr. fr. fr.

0.08 0.08 0.08

0.04 0.04 0.04

0 0 0

97 98 99 100 101 102 103 97 98 99 100 101 102 103 97 98 99 100 101 102 103
(X 0.01) (X 0.01) (X 0.01)

Análogamente, con muestras de tamaño 1000, se obtuvieron los resultados que se muestran.
En el gráfico se añade un curva que podríamos decir que representa la pauta general o modelo de
comportamiento aleatorio del proceso de fabricación.
Diámetros interiores de 1000 arandelas Diametros interiores de 1000 arandelas
Diámetros interiores de 1000 arandelas

0.12 0.12
0.1

0.1 0.1
0.08
0.08 0.08
0.06
fr. 0.06 fr.
0.06 fr.

0.04
0.04 0.04

0.02 0.02 0.02

0 0 0

96 98 100 102 104 96 98 100 102 104 96 98 100 102 104


(X 0.01) (X 0.01) (X 0.01)

2
Tema 5.- Probabilidad

Ejemplo: Los gráficos siguientes muestran las duraciones de muestras de lámparas fabricadas en
serie. Las muestras son de tamaño 50.
Duraciones de 50 lamparas (horas) Duraciones de 50 lamparas Duraciones de 50 lamparas (horas)
(horas)
0.4 0.3 0.4

0.25
0.3 0.3
0.2

fr. fr. fr.


0.2 0.15 0.2

0.1
0.1 0.1
0.05

0 0 0

0 1 2 3 4 5 0 1 2 3 4 5 0 1 2 3 4 5
(X 1000) (X 1000) (X 1000)

Los gráficos siguientes corresponden al mismo proceso de producción de lámparas, pero


con muestras de tamaño 500. De nuevo, parece adivinarse ya una tendencia o modelo que
representamos por una curva.

Duraciones de 500 lamparas Duraciones de 500 lamparas (horas)


Duraciones de 500 lamparas (horas)

0.24 0.24 0.25

0.2 0.2
0.2
0.16 0.16
0.15
fr. fr. fr.
0.12 0.12

0.1
0.08 0.08

0.04 0.04 0.05

0 0 0

0 1 2 3 4 5 6 0 1 2 3 4 5 6 0 1 2 3 4 5 6
(X 1000) (X 1000) (X 1000)

Ejemplo: En cierto proceso de fabricación de artículos, éstos son catalogados como Defectuosos o
Aceptables. Si se extraen muestras de artículos, es imposible predecir el numero de artículos que se
van a obtener de cada tipo, pero para muestras grandes y representativas se va perfilando una tasa
de defectos parecida para todas las muestras. Los gráficos siguientes muestran los resultados de
tres muestras de 20 artículos.
Muestra de 20 artículos Muestra de 20 artículos Muestra de 20 artículos

18 18 18

15 15 15

12 12 12

9 9 9

6 6 6

3 3 3

0 0 0

Aceptable Defectuoso Aceptable Defectuoso Aceptable Defectuoso

En el mismo proceso de fabricación, se tomaron tres muestras de 200 artículos cuyos


resultados se representan a continuación.

3
Tema 5.- Probabilidad

Muestra de 200 artículos Muestra de 200 artículos Muestra de 200 artículos

200 200 200

160 160 160

120 120 120

80 80 80

40 40 40

0 0 0

Aceptable Defectuoso Aceptable Defectuoso Aceptable Defectuoso

Ejemplo: En un sondeo de opinión, se quiere obtener información para realizar una estimación de
la proporción de votantes de cada partido en las próximas elecciones. Se supone que existe un
abanico de 5 partidos mayoritarios que denotamos por A, B, C, D y E. El gráfico muestra los
resultados de tres sondeos de opinión sobre la intención de voto con muestras de tamaño 100
extraídas de una población.
Intención de voto
muestra de 100 personas Intencion de voto Intención de voto
muestra de 100 personas muestra de 100 personas

40
40 50

30 40
30

30
20
20
20

10 10
10

0 0 0

A B C D E A B C D E A B C D E

En el mismo estudio, se representan a continuación los resultados del sondeo de opinión en tres
muestras de tamaño 1000. Nótese que a pesar de que el modelo general de comportamiento se va
perfilando, aún persiste la incertidumbre sobre el partido ganador. Será necesario extraer aún más
información (muestras más grandes) para poder aventurar un pronóstico.

Intención de voto Intención de voto Intención de voto


Muestra de 1000 personas muestra de 1000 personas Muestra de 1000 personas

400 400 400

300 300 300

200 200 200

100 100 100

0 0 0

A B C D E A B C D E A B C D E

4
Tema 5.- Probabilidad

El denominador común de todos los ejemplos anteriores es la aparición de pautas de


comportamiento globales para el experimento o población del que se extrae la muestra. Estas pautas
comienzan siendo vagas tendencias para muestras pequeñas y acaban perfilándose como modelos
más concretos a medida que aumenta la muestra y, por tanto, la información sobre el experimento o
la población. Si el proceso de recogida de información muestral se pudiera prolongar
indefinidamente, el modelo acabaría completamente especificado. El estudio de la Estadística nos
permitirá encontrar la explicación de estos hechos empíricos.

Abundando en la misma idea, lo que no ocurre nunca es que muestras representativas de un


experimento o población arrojen resultados tan dispares como los mostrados en los gráficos
siguientes.

Longitudes de 100 piezas Longitudes de 100 piezas Longitudes de 100 piezas

0.8 0.24 0.15

0.2
0.12
0.6
0.16
0.09
fr. 0.4 fr. 0.12 fr.

0.06
0.08
0.2
0.03
0.04

0 0 0

296 298 300 302 304 296 298 300 302 304 296 298 300 302 304
(X 0.01) (X 0.01) (X 0.01)

Si así ocurriera, habría que cuestionar con toda seguridad la representatividad de las
muestras obtenidas.

También es empíricamente constatable que se pueden observar las mismas pautas de


comportamiento para problemas o experimentos diferentes. Esto simplifica mucho las cosas, pues
con muy pocos modelos seremos capaces de explicar el comportamiento de muchos experimentos o
variables aleatorias.

Ejemplo: Los gráficos siguientes muestran datos procedentes de dos problemas tan dispares como
el estudio de diámetros de cojinetes y la longitud de fémur en fetos. A pesar de la dispar naturaleza
de ambos problemas, parecen presentar pautas de comportamiento comunes.

Diametros de cojinetes Longitudes de fémur en fetos de cierta edad.


muestra de 1000 unidades muestra de 1000 fetos

0.12 0.12

0.1 0.1

0.08 0.08

0.06 frec.0.06

0.04 0.04

0.02 0.02

0 0

4.97 4.99 5.01 5.03 5.05 7.5 8.5 9.5 10.5 11.5 12.5 13.5

5
Tema 5.- Probabilidad

Ejemplo: Los gráficos siguientes muestran datos de tiempos entre averías de máquinas y de
distancias entre defectos de aislamiento en cables eléctricos. Como en el ejemplo anterior, ambos
problemas parecen obedecer a modelos análogos.

Tiempo entre averías de máquinas (días) Distancia entre defectos aislamiento en cables
muestra de 1000 averías eléctricos (metros). n=1000.

0.4 0.24

0.2
0.3
0.16

frec.0.2 frec.0.12

0.08
0.1
0.04

0 0

0 20 40 60 80 100 0 100 200 300 400

Esta persistencia de pautas de comportamiento de un experimento a largo plazo y las


analogías de comportamiento entre experimentos diferentes sugiere la existencia de modelos
matemáticos que explican dichas pautas.

Igual que la Estadística Descriptiva, al construir una distribución de frecuencias, mira al


pasado para indicarnos, entre otras cosas, la importancia de los distintos valores (o intervalos de
valores si la variable es continua) desde el punto de vista de su aparición en las observaciones
realizadas para confeccionar la muestra, podríamos decir que el Cálculo de Probabilidades mira al
futuro a través de los modelos probabilísticos y nos indica, mediante números comprendidos entre
0 y 1, las oportunidades relativas que tienen de salir observados los distintos valores (o intervalos de
valores si la variable es continua) de la variable en futuras observaciones.

El Cálculo de Probabilidades es la parte de la Estadística que se ocupa de:

1. Crear el marco matemático para estudiar los modelos probabilísticos.


2. Estudiar la reglas por las que se rigen estos modelos.
3. Proponer modelos a los que se puede asimilar, con mayor o menor grado de abstracción, las
situaciones reales de interés.

EXPERIMENTO ALEATORIO. VARIABLE ALEATORIA.


TERMINOLOGÍA.
Experimento aleatorio: Se denomina genéricamente como experimento aleatorio a cualquier
experimento cuyo resultado es imposible conocer antes de la realización del experimento.

Variable aleatoria: Cualquier característica de interés de un experimento aleatorio. En la literatura


del Cálculo de Probabilidades, se suele reservar el término de variables aleatorias para aquellas
características con valores numéricos, o bien el de vectores aleatorios cuando se observan
simultáneamente varias características numéricas. En este breve curso de Cálculo de Probabilidades,
consideramos innecesaria esta distinción y hablaremos de variables aleatorias y vectores aleatorios
6
Tema 5.- Probabilidad

aunque no tomen resultados numéricos. Lógicamente, si una variable aleatoria se puede medir en
una escala de intervalo utilizando números reales, estaremos en condiciones de aprovechar las
ventajas que ofrece la recta real por encima de cualquier otro espacio: Estructura geométrica,
algebraica (operaciones), topológica y de orden. Cuando sólo estemos analizando una característica
o variable de un experimento aleatorio, identificaremos el experimento aleatorio con la variable
aleatoria y nos referiremos indistintamente a cualquiera de ellos.

Ejemplos de experimentos (y de variables) aleatorios:


- Juegos del azar cotidianos: Loterías, quinielas, ruletas, ...
- Procesos de producción: Longitudes de piezas, duraciones de máquinas, número de defectos en
lotes de artículos, ...
- Problemas biomédicos: Aplicación de un tratamiento a un paciente para estudiar su evolución
post-tratamiento, medida de constantes vitales, ...
- Problemas macroeconómicos: Evolución de la tasa de desempleo, del I.P.C., del déficit público, ...
- Problemas microeconómicos: Demanda de un artículo en un establecimiento, número de clientes,
volumen de ventas de un comercio, ...
- Problemas sociológicos: Elegir un individuo de una población para estudiar su intención de voto,
edad, sexo, nivel de estudios,...

Espacio muestral: Se denomina espacio muestral y se denotará en adelante por E al conjunto de


posibles resultados de un experimento aleatorio.
Este conjunto tiene que estar definido sin ambigüedad en cada experimento aleatorio que
queramos estudiar.

Ejemplos:
Lanzamiento de una moneda: E={C,X}.
Sorteo del cupón de la O.N.C.E.: E={00000, 00001,...., 99998, 99999}.
Tomar N artículos y contar los Defectuosos: E={0, 1, ..., N}.
Contar las llamadas telefónicas que se producen en un día en una central: E={0, 1, ...}.
Medir la duración de una lámpara: E=[0,∞)
Medir la longitud de piezas: E=(a cm, b cm)

Sucesos: Se denomina suceso a cualquier posible resultado, no necesariamente unipuntual, de un


experimento aleatorio.

Ejemplos:
- {Obtener C} en el lanzamiento de una moneda.
- {Obtener un número múltiplo de 10} en el sorteo de la O.N.C.E.
- {Obtener más de 3 artículos defectuosos} en una muestra de 100 artículos
- {Duración menor de 100 horas} en el funcionamiento de una lámpara.
- {Obtener una pieza de longitud menor que 3 cm} en un proceso de fabricación
- {Obtener un individuo de más de 35 años que no fume} en un estudio sociológico.

Sucesos elementales: Se llaman sucesos elementales los que son representables por conjuntos
unipuntuales.
Sucesos compuestos: Se llaman sucesos compuestos aquéllos formados por más de un punto del
espacio muestral.
Suceso Imposible: Se denota por ∅ (conjunto vacío) y representa a un suceso que nunca puede
ocurrir.

7
Tema 5.- Probabilidad

Suceso seguro: Es otra forma de denominar al propio espacio muestral, E, que siempre ocurre.
Sucesos incompatibles: Se denomina sucesos incompatibles a aquéllos que no se pueden dar
simultáneamente y que se representan mediante conjuntos disjuntos. A∩B=∅.

Suceso compuesto
Suceso elemental

* * ** ** ** ** *

E
B
A
Sucesos incompatibles

La expresión de los sucesos en términos conjuntistas nos permite realizar representaciones sencillas
mediante diagramas de Venn, así como utilizar las operaciones habituales entre conjuntos:
A∩B significa que se dan simultáneamente A y B.
A∪ B significa que se da al menos uno de los dos sucesos A o B.
A (Complementario de A) significa que no ocurre A.

A
E A

E A A∩B B

A∪B

8
Tema 5.- Probabilidad

Tipos de experimentos aleatorios: Atendiendo al cardinal del espacio muestral, distinguiremos dos
tipos de experimentos:
• Experimentos discretos: Son aquéllos cuyo espacio muestral consta de un número finito o
infinito numerable de sucesos elementales. Nótese que este caso incluye tanto a las variables
cualitativas o atributos (variables categóricas) como a las variables numéricas discretas. Todas
ellas se tratan de la misma forma desde el punto de vista del Cálculo de Probabilidades.
Ejemplos:
Lanzamiento de una moneda: E={C,X}.
Sorteo del cupón de la O.N.C.E.: E={00000, 00001,...., 99998, 99999}.
Tomar N artículos en una cadena de fabricación y contar los Defectuosos: E={0, 1, ..., N}.
Contar las llamadas telefónicas que se producen en un día en una central: E={0, 1, ...}.

• Experimentos no discretos: Son aquéllos cuyo espacio muestral consiste en una infinidad no
numerable de puntos. Los únicos experimentos no discretos que nos interesan son experimentos
con valores en intervalos de la recta real (variables aleatorias continuas) o, en general, conjuntos
con “volumen” de espacios euclídeos (ℜn) (vectores aleatorios continuos), que se caracterizan
por la continuidad entre los posibles resultados. De este modo, en este curso los experimentos
aleatorios no discretos son aquéllos en los que se observan variables continuas.
Ejemplos:
Medir la duración de una lámpara: E=[0,∞)
Medir la longitud de piezas: E=(a cm, b cm).

PROBABILIDAD
Asociada de una manera natural a la idea de experimento aleatorio, está la idea de
probabilidad como medida de la incertidumbre previa sobre la ocurrencia de los distintos sucesos de
un experimento aleatorio. En el lenguaje coloquial, se utiliza habitualmente el término probabilidad
para designar las oportunidades relativas de unos sucesos respecto a otros, a la hora de ocurrir,
cuando realizamos un experimento aleatorio. Pero estas nociones intuitivas requieren una
formalización matemática para poder trabajar formalmente con ellas.
Vamos a tratar de medir las “posibilidades” que tiene de ocurrir cada suceso mediante
números comprendidos entre 0 y 1. Estos números deberán someterse a unas reglas mínimas que
garanticen la coherencia de los números asignados con las relaciones conjuntistas entre los distintos
sucesos.
Con un carácter un poco más formal, podemos dar la siguiente definición:

Definición: Una probabilidad sobre un experimento aleatorio es cualquier asignación de números


a los sucesos de dicho experimento, satisfaciendo las siguientes condiciones:
Regla 1.- A cualquier suceso A se le asigna un número P(A)≥ ≥0.
Regla 2.- La probabilidad del suceso seguro es P(E)=1.
Regla 3.- La probabilidad es aditiva, es decir si unimos sucesos disjuntos se acumula
aditivamente su probabilidad. Más matemáticamente, si tenemos una colección de sucesos A1, ...,
An, ... disjuntos dos a dos, entonces se tiene :
 ∞  ∞
P U An  = ∑ P( An ).
 n =1  n =1

9
Tema 5.- Probabilidad

Evidentemente, existen infinidad de formas de realizar una asignación de probabilidades a


los sucesos de un experimento aleatorio satisfaciendo las condiciones anteriores. Por ejemplo, para
el lanzamiento de una moneda, cualquier pareja de números positivos p, 1-p, origina una
probabilidad sobre el experimento.
De todas estas posibilidades, sólo una será válida en sentido estricto, pero quizás muchas de
ellas sean una buena aproximación para diferentes propósitos. En el caso recientemente citado del
lanzamiento de una moneda, si se trata de una moneda físicamente perfecta, es evidente que el
modelo real debería de ser el p = 1-p = 1/2.
La determinación de la asignación de probabilidades correcta para un experimento aleatorio,
es decir, del modelo probabilístico por el que se gobierna, no será competencia del Cálculo de
Probabilidades, sino más bien de la parte la Estadística denominada Estadística Inferencial
(asignatura de Segundo Curso).
En Cálculo de Probabilidades se trabaja suponiendo que se conoce el modelo probabilístico
de un experimento, y los problemas que se resuelven son, básicamente, de probabilizar sucesos más
o menos complicados a partir de otros sucesos más sencillos.

El modelo probabilístico asociado a cada experimento aleatorio, es decir, la asignación de


probabilidades a los distintos sucesos de dicho experimento, se obtendrá conjugando tres
ingredientes:
a) Consideraciones matemáticas (o físicas) sobre la naturaleza de las variables o experimentos.
b) Información empírica sobre el experimento o variable: Observaciones realizadas sobre
muestras representativas de la población.
c) Aporte subjetivo del experimentador

El apartado b) es siempre el más importante y muchas veces el único que interviene. Cuando
los modelos probabilísticos son concebidos a través de la información empírica como límite de
distribuciones de frecuencias, se habla de concepción frecuentista de la probabilidad.

MODELOS CONCEBIDOS SÓLO A PARTIR DE CONSIDERACIONES MATEMÁTICAS

Ejemplo 1. Si un bombo contiene 100 bolas numeradas de 00 a 99, todas físicamente idénticas,
cuando se accione de manera “imparcial” el mecanismo de giro y se extraiga una bola tendremos
una variable aleatoria que no puede tener otro modelo probabilístico que el que asigna igual
probabilidad a todos los resultados, es decir 1/100 para cada número de 00 a 99. Este experimento
es un ejemplo de lo que se conoce como modelo uniforme discreto, y la asignación de
probabilidades obedece a lo que habitualmente se llama probabilidad clásica, donde la única
dificultad para probabilizar los sucesos reside en saber contar el número de puntos que los forman.
A continuación formalizaremos un poco más detalladamente estos modelos.

Ejemplo 2. Cuando una variable es consecuencia de muchas causas independientes que actúan
de manera aditiva, el modelo para esta variable es la distribución normal. Esto se prueba
matemáticamente a partir del llamado Teorema Central del Límite. Más adelante estudiaremos este
modelo.

Ejemplo 3. Si un dispositivo funciona sin desgaste, el tiempo que transcurre entre averías
sucesivas es una variable aleatoria que sigue necesariamente la llamada distribución exponencial.
Esta distribución de probabilidades será uno de los modelos que estudiaremos en la última parte de
la asignatura.

10
Tema 5.- Probabilidad

No obstante, es muy difícil asegurar que las bolas son físicamente idénticas (Ejemplo 1), que
las causas son aditivas e independientes (Ejemplo 2) o que el dispositivo funciona sin desgaste
(Ejemplo 3). Necesitaremos validar estas hipótesis a través de información empírica (concepción
frecuentista) para evitarnos sorpresas desagradables. Sería absurdo aferrarse a un modelo teórico
que no concuerde con los resultados experimentales.

PROBABILIDAD CLÁSICA

La idea originaria de la probabilidad surgió en el contexto de los juegos del azar cotidianos
(ruletas, dados, loterías, ...), donde los experimentos suelen ser discretos, con un número finito, n,
de posibles resultados o sucesos elementales, todos ellos con la mismas oportunidades de ocurrir.
En este contexto, no parece existir otra asignación razonable de probabilidades a los sucesos
que la derivada de establecer la razón entre los puntos favorables a cada suceso y el número total de
puntos muestrales. Esta es la conocida Regla de Laplace:

Casos favorables
P ( A) = .
Casos posibles

Es inmediato comprobar que esta asignación de números a los sucesos satisface las reglas 1,
2 y 3 de la Probabilidad.
Lógicamente, la concepción clásica de la probabilidad tiene un campo de aplicación muy
restringido y necesitamos otras ideas para probabilizar experimentos donde no se pueda aplicar la
Regla de Laplace.

CONCEPCIÓN FRECUENTISTA DE LA PROBABILIDAD

¿Cómo medir la probabilidad o posibilidades de ocurrencia de cualquier suceso A (por


ejemplo, un valor concreto de una variable aleatoria o un grupo de valores o intervalo de valores,...)
al realizar un experimento aleatorio?

La concepción frecuentista se puede resumir a través del siguiente procedimiento:

• Observamos la variable aleatoria en repetidas ocasiones, en idénticas condiciones y con


independencia, un número grande de veces.
• En cada observación anotamos si ocurre o no ocurre el valor A.
• Tras cada observación, por ejemplo la número n, calculamos la frecuencia relativa de A en la
muestra obtenida hasta el momento:

n ( A) No. de veces que ha ocurrido A


f n ( A) = =
n No. total de observaciones

• Representamos fn(A) frente a n.


• Hacemos tender n a infinito (más y más observaciones).
• Comprobamos que las frecuencias relativas se estabilizan (convergen) en torno a un valor
numérico característico del suceso A. Este límite se adopta, como no podría ser de otra manera,
como probabilidad de ocurrencia del valor A, que medirá nuestra incertidumbre sobre su posible
aparición en experiencias futuras.

11
Tema 5.- Probabilidad

n ( A)
f n ( A) = n
→ P ( A)
→∞
n

Este fenómeno no sólo se puede constatar empíricamente, sino también demostrar


matemáticamente, como veremos en su momento.
Es inmediato comprobar que para cada n, las frecuencias relativas satisfacen las tres reglas
de la Probabilidad (toman valores entre 0 y 1 y son aditivas), las cuales se mantienen además por
pasos al límite, con lo que tendríamos que una asignación de probabilidades concebida de esta
manera también cumpliría las reglas de asignación de probabilidades.

Ejemplo: Probabilización del suceso “clavo”(la chincheta cae con el pincho hacia arriba) al
arrojar una chincheta con un cubilete sobre una superficie plana.

Probabilización frecuentista del suceso "clavo" al arrojar una chincheta


1
0,9
frecuencia relativa

0,8
0,7
0,6
0,5
0,4
0,3
0,2
0,1
0
0 200 400 600 800 1000
Número de Lanzamiento

Observamos la estabilización de las frecuencias en torno a un valor aproximadamente 0.43,


que puede ser usado como una medida de las posibilidades de ocurrir el suceso {clavo} en
lanzamientos futuros.

PROBABILIDAD SUBJETIVA

Existen numerosos experimentos aleatorios que, además de no permitir la aplicación de la


Regla de Laplace, tampoco son susceptibles de ser repetidos indefinidamente para aplicar las ideas
frecuentistas. En estos casos, el experimentador propone, en base a su experiencia en situaciones
parecidas, su impresión sobre determinados factores colaterales, sus propias manías, etc. un modelo
de probabilidad concebido de una manera bastante subjetiva, como su nombre indica.
A modo de ejemplo, supongamos que una empresa multinacional está eligiendo una ciudad
de Castilla y León para implantar una factoría y se quiere pronosticar el resultado de la elección.
Otro ejemplo podría ser el intento de modelar probabilísticamente la ocurrencia de un accidente
grave en una central nuclear, etc.

12
Tema 5.- Probabilidad

REGLAS BÁSICAS DEL CÁLCULO DE


PROBABILIDADES

REGLAS DE LA ADICIÓN

A partir de las tres reglas iniciales de la probabilidad, surgen una serie de resultados útiles
para probabilizar sucesos que se puedan expresar como uniones de otros sucesos más sencillos.
Estas reglas se denominan genéricamente reglas de la adición de probabilidades.

Probabilidad del complementario: Para cualquier suceso A de un espacio muestral asociado a un


experimento aleatorio, se tiene:
P ( A) = 1 − P( A) .

En particular, el suceso imposible, como complementario del suceso seguro, cumplirá:

P(∅) = 0 .

Relación de inclusión: Si A y B son sucesos cualesquiera de un espacio muestral asociado a un


experimento aleatorio satisfaciendo A⊆B, entonces se tiene:

P ( A) ≤ P ( B ), P ( B − A) = P ( B ∩ A) = P ( B ) − P ( A).

Probabilidad de la unión de dos sucesos: Si A y B son sucesos cualesquiera de un espacio


muestral asociado a un experimento aleatorio, entonces se tiene:

P ( A ∪ B) = P ( A) + P ( B) − P ( A ∩ B) .

Si además A y B son sucesos incompatibles, se tiene:


P ( A ∪ B) = P ( A ) + P ( B ) .

Probabilidad de la unión de tres sucesos: Si A, B y C son sucesos cualesquiera de un espacio


muestral asociado a un experimento aleatorio, entonces se tiene:

P ( A ∪ B ∪ C ) = P ( A) + P ( B ) + P ( C ) − P ( A ∩ B) − P ( A ∩ C ) − P ( B ∩ C ) + P ( A ∩ B ∩ C ) ,

que si son sucesos disjuntos dos a dos se convierte en


P ( A ∪ B ∪ C ) = P( A ) + P( B ) + P ( C )

Probabilidad de la unión de n sucesos: En general, si A1, ..., An son sucesos cualesquiera de un


espacio muestral asociado a un experimento aleatorio, se tiene

n n n
P( A1 ∪... ∪ An ) = ∑ P( Ai ) − ∑ P( Ai ∩ A j ) + ∑ P( Ai ∩ A j ∩ Ak )−... + ( −1)n −1 P( A1 ∩... ∩ An ) ,
i =1 i< j i< j <k

13
Tema 5.- Probabilidad

que si son sucesos disjuntos dos a dos se convierte en


n
P( A1 ∪... ∪ An ) = ∑ P( Ai ) ,
i =1
pero en el caso general se tiene la desigualdad
n
P( A1 ∪ ... ∪ An ) ≤ ∑ P ( Ai ) .
i =1

Como aplicación de las reglas anteriores, una posible estrategia para probabilizar un
suceso de un espacio muestral asociado a un experimento aleatorio puede ser la de expresarlo
como unión de otros sucesos más sencillos, a ser posible disjuntos, y aplicar alguna de las reglas
de la adición.

Ejemplo: Las piezas producidas por una planta industrial pueden tener tres tipos de defectos: A, B
y C. Se estima que un 10% de las piezas producidas presentan el defecto A; un 8% el B; un 5% el
C; un 2% A y B; un 0.5% A y C; un 1% B y C; y un 0.2% presentan los tres defectos. Se elige al
azar una pieza. Calcular:
a) Probabilidad de que no tenga ningún defecto.
b) Probabilidad de que tenga a lo sumo un defecto.
c) Probabilidad de que tenga exactamente dos defectos.
Solución: La situación planteada se refleja en el siguiente diagrama de Venn.

A B

A∩B∩C A∩B∩C
A∩B∩C
E
A∩B∩C
A∩B∩C
C
A∩B∩C
A∩B∩C A∩B∩C

Los datos que se dan en el enunciado del problema son:


P(A)=0.1, P(B)=0.08, P(C)=0.05
P(A∩B)=0.02, P(A∩C)=0.005, P(B∩C)=0.01
P(A∩B∩C)=0.002
Aplicando las reglas de la adición, podemos probabilizar cada una de las ocho zonas
disjuntas que se muestran en el gráfico y que son intersecciones de tres de los sucesos A, B, C o sus
complementarios. Las probabilidades de estos sucesos son:

P( A ∩ B ∩ C ) = 0.002,
P( A ∩ B ∩ C ) = 0.008, P( A ∩ B ∩ C ) = 0.003, P( A ∩ B ∩ C ) = 0.018
14
Tema 5.- Probabilidad

P( A ∩ B ∩ C ) = 0.037, P( A ∩ B ∩ C ) = 0.077, P( A ∩ B ∩ C ) = 0.052


P( A ∩ B ∩ C ) = 0.803

A partir de aquí, cualquier suceso del espacio se probabiliza usando la Regla 3 (aditividad)
de la probabilidad:

a) P ( A ∩ B ∩ C ) = 0.803.

b) ( )
P ( A ∩ B ∩ C) ∪ ( A ∩ B ∩ C ) ∪ ( A ∩ B ∩ C) ∪ ( A ∩ B ∩ C) =
= 0.077 + 0.052 + 0.037 + 0.803 = 0.969.

( )
c) P ( A ∩ B ∩ C ) ∪ ( A ∩ B ∩ C ) ∪ ( A ∩ B ∩ C ) = 0.008 + 0.003 + 0.018 = 0.029

REGLAS DE LA MULTIPLICACIÓN. PROBABILIDAD


CONDICIONADA E INDEPENDENCIA.

Con el nombre genérico de reglas de la multiplicación vamos a denotar una serie de


expresiones encaminadas a ayudarnos a probabilizar sucesos que son intersecciones de otros
sucesos más fácilmente probabilizables. Antes de ello, necesitamos introducir las nociones de
probabilidad condicionada e independencia de sucesos.

Probabilidad condicionada.

La probabilidad asociada a cada experimento aleatorio ha sido introducida para representar


cuantitativamente el grado de incertidumbre inicial sobre la ocurrencia de los distintos sucesos.
Supongamos que introducimos en el modelo cierta información parcial sobre el resultado del
experimento, en términos de que conocemos que ha ocurrido un resultado dentro de un suceso B.
Evidentemente, con esta información nuestra incertidumbre inicial se ve modificada: Algunos
sucesos que en principio podían ocurrir ahora son imposibles (si son disjuntos con B), otros ahora se
convierten en seguros (si contienen a B), otros aumentan sus posibilidades, etc. En definitiva, se
produce una reasignación de probabilidades que denotaremos por P(./B) (Probabilidad condicionada
a B) y que tenemos que modelar matemáticamente.
Por ejemplo, en la situación que muestra el gráfico siguiente, si sabemos que B ha ocurrido,
la nueva asignación de probabilidades deberá cumplir, entre otras cosas,

( )
P A B = 0, ( )
P C B = 1, ( )
P D B > P ( D), etc.

A
C
E
B D

15
Tema 5.- Probabilidad

Los experimentos de la Regla de Laplace (probabilidad clásica) nos dan la idea de cómo
definir la probabilidad condicionada:

A
* * * * * * * *

E * * * * * * * *
A∩B
B * * * * * * * *

* * * * * * * *

El suceso B pasa a ser el nuevo conjunto de casos posibles y, para cada suceso A, los casos
favorables son los comunes a A y B. Entonces se tiene:

( B ) = Casos
PA
favorables n º de puntos en A ∩ B n( A ∩ B )
Casos posibles
=
n º de puntos en B
=
n( B )
,

pero si dividimos el numerador y el denominador por n obtenemos:

n( A ∩ B )
( )
P AB =
n( A ∩ B )
n( B )
=
n( B )
n = P( A ∩ B) .
P( B)
n
En definitiva, se realiza la reasignación de probabilidades a los sucesos de manera
proporcional a la parte que cada suceso tiene en común con el nuevo suceso seguro. Con esta idea
damos la definición general, válida en espacios cualesquiera:

Definición: Si E es un experimento aleatorio y A, B son sucesos cualesquiera con P(B)>0, se define


la Probabilidad de A condicionada a B como:

P A( B) = P(PA(∩B)B) .
Como no podía ser de otra manera, se cumple:
1.- La probabilidad condicionada satisface las Reglas 1, 2 y 3 de la probabilidad, es decir, es una
verdadera probabilidad.
2.- La probabilidad condicionada que acabamos de definir satisface los requisitos intuitivos
mencionados anteriormente, es decir, realmente incorpora al modelo la información de que B ha
ocurrido.
La comprobación de estos aspectos es un ejercicio sencillo que se deja al lector.

16
Tema 5.- Probabilidad

Ejemplo: Consideremos el ejemplo anterior sobre piezas producidas por una planta industrial que
pueden tener tres tipos de defectos A, B y C.
a) Hallar la probabilidad de que una pieza no tenga el defecto B, sabiendo que tiene el defecto A.
b) Hallar la probabilidad de que una pieza que se sabe que no tiene ninguno de los debectos A y B,
tenga el defecto C.

Solución:

 A
( )
a) P B  = 1 − P B = 1 −
A
P(A ∩ B)
P (A )
= 1−
0.02
0 .1
= 0 .8 .

b) P C  = P ( A ∩ B ∩ C ) = P ( A ∩ B ∩ C ) = P ( A ∩ B ∩ C ) = 0.037
= 0.044.
A ∩ B P( A ∩ B) P( A ∪ B) 1 − P( A ∪ B) 1 − 01
. − 0.08 + 002

Reglas de multiplicación:

Si A y B son sucesos de un espacio muestral E con P(A)>0, P(B)>0, entonces se tiene:

P(A ∩ B) = P(A)P B ( A ), P(A ∩ B) = P(B)P(A B).


Más generalmente, para cualesquiera sucesos A1, A2, ..., An de un espacio muestral, salvadas
las indeterminaciones causadas por las divisiones por 0, se tiene:

P ( A1 ∩ A2 ∩ ... ∩ An ) = P ( A1 ) P 2  P 3  ... P An 


A A
A A ∩ A   A ∩ A ∩ ... ∩ A .
 1  1 2  1 2 n −1 

Este desarrollo multiplicativo se puede realizar para cualquiera de las reordenaciones de A1,
A2, ..., An.

Independencia:

Asociada de una manera natural a la idea de probabilidad condicionada, está la idea de


independencia de sucesos para representar aquellas situaciones en las que el conocimiento de que ha
ocurrido un suceso no modifica la incertidumbre sobre la ocurrencia del otro.

Definición: A y B son sucesos independientes si cumplen

( B ) = P( A) siempre que P( B) > 0.


PA

Alternativamente y equivalentemente, como la independencia es una relación recíproca entre los


sucesos, se tiene:

Definición: A y B son sucesos independientes si cumplen

( )
P B A = P ( B ) siempre que P ( A) > 0 .

Una reescritura de las definiciones anteriores nos da una nueva regla de multiplicación:
17
Tema 5.- Probabilidad

Definición: A y B son sucesos independientes si cumplen

P ( A ∩ B ) = P ( A) P ( B ).

Ejercicio: Comprobar que si dos sucesos A y B son independientes, también lo son sus
complementarios y cada uno de ellos con el complementario del otro.

Es importante notar que la independencia entre sucesos es una propiedad de la probabilidad


(modelo probabilístico) y no de los sucesos. Por ello no podemos dar una caracterización de la
independencia que se pueda representar mediante diagramas de Venn.

El concepto de independencia se generaliza a n sucesos obteniendo:

Definición: A1, A2, ..., An son sucesos independientes si cumplen

( ) ( ).
P ( Ai1 ∩ Ai2 ∩...∩ Air ) = P ( Ai1 ) P Ai2 . ... P Air ,
{i1 ,... ir } ⊆ {1,2,... n}, r = 2,3,..., n

Como en el caso de independencia de dos sucesos, la independencia de n sucesos A1, A2, ...,
An es equivalente a la independencia de cualquiera colección de n sucesos obtenidos eligiendo para
cada i=1, 2, ..., n, el suceso Ai o su complementario.

Ejemplo: Un depósito de agua tiene dos dispositivos de seguridad, A y B, que impiden la llegada de
más agua cuando ésta alcanza cierto nivel. Ambos dispositivos funcionan independientemente,
estimándose que el dispositivo A funciona el 90% de las ocasiones y el B el 70%. Calcular:
a) La seguridad del dispositivo en conjunto.
b) Probabilidad de que sólo funcione uno de los dispositivos.

Solución:
a) La seguridad del dispositivo en conjunto es la probabilidad de que funcione alguno de los dos
dispositivos (A∪B), es decir

P(A ∪ B) = P(A ) + P(B) − P(A ∩ B) = P(A ) + P(B) − P(A )P(B) = 0.9 + 0.7 − 0.63 = 0.97

b)
[ ]
P (A ∩ B) ∪ (A ∩ B) = P(A) − P(A ∩ B) + P(B) − P(A ∩ B) = 0.9 − 0.63 + 0.7 − 0.63 = 0.34

Ejemplo: Fiabilidad de sistemas. Supongamos un sistema formado por n componentes A1, A2, ...,
An, que funcionan independientemente. Denotemos por Ri la fiabilidad de cada componente, es
decir, la probabilidad de no estar estropeado.
a) Obtener la fiabilidad total del sistema, RS, cuando los componentes están acoplados en
serie.(El sistema funciona sí y sólo si funcionan todos los componentes).

A1 A2 An

18
Tema 5.- Probabilidad

Solución:
Por la independencia del funcionamiento de los distintos componentes, se tiene:

R S = R 1 ⋅ R 2 ⋅ ... ⋅ R n .

Si los componentes son, además, idénticos, se tiene:

R S = R1 .
n

b) Obtener la fiabilidad total del sistema, RP, cuando los componentes están acoplados en
paralelo. (El sistema funciona sí y sólo si funciona al menos un componente)
A1

A2

An
Solución:
Por la independencia del funcionamiento de los distintos componentes, se tiene:

1 − RP = (1 − R1 ) ⋅ (1 − R2 )⋅...⋅(1 − Rn ) .

Si los componentes son, además, idénticos, se tiene:

1 − R P = (1 − R1 ) n .

Ejercicio: Obtener la fiabilidad de los sistemas que se muestran a continuación, suponiendo que
todos los componentes son idénticos y funcionan independientemente con fiabilidad común R=0.95.

19
Tema 5.- Probabilidad

Nótese que el hecho de que dos (o más) sucesos sean independientes obedece en muchas
ocasiones a una necesidad física o funcional. Esto ocurre especialmente cuando tenemos un
experimento organizado en varias etapas “físicamente independientes” y estudiamos la
independencia de sucesos cuya realización involucra a etapas diferentes para cada uno de los
sucesos. En estos casos la independencia será algo obvio que no necesitará comprobación.
Por el contrario, en otras ocasiones la independencia es fruto de una mera coincidencia
numérica, a veces inesperada. En estos casos, tendremos que recurrir necesariamente a las fórmulas
para su comprobación. Veamos ejemplos de las dos situaciones.

Ejemplo: Se lanzan dos dados equilibrados. El espacio muestral asociado es el conjunto de pares
E={(1,1), (1,2), …, (6,6)}, que consta de 36 puntos. La asignación de probabilidades a los sucesos
se realiza a partir de la regla de Laplace, dada la condición de equiprobabilidad de los sucesos
elementales que se deduce de que los dados sean equilibrados. Consideremos los sucesos A={el
primer dado sale “1”} y B={el segundo dado sale “1”}. Estos sucesos pueden considerarse
“físicamente independientes” en el sentido de que no parece razonable esperar ningún tipo de
relación entre la ocurrencia de ambos al definirse cada uno de ellos a partir del resultado de un
dado diferente.
El cálculo de Probabilidades corrobora este hecho al resultar que
P( A ∩ B) = P{(11, )} =
1
,
36
6 6 1
P( A) × P( B) = × = .
36 36 36

Ejemplo: Una empresa de servicios tiene clientes en tres zonas, Rural (R), Semiurbana (SU) y
Urbana (U), en proporciones 0.10, 0.30 y 0.60 respectivamente. Entre los servicios que presta la
empresa, el servicio S es demandado de una manera desigual por los clientes, según la zona de
residencia. Así, entre los servicios prestados a clientes de la zona R, el servicio S representa el 20
%, en la zona SU el 40 % y en la zona U el 10 %. El experimento aleatorio consiste en elegir un
cliente al azar y resulta que los sucesos S y R son independientes.

Para comprobarlo, primero necesitamos obtener P(S). Aplicamos las reglas de la adición y
de la multiplicación y obtenemos

P(S) = P(R ∩ S) + P(SU ∩ S) + P( U ∩ S) = P(R )P S ( R )+ P(SU)P(S SU )+ P(U)P(S U )


= 0 .1 × 0 .2 + 0 .3 × 0 .4 + 0 .6 × 0 .1 = 0 .2 .

Entonces tenemos P(S) = P S ( R ) = 0.2 , de modo que S y R son independientes.

20
Tema 5.- Probabilidad

REGLA DE LAS PROBABILIDADES TOTALES Y REGLA DE


BAYES

Supongamos que en el espacio muestral asociado a un experimento aleatorio se plantea la


siguiente situación.

E B

A1 A2 A3 ... An
A1, A2, ..., An son sucesos que forman una partición de E, es decir:

UA i = E , Ai ∩ A j = ∅ si i ≠ j.
i =1

Supongamos, además, que se conocen las probabilidades:

- P(Ai), i=1, 2, ... (probabilidades a priori)


- P(B/Ai), i=1, 2, ...

Combinando las reglas de adición y de multiplicación, se pueden obtener también:

- P(B) (incondicional)
- P(Ai/B), i=1, 2, ... (probabilidades a posteriori).

Las probabilidades a priori representan la medida de la incertidumbre inicial sobre la


ocurrencia de cada uno de los sucesos Ai. Las probabilidades a posteriori representan la medida de
la incertidumbre sobre la ocurrencia de dichos sucesos tras incorporar al modelo la información de
que ha ocurrido el suceso B y reflejan el cambio producido en el modelo tras incorporar dicha
información.

La obtención de estas probabilidades origina dos resultados o reglas importantes del Cálculo
de Probabilidades, que son el resultado de combinar las reglas de la adición y de la multiplicación.

21
Tema 5.- Probabilidad

Regla de las Probabilidades Totales:

Esta regla permite obtener la probabilidad incondicional del suceso B.

 
P( B) = ∑ P( A j ) P B A  .
 j
j

Regla de Bayes:

Esta regla permite obtener las probabilidades a posteriori, de los sucesos Ai, es decir, las
probabilidades de dichos sucesos tras conocer que ha ocurrido el suceso B.

P( Ai ) P B 
P Ai  =  Ai  .
 B  
∑j P( A j ) P B A j 

Ejercicio: Probar la Regla de las Probabilidades Totales y la Regla de Bayes.

Ejemplo: Tres máquinas, A, B y C, fabrican la misma pieza con una producción aceptable del 70%,
80% y 90% respectivamente. Del total de la producción, el 40% corresponde a la máquina A, el
45% a la B y el 15% a la C.
a) Hallar la probabilidad de que una pieza elegida al azar sea aceptable.
b) Hallar la probabilidad de que una pieza defectuosa proceda de la máquina A.

Solución:
Utilizaremos las notaciones siguientes para los sucesos:
A={piezas producidas por la máquina A}
B={piezas producidas por la máquina B}
C={piezas producidas por la máquina C}
D={piezas defectuosas}.

Datos: P(A)=0.4 P(B)=0.45 P(C)=0.15, P D A = 0.7, P D B = 0.8, P D C = 0.9.

a) Aplicando la regla de las Probabilidades Totales:

P( D) = P( A) P D A + P( B) P D B + P( C) P D C = 0.4 ⋅ 0.7 + 0.45 ⋅ 0.8 + 015
. ⋅ 0.9 = 0.775

b) Aplicando la Regla de Bayes:

( )
P ( A) P D A
( )
P AD = =
0.4 ⋅ 0.3
= 0.53333
( ) ( ) ( )
P( A) P D A + P( B) P D B + P( C) P D C 0.4 ⋅ 0.3 + 0.45 ⋅ 0.2 + 015
. ⋅ 01
.

Análogamente, se tiene:

22
Tema 5.- Probabilidad

( )
P BD =
0.09
0.225
= 0.4, ( )
P CD =
0.015
0.225
= 0.06666 .

Ejemplo: Una máquina produce artículos que pueden ser defectuosos con probabilidad 0.1. Para
mejorar la calidad, se somete la producción a una inspección de tal manera que:
1) Un artículo defectuoso es detectado y rechazado con probabilidad 0.99.
2) Un artículo no defectuoso es rechazado por error con probabilidad 0.02.
a) Determinar cuál es la calidad final del producto, es decir, la probabilidad de que un artículo sea
no defectuoso después de superada la inspección.
b) Determinar la probabilidad de que un artículo desechado por no superar la inspección sea
aceptable.
c) Si los artículos se someten dos veces a la inspección y se supone independencia entre las dos
inspecciones, determinar la probabilidad de que un articulo sea no defectuoso tras superar las dos
inspecciones.

Solución:
Utilizaremos las siguientes notaciones:
D={artículos defectuosos}
R={artículos rechazados por la inspección}
y para el apartado c), además,
Ri={artículos rechazados por la inspección No. i}, i=1,2.

a) Aplicando la Regla de Bayes:

P( D) P R 
0.9 ⋅ 0.98
P D  =
D
= = 0.9988.
R  
P( D) P D + P( D) P
R  R 
 01
. ⋅ 0.01 + 0.9 ⋅ 0.98
D

b) Aplicando de nuevo la Regla de Bayes:

P( D) P R 
0.9 ⋅ 0.02
P D R =
D
= = 01538
. .
( )
P( D) P R D + P ( D) P R 
D
. ⋅ 0.99 + 0.9 ⋅ 0.02
01

c) Está claro que la independencia entre las dos inspecciones es condicionalmente tanto a que el
artículo se Defectuoso como que sea No Defectuoso.

 R ∩ R2 
P ( D) P  1 
D   D
P  =
 R1 ∩ R2   R ∩ R2   R ∩ R2 
P ( D) P  1 D  + P ( D) P  1 
   D
R  R 
P ( D) P  1  P  2 
 D  D 0.9 ⋅ 0.98 ⋅ 0.98
= = = 0.999988.
 R1   R2   R1   R2  0.1 ⋅ 0.01 ⋅ 0.01 + 0.9 ⋅ 0.98 ⋅ 0.98
P ( D) P  D  P  D  + P ( D ) P   P 
     D  D

23

También podría gustarte