Documentos de Académico
Documentos de Profesional
Documentos de Cultura
PROBABILIDADES
1. Introducción.
Este curso tendrá un enfoque teórico y aplicado con Python. Para que los códigos funcionen
correctamente se deben cargar las siguientes librerı́as en el notebook de trabajo.
[1]: %matplotlib inline
import numpy as np
import matplotlib.pyplot as plt
import scipy.stats as ss
import pandas as pd
import re
import math
Ω = {1, 2, 3, 4, 5, 6}
Apunte - Probabilidades
3
Con base en este experimento, podemos escribir eventos, analizando los valores o respues-
tas de la caracterı́stica estudiada. El espacio muestral tiene 6 elementos y algunos eventos
o sucesos posibles son:
E1 : Obtener un número par → E1 = {2, 4, 6} → E1 tiene 3 elementos
E2 : Obtener un número impar → E2 = {1, 3, 5} → E2 tiene 3 elementos
E3 : Obtener a lo más un 5 → E3 = {1, 2, 3, 4, 5} → E3 tiene 5 elementos
E4 : Obtener a lo menos un 2 → E4 = {2, 3, 4, 5, 6} → E4 tiene 5 elementos
3. Principio multiplicativo: Si una operación puede realizarse de ”n” maneras posibles, y cada
una de estas operaciones a su vez puede realizarse de ”m” maneras, entonces el total de
operaciones que pueden realizarse es de ”n · m” maneras.
Ejemplo: Sea el experimento de lanzar dos dados simultáneamente, entonces definimos:
Ω1 = Resultados posibles al lanzar el dado 1
Ω2 = Resultados posibles al lanzar el dado 2
Entonces, podemos decir que el total de resultados de cada espacio muestral es:
#Ω1 = 6 y #Ω2 = 6
Por lo tanto, el total de resultados posibles en conjunto, es decir, el total de resultados que
se pueden formar al lanzar los dos dados es de:
#Ω1 · #Ω2 = 6 · 6 = 36 resultados posibles
Propiedades.
Para poder trabajar y definir la probabilidad, consideremos un espacio muestral Ω proveniente
de un experimento aleatorio. Sea A cualquier evento, es decir, cualquier subconjunto de Ω, le
asociamos su probabilidad, denotada P( A), la cual es un número que cuantifica qué tan posible
o esperable es la ocurrencia de dicho evento. La probabilidad cumple las siguientes propiedades
intuitivas fundamentales:
a. 0 ≤ P( A) ≤ 1, es decir, la probabilidad de cualquier evento siempre es un número entre
0 y 1, que representa desde el 0 % (no ocurre con total certeza) hasta un 100 % (ocurre con
total certeza).
b. P(Ω) = 1, es decir, la probabilidad de que ocurra alguno de los resultados del espacio
muestral es 100 % (suceso seguro).
c. P(∅) = 0, es decir, la probabilidad de que no ocurra ninguno de los resultados de Ω es 0 %.
Notar que, si para un evento se tiene P( A) = 0, esto no quiere decir necesariamente que A
es el conjunto vacı́o.
d. Si dos eventos A y B son mutuamente excluyentes, es decir, A ∩ B = ∅, entonces la
probabilidad de su unión es la suma de sus probabilidades: P( A ∪ B) = P( A) + P( B).
e. P( A) = 1 − P( Ac ), es decir, la probabilidad de ocurrencia de un evento es igual a 1 menos
la probabilidad de ocurrencia de su complemento. Notemos que P( A) + P( Ac ) = 1.
f. P( A ∪ B) = P( A) + P( B) − P( A ∩ B), propiedad de la probabilidad para la unión de con-
juntos.
Apunte - Probabilidades
5
4. Probabilidad condicionada.
Es muy común tener que conocer la probabilidad de un cierto evento cuando ya se sabe que otro
evento sucedió. A este escenario se le conoce como probabilidad condicional o condicionada.
Para dos eventos cualesquiera A y B con P( B) > 0, se define la probabilidad condicionada como:
P( A ∩ B)
P( A| B) =
P( B)
donde P( A| B) se lee como ”probabilidad de que ocurra el evento A, dado que ya ocurrió el evento
B”.
De la expresión anterior podemos desprender la regla general de multiplicación, como:
P( A ∩ B) = P( B) · P( A| B)
Como dijimos, sean los eventos A y B de un espacio muestral Ω , entonces la notación de una
probabilidad condicional viene dada por:
Ejemplo:
Probabilidad condicional. De un grupo de 70 estudiantes se conoce que 35 alumnos apro-
baron álgebra, 30 cálculo y 5 alumnos ambas materias. Si escogemos a un alumno al azar,
calcular la probabilidad de que:
a. Apruebe cálculo dado que aprobó álgebra.
b. Apruebe álgebra dado que aprobó cálculo.
c. Apruebe alguna de las materias.
Solución. Primero llamaremos a los eventos C : aprueba cálculo y A : aprueba álgebra.
Sabemos que P(C ) = 30 35 5
70 , P ( A ) = 70 y P (C ∩ A ) = 70 . Finalmente, el cálculo de las
probabilidades condicionales son:
P(C ∩ A) 5
a. P(C | A) = = = 0, 1429
P( A) 35
P( A ∩ C ) 5
b. P( A|C ) = = = 0, 1667
P(C ) 30
35 30 5
c. P( A ∪ C ) = P( A) + P(C ) − P( A ∩ C ) = + − = 0, 8571
70 70 70
Regla general de multiplicación. Supongamos que una librerı́a pone a la venta 15 ejem-
plares de un texto de cálculo, pero sabe que 5 de ellos se encuentran con defectos. Deter-
mina la probabilidad de que se vendan:
a. Sucesivamente dos textos en buenas condiciones.
b. Sucesivamente dos textos con defectos.
c. Un texto bueno y otro defectuoso.
Solución. Definimos los eventos de estudio:
B1 : Evento el primer texto vendido es bueno
B2 : Evento el segundo texto vendido es bueno
D1 : Evento el primer texto vendido es defectuoso
D2 : Evento el segundo texto vendido es defectuoso
Ejemplo: Se tiene una urna con 3 bolitas azules y 5 bolitas rojas, determina la probabilidad de
extraer, con reposición, una bolita azul y otra roja.
Solución. Definimos los eventos:
A : Evento de sacar una bolita azul.
R : Evento de sacar una bolita roja.
Por lo tanto,
P( A ∩ R) = P( A) · P( B| A)
= P( A) · P( B)
3 5
= ·
8 8
= 0, 2344
P( B) = P( B ∩ A1 ) + P( B ∩ A2 ) + .... + P( B ∩ An )
= P( B| A1 ) · P( A1 ) + P( B| A2 ) · P( A2 ) + ... + P( B| An ) · P( An )
n
= ∑ P ( B | Ai ) · P ( Ai )
i =1
6. Teorema de Bayes.
Este teorema nos permite el cálculo de probabilidades de un evento si se conocen las otras
probabilidades del espacio muestral. Sean A y B dos eventos asociados al espacio muestral,
entonces:
P( B| A) · P( A)
P( A| B) =
P( B)
P( A ∩ B) = P( B ∩ A) → P( A| B) · P( B) = P( B| A) · P( A)
Ejemplo: Una cadena de tiendas de video vende tres marcas diferentes de reproductores de
DVD. De sus ventas de reproductores de DVD, 50 % son de la marca 1 (la menos cara), 30 % son
de la marca 2 y 20 % son de la marca 3. Cada fabricante ofrece 1 año de garantı́a en las partes
y mano de obra. Se sabe que 25 % de los reproductores de DVD de la marca 1 requieren trabajo
de reparación dentro del periodo de garantı́a, mientras que los porcentajes correspondientes de
las marcas 2 y 3 son 20 % y 10 %, respectivamente.
1. ¿Cuál es la probabilidad de que un comprador seleccionado al azar haya adquirido un re-
productor de DVD marca 1 que necesitará reparación mientras se encuentra dentro de ga-
rantı́a?
Apunte - Probabilidades
8
P( M1 ) = 0, 5 P( R| M1 ) = 0, 25
P( M2 ) = 0, 3 P( R| M2 ) = 0, 2
P( M3 ) = 0, 2 P( R| M3 ) = 0, 1
1. P( R ∩ M1 ) = P( R| M1 ) · P( M1 ) = 0, 25 · 0, 5 = 0, 125.
2. Aplicando teorema de probabilidad total se tiene:
P( R) = P( R| M1 ) · P( M1 ) + P( R| M2 ) · P( M2 ) + P( R| M3 ) · P( M3 )
= 0, 25 · 0, 5 + 0, 2 · 0, 3 + 0, 1 · 0, 2
= 0, 205.
3. Aplicando el teorema de Bayes:
P( R| M1 ) · P( M1 )
P( M1 | R) =
P( R)
0, 25 · 0, 5
=
0, 205
= 0, 609.
Ejemplo: Una compañı́a de transporte de mercancı́as cubre tres lı́neas de forma que el 50 %,
30 % y 20 % de sus camiones trabajan en la lı́nea 1, en la lı́nea 2 y en la 3, respectivamente. Se
sabe que la probabilidad de que un camión esté averiado en la lı́nea es, respectivamente, 0,03;
0,04 y 0,01. Calcular:
( a) La probabilidad de que un camión esté averiado.
(b) Sabiendo que un camión está averiado, la probabilidad de que sea de la lı́nea 2.
Apunte - Probabilidades
9
P ( A ) = P ( A | L1 ) · P ( L1 ) + P ( A | L2 ) · P ( L2 ) + P ( A | L3 ) · P ( L3 )
= 0, 03 · 0, 5 + 0, 04 · 0, 3 + 0, 01 · 0, 2
= 0, 029
P ( A | L2 ) · P ( L2 )
P ( L2 | A ) =
P( A)
0, 04 · 0, 3
=
0, 029
= 0, 414
Apunte - Probabilidades
10
7. Variables aleatorias.
Una variable aleatoria (v.a.) o variable estocástica es una función cuyo dominio es el espacio
muestral y cuyo rango es el conjunto de números reales. Es decir, sea X una v.a.
X:Ω→R
Ejemplo: Por ejemplo, definimos X como una variable aleatoria que cuenta el número de caras
al lanzar una moneda.
Ejemplo:
Experimento: Lanzar dos monedas, la variable aleatoria X determinará el número de caras
obtenidas, Ω = {cc, cs, sc, ss}, cuyo rango resulta R = {2, 1, 1, 0}.
Experimento: Lanzar dos dados, la variable aleatoria X determinará la suma de los núme-
ros obtenidos, el espacio muestral Ω posee 36 posibles resultados, cuyo rango es R =
{2, 3, ..., 12}.
9. Función de probabilidad.
Una variable aleatoria no necesariamente tiene que estar sobre un espacio equiprobable, lo que
significa que no podremos determinar la probabilidad usando esa regla.
Si X es una variable aleatoria discreta, entonces se llama función de densidad de probabilidad de
X a la función f ( x ), donde:
f ( xi ) = P ( X = xi )
También llamada probabilidad de xi , para todo xi pertenecientes al dominio.
Esperanza y varianza.
Junto con el desarrollo de un experimento aleatorio, es claro que algunos resultados son es-
perados. Al valor esperado se le conoce con el nombre de esperanza matemática (E( X )). La
esperanza matemática es el valor que deberı́a obtenerse como promedio luego de realizar infi-
nitas veces el experimento. Su cálculo se desarrolla como una media ponderada, es decir, cada
valor xi , se multiplica por su probabilidad respectiva:
n
E( X ) = ∑ xi · f ( xi )
i =1
Propiedades.
I. E( a) = a, con a constante. Es decir, la esperanza de una constante es constante.
II . E( X ± Y ) = E( X ) ± E(Y ), es decir, la esperanza de la suma o resta se puede separar en
la suma de las esperanzas, donde Y corresponde a otra variable aleatoria.
III . E( a · X ) = a · E( X ), es decir, la esperanza de una variable por una constante es la constante
multiplicada por la esperanza de la variable.
Sea X la variable aleatoria discreta con función de densidad de probabilidad f ( x ), la varianza de
x, se denota por σ2 ( X ), V ( X ). Su cálculo se desarrolla de la siguiente manera:
V ( X ) = E( X 2 ) − [ E( X )]2
n
donde, E( X 2 ) es la esperanza de los datos al cuadrado, E( X 2 ) = ∑ xi2 · f ( xi ).
i =1
Propiedades.
I. V ( a) = 0, es decir, la varianza de una constante es cero, no varı́a.
II . V ( a + X ) = V ( X ), es decir, la varianza de una constante sumada a una variable aleatoria
es la varianza de la variable aleatoria.
III . V ( a · X ) = a2 · V ( X ), es decir, la varianza de una variable por una constante es la constante
al cuadrado multiplicada por la varianza de la variable.
Ejemplo: Se tiene la variable aleatoria que representa la cantidad de créditos pedidos por un
cliente:
x 1 2 3 4 5 6 7
P( X = x ) 0, 15 k 0, 19 0, 08 0, 26 0, 03 0, 14
( a) Encuentra el valor de la constante k.
(b) Si un cliente solicitó más de 2 créditos, determina la probabilidad de que haya solicitado
menos de 5 créditos.
Apunte - Probabilidades
12
Solución.
( a) Sumando las probabilidades e igualando a la condición de sumar 1 tenemos que:
0, 85 + k = 1
Obtenemos que k = 0, 15.
(b) Nos piden:
P( x < 5 ∩ x > 2 )
P ( x < 5| x > 2) =
P ( x > 2)
P ( x = 3) + P ( x = 4)
=
1 − P ( x ≤ 2)
f (3) + f (4)
=
1 − [ f (1) + f (2)]
0, 19 + 0, 08
=
1 − [0, 15 + 0, 15]
= 0, 3857
Ejemplo: Considera una urna con 3 tarjetas azules y 2 rojas, se define la variable aleatoria X:
cantidad de intentos hasta extraer la primera tarjeta roja.
a. Determina qué valores puede tomar la variable y sus probabilidades.
b. Encuentra su esperanza y varianza.
c. Determina su función de probabilidad acumulada F ( x ) = P( X ≤ x ).
d. Determina la probabilidad de sacar la tarjeta roja antes de la cuarta extracción si en la
primera ya salió una tarjeta azul.
e. Determina la esperanza y la varianza de la nueva variable aleatoria Y = 2X + 3.
Solución.
a. Debido a la cantidad de tarjetas la variable X puede tomar los valores {1, 2, 3, 4}, buscamos
su probabilidad:
Sacar la tarjeta roja en el primer intento:
2
P ( X = 1) = = 0, 4
5
Sacar la tarjeta roja en el segundo intento:
3 2
P ( X = 2) = · = 0, 3
5 4
Sacar la tarjeta roja en el tercer intento:
3 2 2
P ( X = 3) = · · = 0, 2
5 4 3
Sacar la tarjeta roja después de sacar todas las azules:
Apunte - Probabilidades
13
3 2 1 2
P ( X = 4) = · · · = 0, 1
5 4 3 2
x 1 2 3 4
f ( x ) 0, 4 0, 3 0, 2 0, 1
4
Notar que efectivamente la función es de probabilidad, es decir, ∑ f ( x ) = 1.
x =1
4
Para la varianza debemos calcular primero E( X 2 ) = ∑ x2 · f ( x ) = 12 · 0, 4 + ... + 42 · 0, 1 =
x =1
5. Finalmente, la varianza resulta:
V ( X ) = E( X 2 ) − [ E( X )]2 = 5 − (2)2 = 1
x 1 2 3 4
F ( x ) 0, 4 0, 7 0, 9 1
P ( X = 2) + P ( X = 3)
=
1 − P ( X = 1)
0, 3 + 0, 2
=
1 − 0, 4
= 0, 83
E(2X + 3) = 2 · E( X ) + 3 = 7
y para su varianza:
V (2X + 3) = 4 · V ( X ) + 0 = 4.
Apunte - Probabilidades
14
X ∼ B(n; p)
Además:
E( X ) = n · p ; V ( X ) = n · p · q
Donde:
n : total de ensayos
q : probabilidad de fracaso, q = 1 − p
p : probabilidad de éxito asociada a la variable x
k : cantidad de éxitos, k = 0, 1, 2, ..., n
n!
( xk) : corresponde a la combinatoria, Ckn = (nk) =
k! · (n − k )!
Ejemplo: Un agente de seguros vende pólizas a cinco personas de la misma edad que
disfrutan de buena salud. Según las tablas actuales, la probabilidad de que una persona en
estas condiciones viva 30 años o más es 23 . Calcular la probabilidad de que, transcurridos
30 años, vivan:
( a) Las cinco personas.
(b) Al menos tres personas.
(c) Al menos 3, sabiendo que por lo menos 1 sı́ vivirá.
Apunte - Probabilidades
17
[9]: 0.13168724279835387
p_binom_hasta_x = ss.binom.cdf(x,n,p)
# Usando el complemento tenemos
1-p_binom_hasta_x
[13]: 0.7901234567901234
= 0, 537
E( X ) = V ( X ) = λ
λ = np = 20000 · 0, 0001 = 2 ≤ 5
[15]: 0.1353352832366127
5
( b ) P ( X ≤ 5) = ∑ P( X = i ) = 0, 1353 + 0, 2707 + 0, 2707 + 0, 1804 + 0, 0902 + 0, 0361 =
| {z } | {z } | {z } | {z } | {z } | {z }
i =0
P ( X =0) P ( X =1) P ( X =2) P ( X =3) P ( X =4) P ( X =5)
0, 9834.
Una alternativa para este cálculo es utilizar Python:
[17]: lamb = 2
x = 5
# Con la siguiente expresión se determina la probabilidad acumulada
,→hasta un punto
p_poisson_hasta_x = ss.poisson.cdf(x,lamb)
p_poisson_hasta_x
[17]: 0.9834363915193856
P( X < 4 ∩ X ≥ 1 )
P ( X < 4| X ≥ 1) =
P ( X ≥ 1)
= 0, 8347
Apunte - Probabilidades
20
En este caso podemos obtener la probabilidad solamente para lı́mites pertinentes. El cálculo es:
Si se desea calcular la probabilidad comprendida de que la variable aleatoria x esté entre
un valor a y otro valor b, que serı́a equivalente a cálcular el área bajo la curva f ( x ) entre a y b.
Z b
P( a ≤ X ≤ b) = f ( x ) dx
a
En este caso, se desea calcular la probabilidad para valores mayores que b, que es el
equivalente al área bajo la curva comprendida entre b y el infinito.
Z ∞ Z b
P( X ≥ b) = f ( x ) dx = 1 − f ( x ) dx
b −∞
P( X ≤ a) = P( X < a)
Esto es válido para todas las desigualdades, debido a que en las variables continuas solo se
puede buscar probabilidad por intervalos y agregando un punto este no se ve afectado.
Apunte - Probabilidades
21
Esperanza y varianza.
Para el caso de una variable aleatoria continua, la esperanza y la varianza poseen el mismo
significado y propiedades que ya aprendimos en la variable aleatoria discreta, lo que cambia es
la forma de cálculo, es decir: Z ∞
E( X ) = x · f ( x ) dx
−∞
V ( X ) = E( X 2 ) − [ E( X )]2
3
( x − 1)(3 − x )
si x ∈ [1, 3]
f (x) = 4
x ̸∈ [1, 3]
0 si
( a) Calcular E( X ) y Var ( X ).
(b) Si los tornillos son válidos solo si su longitud está entre 1,7 y 2,4 cm, calcular la probabilidad
de que un tornillo sea válido.
(c) Los tornillos se agrupan en lotes de 100 unidades. Para que un lote pase un control de
calidad se extraen tres tornillos y todos deben ser válidos. Calcular la probabilidad de que
un lote pase el control de calidad.
Solución.
( a) Calculamos:
La esperanza de X:
Z 3
3
E( X ) = x · ( x − 1)(3 − x )dx
1 4
Z 3
3
− x3 + 4x2 − 3x dx
=
4 1
3
x4 x3 x2
3
= − +4 −3
4 4 3 2 1
= 2.
La esperanza de X 2 :
Z 3 Z 3
3 3
E( X 2 ) = 2
x · ( x − 1)(3 − x )dx = − x4 + 4x3 − 3x2 dx
1 4 3 4 1
3 x5
− + x4 − x3 = 4, 2.
=
4 5 1
Apunte - Probabilidades
22
2
Ası́, tenemos E( X ) = 2 y Var ( X ) = E( X 2 ) − [E( X )] = 0, 2.
Z 2,4
3
P(1, 7 < X < 2, 4) = ( x − 1)(3 − x )dx
1,7 4
Z 2,4
3
− x2 + 4x − 3 dx
=
4 1,7
(b) La probabilidad solicitada es:
2,4
x3
3
− + 2x2 − 3x
=
4 3 1,7
= 0, 50225.
(c) Dos formas:
Llamaremos Vi : tornillo i es válido (i = 1, 2, 3), nos piden:
Nos piden:
P (Y > 3 ) = 1 − P (Y ≤ 3 )
= 1 − [ P(Y = 1) + P(Y = 2) + P(Y = 3)]
= 1 − [ f (1) + f (2) + f (3)]
= 0, 12669.
2. Distribución normal estandar: Para facilitar el cálculo de las probabilidades de variables que
se distribuyen normal se usa la distribución normal estándar, donde se emplea la variable
Z, es decir, se desarrolla un cambio de variable de la forma:
X−µ
Z=
σ
Es decir, X ∼ N (µ; σ2 ), ahora la variable será Z ∼ N (0; 1). Para trabajar con esta distribu-
ción normal estándar debemos manejar la tabla normal estándar que entrega las probabili-
dades ya calculadas.
Por lo tanto, si queremos calcular las probabilidades siguientes (zona coloreada) debemos
recordar que lo que hacemos es determinar el área bajo la curva y que esa área es una
probabilidad que ya está determinada en la tabla normal estándar, es decir:
P( Z ≤ z1 ), en este caso, el valor de la probabilidad se lee de la tabla directamente.
P( Z ≥ z2 ) = 1 − P( Z ≤ z2 ), en este caso, la tabla no entrega directamente la proba-
bilidad asociada al sector coloreado, pero podemos realizar la operación descrita, esto
es, al área total le restamos el sector que no deseamos.
P(z1 ≤ Z ≤ z2 ) = P( Z ≤ z2 ) − P( Z ≤ z1 ), en este caso, la tabla tampoco entrega
directamente la probabilidad asociada, pero podemos realizar la operación descrita,
esto es, calculamos el área asociada al mayor valor buscado (z2 ) y le restamos el área
(probabilidad) del menor valor (z1 ).
Observación 5. Para el cálculo de la probabilidad en la distribución normal no podemos
usar directamente su función de probabilidad debido a que no se puede integrar, por lo
que usaremos una tabla de probabilidad acumulada de la distribución normal estándar. Por
ejemplo, se desea buscar la probabilidad de:
[18]: mu = 0
sigma = 1
z = -2.56
# Con la siguiente expresión de determina la probabilidad acumulada para
,→algún valor de z.
ss.norm(mu, sigma).cdf(z)
[18]: 0.0052336081635557825
X − 50, 25
Z= → N (0, 1)
0, 21
X − 50, 25 50 − 50, 25
a) P( X < 50) = P < = P( Z < −1, 19) = 0, 1170,
0, 21 0, 21
con lo que el granjero está produciendo un 11, 7 % de sacos que no alcanzan el precio
garantizado.
X−µ
b) Sea µ la media, entonces X → N (µ; 0, 21), de donde Z = → N (0, 1)
0, 21
X−µ 50 − µ
P( X < 50) = P < = P( Z < λ) = 0, 01
0, 21 0, 21
De las tablas de N (0, 1) se obtiene que λ = −2, 33 y por lo tanto:
50 − µ 50 − µ
λ= → −2, 33 = → µ = 50 + 0, 21 · 2, 33 = 50, 48
0, 21 0, 21
De esta forma solo el 1 % de los sacos producidos no alcanzarı́a el peso garantizado.
Ejemplo: Una envasadora de harina de trigo es ajustada de tal manera que la probabilidad
de que llene una bolsa con menos de 6, 0204 kg. sea de 0,102 y que la llene con más de
6, 1984 kg. sea 0,008.
( a) Si el llenado de la envasadora se distribuye de forma aproximadamente normal, deter-
minar su media µ y su desviación estándar σ.
(b) Si se extraen aleatoriamente 10 bolsas, determine la probabilidad de que a lo más 1
bolsa pese 6,08 kg. (Ayuda: determine primero P( X < 6, 08))
Solución.
( a) P( X < 6, 0204) = 0, 102; P( X < 6, 1984) = 0, 992
6, 0204 − µ 6, 1984 − µ
Se obtiene que = −1, 27 y = 2, 41. Luego resolviendo el siste-
σ σ
ma tenemos µ = 6, 08 y σ = 0, 048
(b) P( X < 6, 08) = 0, 5, llamaremos Y al número de bolsas que pesan a lo más 6,08 kg.
ası́ Y → B(10; 0, 5),
10 0 10 10
P (Y ≤ 1 ) = 0, 5 (1 − 0, 5) + 0, 51 (1 − 0, 5)9 = 0, 0107
0 1
x = np.linspace(ss.expon().ppf(.001),ss.expon().ppf(.999),100)
x1 = np.linspace(ss.expon(.2).ppf(.001),
ss.expon(.2).ppf(.999), 100)
x2 = np.linspace(ss.expon(1).ppf(.001),
ss.expon(1).ppf(.999), 100)
x3 = np.linspace(ss.expon(1.5).ppf(.001),
ss.expon(1.5).ppf(.999), 100)
x4 = np.linspace(ss.expon(2).ppf(.001),
ss.expon(2).ppf(.999), 100)
fdp1 = ss.expon().pdf(x1) # Función de Probabilidad
fdp2 = ss.expon().pdf(x2) # Función de Probabilidad
fdp3 = ss.expon().pdf(x3) # Función de Probabilidad
fdp4 = ss.expon().pdf(x4) # Función de Probabilidad
plt.plot(x, fdp1, label=r'$\alpha$ = 0.2')
plt.plot(x, fdp2, label=r'$\alpha$ = 1')
plt.plot(x, fdp3, label=r'$\alpha$ = 1.5')
plt.plot(x, fdp4, label=r'$\alpha$ = 2')
# Arreglos visuales
plt.ylim(0,1)
plt.xlim(0,4)
plt.legend()
plt.gca().spines['top'].set_visible(False)
plt.gca().spines['right'].set_visible(False)
plt.title('Distribución Exponencial para diferentes parámetros')
plt.ylabel('Probabilidad')
plt.xlabel('Valores')
plt.show()
Apunte - Probabilidades
28
Caso discreto.
Sean X e Y dos variables aleatorias discretas que toman un número finito o numerable infinito de
valores. Su función de probabilidad conjunta se define como:
P( X = x ; Y = y ) = f ( x, y)
Debe cumplir:
0 ≤ f ( x, y) ≤ 1
∑∑ f ( x, y) = 1
x y
Caso continuo.
Sean X e Y dos variables aleatorias continuas sobre R. Se define su función de densidad de
probabilidad conjunta como:
f : R2 → R
Debe satisfacer:
f ( x, y) ≥ 0
Z ∞ Z ∞
f ( x, y) dx dy = 1
−∞ −∞
Caso discreto.
Dada una variable aleatoria bidimensional discreta ( X, Y ) con función de probabilidad conjunta:
f ( x, y) = P( X = x; Y = y)
f X (x) = ∑ P(X = x, Y = y) = ∑ f ( x, y)
y y
f Y (y) = ∑ P(X = x, Y = y) = ∑ f ( x, y)
x x
Apunte - Probabilidades
30
Caso continuo.
Dada una variable aleatoria bidimensional continua ( X, Y ) con función de probabilidad conjunta
f ( x, y) con x, y ∈ R. Su función de probabilidad marginal con respecto a X es:
Z ∞
f X (x) = f ( x, y) dy ; x ∈ R
−∞
Covaianza.
La covarianza es el valor estadı́stico que refleja en qué cuantı́a dos variables aleatorias varı́an
de forma conjunta respecto a sus medias. Nos permite saber cómo se comporta una variable en
función de lo que hace otra variable:
Covarianza entre X e Y positiva significa que cuando X sube Y también sube, la relación es
positiva.
Covarianza entre X e Y negativa significa que cuando X sube Y baja, la relación es negativa.
Covarianza entre X e Y cero significa que no hay relación entre las variables.
1 n 1 n
n i∑ n i∑
Cov( X, Y ) = ( X i − X̄ )( Yi − Ȳ ) = Xi Yi − X̄Ȳ
=1 =1
Independencia.
Sean X1 ,..., Xn variables aleatorias definidas sobre el mismo espacio de probabilidad, con funcio-
nes de distribución FX1 ,..., FXn y función de distribución conjunta FX . Se dice que dichas variales
son mutuamente independientes (o, simplemente, independientes) si:
Coeficiente de correlación.
El coeficiente de correlación de Pearson es una prueba que mide la relación estadı́stica entre dos
variables continuas. Si la asociación entre los elementos no es lineal, entonces el coeficiente no
se encuentra representado adecuadamente. El coeficiente de correlación puede tomar un rango
de valores de +1 a −1. Un valor de 0 indica que no hay asociación entre las dos variables. Un
valor mayor que 0 indica una asociación positiva. Lo denotamos por r y se calcula:
Cov( X, Y )
r=
σX · σY
Apunte - Probabilidades
31
Ejemplo: Sean X e Y dos variables aleatorias con función de probabilidad conjunta dada por:
x+y si x = 0, 1, 2
18 si y = 0, 1, 2
f ( x, y) =
0 eoc
a. ¿Cuál es la probabilidad de que X tome valores de al menos uno y que Y sea inferior que
dos?
b. ¿Es posible afirmar que el porcentaje de variabilidad de Y es superior al de X? Justifica tu
respuesta con la medida descriptiva adecuada.
c. ¿Es posible plantear un modelo lineal para estimar valores de Y a partir de X? Justifica tu
respuesta con la medida descriptiva adecuada.
Solución: Primero escribiremos explicitamente la tabla de probabilidad conjunta:
X |Y 0 1 2 Total
0 0 0, 06 0, 11 0, 17
1 0, 06 0, 11 0, 17 0, 33
2 0, 11 0, 17 0, 22 0, 5
Total 0, 17 0, 33 0, 5 1
P ( X ≥ 1 ∩ Y < 2) = P ( X = 1 ∩ Y = 0) + P ( X = 1 ∩ Y = 1) + P ( X = 2 ∩ Y = 0) + P ( X = 2 ∩ Y = 1)
= 0, 06 + 0, 11 + 0, 11 + 0, 17
= 0, 45
La probabilidad es de un 45 %.
b. No es posible, debido a que la distribución genera una tabla de frecuencias conjuntas
simétrica, esto quiere decir:
2 2
E( X ) = ∑ x · P( X = x ) = 1, 33 ; Var ( X ) = ∑ x2 · P( X = x ) −[E( X )]2 = 0, 56
x =0 x =0
| {z }
E( X 2 )
Apunte - Probabilidades
32
Cov( X, Y )
r xy = = −0, 18
σx · σy
Por lo que no es recomendable el modelo lineal, debe ser una relación cercana al 100 %.
Ejemplo: En una consulta pediátrica se quiere estudiar la relación que existe entre los niños
que lloran en la sala de espera ( X ) teniendo algún juguete (Y ) . Los datos son:
X = {0, 1, 2, 3} ; Y = {0, 1, 2}
x+y
....si x ≤ y
k
f (x,y) = ( x − y)
si x > y
k
0 e.o.c
a. Determina el valor de k.
b. Determina la probabilidad de que un niño llore a lo más 1 vez si llevó dos juguetes.
c. Se mide la tasa de ruido en la sala de espera según la siguiente función:
TR = 1,25X − 0,15Y
Solución:
a. Escribiremos la tabla de manera extendida para que sea más fácil trabajar:
X \Y 0 1 2
0 0 1| k 2| k
1 1| k 2| k 3| k
2 2| k 1| k 4| k
3 3| k 2| k 1| k
La suma de todas las probabilidades debe ser igual a 1, por lo que se tiene:
22
= 1 → k = 22
k
Apunte - Probabilidades
33
X \Y 0 1 2
0 0 0, 05 0, 09
1 0, 05 0, 09 0, 14
2 0, 09 0, 05 0, 18
3 0, 14 0, 09 0, 05
b.
P ( X ≤ 2 ∩ Y = 2)
P ( X ≤ 1 |Y = 2 ) =
P (Y = 2 )
f (0, 2) + f (1, 2)
=
f (0, 2) + f (1, 2) + f (2, 2) + f (3, 2)
0, 23
=
0, 45
= 0, 51
= 1, 25 · E( X ) − 0, 15 · E(Y )
= 1, 25 · 1, 73 − 0, 15 · 1, 18
= 1, 98
Varianza de TR:
Var ( TR) = Var (1, 25X − 0, 15Y )
= 1, 49
Apunte - Probabilidades
34
a. Determina el valor de k.
b. Determina la probabilidad que x sea mayor a 0.4.
c. Determina ambas funciones de densidad marginal.
d. Determina si las variables son independientes.
Solución:
a. Para que f ( x, y) sea una función de densidad de probabilidad se debe cumplir que:
Z +∞ Z +∞
f ( x, y) dx dy = 1
−∞ −∞
Resolviendo la integral se obtiene:
Z +∞ Z +∞ Z 1Z 1
f ( x, y) dx dy = kxy dx dy
−∞ −∞ 0 0
1 !
x2
Z 1
= k· y· dy
0 2 0
Z 1
k
= y dy
2 0
1 !
k y2
= ·
2 2 0
k
=
4
k
Como = 1, se tiene que k = 4. Por lo que finalmente la función de densidad resulta:
4
0≤x≤1
4xy
0≤y≤1
f ( x, y) =
0 eoc
b. 1 !
x2
Z 1Z 1 Z 1 Z 1
P( X > 0, 4) = 4xy dx dy = 4 · y· dy = 1, 68 · y dy
0 0,4 0 2 0,4 0
1 !
y2
= 1, 68 · = 0, 84
2 0
Apunte - Probabilidades
35
c. Función de densidad de X:
1 !
y2
Z 1
f X (x) = 4xy dy = 4x · = 2x
0 2 0
Función de densidad de Y:
1 !
x2
Z 1
f Y (y) = 4xy dx = 4y · = 2y
0 2 0
f ( x, y) = f X ( x ) · f (y)
| {z } | {z } |Y{z }
4xy 2x 2y
100 ( x + y) 0 < x < 0,4
9 0 < y < 0,5
f ( x, y) =
0 eoc
Solución:
a. Z 0,5 Z 0,4
100
P( X > 0, 25; Y > 0, 25) = ( x + y) dx dy
0,25 0,25 9
Z 0,5 2 0,4
100 x
= · + xy dy
9 0,25 2 0,25
Z 0,5
100
= · (0, 15y + 0, 04875) dy
9 0,25
0,5
y2
100
= · 0, 15 + 0, 04875y
9 2 0,25
= 0, 29
= 0, 35
c.
P( X + Y < 0, 6) = P( X < 0, 6 − Y )
Z 0,5 Z 0,6−y
100
= ( x + y) dx dy
0 0 9
= 0, 7685
X1 + X2 + ... + Xn µ + µ2 + ... + µn
→ 1
n n
Si todas las variables tienen la misma media µ, es decir, E( Xi ) = µ para todo i ∈ [1, ..., n].
Entonces:
X1 + X2 + ... + Xn
X̄ =
n
n - veces
z }| {
µ + µ + ... + µ
≈
n
nµ
=
n
= µ
Esto significa que el valor esperado de la variable aleatoria media muestral es µ, es decir:
E( X̄ ) = µ
Además establece que la variable aleatoria X̄ sigue una distribución normal. X̄ es una variable
aleatoria, ya que depende de la muestra seleccionada, es decir, varı́a dependiendo de la muestra
seleccionada (depende de los datos).
Observación 6. Notar que las variables aleatorias X1 , X2 ,..., Xn puden tener cualquier tipo de
distribución, es decir, no se puede predecir su comportamiento.
Si las variables aleatorias X1 , X2 ,..., Xn vienen de una misma población de distribucion desco-
nocida, es decir, no se conoce su comportamiento individual, pero sabemos que E( Xi ) = µ y
Var ( Xi ) = σ2 . Si tenemos una muestra suficientemente grande sabemos, por la ley de los gran-
des números, que E( X̄ ) = µ, X̄ es una variable aleatoria. La varianza de esta viene dada por:
X1 + X2 + ... + Xn 1
Var ( X̄ ) = Var = Var ( X1 + X2 + ... + Xn )
n n2
1 1 2
2 = σ
= ( Var ( X 1 ) + Var ( X 2 ) + ... + Var ( X n )) = nσ
n2 n2 n
De aquı́, podemos concluir que:
σ2
X̄ ∼ N µ ,
n
Apunte - Probabilidades
39
Esto último se conoce como el teorema central del lı́mite. En conclusión, no se puede predecir el
comportamiento individual, pero so el comportamiento promedio. Además, mientras más grande
la muestra la varianza es menor, por lo tanto, es más precisa la predicción.
Veamos el experimento de lanzar una moneda (no cargada) al aire y que su resultado sea cara.
Desde un enfoque ”frecuentista” si solo nos quedamos con los primeros lanzamientos, la pro-
babilidad de sacar cara no será precisamente 0,5. Sin embargo, a medida que aumentamos los
lanzamientos, en el largo plazo veremos como la probabilidad de obtener cara se estabiliza en
0,5. Veamos esto simulando 10.000 lanzamientos con Python.
[7]: # Ejemplo ley de grandes números
# moneda p=1|2 cara=1 cruz=0
resultados = []
for lanzamientos in range(1,10000):
lanzamientos = np.random.choice([0,1], lanzamientos)
caras = lanzamientos.mean()
resultados.append(caras)
# graficamente
df = pd.DataFrame({ 'lanzamientos' : resultados})
plt.xlabel("Número de lanzamientos")
plt.ylabel("Frecuencia caras")
plt.show()
Apunte - Probabilidades
40
= 1 − P ( Z < 0, 51)
= 1 − 0, 69497
= 0, 305.
Por lo que existe un 31 % de probabilidad de que suene la alarma con 6 ocupantes.
Apunte - Probabilidades
41
2. Debemos encontrar:
!
6
P X̄ > 74, 17 ∑ Xi < 460 = P ( X̄ > 74, 17| X̄ < 76, 67)
i =1
0, 69497 − 0, 40129
=
0, 69497
= 0, 423
Por lo que cuando no suena la alarma, la probabilidad de que el promedio de peso no sea
menor a 74,17 kg es 42 %.
Ejemplo: Si la edad de personas que postulan a cierto cargo se distribuye de forma normal con
media 46,6 años y una desviación estándar de 13,97 años.
Se elige una muestra aleatoria de 25 postulantes de la población en estudio:
1. Determina la probabilidad de que el promedio de la muestra supere los 41 años.
2. ¿Cuál es la probabilidad de que la suma de las edades de la muestra sea mayor a 1200?
Solución:
1. Nos piden:
P( X̄ > 41) = 1 − P( X̄ < 41)
= 1−P X̄ − µ <
41 − 46, 6
√σ 13,97
√
n 25
= 1 − 0, 0228
= 0, 9772
Por lo que la probabilidad de que el promedio de las edades de una muestra de 25 postu-
lantes supere los 41 años es de un 97, 7 %.
Apunte - Probabilidades
42
2. Debemos obtener:
! !
25 25
P ∑ Xi > 1200 = 1−P ∑ Xi < 1200
i =1 i =1
!
1 25 1200
25 i∑
= 1−P Xi <
=1
25
= 1 − P( X̄ < 48)
= 1 − P( Z < 0, 50)
= 1 − 0, 6915
= 0, 30854
Por lo que la probabilidad de que la suma de las edades de una muestra de 25 postulantes
supere los 1200 años es de 30, 9 %.
Tabla 1. Distribución Normal estandarizada N(0, 1)
FZ (z0 ) = P(Z z0 )
z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
-3,5 0,00023 0,00022 0,00022 0,00021 0,00020 0,00019 0,00019 0,00018 0,00017 0,00017
-3,4 0,00034 0,00032 0,00031 0,00030 0,00029 0,00028 0,00027 0,00026 0,00025 0,00024
-3,3 0,00048 0,00047 0,00045 0,00043 0,00042 0,00040 0,00039 0,00038 0,00036 0,00035
-3,2 0,00069 0,00066 0,00064 0,00062 0,00060 0,00058 0,00056 0,00054 0,00052 0,00050
-3,1 0,00097 0,00094 0,00090 0,00087 0,00084 0,00082 0,00079 0,00076 0,00074 0,00071
-3,0 0,00135 0,00131 0,00126 0,00122 0,00118 0,00114 0,00111 0,00107 0,00104 0,00100
-2,9 0,00187 0,00181 0,00175 0,00169 0,00164 0,00159 0,00154 0,00149 0,00144 0,00139
-2,8 0,00256 0,00248 0,00240 0,00233 0,00226 0,00219 0,00212 0,00205 0,00199 0,00193
-2,7 0,00347 0,00336 0,00326 0,00317 0,00307 0,00298 0,00289 0,00280 0,00272 0,00264
-2,6 0,00466 0,00453 0,00440 0,00427 0,00415 0,00402 0,00391 0,00379 0,00368 0,00357
-2,5 0,00621 0,00604 0,00587 0,00570 0,00554 0,00539 0,00523 0,00508 0,00494 0,00480
-2,4 0,00820 0,00798 0,00776 0,00755 0,00734 0,00714 0,00695 0,00676 0,00657 0,00639
-2,3 0,01072 0,01044 0,01017 0,00990 0,00964 0,00939 0,00914 0,00889 0,00866 0,00842
-2,2 0,01390 0,01355 0,01321 0,01287 0,01255 0,01222 0,01191 0,01160 0,01130 0,01101
-2,1 0,01786 0,01743 0,01700 0,01659 0,01618 0,01578 0,01539 0,01500 0,01463 0,01426
-2,0 0,02275 0,02222 0,02169 0,02118 0,02068 0,02018 0,01970 0,01923 0,01876 0,01831
-1,9 0,02872 0,02807 0,02743 0,02680 0,02619 0,02559 0,02500 0,02442 0,02385 0,02330
-1,8 0,03593 0,03515 0,03438 0,03362 0,03288 0,03216 0,03144 0,03074 0,03005 0,02938
-1,7 0,04457 0,04363 0,04272 0,04182 0,04093 0,04006 0,03920 0,03836 0,03754 0,03673
-1,6 0,05480 0,05370 0,05262 0,05155 0,05050 0,04947 0,04846 0,04746 0,04648 0,04551
-1,5 0,06681 0,06552 0,06426 0,06301 0,06178 0,06057 0,05938 0,05821 0,05705 0,05592
-1,4 0,08076 0,07927 0,07780 0,07636 0,07493 0,07353 0,07215 0,07078 0,06944 0,06811
-1,3 0,09680 0,09510 0,09342 0,09176 0,09012 0,08851 0,08691 0,08534 0,08379 0,08226
-1,2 0,11507 0,11314 0,11123 0,10935 0,10749 0,10565 0,10383 0,10204 0,10027 0,09853
-1,1 0,13567 0,13350 0,13136 0,12924 0,12714 0,12507 0,12302 0,12100 0,11900 0,11702
-1,0 0,15866 0,15625 0,15386 0,15151 0,14917 0,14686 0,14457 0,14231 0,14007 0,13786
-0,9 0,18406 0,18141 0,17879 0,17619 0,17361 0,17106 0,16853 0,16602 0,16354 0,16109
-0,8 0,21186 0,20897 0,20611 0,20327 0,20045 0,19766 0,19489 0,19215 0,18943 0,18673
-0,7 0,24196 0,23885 0,23576 0,23270 0,22965 0,22663 0,22363 0,22065 0,21770 0,21476
-0,6 0,27425 0,27093 0,26763 0,26435 0,26109 0,25785 0,25463 0,25143 0,24825 0,24510
-0,5 0,30854 0,30503 0,30153 0,29806 0,29460 0,29116 0,28774 0,28434 0,28096 0,27760
-0,4 0,34458 0,34090 0,33724 0,33360 0,32997 0,32636 0,32276 0,31918 0,31561 0,31207
-0,3 0,38209 0,37828 0,37448 0,37070 0,36693 0,36317 0,35942 0,35569 0,35197 0,34827
-0,2 0,42074 0,41683 0,41294 0,40905 0,40517 0,40129 0,39743 0,39358 0,38974 0,38591
-0,1 0,46017 0,45620 0,45224 0,44828 0,44433 0,44038 0,43644 0,43251 0,42858 0,42465
-0,0 0,50000 0,49601 0,49202 0,48803 0,48405 0,48006 0,47608 0,47210 0,46812 0,46414
0,0 0,50000 0,50399 0,50798 0,51197 0,51595 0,51994 0,52392 0,52790 0,53188 0,53586
0,1 0,53983 0,54380 0,54776 0,55172 0,55567 0,55962 0,56356 0,56749 0,57142 0,57535
0,2 0,57926 0,58317 0,58706 0,59095 0,59483 0,59871 0,60257 0,60642 0,61026 0,61409
0,3 0,61791 0,62172 0,62552 0,62930 0,63307 0,63683 0,64058 0,64431 0,64803 0,65173
0,4 0,65542 0,65910 0,66276 0,66640 0,67003 0,67364 0,67724 0,68082 0,68439 0,68793
0,5 0,69146 0,69497 0,69847 0,70194 0,70540 0,70884 0,71226 0,71566 0,71904 0,72240
0,6 0,72575 0,72907 0,73237 0,73565 0,73891 0,74215 0,74537 0,74857 0,75175 0,75490
0,7 0,75804 0,76115 0,76424 0,76730 0,77035 0,77337 0,77637 0,77935 0,78230 0,78524
0,8 0,78814 0,79103 0,79389 0,79673 0,79955 0,80234 0,80511 0,80785 0,81057 0,81327
0,9 0,81594 0,81859 0,82121 0,82381 0,82639 0,82894 0,83147 0,83398 0,83646 0,83891
1,0 0,84134 0,84375 0,84614 0,84849 0,85083 0,85314 0,85543 0,85769 0,85993 0,86214
1,1 0,86433 0,86650 0,86864 0,87076 0,87286 0,87493 0,87698 0,87900 0,88100 0,88298
1,2 0,88493 0,88686 0,88877 0,89065 0,89251 0,89435 0,89617 0,89796 0,89973 0,90147
1,3 0,90320 0,90490 0,90658 0,90824 0,90988 0,91149 0,91309 0,91466 0,91621 0,91774
1,4 0,91924 0,92073 0,92220 0,92364 0,92507 0,92647 0,92785 0,92922 0,93056 0,93189
1,5 0,93319 0,93448 0,93574 0,93699 0,93822 0,93943 0,94062 0,94179 0,94295 0,94408
1,6 0,94520 0,94630 0,94738 0,94845 0,94950 0,95053 0,95154 0,95254 0,95352 0,95449
1,7 0,95543 0,95637 0,95728 0,95818 0,95907 0,95994 0,96080 0,96164 0,96246 0,96327
1,8 0,96407 0,96485 0,96562 0,96638 0,96712 0,96784 0,96856 0,96926 0,96995 0,97062
1,9 0,97128 0,97193 0,97257 0,97320 0,97381 0,97441 0,97500 0,97558 0,97615 0,97670
2,0 0,97725 0,97778 0,97831 0,97882 0,97932 0,97982 0,98030 0,98077 0,98124 0,98169
2,1 0,98214 0,98257 0,98300 0,98341 0,98382 0,98422 0,98461 0,98500 0,98537 0,98574
2,2 0,98610 0,98645 0,98679 0,98713 0,98745 0,98778 0,98809 0,98840 0,98870 0,98899
2,3 0,98928 0,98956 0,98983 0,99010 0,99036 0,99061 0,99086 0,99111 0,99134 0,99158
2,4 0,99180 0,99202 0,99224 0,99245 0,99266 0,99286 0,99305 0,99324 0,99343 0,99361
2,5 0,99379 0,99396 0,99413 0,99430 0,99446 0,99461 0,99477 0,99492 0,99506 0,99520
2,6 0,99534 0,99547 0,99560 0,99573 0,99585 0,99598 0,99609 0,99621 0,99632 0,99643
2,7 0,99653 0,99664 0,99674 0,99683 0,99693 0,99702 0,99711 0,99720 0,99728 0,99736
2,8 0,99744 0,99752 0,99760 0,99767 0,99774 0,99781 0,99788 0,99795 0,99801 0,99807
2,9 0,99813 0,99819 0,99825 0,99831 0,99836 0,99841 0,99846 0,99851 0,99856 0,99861
3,0 0,99865 0,99869 0,99874 0,99878 0,99882 0,99886 0,99889 0,99893 0,99896 0,99900
3,1 0,99903 0,99906 0,99910 0,99913 0,99916 0,99918 0,99921 0,99924 0,99926 0,99929
3,2 0,99931 0,99934 0,99936 0,99938 0,99940 0,99942 0,99944 0,99946 0,99948 0,99950
3,3 0,99952 0,99953 0,99955 0,99957 0,99958 0,99960 0,99961 0,99962 0,99964 0,99965
3,4 0,99966 0,99968 0,99969 0,99970 0,99971 0,99972 0,99973 0,99974 0,99975 0,99976
3,5 0,99977 0,99978 0,99978 0,99979 0,99980 0,99981 0,99981 0,99982 0,99983 0,99983
Apunte - Probabilidades
44
Referencias bibliográficas.
1. Devore, J. L. (2008). Probabilidad y estadı́stica para ingenierı́as y ciencias. Cengage Lear-
ning Editores.
2. Walpole, R. E., Myers, R. H., Myers, S. L., & Ye, K. (2007). Probabilidad y estadı́stica para
ingenierı́a y ciencias. Norma, 162, 157.
3. Montgomery, D. C., Runger, G. C., & Medal, E. G. U. (1996). Probabilidad y estadı́stica
aplicadas a la ingenierı́a (No. 968-18-5914-6. 01-A1 LU. AL-PyE. 1.). Mexico DF, Mexico:
McGraw-Hill.