Está en la página 1de 44

APUNTE

PROBABILIDADES

Castillo, S. (2021) & Moraga, F (2022).


Material didáctico
UniversidadAndrés Bello, Santiago.
Apunte - Probabilidades
2

1. Introducción.
Este curso tendrá un enfoque teórico y aplicado con Python. Para que los códigos funcionen
correctamente se deben cargar las siguientes librerı́as en el notebook de trabajo.
[1]: %matplotlib inline
import numpy as np
import matplotlib.pyplot as plt
import scipy.stats as ss
import pandas as pd
import re
import math

2. Definición y conceptos previos.


Comenzamos nuestro estudio estableciendo algunos conceptos que nos entregarán una mejor
visión y mayor entendimiento del estudio de probabilidades y sus aplicaciones.
Conceptos.
1. Experimento: Se puede definir un experimento como un proceso mediante el cual se obtiene
un resultado a través de una observación. Basados en esta definición se pueden distinguir
dos tipos de experimentos:
a. Experimento determinı́stico: Este tipo de experimento se da cuando se puede predecir
de manera precisa su resultado.
Ejemplo: Si consideramos el experimento que consiste en lanzar una piedra vertical-
mente hacia arriba, sabemos con seguridad que la piedra subirá durante un momento
y luego bajará.
b. Experimento aleatorio: Este experimento de especial interés en nuestro estudio, resul-
ta cuando el resultado del experimento no se puede predecir con exactitud.
Ejemplo: El experimento de lanzar dos dados y sumar los resultados, ya que no po-
demos determinar precisamente el resultado final ( no se puede predecir con exactitud),
sino que tenemos un conjunto de posibles resultados.
2. Espacio muestral y eventos: El espacio muestral se refiere al conjunto que contiene todos
los resultados posibles de un experimento aleatorio, el cual se representa por la letra
griega omega (Ω). Por lo tanto, cada resultado posible de un experimento aleatorio será un
elemento de Ω. A estos puntos también se les conoce con el nombre de puntos muestrales.
Por otro lado, el evento o suceso, resulta ser cualquier subconjunto del espacio muestral y
sus elementos son la respuesta de la caracterı́stica del estudio.
Ejemplo: Experimento: Lanzamiento de un dado.

Ω = {1, 2, 3, 4, 5, 6}
Apunte - Probabilidades
3

Con base en este experimento, podemos escribir eventos, analizando los valores o respues-
tas de la caracterı́stica estudiada. El espacio muestral tiene 6 elementos y algunos eventos
o sucesos posibles son:
E1 : Obtener un número par → E1 = {2, 4, 6} → E1 tiene 3 elementos
E2 : Obtener un número impar → E2 = {1, 3, 5} → E2 tiene 3 elementos
E3 : Obtener a lo más un 5 → E3 = {1, 2, 3, 4, 5} → E3 tiene 5 elementos
E4 : Obtener a lo menos un 2 → E4 = {2, 3, 4, 5, 6} → E4 tiene 5 elementos

3. Principio multiplicativo: Si una operación puede realizarse de ”n” maneras posibles, y cada
una de estas operaciones a su vez puede realizarse de ”m” maneras, entonces el total de
operaciones que pueden realizarse es de ”n · m” maneras.
Ejemplo: Sea el experimento de lanzar dos dados simultáneamente, entonces definimos:
Ω1 = Resultados posibles al lanzar el dado 1
Ω2 = Resultados posibles al lanzar el dado 2
Entonces, podemos decir que el total de resultados de cada espacio muestral es:
#Ω1 = 6 y #Ω2 = 6
Por lo tanto, el total de resultados posibles en conjunto, es decir, el total de resultados que
se pueden formar al lanzar los dos dados es de:
#Ω1 · #Ω2 = 6 · 6 = 36 resultados posibles

donde # determina la cardinalidad del conjunto, es decir, su cantidad de elementos.


4. Probabilidad frecuentista: Sea un espacio muestral Ω cualquiera con una cantidad finita de
elementos, y sea el evento E asociado a este espacio muestral, entonces podemos decir
que si la ocurrencia de cada uno de los elementos que componen el evento es la misma, la
probabilidad de que ocurra el evento E, denotada como P( E), se define como:
Total de resultados posibles del evento E #E
P( E) = =
Total de resultados del espacio muestral Ω #Ω
Los espacios muestrales que cumplen con esta condición se conocen como espacios equi-
probables, es decir, todos sus elementos tienen la misma probabilidad de aparecer al rea-
lizar el experimento, por ejemplo al lanzar un dado, lanzar una moneda, sacar una carta de
un mazo, etc.
Ejemplo: Sea el experimento ”lanzar un dado”. Sabemos que el espacio muestral asocia-
do a este experimento viene dado por Ω = {1, 2, 3, 4, 5, 6}. Determinemos la probabilidad de
ocurrencia de los siguientes eventos:
a. Sea E1 : Obtener un número par → E1 = {2, 4, 6}, entonces la probabilidad de ocurren-
cia del evento 1, será:
# E1 3
P( E1 ) = = = 0, 5
#Ω 6
b. Sea E2 : Obtener a lo más un 5 → E2 = {1, 2, 3, 4, 5}, entonces la probabilidad de
ocurrencia del evento 2, será:
# E2 5
P( E2 ) = = = 0, 8333
#Ω 6
Apunte - Probabilidades
4

c. Sea E3 : Obtener a lo menos un 5 → E3 = {5, 6}, entonces la probabilidad de ocurrencia


del evento 3, será:
# E3 2
P( E3 ) = = = 0, 3333
#Ω 6

5. Teorı́a de conjuntos: En la teorı́a de conjuntos existen conceptos que debemos repasar, ya


que son de mucha ayuda a la hora de calcular o entender la probabilidad de cierto tipo de
eventos, a saber:
La intersección de dos eventos A y B se refiere a los elementos comunes o que se
repitan entre ellos. Se representa por A ∩ B. La unión por otro lado, se refiere a todos los
elementos de ambos conjuntos, pero se debe considerar que no se deben contar dos veces
los datos que estén en ambos conjuntos al mismo tiempo y es por esta razón que para el
cálculo de la cardinalidad de la unión se debe restar una vez la intersección. Finalmente,
el complemento de un evento A cualquiera representa los elementos que pertenecen
al espacio muestral Ω, pero que no están en A y se representa por Ac . Podemos notar
inmediatamente que A ∩ Ac = ∅ (conjunto vacı́o) y A ∪ Ac = Ω.

Propiedades.
Para poder trabajar y definir la probabilidad, consideremos un espacio muestral Ω proveniente
de un experimento aleatorio. Sea A cualquier evento, es decir, cualquier subconjunto de Ω, le
asociamos su probabilidad, denotada P( A), la cual es un número que cuantifica qué tan posible
o esperable es la ocurrencia de dicho evento. La probabilidad cumple las siguientes propiedades
intuitivas fundamentales:
a. 0 ≤ P( A) ≤ 1, es decir, la probabilidad de cualquier evento siempre es un número entre
0 y 1, que representa desde el 0 % (no ocurre con total certeza) hasta un 100 % (ocurre con
total certeza).
b. P(Ω) = 1, es decir, la probabilidad de que ocurra alguno de los resultados del espacio
muestral es 100 % (suceso seguro).
c. P(∅) = 0, es decir, la probabilidad de que no ocurra ninguno de los resultados de Ω es 0 %.
Notar que, si para un evento se tiene P( A) = 0, esto no quiere decir necesariamente que A
es el conjunto vacı́o.
d. Si dos eventos A y B son mutuamente excluyentes, es decir, A ∩ B = ∅, entonces la
probabilidad de su unión es la suma de sus probabilidades: P( A ∪ B) = P( A) + P( B).
e. P( A) = 1 − P( Ac ), es decir, la probabilidad de ocurrencia de un evento es igual a 1 menos
la probabilidad de ocurrencia de su complemento. Notemos que P( A) + P( Ac ) = 1.
f. P( A ∪ B) = P( A) + P( B) − P( A ∩ B), propiedad de la probabilidad para la unión de con-
juntos.
Apunte - Probabilidades
5

3. Teorı́a clásica de probabilidades.


La teorı́a de probabilidad es el área de las matemáticas que se encarga del estudio de los fenóme-
nos o experimentos aleatorios (o azarosos). Por experimento aleatorio entenderemos todo aquel
experimento que cuando se repite bajo las mismas condiciones iniciales, el resultado que se
obtiene no siempre es el mismo. El ejemplo más sencillo de un experimento aleatorio es el de
lanzar una moneda o un dado y, aunque estos experimentos pueden parecer muy modestos, hay
situaciones en donde se utilizan para tomar decisiones de cierta importancia. Comenzaremos
introduciendo una definición.
Definición 1. Considera un espacio muestral Ω, diremos que un conjunto de ”n” eventos de este
espacio { A1 , A2 , ..., An } es una partición de Ω se cumple que:
La intersección entre cualquiera de ellos es vacı́a (mutuamente excluyentes), es decir, Ai ∩
A j = ∅ para todo i ̸= j.
La unión de todos ellos resulta en el espacio muestral, es decir, A1 ∪ A2 ∪ ... ∪ An = Ω.
| {z }
∪in=1 Ai
Observación 1. Siempre A y Ac representan una partición de Ω. Las particiones tienen muchas
aplicaciones prácticas, por ejemplo, una empresa que tiene dos o más fabricas desea estudiar
la correcta producción de cierto artı́culo, cada fabrica representa un evento distinto y todos ellos
en conjunto representan la producción completa de la empesa a estudiar o el espacio muestral
Ω. En la práctica nos enfrentaremos en varias ocasiones a las particiones ya que es la única
manera de estudiar algunos eventos.
Ejemplo: Para el experimento de lanzar un dado se podrı́a considerar como una partición de
ellos los conjuntos A1 : obtener un número par con A2 : obtener un número impar.

4. Probabilidad condicionada.
Es muy común tener que conocer la probabilidad de un cierto evento cuando ya se sabe que otro
evento sucedió. A este escenario se le conoce como probabilidad condicional o condicionada.
Para dos eventos cualesquiera A y B con P( B) > 0, se define la probabilidad condicionada como:

P( A ∩ B)
P( A| B) =
P( B)

donde P( A| B) se lee como ”probabilidad de que ocurra el evento A, dado que ya ocurrió el evento
B”.
De la expresión anterior podemos desprender la regla general de multiplicación, como:

P( A ∩ B) = P( B) · P( A| B)

Como dijimos, sean los eventos A y B de un espacio muestral Ω , entonces la notación de una
probabilidad condicional viene dada por:

P( A| B) : Es la probabilidad del evento A, dado que el evento B ya ha sucedido.


P( B| A) : Es la probabilidad del evento B, dado que el evento A ya ha sucedido.
Apunte - Probabilidades
6

Ejemplo:
Probabilidad condicional. De un grupo de 70 estudiantes se conoce que 35 alumnos apro-
baron álgebra, 30 cálculo y 5 alumnos ambas materias. Si escogemos a un alumno al azar,
calcular la probabilidad de que:
a. Apruebe cálculo dado que aprobó álgebra.
b. Apruebe álgebra dado que aprobó cálculo.
c. Apruebe alguna de las materias.
Solución. Primero llamaremos a los eventos C : aprueba cálculo y A : aprueba álgebra.
Sabemos que P(C ) = 30 35 5
70 , P ( A ) = 70 y P (C ∩ A ) = 70 . Finalmente, el cálculo de las
probabilidades condicionales son:
P(C ∩ A) 5
a. P(C | A) = = = 0, 1429
P( A) 35
P( A ∩ C ) 5
b. P( A|C ) = = = 0, 1667
P(C ) 30
35 30 5
c. P( A ∪ C ) = P( A) + P(C ) − P( A ∩ C ) = + − = 0, 8571
70 70 70
Regla general de multiplicación. Supongamos que una librerı́a pone a la venta 15 ejem-
plares de un texto de cálculo, pero sabe que 5 de ellos se encuentran con defectos. Deter-
mina la probabilidad de que se vendan:
a. Sucesivamente dos textos en buenas condiciones.
b. Sucesivamente dos textos con defectos.
c. Un texto bueno y otro defectuoso.
Solución. Definimos los eventos de estudio:
B1 : Evento el primer texto vendido es bueno
B2 : Evento el segundo texto vendido es bueno
D1 : Evento el primer texto vendido es defectuoso
D2 : Evento el segundo texto vendido es defectuoso

Entonces, con estos eventos definimos:


10 9
a. P( B1 ∩ B2 ) = P( B1 ) · P( B2 | B1 ) = · = 0, 4286
15 14
5 4
b. P( D1 ∩ D2 ) = P( D1 ) · P( D2 | D1 ) = · = 0, 0952
15 14
10 5
c. P( B1 ∩ D2 ) = P( B1 ) · P( D2 | B1 ) = · = 0, 2381
15 14
Observación 2. El conjunto D1 = B1c y D2 = B2c .
Definición 2. Dos eventos son independientes entre sı́, si y solo si P( A ∩ B) = P( A) · P( B). Es
decir, los eventos son independientes si la ocurrencia de A no afecta la ocurrencia del evento B,
por lo tanto, P( A| B) = P( A) o bien P( B| A) = P( B).
Apunte - Probabilidades
7

Ejemplo: Se tiene una urna con 3 bolitas azules y 5 bolitas rojas, determina la probabilidad de
extraer, con reposición, una bolita azul y otra roja.
Solución. Definimos los eventos:
A : Evento de sacar una bolita azul.
R : Evento de sacar una bolita roja.

Por lo tanto,
P( A ∩ R) = P( A) · P( B| A)
= P( A) · P( B)
3 5
= ·
8 8
= 0, 2344

5. Teorema de probabilidad total.


Sea un conjunto B asociado a un espacio muestral Ω, el cual es dividido en ”n” particiones, es
decir; { A1 , A2 , ..., An } es una partición de Ω. Ahora, la probabilidad del evento B, conocidos los
eventos Ai que corresponden a la partición del espacio muestral Ω, se determina utilizando el
concepto del probabilidad condicional, esto es:

P( B) = P( B ∩ A1 ) + P( B ∩ A2 ) + .... + P( B ∩ An )
= P( B| A1 ) · P( A1 ) + P( B| A2 ) · P( A2 ) + ... + P( B| An ) · P( An )
n
= ∑ P ( B | Ai ) · P ( Ai )
i =1

6. Teorema de Bayes.
Este teorema nos permite el cálculo de probabilidades de un evento si se conocen las otras
probabilidades del espacio muestral. Sean A y B dos eventos asociados al espacio muestral,
entonces:
P( B| A) · P( A)
P( A| B) =
P( B)

Observación 3. Como A ∩ B = B ∩ A, lo que implica que:

P( A ∩ B) = P( B ∩ A) → P( A| B) · P( B) = P( B| A) · P( A)

Ejemplo: Una cadena de tiendas de video vende tres marcas diferentes de reproductores de
DVD. De sus ventas de reproductores de DVD, 50 % son de la marca 1 (la menos cara), 30 % son
de la marca 2 y 20 % son de la marca 3. Cada fabricante ofrece 1 año de garantı́a en las partes
y mano de obra. Se sabe que 25 % de los reproductores de DVD de la marca 1 requieren trabajo
de reparación dentro del periodo de garantı́a, mientras que los porcentajes correspondientes de
las marcas 2 y 3 son 20 % y 10 %, respectivamente.
1. ¿Cuál es la probabilidad de que un comprador seleccionado al azar haya adquirido un re-
productor de DVD marca 1 que necesitará reparación mientras se encuentra dentro de ga-
rantı́a?
Apunte - Probabilidades
8

2. ¿Cuál es la probabilidad de que un comprador seleccionado al azar haya comprado un


reproductor de DVD que necesitará reparación mientras se encuentra dentro de garantı́a?
3. Si un cliente regresa a la tienda con un reproductor de DVD que necesita reparación dentro
de garantı́a, ¿cuál es la probabilidad de que sea un reproductor de DVD marca 1?
Solución.
Se definen los eventos:
M1 : DVD es la de marca 1.
M2 : DVD es de la marca 2.
M3 : DVD es de la marca 3.
R: DVD necesita reparación dentro de la garantı́a.
Del enunciado se tienen las siguientes probabilidades:

P( M1 ) = 0, 5 P( R| M1 ) = 0, 25
P( M2 ) = 0, 3 P( R| M2 ) = 0, 2
P( M3 ) = 0, 2 P( R| M3 ) = 0, 1

1. P( R ∩ M1 ) = P( R| M1 ) · P( M1 ) = 0, 25 · 0, 5 = 0, 125.
2. Aplicando teorema de probabilidad total se tiene:
P( R) = P( R| M1 ) · P( M1 ) + P( R| M2 ) · P( M2 ) + P( R| M3 ) · P( M3 )
= 0, 25 · 0, 5 + 0, 2 · 0, 3 + 0, 1 · 0, 2
= 0, 205.
3. Aplicando el teorema de Bayes:
P( R| M1 ) · P( M1 )
P( M1 | R) =
P( R)

0, 25 · 0, 5
=
0, 205

= 0, 609.
Ejemplo: Una compañı́a de transporte de mercancı́as cubre tres lı́neas de forma que el 50 %,
30 % y 20 % de sus camiones trabajan en la lı́nea 1, en la lı́nea 2 y en la 3, respectivamente. Se
sabe que la probabilidad de que un camión esté averiado en la lı́nea es, respectivamente, 0,03;
0,04 y 0,01. Calcular:
( a) La probabilidad de que un camión esté averiado.
(b) Sabiendo que un camión está averiado, la probabilidad de que sea de la lı́nea 2.
Apunte - Probabilidades
9

Solución. Definimos los eventos y sus probabilidades:

L1 : camión pertenece a la lı́nea 1. P( L2 ) = 0, 3.


L2 : camión pertenece a la lı́nea 2. P( L3 ) = 0, 2.
L3 : camión pertenece a la lı́nea 3. P( A| L1 ) = 0, 03.
A : camión está averiado. P( A| L2 ) = 0, 04.
P( L1 ) = 0, 5. P( A| L3 ) = 0, 01.

( a) Utilizando teorema de probabilidad total tenemos:

P ( A ) = P ( A | L1 ) · P ( L1 ) + P ( A | L2 ) · P ( L2 ) + P ( A | L3 ) · P ( L3 )
= 0, 03 · 0, 5 + 0, 04 · 0, 3 + 0, 01 · 0, 2
= 0, 029

(b) Utilizando teorema de Bayes tenemos:

P ( A | L2 ) · P ( L2 )
P ( L2 | A ) =
P( A)
0, 04 · 0, 3
=
0, 029
= 0, 414
Apunte - Probabilidades
10

7. Variables aleatorias.
Una variable aleatoria (v.a.) o variable estocástica es una función cuyo dominio es el espacio
muestral y cuyo rango es el conjunto de números reales. Es decir, sea X una v.a.

X:Ω→R

Ejemplo: Por ejemplo, definimos X como una variable aleatoria que cuenta el número de caras
al lanzar una moneda.

8. Variables aleatorias discretas.


Una variable aleatoria discreta se da cuando su rango es un conjunto numerable de valores, es
decir:
X:Ω→Z

Ejemplo:
Experimento: Lanzar dos monedas, la variable aleatoria X determinará el número de caras
obtenidas, Ω = {cc, cs, sc, ss}, cuyo rango resulta R = {2, 1, 1, 0}.
Experimento: Lanzar dos dados, la variable aleatoria X determinará la suma de los núme-
ros obtenidos, el espacio muestral Ω posee 36 posibles resultados, cuyo rango es R =
{2, 3, ..., 12}.

9. Función de probabilidad.
Una variable aleatoria no necesariamente tiene que estar sobre un espacio equiprobable, lo que
significa que no podremos determinar la probabilidad usando esa regla.
Si X es una variable aleatoria discreta, entonces se llama función de densidad de probabilidad de
X a la función f ( x ), donde:
f ( xi ) = P ( X = xi )
También llamada probabilidad de xi , para todo xi pertenecientes al dominio.

Una función de densidad de probabilidad debe satisfacer las siguientes condiciones:


f ( xi ) ≥ 0, es decir, la probabilidad calculada debe ser necesariamente en valor positivo o
igual a cero.

∑ f ( xi ) = 1, es decir, la suma de todas las probabilidades parciales de un espacio mues-


xi ∈ Ω
tral debe ser igual a 1.
Apunte - Probabilidades
11

Esperanza y varianza.
Junto con el desarrollo de un experimento aleatorio, es claro que algunos resultados son es-
perados. Al valor esperado se le conoce con el nombre de esperanza matemática (E( X )). La
esperanza matemática es el valor que deberı́a obtenerse como promedio luego de realizar infi-
nitas veces el experimento. Su cálculo se desarrolla como una media ponderada, es decir, cada
valor xi , se multiplica por su probabilidad respectiva:
n
E( X ) = ∑ xi · f ( xi )
i =1

Propiedades.
I. E( a) = a, con a constante. Es decir, la esperanza de una constante es constante.
II . E( X ± Y ) = E( X ) ± E(Y ), es decir, la esperanza de la suma o resta se puede separar en
la suma de las esperanzas, donde Y corresponde a otra variable aleatoria.
III . E( a · X ) = a · E( X ), es decir, la esperanza de una variable por una constante es la constante
multiplicada por la esperanza de la variable.
Sea X la variable aleatoria discreta con función de densidad de probabilidad f ( x ), la varianza de
x, se denota por σ2 ( X ), V ( X ). Su cálculo se desarrolla de la siguiente manera:

V ( X ) = E( X 2 ) − [ E( X )]2
n
donde, E( X 2 ) es la esperanza de los datos al cuadrado, E( X 2 ) = ∑ xi2 · f ( xi ).
i =1
Propiedades.
I. V ( a) = 0, es decir, la varianza de una constante es cero, no varı́a.
II . V ( a + X ) = V ( X ), es decir, la varianza de una constante sumada a una variable aleatoria
es la varianza de la variable aleatoria.
III . V ( a · X ) = a2 · V ( X ), es decir, la varianza de una variable por una constante es la constante
al cuadrado multiplicada por la varianza de la variable.
Ejemplo: Se tiene la variable aleatoria que representa la cantidad de créditos pedidos por un
cliente:
x 1 2 3 4 5 6 7
P( X = x ) 0, 15 k 0, 19 0, 08 0, 26 0, 03 0, 14
( a) Encuentra el valor de la constante k.
(b) Si un cliente solicitó más de 2 créditos, determina la probabilidad de que haya solicitado
menos de 5 créditos.
Apunte - Probabilidades
12

Solución.
( a) Sumando las probabilidades e igualando a la condición de sumar 1 tenemos que:
0, 85 + k = 1
Obtenemos que k = 0, 15.
(b) Nos piden:
P( x < 5 ∩ x > 2 )
P ( x < 5| x > 2) =
P ( x > 2)

P ( x = 3) + P ( x = 4)
=
1 − P ( x ≤ 2)

f (3) + f (4)
=
1 − [ f (1) + f (2)]

0, 19 + 0, 08
=
1 − [0, 15 + 0, 15]

= 0, 3857

Ejemplo: Considera una urna con 3 tarjetas azules y 2 rojas, se define la variable aleatoria X:
cantidad de intentos hasta extraer la primera tarjeta roja.
a. Determina qué valores puede tomar la variable y sus probabilidades.
b. Encuentra su esperanza y varianza.
c. Determina su función de probabilidad acumulada F ( x ) = P( X ≤ x ).
d. Determina la probabilidad de sacar la tarjeta roja antes de la cuarta extracción si en la
primera ya salió una tarjeta azul.
e. Determina la esperanza y la varianza de la nueva variable aleatoria Y = 2X + 3.
Solución.
a. Debido a la cantidad de tarjetas la variable X puede tomar los valores {1, 2, 3, 4}, buscamos
su probabilidad:
Sacar la tarjeta roja en el primer intento:
2
P ( X = 1) = = 0, 4
5
Sacar la tarjeta roja en el segundo intento:
3 2
P ( X = 2) = · = 0, 3
5 4
Sacar la tarjeta roja en el tercer intento:
3 2 2
P ( X = 3) = · · = 0, 2
5 4 3
Sacar la tarjeta roja después de sacar todas las azules:
Apunte - Probabilidades
13

3 2 1 2
P ( X = 4) = · · · = 0, 1
5 4 3 2

Podemos describir la variable como:

x 1 2 3 4
f ( x ) 0, 4 0, 3 0, 2 0, 1

4
Notar que efectivamente la función es de probabilidad, es decir, ∑ f ( x ) = 1.
x =1

b. Para su esperanza debemos calcular:


4
E( X ) = ∑ x · f ( x ) = 1 · 0, 4 + ... + 4 · 0, 1 = 2
x =1

4
Para la varianza debemos calcular primero E( X 2 ) = ∑ x2 · f ( x ) = 12 · 0, 4 + ... + 42 · 0, 1 =
x =1
5. Finalmente, la varianza resulta:

V ( X ) = E( X 2 ) − [ E( X )]2 = 5 − (2)2 = 1

c. Su función de probabilidad acumulada es:

x 1 2 3 4
F ( x ) 0, 4 0, 7 0, 9 1

Nos entrega de manera inmediata la probabilidad acumulada, por ejemplo, la probabilidad


de sacar la tarjeta roja a lo más en el tercer intento es P( X ≤ 3) = F (3) = 0, 9.
d. Nos piden:
P( x < 4 ∩ x > 1 )
P ( X < 4| X > 1) =
P ( X > 1)

P ( X = 2) + P ( X = 3)
=
1 − P ( X = 1)

0, 3 + 0, 2
=
1 − 0, 4

= 0, 83

e. Utilizando las propiedades tenemos para la esperanza:

E(2X + 3) = 2 · E( X ) + 3 = 7

y para su varianza:
V (2X + 3) = 4 · V ( X ) + 0 = 4.
Apunte - Probabilidades
14

10. Distribuciones discretas.


Para modelar el comportamiento de una variable aleatoria discreta se debe estudiar su distribu-
ción de probabilidad o modelo probabilı́stico, que debe satisfacer una cierta cantidad de carac-
terı́sticas.
1. Distribución de Bernoulli: Llamaremos prueba o ensayo Bernoulli a todo experimento alea-
torio que posea solo dos tipos de resultado, denominados éxito y fracaso. Si p: probabilidad
de éxito y q: probabilidad de fracaso, entonces p + q = 1
2. Distribución binomial: Un experimento del tipo binomial resulta ser un número fijo de n repeti-
ciones independientes del tipo Bernoulli, por lo tanto, poseerá las siguientes caracterı́sticas:
Las n pruebas desarrolladas son independientes.
Los resultados de cada prueba son mutuamente excluyentes, éxito o fracaso.
Todas las pruebas desarrolladas son equiprobables entre sı́.
Una variable aleatoria X se distribuye binomial con parámetros n (cantidad de repeticiones
del experimento tipo Bernoulli) y p (probabilidad de éxito), es decir:

X ∼ B(n; p)

Su cálculo se realizará utilizando la siguiente fórmula:


 
n
f (k) = P( X = k) = · pk · qn−k
k

Además:
E( X ) = n · p ; V ( X ) = n · p · q
Donde:
n : total de ensayos
q : probabilidad de fracaso, q = 1 − p
p : probabilidad de éxito asociada a la variable x
k : cantidad de éxitos, k = 0, 1, 2, ..., n
n!
( xk) : corresponde a la combinatoria, Ckn = (nk) =
k! · (n − k )!

A continuación, con ayuda de Python graficamos la función de masa de probabilidad ( f .m.p)


y la función de masa de probabilidad acumulada ( f .m.a) del comportamiento de una variable
aleatoria que distribuye de forma binomial con parámetros n = 100 y p = 0, 1.
Apunte - Probabilidades
15

[2]: # Tama~no de texto


plt.rcParams.update({'font.size':12})
PYc+c1# Parámetros de la distribución.
# Sea X ~ b(n,p).
n, p = 100, 0.1
# Creamos un arreglo de datos como v.a. X que va desde 0 - hasta n con
,→salto de 1

x = np.arange(ss.binom.ppf(0, n, p),ss.binom.ppf(1, n, p),1)


# Se definen la función de masa de probabilidad y acumulada
fmp = ss.binom.pmf(x, n, p) # Función de masa de probabilidad
fda = ss.binom.cdf(x, n, p) # Función de masa de probabilidad acumulada

# Graficando una distribución Binomial.


plt.subplots(1)
plt.vlines(x, 0, fmp, colors='b', lw=8, alpha=.6) # gráfico de barras.
plt.xlim(0,25)
plt.ylim(0,0.14)
# Arreglos visuales
plt.gca().spines['top'].set_visible(False)
plt.gca().spines['right'].set_visible(False)
plt.title('Función de Masa de Probabilidad')
plt.ylabel('Probabilidad')
plt.xlabel('Valores')
plt.text(16,0.1,r'$n=100,\ p=0,1$') # parámetros distribución binomial

# Graficando una distribución Binomial Acumulada


plt.subplots(1)
plt.vlines(x, 0, fda, colors='b', lw=8, alpha=.6) # gráfico de barras.
plt.xlim(0,30)
plt.ylim(0,1.2)
# Arreglos visuales
plt.gca().spines['top'].set_visible(False)
plt.gca().spines['right'].set_visible(False)
plt.title('Función de Masa de Probabilidad Acumulada')
plt.ylabel('Probabilidad')
plt.xlabel('Valores')
plt.text(18,1.05,r'$n=100,\ p=0,1$') # parámetros distribución binomial

plt.show() #Mostrar gráfico


Apunte - Probabilidades
16

Ejemplo: Un agente de seguros vende pólizas a cinco personas de la misma edad que
disfrutan de buena salud. Según las tablas actuales, la probabilidad de que una persona en
estas condiciones viva 30 años o más es 23 . Calcular la probabilidad de que, transcurridos
30 años, vivan:
( a) Las cinco personas.
(b) Al menos tres personas.
(c) Al menos 3, sabiendo que por lo menos 1 sı́ vivirá.
Apunte - Probabilidades
17

Solución. Llamando X : cantidad de personas vivas, tenemos X → B(n, p) donde n = 5 y


p = 23 . Su función de probabilidad es:
    x   5− x
5 2 1
f (x) = · ·
x 3 3
( a) P( X = 5) = f (5) = 0, 132.
Una alternativa a este desarrollo es utilizar Python:
[9]: n = 5
p = 2|3
x = 5
# Con la siguiente expresión se determina la probabilidad en un punto
ss.binom.pmf(x,n,p)

[9]: 0.13168724279835387

(b) P( X ≥ 3) = P( X = 3) + P( X = 4) + P( X = 5) = f (3) + f (4) + f (5) = 0, 329 +


0, 329 + 0, 132 = 0, 79.
Una alternativa a este desarrollo es utilizar Python:
[13]: n = 5
p = 2|3
x = 2
# Con la siguiente expresión se determina la probabilidad acumulada
,→hasta un punto

p_binom_hasta_x = ss.binom.cdf(x,n,p)
# Usando el complemento tenemos
1-p_binom_hasta_x

[13]: 0.7901234567901234

(c) Debemos determinar:


P( X ≤ 3 ∩ X ≥ 1 )
P ( X ≤ 3| X ≥ 1) =
P ( X ≥ 1)

f (1) + f (2) + f (3)


=
1 − f (0)

= 0, 537

3. Distribución de Poisson: Determina la probabilidad de que ocurra una determinada cantidad


de veces durante cierto periodo de tiempo, a partir de una frecuencia de ocurrencia media
(λ). Se define su función de probabilidad de la siguiente forma:
Sea x una variable aleatoria discreta y el parámetro λ > 0, diremos que x sigue una distri-
bución de Poisson con parámetro λ, es decir:
X ∼ P(λ)
Apunte - Probabilidades
18

Si representa el número de ocurrencias del suceso o evento y λ > 0 el número de veces


que se espera ocurra el evento durante un intervalo de tiempo determinado, su función de
densidad resulta:
e−λ λk
f (k) = P( X = k) =
k!
donde k = 0, 1, 2, 3, ... es número de ocurrencias del evento. Además,

E( X ) = V ( X ) = λ

A continuación, con ayuda de Python graficamos la función de masa de probabilidad ( f .m.p)


del comportamiento de una variable aleatoria que distribuye de forma Poisson con paráme-
tros λ = 3,6.
[3]: # Graficando
mu = 3.6 # parametro de forma
poisson = ss.poisson(mu) # Distribución
x = np.arange(poisson.ppf(0.001),poisson.ppf(0.999),1)
fmp = poisson.pmf(x) # Función de Masa de Probabilidad
plt.vlines(x, 0, fmp, colors='b', lw=8, alpha=.6)
# Arreglos visuales
plt.gca().spines['top'].set_visible(False)
plt.gca().spines['right'].set_visible(False)
plt.xlim(-1,15)
plt.ylim(0,.25)
plt.title('Función de Distribución de Poisson')
plt.ylabel('Probailidad')
plt.xlabel('Valores')
plt.show()
Apunte - Probabilidades
19

Ejemplo: La probabilidad de que un coche se accidente en cierto tramo de carretera es


0,0001. Si recorren ese tramo 20000 coches, calcular la probabilidad de que:
( a) No se produzcan accidentes.
(b) Se produzcan como máximo 5 accidentes.
(c) Se produzcan menos de 4 accidentes si ya ha ocurrido uno.
Solución. Sea X el número de accidentes en ese tramo de entre 20000 coches, X sigue
una distribución binomial B(20000; 0, 0001), como:

λ = np = 20000 · 0, 0001 = 2 ≤ 5

Se puede utilizar como aproximación la distribución de Poisson de parámetro λ = 2.


20
( a ) P ( X = 0 ) = e −2= 0, 1353.
0!
Una alternativa para este cálculo es utilizar Python:
[15]: lamb = 2
x = 0
# Con la siguiente expresión se determina la probabilidad en un punto
ss.poisson.pmf(x,lamb)

[15]: 0.1353352832366127

5
( b ) P ( X ≤ 5) = ∑ P( X = i ) = 0, 1353 + 0, 2707 + 0, 2707 + 0, 1804 + 0, 0902 + 0, 0361 =
| {z } | {z } | {z } | {z } | {z } | {z }
i =0
P ( X =0) P ( X =1) P ( X =2) P ( X =3) P ( X =4) P ( X =5)
0, 9834.
Una alternativa para este cálculo es utilizar Python:
[17]: lamb = 2
x = 5
# Con la siguiente expresión se determina la probabilidad acumulada
,→hasta un punto

p_poisson_hasta_x = ss.poisson.cdf(x,lamb)
p_poisson_hasta_x

[17]: 0.9834363915193856

(c) Debemos calcular:

P( X < 4 ∩ X ≥ 1 )
P ( X < 4| X ≥ 1) =
P ( X ≥ 1)

f (1) + f (2) + f (3)


=
1 − f (0)

= 0, 8347
Apunte - Probabilidades
20

11. Variables aleatorias continuas.


Una variable aleatoria continua se da cuando su rango es un intervalo dentro de los números
reales R, es decir, es un conjunto infinito no numerable de valores reales.
Ejemplo:
Experimento : Durabilidad de una ampolleta
Variable aleatoria X : Tiempo de duración en segundos
Rango : R+ = [0 , +∞[

12. Función de probabilidad de una variable continua.


Si X es una variable aleatoria continua, entonces se llama función de densidad de probabilidad
de X a la función f ( x ), definida para todo x ∈ R. Una función de densidad de probabilidad debe
satisfacer las siguientes condiciones:
f ( xi ) ≥ 0, es decir, la probabilidad calculada debe ser necesariamente un valor positivo o
igual a cero.
Z ∞
f ( xi ) = 1, es decir, la probabilidad de todo el espacio muestral debe ser 1.
−∞

En este caso podemos obtener la probabilidad solamente para lı́mites pertinentes. El cálculo es:
Si se desea calcular la probabilidad comprendida de que la variable aleatoria x esté entre
un valor a y otro valor b, que serı́a equivalente a cálcular el área bajo la curva f ( x ) entre a y b.
Z b
P( a ≤ X ≤ b) = f ( x ) dx
a

Se desea calcular la probabilidad de que la variable x sea menor que un valor a.


Z a
P( X ≤ a) = f ( x ) dx
−∞

En este caso, se desea calcular la probabilidad para valores mayores que b, que es el
equivalente al área bajo la curva comprendida entre b y el infinito.
Z ∞ Z b
P( X ≥ b) = f ( x ) dx = 1 − f ( x ) dx
b −∞

Observación 4. En las distribuciones continuas no hay diferencias entre desigualdades y


desigualdades más la igualdad, es decir:

P( X ≤ a) = P( X < a)

Esto es válido para todas las desigualdades, debido a que en las variables continuas solo se
puede buscar probabilidad por intervalos y agregando un punto este no se ve afectado.
Apunte - Probabilidades
21

Esperanza y varianza.
Para el caso de una variable aleatoria continua, la esperanza y la varianza poseen el mismo
significado y propiedades que ya aprendimos en la variable aleatoria discreta, lo que cambia es
la forma de cálculo, es decir: Z ∞
E( X ) = x · f ( x ) dx
−∞

Sea X la variable aleatoria continua con función de densidad de probabilidad f ( x ), la varianza de


X se denota por σ2 ( X ), V ( X ). Su cálculo se desarrolla de la siguiente manera:

V ( X ) = E( X 2 ) − [ E( X )]2

Ejemplo: La longitud de ciertos tornillos en cm se distribuye según la función de densidad:

3

 ( x − 1)(3 − x )
 si x ∈ [1, 3]
f (x) = 4

x ̸∈ [1, 3]

0 si

( a) Calcular E( X ) y Var ( X ).
(b) Si los tornillos son válidos solo si su longitud está entre 1,7 y 2,4 cm, calcular la probabilidad
de que un tornillo sea válido.
(c) Los tornillos se agrupan en lotes de 100 unidades. Para que un lote pase un control de
calidad se extraen tres tornillos y todos deben ser válidos. Calcular la probabilidad de que
un lote pase el control de calidad.
Solución.
( a) Calculamos:
La esperanza de X:
Z 3
3
E( X ) = x · ( x − 1)(3 − x )dx
1 4
Z 3
3
− x3 + 4x2 − 3x dx

=
4 1

 3
x4 x3 x2

3
= − +4 −3
4 4 3 2 1

= 2.
La esperanza de X 2 :
Z 3 Z 3
3 3 
E( X 2 ) = 2
x · ( x − 1)(3 − x )dx = − x4 + 4x3 − 3x2 dx
1 4  3 4 1
3 x5
− + x4 − x3 = 4, 2.

=
4 5 1
Apunte - Probabilidades
22

2
Ası́, tenemos E( X ) = 2 y Var ( X ) = E( X 2 ) − [E( X )] = 0, 2.
Z 2,4
3
P(1, 7 < X < 2, 4) = ( x − 1)(3 − x )dx
1,7 4
Z 2,4
3
− x2 + 4x − 3 dx

=
4 1,7
(b) La probabilidad solicitada es:
 2,4
x3

3
− + 2x2 − 3x

=
4 3 1,7

= 0, 50225.
(c) Dos formas:
Llamaremos Vi : tornillo i es válido (i = 1, 2, 3), nos piden:

P(V1 ∩ V2 ∩ V3 ) = P(V1 ) · P(V2 ) · P(V3 ) = (0, 50225)3 = 0, 12669.

Utilizando la distribución geométrica, Y → Geo ( p) donde Y : cantidad de extracciones


hasta encontrar el primer tornillo no válido, su función de probabilidad resulta:

f (y) = (0, 50225)y−1 · 0, 49775.

Nos piden:
P (Y > 3 ) = 1 − P (Y ≤ 3 )
= 1 − [ P(Y = 1) + P(Y = 2) + P(Y = 3)]
= 1 − [ f (1) + f (2) + f (3)]
= 0, 12669.

13. Distribuciones continuas.


Para modelar el comportamiento de una variable aleatoria continua se debe estudiar su distri-
bución de probabilidad o modelo probabilı́stico. Entre los modelos más usados encontramos la
distribución normal.
1. Distribución normal: Una variable aleatoria x, posee una distribución normal o se distribuye
normal con parámetros µ (media) y σ2 (varianza) y se expresa como X ∼ N (µ, σ2 ), donde
su función de densidad de probabilidad es:
1 1 x −µ 2
f (x) = √ e− 2 ( σ ) ; −∞ < x < ∞
σ 2π
La gráfica de esta función de probabilidad es conocida como campana de Gauss, teniendo
como caracteı́stica que el punto más alto coincide con la media µ y teniendo dos puntos de
inflexión en µ − σ y µ + σ. Para esta distribución resulta obvio que la media o esperanza es
µ y que la varianza queda definida por σ2 .
A continuación, con ayuda de Python graficamos la función de densidad de probabili-
dad ( f .d.p.) del comportamiento de una variable aleatoria que distribuye de forma normal
estándar (es decir, con parámetros µ = 0 y σ = 1).
Apunte - Probabilidades
23

[4]: # Definimos los parámetros de la distribución


mu, sigma= 0,1
# Generamos un arreglo como v.a. Normal.
x_1 = np.linspace(ss.norm(mu, sigma).ppf(0.001),
ss.norm(mu, sigma).ppf(0.999), 100)
# Calculamos la fdp para el arreglo.
fdp_normal = ss.norm(0, 1).pdf(x_1)
# Graficando Función de Densidad de Probibilidad Normal
plt.plot(x_1, fdp_normal, label='fdp normal')
plt.xlim(-3.5,3.5)
plt.ylim(0,0.5)
# Arreglos visuales
plt.gca().spines['top'].set_visible(False)
plt.gca().spines['right'].set_visible(False)
plt.title('Función de Densidad Normal Estándar')
plt.ylabel('Probabilidad')
plt.xlabel('Valores')
plt.text(1,0.4,r'$\mu=0,\ \sigma=1$')
plt.show()
Apunte - Probabilidades
24

2. Distribución normal estandar: Para facilitar el cálculo de las probabilidades de variables que
se distribuyen normal se usa la distribución normal estándar, donde se emplea la variable
Z, es decir, se desarrolla un cambio de variable de la forma:
X−µ
Z=
σ
Es decir, X ∼ N (µ; σ2 ), ahora la variable será Z ∼ N (0; 1). Para trabajar con esta distribu-
ción normal estándar debemos manejar la tabla normal estándar que entrega las probabili-
dades ya calculadas.
Por lo tanto, si queremos calcular las probabilidades siguientes (zona coloreada) debemos
recordar que lo que hacemos es determinar el área bajo la curva y que esa área es una
probabilidad que ya está determinada en la tabla normal estándar, es decir:
P( Z ≤ z1 ), en este caso, el valor de la probabilidad se lee de la tabla directamente.
P( Z ≥ z2 ) = 1 − P( Z ≤ z2 ), en este caso, la tabla no entrega directamente la proba-
bilidad asociada al sector coloreado, pero podemos realizar la operación descrita, esto
es, al área total le restamos el sector que no deseamos.
P(z1 ≤ Z ≤ z2 ) = P( Z ≤ z2 ) − P( Z ≤ z1 ), en este caso, la tabla tampoco entrega
directamente la probabilidad asociada, pero podemos realizar la operación descrita,
esto es, calculamos el área asociada al mayor valor buscado (z2 ) y le restamos el área
(probabilidad) del menor valor (z1 ).
Observación 5. Para el cálculo de la probabilidad en la distribución normal no podemos
usar directamente su función de probabilidad debido a que no se puede integrar, por lo
que usaremos una tabla de probabilidad acumulada de la distribución normal estándar. Por
ejemplo, se desea buscar la probabilidad de:

P( Z ≤ −2, 56) = 0, 00523

Una alternativa para encontrar estas probabilidades es el siguiente código en Python:


Apunte - Probabilidades
25

[18]: mu = 0
sigma = 1
z = -2.56
# Con la siguiente expresión de determina la probabilidad acumulada para
,→algún valor de z.

ss.norm(mu, sigma).cdf(z)

[18]: 0.0052336081635557825

Ejemplo: La media de los pesos de 500 estudiantes de un colegio es 70 kg y la des-


viación tı́pica 3 kg. Suponiendo que los pesos se distribuyen normalmente, hallar cuántos
estudiantes pesan:
( a) Menos de 64 kg.
(b) Más de 90 kg.
(c) Entre 60 kg y 75 kg.
Solución. X : peso de un estudiante, X → N (µ, σ2 ), donde µ = 70 y σ = 3
( a)
X−µ 64 − 70
 
P( X < 64) = P <
σ 3
= P ( Z < −2)
= 0, 02275
Como un 2,275 % de los estudiantes pesan menos de 64 kg, hay 11 estudiantes ( p · n =
0, 02275 · 500 = 11, 375).
(b)
P( X > 90) = 1 − P( X < 90)
= 1 − P( Z < 6, 67)
= 1−1
= 0
Por lo tanto, no hay estudiantes que pesen más de 90 kg.
(c)
P(60 < X < 75) = P( X < 75) − P( X < 60)
= P( Z < 1, 67) − P( Z < −3, 33)
= 0, 95254 − 0, 00043
= 0, 95211
Hay 476 estudiantes entre 60 y 75 kg ( p · n = 0, 95211 · 500 = 476, 055).
Ejemplo: Un granjero utiliza un sistema automático para llenar sacos de maı́z garantizan-
do 50 kg por saco. Debido a las fluctuaciones aleatorias del mecanismo utilizado, el peso de
los sacos es una variable aleatoria con distribución normal de media 50, 25 kg (µ = 50, 25
kg) y desviación tı́pica 0, 21 kg (σ = 0, 21 kg).
a) Obtener la probabilidad de que un saco elegido al azar no llegue al peso garantizado.
b) Si se desea que la probabilidad anterior sea 1 %, ¿cuál deberá ser la media (µ) del
peso? Se supone la misma desviación tı́pica.
Apunte - Probabilidades
26

Solución. Llamaremos X a la variable aleatoria peso, es decir, X → N (50, 25; 0, 212 ).


| {z } | {z }
µ σ2

X − 50, 25
Z= → N (0, 1)
0, 21
X − 50, 25 50 − 50, 25
 
a) P( X < 50) = P < = P( Z < −1, 19) = 0, 1170,
0, 21 0, 21
con lo que el granjero está produciendo un 11, 7 % de sacos que no alcanzan el precio
garantizado.
X−µ
b) Sea µ la media, entonces X → N (µ; 0, 21), de donde Z = → N (0, 1)
0, 21
X−µ 50 − µ
 
P( X < 50) = P < = P( Z < λ) = 0, 01
0, 21 0, 21
De las tablas de N (0, 1) se obtiene que λ = −2, 33 y por lo tanto:
50 − µ 50 − µ
λ= → −2, 33 = → µ = 50 + 0, 21 · 2, 33 = 50, 48
0, 21 0, 21
De esta forma solo el 1 % de los sacos producidos no alcanzarı́a el peso garantizado.
Ejemplo: Una envasadora de harina de trigo es ajustada de tal manera que la probabilidad
de que llene una bolsa con menos de 6, 0204 kg. sea de 0,102 y que la llene con más de
6, 1984 kg. sea 0,008.
( a) Si el llenado de la envasadora se distribuye de forma aproximadamente normal, deter-
minar su media µ y su desviación estándar σ.
(b) Si se extraen aleatoriamente 10 bolsas, determine la probabilidad de que a lo más 1
bolsa pese 6,08 kg. (Ayuda: determine primero P( X < 6, 08))
Solución.
( a) P( X < 6, 0204) = 0, 102; P( X < 6, 1984) = 0, 992
6, 0204 − µ 6, 1984 − µ
Se obtiene que = −1, 27 y = 2, 41. Luego resolviendo el siste-
σ σ
ma tenemos µ = 6, 08 y σ = 0, 048
(b) P( X < 6, 08) = 0, 5, llamaremos Y al número de bolsas que pesan a lo más 6,08 kg.
ası́ Y → B(10; 0, 5),
   
10 0 10 10
P (Y ≤ 1 ) = 0, 5 (1 − 0, 5) + 0, 51 (1 − 0, 5)9 = 0, 0107
0 1

Distribución exponencial: Es una distribución continua utilizada para modelar el tiempo de


espera para la ocurrencia de un determinado evento o suceso. Diremos que una variable
aleatoria continua x sigue una distribución exponencial de parámetro α > 0, es decir:
X ∼ Exp(α)
Si tiene función de densidad de probabilidad:
f ( x ) = α e−α x ; x ≥ 0
1 1
Además, su esperanza es E( X ) = y su varianza V ( X ) = 2 .
α α
Apunte - Probabilidades
27

A continuación, con ayuda de Python graficamos la función de densidad de probabilidad


( f .d.p.) del comportamiento de una variable aleatoria que distribuye de forma exponencial
con diferentes parámetros de α.
[6]: # Graficando Exponencial
# Generamos cuatro arreglos como v.a. Exponencial, con diferntes
,→parámetros.

x = np.linspace(ss.expon().ppf(.001),ss.expon().ppf(.999),100)
x1 = np.linspace(ss.expon(.2).ppf(.001),
ss.expon(.2).ppf(.999), 100)
x2 = np.linspace(ss.expon(1).ppf(.001),
ss.expon(1).ppf(.999), 100)
x3 = np.linspace(ss.expon(1.5).ppf(.001),
ss.expon(1.5).ppf(.999), 100)
x4 = np.linspace(ss.expon(2).ppf(.001),
ss.expon(2).ppf(.999), 100)
fdp1 = ss.expon().pdf(x1) # Función de Probabilidad
fdp2 = ss.expon().pdf(x2) # Función de Probabilidad
fdp3 = ss.expon().pdf(x3) # Función de Probabilidad
fdp4 = ss.expon().pdf(x4) # Función de Probabilidad
plt.plot(x, fdp1, label=r'$\alpha$ = 0.2')
plt.plot(x, fdp2, label=r'$\alpha$ = 1')
plt.plot(x, fdp3, label=r'$\alpha$ = 1.5')
plt.plot(x, fdp4, label=r'$\alpha$ = 2')
# Arreglos visuales
plt.ylim(0,1)
plt.xlim(0,4)
plt.legend()
plt.gca().spines['top'].set_visible(False)
plt.gca().spines['right'].set_visible(False)
plt.title('Distribución Exponencial para diferentes parámetros')
plt.ylabel('Probabilidad')
plt.xlabel('Valores')
plt.show()
Apunte - Probabilidades
28

Ejemplo: Se ha comprobado que el tiempo de vida de cierto tipo de marcapasos sigue


una distribución exponencial con media de 16 años.
( a) ¿Cuál es la probabilidad de que a una persona a la que se le ha implantado este
marcapasos se le deba reimplantar otro antes de 20 años?
(b) Si el marcapasos lleva funcionando correctamente 5 años en un paciente, ¿cuál es la
probabilidad de que haya que cambiarlo antes de 25 años?
Solución. Tenemos que f ( x ) = λe−λx , ∀ x ≤ 0. Como la media es 16 se tiene que
1 1
= 16 → λ = .
λ 16
Z 20
( a) P( X ≤ 20) = f ( x )dx = 0, 7135.
0
Z 25
f ( x )dx
P(5 ≤ X ≤ 25) 0, 522
(b) P( X ≤ 25| X ≥ 5) = = Z 5+∞ = = 0, 7135.
P ( X ≥ 5) 0, 7316
f ( x )dx
5
Apunte - Probabilidades
29

14. Distribución conjunta.


Ahora veremos distribuciones que consideran dos variables (caracterı́sticas) sobre la población
de manera conjunta.

Caso discreto.
Sean X e Y dos variables aleatorias discretas que toman un número finito o numerable infinito de
valores. Su función de probabilidad conjunta se define como:

P( X = x ; Y = y ) = f ( x, y)

Debe cumplir:
0 ≤ f ( x, y) ≤ 1

∑∑ f ( x, y) = 1
x y

Caso continuo.
Sean X e Y dos variables aleatorias continuas sobre R. Se define su función de densidad de
probabilidad conjunta como:
f : R2 → R
Debe satisfacer:
f ( x, y) ≥ 0
Z ∞ Z ∞
f ( x, y) dx dy = 1
−∞ −∞

15. Distribuciones marginales.


Las distribuciones marginales son las distribuciones por separado de X e Y que se obtienen de
la distribución conjunta.

Caso discreto.
Dada una variable aleatoria bidimensional discreta ( X, Y ) con función de probabilidad conjunta:

f ( x, y) = P( X = x; Y = y)

Se define su función de probabilidad marginal de X como:

f X (x) = ∑ P(X = x, Y = y) = ∑ f ( x, y)
y y

Análogamente, su función de probabilidad marginal de Y es:

f Y (y) = ∑ P(X = x, Y = y) = ∑ f ( x, y)
x x
Apunte - Probabilidades
30

Caso continuo.
Dada una variable aleatoria bidimensional continua ( X, Y ) con función de probabilidad conjunta
f ( x, y) con x, y ∈ R. Su función de probabilidad marginal con respecto a X es:
Z ∞
f X (x) = f ( x, y) dy ; x ∈ R
−∞

Análogamente, su función de probabilidad marginal con respecto a Y es:


Z ∞
f Y (y) = f ( x, y) dx ; y ∈ R
−∞

Covaianza.
La covarianza es el valor estadı́stico que refleja en qué cuantı́a dos variables aleatorias varı́an
de forma conjunta respecto a sus medias. Nos permite saber cómo se comporta una variable en
función de lo que hace otra variable:
Covarianza entre X e Y positiva significa que cuando X sube Y también sube, la relación es
positiva.
Covarianza entre X e Y negativa significa que cuando X sube Y baja, la relación es negativa.
Covarianza entre X e Y cero significa que no hay relación entre las variables.
1 n 1 n
n i∑ n i∑
Cov( X, Y ) = ( X i − X̄ )( Yi − Ȳ ) = Xi Yi − X̄Ȳ
=1 =1

Independencia.
Sean X1 ,..., Xn variables aleatorias definidas sobre el mismo espacio de probabilidad, con funcio-
nes de distribución FX1 ,..., FXn y función de distribución conjunta FX . Se dice que dichas variales
son mutuamente independientes (o, simplemente, independientes) si:

FX ( x1 , ..., xn ) = FX1 ( x1 ) · · · FXn ( xn ) ∀ x1 , ..., xn ∈ R

Coeficiente de correlación.
El coeficiente de correlación de Pearson es una prueba que mide la relación estadı́stica entre dos
variables continuas. Si la asociación entre los elementos no es lineal, entonces el coeficiente no
se encuentra representado adecuadamente. El coeficiente de correlación puede tomar un rango
de valores de +1 a −1. Un valor de 0 indica que no hay asociación entre las dos variables. Un
valor mayor que 0 indica una asociación positiva. Lo denotamos por r y se calcula:

Cov( X, Y )
r=
σX · σY
Apunte - Probabilidades
31

Ejemplo: Sean X e Y dos variables aleatorias con función de probabilidad conjunta dada por:


 x+y si x = 0, 1, 2
18 si y = 0, 1, 2

f ( x, y) =


0 eoc

a. ¿Cuál es la probabilidad de que X tome valores de al menos uno y que Y sea inferior que
dos?
b. ¿Es posible afirmar que el porcentaje de variabilidad de Y es superior al de X? Justifica tu
respuesta con la medida descriptiva adecuada.
c. ¿Es posible plantear un modelo lineal para estimar valores de Y a partir de X? Justifica tu
respuesta con la medida descriptiva adecuada.
Solución: Primero escribiremos explicitamente la tabla de probabilidad conjunta:

X |Y 0 1 2 Total
0 0 0, 06 0, 11 0, 17
1 0, 06 0, 11 0, 17 0, 33
2 0, 11 0, 17 0, 22 0, 5
Total 0, 17 0, 33 0, 5 1

a. La probabilidad solicitada es:

P ( X ≥ 1 ∩ Y < 2) = P ( X = 1 ∩ Y = 0) + P ( X = 1 ∩ Y = 1) + P ( X = 2 ∩ Y = 0) + P ( X = 2 ∩ Y = 1)

= f (1, 0) + f (1, 1) + f (2, 0) + f (2, 1)

= 0, 06 + 0, 11 + 0, 11 + 0, 17

= 0, 45

La probabilidad es de un 45 %.
b. No es posible, debido a que la distribución genera una tabla de frecuencias conjuntas
simétrica, esto quiere decir:

E( X ) = E(Y ) ; Var ( X ) = Var (Y )

Por lo que tienen la misma variabilidad. En el siguiente inciso se obtendrán la esperanza y


varianza de X. Puedes comprobar obteniendo la esperanza y varianza de Y.
c. Debemos calcular el coeficiente de correlación, para eso obtenemos primero:

2 2
E( X ) = ∑ x · P( X = x ) = 1, 33 ; Var ( X ) = ∑ x2 · P( X = x ) −[E( X )]2 = 0, 56
x =0 x =0
| {z }
E( X 2 )
Apunte - Probabilidades
32

También se obtiene la covarianza:


2 2
Cov( X, Y ) = ∑ ∑ x · y · f ( x, y) − E( X ) · E(Y ) = −0, 0989
x =0 y =0

Finalmente, el coeficiente de correlación es:

Cov( X, Y )
r xy = = −0, 18
σx · σy

Por lo que no es recomendable el modelo lineal, debe ser una relación cercana al 100 %.
Ejemplo: En una consulta pediátrica se quiere estudiar la relación que existe entre los niños
que lloran en la sala de espera ( X ) teniendo algún juguete (Y ) . Los datos son:

X = {0, 1, 2, 3} ; Y = {0, 1, 2}

x+y


 ....si x ≤ y



 k


f (x,y) = ( x − y)
si x > y
k







0 e.o.c

a. Determina el valor de k.
b. Determina la probabilidad de que un niño llore a lo más 1 vez si llevó dos juguetes.
c. Se mide la tasa de ruido en la sala de espera según la siguiente función:

TR = 1,25X − 0,15Y

Determina el promedio y la varianza de la tasa de ruido de la sala de espera.

Solución:

a. Escribiremos la tabla de manera extendida para que sea más fácil trabajar:

X \Y 0 1 2
0 0 1| k 2| k
1 1| k 2| k 3| k
2 2| k 1| k 4| k
3 3| k 2| k 1| k

La suma de todas las probabilidades debe ser igual a 1, por lo que se tiene:
22
= 1 → k = 22
k
Apunte - Probabilidades
33

La tabla con este valor resulta:

X \Y 0 1 2
0 0 0, 05 0, 09
1 0, 05 0, 09 0, 14
2 0, 09 0, 05 0, 18
3 0, 14 0, 09 0, 05

b.
P ( X ≤ 2 ∩ Y = 2)
P ( X ≤ 1 |Y = 2 ) =
P (Y = 2 )

f (0, 2) + f (1, 2)
=
f (0, 2) + f (1, 2) + f (2, 2) + f (3, 2)

0, 23
=
0, 45

= 0, 51

c. Dado TR = 1, 25X − 0, 15Y, debemos obtener:


Esperanza de TR:
E( TR) = E(1, 25X − 0, 15Y )

= 1, 25 · E( X ) − 0, 15 · E(Y )

= 1, 25 · 1, 73 − 0, 15 · 1, 18

= 1, 98

Varianza de TR:
Var ( TR) = Var (1, 25X − 0, 15Y )

= 1, 252 · Var ( X ) + 0, 152 · Var (Y ) + 2 · 1, 25 · 0, 15 · Cov( X, Y )

= 1, 252 · 1, 02 + 0, 152 · 0, 69 + 2 · 1, 25 · 0, 15 · (−0, 31)

= 1, 49
Apunte - Probabilidades
34

Ejemplo: Para la siguiente función de densidad de probabilidad:



0≤x≤1
 kxy


0≤y≤1
f ( x, y) =


0 eoc

a. Determina el valor de k.
b. Determina la probabilidad que x sea mayor a 0.4.
c. Determina ambas funciones de densidad marginal.
d. Determina si las variables son independientes.
Solución:

a. Para que f ( x, y) sea una función de densidad de probabilidad se debe cumplir que:
Z +∞ Z +∞
f ( x, y) dx dy = 1
−∞ −∞
Resolviendo la integral se obtiene:
Z +∞ Z +∞ Z 1Z 1
f ( x, y) dx dy = kxy dx dy
−∞ −∞ 0 0

1 !
x2
Z 1
= k· y· dy
0 2 0

Z 1
k
= y dy
2 0

1 !
k y2
= ·
2 2 0

k
=
4
k
Como = 1, se tiene que k = 4. Por lo que finalmente la función de densidad resulta:
4

0≤x≤1
 4xy


0≤y≤1
f ( x, y) =


0 eoc

b. 1 !
x2
Z 1Z 1 Z 1 Z 1
P( X > 0, 4) = 4xy dx dy = 4 · y· dy = 1, 68 · y dy
0 0,4 0 2 0,4 0
1 !
y2
= 1, 68 · = 0, 84
2 0
Apunte - Probabilidades
35

c. Función de densidad de X:

1 !
y2
Z 1
f X (x) = 4xy dy = 4x · = 2x
0 2 0

Función de densidad de Y:
1 !
x2
Z 1
f Y (y) = 4xy dx = 4y · = 2y
0 2 0

d. Las variables son independientes ya que se cumple que:

f ( x, y) = f X ( x ) · f (y)
| {z } | {z } |Y{z }
4xy 2x 2y

Ejemplo: La siguiente función de densidad determina la proporción de 2 quı́micos utilizados en


una mezcla de pintura. Sea X la proporción de colorante e Y la proporción de acelerantes del
tiempo de secado de la pintura.
La función de densidad conjunta es la siguiente:



 100 ( x + y) 0 < x < 0,4
9 0 < y < 0,5

f ( x, y) =


0 eoc

a. ¿Cuál es la probabilidad de que el porcentaje de colorantes y acelerantes en la mezcla sea


mayor al 25 % de cada una?
b. ¿Cuál es la cantidad esperada de colorantes que tendrá la mezcla de pintura?. Si esta posee
un porcentaje del 30 % de acelerante.
c. Determina la probabailidad de que la suma de colorante y acelerante sea menor a un 60 %
de la mezcla.
d. Determina el tipo de relación entre ambos quı́micos.
e. Determina la magnitud de la relación.
Apunte - Probabilidades
36

Solución:

a. Z 0,5 Z 0,4
100
P( X > 0, 25; Y > 0, 25) = ( x + y) dx dy
0,25 0,25 9
Z 0,5  2  0,4
100 x
= · + xy dy
9 0,25 2 0,25

Z 0,5
100
= · (0, 15y + 0, 04875) dy
9 0,25

 0,5
y2

100
= · 0, 15 + 0, 04875y
9 2 0,25
= 0, 29

b. Debemos primero determinar f Y (y)


Z 0,4
100 4 40
( x + y) dx = + y
0 9 45 9
Ahora podemos determinar la esperanza:
Z 0,4
f ( x; 0, 3)
E( X |Y = 0, 3) = x· dx
0 f Y (0, 3)
Z 0,4 100
9 (x + 0, 3)
= x· 45
dx
0 64

= 0, 35

c.
P( X + Y < 0, 6) = P( X < 0, 6 − Y )
Z 0,5 Z 0,6−y
100
= ( x + y) dx dy
0 0 9

= 0, 7685

d. Necesitamos determinar la covarianza Cov( X, Y ) = E( XY ) − E( X ) · E(Y )


Z 0,5 Z 0,4 Z 0,5 Z 0,4
100
E( XY ) = xy f ( x, y) dx dy = xy ( x + y) dx dy = 0, 066667
0 0 0 0 9
Z 0,4 Z 0,5
E( X ) = x f ( x, y) dy dx = 0, 22963
0 0
Z 0,5 Z 0,4
E (Y ) = y f ( x, y) dx dy = 0, 296296
0 0

Finalmente, Cov( X, Y ) = −0, 00137 por lo que la relación es inversa.


Apunte - Probabilidades
37

e. Ahora necesitamos la correlación:


Cov( X, Y )
r xy =
σx · σy

Debemos calcular Var ( X ) = E( X 2 ) − [ E( X )]2 y Var (Y ) = E(Y 2 ) − [ E(Y )]2


| {z } | {z }
σx2 σy2
Z 0,4 Z 0,5
E( X 2 ) = x2 f ( x, y) dy dx = 0, 065185
0 0
Z 0,5 Z 0,4
E (Y 2 ) = y2 f ( x, y) dx dy = 0, 106489
0 0

Ası́, Var ( X ) = 0, 012 y Var (Y ) = 0, 019, finalmente:

Cov( X, Y ) −0, 00137


r xy = =√ √ = −0, 09
σx · σy 0, 012 · 0, 019

Esto quiere decir que existe un 9 % de relación entre las variables.


Apunte - Probabilidades
38

16. Ley de los grandes números.


Es considerado el primer teorema fundamental de la teorı́a de probabilidad. Establece que la fre-
cuencia de los resultados de cierto experimento aleatorio, tiende a estabilizarse en cierto número
que es precisamente la probabilidad esperada, cuando el experimento se realiza muchas veces.
Es decir, los resultados convergen al valor esperado.
La ley de los grandes números viene a decir que bajo ciertas condiciones generales la media de
n variables aleatorias X1 , X2 ,..., Xn se aproxima a la media de las n variables µ1 , µ2 ,..., µ3 ; donde
E ( Xi ) = µ i .

X1 + X2 + ... + Xn µ + µ2 + ... + µn
→ 1
n n
Si todas las variables tienen la misma media µ, es decir, E( Xi ) = µ para todo i ∈ [1, ..., n].
Entonces:
X1 + X2 + ... + Xn
X̄ =
n
n - veces
z }| {
µ + µ + ... + µ

n

=
n

= µ

Esto significa que el valor esperado de la variable aleatoria media muestral es µ, es decir:

E( X̄ ) = µ

Además establece que la variable aleatoria X̄ sigue una distribución normal. X̄ es una variable
aleatoria, ya que depende de la muestra seleccionada, es decir, varı́a dependiendo de la muestra
seleccionada (depende de los datos).
Observación 6. Notar que las variables aleatorias X1 , X2 ,..., Xn puden tener cualquier tipo de
distribución, es decir, no se puede predecir su comportamiento.
Si las variables aleatorias X1 , X2 ,..., Xn vienen de una misma población de distribucion desco-
nocida, es decir, no se conoce su comportamiento individual, pero sabemos que E( Xi ) = µ y
Var ( Xi ) = σ2 . Si tenemos una muestra suficientemente grande sabemos, por la ley de los gran-
des números, que E( X̄ ) = µ, X̄ es una variable aleatoria. La varianza de esta viene dada por:
 
X1 + X2 + ... + Xn 1
Var ( X̄ ) = Var = Var ( X1 + X2 + ... + Xn )
n n2
1 1 2
2 = σ

= ( Var ( X 1 ) + Var ( X 2 ) + ... + Var ( X n )) = nσ
n2 n2 n
De aquı́, podemos concluir que:  
σ2
X̄ ∼ N µ ,
n
Apunte - Probabilidades
39

Esto último se conoce como el teorema central del lı́mite. En conclusión, no se puede predecir el
comportamiento individual, pero so el comportamiento promedio. Además, mientras más grande
la muestra la varianza es menor, por lo tanto, es más precisa la predicción.
Veamos el experimento de lanzar una moneda (no cargada) al aire y que su resultado sea cara.
Desde un enfoque ”frecuentista” si solo nos quedamos con los primeros lanzamientos, la pro-
babilidad de sacar cara no será precisamente 0,5. Sin embargo, a medida que aumentamos los
lanzamientos, en el largo plazo veremos como la probabilidad de obtener cara se estabiliza en
0,5. Veamos esto simulando 10.000 lanzamientos con Python.
[7]: # Ejemplo ley de grandes números
# moneda p=1|2 cara=1 cruz=0
resultados = []
for lanzamientos in range(1,10000):
lanzamientos = np.random.choice([0,1], lanzamientos)
caras = lanzamientos.mean()
resultados.append(caras)

# graficamente
df = pd.DataFrame({ 'lanzamientos' : resultados})

df.plot(title='Ley de grandes números',color='r',figsize=(8, 6))


plt.axhline(0.5)

plt.xlabel("Número de lanzamientos")
plt.ylabel("Frecuencia caras")
plt.show()
Apunte - Probabilidades
40

17. Teorema central del lı́mite.


Sea { X1 , X2 , ..., Xn } una muestra de variables aleatorias independientes e idénticamente distribui-
das cada una con E( Xi ) = µ y V ( Xi ) = σ2 , entonces la función de probabilidad para la media
σ2
muestral converge a una normal con media o esperanza µ y varianza . Es decir,
n
σ2
E( X̄ ) = µ ; V ( X̄ ) =
n
σ2
 
De esta forma X̄ ∼ N µ,
n
Ejemplo: Un ascensor limita el peso de sus ocupantes a 460 kg. Si este peso es excedido
sonará una alarma y un ocupante tiene que salir antes de poder continuar. Si el peso de un
individuo que utiliza el ascensor sigue una distribución normal con media de 75 kg y desviación
estándar de 8 kg.
1. Calcular la probabilidad de que con 6 ocupantes suene la alarma del ascensor.
2. Si la alarma no suena con 6 ocupantes, ¿cuál es la probabilidad de que el promedio no sea
menor a 74,17 kg?
Solución:
1. Se nos pide: ! !
6 6
P ∑ Xi > 460 = 1−P ∑ Xi < 460
i =1 i =1

= 1 − P ( X̄ < 76, 67)


 
 76, 67 − 75 
= 1−P
Z <

8 

6

= 1 − P ( Z < 0, 51)

= 1 − 0, 69497

= 0, 305.
Por lo que existe un 31 % de probabilidad de que suene la alarma con 6 ocupantes.
Apunte - Probabilidades
41

2. Debemos encontrar:
!
6
P X̄ > 74, 17 ∑ Xi < 460 = P ( X̄ > 74, 17| X̄ < 76, 67)

i =1

P (74, 17 < X̄ < 76, 67)


=
P ( X̄ < 76, 67)

P ( X̄ < 76, 67) − P ( X̄ < 74, 17)


=
P ( X̄ < 76, 67)

P( Z < 0, 51) − P( Z < −0, 25)


=
P( Z < 0, 51)

0, 69497 − 0, 40129
=
0, 69497

= 0, 423

Por lo que cuando no suena la alarma, la probabilidad de que el promedio de peso no sea
menor a 74,17 kg es 42 %.
Ejemplo: Si la edad de personas que postulan a cierto cargo se distribuye de forma normal con
media 46,6 años y una desviación estándar de 13,97 años.
Se elige una muestra aleatoria de 25 postulantes de la población en estudio:
1. Determina la probabilidad de que el promedio de la muestra supere los 41 años.
2. ¿Cuál es la probabilidad de que la suma de las edades de la muestra sea mayor a 1200?
Solución:
1. Nos piden:
P( X̄ > 41) = 1 − P( X̄ < 41)
 

= 1−P  X̄ − µ <
41 − 46, 6 
√σ 13,97

n 25

= 1 − P(z < −2, 00)

= 1 − 0, 0228

= 0, 9772
Por lo que la probabilidad de que el promedio de las edades de una muestra de 25 postu-
lantes supere los 41 años es de un 97, 7 %.
Apunte - Probabilidades
42

2. Debemos obtener:
! !
25 25
P ∑ Xi > 1200 = 1−P ∑ Xi < 1200
i =1 i =1

!
1 25 1200
25 i∑
= 1−P Xi <
=1
25

= 1 − P( X̄ < 48)

= 1 − P( Z < 0, 50)

= 1 − 0, 6915

= 0, 30854

Por lo que la probabilidad de que la suma de las edades de una muestra de 25 postulantes
supere los 1200 años es de 30, 9 %.
Tabla 1. Distribución Normal estandarizada N(0, 1)
FZ (z0 ) = P(Z z0 )

z 0,00 0,01 0,02 0,03 0,04 0,05 0,06 0,07 0,08 0,09
-3,5 0,00023 0,00022 0,00022 0,00021 0,00020 0,00019 0,00019 0,00018 0,00017 0,00017
-3,4 0,00034 0,00032 0,00031 0,00030 0,00029 0,00028 0,00027 0,00026 0,00025 0,00024
-3,3 0,00048 0,00047 0,00045 0,00043 0,00042 0,00040 0,00039 0,00038 0,00036 0,00035
-3,2 0,00069 0,00066 0,00064 0,00062 0,00060 0,00058 0,00056 0,00054 0,00052 0,00050
-3,1 0,00097 0,00094 0,00090 0,00087 0,00084 0,00082 0,00079 0,00076 0,00074 0,00071
-3,0 0,00135 0,00131 0,00126 0,00122 0,00118 0,00114 0,00111 0,00107 0,00104 0,00100
-2,9 0,00187 0,00181 0,00175 0,00169 0,00164 0,00159 0,00154 0,00149 0,00144 0,00139
-2,8 0,00256 0,00248 0,00240 0,00233 0,00226 0,00219 0,00212 0,00205 0,00199 0,00193
-2,7 0,00347 0,00336 0,00326 0,00317 0,00307 0,00298 0,00289 0,00280 0,00272 0,00264
-2,6 0,00466 0,00453 0,00440 0,00427 0,00415 0,00402 0,00391 0,00379 0,00368 0,00357
-2,5 0,00621 0,00604 0,00587 0,00570 0,00554 0,00539 0,00523 0,00508 0,00494 0,00480
-2,4 0,00820 0,00798 0,00776 0,00755 0,00734 0,00714 0,00695 0,00676 0,00657 0,00639
-2,3 0,01072 0,01044 0,01017 0,00990 0,00964 0,00939 0,00914 0,00889 0,00866 0,00842
-2,2 0,01390 0,01355 0,01321 0,01287 0,01255 0,01222 0,01191 0,01160 0,01130 0,01101
-2,1 0,01786 0,01743 0,01700 0,01659 0,01618 0,01578 0,01539 0,01500 0,01463 0,01426
-2,0 0,02275 0,02222 0,02169 0,02118 0,02068 0,02018 0,01970 0,01923 0,01876 0,01831
-1,9 0,02872 0,02807 0,02743 0,02680 0,02619 0,02559 0,02500 0,02442 0,02385 0,02330
-1,8 0,03593 0,03515 0,03438 0,03362 0,03288 0,03216 0,03144 0,03074 0,03005 0,02938
-1,7 0,04457 0,04363 0,04272 0,04182 0,04093 0,04006 0,03920 0,03836 0,03754 0,03673
-1,6 0,05480 0,05370 0,05262 0,05155 0,05050 0,04947 0,04846 0,04746 0,04648 0,04551
-1,5 0,06681 0,06552 0,06426 0,06301 0,06178 0,06057 0,05938 0,05821 0,05705 0,05592
-1,4 0,08076 0,07927 0,07780 0,07636 0,07493 0,07353 0,07215 0,07078 0,06944 0,06811
-1,3 0,09680 0,09510 0,09342 0,09176 0,09012 0,08851 0,08691 0,08534 0,08379 0,08226
-1,2 0,11507 0,11314 0,11123 0,10935 0,10749 0,10565 0,10383 0,10204 0,10027 0,09853
-1,1 0,13567 0,13350 0,13136 0,12924 0,12714 0,12507 0,12302 0,12100 0,11900 0,11702
-1,0 0,15866 0,15625 0,15386 0,15151 0,14917 0,14686 0,14457 0,14231 0,14007 0,13786
-0,9 0,18406 0,18141 0,17879 0,17619 0,17361 0,17106 0,16853 0,16602 0,16354 0,16109
-0,8 0,21186 0,20897 0,20611 0,20327 0,20045 0,19766 0,19489 0,19215 0,18943 0,18673
-0,7 0,24196 0,23885 0,23576 0,23270 0,22965 0,22663 0,22363 0,22065 0,21770 0,21476
-0,6 0,27425 0,27093 0,26763 0,26435 0,26109 0,25785 0,25463 0,25143 0,24825 0,24510
-0,5 0,30854 0,30503 0,30153 0,29806 0,29460 0,29116 0,28774 0,28434 0,28096 0,27760
-0,4 0,34458 0,34090 0,33724 0,33360 0,32997 0,32636 0,32276 0,31918 0,31561 0,31207
-0,3 0,38209 0,37828 0,37448 0,37070 0,36693 0,36317 0,35942 0,35569 0,35197 0,34827
-0,2 0,42074 0,41683 0,41294 0,40905 0,40517 0,40129 0,39743 0,39358 0,38974 0,38591
-0,1 0,46017 0,45620 0,45224 0,44828 0,44433 0,44038 0,43644 0,43251 0,42858 0,42465
-0,0 0,50000 0,49601 0,49202 0,48803 0,48405 0,48006 0,47608 0,47210 0,46812 0,46414
0,0 0,50000 0,50399 0,50798 0,51197 0,51595 0,51994 0,52392 0,52790 0,53188 0,53586
0,1 0,53983 0,54380 0,54776 0,55172 0,55567 0,55962 0,56356 0,56749 0,57142 0,57535
0,2 0,57926 0,58317 0,58706 0,59095 0,59483 0,59871 0,60257 0,60642 0,61026 0,61409
0,3 0,61791 0,62172 0,62552 0,62930 0,63307 0,63683 0,64058 0,64431 0,64803 0,65173
0,4 0,65542 0,65910 0,66276 0,66640 0,67003 0,67364 0,67724 0,68082 0,68439 0,68793
0,5 0,69146 0,69497 0,69847 0,70194 0,70540 0,70884 0,71226 0,71566 0,71904 0,72240
0,6 0,72575 0,72907 0,73237 0,73565 0,73891 0,74215 0,74537 0,74857 0,75175 0,75490
0,7 0,75804 0,76115 0,76424 0,76730 0,77035 0,77337 0,77637 0,77935 0,78230 0,78524
0,8 0,78814 0,79103 0,79389 0,79673 0,79955 0,80234 0,80511 0,80785 0,81057 0,81327
0,9 0,81594 0,81859 0,82121 0,82381 0,82639 0,82894 0,83147 0,83398 0,83646 0,83891
1,0 0,84134 0,84375 0,84614 0,84849 0,85083 0,85314 0,85543 0,85769 0,85993 0,86214
1,1 0,86433 0,86650 0,86864 0,87076 0,87286 0,87493 0,87698 0,87900 0,88100 0,88298
1,2 0,88493 0,88686 0,88877 0,89065 0,89251 0,89435 0,89617 0,89796 0,89973 0,90147
1,3 0,90320 0,90490 0,90658 0,90824 0,90988 0,91149 0,91309 0,91466 0,91621 0,91774
1,4 0,91924 0,92073 0,92220 0,92364 0,92507 0,92647 0,92785 0,92922 0,93056 0,93189
1,5 0,93319 0,93448 0,93574 0,93699 0,93822 0,93943 0,94062 0,94179 0,94295 0,94408
1,6 0,94520 0,94630 0,94738 0,94845 0,94950 0,95053 0,95154 0,95254 0,95352 0,95449
1,7 0,95543 0,95637 0,95728 0,95818 0,95907 0,95994 0,96080 0,96164 0,96246 0,96327
1,8 0,96407 0,96485 0,96562 0,96638 0,96712 0,96784 0,96856 0,96926 0,96995 0,97062
1,9 0,97128 0,97193 0,97257 0,97320 0,97381 0,97441 0,97500 0,97558 0,97615 0,97670
2,0 0,97725 0,97778 0,97831 0,97882 0,97932 0,97982 0,98030 0,98077 0,98124 0,98169
2,1 0,98214 0,98257 0,98300 0,98341 0,98382 0,98422 0,98461 0,98500 0,98537 0,98574
2,2 0,98610 0,98645 0,98679 0,98713 0,98745 0,98778 0,98809 0,98840 0,98870 0,98899
2,3 0,98928 0,98956 0,98983 0,99010 0,99036 0,99061 0,99086 0,99111 0,99134 0,99158
2,4 0,99180 0,99202 0,99224 0,99245 0,99266 0,99286 0,99305 0,99324 0,99343 0,99361
2,5 0,99379 0,99396 0,99413 0,99430 0,99446 0,99461 0,99477 0,99492 0,99506 0,99520
2,6 0,99534 0,99547 0,99560 0,99573 0,99585 0,99598 0,99609 0,99621 0,99632 0,99643
2,7 0,99653 0,99664 0,99674 0,99683 0,99693 0,99702 0,99711 0,99720 0,99728 0,99736
2,8 0,99744 0,99752 0,99760 0,99767 0,99774 0,99781 0,99788 0,99795 0,99801 0,99807
2,9 0,99813 0,99819 0,99825 0,99831 0,99836 0,99841 0,99846 0,99851 0,99856 0,99861
3,0 0,99865 0,99869 0,99874 0,99878 0,99882 0,99886 0,99889 0,99893 0,99896 0,99900
3,1 0,99903 0,99906 0,99910 0,99913 0,99916 0,99918 0,99921 0,99924 0,99926 0,99929
3,2 0,99931 0,99934 0,99936 0,99938 0,99940 0,99942 0,99944 0,99946 0,99948 0,99950
3,3 0,99952 0,99953 0,99955 0,99957 0,99958 0,99960 0,99961 0,99962 0,99964 0,99965
3,4 0,99966 0,99968 0,99969 0,99970 0,99971 0,99972 0,99973 0,99974 0,99975 0,99976
3,5 0,99977 0,99978 0,99978 0,99979 0,99980 0,99981 0,99981 0,99982 0,99983 0,99983
Apunte - Probabilidades
44

Referencias bibliográficas.
1. Devore, J. L. (2008). Probabilidad y estadı́stica para ingenierı́as y ciencias. Cengage Lear-
ning Editores.
2. Walpole, R. E., Myers, R. H., Myers, S. L., & Ye, K. (2007). Probabilidad y estadı́stica para
ingenierı́a y ciencias. Norma, 162, 157.
3. Montgomery, D. C., Runger, G. C., & Medal, E. G. U. (1996). Probabilidad y estadı́stica
aplicadas a la ingenierı́a (No. 968-18-5914-6. 01-A1 LU. AL-PyE. 1.). Mexico DF, Mexico:
McGraw-Hill.

También podría gustarte