Está en la página 1de 62

PROCESOS ESTOCÁSTICOS

Unidad I: Variables y vectores aleatorios


Mtr. Carlos L. Gencón Villamar

cgencon@gmail.com
OBJETIVO

Discriminar y caracterizar variables, vectores y funciones de


variables aleatorias.
CONTENIDO

Unidad I. Variables y vectores aleatorios

1.1 Variables aleatorias discretas:


Funciones de probabilidad, valor esperado y
varianza.
Distribuciones de probabilidad.
Variables aleatorias discretas
Introducción

Una variable aleatoria es un concepto fundamental en la teoría de probabilidad. Se refiere a una


variable cuyos valores están determinados por el resultado de un fenómeno aleatorio, es decir, un
proceso que no se puede predecir con certeza.

En otras palabras, una variable aleatoria es una función que asigna un valor numérico a cada
resultado posible de un experimento aleatorio.

Las variables aleatorias discretas toman valores específicos de un conjunto finito o infinito contable.

Ejemplos: El número obtenido en el lanzamiento de un dado. El número de sellos que se obtienen cuando se
lanza una moneda varias veces. El número de piezas defectuosas que se obtienen de una muestra. El número de
autos que entran a un garaje en una hora.
Variables aleatorias discretas
Probabilidad de una variable aleatoria

La probabilidad de una variable aleatoria se refiere a la medida de la probabilidad asociada con los
diferentes valores que esa variable puede tomar. En otras palabras, es la probabilidad de que la
variable aleatoria tome uno o varios valores específicos.

Sea 𝑋 una variable aleatoria discreta, entonces 𝑃 𝑋 = 𝑥 representa la probabilidad de la


variable aleatoria 𝑋 tome el valor de 𝑥.
Ejemplo: Sea la variable aleatoria discreta 𝑋: número de sellos obtenidos en el lanzamiento de tres monedas. Determine:
a. El espacio muestral 𝑆 de la variable aleatoria.
b. Los valores que toma la variable aleatoria.
c. La distribución de probabilidad de la variable aleatoria en forma tabular.

a. 𝑛 = 2∙2∙2 c.
𝑆 𝑋 𝑥 𝑃(𝑋 = 𝑥)
𝑛=8
CCC 0 1
0
SCC 1 8
3
CSC 1 1
8
CCS 1 3
SSC
2
2 8
SCS 2 1
3
CSS 2 8
SSS 3

b. 𝑋 = 0, 1, 2, 3
Funciones de probabilidad
Función masa de probabilidad

La función masa de probabilidad es una función que asigna probabilidades a los distintos valores
que puede tomar una variable aleatoria discreta.

La probabilidad de la variable aleatoria 𝑋 tome el valor de 𝑥 se define como:


𝑃 𝑋=𝑥 =𝑓 𝑥
Donde 𝑓 𝑥 es la función de masa de probabilidad. Esta cumple dos propiedades:

I. ∀𝑥, 𝑓 𝑥 ≥ 0 II. ෍ 𝑓 𝑥 = 1

I. Los valores de 𝑓 𝑥 no pueden ser negativos.


II. La suma de todos los valores de probabilidad es 1.
Funciones de probabilidad
Función de probabilidad acumulada

La función acumulada de una variable aleatoria es una función que proporciona la probabilidad
acumulada de que la variable aleatoria tome valores menores o iguales a un valor particular.

La probabilidad acumulada de 𝑋 ≤ 𝑥 se define como:

𝑃 𝑋 ≤ 𝑥 = 𝐹 𝑥 = ෍ 𝑓(𝑡)
𝑥≤𝑡

Donde 𝐹 𝑥 es la función de probabilidad acumulada de 𝑋 y 𝑡 son todos los valores menores o


iguales a 𝑥 que toma la variable aleatoria. También se cumple que:
Si 𝑃 𝑋 ≤ 𝑎 = 𝐹(𝑎), entonces 𝑃 𝑋 > 𝑎 = 1 − 𝐹(𝑎).
Ejemplo: Sea la variable aleatoria discreta 𝑋 con una función de masa de probabilidad: 𝑓 𝑥 = 𝑘𝑥; 𝑥 = 1, 2, 3, 4.
a. Determine el valor de 𝑘.
b. Halle el valor de: i. 𝑃 𝑋 = 2 ii. 𝑃 𝑋 ≤ 2
c. Calcule el valor esperado de 𝑋.

a. ෍𝑓 𝑥 = 1 bi. 𝑃 𝑋=2 =𝑓 2 c. μ=𝐸 𝑋


1
𝑃 𝑋=2 =2∙ μ = ෍𝑥 𝑓 𝑥
𝑓 1 =𝑘 10
2
𝑃 𝑋=2 = μ = 1∙𝑓 1 +2 ∙𝑓 2 +3∙𝑓 3 +4 ∙𝑓 4
𝑓 2 = 2𝑘 10 1 2 3 4
μ = 1∙ +2∙ +3∙ +4∙
𝑓 3 = 3𝑘 10 10 10 10
bii. 𝑃 𝑋≤2 =𝐹 3 μ=3
𝑓 4 = 4𝑘
𝑃 𝑋≤2 =𝑓 1 +𝑓 2
1 2
෍ 𝑓 𝑥 = 10𝑘 = 1 𝑃 𝑋<3 = +
10 10
3
1 𝑃 𝑋<3 =
⟹𝑘= 10
10
Valor esperado
Valor esperado de variable aleatoria discreta

El valor esperado, también conocido como media, promedio o esperanza matemática de una
variable aleatoria es una medida que proporciona una idea de la "tendencia de promedio" de los
valores que puede tomar dicha variable.

La media o esperanza matemática μ de la variable aleatoria 𝑋 se define como:

μ = 𝐸 𝑋 = ෍𝑥 𝑓 𝑥

Donde 𝐸 𝑋 se conoce como “operador de valor esperado”.


Valor esperado
Valor esperado de expresiones de variable aleatoria discreta

El valor esperado de una expresión de variable aleatoria es el promedio ponderado de los posibles
valores de esa expresión, donde la ponderación se realiza de acuerdo con las probabilidades
asociadas a los valores que puede tomar la variable aleatoria.

La media o esperanza matemática μ𝐺(𝑋) de una expresión de variable aleatoria 𝐺(𝑋) se define
de la siguiente manera:

μ𝐺(𝑋) = 𝐸 𝐺(𝑋) = ෍ 𝐺 𝑋 𝑓 𝑥
Varianza
Varianza y desviación estándar de variable aleatoria discreta

La varianza de una variable aleatoria es una medida de la dispersión de los valores que puede
tomar la variable respecto de su valor esperado.

La varianza σ2 = Var 𝑋 de una variable aleatoria 𝑋 con valor esperado μ se define de como:

σ2 = Var 𝑋 = 𝐸 (𝑥 − μ)2 = ෍ 𝑥 − 𝜇 2 𝑓(𝑥)

Una forma alternativa de calcular la varianza se presenta a continuación:


σ2 = Var 𝑋 = 𝐸 𝑥 2 − μ2

Se define σ , desviación estándar de 𝑋, como: σ = Var 𝑋


Ejemplo: Sea la variable aleatoria discreta 𝑋: número de computadoras vendidas en un día. Su función de masa de probabilidad
1
viene dada por: 𝑓 𝑥 = ; 𝑥 = 0, 1, 2, 3.
4
a. Halle el promedio de ventas en un día.
b. Calcule la varianza de la variable aleatoria.
c. La ganancia de la tienda viene dada por la siguiente expresión 𝐺 𝑋 = 300𝑋 − 120. Determine el valor esperado de la
ganancia en un día de ventas.

a. μ=𝐸 𝑋 c. 𝐸 𝐺(𝑋) = 𝐸 300𝑋 − 120


μ = ෍𝑥 𝑓 𝑥 𝐸 𝐺(𝑋) = 300𝐸 𝑋 − 120

μ = 0∙𝑓 0 +1 ∙𝑓 1 +2∙𝑓 2 +3 ∙𝑓 3 𝐸 𝐺(𝑋) = 300 ∙ 1.5 − 120


1 1 1 1 𝐸 𝐺(𝑋) = 330
μ = 0∙ +1∙ +2∙ +3∙
4 4 4 4
μ = 1.5

b. σ2 = 𝐸 𝑥 2 − μ2
σ2 = σ 𝑥 2 𝑓 𝑥 − μ2
σ2 = 02 ∙ 𝑓 0 − 12 ∙ 𝑓 1 + 22 ∙ 𝑓 2 + 32 ∙ 𝑓 3 − 1.52
1 1 1 1
σ2 = 02 ∙ + 12 ∙ + 22 ∙ + 32 ∙ − 1.52
4 4 4 4
2
σ = 1.25
Distribuciones de probabilidad
Distribución discreta uniforme

La distribución uniforme es un tipo de distribución de probabilidad en la cual todos los valores


posibles de la variable aleatoria tienen la misma probabilidad de ocurrir.

Sea X una variable aleatoria con distribución uniforme 𝑈𝑛𝑖(𝑛) y función de masa de
probabilidad se define como:
1
𝑓 𝑥 = ; 𝑥 = 𝑥1, 𝑥2, … , 𝑥𝑛
𝑛
La media y la varianza de la variable X se definen como:
1 1
μ = 𝐸 𝑥 = ෍𝑥 σ = Var 𝑥 = ෍ 𝑥 2 − μ2
2
𝑛 𝑛

Donde 𝑛 representa el número de resultado posibles de la variable aleatoria y 𝑥1, 𝑥2, … , 𝑥𝑛


dichos resultados.
Distribuciones de probabilidad
Distribución discreta uniforme: PDF - CDF
Ejemplo: Una concesionaria vende diariamente 0, 1, 2, 3 o 4 autos con igual probabilidad.
a. Determine la probabilidad que en algún día venda al menos 2 artículos.
b. Calcule el valor esperado de las ventas en un día.
c. Por cada auto vendido, la comisión es de 1200 USD. Halle la comisión promedio en un día.

𝑋~𝑈𝑛𝑖 𝑛 = 5 a. 𝑃 𝑋 ≥ 2 = ෍ 𝑓(𝑥) c. 𝐶 = 1200𝑋


𝑥=2
4
1 1 𝐸 𝐶 = 𝐸 1200𝑋
𝑓 𝑥 = ; 𝑥 = 𝑥1 , 𝑥2 , … , 𝑥𝑛 𝑃 𝑋≥2 = ෍
𝑛 5
1 𝑥=2 𝐸 𝐶 = 1200𝐸 𝑋
𝑓 𝑥 = ; 𝑥 = 0, 1, 2, 3, 4
5 𝑃 𝑋 < 2 = 0.6
𝐸 𝐶 = 1200(2)

𝐸 𝐶 = 2400 USD
4
1
b. 𝐸 𝑋 = ෍𝑥
5
𝑥=0
𝐸 𝑋 =2
Distribuciones de probabilidad
Distribución discreta binomial : PDF - CDF

Es un modelo de probabilidad discreta que describe el número de éxitos en un número fijo de


ensayos independientes e idénticos, donde cada ensayo tiene exactamente dos resultados posibles:
éxito o fracaso. Los ensayos son mutuamente excluyentes, lo que significa que el resultado de un
ensayo no afecta el resultado de otro.

Parámetros del modelo binomial 𝐵𝑖𝑛(𝑛, 𝑝) :


𝑛: número fijo de ensayos o experimentos.
𝑝: probabilidad de éxito en un solo ensayo.
𝑥: número de éxitos en los 𝑛 ensayos.
Distribuciones de probabilidad
Distribución discreta binomial

Sea X una variable aleatoria binomial 𝐵𝑖𝑛(𝑛, 𝑝). La función de masa de probabilidad se define
como:
𝑓 𝑥 = 𝑛𝐶𝑥 𝑝𝑥 (1 − 𝑝)𝑛−𝑥 ; 𝑥 = 0, 1, 2, … , 𝑛

La media y la varianza de la variable X se definen a continuación:

μ = 𝐸 𝑋 = 𝑛𝑝 σ2 = Var 𝑋 = 𝑛𝑝(1 − 𝑝)

Donde 𝑛: número fijo de ensayos o experimentos.

𝑝: probabilidad de éxito en un solo ensayo.

𝑥: número de éxitos en los 𝑛 ensayos.


Distribuciones de probabilidad
Distribución discreta binomial : PDF - CDF
Ejemplo: Se elabora un test de 10 preguntas, cada una con 5 opciones de respuesta. Sea la variable aleatoria binomial 𝑋: el
número de preguntas contestadas correctamente. Si un estudiante responde el test al azar, determine:
a. la probabilidad de responder correctamente 3 preguntas.
b. la probabilidad de responder correctamente como 7 o más preguntas.
c. cuántas preguntas en promedio contestaría.

𝑋~𝐵𝑖𝑛 𝑛 = 10, 𝑝 = 0.2 éxito de 1 pregunta a. 𝑃 𝑋=3 =𝑓 3

𝑥 𝑛−𝑥 𝑃 𝑋 = 3 = 10𝐶3 ∙ (0.2)3 0.8 7


𝑓 𝑥 = 𝑛𝐶𝑥 ∙ 𝑝 (1 − 𝑝) ; 𝑥 = 0, 1, 2, … , 𝑛
𝑃 𝑋 = 3 = 0.20
𝑥 𝑛−𝑥
𝑓 𝑥 = 10𝐶𝑥 ∙ (0.2) (0.8) ; 𝑥 = 0, 1, 2, … ,10
b. 𝑃 𝑋 ≥ 7 = 1 − 𝐹(6)
6

𝑃 𝑋 ≥ 7 = 1 − ෍ 10𝐶𝑥 ∙ (0.2) 𝑥 (0.8)𝑛−𝑥


𝑥=0
𝑃 𝑋 ≥ 2 = 0.00086

c. 𝜇 = 𝑛𝑝
𝜇 = 10 ∙ 0.2
𝜇=2
Distribuciones de probabilidad
Distribución discreta de Poisson

Es un modelo de probabilidad discreta que describe el número de eventos que ocurrirán en un


intervalo de tiempo o espacio específico. Se utiliza comúnmente para modelar situaciones en las que
los eventos son raros pero ocurren de manera independiente y a una tasa promedio constante.

Parámetros del modelo de Poisson, 𝑃𝑜𝑖(λ) :


λ: tasa promedio de eventos que ocurren en un intervalo de tiempo o espacio.
𝑥: número de eventos que ocurren en el intervalo de tiempo de λ.
Distribuciones de probabilidad
Distribución discreta de Poisson

Sea X una variable aleatoria Poisson, 𝑃𝑜𝑖(λ). La masa de probabilidad se define como:

λ 𝑥 −λ
𝑓 𝑥 = 𝑒 ; 𝑥 = 0, 1, 2, …
𝑥!

La media y la varianza de la variable X se definen a continuación:

μ =𝐸 𝑥 =λ σ2 = Var 𝑥 = λ

Donde λ: tasa promedio de eventos que ocurren en un intervalo de tiempo o espacio.


𝑥: número de eventos que ocurren en el intervalo de tiempo de λ.
Distribuciones de probabilidad
Distribución discreta Poisson : PDF - CDF
Ejemplo: La cantidad de errores de transmisión en una hora es 5 en promedio. Suponiendo que la cantidad de errores es una
variable con distribución de Poisson, determine la probabilidad de que:
a. En cualquier hora ocurra solamente 1 un error.
b. En cualquier hora ocurra al menos 3 errores.
c. En dos horas cualesquiera ocurran no más de dos errores..

𝑋~𝑃𝑜𝑖 λ = 5 errores cada hora 𝑋~𝑃𝑜𝑖 λ = 10 errores cada 2 horas


λ 𝑥 −λ λ 𝑥 −λ
𝑓 𝑥 = 𝑒 ; 𝑥 = 0, 1, 2, … 𝑓 𝑥 = 𝑒 ; 𝑥 = 0, 1, 2, …
𝑥! 𝑥!
5 𝑥 −5 10 𝑥 −10
𝑓 𝑥 = 𝑒 ; 𝑥 = 0, 1, 2, … 𝑓 𝑥 = 𝑒 ; 𝑥 = 0, 1, 2, …
𝑥! 𝑥!

a. 𝑃 𝑋=1 =𝑓 1 c. 𝑃 𝑋≤2 =𝐹 2
2
51 −5 10 𝑥 −10
𝑃 𝑋=1 = 𝑒 𝑃 𝑋≤2 = ෍ 𝑒
1! 𝑥!
𝑃 𝑋 = 1 = 0.0337 𝑥=0
𝑃 𝑋 ≤ 2 = 0.0028
b. 𝑃 𝑋 ≥ 3 = 1 − 𝐹(2)
2
5 𝑥 −5
𝑃 𝑋≥3 =1−෍ 𝑒
𝑥!
𝑥=0
𝑃 ≥ 3 = 0.88
CONTENIDO

Unidad I. Variables y vectores aleatorios

1.2 Variables aleatorias continuas:


Funciones de probabilidad, valor esperado y
varianza.
Distribuciones de probabilidad.
Variables aleatorias continuas
Introducción

Las variables aleatorias continuas difieren de las discretas porque pueden tomar cualquier valor
dentro de un intervalo específico.

Los valores que toman este tipo de variables suelen obtenerse a partir de instrumentos de medición.
La precisión del instrumento de medición establece la densidad de los posibles resultados que
puede tomar la variable.

Ejemplos: La altura de una persona. El tiempo de atención de una llamada. La masa de una caja de galletas. El
tiempo de duración de la reparación de un componente de una máquina. La longitud de los tornillos en una caja.
La temperatura de una persona. La concentración de un químico en una muestra. El volumen de refresco en una
lata de aluminio. Tiempo entre llegadas de clientes a un servicio. Tiempos de fallo de equipos. Intervalos entre
llamadas telefónicas.
Funciones de probabilidad
Función densidad de probabilidad

La función densidad de probabilidad es una función que describe la distribución de probabilidad de


una variable aleatoria continua en un intervalo definido.

La probabilidad de la variable aleatoria 𝑋 tome valores de dentro un intervalo 𝑎 ≤ 𝑥 ≤ 𝑏 se


calcula de la siguiente manera:
𝑏

𝑃 𝑎 ≤ 𝑋 ≤ 𝑏 = න 𝑓 𝑥 𝑑𝑥
𝑎
Donde 𝑓 𝑥 es la función densidad de probabilidad. Esta cumple dos propiedades:
+∞

I. ∀𝑥, 𝑓 𝑥 ≥ 0 II. න 𝑓 𝑥 𝑑𝑥 = 1
−∞
Funciones de probabilidad
Función de probabilidad acumulada

La función acumulada de una variable aleatoria continua es una función que proporciona la
probabilidad acumulada de que la variable aleatoria sea menor o igual a un valor particular.

La probabilidad de la variable aleatoria 𝑋 tome valores menores o iguales a 𝑥 se define de la


siguiente manera:
𝑥

𝑃 𝑋 ≤ 𝑥 = 𝐹 𝑥 = න 𝑓 𝑡 𝑑𝑡
−∞

Donde 𝐹 𝑥 es la función probabilidad acumulada de 𝑋 y 𝑡 son todos los valores menores o


iguales a 𝑥 que toma la variable aleatoria.
Funciones de probabilidad
Análisis gráfico de probabilidad continua

El área bajo la curva de la función densidad de probabilidad en un intervalo definido representa


la probabilidad de que la variable aleatoria tome valores en dicho intervalo.

𝑃 𝑎 ≤ 𝑋 ≤ 𝑏 = 𝐹 𝑏 − 𝐹(𝑎) 𝑃 𝑋 ≤ 𝑎 = 𝐹(𝑎) 𝑃 𝑋 ≥ 𝑎 = 1 − 𝐹(𝑎)


Valor esperado y varianza
Valor esperado y varianza de una variable aleatoria continua

Valor esperado 𝜇 de una variable aleatoria continua 𝑋:


+∞

𝜇 = 𝐸 𝑋 = න 𝑥 𝑓(𝑥)
−∞

Valor esperado μ𝐺(𝑋) de una expresión de variable aleatoria continua 𝐺(𝑋):


μ𝐺(𝑋) = 𝐸 𝐺(𝑋)

Varianza σ2 de una variable aleatoria continua 𝑋:


σ2 = Var 𝑋 = 𝐸 (𝑥 − μ)2 = 𝐸 𝑋 2 − μ2
1
Ejemplo: Sea la variable aleatoria contina 𝑋: con una función de densidad de probabilidad: 𝑓 𝑥 = 2𝑥 + 1 ; 0 ≤ 𝑥 ≤ 3.
12
a. Muestre 𝑓 𝑥 es función densidad.
b. Halle el valor de: i. 𝑃 1 ≤ 𝑋 < 2 ii. 𝑃 𝑋 ≤ 2 ii. 𝑃 𝑋 > 1.5
c. Calcule: i. el valor esperado ii. la varianza
2
1
a. Propiedad I. bi. 𝑃 1≤𝑋 <2 =න (2𝑥 + 1) 𝑑𝑥 = 0.33
12
Si cumple con la propiedad ya que cualquier 1
2
valor del intervalo 0 ≤ 𝑋 ≤ 3 hace que 𝑓 𝑥 ≥ 0 1
bii. 𝑃 𝑋 ≤ 2 = න (2𝑥 + 1) 𝑑𝑥 = 0.50
12
Propiedad II. 0
+∞ 3
1
න 𝑓 𝑥 𝑑𝑥 = 1 biii. 𝑃 𝑋 > 1.5 = න (2𝑥 + 1) 𝑑𝑥 = 0.68
12
−∞ 1.5
3 3
1 1 2
න (2𝑥 + 1) 𝑑𝑥 = (𝑥 + 𝑥)ቤ ci. cii. σ2 = 𝐸 𝑋 2 − μ2
12 12 μ=𝐸 𝑋
0 +∞ +∞
0
3 1
1 1 2 1 2 μ = න 𝑥 𝑓 𝑥 𝑑𝑥 σ2 = න 𝑥 2 ∙ 2𝑥 + 1 𝑑𝑥 − μ2
න (2𝑥 + 1) 𝑑𝑥 = 3 +3 − (0 + 0) 12
12 12 12 −∞ −∞
3
0
3 1 σ2 = 4.13 − 1.882
1 μ = න𝑥 ∙ 2𝑥 + 1 𝑑𝑥
න (2𝑥 + 1) 𝑑𝑥 = 1 12 σ2 = 0.59
12 0
0 μ =1.88
Distribuciones de probabilidad
Distribución continua uniforme

La probabilidad de que la variable aleatoria caiga en cualquier subconjunto del intervalo es


proporcional a la longitud de ese subconjunto en relación con la longitud total del intervalo

Sea X una variable aleatoria uniforme 𝑈𝑛𝑖 𝑎, 𝑏 . La función de densidad se define como:
1
𝑓 𝑥 = ; 𝑎≤𝑥≤𝑏
𝑏−𝑎
La media y la varianza de la variable X se definen a continuación:
1 1 2
μ = 𝐸 𝑥 = (𝑎 + 𝑏) σ2 = Var 𝑥 = (𝑏 − 𝑎2)
2 12
Distribuciones de probabilidad
Distribución continua uniforme : PDF - CDF
Ejemplo: Cuando una máquina falla, esta debe deternerse hasta que sea reparada. Suponiendo que el tiempo de reparación 𝑋
puede tomar cualquier valor entre 1 y 5 horas.
a. Calcule la probabilidad que la duración tome al menos de 2 horas.
b. Halle el valor esperado de la duración de la reparación.
c. Suponga que el costo fijo de reparación es de 100 USD. El costo variable es de 10 USD el cual incrementa con el cuadrado
del tiempo de reparación. Determine el valor esperado del costo de la reparación.
5
1 c. 𝐶𝐹 = 100
a. 𝑃 𝑋 ≥ 2 = න 𝑑𝑥
𝑋~𝑈𝑛𝑖(𝑎 = 1, 𝑏 = 5) 4 𝐶𝑉 = 10𝑋 2
2
𝑃 𝑋 ≥ 2 = 0.75 𝐶 = 𝐶𝐹 +𝐶𝑉
1
𝑓 𝑥 = ; 𝑎≤𝑥≤𝑏 𝐶 = 100 + 10𝑋 2
𝑏 −𝑎

1 1 𝐸 𝐶 = 𝐸 100 + 10𝑋 2
b. μ = 𝐸 𝑋 = (𝑎 + 𝑏)
𝑓 𝑥 = ; 1≤𝑥≤5 2 𝐸 𝐶 = 100 + 10𝐸 𝑋 2
4 1 5
μ = (5 + 1) 1
2 𝐸 𝐶 = 100 + 10 න 𝑥 2 𝑑𝑥
μ=3 4
1
𝐸 𝐶 = 203.33 USD
Distribuciones de probabilidad
Distribución continua normal

La distribución normal, también conocida como distribución gaussiana, es una de las distribuciones
de probabilidad más importantes y ampliamente utilizadas en estadísticas y teoría de probabilidad.
Se caracteriza por ser simétrica, tener forma de campana y estar completamente determinada por
dos parámetros: la media y desviación estándar.

Sea X una variable aleatoria normal 𝑁𝑜𝑟 μ, σ2 . Su función de densidad se define como:
1 1 𝑥−μ 2
−2 σ
𝑓 𝑥 = 𝑒 ; −∞ ≤ 𝑥 ≤ +∞
σ 2𝜋
Donde μ es la media y σ la desviación estándar de la variable X.

Alrededor del 68% de los datos se encuentran dentro de una desviación estándar de la media, el
95% dentro de dos desviaciones estándar, y el 99.7% dentro de tres desviaciones estándar.
Distribuciones de probabilidad
Distribución continua normal estándar

La distribución normal estándar, es una distribución normal específica con una media igual a 0 y
varianza igual a 1. Se usa para resolver problemas en los que se desconoce la media o la varianza
de otra variable aleatoria.

Sea Z una variable aleatoria normal estándar 𝑁𝑜𝑟 0, 1 . Su función de densidad de


probabilidad se define como:
1 − 1 𝑧2
𝑓 𝑧 = 𝑒 2 ; −∞ ≤ 𝑧 ≤ +∞
2𝜋
Los valores de la variable aleatoria normal 𝑋 con media 𝜇 y varianza 𝜎 2 se relaciona con los
valores de la variable 𝑍 de acuerdo al siguiente modelo:
𝑋−𝜇
𝑍=
𝜎
Distribuciones de probabilidad
Distribución continua normal: PDF - CDF
Ejemplo: La duración de un evento en el centro de convenciones tiene una distribución normal con media 10 y varianza 4.
Determine la probabilidad de que el evento dure:
a. Menos de 9 horas.
b. Entre 11 y 12 horas.
9
1 1 𝑥−10 2
2 −
𝑋~𝑁 μ = 10, 𝜎 = 4 a. 𝑃 𝑋<9 = න 𝑒 2 2 𝑑𝑥
2 2𝜋
−∞
𝜎= Var(𝑋) = 2
𝑃 𝑋 < 9 = 0.31
1 1 𝑥−μ 2

𝑓 𝑥 = 𝑒 2 σ ; −∞ ≤ 𝑥 ≤ −∞
σ 2𝜋 12
1 1 𝑥−10 2

b. 𝑃 11 ≤ 𝑋 ≤ 12 = න 𝑒 2 2 𝑑𝑥
1 1 𝑥−10 2
− 2 2𝜋
𝑓 𝑥 = 𝑒 2 2 ; −∞ ≤ 𝑥 ≤ −∞ 11
2 2𝜋
𝑃 11 ≤ 𝑋 ≤ 12 = 0.15
Distribuciones de probabilidad
Distribución continua exponencial

Modela el tiempo entre eventos sucesivos de un proceso de Poisson, donde los eventos ocurren de
manera continua e independiente a una tasa constante. Es particularmente es útil para modelar el
tiempo entre llegadas de eventos donde los eventos ocurren de manera aleatoria; en la que la
probabilidad de un evento no se ve afectado por el tiempo transcurrido respecto al evento anterior.

Sea X una variable aleatoria exponencial 𝐸𝑥𝑝 𝜆 . Su función de densidad se define como:
𝑓 𝑥 = 𝜆𝑒 −𝜆𝑥; 𝑥 ≥ 0
Donde 𝜆 es la tasa de ocurrencia de eventos por unidad de tiempo y 𝑥 representa el tiempo
entre eventos. La media y la desviación estándar de la variable aleatoria se definen de la
siguiente manera:
1 1
𝜇= 𝜎=
𝜆 𝜆
Distribuciones de probabilidad
Distribución continua exponencial : PDF - CDF
Ejemplo: El tiempo de revisión del motor de un avión sigue una distribución exponencial con media de 22 min.
a. Halle la probabilidad de que el tiempo de revisión sea menor a 10 min.
b. El costo de revisión es de 200 USD al que se le suma 10 USD por cada minuto que dure la revisión. Halle el costo medio de
la revisión del motor.
9
1 −1 𝑥
𝑋: tiemo de revisión en minutos a. 𝑃 𝑋 < 10 = න 𝑒 22 𝑑𝑥
22
1 1 1 0
𝜇= ⟹ 𝜆= =
𝜆 𝜇 22
1 𝑃 𝑋 < 9 = 0.31
𝑋~𝐸𝑥𝑝(𝜆 = )
22

b. 𝐶𝐹 = 200
−𝜆𝑥
𝑓 𝑥 = 𝜆𝑒 ;𝑥 ≥ 0 𝐶𝑉 = 10𝑋
𝐶 = 𝐶𝐹 +𝐶𝑉
1 −1𝑥 𝐶 = 200 + 10𝑋
𝑓 𝑥 = 𝑒 22 ; 𝑥 ≥ 0
22
𝐸 𝐶 = 𝐸 200 + 10𝑋
𝐸 𝐶 = 200 + 10𝐸 𝑋
𝐸 𝐶 = 200 + 10(22)
𝐸 𝐶 = 222 USD
CONTENIDO

Unidad I. Variables y vectores aleatorios

1.3 Distribuciones conjuntas:


Vectores aleatorios. Distribución conjunta y
marginales. Probabilidad condicional.
Covarianza e independencia.
Vectores aleatorios
Introducción

Un vector aleatorio es un concepto en probabilidad que generaliza el concepto de una variable


aleatoria a múltiples dimensiones. Mientras que una variable aleatoria unidimensional representa un
único número que puede variar en función de un experimento aleatorio, un vector aleatorio es una
colección de variables aleatorias que forman un vector. Cada componente del vector aleatorio es en
sí misma una variable aleatoria.
𝑋1
𝑋
Un vector aleatorio 𝑿 puede representarse como: 𝑿= 2

𝑋𝑛

Donde las componentes del vector son 𝑋1 , 𝑋2 , … ,𝑋𝑛 . Cada una de las componentes 𝑋𝑖 es una
variable aleatoria.
Distribución conjunta y marginales
Vectores aleatorios discretos bidimensionales

La distribución conjunta de un vector aleatorio describe cómo las variables aleatorias individuales se
relacionan entre sí en términos de probabilidades conjuntas o compartidas.

Sean 𝑋 y 𝑌 las componentes de un vector aleatorio discreto bidimensional, se define


distribución de probabilidad conjunta como:
𝑃 𝑋 = 𝑥, 𝑌 = 𝑦 = 𝑓 𝑥, 𝑦
Donde 𝑓 𝑥 es la función de masa de probabilidad. Esta cumple dos propiedades:

I. ∀𝑥∀𝑦, 𝑓 𝑥, 𝑦 ≥ 0 II. ෍ ෍ 𝑓 𝑥, 𝑦 = 1

I. Los valores de 𝑓 𝑥, 𝑦 no pueden ser negativos.


II. La suma de todos los valores de probabilidad es 1.
Distribución conjunta y marginales
Vectores aleatorios discretos bidimensionales

Las funciones de distribución marginal describen las probabilidades asociadas con una sola
componente del vector aleatorio. Estas funciones permiten calcular la media de las componentes.

Sean 𝑋 y 𝑌 las componentes de un vector aleatorio discreto bidimensional. La distribución de


probabilidad marginal de 𝑋, 𝑓𝑋 𝑥 se define como:

𝑃 𝑋 = 𝑥 = 𝑓𝑋 𝑥 = ෍ 𝑓 𝑥, 𝑦
𝑌

La distribución de probabilidad marginal de 𝑌, 𝑓𝑌 𝑦 se define como:

𝑃 𝑌 = 𝑦 = 𝑓𝑌 𝑦 = ෍ 𝑓 𝑥, 𝑦
𝑋
Ejemplo: Sea un vector aleatorio discreto bidimensional con componentes 𝑋 y 𝑌. Sea la función de masa conjunta:
𝑥+𝑦
𝑓 𝑥, 𝑦 = ; 𝑥 = 0,1, 2, 3; 𝑦 = 0,1, 2
30
a. Halle el valor de: i. 𝑃 𝑋 = 2, 𝑌 = 0 ii. 𝑃 𝑋 < 2, 𝑌 = 1 iii. 𝑃 𝑋 ≤ 2, 𝑌 > 0
b. Encuentre las funciones de probabilidad marginal.
c. Determine i. 𝑃 𝑋 < 2 ii. 𝑃 𝑌 > 0
1

ai. 𝑃 𝑋 = 2, 𝑌 = 0 = 𝑓 2,0 b. 𝑓𝑋 𝑥 = ෍ 𝑓 𝑥, 𝑦 ci. 𝑃 𝑋 < 2 = ෍ 𝑓𝑋 𝑥


2+0 𝑌 𝑥=0
𝑃 𝑋 = 2, 𝑌 = 0 = 2 1
30 𝑥+𝑦 𝑥+1
𝑃 𝑋 = 2, 𝑌 = 0 = 0.033 𝑓𝑋 𝑥 = ෍ 𝑃 𝑋<2 =෍
30 10
𝑦 =0 𝑥=0
1
𝑥+1 𝑃 𝑋 < 2 = 0.3
aii. 𝑃 𝑋 < 2, 𝑌 = 1 = ෍ 𝑓(𝑥, 1) 𝑓𝑋 𝑥 =
10
𝑥=0
2
𝑃 𝑋 < 2, 𝑌 = 1 = 0.1
cii. 𝑃 𝑌 > 0 = ෍ 𝑓𝑌 𝑦
2 2 𝑓𝑌 𝑦 = ෍ 𝑓 𝑥, 𝑦
𝑦 =1
𝑋 2
aii. 𝑃 𝑋 ≤ 2, 𝑌 > 0 = ෍ ෍ 𝑓(𝑥, 𝑦) 3 2𝑦 + 3
𝑥=0 𝑦=1
𝑥+𝑦 𝑃 𝑌>0 =෍
𝑓𝑌 𝑦 = ෍ 15
𝑃 𝑋 ≤ 2, 𝑌 > 0 = 0.5 30 𝑦 =1
𝑥=0
2𝑦 + 3 𝑃 𝑌 > 0 = 0.8
𝑓𝑌 𝑦 =
15
Distribución conjunta y marginales
Vectores aleatorios continuos bidimensionales

La función de densidad de probabilidad conjunta de un vector aleatorio continuo describe la


distribución de las variables del vector aleatorio de manera conjunta o compartida.

Sean 𝑋 y 𝑌 las componentes de un vector aleatorio continua bidimensional, se define


probabilidad conjunta en los intervalos 𝑎 ≤ 𝑋 ≤ 𝑏 y 𝑐 ≤ 𝑌 ≤ 𝑑 :
𝑑 𝑏

𝑃 𝑎 ≤ 𝑋 ≤ 𝑏, 𝑐 ≤ 𝑌 ≤ 𝑑 = න න 𝑓 𝑥, 𝑦 𝑑𝑥 𝑑𝑦
𝑐 𝑎

Donde 𝑓 𝑥, 𝑦 es la función de densidad de probabilidad. Esta cumple dos propiedades:


+∞ +∞

I. ∀𝑥∀𝑦, 𝑓 𝑥, 𝑦 ≥ 0 II. න න 𝑓 𝑥, 𝑦 𝑑𝑥 𝑑𝑦 = 1
−∞ −∞
Distribución conjunta y marginales
Vectores aleatorios continuos bidimensionales

Las funciones de distribución marginal describen las probabilidades asociadas con una sola
componente del vector aleatorio. Estas funciones permiten calcular la media de las componentes.

Sean 𝑋 y 𝑌 las componentes de un vector aleatorio discreto bidimensional. La distribución de


probabilidad marginal de 𝑋, 𝑓𝑋 𝑥 se define como:
+∞

𝑃 𝑋 = 𝑥 = 𝑓𝑋 𝑥 = න 𝑓 𝑥, 𝑦 𝑑𝑦
−∞

La distribución de probabilidad marginal de 𝑌, 𝑓𝑌 𝑦 se define como:


+∞

𝑃 𝑌 = 𝑦 = 𝑓𝑌 𝑦 = න 𝑓 𝑥, 𝑦 𝑑𝑥
−∞
Ejemplo: Sea un vector aleatorio contiuo bidimensional con componentes 𝑋 y 𝑌. Sea la función de densidad conjunta:
2
𝑓 𝑥, 𝑦 = 𝑥 + 2𝑦 ; 0 ≤ 𝑥 ≤ 1; 0 ≤ 𝑦 ≤ 1
3
a. Halle el valor de: i. 𝑃 0 < 𝑋 < 0.5, 0.5 < 𝑌 < 1 iii. 𝑃 𝑋 ≤ 0.8, 𝑌 > 0.3
b. Encuentre las funciones de probabilidad marginal.
c. Determine i. 𝑃 𝑋 < 0.7 ii. 𝑃 𝑌 > 0.6
+∞ 0.7

ai. 𝑃 0 < 𝑋 < 0.5, 0.5 < 𝑌 < 1 b. 𝑓𝑋 𝑥 = න 𝑓 𝑥, 𝑦 𝑑𝑦 ci. 𝑃 𝑋 < 0.7 = න 𝑓𝑋 𝑥 𝑑𝑥
1 0.5
−∞ 0
2 1 0.7
= නන 𝑥 + 2𝑦 𝑑𝑥 𝑑𝑦 2 2(𝑥 + 1)
3 𝑓𝑋 𝑥 = න 𝑥 + 2𝑦 𝑑𝑦
0.5 0 𝑃 𝑋 < 0.7 = න 𝑑𝑥
3 3
= 0.29 0 0
2(𝑥 + 1) 𝑃 𝑋 < 0.7 = 0.63
𝑓𝑋 𝑥 =
3
aii. 𝑃 𝑋 ≤ 0.8, 𝑌 > 0.3 1
1 0.8 +∞
cii. 𝑃 𝑌 > 0.6 = න 𝑓𝑌 𝑦 𝑑𝑦
2
= නන 𝑥 + 2𝑦 𝑑𝑥 𝑑𝑦 𝑓𝑌 𝑦 = න 𝑓 𝑥, 𝑦 𝑑𝑥 0.6
3 1
0.3 0 −∞
1 4𝑦 + 1
= 0.64 2 𝑃 𝑌 > 0.6 = න 𝑑𝑦
𝑓𝑌 𝑦 = න 𝑥 + 2𝑦 𝑑𝑥 3
3 0.6
0 𝑃 𝑌 > 0.6 = 0.56
4𝑦 + 1
𝑓𝑌 𝑦 =
3
Probabilidad condicional
Vectores aleatorios bidimensionales

Se refieren a la probabilidad de que ocurra un evento dado que otro evento ya ha ocurrido, en el
contexto del vector aleatorio bidimensional.

La función de masa o densidad de probabilidad de que ocurra 𝑥 dado que ha ocurrido 𝑦 se


define como:
𝑓 𝑥, 𝑦
𝑓 𝑥|𝑦 =
𝑓𝑌 𝑦
La función de masa o densidad de probabilidad de que ocurra 𝑦 dado ha ocurrido 𝑥 y se define
como:
𝑓 𝑥, 𝑦
𝑓 𝑦|𝑥 =
𝑓𝑋 𝑥
Covarianza e independencia
Vectores aleatorios discretos bidimensionales

La covarianza es un concepto importante de los vectores aleatorios, ya que indican cómo los
diferentes valores de las variables aleatorias en el vector pueden variar en conjunto.

La covarianza 𝜎𝑋𝑌 entre las variables aleatorias 𝑋 y 𝑌 se define como:

𝜎𝑋𝑌 = Cov 𝑋, 𝑌 = 𝐸 (𝑋 − 𝜇𝑌 )(𝑌 − 𝜇𝑌 ) = ෍ ෍ 𝑋 − 𝜇𝑌 𝑌 − 𝜇𝑌 𝑓(𝑥, 𝑦)


𝑋 𝑌

Una forma alternativa para el cálculo de covarianza se define como:


𝜎𝑋𝑌 = Cov 𝑋, 𝑌 = 𝐸 𝑋𝑌 − 𝜇𝑋 𝜇𝑌
Covarianza e independencia
Vectores aleatorios continuos bidimensionales

La covarianza es un concepto importante de los vectores aleatorios, ya que indican cómo los
diferentes valores de las variables aleatorias en el vector pueden variar en conjunto.

La covarianza 𝜎𝑋𝑌 entre las variables aleatorias 𝑋 y 𝑌 se define como:


+∞ +∞

𝜎𝑋𝑌 = Cov 𝑋, 𝑌 = 𝐸 (𝑋 − 𝜇𝑌 )(𝑌 − 𝜇𝑌 ) = න න 𝑋 − 𝜇𝑌 𝑌 − 𝜇𝑌 𝑓 𝑥, 𝑦 𝑑𝑥 𝑑𝑦


−∞ −∞

Una forma alternativa para el cálculo de covarianza se define como:


𝜎𝑋𝑌 = Cov 𝑋, 𝑌 = 𝐸 𝑋𝑌 − 𝜇𝑋 𝜇𝑌
𝑋1 𝑋
Ejemplo: Sean los vectores aleatorios bidimensionales y 2 con funciones de distribución de probabilidad conjunta 𝑓1 y 𝑓2
𝑌1 𝑌2
definidas a continuación.
𝑥+𝑦 2
𝑓1 𝑥, 𝑦 = ; 𝑥 = 0,1, 2, 3; 𝑦 = 0,1, 2 𝑓2 𝑥, 𝑦 = 𝑥 + 2𝑦 ; 0 ≤ 𝑥 ≤ 1; 0 ≤ 𝑦 ≤ 1
30 3
Halle las medias de las componentes de los vectores aleatorios.

Marginales: Marginales:
𝑥 +1 2𝑦 + 3 2(𝑥 + 1) 4𝑦 + 1
𝑓1𝑋 𝑥 = 𝑓1𝑌 𝑦 = 𝑓1𝑋 𝑥 = 𝑓1𝑌 𝑦 =
10 15 3 3

Promedios: Promedios:
3 1
𝑥 +1 2(𝑥 + 1)
𝜇1𝑋 = ෍𝑥 ∙ =2 𝜇2𝑋 = න 𝑥 ∙ 𝑑𝑥 = 0.56
10 3
𝑥=0 0
1
2 4𝑦 + 1
2𝑦 + 3 𝜇2𝑌 = න 𝑦 ∙ 𝑑𝑦 = 0.61
𝜇1𝑌 = ෍𝑦∙ = 1.27 3
15 0
𝑦=0
𝑋1 𝑋
Ejemplo: Sean los vectores aleatorios bidimensionales y 2 con funciones de distribución de probabilidad conjunta 𝑓1 y 𝑓2
𝑌1 𝑌2
definidas a continuación.
𝑥+𝑦 2
𝑓1 𝑥, 𝑦 = ; 𝑥 = 0,1, 2, 3; 𝑦 = 0,1, 2 𝑓2 𝑥, 𝑦 = 𝑥 + 2𝑦 ; 0 ≤ 𝑥 ≤ 1; 0 ≤ 𝑦 ≤ 1
30 3
Halle la covarianza entre las componentes de cada vector aleatorio.

Promedios: Promedios:
𝜇1𝑋 = 2 𝜇2𝑋 = 0.39
𝜇1𝑌 = 1.27 𝜇2𝑌 = 0.61

Covarianza: Covarianza:
𝜎1𝑋𝑌 = 𝐸 𝑋𝑌 − 𝜇𝑋 𝜇𝑌 𝜎2𝑋𝑌 = 𝐸 𝑋𝑌 − 𝜇𝑋 𝜇𝑌

3 2 1 1
𝑥 +𝑦 2
𝜎1𝑋𝑌 = ෍ ෍ 𝑥𝑦 − (2)(1.27) 𝜎2𝑋𝑌 = න න 𝑥𝑦 (𝑥 + 2𝑦) 𝑑𝑥𝑑𝑦 − 0.56 0.61
30 3
𝑥=0 𝑦=0 0 0

𝜎1𝑋𝑌 = −0.14 𝜎2𝑋𝑌 = −0.01


Covarianza e independencia
Independencia en vectores aleatorios bidimensionales

Dos variables aleatorias 𝑋 y 𝑌 son independientes si el conocimiento de los valores de una de las
variables no proporciona información sobre los valores de la otra variable.

Si las variables 𝑋 y 𝑌 son independientes se tiene que:


𝜎𝑋𝑌 = Cov 𝑋, 𝑌 = 0

Además, las funciones de masa o de distribución de probabilidad cumplen la siguiente relación:


𝑓 𝑥, 𝑦 = 𝑓𝑋 𝑥 𝑓𝑌 𝑦

Cabe recalcar que la independencia entre componentes implica covarianza cero en el caso de
vectores aleatorios normales, pero en general, la covarianza cero no garantiza independencia.
CONTENIDO

Unidad I. Variables y vectores aleatorios

1.4 Distribuciones muestrales: Ley de los


grandes números. Teorema de límite central.
Ley de los grandes números
Covarianza para vectores aleatorios continuos bidimensionales

Bajo el término “Ley de los grandes números” se engloban varios teoremas que describen el
comportamiento del valor esperado de una sucesión de variables aleatorias conforme aumenta su
número de ensayos.

Estos teoremas establecen condiciones suficientes para dicho valor esperado converja al promedio
de los valores esperados de las variables aleatorias involucradas. Las distintas formulaciones de la
ley especifican la convergencia de formas distintas.

Gracias a estos teoremas se explica por qué el promedio de una muestra seleccionada al azar de
una población de gran tamaño tomaría un valor cercano a la media de la población completa.
Ley de los grandes números
Ley débil de los grandes números

Esta ley establece que, para una secuencia de variables aleatorias independientes e idénticamente
distribuidas, la media muestral converge en probabilidad a la media poblacional a medida que el
tamaño de la muestra tiende a infinito.

Sean 𝑋1 , 𝑋2 , … ,𝑋𝑛 variables aleatorias con media 𝜇.

Sea 𝑋ത𝑛 la media muestral de las 𝑛 observaciones cada una de las variables aleatorias, entonces:

lim 𝑃( 𝑋ത𝑛 − 𝜇 < 𝜖) = 1


𝑛→∞

La expresión anterior es válida para cualquier 𝜖 > 0.


Ley de los grandes números
Ley fuerte de los grandes números

Esta ley es más fuerte que la ley débil ya que establece que, con probabilidad 1, la media muestral
converge a la media poblacional a medida que el tamaño de la muestra tiende a infinito.

Sean 𝑋1 , 𝑋2 , … ,𝑋𝑛 variables aleatorias con media 𝜇.

Sea 𝑋ത𝑛 la media muestral de las 𝑛 observaciones (muestra) cada una de las variables aleatorias,
entonces:

𝑃 lim 𝑋ത𝑛 = 𝜇 = 1
𝑛→∞
Teorema de límite central
Definición del teorema

El teorema establece que, a medida que el tamaño de una muestra se hace lo suficientemente
grande, la distribución del promedio de las variables aleatorias tiende a aproximarse a una
distribución normal, independientemente de la forma de la distribución original de las variables.

Sean 𝑋1 , 𝑋2 , … ,𝑋𝑛 variables aleatorias independientes (muestra) con la misma distribución,


media 𝜇 y varianza 𝜎 2 ; entonces el promedio (muestral) 𝑋ത de las variables aleatorias se
𝜎2
aproxima a una distribución normal con media 𝜇𝑋ത = 𝜇 y varianza 𝜎𝑋ത2 = para un 𝑛 lo
𝑛
suficientemente grande.
𝑋ത ~ 𝑁(𝜇𝑋ത , 𝜎𝑋ത2)

Se considera que 𝑛 es lo suficientemente grande para valores de 𝑛 ≥ 30.


Ejemplo: Se lanza 30 veces un dado equilibrado. Utilizando el teorema central del límite, obtenga un valor aproximado de la
probabilidad de que la suma de las puntuaciones sea menor que 110.

𝑋1 , 𝑋2 , … , 𝑋𝑛 : Los 𝑛 posibles resultados de lanzar un dado muestra .


𝑋𝑖 : Uno de los posibles resultados de la muetsra.

𝑋: Promedio de la muestra ~ 𝑁 𝜇𝑋ത , 𝜎𝑋2ത .

Resolución: i. Tamaño de la muestra (posibles resultados): 𝑛 = 30


1
ii. La media de 𝑋𝑖 discreta uniforme : μ = 𝐸 𝑋𝑖 = ෍ 𝑥 = 3.5
𝑛
1
iii. La varianza de 𝑋𝑖 discreta uniforme : σ2 = Var 𝑋𝑖 = ෍ 𝑥 2 − μ2 = 2.92
𝑛
110
iv. Valor crítico a comparar con 𝑋ത (la suma se convierte en promedio): 𝑥ҧ = = 3.67
30
v. Media de la muestra: 𝜇𝑋ത = μ = 3.5
2 𝜎2
vi. Varianza de la muetra: 𝜎𝑋ത = = 0.284
𝑛
𝑥ҧ 2
1 𝑥−𝜇𝑋ഥ
1 −
vii. Cálculo de probabilidad: 𝑃 𝑋ത < 𝑥ҧ = න 𝑒 2 𝜎𝑋ഥ 𝑑𝑥 = 0.625
𝜎 𝑋ത 2𝜋
−∞
REFERENCIAS
Acorral. (s.f.). Estadística en Telecomunicaciones. Escuela Técnica Superior de Ingenieros de Sistemas
Informáticos. Universidad Politécnica de Madrid. https://acorral.etsisi.upm.es/Tel_Estadistica/

ESPOL. (s.f.). Unidades y temas del curso ESTG1003. Blog de la Escuela Superior Politécnica del Litoral
(ESPOL). http://blog.espol.edu.ec/estg1003/unidades-temas/

Landro, A. H., & González, M. L. (2018). Teoría general de las variables aleatorias. Biblioteca Digital - Facultad
de Ciencias Económicas, Universidad de Buenos Aires.
http://bibliotecadigital.econ.uba.ar/download/libros/Landro-Gonzalez_Teoria-general-de-las-variables-
aleatorias-2018.pdf

Walpole, R. E., Myers, R. H. (s.f.). Probabilidad y Estadística para Ingeniería y Ciencias. Biblioteca Virtual La
Serena. Recuperado de https://bibliotecavirtualaserena.files.wordpress.com/2017/05/libro_probabilidad-y-
estadistica-para-ingenerc3ada-y-ciencias-ronald-e-walpole-mayers.pdf

Wolfram Alpha. (s.f.). Wolfram Alpha: Computational Intelligence. Recuperado de


https://www.wolframalpha.com/

También podría gustarte