Documentos de Académico
Documentos de Profesional
Documentos de Cultura
cgencon@gmail.com
OBJETIVO
En otras palabras, una variable aleatoria es una función que asigna un valor numérico a cada
resultado posible de un experimento aleatorio.
Las variables aleatorias discretas toman valores específicos de un conjunto finito o infinito contable.
Ejemplos: El número obtenido en el lanzamiento de un dado. El número de sellos que se obtienen cuando se
lanza una moneda varias veces. El número de piezas defectuosas que se obtienen de una muestra. El número de
autos que entran a un garaje en una hora.
Variables aleatorias discretas
Probabilidad de una variable aleatoria
La probabilidad de una variable aleatoria se refiere a la medida de la probabilidad asociada con los
diferentes valores que esa variable puede tomar. En otras palabras, es la probabilidad de que la
variable aleatoria tome uno o varios valores específicos.
a. 𝑛 = 2∙2∙2 c.
𝑆 𝑋 𝑥 𝑃(𝑋 = 𝑥)
𝑛=8
CCC 0 1
0
SCC 1 8
3
CSC 1 1
8
CCS 1 3
SSC
2
2 8
SCS 2 1
3
CSS 2 8
SSS 3
b. 𝑋 = 0, 1, 2, 3
Funciones de probabilidad
Función masa de probabilidad
La función masa de probabilidad es una función que asigna probabilidades a los distintos valores
que puede tomar una variable aleatoria discreta.
I. ∀𝑥, 𝑓 𝑥 ≥ 0 II. 𝑓 𝑥 = 1
La función acumulada de una variable aleatoria es una función que proporciona la probabilidad
acumulada de que la variable aleatoria tome valores menores o iguales a un valor particular.
𝑃 𝑋 ≤ 𝑥 = 𝐹 𝑥 = 𝑓(𝑡)
𝑥≤𝑡
El valor esperado, también conocido como media, promedio o esperanza matemática de una
variable aleatoria es una medida que proporciona una idea de la "tendencia de promedio" de los
valores que puede tomar dicha variable.
μ = 𝐸 𝑋 = 𝑥 𝑓 𝑥
El valor esperado de una expresión de variable aleatoria es el promedio ponderado de los posibles
valores de esa expresión, donde la ponderación se realiza de acuerdo con las probabilidades
asociadas a los valores que puede tomar la variable aleatoria.
La media o esperanza matemática μ𝐺(𝑋) de una expresión de variable aleatoria 𝐺(𝑋) se define
de la siguiente manera:
μ𝐺(𝑋) = 𝐸 𝐺(𝑋) = 𝐺 𝑋 𝑓 𝑥
Varianza
Varianza y desviación estándar de variable aleatoria discreta
La varianza de una variable aleatoria es una medida de la dispersión de los valores que puede
tomar la variable respecto de su valor esperado.
La varianza σ2 = Var 𝑋 de una variable aleatoria 𝑋 con valor esperado μ se define de como:
b. σ2 = 𝐸 𝑥 2 − μ2
σ2 = σ 𝑥 2 𝑓 𝑥 − μ2
σ2 = 02 ∙ 𝑓 0 − 12 ∙ 𝑓 1 + 22 ∙ 𝑓 2 + 32 ∙ 𝑓 3 − 1.52
1 1 1 1
σ2 = 02 ∙ + 12 ∙ + 22 ∙ + 32 ∙ − 1.52
4 4 4 4
2
σ = 1.25
Distribuciones de probabilidad
Distribución discreta uniforme
Sea X una variable aleatoria con distribución uniforme 𝑈𝑛𝑖(𝑛) y función de masa de
probabilidad se define como:
1
𝑓 𝑥 = ; 𝑥 = 𝑥1, 𝑥2, … , 𝑥𝑛
𝑛
La media y la varianza de la variable X se definen como:
1 1
μ = 𝐸 𝑥 = 𝑥 σ = Var 𝑥 = 𝑥 2 − μ2
2
𝑛 𝑛
𝐸 𝐶 = 2400 USD
4
1
b. 𝐸 𝑋 = 𝑥
5
𝑥=0
𝐸 𝑋 =2
Distribuciones de probabilidad
Distribución discreta binomial : PDF - CDF
Sea X una variable aleatoria binomial 𝐵𝑖𝑛(𝑛, 𝑝). La función de masa de probabilidad se define
como:
𝑓 𝑥 = 𝑛𝐶𝑥 𝑝𝑥 (1 − 𝑝)𝑛−𝑥 ; 𝑥 = 0, 1, 2, … , 𝑛
μ = 𝐸 𝑋 = 𝑛𝑝 σ2 = Var 𝑋 = 𝑛𝑝(1 − 𝑝)
c. 𝜇 = 𝑛𝑝
𝜇 = 10 ∙ 0.2
𝜇=2
Distribuciones de probabilidad
Distribución discreta de Poisson
Sea X una variable aleatoria Poisson, 𝑃𝑜𝑖(λ). La masa de probabilidad se define como:
λ 𝑥 −λ
𝑓 𝑥 = 𝑒 ; 𝑥 = 0, 1, 2, …
𝑥!
μ =𝐸 𝑥 =λ σ2 = Var 𝑥 = λ
a. 𝑃 𝑋=1 =𝑓 1 c. 𝑃 𝑋≤2 =𝐹 2
2
51 −5 10 𝑥 −10
𝑃 𝑋=1 = 𝑒 𝑃 𝑋≤2 = 𝑒
1! 𝑥!
𝑃 𝑋 = 1 = 0.0337 𝑥=0
𝑃 𝑋 ≤ 2 = 0.0028
b. 𝑃 𝑋 ≥ 3 = 1 − 𝐹(2)
2
5 𝑥 −5
𝑃 𝑋≥3 =1− 𝑒
𝑥!
𝑥=0
𝑃 ≥ 3 = 0.88
CONTENIDO
Las variables aleatorias continuas difieren de las discretas porque pueden tomar cualquier valor
dentro de un intervalo específico.
Los valores que toman este tipo de variables suelen obtenerse a partir de instrumentos de medición.
La precisión del instrumento de medición establece la densidad de los posibles resultados que
puede tomar la variable.
Ejemplos: La altura de una persona. El tiempo de atención de una llamada. La masa de una caja de galletas. El
tiempo de duración de la reparación de un componente de una máquina. La longitud de los tornillos en una caja.
La temperatura de una persona. La concentración de un químico en una muestra. El volumen de refresco en una
lata de aluminio. Tiempo entre llegadas de clientes a un servicio. Tiempos de fallo de equipos. Intervalos entre
llamadas telefónicas.
Funciones de probabilidad
Función densidad de probabilidad
𝑃 𝑎 ≤ 𝑋 ≤ 𝑏 = න 𝑓 𝑥 𝑑𝑥
𝑎
Donde 𝑓 𝑥 es la función densidad de probabilidad. Esta cumple dos propiedades:
+∞
I. ∀𝑥, 𝑓 𝑥 ≥ 0 II. න 𝑓 𝑥 𝑑𝑥 = 1
−∞
Funciones de probabilidad
Función de probabilidad acumulada
La función acumulada de una variable aleatoria continua es una función que proporciona la
probabilidad acumulada de que la variable aleatoria sea menor o igual a un valor particular.
𝑃 𝑋 ≤ 𝑥 = 𝐹 𝑥 = න 𝑓 𝑡 𝑑𝑡
−∞
𝜇 = 𝐸 𝑋 = න 𝑥 𝑓(𝑥)
−∞
Sea X una variable aleatoria uniforme 𝑈𝑛𝑖 𝑎, 𝑏 . La función de densidad se define como:
1
𝑓 𝑥 = ; 𝑎≤𝑥≤𝑏
𝑏−𝑎
La media y la varianza de la variable X se definen a continuación:
1 1 2
μ = 𝐸 𝑥 = (𝑎 + 𝑏) σ2 = Var 𝑥 = (𝑏 − 𝑎2)
2 12
Distribuciones de probabilidad
Distribución continua uniforme : PDF - CDF
Ejemplo: Cuando una máquina falla, esta debe deternerse hasta que sea reparada. Suponiendo que el tiempo de reparación 𝑋
puede tomar cualquier valor entre 1 y 5 horas.
a. Calcule la probabilidad que la duración tome al menos de 2 horas.
b. Halle el valor esperado de la duración de la reparación.
c. Suponga que el costo fijo de reparación es de 100 USD. El costo variable es de 10 USD el cual incrementa con el cuadrado
del tiempo de reparación. Determine el valor esperado del costo de la reparación.
5
1 c. 𝐶𝐹 = 100
a. 𝑃 𝑋 ≥ 2 = න 𝑑𝑥
𝑋~𝑈𝑛𝑖(𝑎 = 1, 𝑏 = 5) 4 𝐶𝑉 = 10𝑋 2
2
𝑃 𝑋 ≥ 2 = 0.75 𝐶 = 𝐶𝐹 +𝐶𝑉
1
𝑓 𝑥 = ; 𝑎≤𝑥≤𝑏 𝐶 = 100 + 10𝑋 2
𝑏 −𝑎
1 1 𝐸 𝐶 = 𝐸 100 + 10𝑋 2
b. μ = 𝐸 𝑋 = (𝑎 + 𝑏)
𝑓 𝑥 = ; 1≤𝑥≤5 2 𝐸 𝐶 = 100 + 10𝐸 𝑋 2
4 1 5
μ = (5 + 1) 1
2 𝐸 𝐶 = 100 + 10 න 𝑥 2 𝑑𝑥
μ=3 4
1
𝐸 𝐶 = 203.33 USD
Distribuciones de probabilidad
Distribución continua normal
La distribución normal, también conocida como distribución gaussiana, es una de las distribuciones
de probabilidad más importantes y ampliamente utilizadas en estadísticas y teoría de probabilidad.
Se caracteriza por ser simétrica, tener forma de campana y estar completamente determinada por
dos parámetros: la media y desviación estándar.
Sea X una variable aleatoria normal 𝑁𝑜𝑟 μ, σ2 . Su función de densidad se define como:
1 1 𝑥−μ 2
−2 σ
𝑓 𝑥 = 𝑒 ; −∞ ≤ 𝑥 ≤ +∞
σ 2𝜋
Donde μ es la media y σ la desviación estándar de la variable X.
Alrededor del 68% de los datos se encuentran dentro de una desviación estándar de la media, el
95% dentro de dos desviaciones estándar, y el 99.7% dentro de tres desviaciones estándar.
Distribuciones de probabilidad
Distribución continua normal estándar
La distribución normal estándar, es una distribución normal específica con una media igual a 0 y
varianza igual a 1. Se usa para resolver problemas en los que se desconoce la media o la varianza
de otra variable aleatoria.
Modela el tiempo entre eventos sucesivos de un proceso de Poisson, donde los eventos ocurren de
manera continua e independiente a una tasa constante. Es particularmente es útil para modelar el
tiempo entre llegadas de eventos donde los eventos ocurren de manera aleatoria; en la que la
probabilidad de un evento no se ve afectado por el tiempo transcurrido respecto al evento anterior.
Sea X una variable aleatoria exponencial 𝐸𝑥𝑝 𝜆 . Su función de densidad se define como:
𝑓 𝑥 = 𝜆𝑒 −𝜆𝑥; 𝑥 ≥ 0
Donde 𝜆 es la tasa de ocurrencia de eventos por unidad de tiempo y 𝑥 representa el tiempo
entre eventos. La media y la desviación estándar de la variable aleatoria se definen de la
siguiente manera:
1 1
𝜇= 𝜎=
𝜆 𝜆
Distribuciones de probabilidad
Distribución continua exponencial : PDF - CDF
Ejemplo: El tiempo de revisión del motor de un avión sigue una distribución exponencial con media de 22 min.
a. Halle la probabilidad de que el tiempo de revisión sea menor a 10 min.
b. El costo de revisión es de 200 USD al que se le suma 10 USD por cada minuto que dure la revisión. Halle el costo medio de
la revisión del motor.
9
1 −1 𝑥
𝑋: tiemo de revisión en minutos a. 𝑃 𝑋 < 10 = න 𝑒 22 𝑑𝑥
22
1 1 1 0
𝜇= ⟹ 𝜆= =
𝜆 𝜇 22
1 𝑃 𝑋 < 9 = 0.31
𝑋~𝐸𝑥𝑝(𝜆 = )
22
b. 𝐶𝐹 = 200
−𝜆𝑥
𝑓 𝑥 = 𝜆𝑒 ;𝑥 ≥ 0 𝐶𝑉 = 10𝑋
𝐶 = 𝐶𝐹 +𝐶𝑉
1 −1𝑥 𝐶 = 200 + 10𝑋
𝑓 𝑥 = 𝑒 22 ; 𝑥 ≥ 0
22
𝐸 𝐶 = 𝐸 200 + 10𝑋
𝐸 𝐶 = 200 + 10𝐸 𝑋
𝐸 𝐶 = 200 + 10(22)
𝐸 𝐶 = 222 USD
CONTENIDO
Donde las componentes del vector son 𝑋1 , 𝑋2 , … ,𝑋𝑛 . Cada una de las componentes 𝑋𝑖 es una
variable aleatoria.
Distribución conjunta y marginales
Vectores aleatorios discretos bidimensionales
La distribución conjunta de un vector aleatorio describe cómo las variables aleatorias individuales se
relacionan entre sí en términos de probabilidades conjuntas o compartidas.
I. ∀𝑥∀𝑦, 𝑓 𝑥, 𝑦 ≥ 0 II. 𝑓 𝑥, 𝑦 = 1
Las funciones de distribución marginal describen las probabilidades asociadas con una sola
componente del vector aleatorio. Estas funciones permiten calcular la media de las componentes.
𝑃 𝑋 = 𝑥 = 𝑓𝑋 𝑥 = 𝑓 𝑥, 𝑦
𝑌
𝑃 𝑌 = 𝑦 = 𝑓𝑌 𝑦 = 𝑓 𝑥, 𝑦
𝑋
Ejemplo: Sea un vector aleatorio discreto bidimensional con componentes 𝑋 y 𝑌. Sea la función de masa conjunta:
𝑥+𝑦
𝑓 𝑥, 𝑦 = ; 𝑥 = 0,1, 2, 3; 𝑦 = 0,1, 2
30
a. Halle el valor de: i. 𝑃 𝑋 = 2, 𝑌 = 0 ii. 𝑃 𝑋 < 2, 𝑌 = 1 iii. 𝑃 𝑋 ≤ 2, 𝑌 > 0
b. Encuentre las funciones de probabilidad marginal.
c. Determine i. 𝑃 𝑋 < 2 ii. 𝑃 𝑌 > 0
1
𝑃 𝑎 ≤ 𝑋 ≤ 𝑏, 𝑐 ≤ 𝑌 ≤ 𝑑 = න න 𝑓 𝑥, 𝑦 𝑑𝑥 𝑑𝑦
𝑐 𝑎
I. ∀𝑥∀𝑦, 𝑓 𝑥, 𝑦 ≥ 0 II. න න 𝑓 𝑥, 𝑦 𝑑𝑥 𝑑𝑦 = 1
−∞ −∞
Distribución conjunta y marginales
Vectores aleatorios continuos bidimensionales
Las funciones de distribución marginal describen las probabilidades asociadas con una sola
componente del vector aleatorio. Estas funciones permiten calcular la media de las componentes.
𝑃 𝑋 = 𝑥 = 𝑓𝑋 𝑥 = න 𝑓 𝑥, 𝑦 𝑑𝑦
−∞
𝑃 𝑌 = 𝑦 = 𝑓𝑌 𝑦 = න 𝑓 𝑥, 𝑦 𝑑𝑥
−∞
Ejemplo: Sea un vector aleatorio contiuo bidimensional con componentes 𝑋 y 𝑌. Sea la función de densidad conjunta:
2
𝑓 𝑥, 𝑦 = 𝑥 + 2𝑦 ; 0 ≤ 𝑥 ≤ 1; 0 ≤ 𝑦 ≤ 1
3
a. Halle el valor de: i. 𝑃 0 < 𝑋 < 0.5, 0.5 < 𝑌 < 1 iii. 𝑃 𝑋 ≤ 0.8, 𝑌 > 0.3
b. Encuentre las funciones de probabilidad marginal.
c. Determine i. 𝑃 𝑋 < 0.7 ii. 𝑃 𝑌 > 0.6
+∞ 0.7
ai. 𝑃 0 < 𝑋 < 0.5, 0.5 < 𝑌 < 1 b. 𝑓𝑋 𝑥 = න 𝑓 𝑥, 𝑦 𝑑𝑦 ci. 𝑃 𝑋 < 0.7 = න 𝑓𝑋 𝑥 𝑑𝑥
1 0.5
−∞ 0
2 1 0.7
= නන 𝑥 + 2𝑦 𝑑𝑥 𝑑𝑦 2 2(𝑥 + 1)
3 𝑓𝑋 𝑥 = න 𝑥 + 2𝑦 𝑑𝑦
0.5 0 𝑃 𝑋 < 0.7 = න 𝑑𝑥
3 3
= 0.29 0 0
2(𝑥 + 1) 𝑃 𝑋 < 0.7 = 0.63
𝑓𝑋 𝑥 =
3
aii. 𝑃 𝑋 ≤ 0.8, 𝑌 > 0.3 1
1 0.8 +∞
cii. 𝑃 𝑌 > 0.6 = න 𝑓𝑌 𝑦 𝑑𝑦
2
= නන 𝑥 + 2𝑦 𝑑𝑥 𝑑𝑦 𝑓𝑌 𝑦 = න 𝑓 𝑥, 𝑦 𝑑𝑥 0.6
3 1
0.3 0 −∞
1 4𝑦 + 1
= 0.64 2 𝑃 𝑌 > 0.6 = න 𝑑𝑦
𝑓𝑌 𝑦 = න 𝑥 + 2𝑦 𝑑𝑥 3
3 0.6
0 𝑃 𝑌 > 0.6 = 0.56
4𝑦 + 1
𝑓𝑌 𝑦 =
3
Probabilidad condicional
Vectores aleatorios bidimensionales
Se refieren a la probabilidad de que ocurra un evento dado que otro evento ya ha ocurrido, en el
contexto del vector aleatorio bidimensional.
La covarianza es un concepto importante de los vectores aleatorios, ya que indican cómo los
diferentes valores de las variables aleatorias en el vector pueden variar en conjunto.
La covarianza es un concepto importante de los vectores aleatorios, ya que indican cómo los
diferentes valores de las variables aleatorias en el vector pueden variar en conjunto.
Marginales: Marginales:
𝑥 +1 2𝑦 + 3 2(𝑥 + 1) 4𝑦 + 1
𝑓1𝑋 𝑥 = 𝑓1𝑌 𝑦 = 𝑓1𝑋 𝑥 = 𝑓1𝑌 𝑦 =
10 15 3 3
Promedios: Promedios:
3 1
𝑥 +1 2(𝑥 + 1)
𝜇1𝑋 = 𝑥 ∙ =2 𝜇2𝑋 = න 𝑥 ∙ 𝑑𝑥 = 0.56
10 3
𝑥=0 0
1
2 4𝑦 + 1
2𝑦 + 3 𝜇2𝑌 = න 𝑦 ∙ 𝑑𝑦 = 0.61
𝜇1𝑌 = 𝑦∙ = 1.27 3
15 0
𝑦=0
𝑋1 𝑋
Ejemplo: Sean los vectores aleatorios bidimensionales y 2 con funciones de distribución de probabilidad conjunta 𝑓1 y 𝑓2
𝑌1 𝑌2
definidas a continuación.
𝑥+𝑦 2
𝑓1 𝑥, 𝑦 = ; 𝑥 = 0,1, 2, 3; 𝑦 = 0,1, 2 𝑓2 𝑥, 𝑦 = 𝑥 + 2𝑦 ; 0 ≤ 𝑥 ≤ 1; 0 ≤ 𝑦 ≤ 1
30 3
Halle la covarianza entre las componentes de cada vector aleatorio.
Promedios: Promedios:
𝜇1𝑋 = 2 𝜇2𝑋 = 0.39
𝜇1𝑌 = 1.27 𝜇2𝑌 = 0.61
Covarianza: Covarianza:
𝜎1𝑋𝑌 = 𝐸 𝑋𝑌 − 𝜇𝑋 𝜇𝑌 𝜎2𝑋𝑌 = 𝐸 𝑋𝑌 − 𝜇𝑋 𝜇𝑌
3 2 1 1
𝑥 +𝑦 2
𝜎1𝑋𝑌 = 𝑥𝑦 − (2)(1.27) 𝜎2𝑋𝑌 = න න 𝑥𝑦 (𝑥 + 2𝑦) 𝑑𝑥𝑑𝑦 − 0.56 0.61
30 3
𝑥=0 𝑦=0 0 0
Dos variables aleatorias 𝑋 y 𝑌 son independientes si el conocimiento de los valores de una de las
variables no proporciona información sobre los valores de la otra variable.
Cabe recalcar que la independencia entre componentes implica covarianza cero en el caso de
vectores aleatorios normales, pero en general, la covarianza cero no garantiza independencia.
CONTENIDO
Bajo el término “Ley de los grandes números” se engloban varios teoremas que describen el
comportamiento del valor esperado de una sucesión de variables aleatorias conforme aumenta su
número de ensayos.
Estos teoremas establecen condiciones suficientes para dicho valor esperado converja al promedio
de los valores esperados de las variables aleatorias involucradas. Las distintas formulaciones de la
ley especifican la convergencia de formas distintas.
Gracias a estos teoremas se explica por qué el promedio de una muestra seleccionada al azar de
una población de gran tamaño tomaría un valor cercano a la media de la población completa.
Ley de los grandes números
Ley débil de los grandes números
Esta ley establece que, para una secuencia de variables aleatorias independientes e idénticamente
distribuidas, la media muestral converge en probabilidad a la media poblacional a medida que el
tamaño de la muestra tiende a infinito.
Sea 𝑋ത𝑛 la media muestral de las 𝑛 observaciones cada una de las variables aleatorias, entonces:
Esta ley es más fuerte que la ley débil ya que establece que, con probabilidad 1, la media muestral
converge a la media poblacional a medida que el tamaño de la muestra tiende a infinito.
Sea 𝑋ത𝑛 la media muestral de las 𝑛 observaciones (muestra) cada una de las variables aleatorias,
entonces:
𝑃 lim 𝑋ത𝑛 = 𝜇 = 1
𝑛→∞
Teorema de límite central
Definición del teorema
El teorema establece que, a medida que el tamaño de una muestra se hace lo suficientemente
grande, la distribución del promedio de las variables aleatorias tiende a aproximarse a una
distribución normal, independientemente de la forma de la distribución original de las variables.
ESPOL. (s.f.). Unidades y temas del curso ESTG1003. Blog de la Escuela Superior Politécnica del Litoral
(ESPOL). http://blog.espol.edu.ec/estg1003/unidades-temas/
Landro, A. H., & González, M. L. (2018). Teoría general de las variables aleatorias. Biblioteca Digital - Facultad
de Ciencias Económicas, Universidad de Buenos Aires.
http://bibliotecadigital.econ.uba.ar/download/libros/Landro-Gonzalez_Teoria-general-de-las-variables-
aleatorias-2018.pdf
Walpole, R. E., Myers, R. H. (s.f.). Probabilidad y Estadística para Ingeniería y Ciencias. Biblioteca Virtual La
Serena. Recuperado de https://bibliotecavirtualaserena.files.wordpress.com/2017/05/libro_probabilidad-y-
estadistica-para-ingenerc3ada-y-ciencias-ronald-e-walpole-mayers.pdf