Está en la página 1de 4

PONTIFICIA UNIVERSIDAD CATÓLICA DE CHILE

FACULTAD DE MATEMÁTICAS
DEPARTAMENTO DE PROBABILIDAD Y ESTADÍSTICA

EYP–1112 Probabilidades para Ingenierı́a


Variables Aleatorias

Profesor : Guido del Pino 2o Sem. 2006


Ayudante : Estefanı́a Etchegaray

Variables Aleatorias Discretas



• X ∼ Bernoulli(p) con X = Éxito o fracaso .
(
pk (1 − p)1−k si k = 0, 1,
P(X = k) =
0 si no.
• E(X) = p
• Var(X) = p(1 − p)
• X ∼ Binomial(n, p) con X = {Núm. de éxitos en n experimentos Bernoulli.}
Suposiciones:
1. Cada experimento o bien es un éxito o un fracaso.
2. La probabilidad de éxito es p para cada intento.
3. Los n intentos son independientes.
  
 n pk (1 − p)n−k

si k = 0, 1, . . . , n,
P(X = k) = k

 0 si no.
• E(X) = np
• Var(X) = np(1 − p)

• X ∼ BinomialNegativa(p, r) con X = {Núm. de intentos hasta el r-ésimo éxito.}


Suposiciones:
1. Cada intento es o bien es un éxito o un fracaso.
2. La probabilidad de éxito es p para cada intento.
3. Todos los intentos son independientes.
4. La secuencia de intentos se termina después del r-ésimo éxito.
  
 k − 1 pr (1 − p)k−r

si k = r, r + 1, . . .,
P(X = k) = r−1

 0 si no.
r(1 − p)
• E(X) =
p
r(1 − p)
• Var(X) =
p2

1
• X ∼ Geométrica(p) con X = {Núm. de intentos fracasados hasta que ocurre el primer éxito.}
Suposiciones:

1. Cada intento es o bien es un éxito o un fracaso.


2. La probabilidad de éxito es p para cada intento.
3. Todos los intentos son independientes.
4. La secuencia de intentos se termina después del primer éxito.
(
p(1 − p)k−1 si k = 1, 2, . . .,
P(X = k) =
0 si no.
1
• E(X) =
p
1−p
• Var(X) =
p2

• X ∼ Hipergeométrica(N, M, n) con X = {Núm. de éxitos en una muestra de tamaño n.}


Suposiciones:
1. La muestra se toma sin reemplazo de un conjunto finito de tamaño N que contiene M éxitos y
N − M fracasos.
   

 M N −M
k n−k


si k = 0, 1, . . . , mı́n(n, M ),

  
P(X = k) = N
n





0 si no.

M
• E(X) = n
N
 
M M N −n
• Var(X) = n 1−
N N N −1

• X ∼ Poisson(λ) con X = {Núm. de veces que ocurre un evento en un intervalo de tiempo o espacio.}
Suposiciones:
1. La proporción promedio de ocurrencias (λ > 0) se conoce.
2. Eventos ocurren independientemente.
3. Puede ser usada para aproximar una variable aleatoria Binomial cuando n es grande y p pequeño,
de modo que, λ = np.
 −λ k
 e λ
si k = 0, 1, . . .,
P(X = k) = k!

0 si no.
• E(X) = λ
• Var(X) = λ

2
Variables Aleatorias Continuas

• X ∼ Beta(α, β)

 Γ(α + β) xα−1 (1 − x)β−1



si x ∈ [0, 1] y α, β > 0,
fX (x) = Γ(α)Γ(β)

0 si no.
α
• E(X) =
α+β
αβ
• Var(X) =
(α + β)2 (α + β + 1)
• X ∼ Exponencial(λ) con X = {Tiempo que transcurre hasta que ocurre el primer éxito.}

( (
λe−λx si x ≥ 0, λ > 0, 0 si x < 0,
fX (x) = FX (x) = −λx
0 si no. 1−e si x ≥ 0.
1
• E(X) =
λ
1
• Var(X) =
λ2
• X ∼ Gama(α, λ) con X = {Tiempo que transcurre hasta la α-ésima ocurrencia .}

λα α−1 −λx

 x e si x ≥ 0 y λ, α > 0,
fX (x) = Γ(α)

0 si no.
 ∞
Z
 xα−1 e−x dx si α ∈ R
• Γ(α) = 0

(α − 1) · Γ(α − 1) = (α − 1)! si α ∈ N
α
• E(X) =
λ
α
• Var(X) =
λ2
• Cuando α = 1 y λ = 1/2, se dice que X tiene distribución Exponencial.
• Cuando α = 1/2 y λ = 1/2, se dice que X tiene distribución Ji-cuadrado (χ2 ).
• X ∼ Normal(µ, σ 2 )
 (  2 )
1 1 x − µ
 √ exp − si x ∈ R, µ ∈ R y σ 2 > 0,

fX (x) = 2πσ 2 2 σ


0 si no.
• E(X) = µ
• Var(X) = σ 2
• Cuando µ = 0 y σ 2 = 1, se dice que X tiene distribución normal estándar.

3
• X ∼ Uniforme[a, b]


1  0 si x < a,
 si a ≤ x ≤ b,  x−a

fX (x) = b−a FX (x) = si a ≤ x ≤ b,
b−a
0 si no.
 

1 si x > b.

a+b
• E(X) =
2
(b − a)2
• Var(X) =
12
• X ∼ Weibull(α, β)
 α α
 xα−1 e−x /β si x ≥ 0, α, β > 0
fX (x) = β
0 si no.

• E(X) = β 1/α Γ(1 + 1/α)


• Var(X) = β 2/α Γ(1 + 2/α) − Γ2 (1 + 1/α)