Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Ultimos Ejemplos
Ultimos Ejemplos
Variables Aleatorias
continuas
Ivan Ladino
Notas de clase
——
II - 2020
Variables Aleatorias continuas
(Definición)
Una variable aleatoria X es llamada continua, si existe una función
fX (ver figura 1-a) no negativa, denominada función de densidad de
probabilidad (PDF) de X , tal que:
!
P(X ∈ B) = fX (x)dx
B
para cada subconjunto B de la recta real, en particular, la probabili-
dad de que X caiga en un intervalo [a, b] es:
! b
P(a ≤ X ≤ b) = fX (x)dx
a
es claro que la probabilidad en este caso, corresponde al área bajo la
curva entre X = a y X = b. también es claro que:
! a
P(X = a) = fX (x)dx = 0
a
por ello, P(a < X < b) = P(a ≤ X ≤ b) = P(a < X ≤ b) =
P(a ≤ X < b).
2/45
Variables Aleatorias continuas
(Definición)
Como fX (x) > 0 para todo x, entonces:
P(a < X < b) > 0 para todo a < b
además, si fX (x) está bien definida, se debe cumplir que:
! ∞
fX (x)dx = 1
−∞
es decir toda el área bajo la curva de fX (x) es uno. Ahora, evaluemos
la probabilidad:
! x+δ
P([x, x + δ]) = fX (τ )dτ ≈ fX (x) · δ
x
por lo tanto, podemos interpretar a la PDF (fX (x)) como una den-
sidad de probabilidad: probabilidad por unidad de longitud.
3/45
Variables Aleatorias continuas
(PDF)
fX (x)
(a)
δ
x x +δ X
fX (x)
1
b−a
(b)
X
a b
Figura 1: PDF
4/45
Variables Aleatorias continuas
(Ejemplo)
Una rueda de la fortuna esta calibrada de forma continua entre el
valor a y b, de tal forma que todos los intervalos de la misma longitud
tiene la misma probabilidad; por lo tanto la PDF (ver figura 1-b) de
este experimento puede ser representada por:
"
c si a ≤ x ≤ b
fX (x) =
0 en otro caso
#∞
como −∞ fX (x) debe ser igual a 1, entonces c = 1/(b − a).
5/45
Variables Aleatorias continuas
(Ejemplo)
Consideremos una variable aleatoria continua X con PDF dada por:
!
1
√
2 x
si 0 < x ≤ 1
fX (x) =
0 en otro caso
para verificar que esta PDF está bien definida hacemos:
" ∞ " 1
1 √ #1
fX (x)dx = √ dx = x #0 = 1
−∞ 0 2 x
6/45
Variables Aleatorias continuas
(Valor esperado)
El valor esperado de una variable aleatoria continua se define como:
! ∞
E [X ] = xfX (x)dx
−∞
En el caso de una función de variable aleatoria Y = G (X ), el valor
esperado de Y esta definido por:
! ∞
E [g (X )] = g (X )fX (x)dx
−∞
El n-ésimo momento estadístico de una variable aleatoria se define
cómo E [X n ]. La varianza de una variable aleatoria continua se calcula
a través de:
var (X ) = E [X − E [X ]]2 = E [X 2 ] − E [X ]2 ≥ 0
al igual que en el caso discreto, si Y = aX + b, con a, b constantes,
se cumple que:
E [Y ] = aE [X ] + b, var (Y ) = a2 var (X )
7/45
Variables Aleatorias continuas
(Ejemplo)
Calcular la media y la varianza de la variable uniformemente distri-
buida, dada en la figura (1b).
El valor esperado corresponde a:
! b
1
E [X ] = x dx
a b−a
1 1 2 $$b
$
a+b
= x $ =
b−a 2 a 2
Para la varianza calculemos E [X 2 ]:
1 1 3 $$b
! b
x2
$
2
E [X ] = = x
a b−a b − a 3 $a
a2 + ab + b 2
=
3
2 2 (a+b)2 (b−a)2
por lo tanto la varianza es: var (X ) = a +ab+b
3 − 4 = 12
8/45
Variables Aleatorias continuas
9/45
Variables Aleatorias continuas
(Ejemplo)
El tiempo hasta que cae un meteorito en el desierto, es modelado
por una variable exponencial con media 10 días, si el tiempo inicia
a correr para el observador a la media noche, calcule la probabilidad
de que el meteorito caiga entre las 6 a.m y 6 p.m del primer día de
obsrevación.
De los datos dados, tenemos que E [X ] = 10 = λ1 , es decir que
λ = 1/10. Por otra parte, las 6 a.m. y las 6 p.m. corresponde res-
pectivamente a 1/4 y 3/4 de día. Por lo tanto la probabilidad pedida
es:
P(1/4 ≤ X ≤ 3/4) = P(X ≥ 1/4) − P(X > 3/4) = e −1/40 − e −3/40 = 0,0476
en donde se ha usado que P(X ≥ a) = P(X > a) = e −λa .
10/45
Variables Aleatorias continuas
(Función de Distribución Acumulativa - CDF)
La CDF de una variable aleatoria X se denota por FX y equivale a
la probabilidad P(X ≤ x):
$ %
PX (k), si X es discreta
FX (x) = P(X ≤ x) = & xk≤x
−∞ fX (t)dt, si X es continua
Es decir que para el casi discreto, tenemos que la CDF es:
'
FX (x) = P(X ≤ x) = pX (k)
k≤x
Para el caso continuo tenemos entonces:
" x
FX (x) = P(X ≤ x) = fX (τ )dτ
−∞
La Pdf fX (x) puede ser obtenida de esta ultima expresion por deric-
vacion;
dFX
fX (x) = (x)
dx
11/45
Variables Aleatorias continuas
(Función de Distribución Acumulativa - CDF)
Otras propiedades de la PDF corresponden a las siguientes:
FX es monótona no decreciente:
si x ≤ y , entonces FX (x) ≤ FX (y )
FX (x) tiende a 0 cuando x → −∞ y, tiene a 1, cuando x → ∞
Si X es discreta, entonces FX (x) es constante a trozos en X
si X es continua, entonces FX (x) es una función continua de X
Si X es discreta y toma valores enteros, entonces la PMF y la
CDF pueden ser obtenidas una de la otra por medio de:
$k
FX (k) = i =−∞ pX (i )
(Ejemplo - continuación)
Con base en FX (k) tenemos que:
% &3 %
k −1 3
&
k
pX (k) = − k = 1, · · · , 10
10 10
Este resultado puede ser generalizado a n variables · · ·
14/45
Variables Aleatorias continuas
(CDF geométrica)
La PDF de la distribución geométrica obedece a:
P(X = k) = p(1 − p)k−1
entonces la CDF esta dada por:
n
" 1 − (1 − p)n
Fgeo (n) = p(1−p)k−1 = p = 1−(1−p)n n = 1, 2, · · ·
1 − (1 − p)
k=1
Para el caso de la exponencial tenemos que Fexp (x) = P(X ≤ x),
entonces: ! x #x
Fexp (x) = λe −λt dt = −e −λt # = 1 − e −λx para x > 0
#
0 0
Además se tiene una relación muy importante entre al Geométrica y
la exponencial (λδ = p):
Fexp (nδ) = Fgeo (n) n = 1, 2, · · ·
Cuando p y δ son muy pequeños.
15/45
Variables Aleatorias continuas
17/45
Variables Aleatorias continuas
(Variable aleatoria Normal Estándar)
La integral de (1) es muy dificil de resolver, por ello se emplea la
distribución estándar, que corresponde a una Normal con media cero,
desviación estándar unitaria y con CDF dada por:
! y
1 2
Φ(y ) = P(Y < y ) = √ e −t /2 dt (2)
2π −∞
esta integral se encuentra tabulada mediante tablas (ver
https://www.math.arizona.edu/ rsims/ma464/standardnormaltable.pdf).
por lo tanto:
Φ(−a) = 1 − Φ(a) ∀a (3)
18/45
Variables Aleatorias continuas
19/45
Variables Aleatorias continuas
20/45
Variables Aleatorias continuas
(Ejemplo)
La caída anual de nieve en una ciudad se modela mediante una dis-
tribución Normal, con media µ = 60 pulgadas y desviación estándar
de σ = 20. Calcular la probabilidad de que en este año, la caída de
nieve sea mas de 80 pulgadas.
Definamos X , como la acumulación de nieve, y a Y como:
X −µ X − 60
Y = =
σ 20
por lo tanto:
$ % $ %
X − 60 80 − 60 80 − 60
P(X ≥ 80) = P ≥ =P Y ≥
20 20 20
= P(Y ≥ 1) = 1 − Φ(1)
buscando el tabla encontramos que Φ(1) = 0,84134, por lo tanto,
P(X ≥ 80) = 1 − 0,84134 = 0, 15866
21/45
Variables Aleatorias continuas
(Ejercicio - quiz)
Suponga que en una caja se encuentra resistencias de 1K Ω con σ =
200Ω. Calcular la probabilidad de que al seleccionar una resistencia
R de la caja, la probabilidad se encuentre en el intervalo [900, 1100]
ohmios, dado que la PDF de R es normal.
22/45
Variables Aleatorias continuas
(Ejemplo)
A través de un canal, se transmite una señal binaria con pulso de am-
plitud 1 para el uno lógico y de −1 para el cero lógico. Supongamos
que cada bit tiene duración de T segundos y que el receptor realiza
la lectura de los pulsos en los centros de los pulsos, es decir cada
T /2 + kT (con k ∈ Z+ ). El canal se encuentra contaminado por
ruido gaussiano con media µ = 0 y desviación estándar σ. La estra-
tegia de detección del receptor consiste en comparar cada muestra
(en T /2 + kT ) con cero, si la muestra es mayor que cero, entonces
se concluye que se detectó un 1 lógico de lo contrario se asume que
se detecto un 0 lógico. Calcular la probabilidad de error empleando
esta estrategía.
23/45
Variables Aleatorias continuas
(Ejemplo - continuación)
Cuando se transmite un 1, el error ocurre si el ruido η < −1, es
decir si 1 + η < 0, en consecuencia p(e|1) = p(η ≤ −1). En forma
equivalente la probabilidad de error cuando se transmite un cero
corresponde a: p(e|0) = p(η ≥ 1).
Usando el procedimiento de normalizacion tenemos:
η−µ η
Y = =
σ σ
por lo tanto la probabilidad p(e|1) = p(η ≤ −1) se calcula por medio
de:
'η −1
( ' −1
( ' −1 (
p(η ≤ −1) = p σ ≤ σ =p Y ≤ σ =Φ σ
' −1 (
la probabilidad de p(e|0) = p(η ≥ 1), por simetría es Φ σ , así:
$1 ' −1 (
p(e) = x=0 pX (x)p(e|x) = pX (0)p(e|0) + pX (1)p(e|1) = Φ σ
Empleando la tabla de la CDF estándar' para
( σ = 1, obtenemos que
la probabilidad de error es: p(e) = Φ −1
σ = 0,15866
24/45
Variables Aleatorias continuas
(PDFs conjuntas)
Ahora, se extenderá el concepto de PDF a varias variable aleatorias.
Dos variables aleatorias continuas X e Y , asociadas al mismo expe-
rimento, se pueden describir a partir de una función no negativa fX ,Y
denominada la PDF conjunta de X e Y :
""
P((X , Y ) ∈ B) = fX ,Y (x, y )dxdy
(x,y )∈B
para cada sunconjunto B del espacio muestreal. Supongamos que B
corresponde a una region rectangular conexa del espacio, es decir:
B = {(x, y )|a ≤ x ≤ b, c ≤ y ≤ d}
por ende: " b" d
p(a ≤ X ≤ b, c ≤ Y ≤ d) = fX ,Y (x, y )dydx
a c
por otra parte, para que fX ,Y (x, y ) este bien definida se debe dar:
" ∞" ∞
fX ,Y (x, y )dxdy = 1
−∞ −∞
25/45
Variables Aleatorias continuas
(PDFs conjuntas)
Ahora, supongamos que B es un diferencial de área, con δ → 0
" a+δ " c+δ
p(a ≤ X ≤ a + δ, c ≤ Y ≤ c + δ) = fX ,Y (x, y )dydx
a c
= fX ,Y (a, c)δ2
por lo tanto, fX ,Y (x, y ) corresponde a una densidad de probabilidad
por unidad de área.
(Ejemplo)
Romeo y Julieta tienen una cita a una hora determinada, cada uno se
retarda entre 0 y 1 hora. Sea X e Y las variables aleatorias asociadas
a los retrasos de Romeo y Julieta, asuma que todas las combinaciones
posibles son equiprobables, por lo tanto:
&
c, si 0 ≤ x ≤ 1 y 0 ≤ y ≤ 1
fX ,Y (x, y ) =
0 en otro caso
por la propiedad de normalización tenemos:
! 1! 1 ! 1! 1
fX ,Y (x, y )dxdy = cdxdy = 1
0 0 0 0
por lo tanto c = 1. Ahora, para cualquier área A ⊂ S (S el espacio
muestreal), la probabilidad de que (X , Y ) ∈ A es:
!!
P((X , Y ) ∈ A) = fX ,Y (x, y )dxdy = A(s)
(x,y )∈A
Con A(S) el área de S.
27/45
Variables Aleatorias continuas
(CDFs Conjuntas)
Sean X e Y dos variables aleatorias asociadas al mismo experimento,
se define la CDF conjunta como:
! x ! y
FX ,Y (x, y ) = P(X ≤ x, Y ≤ y ) = fX ,Y (s, t)dtds
−∞ −∞
La PDF se relaciona con la CDF a través de:
∂ 2 FX ,Y
fX ,Y (x, y ) = (x, y )
∂x∂y
28/45
Variables Aleatorias continuas
(Ejemplo)
Sean X e Y dos variables aleatorias descritas por una PDF uniforme
en el cuadrado unitario, con:
FX ,Y (x, y ) = P(X ≤ x, Y ≤ y ) = xy para 0 ≤ x, y ≤ 1
es fácil ver que:
∂ 2 FX ,Y ∂ 2 (xy )
∂x∂y (x, y ) = ∂x∂y (x, y ) = 1 = fX ,Y (x, y )
para todo x, y en el cuadrado unitario.
(Valor esperado)
Si X e Y , son dos variables aleatorias continuas, asociadas al mis-
mo experimento y g es alguna función, entonces Z = g (X , Y ) es
también una variable aleatoria "con:
" ∞ ∞
E [g (X , Y )] = g (x, y )fX ,Y (x, y )dxdy
−∞ −∞
Un caso particular, corresponde a combinaciones lineales de X e Y :
E [g (X , Y )] = E [aX + bY + c] = aE [X ] + bE [Y ] + c
29/45
Variables Aleatorias continuas
(Mas de dos Variables aleatorias)
La PDF de tres variables aleatorias X , Y y Z se define como;
"""
P((X , Y , Z ) ∈ B) = fX ,Y ,Z (x, y , z)dxdydz
(x,y ,z)∈B
para cualquier subconjunto B del espacio muestreal. Las marginales
se pueden obtener mediante:
" ∞
fX ,Y (x, y ) = fX ,Y ,Z (x, y , z)dz
−∞
y,
" ∞ " ∞
fX (x) = fX ,Y ,Z (x, y , z)dydz
−∞ −∞
el valor esperado de W = g (X , Y , Z ) corresponde a:
" ∞" ∞" ∞
E [g (X , Y , Z )] = g (x, y , z)fX ,Y ,Z (x, y , z)dxdydz
−∞ −∞ −∞
en el caso particular en que W = aX + bY + cZ + d tenemos:
E [aX + bY + cZ + d] = aE [X ] + bE [Y ] + cE [Z ] + d
30/45
Variables Aleatorias continuas
(Condicionamiento a un evento)
Sea un evento A con probabilidad P(A) > 0 y una variable aleatoria
X asociada al mismo experimento que el evento A, entonces, se
define una función no negativa fX |A con:
'
P(X ∈ B|A) = x∈B fX |A (x)dx
para cualquier subconjunto B de la linea real. Si B es todo el espacio
muestreal, entonces:
! ∞
fX |A (x)dx = 1
−∞
Ahora, si se condiciona un evento B a otro evento A tenemos que:
!
P(X ∈B,X ∈A) f (x)dx
A∩B X
P(X ∈ B|X ∈ A) = P(X ∈A) = P(X ∈A)
en consecuencia: (
fX (x)
P(X ∈A) si x ∈ A
fX |{X ∈A} (x) =
0, en otro caso
31/45
Variables Aleatorias continuas
(Ejemplo)
Veamos que la variable aleatoria exponencial corresponde a un pro-
ceso sin memoria. El tiempo que un bombillo dura encendido hasta
que se apaga, se modela por una variable aleatoria exponencial T ,
con parámetro λ. Supongamos que una persona prende un bombillo
en un cuarto y deja el cuarto, regresando hasta el instante de tiempo
t, encontrando que el bombillo aún sigue encendido. lo que se asocia
al evento A = {T > t}. Sea X el tiempo adicional hasta que la
bombilla se apaga, hallar la CDF condicional de X , dado el evento
A.
Para x ≥ 0 tenemos:
P(T > t + x, T > t)
P(X > x|A) = P(T > t + x|T > t) =
P(T > t)
P(T > t + x) e −λ(t+x)
= = = e −λx
P(T > t) e −λt
Es decir que P(X > x|A) es independiente del tiempo t.
32/45
Variables Aleatorias continuas
(Múltiples variables)
Supongamos ahora que tenemos dos variables X e Y con PDF con-
junta fX ,Y . Dado un evento C = {(X , Y ) ∈ A}, entonces:
(
fX ,Y (x,y )
fX ,Y |C (x, y ) = P(C ) , si (x, y ) ∈ A
0, en otro caso
la probabilidad condicional de X con respecto a C se obtiene por:
! ∞
fX |C (x) = fX ,Y |C (x, y )dy
−∞
Ahora, si tenemos una partición A = ∪ni=1 Ai del espacio muestreal,
entonces:
"n n
"
fX (x) = fX ,Ai (X ∈ Ai , X = x) = p(Ai )fX |Ai (x)
i =1 i =1
donde hemos empleado el teorema de probabilidad total.
33/45
Variables Aleatorias continuas
(Condicionamiento de una variable a otra)
Sean X e Y dos variables aleatorias continuas con PDF conjunta
fX ,Y . Para cualquier y con fY (y ) > 0, la PDF condicional de X
dado Y = y se define como:
fX ,Y (x, y )
fX |Y (x|y ) =
fY (y )
Por otro lado, el valor esperado de una variable X dado un evento A
se define como:
∞!
E [X |A] = xfX |A (x)dx
∞
Y el valor esperado de X condicionado a Y = y corresponde a:
! ∞
E [X |Y = y ] = x fX |Y (x|y )dx
∞
El valor esperado condicionado para funciones de varias variables
aleatorias se define en forma similar, lo mismo sucede con el concepto
de independencia.
34/45
Variables Aleatorias continuas
(Regla de Bayes)
En forma equivalente al caso discreto, tenemos:
fX (x)fY |X (y |x)
fX |Y (x|y ) =
f (y )
' ∞Y
con la propiedad de normalización: ∞ fX |Y (x|y )dx = 1, en conse-
cuencia:
fX (x)fY |X (y |x)
fX |Y (x|y ) = ' ∞
∞ fX (t)fY |X (y |t)dt
35/45
Variables Aleatorias continuas
(Regla de Bayes)
En forma equivalente al caso discreto, tenemos:
fX (x)fY |X (y |x)
fX |Y (x|y ) =
f (y )
# ∞Y
con la propiedad de normalización: ∞ fX |Y (x|y )dx = 1, en conse-
cuencia:
fX (x)fY |X (y |x)
fX |Y (x|y ) = # ∞
∞ fX (t)fY |X (y |t)dt
En forma equivalente tenemos:
fY (y )P(A|Y = y )
fY |A (y ) = # ∞
−∞ fY (t)P(A|Y = t)dt
36/45
Variables Aleatorias continuas
(Teorema Fundamental)
Ahora, vamos a generalizar el proceso para hallar la PDF de una
función de variable aleatoria de la forma Y = g (X ). Supongamos,
primero, que un subconjunto R del eje Y no está en el rango de
la función Y = g (X ), es decir, que g (X ) no es un punto de R
para ningún X . En este caso, la probabilidad de que g (X ) esté en
R es igual a 0. Por lo tanto, fY (y ) = 0 para Y ∈ R. Basta, por lo
tanto, considerar los valores de Y de manera tal que para algunos
X , g (X ) = Y .
Teorema
Para encontrar la PDF fY (y ) para un valor específico y , se soluciona
la expresión Y = g (X ). Denotemos a las raíces de g (X ) por xi con
i = 1, 2, · · · , entonces y = g (x1 ) = g (x2 ) = · · · . Así, fY (y ) es:
fX (x1 ) fX (xn )
fY (y ) = & + ··· + & (4)
|g (x1 )| |g (xn )|
con g & (X ) la derivada de g (X ) con respecto a X .
37/45
Variables Aleatorias continuas
(Teorema Fundamental)
Demostración.
Supongamos que las raíces están ubicadas como se muestra en la
figura (4):
Continuación demostración.
De la definición de la función de densidad de probabilidad y su
significado sabemos que:
fY (y )dy = P{y < Y ≤ y + dy }
En consecuencia, es suficiente encontrar los valores de X para los
cuales y < g (X ) ≤ y + dy y la probabilidad de que X este en ese
subconjunto. En la figura (4), podemos ver que ese subconjunto se
compone de los siguientes tres intervalos:
x1 < X ≤ x1 + dx1 , x2 + dx2 < X ≤ x2 , x3 < X ≤ x3 + dx3
Con dx1 , dx3 > 0 y dx2 < 0, por consiguiente:
P{y < Y < y + dy } = P{x1 < X ≤ x1 + dx1 } +
+ P{x2 + dx2 < X ≤ x2 } +
+ P{x3 < X ≤ x3 + dx3 }
39/45
Variables Aleatorias continuas
Continuación demostración.
Empleando el concepto de densidad previamente explicado y el hecho
de que dx → 0, tenemos que cada uno de los tres sumandos que
componen a P{y < Y < y + dy } se aproximan a:
P{x1 < X ≤ x1 + dx1 } = fX (x1 )dx1
P{x2 + dx2 < X ≤ x2 } = fX (x2 )|dx2 |
P{x3 < X ≤ x3 + dx3 } = fX (x3 )dx3
como g $ (X ) = dy /dx entonces tenemos que:
dy dy dy
dx1 = $ , dx2 = $ , dx3 = $
g (x1 ) g (x2 ) g (x3 )
reemplazando estos términos en P{y < Y < y + dy } = fY (y )
llegamos a:
fX (x1 ) fX (x2 ) fX (x3 )
fY (y )dy = $ dy + $ dy + $ dy
g (x1 ) |g (x2 )| g (x3 )
Evidentemente, la generalización del teorema corresponde a la ex-
presión (4).
40/45
Aplicaciones del Teorema Fundamental
Ejemplo (Función lineal de una varibale)
Supongamos que tenemos la función de variable aleatoria dada por
Y = g (X ) = aX + b, con g # (X ) = a, esta función tiene la solución
dada por X = (Y − b)/a, por ende:
% &
1 y −b
fY (y ) = fX
|a| a
Ejemplo (Ley de Ohm)
Una resistencia tiene valor medio de r0 = 1000Ω, con una tolerancia
asociada a una variable aleatoria uniforme R (entre -100 Ω y +100
Ω). Por la resistencia circula una corriente constante de i = 10mA.
Entonces, el voltaje es una función de variable aleatoria V = fR (R) =
i (R + r0 ), usando el resultado anterior tenemos:
% & % &
1 V 1 V
fV (V ) = fR − r0 = fR − 1000
|i | i |10mA| 10mA
por lo tanto V es una V.A. con PDF uniforme entre 9 y 11 voltios.
41/45
Aplicaciones del Teorema Fundamental
42/45
Aplicaciones del Teorema Fundamental
43/45
Funciones de Variables aleatorias
44/45
Funciones de Variables aleatorias
45/45