Está en la página 1de 29

1

APUNTES

INTRODUCCION SISTEMAS DE
COMUNICACIONES 1
PROCESOS ESTOCASTICOS

Texto: Probability, Statistics and Random Processes for Electrical Engineering, Alberto
Leon-Garcia, 3rd Edition

ESPOL - Telecomunicaciones
2

PROCESOS ESTOCASTICOS

VARIABLE ALEATORIA X

Variable aleatoria Continua


ζ1

Variable aleatoria Discreta


1
ζ2
10

ζ3
37

ζ4

Fx ( x) = P[ x  x]
Función Distribución de Probabilidad (CDF) Fx ( x) = Px  x Fx (5) = P[ x  5]
Fx (a) = P[ x  a]

Propiedades
Dado una variable aleatoria x y 𝐹(𝑥 + ) = lim 𝐹(𝑥 + 𝜖) , 𝐹(𝑥 − ) = lim 𝐹(𝑥 − 𝜖)
𝜖→0 𝜖→0
1. F(+∞) = 1 F(-∞) = 0
2. Fx(x) es una función no decreciente de x, esto es, Fx(x2) ≥ Fx(x1) si x2 > x1
3. si a<b, entonces Fx(a) ≤ Fx(b)
4. Si Fx(xo)=0 entonces Fx(x)=0 para todo x≤ xo
5. P{x>x} = 1 - Fx(x)
6. Fx(x) es continua por la derecha, esto es, Fx(x+) = Fx(x)
7. P[x1<x≤x2] = Fx(x2) - Fx(x1)
8. P[x=x] = Fx(x) - Fx(x-). Si x es una v.a. continua, entonces P[x=x] = 0
9. P[x1≤x≤x2] = Fx(x2) - Fx(x1-)

dFx ( x)
Función densidad de probabilidad (pdf) f x ( x) =
dx
Propiedades
x

fx(x) ≥ 0
b
Fx ( x) =  f ( )d
−
x


P[a  x  b] =  fx ( x)dx
a
 f ( x)dx = 1
−
x

Ejemplos de funciones de distribución y densidad de probabilidad (discretas y continuas).

Bernoulli, Exponencial, Geométrica, Gamma, Gaussiana (Normal), Binomial, Uniforme, Rayleigh


Poisson, Cauchy, Laplace

ESPOL - Telecomunicaciones
3

PROCESOS ALEATORIOS O ESTOCASTICOS


Considere un experimento especificado por los resultados ζ de algún espacio muestral S, por los
eventos definidos sobre S, y por sus probabilidades de estos eventos. Suponga que a cada ζ ε S,
se asigna una función de tiempo X(t,ζ) de acuerdo a cierta regla. La función X(t,ζ) la llamaremos
una función muestra del proceso estocástico.
X

ζ1 1 ζ1

X(t,ζ1)
ζ2 ζ2 t

ζ3 10 ζ3

X(t,ζ2)
ζ4 ζ4
t

X(t,ζ3)
ζ5 37 ζ5
t

Variable Aleatoria Proceso estocástico

Un proceso estocástico real es un conjunto indexado de funciones de tiempo que tienen ciertas
propiedades estadísticas.
Para un tk fijo, se puede obtener una secuencia de valores X(tk,ζk), esto es, una variable aleatoria

Teorema. Un proceso estocástico puede ser descrito por un conjunto indexado de variables
aleatorias
Un proceso estocástico es de tiempo discreto si el conjunto de índices I es un conjunto contable (por
ejemplo: un conjunto de enteros o un conjunto de enteros negativos). Cuando se trabaja con un
proceso de tiempo discreto, usualmente usamos n para referirnos al tiempo indicado y Xn para
referirnos al proceso aleatorio. Un proceso estocástico de tiempo continuo es uno en el cual I es
continuo (la línea real o la línea real negativa).

ESPOL - Telecomunicaciones
4

Ejemplo 6.1
Sea ζ un número seleccionado aleatoriamente en S = [0,1], y sea b1b2… la expansión binaria de
𝜁 = ∑∞𝑖=1 𝑏𝑖 2−𝑖 donde bi ∈{0,1}. Defina el proceso aleatorio de tiempo discreto X(n, ζ) = bn, n = 1,2,3…

Este proceso indicado es una secuencia de números binarios, con X( n , ζ ) igual al n-ésimo número
de la expansión binaria de ζ.

Ejemplo 6.2
Sea ζ seleccionado aleatoriamente del intervalo [-1,1]. Defina el tiempo continuo del proceso
aleatorio X( t , ζ ) = ζ cos (2πt) -∞<t<∞

Las realizaciones de este proceso aleatorio senoides con amplitud ζ se muestra en la figura 6.2a.

Sea ζ seleccionada aleatoriamente en el intervalo (-π, π) y Y (t, ζ) = cos (2πt + ζ ). Las realizaciones
de Y(t, ζ) son versiones de tiempo desplazado de cos2πt, como se muestra en la figura 6.2b.

Ejemplo 6.3
Encontrar las probabilidades del proceso del ejemplo 6.1: P[X(1,ζ) = 0] y P[X(1,ζ) = 0 y X( 2,ζ ) = 1].

Las probabilidades son obtenidas encontrando el evento equivalente en términos de ζ:


1 1 1 1 1
P[X (1, ζ) = 0] = 𝑃 [0 ≤ 𝜁 ⊲ ] = P [X (1, ζ) = 0 y X (2, ζ) = 1] = 𝑃 [ ≤ 𝜁 ⊲ ] =
2 2 4 2 4

Cualquier secuencia de k tiene un subintervalo de longitud ( y por tanto de probabilidad) 2-k.

Soporte: DETERMINACION DE fy(y). TEOREMA FUNDAMENTAL Y= g(x)

Para encontrar fy(y) para un y específico, se resuelve la ecuación y=g(x) para x en términos de y.
Denotando las raíces reales por xn, y = g(x1) = g(x2) = …… = g(xn)
f (x ) f (x ) f (x ) donde g’(x) = dg(x)/dx
f y ( y ) = x 1 + x 2 + ....... + x n
| g ' ( x1 ) | | g ' ( x 2 ) | | g ' ( xn ) |

Ejemplo: Asuma Y = g(X) = X2. Determine fY(y).


Se resuelve y=g(x) para x en términos de y:
𝑓𝑥 (√𝑦) 𝑓𝑥 (−√𝑦)
𝑥0 = +√𝑦 , 𝑥1 = −√𝑦; 𝑔′ (𝑥) = 2𝑥; 𝑓𝑌 (𝑦) = +
2√𝑦 2√𝑦

Ejemplo 3.28: Y = cos(X), donde X ~ U(0,2π]. Determine fY(y).


𝑥0 = 𝑐𝑜𝑠 −1 (𝑦), 𝑥1 = 2𝜋 − 𝑥0 ; 𝑔′ (𝑥) = −𝑠𝑒𝑛(𝑥)
𝑓𝑥 (𝑐𝑜𝑠 −1 (𝑦)) 𝑓𝑥 (2𝜋 − 𝑐𝑜𝑠 −1 (𝑦)) 1 1 1
𝑓𝑌 (𝑦) = + = + =
𝑠𝑒𝑛(𝑐𝑜𝑠 (𝑦)) 𝑠𝑒𝑛(2𝜋 − 𝑐𝑜𝑠 −1 (𝑦)) 2𝜋√1 − 𝑦 2 2𝜋√1 − 𝑦 2 𝜋√1 − 𝑦 2
−1

1 √1 − 𝑦 2
x
1
y 𝑠𝑒𝑛(𝑥) = 𝑠𝑒𝑛(𝑐𝑜𝑠 −1 (𝑦)) = 𝑠𝑒𝑛(𝑥) = √1 − 𝑦 2 𝑓𝑌 (𝑦) = −1 < 𝑦 < 1
𝜋√1−𝑦 2

ESPOL - Telecomunicaciones
5

Ejemplo 6.4. Encontrar el pdf de Xo=X(t0,ζ)= ζ cos (2πt0) y Yo=Y(t0,ζ)= cos (2πt0 + ζ ) (Ej 6.2).
Si t0 es tal que cos(2πt0) = 0, entonces X(t0,ζ) = 0 para todo ζ y el pdf de X(t0) es una función delta
de peso unitario en X=0 . De otro modo, X(t0,ζ) es uniformemente distribuida en el intervalo
(- cos 2πt0 , cos 2πt0 ) desde ζ distribuido uniformemente en [-1,1] (figura a). Fijese que pdf de X(t0,ζ)
depende de t0.

El método usado en el ejemplo 3.28 puede ser usado para mostrar que Y(t0,ζ)) = cos (2πto + ζ )
1
tiene una distribución (arcsen): 𝑓𝑌 (𝑦) = , ‫׀‬y‫<׀‬1. (ver figura derecha). Nótese que el pdf de
𝜋√1−𝑦 2
Y(t0,ζ) no depende de t0.

6.2 ESPECIFICACIONES DE UN PROCESO ALEATORIO.


Sean X1,X2,…,Xk las k variables aleatorias obtenidas por un proceso aleatorio muestral X(t,ζ) en los
tiempos t1,t2,…,tk:
X1 = X(t1,ζ) , X2 = X(t2,ζ), … , Xk = X(tk,ζ),

El comportamiento del proceso aleatorio en el tiempo tk queda especificado por el vector de variables
aleatorias (X1,X2,…,Xk). Para este caso:
FX1,…,Xk(x1,x2,…,xk) = P[X1  x1 , X2  x2 ,…, Xk  xk ] , (6.1)

Si el proceso estocástico es evaluado de manera discreta, entonces:


ρX1,…,Xk(x1,x2,…,xk) = P[X1 = x1 , X2 = x2 ,…, Xk = xk ] , (6.2)

Si el proceso estocástico es evaluado de manera continua, entonces se puede usar una serie de
funciones de densidad de probabilidad:
fX1,…,Xk(x1,x2,…,xk) (6.3)

Ejemplo 6.5
Sea Xn una secuencia de variables aleatorias de Bernoulli, independientes y con igual distribución
(iid: independent and identical distributed)) con ρ = ½ . La pmf (probability mass function) para
cualquier tiempo (muestra) es entonces:
1 1 1
P[X1 = x1 , X2 = x2 ,…, Xk = xk ] = 2 . 2 … … 2 =2-k , xi pertenece a {0,1} para todas la i

ESPOL - Telecomunicaciones
6

Las funciones de la media, la auto correlación y autocovarianza

La media mx(t) de un proceso estocástico X(t) esta definida por



𝑚𝑥 (𝑡) = 𝐸[𝑋(𝑡)] = ∫−∞ 𝑥𝑓𝑋(𝑡) (𝑥)𝑑𝑥 ,
donde 𝑓𝑋(𝑡) (𝑥) es el pdf de X(t). En general, mx(t) es una función de tiempo. Las tendencias del
comportamiento de X(t) están reflejados en la variación de mx(t) con tiempo.

La autocorrelación Rx(t1,t2) de un proceso estocástico X(t) está definido por:


∞ ∞
𝑅𝑥 (𝑡1 , 𝑡2 ) = 𝐸[𝑋(𝑡1 )𝑋(𝑡2 )] = ∫ ∫ 𝑥𝑦𝑓𝑋(𝑡1),𝑋(𝑡2) (𝑥, 𝑦)𝑑𝑥𝑑𝑦,
−∞ −∞

donde 𝑓𝑋(𝑡1),𝑋(𝑡2) (𝑥, 𝑦) es el pdf de segundo orden de X(t). En general, la autocorrelación es una
función de t1 y t2.

La autocovarianza Cx(t1,t2) de un proceso estocástico X(t) está definido como la covarianza de X(t1)
y X(t2):

𝐶𝑥 (𝑡1 , 𝑡2 ) = 𝐸[{𝑋(𝑡1 ) − 𝑚𝑥 (𝑡1 )}{𝑋(𝑡2 ) − 𝑚𝑥 (𝑡2 )}].

La covarianza puede ser expresada en términos de la autocorrelación y las medias


𝐶𝑥 (𝑡1 , 𝑡2 ) = 𝑅𝑥 (𝑡1 , 𝑡2 ) − 𝑚𝑥 (𝑡1 )𝑚𝑥 (𝑡2 )

La varianza de X(t) puede ser obtenida de 𝐶𝑥 (𝑡1 , 𝑡2 ): 𝑉𝐴𝑅[𝑋(𝑡)] = 𝐸[(𝑋(𝑡) − 𝑚𝑥 (𝑡))2 ] = 𝐶𝑥 (𝑡, 𝑡)

El coeficiente de correlación de X(t) está definido como el coeficiente de correlación de X(t1) y X(t2)

𝐶𝑧 (𝑡1 ,𝑡2 )
𝜌𝑥 (𝑡1 , 𝑡2 ) = . |𝜌𝑥 (𝑡1 , 𝑡2 )| ≤ 1
√𝐶𝑧 (𝑡1 ,𝑡1 )√𝐶𝑧 (𝑡2 ,𝑡2 )

El coeficiente de correlación es una medida de la extensión para la cual una variable aleatoria puede
ser predicha como una función lineal de otra. Las funciones de la media, la autocorrelación y la
autocovarianza son solo descripciones parciales de un proceso estocástico. Dos procesos
estocásticos diferentes pueden tener las mismas funciones de media, autocorrelación y
autocovarianza.

Ejemplo 6.6: Dado 𝑋(𝑡) = 𝐴 𝑐𝑜𝑠 2 𝜋𝑡 donde A es alguna variable aleatoria.

La media de X(t): 𝑚𝑥 (𝑡) = 𝐸[𝐴 𝑐𝑜𝑠 2 𝜋𝑡] = 𝐸[𝐴] 𝑐𝑜𝑠 2 𝜋𝑡.

Note que la media varía con t. En particular, el proceso es siempre cero para valores de t donde
𝑐𝑜𝑠 2 𝜋𝑡 = 0.

La autocorrelación es: 𝑅𝑥 (𝑡1 , 𝑡2 ) = 𝐸[𝐴𝑐𝑜𝑠2𝜋𝑡1 𝐴𝑐𝑜𝑠2𝜋𝑡2 ] = 𝐸[𝐴2 ]𝑐𝑜𝑠2𝜋𝑡1 𝑐𝑜𝑠2𝜋𝑡2

y la autocovarianza es entonces:

𝐶𝑥 (𝑡1 , 𝑡2 ) = 𝑅𝑥 (𝑡1 , 𝑡2 ) − 𝑚𝑥 (𝑡1 )𝑚𝑥 (𝑡2 )


𝐶𝑥 (𝑡1 , 𝑡2 ) = {𝐸[𝐴2 ] − (𝐸[𝐴])2 }𝑐𝑜𝑠2𝜋𝑡1 𝑐𝑜𝑠2𝜋𝑡2 = 𝑉𝑎𝑟(𝐴)𝑐𝑜𝑠2𝜋𝑡1 𝑐𝑜𝑠2𝜋𝑡2

ESPOL - Telecomunicaciones
7

Ejemplo 6.7: Dado 𝑋(𝑡) = 𝑐𝑜𝑠( 𝑤𝑡 + 𝛩), donde 𝛩 es una v.a. distribuida uniformemente en el
intervalo(−𝜋, 𝜋).

La media de X(t):
∞ ∞ ∞
1
𝑚𝑥 (𝑡) = 𝐸[𝑐𝑜𝑠( 𝑤𝑡 + 𝛩)] = ∫ 𝑥𝑓𝑥 (𝑥)𝑑𝑥 = ∫ 𝑋(𝑡)𝑓𝑥(𝑡) (𝑥)𝑑𝑥 = ∫ 𝑐𝑜𝑠( 𝑤𝑡 + 𝛩) [ ] 𝑑𝛩 = 0
−∞ −∞ −∞ 2𝜋

La autocorrelación y la autocovarianza son:

𝐶𝑥 (𝑡1 , 𝑡2 ) = 𝑅𝑥 (𝑡1 , 𝑡2 ) = 𝐸[𝑐𝑜𝑠(𝑤𝑡1 + 𝛩)𝑐𝑜𝑠(𝑤𝑡2 + 𝛩)]


𝜋 1 1 1 1
𝐶𝑥 (𝑡1 , 𝑡2 ) = ∫−𝜋 {𝑐𝑜𝑠(𝑤(𝑡1 − 𝑡2 )) + 𝑐𝑜𝑠 (𝑤(𝑡1 + 𝑡2 ) + )} 𝑑𝛩 = 𝑐𝑜𝑠(𝑤(𝑡1 − 𝑡2 ))
2 2𝜋 2𝜋 2
1 1
donde se usa la identidad 𝑐𝑜𝑠( 𝑎) 𝑐𝑜𝑠( 𝑏) = 𝑐𝑜𝑠( 𝑎 + 𝑏) + 𝑐𝑜𝑠( 𝑎 − 𝑏). Note que mx(t) es una
2 2
constante y que 𝐶𝑥 (𝑡1 , 𝑡2 ) depende solo de |𝑡1 − 𝑡2 |.

Proceso Estocástico Gaussiano

X(t) es un Proceso Estocástico Gaussiano si las muestras 𝑋1 = 𝑋(𝑡1 ), 𝑋2 = 𝑋(𝑡2 ), . . . . . , 𝑋𝑘 = 𝑋(𝑡𝑘 )


son variables aleatorias conjuntamente gaussianas para todo k, y todas las elecciones de t1,……tk..
Esta definición se aplica para procesos de tiempos discretos y continuos.

El conjunto de pdf de variables aleatorias conjuntamente gaussianas es determinada por el vector


de las medias y por la matriz covarianza:
𝑇 −1
𝑒 −1/2(𝑥−𝑚) 𝐾 (𝑥−𝑚)
𝑓𝑋1,𝑋2,......,𝑋𝑘 (𝑥1 , . . . . . . . , 𝑥𝑘 ) = , K = C, |K|=det (C)
(2𝜋)𝑘/2 |𝐾|1/2

𝑚𝑥 (𝑡1 ) 𝐶𝑥 (𝑡1, 𝑡1 ) 𝐶𝑥 (𝑡1, 𝑡2 ) . . . . . . . . . . 𝐶𝑥 (𝑡1, 𝑡𝑘 )


. 𝐶𝑥 (𝑡2, 𝑡1 ) 𝐶𝑥 (𝑡2, 𝑡2 ) . . . . . . . . . . 𝐶𝑥 (𝑡2, 𝑡𝑘 )
m= . K= . . .
. . . .
[𝑚𝑥 (𝑡𝑘 )] [𝐶𝑥 (𝑡𝑘, 𝑡1 ) . . . . . . . . . . . . . . . . . . . . . . . . . 𝐶𝑥 (𝑡𝑘, 𝑡𝑘 )]

Los procesos estocásticos gaussianos tienen las siguientes propiedades especiales:

1. Sus conjuntos pdf’s están completamente especificados por los momentos de primer y segundo
orden (esto es, medias, varianzas y covarianzas)
𝑚𝑥 (𝑡𝑖 ) = 𝐸[𝑥(𝑡𝑖 )] 𝐶𝑥 (𝑡𝑖 , 𝑡𝑗 ) = 𝐸{[𝑥(𝑡𝑖 ) − 𝑚𝑥 (𝑡𝑖 )][𝑥(𝑡𝑗 ) − 𝑚𝑥 (𝑡𝑗 )]}
2. Puesto que las variables aleatorias son conjuntamente Gausianas, son individualmente
Gausianas.
3. Cuando C es la matriz diagonal, las variables aleatorias son no correlacionadas. Mas aún, las
variables aleatorias Gausianas son independientes cuando son no correlacionadas.
4. Una transformación lineal (ej.: suma, derivada o integral) de un conjunto de variables aleatorias
Gausianas produce otro conjunto de variables aleatorias Gausianas
5. Un proceso estocástico Gausiano estacionario en el sentido amplio (WSS) es también
estrictamente estacionario.

Estas propiedades, combinado con el hecho que varias señales y procesos de ruido son
exactamente modelados como gaussiano, hacen que este proceso sea el modelo más usado en
procesamiento de señales.

ESPOL - Telecomunicaciones
8

Ejemplo 6.8: Secuencia gaussiana iid. Dado el proceso estocástico de tiempo discreto Xn, (donde
Xn es una secuencia de variables aleatorias gaussianas independientes con media m y varianza 𝜎 2 ),
la matriz covarianza para los tiempos t1,….,tk es:

1 0
𝐶𝑥 (𝑡𝑖 , 𝑡𝑗 ) = {𝜎 2 𝛿𝑖𝑗 } = 𝜎 2 [ ] = 𝜎2𝐼
0 1
1  k 2
f X 1 , X 2 ,......,X k ( x1 ,......., xk ) = −  ( xi − m) / 2  `
2
exp
(2 )
2 k/2
 i =1 
= f x ( x1 ) f x ( x2 )......... f x ( xk ).

Procesos Estocásticos Múltiples

Para el caso de dos procesos estocásticos X(t) y Y(t), se deben especificar todos los posibles
conjuntos de funciones de densidad de X(t1),......, X(tk) y Y(t’1),......, Y(t’j) para toda k, j, y todas las
selecciones de t1,…..,tk y t’1,…..,t’j.

Los procesos X(t) y Y(t) se dicen ser independientes si el vector de variables


aleatorias(X(t1),…..,X(tk)) y (Y(t’1),……,Y(t’j)) son independientes para todo k, j, y todas las
selecciones de t1,……,tk y t’1,…..t’j

La correlación cruzada (cross-correlation) RX,Y(t1,t2) de X(t) y Y(t) está definida por:


𝑅𝑋,𝑌 (𝑡1 , 𝑡2 ) = 𝐸[𝑋(𝑡1 )𝑌(𝑡2 )].
Los procesos X(t) y Y(t) se dicen ser ortogonales si: 𝑅𝑋,𝑌 (𝑡1 , 𝑡2 ) = 0 para todo t1 y t2

La covarianza cruzada CX,Y(t1,t2) de X(t) y Y(t) está definida por

C X ,Y (t1 , t 2 ) = EX (t1 ) − m X (t1 )Y (t 2 ) − mY (t 2 )


= R X ,Y (t1 , t 2 ) − m X (t1 )mY (t 2 ).

Los procesos X(t) y Y(t) se dicen ser no-correlacionadas si: 𝐶𝑋,𝑌 (𝑡1 , 𝑡2 ) = 0 para todo t1 y t2.

Ejemplo 6.9
Dado 𝑋(𝑡) = 𝑐𝑜𝑠( 𝑤𝑡 + 𝛩) y 𝑌(𝑡) = 𝑠𝑖𝑛( 𝑤𝑡 + 𝛩) , donde 𝛩 es distribuida uniformemente en el
intervalo(−𝜋, 𝜋). Encontrar la covarianza cruzada X(t) y Y(t).

Se conoce que X(t) y Y(t) tienen media cero. Entonces la cros-covarianza es igual cros-correlación.

1 1
𝑅𝑋,𝑌 (𝑡1 , 𝑡2 ) = 𝐸[cos(𝑤𝑡1 + 𝛩) sin(𝑤𝑡2 + 𝛩)] = 𝐸 [− sin (𝑤(𝑡1 − 𝑡2 ) + sin (𝑤(𝑡1 + 𝑡2 ) + 2𝛩)]
2 2
1 1
𝑅𝑋,𝑌 (𝑡1 , 𝑡2 ) = − 2 sin (𝑤(𝑡1 − 𝑡2 ) dado que 𝐸 [2 sin (𝑤(𝑡1 + 𝑡2 ) + 2𝛩] = 0

Ejemplo 6.10: Suma de señal más ruido. Sea un proceso Y(t), el cual consiste de una señal
deseada más un ruido N(t): Y(t)=X(t)+N(t).

Encontrar la cros-correlación entre la señal observada y la señal deseada asumiendo que X(t) y N(t)
son procesos estocásticos independientes.

𝑅𝑋,𝑌 (𝑡1 , 𝑡2 ) = 𝐸[𝑋(𝑡1 )𝑌(𝑡2 )] = 𝐸[𝑋(𝑡1 ){𝑋(𝑡2 ) + 𝑁(𝑡2 )}] = 𝐸[𝑋(𝑡1 )𝑋(𝑡2 )] + 𝐸[𝑋(𝑡1 )𝑁(𝑡2 )]
𝑅𝑋,𝑌 (𝑡1 , 𝑡2 ) = 𝑅𝑋 (𝑡1 , 𝑡2 ) + 𝐸[𝑋(𝑡1 )]𝐸[𝑁(𝑡2 )] = 𝑅𝑋 (𝑡1 , 𝑡2 ) + 𝑚𝑋 (𝑡1 )𝑚𝑁 (𝑡2 )

donde la tercera igualdad sigue al hecho de que X(t) y Y(t) son independientes.

ESPOL - Telecomunicaciones
9

Soporte: SECUENCIAS DE EXPERIMENTOS DEPENDIENTES


(texto: Probability and Random Processes for Electrical Engineering, 2nd ed., Alberto Leon Garcia)

Suponga una secuencia de sub-experimentos en los cuales el resultado de uno determina cual es el siguiente
sub-experimento que se lleva a cabo.

Ejemplo: Lanzamiento repetido de una bola existente en una de dos urnas. Se anota el numero de la bola y se
la regresa a la urna. Urna 0 = {1 bola #1 y 2 bolas #0} y Urna 1 = {5 bolas #1 y 1 bola #0}. La primera urna se la
escoge lanzando una moneda. Urna 0 se la escoge si sale una cara y la urna 1 si se obtiene un sello. De ahí
en adelante la urna se la escoge dependiendo del número de cada bola.

En este caso, se desea calcular la probabilidad de una secuencia de resultados s0, s1, s2, esto es, P[{s0} ∩ {s1}
∩ {s2}]. Si A={s2} y B={s0} ∩ {s1}, entonces P(A∩B) = P(A/B) P(B).
P[{s0} ∩ {s1} ∩ {s2}] = P[{s2}/{s0}∩{s1}] P[{s0}∩{s1}] = P[{s2}/{s0}∩{s1}] P[{s1}/{s0}] P[{s0}]

En el ejemplo anterior, P[{sn} /{s0}∩{s1}∩….∩{sn-1}] = P[{sn} / {sn-1}] ,esto es,solo depende de {sn-1} puesto que el
resultado mas reciente determina cual sub-experimento se realiza. Experimentos secuenciales que satisfacen
esta última ecuación se llaman cadenas de Márkov. En este caso:

P[{s0} ∩ {s1} ∩ {s2}] = P[{s2}/{s1}] P[{s1}/{s0}] P[{s0}]


P[{s0} ∩ {s1} ∩ {s2} ∩ …… ∩ {sn}] = P[{sn}/{sn-1}] P[{sn-1}/{sn-2}] ……. P[{s1}/{s0}] P[{s0}]

Ejemplo: Determine la probabilidad de que se obtenga la secuencia 0011 en el ejemplo anterior


P[0011]=P[1/1]P{1/0]P[0/0]P[0] P[1/0]=1/3, P[0/0]=2/3, P[1/1]=5/6, P[0/1]=1/6, P[0]=1/2
P[0011]=(5/6) (1/3) (2/3) (1/2).

PROCESOS DE MARKOV
Un proceso estocástico se llama proceso de Markov, si el futuro del proceso, dado el presente, es
independiente del pasado. Considere los tiempos t1 < t2 < ….< tk < tk+1. 𝑡𝑘 =presente, 𝑡𝑘+1 =futuro,
𝑡1 , 𝑡2 , 𝑡3 , … . . , 𝑡𝑘−1 =pasado

X(t) es discreta:
𝑃[ 𝑋(𝑡𝑘+1 ) = 𝑥𝑘+1 / 𝑋(𝑡𝑘 ) = 𝑥𝑘 , … … … . , 𝑋(𝑡1 ) = 𝑥1 ] = 𝑃[𝑋(𝑡𝑘+1 ) = 𝑥𝑘+1 / 𝑋(𝑡𝑘 ) = 𝑥𝑘 ]

X(t) es continua:
𝑃[ 𝑎 < 𝑋(𝑡𝑘+1 ) ≤ 𝑏 / 𝑋(𝑡𝑘 ) = 𝑥𝑘 , … … … . , 𝑋(𝑡1 ) = 𝑥1 ] = 𝑃[𝑎 < 𝑋(𝑡𝑘+1 ) ≤ 𝑏/ 𝑋(𝑡𝑘 ) = 𝑥𝑘 ]

Si las muestras de X(t) son conjuntamente continuas,


𝑓𝑋(𝑡𝑘+1) (𝑥𝑘+1 / 𝑋(𝑡𝑘 ) = 𝑥𝑘 , … … … . , 𝑋(𝑡1 ) = 𝑥1 ) = 𝑓𝑋(𝑡𝑘+1) (𝑥𝑘+1 / 𝑋(𝑡𝑘 ) = 𝑥𝑘 )

Ejemplo: asuma 𝑆𝑛 = 𝑋1 + 𝑋2 + ⋯ … … + 𝑋𝑛 = 𝑆𝑛−1 + 𝑋𝑛 ; 𝑋𝑖,𝑠 son secuencias de v.a. iid. 𝑆𝑜 = 0


𝑆𝑛 es un proceso de Markov dado que:
𝑃[𝑆𝑛+1 = 𝑠𝑛+1 /𝑆𝑛 = 𝑠𝑛 , … … , 𝑆1 = 𝑠1 ] = 𝑃[𝑋𝑛+1 = 𝑠𝑛−1 − 𝑠𝑛 ] = 𝑃[𝑆𝑛+1 = 𝑠𝑛+1 /𝑆𝑛 = 𝑠𝑛 ]
1
Ejemplo: Considere el promedio móvil (moving average) 𝑌𝑛 = (𝑋𝑛 + 𝑋𝑛−1 ); donde 𝑋𝑖 es una
2
secuencia de Bernoulli independiente con p=1/2. Demuestre que Yn es un proceso de Markov.
1
𝑃[𝑌𝑛 = 0] = 𝑃[𝑋𝑛 = 0, 𝑋𝑛−1 = 0] =
4
1 1 1 1
𝑃 [𝑌𝑛 = ] = 𝑃[𝑋𝑛 = 0, 𝑋𝑛−1 = 1] + 𝑃[𝑋𝑛 = 1, 𝑋𝑛−1 = 0] = + =
2 4 4 2
1 1 1
𝑃[𝑌𝑛 = 1] = 𝑃[𝑋𝑛 = 1, 𝑋𝑛−1 = 1] = ( ) ( ) =
2 2 4
𝑃[𝑌𝑛 = 1, 𝑌𝑛−1 = 1/2]
𝑃[𝑌𝑛 = 1 / 𝑌𝑛−1 = 1/2] =
𝑃[𝑌𝑛−1 = 1/2]
𝑃[𝑌𝑛 = 1, 𝑌𝑛−1 = 1/2] = 𝑃 [(𝑋𝑛 = 1, 𝑋𝑛−1 = 1) ⋂ [(𝑋𝑛−1 = 0, 𝑋𝑛−2 = 1) ⋃(𝑋𝑛−1 = 1, 𝑋𝑛−2 = 0)]]

ESPOL - Telecomunicaciones
10

𝑃[𝑌𝑛 = 1, 𝑌𝑛−1 = 1/2] = 𝑃 [(𝑋𝑛 = 1, 𝑋𝑛−1 = 1) ⋂(𝑋𝑛−1 = 0, 𝑋𝑛−2 = 1)] + 𝑃 [(𝑋𝑛 = 1, 𝑋𝑛−1 = 1) ⋂(𝑋𝑛−1 = 1, 𝑋𝑛−2 = 0)]

𝑃[𝑌𝑛 = 1, 𝑌𝑛−1 = 1/2] = 𝑃 [(𝑋𝑛 = 1, 𝑋𝑛−1 = 1) ⋂(𝑋𝑛−1 = 1, 𝑋𝑛−2 = 0)] = 𝑃[(𝑋𝑛 = 1, 𝑋𝑛−1 = 1, 𝑋𝑛−2 = 0)]

𝑃[𝑋𝑛 = 1, 𝑋𝑛−1 = 1, 𝑋𝑛−2 = 0] (1/2)3 1


𝑃[𝑌𝑛 = 1 / 𝑌𝑛−1 = 1/2] = = =
1/2 1/2 4

𝑃[𝑌𝑛 = 1 , 𝑌𝑛−1 = 1/2, 𝑌𝑛−2 = 1]


𝑃[𝑌𝑛 = 1 / 𝑌𝑛−1 = 1/2, 𝑌𝑛−2 = 1 ] =
𝑃[𝑌𝑛−1 = 1/2, 𝑌𝑛−2 = 1]
1 1
𝑃 [𝑌𝑛 = 1 , 𝑌𝑛−1 = , 𝑌𝑛−2 = 1] = 𝑃 [(𝑌𝑛 = 1 , 𝑌𝑛−1 = ) ⋂(𝑌𝑛−2 = 1)]
2 2
𝑃[𝑌𝑛 = 1 , 𝑌𝑛−1 = 1/2, 𝑌𝑛−2 = 1] = 𝑃[(𝑋𝑛 = 1, 𝑋𝑛−1 = 1, 𝑋𝑛−2 = 0, 𝑋𝑛−2 = 1, 𝑋𝑛−3 = 1)] = 0
𝑃[𝑌𝑛 = 1 / 𝑌𝑛−1 = 1/2, 𝑌𝑛−2 = 1 ] = 0
1
Dado que: 𝑃[𝑌𝑛 = 1 / 𝑌𝑛−1 = 1/2, 𝑌𝑛−2 = 1 ] ≠ 𝑃 [𝑌𝑛 = 1/𝑌𝑛−1 = ], por tanto 𝑌𝑛 no es P.E. Markov
2

Incrementos independientes y propiedades de Markov de procesos estocásticos


Un proceso aleatorio X(t) se dice tener incrementos independientes si por cada k y cada opción de
los instantes t1<t2<…<tk , las variables aleatorias X(t2) –X(t1), X(t3) –X(t2),…, X(tk) –X(tk-1), son
variables aleatorias independientes. Se puede demostrar que la pdf (pmf) conjunta de X(t1), X(t2),…,
X(tk) viene dada por el producto de los pdf (pmf) de X(t1) y la marginal pdf´s(pmf´s) de los incrementos
individuales1.
Se puede demostrar que un proceso aleatorio que tiene incrementos independientes es también un
proceso de Markov. Lo contrario no es cierto porque la propiedad de Markov no implica incrementos
independientes

EJEMPLOS DE PROCESOS ESTOCASTICOS DISCRETOS


Procesos estocásticos independientes e idénticamente distribuidos (iid)
Sea Xn un proceso estocástico discreto (en tiempo) que consiste de una secuencia de variables
aleatorias independientes e idénticamente distribuidos (iid) con una Fx(x) común, media m, y varianza
σ2. La secuencia X se llama proceso estocástico iid.
𝐹𝑥𝑛1 ,𝑥𝑛2 ,𝑥𝑛3 ,...𝑥𝑛 (𝑥𝑛1 , 𝑥𝑛2 , . . . . , 𝑥𝑛𝑘 ) = 𝑃[𝑥𝑛1 ≤ 𝑥𝑛1 , 𝑥𝑛2 ≤ 𝑥𝑛2 , 𝑥𝑛3 ≤ 𝑥𝑛3 . . . . . . . 𝑥𝑛𝑘 ≤ 𝑥𝑛𝑘 ]
𝑘
𝐹𝑥𝑛1 ,𝑥𝑛2 ,𝑥𝑛3 ,...𝑥𝑛 (𝑥𝑛1 , 𝑥𝑛2 , . . . . , 𝑥𝑛𝑘 ) = 𝐹𝑥𝑛1 (𝑥𝑛1 )𝐹𝑥𝑛2 (𝑥𝑛2 ). . . . . . . 𝐹𝑥𝑛𝑘 (𝑥𝑛𝑘 )
𝑘

Si Xn es una v. a. discreta, la función de distribución (masa) de probabilidad es igual al producto de


las pmf´s individuales y si Xn es una v.a. contínua, la función densidad de probabilidad es igual al
producto de los pdf´s individuales.
El valor medio de un proceso iid es: mx(n) = E[xn] = m para todo n (La media es constante)
La función de autocovarianza es: Cx(n1,n2) = E [(xn1 – m)(xn2 - m)]
SI Xn1 y Xn2 son v.a. independientes, entonces
Cx(n1,n2) = E[(xn1 – m)(xn2 - m)] = E[(xn1 – m)] E[(xn2 - m)] = 0
Si n1 = n2 = n, then Cx(n1,n2) = Cx(n,n) = E[(Xn - m)2] = σ2
Se puede expresar la función de autocovarianza del proceso iid como:
1 𝑛1 = 𝑛2
Cx(n1,n2) = σ2 δn1, n2, donde 𝛿𝑛1,𝑛2 = { }
0 𝑛1 ≠ 𝑛2

La función de autocorrelación del proceso iid es Rx(n1,n2) = Cx(n1,n2) + m2.

1
A este tipo de procesos pertenecen el Proceso de Poisson y el Proceso de Wiener.

ESPOL - Telecomunicaciones
11

EXAMPLE 6.11 Bernoulli Random Process

Sea In una secuencia de variables aleatorias de Bernoulli. In es entonces un proceso estocástico iid
que toma valores en {0,1}. Una realización de tal proceso se muestra en la Figura

Puesto que In es una v.a. de Bernoulli que toma valores en {0,1}


P[In=1]=p P[In=0]=q=1-p
E[In] = mI(n) = 0(1-p)+1(p) = p
E[In 2] = 02(1-p)+12(p) = p
VAR [In] = E[In 2]-(E[In])2=p-p2=p(1-p)

Ejemplo: La probabilidad de que los primeros 4 bits en la secuencia sea 1001 es:

P [I1 = 1, I2 = 0, I3 = 0, I4 = 1] = P [I1 = 1] P[I2 = 0] P[I3 = 0] P[I4 = 1] = p2 (1 – p)2


En forma similar, la probabilidad de que el segundo bit sea 0 y el séptimo sea 1 es:
P [I2 = 0, I7 = 1] = P [I2 = 0] P[I7 = 1] = p (1 – p).

EXAMPLE 6.12

Sea Dn = 2In -1, donde In es el proceso estocástico de


Bernoulli
1 si I n = 1 
Dn =  
− 1 si I n = 0
mD(n) = E [Dn] = E[2In - 1] = 2E[In] - 1= 2p - 1
VAR[Dn] = VAR [2In – 1 ] = E[(2In-1)2] – (E[2In-1])2
VAR[Dn] = E[4In2 - 4In+1] –(2 E[In]-1])2
VAR[Dn] = 4E[In2 ] - 4E[In] +1 – 4(E[In])2 + 4E[In] – 1

Reemplazando E[In 2] = p y E[In ] = p


VAR[Dn] = 4p – 4p +1 - 4p2 + 4p –1
VAR[Dn] = 4p(1-p)

PROCESOS SUMA

Algunos procesos estocásticos interesantes se obtienen como la suma de una secuencia de


variables aleatorias iid, X1, X2, …

Sn = X1 + X2 + … + Xn n=1, 2, …
Sn = Sn-1 + Xn

Donde S0 = 0. La pdf (pmf) de Sn se


encuentra usando la convolución de la
las pdf individuales. Notar que Sn
depende del pasado S1, S2, …, Sn-1, solo en la parte de Sn-1, esto es, Sn es independiente del pasado
cuando se conoce Sn-1 (Sn es un proceso de Markov).

ESPOL - Telecomunicaciones
12

Ejemplo 6.14: Caminata estocástica de una dimensión (One Dimensional Random Walk)
Sea Dn el proceso iid de variables aleatorias ±1 como en el ejemplo
6.12, y sea Sn el proceso suma (Sn=D1+D2+…+Dn.), El proceso
estocástico Sn es un ejemplo de una caminata estocástica (random
walk) en una dimensión.
La pmf of Sn se encuentra de la siguiente manera:
Si hay k (+1s) en los primeros n intentos, entonces hay n-k (–1s), y
Sn = k(1) + (n-k)(-1)=k – (n–k) = 2k – n. Por tanto:
𝑛
𝑃[𝑺𝒏 = 2𝑘 − 𝑛] = ( ) 𝑝𝑘 (1 − 𝑝)𝑛−𝑘 for k ε {0,1, ….., n}
𝑘
El proceso suma Sn tiene incrementos independientes en intervalos de tiempo no superpuestos.
Considere dos intervalos de tiempo n0 < n ≤ n1 and n2 < n ≤ n3, donde n1 ≤ n2. Los incrementos de
Sn en este intervalo están dados por:
Sn1 – Sn0 = Xn0+1 + . . . + Xn1 S11=X1+X2+X3+X4+X5+X6+X7+X8+X9+X10+X11
Sn3 – Sn2 = Xn2+1 + . . . + Xn3 S8= X1+X2+X3+X4+X5+X6+X7+X8
S7= X1+X2+X3+X4+X5+X6+X7
S3= X1+X2+X3
S11 - S8= X9+X10+X11 S7 - S3= X4+X5+X6+X7
S11-8 = S3= X1+X2+X3
Los incrementos indicados no tienen en común ninguno de las Xn´s, de tal manera que la
independencia de las Xn´s implica que los incrementos (Sn1 – Sn0) y (Sn3 – Sn2) son variables
aleatorias independientes.
Para n’ > n, el incremento Sn’-Sn es la suma de n’- n variables aleatorias iid, de tal manera que tiene
la misma distribución que Sn’-n, la suma de las primeras (n’-n) X’s, esto es:
𝑃[𝑆𝑛′ − 𝑆𝑛 = 𝑦] = 𝑃[𝑆𝑛′−𝑛 = 𝑦] ejemplo: P[S11- S8=6]=P[S11-8=6]
Por tanto, los incrementos de la misma longitud tienen la misma distribución independientemente de
cuando el intervalo comienza. Por esta razón se dice que Sn tiene incrementos estacionarios.
Dado que el proceso suma Sn tiene incrementos estacionarios e independientes, se hace sencillo el
cálculo de la pmf/pdf conjunta para cualquier número de instantes de tiempo. Por simplicidad, asuma
que las Xn tienen valores enteros, de tal manera que Sn tiene también valores enteros. Calculemos
la pmf conjunta de Sn en los tiempos n1, n2, y n3:
P[Sn1 = y1, Sn2 = y2, Sn3 = y3] = P[Sn1 = y1, Sn2 – Sn1 = y2 – y1, Sn3 – Sn2 = y3 – y2 ]

Puesto que el proceso es igual a y1, y2, e y3 en los tiempos n1, n2, y n3, si y solo si es igual a y1 en el
tiempo n1, y los subsecuentes incrementos son y2 – y1, e y3 – y2. La propiedad de la independencia
de los incrementos implica que:

P[Sn1=y1, Sn2=y2, Sn3=y3] = P[Sn1 = y1] P[Sn2 – Sn1 = y2 – y1] P[Sn3 – Sn2 = y3-y2]

Finalmente, la propiedad de los incrementos estacionarios implica que:


P[Sn1=y1, Sn2=y2, Sn3=y3] = P[Sn1 = y1] P[Sn2-n1 = y2 – y1] P[Sn3-n2 = y3-y2 ]

Se puede usar este procedimiento para escribir la pmf de la Sn en cualquier instante de tiempo
n1< n2 < … nk en términos de la pmf al tiempo inicial y las pmf´s de los incrementos subsecuentes:
𝑃[𝑆𝑛1 = 𝑦1 , 𝑆𝑛2 = 𝑦2 , … … , 𝑆𝑛𝑘 = 𝑦𝑘 ] = 𝑃[𝑆𝑛1 = 𝑦1 ]𝑃[𝑆𝑛2−𝑛1 = 𝑦2 − 𝑦1 ] … … 𝑃[𝑆𝑛𝑘 −𝑛𝑘−1 = 𝑦𝑘 − 𝑦𝑘−1 ]

Si las Xn son variables aleatorias continuas, entonces se puede demostrar que la densidad conjunta
de Sn en los tiempos n1, n2, ….,nk es:
𝑓𝑆𝑛1 𝑆𝑛2 ,…𝑆𝑛 (𝑦1 ,𝑦2 ,….,𝑦𝑘 ) = 𝑓𝑆𝑛1 (𝑦1) 𝑓𝑆𝑛2−𝑛1 (𝑦2−𝑦1) … … 𝑓𝑆𝑛 (𝑦𝑘 −𝑦𝑘−1 )
𝑘 𝑘 −𝑛𝑘−1

ESPOL - Telecomunicaciones
13

Soporte: Sn = X1 + X2 + … + Xn ; donde las v.a. son independientes


La función característica ∅𝑆𝑛 (𝑤) = 𝐸[𝑒 𝑗𝑤𝑆𝑛 ] = 𝐸[𝑒 𝑗𝑤(𝑋1+𝑋2+⋯.+𝑋𝑛) ] = 𝐸[𝑒 𝑗𝑤𝑋1 ]𝐸[𝑒 𝑗𝑤𝑋2 ] … . . 𝐸[𝑒 𝑗𝑤𝑋𝑛 ]
∅𝑆𝑛 (𝑤) = ∅𝑋1 (𝑤)∅𝑋2 (𝑤) … . ∅𝑋𝑛 (𝑤)
Variable aleatorias gausianas
Sea Sn = X1 + X2 + … + Xn la suma de n v.a. Gausianas independientes con medias 𝑚1 , 𝑚2 ,
𝑤 2 𝜎2
𝑘
𝑗𝑤𝑚𝑘 −
…𝑚𝑛 y 𝜎12 , 𝜎22 , … . . , 𝜎𝑛2 . La función característica de Xn es: ∅𝑋𝑛 (𝑤) = 𝑒 2 ; por tanto:
𝑤2 𝜎2 𝑤2 𝜎2 𝑤2 𝜎2 𝑤2 (𝜎2 2 2
1 +𝜎2 +⋯..+𝜎𝑛 ) 𝑤2 𝜎2
𝑗𝑤𝑚1 − 1 𝑗𝑤𝑚2 − 2 𝑗𝑤𝑚𝑛 − 𝑛 )− ℳ
∅𝑆𝑛 (𝑤) = 𝑒 2 𝑒 2 ……..𝑒 2 = 𝑒 𝑗𝑤(𝑚1 +𝑚2 +⋯.+𝑚𝑛 2 = 𝑒 𝑗𝑤ℳ− 2

Por tanto, Sn es una v.a. gausiana con media 𝑚1 + 𝑚2 + ⋯ . +𝑚𝑛 y varianza 𝜎12 + 𝜎22 + ⋯ . . +𝜎𝑛2

EJEMPLO 6.17. Suma de una secuencia Gausiana iid


Let Xn be a sequence of iid Gaussian random variables with zero mean and variance σ2. Find the
joint pdf of the corresponding sum process at times n1 and n2.
The sum process Sn is also a Gaussian random process with mean zero and variance n σ2 . The joint
pdf of Sn at times n1 and n2 is given by:

𝑓𝑠𝑛1 ,𝑠𝑛2 (𝑦1 , 𝑦2 ) = 𝑓𝑠𝑛1 (𝑦1 )𝑓𝑠𝑛2−𝑛1 (𝑦2 − 𝑦1 )


𝑦1 2
1 − 1 2 /[2(𝑛 −𝑛 )𝜎 2 ]
𝑓𝑠𝑛1 ,𝑠𝑛2 (𝑦1 , 𝑦2 ) = 𝑒 2𝑛1 𝜎2 . 𝑒 −(𝑦2−𝑦1) 2 1
√2𝜋𝑛1 𝜎 2 √2𝜋(𝑛2 − 𝑛1 )𝜎 2
_______________________________________________________________________________
Puesto que el proceso suma Sn es la suma de n variables aleatorias iid, entonces:
ms(n) = E[Sn] = nE[X] = nm
VAR[Sn] = nVAR [X] = nσ2
Cs(n,k) = E[(Sn – E[Sn])(Sk – E[Sk])] = E [(Sn – nm)(Sk – km)]
𝐶𝑠 (𝑛, 𝑘) = 𝐸[{∑𝑛𝑖=1(𝑋𝑖 − 𝑚)}{∑𝑘𝑗=1(𝑋𝑗 − 𝑚)}] = ∑𝑛𝑖=1 ∑𝑘𝑗−1 𝐸[(𝑋𝑖 − 𝑚)(𝑋𝑗 − 𝑚)]
El término dentro de la sumatoria es la autovarianza Cx(i,j) del proceso Xn (iid). En este caso:
𝜎2 i=𝑗
𝐶𝑥 (𝑖, 𝑗) = { }
0 i≠𝑗
Por tanto, todos los términos donde i = j en la doble suma son iguales a cero.
𝑚𝑖𝑛(𝑛,𝑘)

𝐶𝑠 (𝑛, 𝑘) = ∑ 𝐶𝑥 (𝑖, 𝑖) = 𝜎 2 𝑚𝑖𝑛(𝑛, 𝑘)


𝑖=1

La propiedad de los incrementos independientes permite calcular la autocovarianza de otra manera. Suppose n ≤ k so n =
min (n,k), then

Cs(n,k) = E [(Sn – nm) (Sk - km)]


= E [(Sn – nm ){(Sn - nm) + (Sk – km ) – (Sn - nm)}]
= E [(Sn – nm)2 ] + E[ (Sn - nm)(Sk – Sn – (k - n)m )]
Puesto que Sn y los incrementos Sk–Sn son independientes,

Cs(n,k) = E[(Sn–nm)2] + E[(Sn-nm)] E[(Sk–Sn – (k - n)m)] = E[(Sn–nm)2] = VAR[Sn] = nσ2


Puesto que E[Sn-nm] = 0. Similarmente, si k = min(n,k) se hubiera obtenido kσ2.

EJEMPLO 6.18. Encuentre la autocovarianza del proceso Random walk 1D

𝐸[𝑆𝑛 ] = 𝑛(2𝑝 − 1) 𝑉𝑎𝑟[𝑆𝑛 ] = 4𝑛𝑝(1 − 𝑝)


𝐶𝑠 (𝑛, 𝑘) = min(𝑛, 𝑘) 4𝑝(1 − 𝑝)

ESPOL - Telecomunicaciones
14

EJEMPLOS DE PROCESOS ESTOCASTICOS CONTINUOS


Proceso de Poisson
Considere una situación en que ocurren eventos en instantes aleatorios de tiempo a una velocidad
de λ eventos por segundo. Sea N(t) el número de eventos que ocurren en el intervalo [0,t].

Suponga que el intervalo [0,t] es dividido en n subintervalos de una duración muy corta δ=t/n. Se
asume las dos siguientes condiciones:
N(t) 1.- La probabilidad de que ocurra más de un evento en un subintervalo es muy
pequeña comparada con la probabilidad de que ocurra uno o ningún evento.
5 (Esto puede ser interpretado como un ensayo de Bernoulli)
2.- La ocurrencia de un evento en un subintervalo es independiente de los
4 resultados en otros subintervalos. (Esto puede ser interpretado como que los
3 ensayos de Bernoulli son independientes)
Si la probabilidad de la ocurrencia de un evento en cada
2 subintervalo es p, entonces el número esperado de ocurrencia de
1 dicho evento en el intervalo [0,t] es np. Puesto que los eventos
t ocurren a la velocidad de λ eventos por segundo, entonces el
S1 S2 S3 S4 S5 número promedio de eventos en el intervalo [0,t] es λt. Por tanto
λt=np

Si n→∞ (δ →0) y p→0, entonces np=λt se mantiene fijo. En estas condiciones se puede demostrar
que la distribución binomial se aproxima a la distribución de Poisson con parámetro λt. Por tanto, el
número de ocurrencias del evento N(t) en el intervalo [0,t] tiene una distribución de Poisson con valor
esperado λt.
(𝜆𝑡)𝑘
𝑃[𝑁(𝑡) = 𝑘] = 𝑒 −𝜆𝑡 Para k=0,1,2,……
𝑘!
El proceso de Poisson N(t) hereda la propiedad de los incrementos estacionarios del proceso
binomial.
𝑃[𝑁(𝑡1 ) = 𝑖, 𝑁(𝑡2 ) = 𝑗] = 𝑃[𝑁(𝑡1 ) = 𝑖]𝑃[𝑁(𝑡2 ) − 𝑁(𝑡1 ) = 𝑗 − 𝑖] = 𝑃[𝑁(𝑡1 ) = 𝑖]𝑃[𝑁(𝑡2 − 𝑡1 ) = 𝑗 − 𝑖]
(𝜆𝑡1 )𝑖 −𝜆𝑡 [𝜆(𝑡2 − 𝑡1 )]𝑗−𝑖 −𝜆(𝑡 −𝑡 )
𝑃[𝑁(𝑡1 ) = 𝑖, 𝑁(𝑡2 ) = 𝑗] = 𝑒 1 𝑒 2 1
𝑖! (𝑗 − 𝑖)!
El cálculo de la Covarianza es el siguiente:
C N (t1 , t 2 ) = EN (t1 ) − t 1 N (t 2 ) − t 2  =
C N (t1 , t 2 ) = EN (t1 ) − t 1 N (t 2 ) − N (t1 ) − t 2 +t 1+ N (t1 ) − t 1 
C N (t1 , t 2 ) = EN (t1 ) − t 1 N (t 2 ) − N (t1 ) −  (t 2 −t 1) + N (t1 ) − t 1 
C N (t1 , t 2 ) = EN (t1 ) − t 1 N (t 2 ) − N (t1 ) −  (t 2 −t 1) + N (t1 ) − t 1 N (t1 ) − t 1 

C N (t1 , t 2 ) = EN (t1 ) − t 1 N (t 2 ) − N (t1 ) −  (t 2 −t 1) + E N (t1 ) − t 1 2 
C N (t1 , t 2 ) = E N (t1 ) − t 1 E N (t 2 ) − N (t1 ) −  (t 2 −t 1) + VarN (t1 )
C N (t1 , t 2 ) = VarN (t1 ) = t 1=  min(t 1,t 2 )

Ejemplo 6.19: Una grabadora de mensajes que opera de acuerdo a un proceso de Poisson, recibe 15
requerimientos por minuto. Encuentre la probabilidad de que en un periodo de 1 minuto, 3 requerimientos
lleguen durante los primeros 10 segundos y 2 requerimientos arriben durante los últimos 15 segundos.

Solución: Se conoce λ=15/60=1/4 requer./seg y se pregunta P[N(10)=3 y N(60)-N(45)=2]=?


𝑃[(𝑁(10) = 3) 𝑦 (𝑁(60) − 𝑁(45) = 2)] = 𝑃[𝑁(10) = 3]𝑃[𝑁(60) − 𝑁(45) = 2]
𝑃[(𝑁(10) = 3) 𝑦 (𝑁(60) − 𝑁(45) = 2)] = 𝑃[𝑁(10) = 3]𝑃[𝑁(60 − 45) = 2]
(10/4)3 𝑒 −10/4 (15/4)2 𝑒 −15/4
𝑃[(𝑁(10) = 3) 𝑦 (𝑁(60) − 𝑁(45) = 2)] =
3! 2!

Lectura: Proceso estocástico de Markov, Poisson y la Señal telegráfica

ESPOL - Telecomunicaciones
15

Proceso estocástico de Wiener


Suponga que se tiene el proceso caminata aleatoria simétrica (p=1/2) donde se toman pasos de
magnitud k cada 𝛿. Se obtiene un proceso de tiempo continuo 𝑋𝛿 (𝑡) que resulta de la suma de
𝑡
valores hasta el tiempo t, esto es, el proceso ha tomado 𝑛 = [ ] saltos, por tanto:
𝛿

𝑋𝛿 (𝑡) = ℎ(𝐷1 + 𝐷2 + ⋯ . . +𝐷[𝑡/𝛿] ) = ℎ𝑆𝑛


𝐸[𝑋𝛿 (𝑡)] = ℎ𝐸[𝑆𝑛 ] = 0
𝑉𝑎𝑟[𝑋𝛿 (𝑡)] = ℎ2 𝑛𝑉𝑎𝑟[𝐷𝑛 ] = ℎ2 𝑛[4𝑝(1 − 𝑝)] = ℎ2 𝑛 dado que p=1/2
Suponga que se reduce simultáneamente el tamaño de los saltos y el tiempo entre los saltos, esto
es, 𝛿 → 0, ℎ → 0 siendo ℎ = √𝛼𝛿. En estas condiciones, se obtiene el proceso X(t) con las
siguientes características:
2
𝐸[𝑋(𝑡)] = 0 𝑉𝑎𝑟[𝑋(𝑡)] = (√𝛼𝛿) (𝑡⁄𝛼 ) = 𝛼𝑡
X(t) es un proceso estocástico, denominado Wiener, que arranca en el origen, tiene media de cero
y varianza que aumenta linealmente con el tiempo. La figura indica 4 muestras del proceso
estocástico de Wiener.

𝑆𝑛
𝑋(𝑡) = lim ℎ𝑆𝑛 = lim √𝛼𝑡
𝛿→0 𝑛→∞ √𝑛

Aplicando el teorema del límite central, la pdf de X(t) se aproxima a una variable aleatoria gausiana
con media cero y varianza 𝛼𝑡
1 𝑥2
𝑓𝑋(𝑡) (𝑥) = 𝑒 − ⁄2𝛼𝑡
√2𝜋𝛼𝑡

X(t) hereda las propiedades de independencia e incrementos estacionarios del proceso random
Walk. Por tanto, la pdf conjunta de X(t) en los tiempos t1, t2, t3, ..., tk, viene dado por:

𝑓𝑋(𝑡1),𝑋(𝑡2),…,𝑋(𝑡𝑘) (𝑥1 , 𝑥2 , … . , 𝑥𝑘 ) = 𝑓𝑋(𝑡1) (𝑥1 )𝑓𝑋(𝑡2−𝑡1) (𝑥2 − 𝑥1 ) … … . 𝑓𝑋(𝑡𝑘−𝑡𝑘−1) (𝑥𝑘 − 𝑥𝑘−1 )

1 𝑥 2 (𝑥 − 𝑥1 )2 (𝑥 − 𝑥𝑘−1 )2
𝑒𝑥𝑝 {− [ 1 + 2 + ⋯…+ 𝑘 ]}
2 𝛼𝑡1 𝛼(𝑡2 − 𝑡1 ) 𝛼(𝑡𝑘 − 𝑡𝑘−1 )
𝑓𝑋(𝑡1),𝑋(𝑡2),…,𝑋(𝑡𝑘) (𝑥1 , 𝑥2 , … . , 𝑥𝑘 ) =
√(2𝜋𝛼)𝑘 𝑡1 (𝑡2 − 𝑡1 ) … . . (𝑡𝑘 − 𝑡𝑘−1 )

𝐶𝑋 (𝑡1 , 𝑡2 ) = 𝛼 min(𝑡1 , 𝑡2 )

El proceso de Wiener es gausiano. El proceso estocástico que resulta al tomar la derivada


del proceso de Wiener se llama Ruido blanco gausiano.

ESPOL - Telecomunicaciones
16

PROCESOS ESTOCASTICOS ESTACIONARIOS


Muchos procesos estocásticos tienen la propiedad de que la naturaleza de su aleatoriedad no cambia con el
tiempo. Una observación del proceso en el intervalo de tiempo (t 0,t1) exhibe el mismo tipo de comportamiento
aleatorio que en el intervalo (t0+ζ,t1+ζ). Esto lleva a la idea de que las probabilidades de las muestras en realidad
no dependen del instante de tiempo cuando se hacen las observaciones, esto es, las probabilidades calculadas
en los instantes t1, t2, t3 …,tk son iguales que aquellas tomadas en los instantes t1+ζ, t2+ζ t3+ζ …,tk+ζ

Un proceso estocástico (discreto o continuo) X(t) es estacionario si la distribución conjunta de


cualquier conjunto de muestras no depende de la ubicación del origen del dominio del tiempo. Esto
es:
𝐹𝑋(𝑡1),…..,𝑋(𝑡𝑘) (𝑥1 , 𝑥2 , … … , 𝑥𝑘 ) = 𝐹𝑋(𝑡1+𝜏),…..,𝑋(𝑡𝑘+𝜏) (𝑥1 , 𝑥2 , … … , 𝑥𝑘 )

Dos procesos estocásticos X(t) e Y(t) se dicen que son conjuntamente estacionarios si la cdf
conjunta de 𝑋(𝑡1 ), … . . , 𝑋(𝑡𝑘 ) y 𝑌(𝑡1′ ), … . . , 𝑌(𝑡𝑗′ ) no depende de la ubicación del origen de la variable
tiempo

La cdf de primer orden de un proceso estocástico estacionario debe ser independiente del
tiempo, esto es: 𝐹𝑋(𝑡) (𝑥) = 𝐹𝑋(𝑡+𝜏) (𝑥) = 𝐹𝑋 (𝑥). Esto implica que:
𝑚𝑥 (𝑡) = 𝐸[𝑋(𝑡)] = 𝑚 y 𝑉𝐴𝑅[𝑋(𝑡)] = 𝐸[(𝑋(𝑡) − 𝑚)2 ] = 𝜎 2
La cdf de segundo orden de un proceso aleatorio estacionario puede depender solamente
sobre la diferencia de tiempo entre las muestras y no sobre el particular tiempo de las muestras.
𝐹𝑋(𝑡1),𝑋(𝑡2) (𝑥1 , 𝑥2 ) = 𝐹𝑋(0),𝑋(𝑡2−𝑡1 ) (𝑥1 , 𝑥2 )
Esto significa: 𝑅𝑥 (𝑡1 , 𝑡2 ) = 𝑅𝑥 (𝑡2 − 𝑡1 ) y 𝐶𝑥 (𝑡1 , 𝑡2 ) = 𝐶𝑥 (𝑡2 − 𝑡1 )

Ejemplo 6.26: Demuestre que un proceso aleatorio iid es estacionario


La cdf conjunta es: 𝐹𝑋(𝑡1 ),…..,𝑋(𝑡𝑘) (𝑥1 , 𝑥2 , … … , 𝑥𝑘 ) = 𝐹𝑋(𝑡1 ) (𝑥1 )𝐹𝑋(𝑡2 ) (𝑥2 ) … . . 𝐹𝑋(𝑡𝑘) (𝑥𝑘 )
𝐹𝑋(𝑡1 ) (𝑥1 )𝐹𝑋(𝑡2 ) (𝑥2 ) … . . 𝐹𝑋(𝑡𝑘 ) (𝑥𝑘 ) = 𝐹𝑋(𝑡1 +𝜏) (𝑥1 )𝐹𝑋(𝑡2 +𝜏) (𝑥2 ) … . . 𝐹𝑋(𝑡𝑘 +𝜏) (𝑥𝑘 )
𝐹𝑋(𝑡1 +𝜏) (𝑥1 )𝐹𝑋(𝑡2 +𝜏) (𝑥2 ). . . 𝐹𝑋(𝑡𝑘 +𝜏) (𝑥𝑘 ) = 𝐹𝑋(𝑡1 +𝜏),..,𝑋(𝑡𝑘+𝜏) (𝑥1 , 𝑥2 , … , 𝑥𝑘 )

Procesos estocásticos estacionarios en el sentido amplio


Un proceso estocástico (discreto o continuo) X(t) se dice que es estacionario en el sentido
amplio (wide sense stationary – WSS) si satisface las siguientes dos propiedades:
1) 𝑚𝑥 (𝑡) = 𝑚 y
2) 𝐶𝑥 (𝑡1 , 𝑡2 ) = 𝐶𝑥 (𝑡1 − 𝑡2 ) = 𝐶𝑥 (𝜏)
Los procesos estocásticos X(t) y Y(t) se dicen que son conjuntamente estacionarios en el sentido
amplio si:
1) X(t) y Y(t) son individualmente WSS
2) Su covarianza cruzada depende solo de t1-t2
Todos los procesos estocásticos estacionarios son WSS. Por otro lado un proceso WSS puede no
ser estacionario

Ejemplo 6.29: Asuma que Xn consiste en dos secuencias entrelazadas de variables aleatorias:
±1 𝑐𝑜𝑛 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 1/2 𝑛 𝑝𝑎𝑟
𝑋𝑛 = {1 9 1 } → Xn no es estacionario puesto que su pmf varia con n
, −3 𝑐𝑜𝑛 𝑝𝑟𝑜𝑏𝑎𝑏𝑖𝑙𝑖𝑑𝑎𝑑 , 𝑛 𝑖𝑚𝑝𝑎𝑟
3 10 10

Por otro lado:


𝐸[𝑋𝑖 ]𝐸[𝑋𝑗 ] = 0 𝑖≠𝑗
𝑚𝑥 (𝑥) = 0 y 𝐶𝑥 (𝑖, 𝑗) = { }, por tanto Xn es WSS
𝐸[𝑋𝑖2 ] = 1 𝑖=𝑗

ESPOL - Telecomunicaciones
17

Problema: Un proceso estocástico consiste de tres funciones muestra: X(t,s1)=2, X(t,s2)=2cos(t) y


X(t,s3)=3sen(t), cada una ocurriendo con igual probabilidad. Es este proceso estacionario en algún
sentido. Explique

Para t1=0; E[X(t1)] = 2(1/3) + 2cos(0) (1/3) + 3sen(0) 1/3 = 2/3 + 2/3 + 0 = 4/3

Para t2=π/2; E[X(t1)] = 2(1/3) + 2cos(π/2) (1/3) + 3sen(π/2) 1/3 = 2/3 + 0 + 1 = 5/3

E[X(t1)] ≠ E[X(t1)] No es estacionario

----------------------------------------------------------------------------------------------
Ejercicio: Sea X(t) =Acos(wt+  ), donde  es una v. a. uniformemente distribuida en el intervalo
( 0,  ). Verifique que X(t) es un proceso WSS.
𝜋
𝑑𝜃 𝐴 𝜋
𝑚𝑥 (𝑡) = 𝐸[𝑋(𝑡)] = 𝐸[𝐴 𝑐𝑜𝑠( 𝑤𝑡 + 𝜃)] = ∫ 𝐴 𝑐𝑜𝑠( 𝑤𝑡 + 𝜃) = ∫ 𝑐𝑜𝑠( 𝑤𝑡 + 𝜃)𝑑𝜃
0 𝜋 𝜋 0
𝐴 𝐴 𝐴
𝑚𝑥 (𝑡) = − [𝑠𝑒𝑛(𝑤𝑡 + 𝜃)]𝜋0 = − [−𝑠𝑒𝑛(𝑤𝑡)] = 𝑠𝑒𝑛(𝑤𝑡)
𝜋 𝜋 𝜋
Como la media no es igual a una constante, entonces el proceso no es WSS.
----------------------------------------------------------------------------------------------

Ejercicio: Sea 𝑋(𝑡) = 𝐴2 𝑐𝑜𝑠 2 ( 𝑊0 𝑡 + 𝜃) donde 𝜃 es una v.a. uniformemente distribuida en el


intervalo (−𝜋, 𝜋). Verifique si se trata de un proceso WSS.
𝜋
1 𝜋
1 𝑐𝑜𝑠 2 𝜃 𝑑𝜃 𝐴2
𝑚𝑥 (𝑡) = 𝐸[𝑋(𝑡)] = 𝐴2 ∫ 𝑐𝑜𝑠 2 ( 𝑊0 𝑡 + 𝜃) ( ) 𝑑𝜃 = 𝐴2 ∫ ( + ) = [𝜃 + 𝑠𝑒𝑛2𝜃]𝜋−𝜋
−𝜋 2𝜋 −𝜋 2 2 2𝜋 4𝜋
𝐴2 𝐴2
𝑚𝑥 (𝑡) = [𝜋 − (−𝜋)] =
4𝜋 2

𝑅𝑋 (𝑡1 , 𝑡2 ) = 𝑅𝑋 (𝑡, 𝑡 + 𝜏) = 𝐸[𝑋(𝑡)𝑋(𝑡 + 𝜏)] = 𝐸[𝐴2 𝑐𝑜𝑠 2 ( 𝑊𝑜 𝑡 + 𝜃)𝐴2 𝑐𝑜𝑠 2 ( 𝑊𝑜 (𝑡 + 𝜏) + 𝜃)]


1 1
𝑅𝑋 (𝑡, 𝑡 + 𝜏) = 𝐴4 𝐸 [ [1 + 𝑐𝑜𝑠 2 (𝑊𝑜 𝑡 + 𝜃)] [1 + 𝑐𝑜𝑠 2 (𝑊𝑜 𝑡 + 𝑊𝑜 𝜏 + 𝜃)]]
2 2
𝐴4
𝑅𝑋 (𝑡, 𝑡 + 𝜏) = 𝐸[(1 + 𝑐𝑜𝑠 2 (𝑊𝑜 𝑡 + 𝜃))(1 + 𝑐𝑜𝑠 2 (𝑊𝑜 𝑡 + 𝑊𝑜 𝜏 + 𝜃))]
4
𝐴4
𝑅𝑋 (𝑡, 𝑡 + 𝜏) = 𝐸[1 + 𝑐𝑜𝑠 2 (𝑊𝑜 𝑡 + 𝑊𝑜 𝜏) + 𝑐𝑜𝑠 2 (𝑊𝑜 𝑡 + 𝜃) + 𝑐𝑜𝑠 2 (𝑊𝑜 𝑡 + 𝜃) 𝑐𝑜𝑠 2 (𝑊𝑜 𝑡 + 𝑊𝑜 𝜏 + 𝜃)]
4
4
𝐴 1
𝑅𝑋 (𝑡, 𝑡 + 𝜏) = 𝐸 [1 + [𝑐𝑜𝑠 2 (2𝑊𝑜 𝑡 + 𝑊𝑜 𝜏 + 𝜃) + 𝑐𝑜𝑠 2 (𝑊𝑜 𝜏)]]
4 2
𝐴4 1
𝑅𝑋 (𝑡, 𝑡 + 𝜏) = [1 + 𝑐𝑜𝑠 2 (𝑊𝑜 𝜏)] = 𝑅𝑋 (𝜏)
4 2

Por lo tanto, el Proceso si es WSS


----------------------------------------------------------------------------------------------

Ejercicio: Sean A y B variables aleatorias y X(t) = A cos Wot + B sen Wot. Asuma E(A) = E(B) = 0
y 2A = 2B = 2. A y B son variables aleatorias no correlacionadas. Es X(t) WSS?

Problema: Sea el proceso X(t)=At+B, donde A es una variable discreta que toma valores de -2 y 2
con igual probabilidad y B es una variable uniforme entre (-2,2). A y B son variables independientes.
¿Es X(t) estacionario en el sentido amplio?

ESPOL - Telecomunicaciones
18

PROPIEDADES DE LA FUNCION DE AUTOCORRELACION (Procesos WSS)

1.- La función de Autocorrelación evaluada en ζ=0 da la potencia promedio (segundo


momento) del proceso
𝑅𝑥 (0) = 𝐸[𝑋(𝑡)2 ] = 𝑃
2.- La función de Autocorrelación es una función par en ζ

𝑅𝑥 (𝜏) = 𝐸[𝑋(𝑡 + 𝜏)𝑋(𝑡)] = 𝐸[𝑋(𝑡)𝑋(𝑡 + 𝜏)] = 𝑅𝑥 (−𝜏)


3.- La Autocorrelación es una medida de la velocidad de cambio del proceso estocástico.

Prueba: Desigualdad de Markov. Suponiendo que x es una v.a. no negativa


  
E[ x ] =  xf x ( x)dx   xf x ( x)dx   af x ( x)dx = aP[ x  a]
0 a a

E[ x ]
P[ x  a] 
a
Usando la desigualdad de Markov, se tiene:

 
P| x (t +  ) − x (t ) |   = P ( x (t +  ) − x (t ))2   2 

E ( x (t +  ) − x (t ))2  = 2R (0) − R ( )
x x
 2
 2

Si Rx(0) – Rx(ζ) es pequeño, entonces Rx(ζ) cae lentamente y por tanto la probabilidad de un gran
cambio en x(t) es pequeña.

4.- La función de Autocorrelación es máxima en ζ =0.

Aplicando 𝐸[𝑋𝑌]2 ≤ 𝐸[𝑋 2 ]𝐸[𝑌 2 ]


𝑅𝑥 (𝜏)2 = 𝐸[𝑋(𝑡 + 𝜏)𝑋(𝑡)]2 ≤ 𝐸[𝑋 2 (𝑡 + 𝜏)]𝐸[𝑋 2 (𝑡)] = 𝑅𝑥 (0)2
|𝑅𝑥 (𝜏)| ≤ 𝑅𝑥 (0)
5.- Si Rx(0)=Rx(d), entonces Rx(ζ) es periódica con periodo d y x(t) es periódico cuadrático
medio, esto es, E{[x(t+d)-x(t)]2}=0.
A partir de la expresión (E[XY])2 ≤ E[X2] E[Y2] se tiene:
{E[x(t+ζ+d)-x(t+ζ)]x(t)}2 ≤ E([x(t+ζ+d)-x(t+ ζ)]2) E([x(t)]2)
{E[x(t+ζ+d)-x(t+ζ)]x(t)}2 ≤ E([x(t+ζ+d)]2 – 2x(t+ζ+d)x(t+ζ)] + [x(t+ζ)]2) E([x(t)]2)
{E[x(t+ζ+d)x(t)]-E[x(t+ζ)x(t)]}2 ≤ (E([x(t+ζ+d)]2) – 2E[x(t+ζ+d)x(t+ζ)] + E[x(t+ζ)]2) E([x(t)])2
(Rx(ζ+d) - Rx(ζ))2 ≤ [2Rx(0) – 2Rx(d)] Rx(0)
Si Rx(0) = Rx(d), entonces Rx(ζ+d) = Rx(ζ) para todo ζ y por tanto periódica con periodo d.
E([x(t+d)-x(t)]2) = 2 [Rx(0)–Rx(d)] = 0 y por tanto x(t) es periódico cuadrático medio

6.- Si X(t) = m+N(t), donde N(t) es un proceso de media cero para el cual RN(t) →0 a medida
que ζ →ꝏ, entonces 𝑹𝒙 (𝝉) se aproxima al cuadrado de la media a medida que ζ →ꝏ
2
𝑅𝑥 (𝜏) = 𝐸[(𝑚 + 𝑁(𝑡 + 𝜏))(𝑚 + 𝑁(𝑡))] = 𝑚2 + 2𝑚𝐸[𝑁(𝑡)] + 𝑅𝑁 (𝜏)
𝑅𝑥 (𝜏) = 𝑚2 + 𝑅𝑁 (𝜏) → 𝑚2 cuando ζ →ꝏ
Problema: Si X(t) es un proceso estocástico gausiano estacionario en el sentido amplio con una función de
Autocorrelación Rx() = 9 + 2e-2.
1) Encuentre el valor esperado y la varianza de Y(t)=X(t)-X(t-5)
2) Sea S una variable aleatoria discreta, independiente de X(t), con distribución P(S=1)=0.6, P(S=2)=0.2 y
P(S=3)=0.2. Sea Z(t) = X(t)+S
a) Encuentre la media y la autocorrelación de Z(t)
b) Calcule Pr(Z(t)<1)

ESPOL - Telecomunicaciones
19

DENSIDAD ESPECTRAL DE POTENCIA

𝑇
𝑥𝑇 (𝑒, 𝜉𝑖 ) = {𝑥(𝑡, 𝜉𝑖 ) |𝑡| < }
2
0 de otro modo
∞ 𝑇/2
𝑋𝑇 (𝑓, 𝜉𝑖 ) = ∫ 𝑥𝑇 (𝑡, 𝜉𝑖 )𝑒−𝑗(2𝜋 𝑓 t) 𝑑𝑡 = ∫ 𝑥(𝑡, 𝜉𝑖 )𝑒−𝑗(2𝜋 𝑓 t) 𝑑𝑡
−∞ −𝑇/2
∞ ∞ 2
𝐸𝑇 = ∫ 𝑥𝑇 2 (𝑡)𝑑𝑡 = ∫ |𝑋𝑇 (𝑓)| 𝑑𝑓
−∞ −∞

ET es una variable aleatoria puesto que x(t) es un proceso estocástico.


𝑇/2 ∞ ∞ 2
2 2
𝐸(𝐸𝑇 ) = ∫ 𝐸[𝑥 (𝑡)]𝑑𝑡 = ∫ 𝐸[𝑥𝑇 (𝑡)]𝑑𝑡 = ∫ 𝐸|𝑋𝑇 (𝑓)| 𝑑𝑓
−𝑇/2 −∞ −∞

La potencia normalizada es la energía gastada por unidad de tiempo, por tanto


2
1 𝑇/2 2
1 ∞ 2

1
𝑃 = 𝑙𝑖𝑚 ∫ 𝐸[𝑥 (𝑡)]𝑑𝑡 = 𝑙𝑖𝑚 ∫ 𝐸[𝑥𝑇 (𝑡)]𝑑𝑡 = ∫ 𝑙𝑖𝑚 𝐸|𝑋𝑇 (𝑓)| 𝑑𝑓
𝑇→∞ 𝑇 −𝑇/2 𝑇→∞ 𝑇 −∞ −∞ 𝑇→∞ 𝑇

𝑃 = ∫ 𝑆𝑥 (𝑓) 𝑑𝑓
−∞

1
𝑆𝑥 (𝑓) = 𝑙𝑖𝑚 𝐸|𝑋𝑇 (𝑓)|2
𝑇→∞ 𝑇
𝑇/2
𝑋𝑇 (𝑓) = ∫ 𝑥(𝑡)𝑒 −𝑗(2𝜋 𝑓 𝑡) 𝑑𝑡
−𝑇/2

TEOREMA DE WIENER KHINCHINE



𝑆𝑥 (𝑓) = 𝐹[⟨𝑅𝑥 (𝑡, 𝑡 + 𝜏)⟩] = ∫ ⟨𝑅𝑥 (𝑡, 𝑡 + 𝜏)⟩ 𝑒−𝑗2𝜋 𝑓𝜏 𝑑𝜏
−∞

⟨𝑅𝑥 (𝑡, 𝑡 + 𝜏)⟩ = 𝐹 −1 [𝑆𝑥 (𝑓)] = ∫ 𝑆𝑥 (𝑓) 𝑒 𝑗2𝜋 𝑓𝜏 𝑑𝑓
−∞
𝐷𝑎𝑑𝑜 𝑞𝑢𝑒 𝑅𝑥 (𝑡, 𝑡 + 𝜏) 𝑒𝑠 𝑙𝑜 𝑠𝑢𝑓𝑖𝑐𝑖𝑒𝑛𝑡𝑒𝑚𝑒𝑛𝑡𝑒 𝑝𝑒𝑞𝑢𝑒ñ𝑜 𝑝𝑎𝑟𝑎 𝑣𝑎𝑙𝑜𝑟𝑒𝑠 𝑔𝑟𝑎𝑛𝑑𝑒𝑠 𝑑𝑒 𝜏 𝑡𝑎𝑙 𝑞𝑢𝑒:

∫ |𝜏 ⟨𝑅(𝑡, 𝑡 + 𝜏)⟩| 𝑑𝜏 < ∞
−∞

Para el caso en que x(t) es un proceso WSS:


∞ ∞
𝑆𝑥 (𝑓) = 𝐹[𝑅𝑥 (𝜏)] = ∫ 𝑅𝑥 (𝜏) 𝑒−𝑗2𝜋 𝑓𝜏 𝑑𝜏 𝑅𝑥 (𝜏) = 𝐹 −1 [𝑆𝑥 (𝑓)] = ∫ 𝑆𝑥 (𝑓) 𝑒 𝑗2𝜋 𝑓𝜏 𝑑𝑓
−∞ −∞

Dado que 𝑅𝑥 (𝜏) = 𝐶𝑥 (𝜏) + 𝑚𝑥2 entonces 𝑆𝑥 (𝑓) = 𝐹[𝑅𝑥 (𝜏)] = 𝐹[𝐶𝑥 (𝜏)] + 𝑚𝑥2 𝛿(𝑓)

ESPOL - Telecomunicaciones
20

PROPIEDADES DE LA DENSIDAD ESPECTRAL DE POTENCIA (Procesos WSS)

𝑆𝑥 (𝑓) 𝑠𝑖𝑒𝑚𝑝𝑟𝑒 𝑒𝑠 𝑟𝑒𝑎𝑙


𝑆𝑥 (𝑓) ≥ 0
𝑆𝑥 (𝑓) = 𝑆𝑥 (−𝑓) 𝑐𝑢𝑎𝑛𝑑𝑜 𝑥(𝑡) 𝑒𝑠 𝑟𝑒𝑎𝑙
∞ ∞
𝑃 = ∫ 𝑆𝑥 (𝑓)𝑑𝑓 P = ∫ 𝑆𝑥 (𝑓)𝑑𝑓 = 𝐸[𝑥 2 (𝑡)] = 𝑅𝑥 (0) si x(𝑡) es WSS
−∞ −∞

𝑆𝑥 (0) = ∫ 𝑅𝑥 (𝜏)𝑑𝜏
−∞

Densidad espectral de potencia cruzada (procesos conjuntamente WSS)


𝑆𝑥,𝑦 (𝑓) = 𝐹[𝑅𝑥,𝑦 (𝜏)] donde 𝑅𝑥,𝑦 (𝜏) = 𝐸[𝑋(𝑡 + 𝜏)𝑌(𝑡)]

𝑆𝑥,𝑦 (𝑓) es una función compleja

Procesos Estocásticos Discretos en el Tiempo

Sea Xn es un proceso estocástico WSS discreto en el tiempo con media m x y función de


autocorrelación Rx(ζ), se define:
𝑆𝑥 (𝑓) = 𝐹[𝑅𝑥 (𝑘)] = ∑∞
𝑘=∞ 𝑅𝑥 (𝑘) 𝑒
𝑗2𝜋𝑗𝑘
𝑑𝑓 (7.21)

Las frecuencias están en el rango - ½ < f < 1/2 dado que Sx(f) es periódica en f con periodo 1. Como
en el caso de procesos estocásticos continuos, Sx(f) puede ser visto como una función real, no
negativa y par.
La fórmula de la transformada inversa de Fourier de la Ec. (7.21) implica que:
1/2
𝑅𝑥 (𝑘) = ∫−1/2 𝑆𝑥 (𝑓) ej2𝜋fk 𝑑𝑓 (7.22)

La densidad espectral de potencia cruzada 𝑆𝑥,𝑦 (𝑓) de dos procesos estocásticos WSS discretos en
tiempo Xn y Yn esta definido por:
𝑆𝑥,𝑦 (𝑓) = 𝐹[𝑅𝑥,𝑦 (𝑘)] donde 𝑅𝑥,𝑦 (𝑘) = 𝐸[𝑋𝑛+𝑘 𝑌𝑛 ]

Ejemplo 7.1: Encuentre la densidad espectral de potencia de la señal telegráfica [ 𝑅𝑥 (𝜏) = 𝑒 −2𝛼|𝜏| ]
0 ∞
1 1 4𝛼
𝑆𝑥 (𝑓) = ∫ 𝑒 2𝛼𝜏 𝑒 −2𝜋𝑗𝜏 𝑑𝜏 + ∫ 𝑒 −2𝛼𝜏 𝑒 −2𝜋𝑗𝜏 𝑑𝜏 = + = 2
2𝛼 − 2𝜋𝑗 2𝛼 + 2𝜋𝑗 4𝛼 + 4𝜋 2 𝑓 2
−∞ 0

Ejemplo 7.2: Hallar Sx(f) dado x(t)=a cos(2πfot+Φ), donde Φ es una v.a. U ~ (0,2π).
2𝜋
𝑎 𝑎 2𝜋
𝐸[𝑥(𝑡)] = 𝐸[𝑎 𝑐𝑜𝑠( 2𝜋𝑓𝑜 𝑡 + 𝜑)] = ∫ 𝑐𝑜𝑠( 2𝜋𝑓𝑜 𝑡 + 𝜑)𝑑𝜑 = ∫ 𝑐𝑜𝑠( 2𝜋𝑓𝑜 𝑡 + 𝜑)𝑑𝜑 = 0
0 2𝜋 2𝜋 0
2𝜋
1
𝑅𝑥 (𝑡, 𝑡 + 𝜏) = 𝐸[𝑥(𝑡)𝑥(𝑡 + 𝜏)] = ∫ 𝑎 𝑐𝑜𝑠( 2𝜋𝑓𝑜 𝑡 + 𝜑)𝑎 𝑐𝑜𝑠[ 2𝜋𝑓𝑜 (𝑡 + 𝜏) + 𝜑] ( ) 𝑑𝜑
0 2𝜋
𝑎2 2𝜋 𝑎2 2𝜋 𝑎2
𝑅𝑥 (𝑡, 𝑡 + 𝜏) = ∫ 𝑐𝑜𝑠( 4𝜋𝑓𝑜 𝑡 + 2𝜋𝑓𝑜 𝜏 + 2𝜑)𝑑𝜑 + ∫ 𝑐𝑜𝑠 2 𝜋𝑓𝑜 𝜏 𝑑𝜑 = 0 + 2𝜋 𝑐𝑜𝑠 2 𝜋 𝑓𝑜 𝜏
4𝜋 0 4𝜋 0 4𝜋
𝑎2
𝑅𝑥 (𝑡, 𝑡 + 𝜏) = 𝑐𝑜𝑠 2 𝜋 𝑓𝑜 𝜏 = 𝑅𝑥 (𝜏) Por tanto x(𝑡) es WSS
2
𝑎2 𝑎2
𝑆𝑥 (𝑓) = 𝐹[𝑅𝑥 (𝜏)] = 𝛿(𝑓 − 𝑓𝑜) + 𝛿(𝑓 + 𝑓𝑜) Aplicación del teorema de Wiener-Khintchine
4 4

ESPOL - Telecomunicaciones
21

Ejemplo: El proceso aleatorio seguro (Ruido Blanco)


Este proceso es uno para el cual sucesivos valores del proceso son estadísticamente independientes
de los valores precedentes sin importar cuan pequeño es el intervalo entre las observaciones
𝑓𝑋1,𝑋2,𝑋3…..,𝑋𝑛 (𝑥1 , 𝑥2 , … … , 𝑥𝑛 ) = 𝑓𝑋1 (𝑥1 )𝑓𝑋2 (𝑥2 ) … . . 𝑓𝑋𝑛 (𝑥𝑛 ) = ∏𝑘 𝑓𝑋𝑘 (𝑥𝑘 )

Por tanto, toda la información acerca del proceso está contenida en las funciones densidades de
primer orden 𝑓𝑋𝑘 (𝑥𝑘 ). Nótese que 𝑓𝑋𝑗 (𝑥𝑗 ) no necesariamente es igual a 𝑓𝑋𝑘 (𝑥𝑘 ).

Ejemplo 7.3:
La densidad espectral del proceso estocástico Ruido Blanco WSS en el rango [-W ≤ f ≤ W] se muestra
en la figura. Este proceso se dice blanco en analogía a la luz blanca que resulta de la combinación
de todas las frecuencias con igual intensidad.
𝑤
2
𝑁𝑜
𝐸[𝑋 (𝑡)] = ∫ 𝑑𝑓 = 𝑁𝑜 𝑊
2
−𝑤
𝑤
1 1 𝑒 −𝑗2𝜋𝑊𝜏 − 𝑒 𝑗2𝜋𝑊𝜏
𝑅𝑥 (𝜏) = 𝑁𝑜 ∫ 𝑒 𝑗2𝜋𝑓𝜏 𝑑𝑓 = 𝑁𝑜
2 2 −𝑗2𝜋𝜏
−𝑤
𝑁𝑜 𝑠𝑖𝑛(2𝜋𝑊𝜏)
= = 𝑁𝑜 𝑠𝑖𝑛𝑐(2𝑊𝜏)
2𝜋𝜏

Se debe notar que X(t) y X(t+ζ) no están correlacionados


para ζ = ± k/2W; k=1,2,3,….
1 1
Cuando W→ꝏ 𝑆𝑥 (𝑓) = 𝑁𝑜 y 𝑅𝑥 (𝜏) = 𝑁𝑜 𝛿(𝜏)
2 2

Si W(t) es gausiano, entonces se trata del ruido blanco gausiano

Ejemplo 7.5: Si Y(t)= 2 + 3X(t-1), determinar si Y(t) es WSS, sabiendo que X(t) es WSS con E[X(t)]=0
y Var[X(t)]=2. Determine la SY(f) en términos de la SX(f).

𝐸[𝑌(𝑡)] = 𝐸[2 + 3𝑋(𝑡 − 1)] = 2 + 3𝐸[𝑋(𝑡 − 1)] = 2


𝑅𝑌 (𝑡, 𝑡 + 𝜏) = 𝐸[𝑌(𝑡)𝑌(𝑡 + 𝜏)] = 𝐸([2 + 3𝑋(𝑡 − 1)][2 + 3𝑋(𝑡 + 𝜏 − 1)])
𝑅𝑌 (𝑡, 𝑡 + 𝜏) = 𝐸[4 + 6𝑋(𝑡 + 𝜏 − 1) + 6𝑋(𝑡 − 1) + 9𝑋(𝑡 − 1)𝑋(𝑡 + 𝜏 − 1)]
𝑅𝑌 (𝑡, 𝑡 + 𝜏) = 4 + 9𝐸[𝑋(𝑡 − 1)𝑋(𝑡 + 𝜏 − 1)] = 4 + 9𝑅𝑥 (𝜏) = 𝑅𝑌 (𝜏)
𝑌(𝑡) 𝑠𝑖 𝑒𝑠 𝑊𝑆𝑆 𝑆𝑌 (𝑓) = 4𝛿(𝑓) + 9𝑆𝑋 (𝑓)

Ejemplo: dado X(t) un proceso estocástico WSS con media igual a cero X(t) Y(t)
y Sx(f). Hallar Sy(f) asumiendo que θ es una variable aleatoria distribuida X
uniformemente en (0,2π) y que θ y X(t) son independientes.

𝑦(𝑡) = 𝑥(𝑡) 𝑐𝑜𝑠( 2𝜋𝑓𝑐 𝑡 + 𝜃) Cos(2πfct+θ)


𝑅𝑦 (𝑡, 𝑡 + 𝜏) = 𝐸{𝑥(𝑡) 𝑐𝑜𝑠( 2𝜋𝑓𝑐 𝑡 + 𝜃)𝑥(𝑡 + 𝜏) 𝑐𝑜𝑠[ 2𝜋𝑓𝑐 (𝑡 + 𝜏) + 𝜃]}
1 1
𝑅𝑦 (𝑡, 𝑡 + 𝜏) = 𝐸 {𝑥(𝑡)𝑥(𝑡 + 𝜏) [ 𝑐𝑜𝑠( 4𝜋𝑓𝑐 𝑡 + 2𝜋𝑓𝑐 𝜏 + 2𝜃) + 𝑐𝑜𝑠( 2𝜋𝑓𝑐 𝜏)]}
2 2
1 1
𝑅𝑦 (𝑡, 𝑡 + 𝜏) = 𝐸[𝑥(𝑡)𝑥(𝑡 + 𝜏)]𝐸 [ 𝑐𝑜𝑠( 4𝜋𝑓𝑐 𝑡 + 2𝜋𝑓𝑐 𝜏 + 2𝜃) + 𝑐𝑜𝑠( 2𝜋𝑓𝑐 𝜏)]
2 2
1 1
𝑅𝑦 (𝑡, 𝑡 + 𝜏) = 𝑅𝑥 (𝜏) [ 𝑐𝑜𝑠( 2𝜋𝑓𝑐 𝜏)] = 𝑅𝑥 (𝜏) 𝑐𝑜𝑠 2 𝜋𝑓𝑐 𝜏 = 𝑅𝑦 (𝜏)
2 2
1 1 1 1
𝑆𝑦 (𝑓) = 𝐹 [ 𝑅𝑥 (𝜏)] ∗ F[𝑐𝑜𝑠 2 𝜋𝑓𝑐 𝜏] = S𝑥 (f) ∗ [ 𝛿(𝑓 + 𝑓𝑐 ) + 𝛿(𝑓 − 𝑓𝑐 )]
2 2 2 2
1 1
𝑆𝑦 (𝑓) = 𝑆𝑥 (𝑓 + 𝑓𝑐 ) + 𝑆𝑥 (𝑓 − 𝑓𝑐 )
4 4

ESPOL - Telecomunicaciones
22

Ejemplo: Determinación de la densidad espectral de potencia de una señal usando la fórmula

X(t) F(f)

1
f(t) 1,2
Tb
1 1

0,8

t t 0,6

0,4

0,2 f

-1 Tb -4 -3 -2 -1
0

-0,2
0 1 2 3 4

-0,4

𝑛=𝑁

𝑥𝑇 (𝑡) = ∑ 𝑎𝑛 𝑓(𝑡 − 𝑛𝑇𝑏 )


𝑛=−𝑁
𝑛=𝑁 𝑛=𝑁 𝑛=𝑁

𝑋𝑇 (𝑓) = 𝐹[𝑥𝑇 (𝑡)] = ∑ 𝑎𝑛 𝐹[𝑓(𝑡 − 𝑛𝑇𝑏 )] = ∑ 𝑎𝑛 𝐹(𝑓)𝑒−𝑗𝑤𝑛𝑇𝑏 = 𝐹(𝑓) ∑ 𝑎𝑛 𝑒−𝑗𝑤𝑛𝑇𝑏


𝑛=−𝑁 𝑛=−𝑁 𝑛=−𝑁

Aplicando la fórmula de la Sx(f)

1 1
𝑆𝑥 (𝑓) = 𝑙𝑖𝑚 𝐸|𝑋𝑇 (𝑓)|2 = 𝑙𝑖𝑚 𝐸[𝑋𝑇 (𝑓)𝑋𝑇 ∗ (𝑓)]
𝑇→∞ 𝑇 𝑇→∞ 𝑇
𝑛=𝑁 𝑚=𝑁 ∗
1
𝑆𝑥 (𝑓) = 𝑙𝑖𝑚 𝐸 [𝐹(𝑓) ∑ 𝑎𝑛 𝑒−𝑗𝑤𝑛𝑇𝑏 𝐹 ∗ (𝑓) ( ∑ 𝑎𝑚 𝑒−𝑗𝑤𝑚𝑇𝑏 ) ]
𝑇→∞ 𝑇
𝑛=−𝑁 𝑚=−𝑁
𝑛=𝑁 𝑚=𝑁 𝑛=𝑁 𝑚=𝑁
1 |𝐹(𝑓)|2
𝑆𝑥 (𝑓) = 𝑙𝑖𝑚 𝐸 [|𝐹(𝑓)|2 ∑ 𝑎𝑛 𝑒−𝑗𝑤𝑛𝑇𝑏 ∑ 𝑎𝑚 𝑒 𝑗𝑤𝑚𝑇𝑏 ] = 𝑙𝑖𝑚 𝐸[ ∑ ∑ 𝑎𝑛 𝑎𝑚 𝑒 𝑗𝑤(𝑚−𝑛)𝑇𝑏 ]
𝑇→∞ 𝑇 𝑇→∞ 𝑇
𝑛=−𝑁 𝑚=−𝑁 𝑛=−𝑁 𝑚=−𝑁
𝑛=𝑁 𝑚=𝑁
1
𝑆𝑥 (𝑓) = |𝐹(𝑓)|2 𝑙𝑖𝑚 [ ∑ ∑ 𝐸(𝑎𝑛 𝑎𝑚 )𝑒 𝑗𝑤(𝑚−𝑛)𝑇𝑏 ]
𝑇→∞ 𝑇
𝑛=−𝑁 𝑚=−𝑁

𝐸(𝑎𝑛 2 ) n=𝑚
𝐸(𝑎𝑛 𝑎𝑚 ) = { }
𝐸(𝑎𝑛 𝑎𝑚 ) = 𝐸( 𝑎𝑛 )𝐸(𝑎𝑚 ) n≠ m
1 1 1 1
𝐸(𝑎𝑛 ) = (+1)2 ( ) + (−1)2 ( ) = 1
2
E( 𝑎𝑛 ) = (+1) ( ) + (−1) ( ) = 0
2 2 2 2
1 n=𝑚
𝐸(𝑎𝑛 𝑎𝑚 ) = { }
0 n≠ m

Reemplazando esto en la ecuación de la Sx(f) se tiene:


𝑛=𝑁
1 2𝑁 + 1 1
𝑆𝑥 (𝑓) = |𝐹(𝑓)|2 𝑙𝑖𝑚 [ ∑ 1] = |𝐹(𝑓)|2 𝑙𝑖𝑚 [ ] = |𝐹(𝑓)|2
𝑇→∞ 𝑇 𝑇→∞ (2𝑁 + 1)𝑇𝑏 𝑇𝑏
𝑛=−𝑁
2
𝑠𝑒𝑛𝜋𝑓𝑇𝑏 1 𝑠𝑒𝑛𝜋𝑓𝑇𝑏 𝑠𝑒𝑛𝜋𝑓𝑇𝑏 2
𝐷𝑎𝑑𝑜 𝐹(𝑓) = 𝑇𝑏 entonces 𝑆𝑥 (𝑓) = (𝑇𝑏 ( )) = 𝑇𝑏 ( )
𝜋𝑓𝑇𝑏 𝑇𝑏 𝜋𝑓𝑇𝑏 𝜋𝑓𝑇𝑏

El gráfico de la densidad de potencia de la señal queda:

0,9

0,8

0,7

0,6
Sx(f)

0,5

0,4

0,3

0,2

0,1 f
0
-4 -3 -2 -1 0 1 2 3 4

ESPOL - Telecomunicaciones
23

RESPUESTA DE LOS SISTEMAS LINEALES PARA SEÑALES ALEATORIAS

Sistemas Continuos en el Tiempo


Considere un sistema en el cual la entrada x(t) es cambiada a una señal de salida Y( t ) mediante la
transformación T, esto es: 𝑦(𝑡) = 𝑇[𝑥(𝑡)]
El sistema es lineal si el principio de superposición aplica:
𝑻[𝒂𝒙𝟏 (𝒕) + 𝒃𝒙𝟐 (𝒕)] = 𝒂𝑻[𝒙𝟏 (𝒕)] + 𝒃𝑻[𝒙𝟐 (𝒕)],
donde x1(t) y x2(t) son señales aleatorias de entrada, y a y b son constantes arbitrarias.
Si el sistema es invariante en el tiempo entonces la respuesta a x(t – t1) es y(t – t1).
Respuesta impulso del sistema 𝒉(𝒕) = 𝑻[𝜹(𝒕)], donde δ(t) es la función delta aplicada a t = 0.
La respuesta del sistema a una entrada arbitraria x(t) es entonces
∞ ∞
𝒚(𝒕) = 𝒉(𝒕) ∗ 𝒙(𝒕) = ∫−∞ 𝒉(𝒔)𝒙(𝒕 − 𝒔)𝒅𝒔 = ∫−∞ 𝒉(𝒕 − 𝒔)𝒙(𝒔)𝒅𝒔
Por lo tanto, un sistema lineal, invariante en el tiempo es completamente especificado por respuesta
impulso. La transformada de Fourier, de la respuesta es su Función de transferencia.

𝐻(𝑓) = 𝐹[ℎ(𝑡)] = ∫−∞ ℎ(𝑡)𝑒 −𝑗2𝜋𝑓𝑡 𝑑𝑡
Un sistema se dice ser causal si h(t) = 0 para t < 0.

Propiedad: Sean X(t) y Y(t) la entrada y salida de un sistema respectivamente.


SY(f)=|𝐻(𝑓)|2 𝑆𝑋 (𝑓) 𝑅𝑌 (𝜏) = ℎ(𝜏) ∗ ℎ(−𝜏) ∗ 𝑅𝑋 (𝜏)

Muchas aplicaciones incluyen el proceso de procesos estocásticos. Por ejemplo, en predicción, interesa predecir valores futuros de una señal
en términos de valores pasados. En filtrado y suavizado, interesa en restituir señales que ha sido afectadas por el ruido. En modulación,
estamos interesados en convertir señales de información de baja frecuencia en señales de transmisión de alta frecuencia. Procesamiento de
señales implica convertir una señal desde una forma a otra. Así un método de procesamiento de señales es simplemente una transformación
o hacer un mapa de un tiempo de función en otra función. Si la entrada a la transformación es un proceso estocástico, entonces, la salida
también será un proceso estocástico.

En esta sección estamos interesados en determinar las propiedades estadísticas del proceso de salida, cuando
la entrada es un proceso estocástico WSS.

Si la entrada a un sistema lineal de tiempo invariante es el proceso estocástico X(t), entonces


la salida del sistema es el proceso estocástico Y(t):
∞ ∞
𝒀(𝒕) = 𝒉(𝒕) ∗ 𝑿(𝒕) = ∫−∞ 𝒉(𝒔)𝑿(𝒕 − 𝒔)𝒅𝒔 = ∫−∞ 𝒉(𝒕 − 𝒔)𝑿(𝒔)𝒅𝒔
Si X(t) es un proceso WSS, entonces Y(t) es también WSS.
∞ ∞
La media de Y(t) es dada por: 𝑬[𝒀(𝒕)] = 𝑬[∫−∞ 𝒉(𝒔)𝑿(𝒕 − 𝒔)𝒅𝒔] = ∫−∞ 𝒉(𝒔)𝑬[𝑿(𝒕 − 𝒔)]𝒅𝒔

𝑚𝑥 = 𝐸[𝑋(𝑡 − 𝜏)] dado que X(t) es WSS, entonces 𝑬[𝒀(𝒕)] = 𝒎𝒚 = 𝒎𝒙 ∫−∞ 𝒉(𝒕)𝒅𝒕 = 𝒎𝒙 𝑯(𝟎)

X(t) Y(t)
h(t)

La autocorrelación está dada por:


∞ ∞
𝑬[𝒀(𝒕)𝒀(𝒕 + 𝝉) = 𝑬[∫ 𝒉(𝒔)𝑿(𝒕 − 𝒔)𝒅𝒔 ∫ 𝒉(𝒓)𝑿(𝒕 + 𝝉 − 𝒓)𝒅𝒓]
−∞ −∞
∞ ∞
𝑹𝒚 (𝒕, 𝒕 + 𝝉) = ∫−∞ ∫−∞ 𝒉(𝒔)𝒉(𝒓)𝑬[𝑿(𝒕 − 𝒔)𝑿(𝒕 + 𝝉 − 𝒓)𝒅𝒔𝒅𝒓
∞ ∞
𝑹𝒚 (𝒕, 𝒕 + 𝝉) = ∫−∞ ∫−∞ 𝒉(𝒔)𝒉(𝒓)𝑹𝒙 (𝝉 − 𝒓 + 𝒔)𝒅𝒔𝒅𝒓 (x(t) es WSS)

ESPOL - Telecomunicaciones
24

La expresión del lado derecho de la ecuación depende solo de ζ. Por tanto, la autocorrelación de
Y(t) depende solo de ζ por lo que Y(t) es WSS
La densidad espectral de potencia a la salida de un sistema lineal e invariante en el tiempo se lo
calcula como sigue:
∞ ∞ ∞ ∞
𝑺𝒚 (𝒇) = 𝑭[𝑹𝒚 (𝝉)] = ∫ 𝑹𝒚 (𝝉)𝒆−𝒋𝟐𝝅𝒇𝒕 𝒅𝝉 = ∫ ∫ ∫ 𝒉(𝒔)𝒉(𝒓)𝑹𝒙 (𝒖)𝒆−𝒋𝟐𝝅𝒇(𝒖−𝒔+𝒓) 𝒅𝒔𝒅𝒓𝒅𝒖
−∞ −∞ −∞ −∞
∞ ∞ ∞
−𝒋𝟐𝝅𝒇𝒔 −𝒋𝟐𝝅𝒇𝒓
𝑺𝒚 (𝒇) = ∫ 𝒉(𝒔)𝒆 𝒅𝒔 ∫ 𝒉(𝒓)𝒆 𝒅𝒓 ∫ 𝑹𝒙 (𝒖)𝒆−𝒋𝟐𝝅𝒇𝒖 𝒅𝒖
−∞ −∞ −∞
𝑺𝒚 (𝒇) = 𝑯∗ (𝒇)𝑯(𝒇)𝑺𝒙 (𝒇) = |𝑯(𝒇)|𝟐 𝑺𝒙 (𝒇)

La media y la autocovarianza de Y(t), en general no son suficientes para determinar probabilidades


de eventos con Y(t). Sin embargo, si la entrada del proceso es un proceso estocástico Gaussiano
WSS, la media y la función de autocorrelación si son suficientes para determinar todas las funciones
de distribución de probabilidad del proceso estocástico Gaussiano Y(t).
La correlación cruzada entre la entrada y la salida del proceso es también de interés:
∞ ∞
𝑅𝑌,𝑋 (𝜏) = 𝐸[𝑌(𝑡 + 𝜏)𝑋(𝑡)] = 𝐸 [𝑋(𝑡) ∫ 𝑋(𝑡 + 𝜏 − 𝑟)ℎ(𝑟)𝑑𝑟 ] = ∫ 𝐸[𝑋(𝑡)𝑋(𝑡 + 𝜏 − 𝑟)]ℎ(𝑟)𝑑𝑟
−∞ −∞

𝑅𝑌,𝑋 (𝜏) = ∫ 𝑅𝑥 (𝜏 − 𝑟)ℎ(𝑟)𝑑𝑟 = 𝑅𝑥 (𝜏) ∗ ℎ(𝜏)
−∞

La densidad espectral de potencia cruzada (cross spectral power): 𝑆𝑌,𝑋 (𝑓 ) = 𝐻(𝑓)𝑆𝑥 (𝑓)
Sabiendo que 𝑅𝑋,𝑌 (𝜏) = 𝑅𝑌,𝑋 (−𝜏 ), entonces
∗ (𝑓)
𝑆𝑋,𝑌 (𝑓 ) = 𝑆𝑌,𝑋 (𝑓)𝐻(𝑓) y 𝑆𝑋,𝑌 (𝑓 ) = 𝑆𝑌,𝑋 = 𝐻 ∗ (𝑓)𝑆𝑥 (𝑓)

6.7 Tiempo Promedio De un Proceso Estocástico y Teoremas Ergódicos


En algunos casos, los parámetros de un proceso estocástico deben ser obtenidos a través de
muestras. Resultados anteriores sugieren que se repita el experimento aleatorio muchas veces para
poder obtener la media aritmética de las cantidades de interés. Por ejemplo, para estimar la media
𝑚𝑥 (𝑡) de un Proceso Estocástico 𝑋(𝑡, 𝜁), se repite el experimento y se toma el siguiente promedio
1
̂ 𝑋 (𝑡) = 𝑁 ∑𝑁
𝑚 𝑖=1 𝑋(𝑡, 𝜁𝑖 ) (6.91)

Donde N es el número de repeticiones del experimento, y 𝑋(𝑡, 𝜁𝑖 ) es la observación de i-esima


repetición. En algunas situaciones, es de interés la estimación de la media o la función de
autocorrelación a partir del tiempo promedio de una sola realización, esto es,
1 𝑇
⟨𝑋(𝑡)⟩ 𝑇 = ∫−𝑇 𝑋(𝑡, 𝜁)𝑑𝑡 (6.92)
2𝑇
Un Teorema Ergódico establece las condiciones bajo las cuales un promedio de tiempo converge
a medida que el intervalo de observación se hace largo. Es de interés los teoremas Ergódicos que
indican cuándo los promedios del tiempo convergen a los promedios estadísticos (valor esperado).
La Ley Fuerte de Los Números Grandes es uno de los más importantes Teoremas Ergódicos. Indica
que si Xn es un Proceso Estocástico iid Discreto en el Tiempo con una media 𝐸[𝑋𝑛 ] = 𝑚, entonces
el promedio de tiempo de las muestras converge al promedio estadístico con una probabilidad uno
1
𝑃 [𝑙𝑖𝑚 ∑𝑛𝑖=1 𝑋𝑖 = 𝑚] = 1. (6.93)
𝑛→∞ 𝑛

Este resultado permite estimar m tomando el tiempo promedio de una sola realización de un proceso.

ESPOL - Telecomunicaciones
25

Ejemplo 6.42. Sea X(t)=A para todo t, donde A es una variable aleatoria con valor esperado (media)
de cero y varianza unitaria. Encuentre el valor límite del valor promedio de tiempo.

1 𝑇
𝑚𝑥 (𝑡) = 𝐸[𝑋(𝑡)] = 𝐸[𝐴] = 0 ⟨𝑋(𝑡)⟩ 𝑇 = ∫−𝑇 𝑋(𝑡, 𝜁)𝑑𝑡
2𝑇
𝑚𝑥 (𝑡) ≠ ⟨𝑋(𝑡)⟩ 𝑇 el proceso no es ergodico, pero estacionario

Teorema: Sea X(t) un proceso WSS con mx(t)=m, entonces 𝑙𝑖𝑚 〈𝑋(𝑡)〉 𝑇 = 𝑚 en el sentido medio
𝑇→∞
1 2𝑇 |𝑢|
cuadrático si y solamente si: lim ∫−2𝑇 (1 − 2𝑇 ) 𝐶𝑥 (𝑢)𝑑𝑡
𝑇→∞ 2𝑇

El teorema anterior puede ser usado para obtener teoremas ergodicos para promedios de tiempo de
otras cantidades. Si reemplazamos X(t) por Y(t)Y(t+ 𝜁 ) se obtiene el estimado del promedio de tiempo
de la función de autocorrelación del proceso Y(t).
𝑇
1
⟨𝑌(𝑡 + 𝜁)𝑌(𝑡)⟩ 𝑇 = ∫ 𝑌(𝑡 + 𝜁)𝑌(𝑡)
2𝑇
−𝑇
Se puede demostrar que: 𝐸 [⟨𝑌(𝑡 + 𝜁)𝑌(𝑡)⟩𝑇 ] = 𝑅𝑌 (𝜏) si Y(t) es WSS

Ejemplo 4.3. ¿Es el proceso telegráfico aleatorio medio ergodico?

2 2𝑇 𝑢 1 2𝑇 1−𝑒 −4∝𝑇
𝐶𝑥 (𝜏) = 𝑒 −2∝|𝜏| 𝑉𝐴𝑅[〈𝑋(𝑡)〉 𝑇 ] = 2𝑇 ∫0 (1 − 2𝑇) 𝑒 −2∝𝑢 𝑑𝑢 < 𝑇 ∫0 𝑒 −2∝𝑢 𝑑𝑢 = 2∝𝑇

El límite se aproxima a cero a medida que T→ꝏ de tal manera que 𝑉𝐴𝑅[〈𝑋(𝑡)〉 𝑇 ] = 0. En
consecuencia, el proceso telegráfico aleatorio es medio ergodico.

Ejemplo: La señal x(t) = Ao cos wot + n(t) se aplica a una red lineal que se muestra en la figura.
Asuma que n(t) es ruido blanco gausiano con densidad espectral S n(f)=No/2. Encuentre la relación
S/N a la entrada y a la salida de la red. Asuma que fo<B.
H(f)
1
X(f) Y(f)
f H(f)
-B B
𝑨𝒐 𝟐
𝑨𝒐 𝟐 ∞ 𝑵 𝑷𝒔𝒊
𝑷𝒔𝒊 = 𝑷𝒏𝒊 = ∞ = ∫−∞ 𝟐𝒐 𝒅𝒇 (𝑺/𝑵)𝒊 = 𝑷 = 𝟐
=𝟎
𝟐 𝒏𝒊 ∞

Puesto que B>fo entonces x(t) = Ao cos2fot pasa por el filtro sin atenuación.

f
-B -fo fo B

En cambio, el ruido blanco pasa por el filtro se atenúa en la forma del filtro. Por tanto:

𝑨𝒐 𝟐 𝑩
𝑵𝒐 𝑵𝒐 𝑷𝒔𝒐 𝑨𝒐 𝟐 /𝟐 𝑨𝒐 𝟐
𝑷𝒔𝒐 = 𝑷𝒏𝒐 = ∫ 𝒅𝒇 = ( ) (𝟐𝑩) = 𝑵𝒐𝑩 (𝑺/𝑵)𝒐 = = =
𝟐 −𝑩 𝟐 𝟐 𝑷𝒏𝒐 𝑵𝒐𝑩 𝟐𝑵𝒐𝑩

ESPOL - Telecomunicaciones
26

Ejemplo 7.9: Encontrar la densidad espectral de potencia de la salida de un sistema lineal


invariante en el tiempo en la que la entrada es un proceso ruido blanco.

X(t) es la entrada con densidad espectral de potencia Sx(f) = No/2 para todo f
La densidad espectral de potencia de la salida entonces es: Sy(f) = │H(f)│2 No/2

Ejemplo 7.10: Encontrar la respuesta impulso de un filtro casual que puede ser usado para generar
un Procesos estocástico Gaussiano con salida de densidad espectral de potencia y una función de
autocorrelación:
𝜎2 1 1 2 𝜎 2 −𝛼|𝜏|
𝑆𝑦 (𝑓) = 2 2 2 = 𝜎 y 𝑅 𝑦 (𝜏) = 𝑒
𝛼 +4𝜋 𝑓 (𝛼+𝑗2𝜋𝑓) (𝛼+𝑗2𝜋𝑓) 2𝛼
1
Si 𝐻(𝑓) = (𝛼+𝑗2𝜋𝑓) entonces la respuesta impulso es: ℎ(𝑡) = 𝑒 −𝛼𝑡 para t>0

¿Cuál es la respuesta de un sistema causal? Si se filtra ruido blanco Gaussiano con densidad
espectral de potencia s2 usando el filtro anterior, se obtiene un proceso con la densidad espectral de
potencia deseada.

Ejemplo 7.11. Z(t) = X(t) + Y(t) donde X(t) y Y(t) son procesos estocásticos independientes con
densidad espectral de potencia indicada en la figura 7.6a. Encontrar la salida si Z(t) es la entrada
de un filtro pasa bajo (figura 7.6b). Encontrar la salida si Z(t) es la entrada de un filtro ideal pasa
banda (figura 7.6c).

La densidad espectral de potencia de la salida W(t) del filtro pasa bajo es:
Sw(f) = │Hlp(f)│2 Sx(f) + │Hlp(f)│2 Sy(f) = Sx(f)
Dado que │Hlp(f)│ = 1 para frecuencias donde Sx(f) no es cero y │Hlp(f)│ = 0 donde Sy(f) no es cero.
W(t) es igual a la densidad espectral de potencia como X(t). Esto no implica que W(t) = X(t).
Para demostrar que W(t) = X(t) en el sentido cuadrático medio, considere D(t) = W(t) – X(t).
Fácilmente se demuestra que: Rd(t) = Rw(t) – Rwx(f) – Rxw(t) + Rx(t).
La correspondiente densidad espectral de potencia es:
Sd(f) = Sw(f) – Swx(f) – Rwx(f) – Sx(f) = │Hlp(f)│2 Sx(f) - │Hlp(f)│2 Sx(f) – Hlp*(f) Sx(f)+Sx(f) = 0
Por lo tanto, Rd(t)= 0 para todo t, y W(t) = X(t) en el sentido de media cuadrática dado que:
𝐸[(𝑊(𝑡) − 𝑋(𝑡))2 ] = 𝐸[𝐷2 (𝑡)] = 𝑅𝑑 (0) = 0
Se demuestra que el filtro pasa bajo remueve Y(t) y pasa X(t). Similarmente, el filtro pasa banda
elimina X(t) y pasa Y(t).

ESPOL - Telecomunicaciones
27

Problema 7.17:
𝑑
X(t) es un proceso estocástico WSS definido por 𝑦(𝑡) = 𝑥(𝑡). Encontrar Sy(f) y Ry(ζ).
𝑑𝑡
Para este sistema: 𝐻(𝑓) = j2𝜋𝑓

𝑆𝑦(𝑓) = −𝑗2𝜋𝑓𝐻(𝑓)𝑆𝑥(𝑓)) = −𝑗2𝜋𝑓𝐻(𝑗2𝜋𝑓)𝑆𝑥(𝑓) = 4𝜋 2 𝑓 2 𝑆𝑥(𝑓)


𝑑 𝑑 𝑑2 𝑑2 𝑑2
𝑅𝑦(𝜏) = 𝐸 [ 𝑥(𝑡) − 𝑥(𝑡 + 𝜏)] = 𝐸 [ 2 𝑥(𝑡)𝑥(𝑡 + 𝜏)] = 2 𝐸[𝑥(𝑡)𝑥(𝑡 + 𝜏)] = 2 𝑅𝑥(𝜏)
𝑑𝑡 𝑑𝑡 𝑑𝑡 𝑑𝑡 𝑑𝑡

Ejercicio: Sea X(t) = cos(wt+𝜃), donde 𝜃 es uniformemente distribuida en el intervalo (-𝜋, 𝜋).
Encuentre la media de X(t), autocorrelación, autocovarianza y la densidad espectral de potencia.
1 𝜋
𝑚𝑥 (𝑡) = 𝐸[𝑐𝑜𝑠( 𝑤𝑡 + 𝜃)] = ∫ 𝑐𝑜𝑠( 𝑤𝑡 + 𝜃) 𝑑𝜃 = 0
2𝜋 −𝜋
𝐶𝑥 (𝑡1 , 𝑡2 ) = 𝑅𝑥 (𝑡1 , 𝑡2 ) = 𝐸[𝑐𝑜𝑠( 𝑤𝑡1 + 𝜃) 𝑐𝑜𝑠( 𝑤𝑡2 + 𝜃)]
1 1 1
𝐶𝑥 (𝑡1 , 𝑡2 ) = ∫ [cos(𝑤(𝑡1 − 𝑡2 )) + cos(𝑤(𝑡1 + 𝑡2 )) + 2𝜃]𝑑𝜃 = cos (𝑤(𝑡1 − 𝑡2 ))
2𝜋 2 2
1 1 1
𝑆𝑥 (𝑓) = 𝐹(𝑐𝑜𝑠 2 𝜋𝑓0 𝜏) = 𝛿(𝑓 − 𝑓0 ) + 𝛿(𝑓 + 𝑓0 )
2 4 4

Ejercicio: Encuentre la Densidad Espectral de Potencia de Z(t) = X(t) + Y(t) donde X(t) y Y(t) son
procesos WSS.
𝑅𝑧 (𝜏) = 𝐸[𝑍(𝑡 + 𝜏)𝑍(𝑡)] = 𝐸[(𝑋(𝑡 + 𝜏) + 𝑌(𝑡 + 𝜏))(𝑋(𝑡) + 𝑌(𝑡))]
𝑅𝑧 (𝜏) = 𝑅𝑋 (𝜏) + 𝑅𝑋𝑌 (𝜏) + 𝑅𝑌𝑋 (𝜏) + 𝑅𝑌 (𝜏)
𝑆𝑍 (𝑓) = 𝐹{𝑅𝑋 (𝜏) + 𝑅𝑋𝑌 (𝜏) + 𝑅𝑌𝑋 (𝜏) + 𝑅𝑌 (𝜏)} = 𝑆𝑥 (𝑓) + 𝑆𝑋𝑌 (𝑓) + 𝑆𝑌𝑋 (𝑓) + 𝑆𝑌 (𝑓)

Problema: Encuentre la Densidad Espectral de Potencia del siguiente proceso, Y(t)=2+3X(t-1)


Sabiendo que E[X(t)]=0 y Rx(𝜏)
𝑚𝑥 (𝑡) = 𝐸[𝑋(𝑡)] = 𝐸[2 + 3𝑋(𝑡 − 1)] = 2 + 3𝐸[𝑋(𝑡 − 1)] = 2
𝑅𝑋 (𝑡, 𝑡 + 𝜏) = 𝐸{[2 + 3𝑋(𝑡 − 1)][2 + 3𝑋(𝑡 + 𝜏 − 1)]} = 𝐸[(2 + 3𝑋𝑡 − 3𝑋)(2 + 3𝑋𝑡 + 3𝑋𝜏 − 3𝑋)]
𝑅𝑋 (𝑡, 𝑡 + 𝜏) = 𝐸[4 + 6𝑋(𝑡 + 𝜏 − 1) + 6𝑋(𝑡 − 1) + 9𝑋 2 (𝑡 − 1)(𝑡 + 𝜏 − 1)] = 4 + 9𝑅𝑋 (𝜏)
𝑆𝑋 (𝑓) = 𝐹(𝑅𝑌 (𝜏)) = 4𝛿(𝑓) + 9𝑆𝑋 (𝑓)

Ejemplo 7.6: El proceso Xn es una secuencia de variables aleatorias no correlacionadas con media
igual a cero y varianza σx2. Encontrar Sx(f).
𝜎2 𝜏=0
La función de autocorrelación del proceso es: 𝑅𝑥 (𝜏) = { 𝑥 }
0 𝐷𝑒 𝑜𝑡𝑟𝑜 𝑚𝑜𝑑𝑜
2 1 1
La densidad espectral de potencia 𝑆𝑥 (𝑓) = 𝜎𝑥 − < 𝑓 < 2 2

Ejemplo 7.7: El proceso Yn está definido por: Yn = Xn + αXn-1, donde Xn es el ruido blanco del proceso
del ejemplo 7.6. Encontrar Sy(f).
La media y autocorrelación de Yn está dada por E[Yn] = 0, y

(1 + 𝛼 2 )𝜎𝑥2 𝜏=0
𝐸[𝑌𝑛 𝑌𝑛+1 ] = { 𝛼 2 𝜎𝑥2 𝜏 = ±1 }
0 𝐷𝑒 𝑜𝑡𝑟𝑜 𝑚𝑜𝑑𝑜

Entonces la Sy(f) = (1 + α2) σx2 + α σx2 {ej2πf + e-j2πf} = σx2{(1 + α2) + 2 α cos 2πf}

Ejercicio 7.8: 𝑦(𝑡) = 𝑥(𝑡) − 𝑥(𝑡 − 𝑑), Encontrar: (a) Rx,y(t) y Sx,y(t)
Solución:
𝑅𝑥𝑦 (𝜏) = 𝐸[𝑥(𝑡)[𝑥(𝑡 + 𝜏) − 𝑥(𝑡 − 𝑑 + 𝜏)]]
𝑅𝑥𝑦 (𝜏) = 𝐸[𝑥(𝑡)𝑥(𝑡 + 𝜏) − 𝑥(𝑡 − 𝑑 + 𝜏)𝑥(𝑡)] = 𝑅𝑥 (𝜏) − 𝑅𝑥 (𝜏 + 𝑑)

ESPOL - Telecomunicaciones
28

(b) Ry(t) y Sy(t)


𝑅𝑦 (𝑧) = 𝐸[[𝑥(𝑡) − 𝑥(𝑡 − 𝑑)][𝑥(𝑡 − 𝜏) − 𝑥(𝑡 − 𝑑 + 𝜏)]]
𝑅𝑦 (𝑧) = 𝐸[𝑥(𝑡)𝑥(𝑡 + 𝜏) − 𝑥(𝑡)𝑥(𝑡 − 𝑑 + 𝜏) − 𝑥(𝑡 − 𝑑)𝑥(𝑡 + 𝜏)] = 2𝑅𝑥(𝜏) − 𝑅𝑥(𝜏 + 𝑑) − 𝑅𝑥(𝜏 − 𝑑)
𝑆𝑦 (𝜏) = 2𝑆𝑥 (𝑓) − 𝑆𝑥 (𝑓)𝑒 𝑗2𝜋𝑓𝑑 − 𝑆𝑥 (𝑓)𝑒 −𝑗2𝜋𝑓𝑑 = 2𝑆𝑥 (𝑓)(𝑓)[1 − 𝑐𝑜𝑠 2 𝜋𝑓𝑑]

Ejemplo 7.9:
Asuma Zn = Xn + Yn, donde Xn es la señal que deseamos observar, Yn es un proceso ruido blanco
con potencia σx2, Xn y Yn son procesos estocásticos independientes. Suponga adicionalmente que
Xn = A para todo n, donde A es una variable aleatoria con media cero y varianza σ x2. Así Zn
representa una secuencia de un sistema ruidoso de la variable aleatoria A. Encontrar la densidad
espectral de potencia de Zn.

La media y autocorrelación de Zn son: E[Zn] = E[A] + E[Yn] = 0, y

E[Zn, Zn+1] = E[[Xn,Yn] [Xn+k,Yn+k]] = E[[XnXn+k]+E[Xn]E[Yn+k] + E[Xn+k]E[Yn] + E[YnYn+1] = = E[A2] + Ry(k)

Zn es además un proceso estocástico WSS. Entonces la densidad espectral de potencia de Zn es

Sz(f) = E[A2]δ(f) + Sy(f)

Modulación de la Amplitud por señales aleatorias.

Sea 𝐴(𝑡) un proceso estocástico estacionario en el sentido amplio (WWS) que representa a una
señal de información. En general 𝐴(𝑡) es una señal “pasabajo”, esto es que su densidad espectral
de potencia se concentra en el rango [0, w], como se muestra en la figura (izquierda):
SA( f )
SA( f )

f f
-W W
− fc fc

Un sistema de modulación de amplitud (AM) produce la señal de transmisión siguiente:


𝑋(𝑡) = 𝐴(𝑡) 𝑐𝑜𝑠(2𝜋𝑓𝑐 𝑡 + 𝛩) (Ec 1.)
Se asume que 𝛩 es una variable aleatoria uniformemente distribuida en el intervalo (0,2𝜋), y 𝛩 y 𝐴(𝑡)
son independientes. Se asume también que 𝐸(𝐴(𝑡)) = 0 por tanto 𝐸[𝑋(𝑡)] = 0.
La autocorrelación de 𝑋(𝑡) es:
𝐸[𝑋(𝑡)𝑋(𝑡 + 𝜏)] = 𝐸[𝐴(𝑡 + 𝜏) 𝑐𝑜𝑠(2𝜋𝑓𝑐 (𝑡 + 𝜏) + 𝛩) 𝐴(𝑡) 𝑐𝑜𝑠(2𝜋𝑓𝑐 𝑡 + 𝛩)]
𝐸[𝑋(𝑡)𝑋(𝑡 + 𝜏)] = 𝐸[𝐴(𝑡 + 𝜏)𝐴(𝑡)]𝐸[𝑐𝑜𝑠(2𝜋𝑓𝑐 (𝑡 + 𝜏) + 𝛩) 𝑐𝑜𝑠(2𝜋𝑓𝑐 𝑡 + 𝛩)]
1 1 1
𝐸[𝑋(𝑡)𝑋(𝑡 + 𝜏)] = 𝑅𝐴 (𝜏)𝐸 [ 𝑐𝑜𝑠(2𝜋𝑓𝑐 (2𝑡 + 𝜏) + 2𝛩) + 𝑐𝑜𝑠(2𝜋𝑓𝑐 𝜏)] = 𝑅𝐴 (𝜏) 𝑐𝑜𝑠(2𝜋𝑓𝑐 𝜏) WSS
2 2 2
1 1 1
𝑆𝑥 (𝑓) = 𝐹 { 𝑅𝐴 (𝜏) 𝑐𝑜𝑠(2𝜋𝑓𝑐 𝜏)} = 𝑆𝐴 (𝑓 + 𝑓𝑐 ) + 𝑆𝐴 (𝑓 − 𝑓𝑐 )
2 4 4

La señal de transmisión es demodulada multiplicándola por la señal portadora (demodulación


coherente) y pasandola por un filtro pasabajos como se muestra en la siguiente figura.

ESPOL - Telecomunicaciones
29

X(t) Y(t)
LPF

2 cos(2f ct + )

Sea 𝑌(𝑡) = 𝑋(𝑡)2 𝑐𝑜𝑠(2𝜋𝑓𝑐 𝑡 + 𝛩), resolviendo como lo anterior tenemos:


1 1 1 1
𝑆𝑌 (𝑓) = 𝑆𝑋 (𝑓 + 𝑓𝑐 ) + 𝑆𝐴 (𝑓 − 𝑓𝑐 ) = {𝑆𝐴 (𝑓 + 2𝑓𝑐 ) + 𝑆𝐴 (𝑓)} + {𝑆𝐴 (𝑓) + 𝑆𝐴 (𝑓 − 2𝑓𝑐 )}
2 2 2 2
El filtro pasa-bajo ideal deja pasar 𝑆𝐴 (𝑓) y bloquea 𝑆𝐴 (𝑓 ± 2𝑓𝑐 ), tal que la salida del filtro tiene
densidad espectral de potencia 𝑆𝑌 (𝑓) = 𝑆𝐴 (𝑓), que es la señal de interés.

Problema: Dada la figura, asuma que el proceso estocástico: X(t) = Ag(t), donde A es una variable
aleatoria que toma los valores -1 y 1 con igual probabilidad. Determine:
g(t)
1
t

1 2
a) La función (pmf) probabilidad de masa de X(t)
b) E[X(t)]
c) Determine la pmf conjunta de X(t) y X(t+τ)

Ejercicio: Asuma un proceso estocástico estacionario en el sentido amplio X(t), con función de
Autocorrelación
R x (ζ) = 16 + e(−|ζ|) , ζƐR

y Y(t)= 2 + X(t) cos(12πt)

a) Calcule la potencia promedio de X(t)


b) Determine la Densidad espectral de potencia de Y(t)

ESPOL - Telecomunicaciones

También podría gustarte