Está en la página 1de 15

INTRODUCCIÓN

Ninguna señal que se transmita, se reciba o se manipule se puede


considerar como pura o absoluta, estás poseen algún grado de aleatoriedad
debido a la distorsión presente en todos los sistemas por los elementos que lo
componen y el ruido natural que está presente en cualquier entorno. Esta
aleatoriedad es imposible de evitar, pues forman parte de la existencia misma,
pero existen herramientas con base en la teoría de probabilidades que permiten la
estimación de estos fenómenos, debido a que son de carácter aleatorio con la
finalidad de lograr diseñar técnicas que mitiguen los indeseables efectos de la
distorsión y el ruido.

A lo largo del curso se han estado desarrollando los fundamentos y


herramientas pertinentes para la comprensión de lo que un proceso estocástico en
el ámbito de señales representa (Una variable aleatoria que toma sus valores en
función del tiempo por lo que se obtiene un conjunto de estados de la variable y el
conjunto temporal), se han estudiado conceptos que van desde la media hasta el
coeficiente de correlación, todos estos necesarios para el análisis del ruido
blanco, tanto en sentido amplio como estricto. Aun así este fenómeno se hace
independiente del tiempo, así que ahora expondremos la Estacionariedad, que
está ligada a las variaciones estadísticas de un proceso a lo largo del tiempo, la
Ergodicidad que es la caracterización estadística de un proceso estocástico y la
Densidad Espectral de Potencia, que modela mediante una única función
espectral una especie de promedio al comportamiento de las distintas funciones
de un determinado proceso estocástico en base a los sistemas lineales y la
transformada de Fourier.
1. DEFINICIÓN DE PROCESOS ESTACIONARIOS

Un proceso estocástico se dice que es estacionario si todas sus propiedades


estadísticas no cambian con el tiempo. La variable aleatoria tendrá sus
propiedades estadísticas (Valor Medio, Varianza, entre otros.), relacionadas a su
función de densidad.

Para N variables aleatorias tendrán sus propiedades estadísticas relacionadas


con su función de densidad conjunta N-dimensional.

2. TIPOS DE ESTACIONARIDAD

Existen dos tipos de estacionaridad distinguiéndose como estacionaridad en


sentido estricto y en sentido amplio.

2.1. Sentido estricto

Un proceso estocástico X(t) es estacionario en sentido estricto si su función de


densidad de orden N permanece constante cuando transcurre cualquier intervalo
de tiempo.

𝑓𝑋 (𝑥1 , 𝑥2 , … , 𝑥𝑁 ; 𝑡1 , 𝑡2 , … , 𝑡𝑁 ) = 𝑓𝑋 (𝑥1 , 𝑥2 , … , 𝑥𝑁 ; 𝑡1 + 𝑐, 𝑡2 + 𝑐, … 𝑡𝑁 + 𝑐) ∀𝑐

Un proceso estacionario para todos los órdenes N=1,2,.., se dice que es


estacionario en sentido estricto.

2.2. Sentido débil o amplio

Un proceso estocástico X(t) es estacionario en sentido amplio o débil es


aquella que cumple con las siguientes condiciones:

 𝜂𝑥(𝑡) = 𝐸[𝑋(𝑡)] = 𝜂𝑥 = 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒.


 𝑅𝑋 (𝑡1 , 𝑡2 ) = 𝑅𝑋 (𝑡1 − 𝑡2 ) = 𝑅𝑋 (𝜏) = 𝐸[𝑋(𝑡 + 𝜏)𝑋(𝑡)]

En Discreto:

 𝜂𝑥[𝑛] = 𝐸[𝑋[𝑛]] = 𝜂𝑥 = 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒.


 𝑅𝑋 [𝑛1 , 𝑛2 ] = 𝑅𝑋 [𝑛1 − 𝑛2 ] = 𝑅𝑋 [𝑚] = 𝐸[𝑋[𝑛 + 𝑚]𝑋[𝑛]]

Reflejando que la media no varía con el tiempo y la correlación es función de la


separación temporal de las variables.

2.2.1. Propiedades

 La potencia 𝐸[𝑋(𝑡)2 ] no depende de t, debido a que 𝐸[𝑋(𝑡)2 ] = 𝑅𝑋 (0)


 𝑅𝑋 (𝜏) = 𝑅𝑋 (−𝜏)
3. ESTACIONARIEDAD CONJUNTA

Se define como dos variables aleatorias que se obtienen a partir del proceso
para dos instantes de tiempo, tendrán propiedades estadísticas relacionadas con
su función de densidad conjunta.

Los procesos estocásticos X(t), Y(t) son conjuntamente estacionarios en


sentido amplio si:

 X(t), Y(t) son estacionarios en sentido amplio por separado.


 𝑅𝑋𝑌 (𝑡 + 𝜏, 𝑡) = 𝐸[𝑋(𝑡 + 𝜏)𝑌(𝑡)] = 𝑅𝑋𝑌 (𝜏)

3.1. Propiedades
 𝑅𝑿 (𝜏) = 𝑅𝑋 (−𝜏) ∀𝜏
 |𝑅𝑋 (𝜏)| ≤ 𝑅𝑋 (0) ∀𝜏
 𝑅𝑋𝑌 (𝜏) = 𝑅𝑌𝑋 (−𝜏) ∀𝜏
 |𝑅𝑋𝑌 (𝜏)| ≤ √𝑅𝑋 (0)𝑅𝑌 (0) ∀𝜏
 Para 𝑍(𝑡) = 𝑋(𝑡) + 𝑌(𝑡)
𝑅𝑍 (𝜏) = 𝐸[𝑍(𝑡 + 𝜏)𝑍(𝑡)] = 𝐸[(𝑋(𝑡 + 𝜏) + 𝑌(𝑡 + 𝜏))(𝑋(𝑡) + 𝑌(𝑡))]
𝑅𝑍 (𝜏) = 𝑅𝑋 (𝜏) + 𝑅𝑌 (𝜏) + 𝑅𝑋𝑌 (𝜏) + 𝑅𝑌𝑋 (𝜏)

Ejemplo:

Demostrar que el siguiente tono de fase aleatoria:

𝑋(𝑡) = 𝐴𝑐𝑜𝑠(𝜔0 𝑡 + 𝜃)

Es estacionario en sentido amplio si suponemos que A y 𝜔0 son constantes y


𝜃 es variable aleatoria uniformemente distribuida en el intervalo [-π,π].

SOLUCIÓN

 Función de densidad:

1
𝑓𝑋 (𝑥, 𝑡) = 𝑓𝑋 (𝑥) =
𝜋√𝐴2 − 𝑥 2
|𝑥| ≤ 1 Estacionario de orden 1

 Media:
𝜋
1
𝜂𝑥(𝑡) = 𝐸[𝐴𝑐𝑜𝑠(𝜔0 𝑡 + 𝜃)] = 𝐴 ∫ 𝑐𝑜𝑠(𝜔0 𝑡 + 𝜃) 𝑑𝜃 = 0 = 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒
2𝜋
−𝜋
 La función de correlación a partir de 𝑅𝑋 (𝑡1 , 𝑡2 ) = 𝐸[𝑋(𝑡1 )𝑋(𝑡2 )], se tiene:

𝑅𝑋 (𝑡1 , 𝑡2 ) = 𝐸[𝐴𝑐𝑜𝑠(𝜔0 𝑡1 + 𝜃)𝐴𝑐𝑜𝑠(𝜔0 𝑡2 + 𝜃)]

𝐴2
= {𝐸[cos(𝜔0 (𝑡1 + 𝑡2 ) + 2𝜃)] + 𝐸[cos(𝜔0 (𝑡1 − 𝑡2 ))]}
2
Como 𝐸[cos(𝜔0 (𝑡1 + 𝑡2 ) + 2𝜃)] = 0 entonces:

𝐴2
= cos(𝜔0 (𝑡1 − 𝑡2 ))
2
𝐴2
𝑅𝑋 (𝜏) = cos(𝜔0 𝜏)
2
Por tanto, la función de correlación depende sólo de 𝜏 y el valor medio es una
constante, por lo que X(t) es un proceso estacionario en sentido amplio.

4. CONCEPTO DE ERGODICIDAD DE UN PROCESO ESTOCÁSTICO

Un proceso estocástico 𝑥(𝑡) se dice que es un proceso ergódico si el tiempo


promedio de un simple registro es aproximadamente igual al promedio de
ensemble. Definido de la siguiente manera:
1 n
 n  x(t i ) para un proceso de tiempo discreto.
 i 1
E[ x(t )]   T
 1 x(t )dt para un proceso de tiempo continuo.
T 0

En general, se dice que un proceso 𝑥(𝑡) es ergódico si todos sus parámetros


estadísticos se pueden determinar con una única realización del proceso 𝑥(𝑡; 𝐸𝑖).
Esto implica que los diversos parámetros estadísticos se pueden expresar como
medias temporales. Adicionalmente, se puede definir que un proceso es ergódico
si las medias temporales coinciden con las medias estadísticas.

Supongamos que disponemos de un proceso estacionario en sentido amplio,


entonces:

𝐸{𝐴[𝑥(𝑡)]} = 𝜇

𝐸[ℛ𝑥𝑥(𝜏)] = 𝑅𝑥𝑥(𝜏)

Un proceso estocástico es ergódico cuando 𝐴[𝑥(𝑡)] y ℛxx(𝜏) son constantes


para cualquier realización 𝑥(𝑡) del proceso. En consecuencia:
𝐴[𝑥(𝑡)] = 𝜇

ℛ𝑥𝑥(𝜏) = 𝑅𝑥𝑥(𝜏)

La ergodicidad es una propiedad muy difícil de comprobar en la práctica.


Primero, requerimos de un proceso estacionario en sentido amplio y después, hay
que asumir que una realización del proceso es un representante adecuado del
proceso global, es decir, cualquier otra realización generaría resultados del tipo
promedio temporal iguales.

Se debe tener en cuenta que un proceso ergódico debe ser estrictamente


estacionario, sin embargo un proceso estacionario no tiene por qué ser ergódico.
Además la ergodicidad implica que una sola función muestral es representativa
para caracterizar todo el proceso aleatorio.

4.1. Media temporal

La media temporal o valor medio en el tiempo, que a su vez se denomina


promedio temporal de un proceso estocástico, se define de la siguiente manera:
𝑇
1
𝐴[𝑥(𝑡)] = lim ∫ 𝑥(𝑡)𝑑𝑡 = lim 𝜇 𝑇
𝑇→∞ 2𝑇 𝑇→∞
−𝑇

El promedio temporal se calcula para todo instante de tiempo ya que, en lo que


se refiere a los procesos aleatorios, se presupone que las funciones muéstrales de
los procesos estocásticos existen en todo instante de tiempo.

4.2. Autocorrelación temporal

Primeramente se debe concretar que la función de autocorrelación da mucha


información sobre la serie en estudio. En general, trataremos de trabajar con
series estacionarias en media y, si es el caso, en términos de desviaciones, es
decir, con media igual a cero. La función de autocorrelación tiene las siguientes
propiedades:

 |𝑅𝑥𝑥(𝜏)| ≤ 𝑅𝑥𝑥(0).
 𝑅𝑥𝑥(𝜏) = 𝑅𝑥𝑥(−𝜏).
 𝑅𝑥𝑥(0) = 𝐸[𝑋 2 (𝑡)].
 Si el proceso es ergódico sin componentes periódicos entonces
lim 𝑅𝑥𝑥(𝜏) = 𝜇 2 .
𝑇→∞
 Si 𝑋(𝑡) tiene un componente periódico, también lo tendrá 𝑅𝑥𝑥(𝜏) con el
mismo periodo.
Teniendo eso en cuenta, se define la autocorrelación temporal como:
𝑇
1
ℛ𝑥𝑥(𝜏) = 𝐴[𝑥(𝑡)𝑥(𝑡 + 𝜏)] = lim ∫ 𝑥(𝑡)𝑥(𝑡 + 𝜏)𝑑𝑡
𝑇→∞ 2𝑇
−𝑇

Con los términos anteriores se puede definir que dos procesos aleatorios son
conjuntamente ergódicos si ambos son ergódicos individualmente y tienen también
una función temporal de correlación cruzada que es igual a la función de
correlación cruzada estadística y se define de la siguiente manera:
𝑇
1
𝑅𝑥𝑦(𝜏) = lim ∫ 𝑥(𝑡)𝑦(𝑡 + 𝜏)𝑑𝑡
𝑇→∞ 2𝑇
−𝑇

5. TIPOS DE ERGODICIDAD
5.1. Ergocidad en media

Un proceso X{t) con un valor medio constante 𝑋̅ se dice que es un proceso


ergódico respecto a la media, si su promedio estadístico 𝑋̅ es igual al promedio
temporal 𝑥̅ de cualquier función muestra x(t) con probabilidad 1, para todas las
funciones muestra; es decir, si
𝐸[𝑥(𝑡)] = 𝑋̅ = 𝐴[𝑥(𝑡)] = 𝑥̅

Con probabilidad 1 para todo x(t).

Para desarrollar una demostración de las afirmaciones anteriores,


comenzamos suponiendo que se cumplen cuatro condiciones para X(t). En primer
lugar, X{t) tiene un valor medio finito 𝑋̅ para todo t. Segundo, X(t) está acotado; es
decir, |𝑥(𝑡)| < ∞ para todo t y todo x(t) de X(t). Tercero, tenemos:

1 𝑇
lim ∫ 𝐸[|𝑋(𝑡)|]𝑑𝑡 < ∞
𝑇→∞ 2𝑇 −𝑇

La segunda y la tercera suposiciones son necesarias para permitir el


intercambio de las operaciones de cálculo de la esperanza y de integración
necesarias. La cuarta suposición es que X(t) es un proceso regular; es decir:

𝐸[|𝑋(𝑡)|2 ] = 𝑅𝑋𝑋 (𝑡, 𝑡) < ∞

Para un proceso estacionario en sentido amplio, esto es equivalente a


𝐸{[𝑋(𝑡)]2 } = 𝑅𝑋𝑋 (0) < ∞, y dado que 𝑋̅ es finito por hipótesis, quiere decir que
también se cumple 𝐶𝑋𝑋 (0) = 𝑅𝑋𝑋 (0) − 𝑋̅ 2 < ∞.
1 𝑇
𝑥̅ = 𝐴[𝑥(𝑡)] = lim∫ 𝑥(𝑡)𝑑𝑡 < ∞
𝑇→∞ 2𝑇 −𝑇
La ecuación anterior representa un número 𝑥̅ para una función muestra
especificada de un proceso x(t). Si tomamos el promedio temporal del proceso,
podemos definir una variable aleatoria 𝐴𝑋 mediante

1 𝑇
𝐴𝑋 = lim ∫ 𝑋(𝑡)𝑑𝑡
𝑇→∞ 2𝑇 −𝑇

Para definir todos los valores de 𝑥̅ generados por todas las funciones muestra del
proceso. El valor medio de 𝐴𝑋 es:

1 𝑇 1 𝑇
𝐴𝑋̅ = 𝐸[𝐴𝑋 ] = 𝐸 { lim ∫−𝑇 𝑋(𝑡)𝑑𝑡} = lim ∫−𝑇 𝑋̅𝑑𝑡 = 𝑋̅
𝑇→∞ 2𝑇 𝑇→∞ 2𝑇

Utilizando la desigualdad de Chebychev, tenemos;

𝑃{|𝐴𝑋 − 𝐴𝑋̅ | < 𝜖} ≥ 1 − (𝜎𝐴2𝑋 /𝜖 2 ) para cualquier 𝜖 > 0

Donde 𝜎𝐴2𝑋 es la varianza de 𝐴𝑋 . Para cualquier 𝜖 > 0, independientemente


de lo pequeño que sea, si 𝜎𝐴2𝑋 = 0, entonces 𝐴𝑋 = 𝐴𝑋̅ con probabilidad 1. En otras
palabras, la variable aleatoria 𝐴𝑋 es una constante.

A partir de la expresión (6.2-34) hemos calculado que 𝐴𝑋̅ = 𝑥̅ , para todo


x(t), con probabilidad igual a 1 si la varianza de 𝐴𝑋 es cero. A continuación vamos
a mostrar bajo qué condiciones la varianza es igual a cero. Sabemos que

1 𝑇 2
𝜎𝐴2𝑋 = 𝐸[(𝐴𝑋 − 𝐴𝑋̅ )2 ] = 𝐸 {[ lim ∫ [𝑋(𝑡) − 𝑋̅ ]𝑑𝑡] }
𝑇→∞ 2𝑇 −𝑇
1 2 𝑇 𝑇
𝜎𝐴2𝑋 = 𝐸 { lim ( ) ∫ ∫ [𝑋(𝑡) − 𝑋̅] [𝑋(𝑡1 ) − 𝑋̅ ]𝑑𝑡𝑑𝑡1 }
𝑇→∞ 2𝑇 −𝑇 −𝑇
1 2 𝑇 𝑇
𝜎𝐴2𝑋 = lim (2𝑇) ∫−𝑇 ∫−𝑇 𝐶𝑋𝑋 (𝑡, 𝑡1 ) 𝑑𝑡𝑑𝑡1
𝑇→∞

1 2 𝑇 𝑇
Por tanto, 𝜎𝐴2𝑋 = 0 si, y sólo si, lim (2𝑇) ∫−𝑇 ∫−𝑇 𝐶𝑋𝑋 (𝑡, 𝑡1 ) 𝑑𝑡𝑑𝑡1 = 0. Esta
𝑇→∞
condición general puede particularizarse para los procesos estacionarios en
sentido amplio en los que 𝐶𝑋𝑋 (𝑡, 𝑡1 ) = 𝐶𝑋𝑋 (𝜏) , donde 𝜏 = 𝑡1 − 𝑡 y 𝑑𝑡 1 = 𝑑𝜏 que
al sustituir nos queda:

1 2 𝑇 𝑇−𝑡
𝜎𝐴2𝑋 = lim (2𝑇) ∫𝑡=−𝑇 ∫𝑡=−𝑇−𝑡 𝐶𝑋𝑋 (𝜏) 𝑑𝜏𝑑𝑡
𝑇→∞

Esta integral representa el uso de las bandas horizontales de Riemann en la


región de integración en el plano 𝜏𝑡, como se muestra en la Figura 1. Si en su
lugar se emplean las bandas verticales, y se aplica la relación de simetría
𝐶𝑋𝑋 (−𝜏) = 𝐶𝑋𝑋 (𝜏), la integral puede evaluarse fácilmente:

1 2𝑇 |𝜏| 1 2𝑇
𝜎𝐴2𝑋 = lim ∫ (1 − ) 𝐶𝑋𝑋 (𝜏)𝑑𝜏 < lim ∫ |𝐶𝑋𝑋 (𝜏)|𝑑𝜏
𝑇→∞ 2𝑇 −2𝑇 2𝑇 𝑇→∞ 2𝑇 −2𝑇

1 2 𝑇 𝑇−𝑡
FIGURA 1. Región cerrada de integración para la expresión 𝜎𝐴2𝑋 = lim (2𝑇) ∫𝑡=−𝑇 ∫𝑡=−𝑇−𝑡 𝐶𝑋𝑋 (𝜏) 𝑑𝜏𝑑𝑡 .
𝑇→∞

1 2𝑇 |𝜏|
Por último, a partir de la expresión 𝜎𝐴2𝑋 = lim ∫ (1 − 2𝑇) 𝐶𝑋𝑋 (𝜏)𝑑𝜏 <
𝑇→∞ 2𝑇 −2𝑇
2𝑇
1
lim ∫ |𝐶𝑋𝑋 (𝜏)|𝑑𝜏 comprobamos que la varianza es cero si:
𝑇→∞ 2𝑇 −2𝑇

 𝐶𝑋𝑋 (0) < ∞ y 𝐶𝑋𝑋 (𝜏) → 0 cuando |𝜏| → ∞



 ∫−∞|𝐶𝑋𝑋 (𝜏)| < ∞

En consecuencia, X(t) será un proceso ergódico respecto a la media.

Suponga que generamos una secuencia de valores a partir de un proceso


aleatorio estacionario en sentido amplio X(t) con valor medio constante 𝑋̅,
muestreando periódicamente en 2N + 1 instantes del intervalo que va de -T a +T.
Las muestras pueden representarse mediante una secuencia temporal discreta de
variables aleatorias X[n] para n muestras con la misma distribución. Se supone
que las muestras son estadísticamente independientes, lo que en la práctica es
aproximadamente cierto si las muestras están bastante separadas en el tiempo.
La secuencia discreta se dice que es ergódica respecto al valor medio si el
promedio temporal de las muestras es igual al promedio estadístico con
probabilidad 1.
1
𝐴𝑋 = lim ∑𝑁 ̅
𝑛=−𝑁 𝑋[𝑛] = 𝑋 , con probabilidad 1
𝑁→∞ 2𝑁+1

Puede demostrarse que este resultado es cierto si:


1 |𝑛|
𝜎𝐴2𝑋 = 𝐸[(𝐴𝑋 − 𝐴𝑋̅ )2 ] = lim ∑2𝑁
𝑛=−2𝑁 (1 − ) 𝐶𝑋𝑋 [𝑛] = 0
𝑁→∞ 2𝑁+1 2𝑁+1

Ejemplo:

Un proceso estacionario en sentido amplio X(t) tiene una función de


autocorrelación 𝑅𝑋𝑋 (𝜏) = 𝐶𝑋𝑋 (𝜏) = exp(— 2 ∝ |𝜏|) siendo ∝> 0 una constante.
Determinamos si X(t) es un proceso ergódico respecto al valor medio. Sea I el
término central de la expresión (6.2-37) y teniendo en cuenta que 𝐶𝑋𝑋 (−𝜏) =
𝐶𝑋𝑋 (𝜏), entonces

1 2𝑇 𝜏
𝐼 = lim ∫ (1 − ) 𝑒 −2∝𝑡 𝑑𝜏
𝑇→∞ 𝑇 0 2𝑇

Aplicando las integrales simples obtenemos

1 1
𝐼 = lim { (1 − 𝑒 −4∝𝑡 ) − 2 2
(1 − 𝑒 −4∝𝑇 − 4 ∝ 𝑇𝑒 −4∝𝑇 )} = 0
𝑇→∞ 2∝𝑇 8∝ 𝑇
1 2𝑇 |𝜏|
Puesto que 𝐶𝑋𝑋 (𝜏) satisface que 𝜎𝐴2𝑋 = lim ∫ (1 − 2𝑇) 𝐶𝑋𝑋 (𝜏)𝑑𝜏 <
𝑇→∞ 2𝑇 −2𝑇
1 2𝑇
lim ∫ |𝐶𝑋𝑋 (𝜏)|𝑑𝜏 y 𝜎𝐴2𝑋 = 0, entonces X(t) es ergódico con respecto al valor
𝑇→∞ 2𝑇 −2𝑇
medio.

5.2. Ergocidad en autocorrelación

De forma análoga a un proceso ergódico respecto del valor medio, un proceso


estacionario continuo X(t) con una función de autocorrelación 𝑅𝑋𝑋 (𝜏) se dice que
es ergódico respecto a la correlación si, y sólo si, para todo 𝜏 se cumple que:

1 𝑇
lim ∫ 𝑋(𝑡)𝑋(𝑇 + 𝜏)𝑑𝑡 = 𝑅𝑋𝑋 (𝑇)
𝑇→∞ 2𝑇 −𝑇

Una condición necesaria y suficiente para que se cumpla que


1 𝑇
lim 2𝑇 ∫−𝑇 𝑋(𝑡)𝑋(𝑇 + 𝜏)𝑑𝑡 = 𝑅𝑋𝑋 (𝑇) precisa de un desarrollo similar al que nos ha
𝑇→∞
1 2𝑇 |𝜏| 1 2𝑇
llevado a la expresión 𝜎𝐴2𝑋 = lim ∫ (1 − 2𝑇) 𝐶𝑋𝑋 (𝜏)𝑑𝜏 < lim ∫ |𝐶𝑋𝑋 (𝜏)|𝑑𝜏,
𝑇→∞ 2𝑇 −2𝑇 𝑇→∞ 2𝑇 −2𝑇
pero ahora reemplazamos X(t) por
𝑊(𝑡) = 𝑋(𝑡)𝑋(𝑡 + 𝜆)

donde 𝜆 es un desplazamiento temporal. Tenemos

𝐸[𝑊(𝑡)] = 𝐸[𝑋(𝑡)𝑋(𝑡 + 𝜆)] = 𝑅𝑋𝑋 (𝜆)


𝑅𝑊𝑊 (𝜏) = 𝐸{𝑊(𝑡)𝑊(𝑡 + 𝜏)}
𝑅𝑊𝑊 (𝜏) = 𝐸[𝑋(𝑡)𝑋(𝑡 + 𝜆)𝑋(𝑡 + 𝜏)𝑊(𝑡 + 𝜏 + 𝜆)]
𝐶𝑊𝑊 (𝜏) = 𝑅𝑊𝑊 (𝜏) − {𝐸[𝑊(𝑡)]}2
2 (𝜆)
𝐶𝑊𝑊 (𝜏) = 𝑅𝑊𝑊 (𝜏) − 𝑅𝑋𝑋

Por tanto, X(t) es un proceso ergódico con respecto a la autocorrelación si


1 2𝑇 |𝜏|
𝐶𝑋𝑋 (𝜏) del término central de 𝜎𝐴2𝑋 = lim 2𝑇 ∫−2𝑇 (1 − 2𝑇) 𝐶𝑋𝑋 (𝜏)𝑑𝜏 <
𝑇→∞
1 2𝑇 2 (𝜆),
lim 2𝑇 ∫−2𝑇|𝐶𝑋𝑋 (𝜏)|𝑑𝜏 se reemplaza por 𝐶𝑊𝑊 (𝜏) de 𝐶𝑊𝑊 (𝜏) = 𝑅𝑊𝑊 (𝜏) − 𝑅𝑋𝑋 y
𝑇→∞
la integral es igual a cero. Destacamos que la ergodicidad respecto de la
autocorrelación requiere los momentos de cuarto orden de X(t), como se ha
definido en la ecuación que define que 𝑅𝑊𝑊 (𝜏) = 𝐸[𝑋(𝑡)𝑋(𝑡 + 𝜆)𝑋(𝑡 + 𝜏)𝑊(𝑡 + 𝜏 +
𝜆)]. Para procesos en general, este requisito puede ser demasiado estricto. Sin
embargo, para procesos gaussianos, los momentos de cuarto orden se conocen
en función de sólo los momentos de segundo orden o menor.

Una secuencia estacionaria en sentido amplio X[n] es ergódica respecto a la


autocorrelación si, y sólo si, para todo k
𝑘
1
lim ∑ 𝑋[𝑛]𝑋[𝑛 + 𝑘] = 𝑅𝑋𝑋 (𝑘)
𝑁→∞ 2𝑁 + 1
𝑛=−𝑁

6. DENSIDAD ESPECTRAL DE POTENCIA (DEP)

Dado que un proceso estocástico es una colección de funciones temporales es


fácil intuir que es posible llevar a cabo un análisis en el dominio de la frecuencia
mediante la transformada de Fourier, además se hace tentador por la sencillez
que otorga este dominio para operaciones como la convolución (quien determina
la salida de una señal cuando es procesada por algún sistema), que en el dominio
del tiempo son de mayor complejidad. Este razonamiento es correcto, sin
embargo, es poco práctico debido a que implica trabajar con una colección de
transformadas de Fourier, es mucho más útil poder definir una única función
espectral que caracterizase conjuntamente a todas las posibles realizaciones del
proceso equivalente a un espectro promedio del proceso a la cual denomina
densidad espectral de potencia del proceso.

La condición suficiente para que un proceso estocástico posea una


transformada de Fourier será que su potencia sea integrable, de esto nos
aseguraremos al enventanar a la variable aleatoria en el intervalo de tiempo de
estudio.
𝑋(𝑡) |𝑡| ≤ 𝑇
𝑋𝑇 (𝑡) = {
0 |𝑡| > 𝑇

Luego en virtud al teorema de parseval puede obtenerse la energía de dicho


proceso como:

1 𝑓 2
𝐸𝑅 = ∫ |𝑋𝑇 (𝜔)| 𝑑𝜔
2𝜋
−∞

Podemos pasar de energías a potencias simplemente dividiendo por el tiempo


empleado en el cálculo de la energía.
∞ 𝑓 2
1 |𝑋 (𝜔)|
𝑃𝑅 = ∫ 𝑇 𝑑𝜔
2𝜋 2𝑇
−∞

Al trabajar con el promedio de todos los procesos, es decir tomando su valor


esperado e integrándolos desde -∞ hasta +∞, se obtiene una expresión, cuya
forma subintegral es:
𝑓 2
|𝑋 (𝜔)|
𝑆𝑋 (𝜔) = lim 𝐸 { 𝑇 }
𝑇→∞ 2𝑇

Mide, por lo tanto, cómo se reparte la potencia media del proceso en cada una
de las componentes espectrales que contribuyen a la formación del proceso.

Al tratarse todo esto no se debe perder del foco que un proceso es una
colección de variables aleatorias, que la transformada de este proceso sigue
estando en unción de variables aleatorias por lo que ella misma se le considera
una variable aleatoria, y que la energía y potencia de esta transformada también
van en función de dichas variables por lo que siguen siendo variables aleatorias,
en conclusión, en ningún momento se ha dejado de trabajar con variables
aleatorias.

6.1. DEP de un proceso discreto

Definición análoga

𝑆𝑋 (𝛺) = 𝑇𝐹[𝑅𝑋 [𝑚]] = ∑ 𝑅𝑋 [𝑚] 𝑒 −𝑗𝛺𝑚


𝑚=−∞
2𝜋
1
𝑅𝑋 [𝑚] = 𝑇𝐼𝐹[𝑆𝑋 (𝛺)] = ∫ 𝑆𝑋 (𝛺) 𝑒 𝑗𝛺𝑚 𝑑𝛺
2𝜋
0

En este caso, la DEP es periódica de periodo 2π


2𝜋
1
𝑃𝑋 = 𝑅𝑋 (0) = ∫ 𝑆𝑋 (𝜔) 𝑑𝜔
2𝜋
0
6.2. DEP cruzada

Sean X(t), Y (t) dos procesos estocásticos conjuntamente estacionarios, se define


la DEP cruzada como:

𝑆𝑋𝑌 (𝜔) = 𝑇𝐹[𝑅𝑋𝑌 (𝜏)] = ∫ 𝑅𝑋𝑌 (𝜏)𝑒 −𝑗𝜔𝜏 𝑑𝜏


−∞


1
𝑅𝑋𝑌 (𝜏) = 𝑇𝐼𝐹[𝑆𝑋𝑌 (𝜔)] = ∫ 𝑆𝑋𝑌 (𝜔) 𝑒 𝑗𝜔𝜏 𝑑𝜔
2𝜋
−∞

En el caso discreto:

𝑆𝑋𝑌 () = 𝑇𝐹[𝑅𝑋𝑌 [𝑚]] = ∑ 𝑅𝑋𝑌 [𝑚]𝑒 −𝑗𝑚


𝑚=−∞
1
𝑅𝑋𝑌 [𝑚] = 𝑇𝐼𝐹[𝑆𝑋𝑌 ()] = ∫ 𝑆𝑋𝑌 () 𝑒 𝑗𝑚 𝑑
2𝜋 2𝜋

CONCLUSIÓN
Durante el proceso de recaudación de información, los distintos ejemplos y el
análisis conjunto de todo lo estudiado a lo largo del curso y lo ya expuesto en este
compilado, se evidencia lo poderosísima que se vuelven las herramientas
probabilísticas para el análisis de señales reales, su tratamiento, su transmisión y
su recepción. Pues la teoría de probabilidades permite determinar cuando la
relación entre el ruido, la distorsión y una señal de interés se vuelve perjudicial
para su manejo, pues mediante el estudio de las propiedades de dicha señal y en
base al comportamiento que tiene a lo largo del tiempo, se puede diseñar los filtros
pertinentes que atenúan en gran medida la presencia de estos indeseables
factores que se superponen a la señal de interés.

Además estas herramientas hacen capaz el poder representar de una manera


más manejable y comprensible a las señales estocásticas; señales cuyo
comportamiento nos es imposible conocer de antemano así que modelamos como
señales aleatorias. Mediante métodos de análisis como por explotando la
presencia de la Ergodicidad para su modelado en gran parte de los casos.

REFERENCIAS
 Peyton Z. Peebles, Jr. Principios de
Probabilidad, Variables Aleatorias y Señales
Aleatorias (2006). 4ta Edición. McGrawHall.
 Alberola Lopéz Carlos. Probabilidad, Variables Aleatorias y Procesos
Estocásticos: Una Introducción Orientada a las Telecomunicaciones (2004).
Universidad de Valladolid, Secretariado de Publicaciones e Intercambio
Editorial.
 Isabel Molina Peralta. Universidad Carlos III de Madrid. Capítulo 2 Procesos
Estocásticos Estacionarios.
http://halweb.uc3m.es/esp/Personal/personas/imolina/MiDocencia/SeriesTe
mporales/Tema2SeriesEstud.pdf
 María Durbán. Procesos Estocásticos.
http://www.est.uc3m.es/esp/nueva_docencia/leganes/ing_telecomunicacion/
estadistica/doc_grupo1/archivosnew/procesos.pdf
 Universidad de Cantabria. Tema 7: Procesos Estocásticos. Curso 2007-
2008.

UNIVERSIDAD DE CARABOBO
FACULTAD DE INGENIERÍA

ESCUELA DE TELECOMUNICACIONES

PROBABILIDAD Y PROCESOS ESTOCÁSTICOS

PROCESOS
ESTOCÁSTICOS

Integrantes:

Aguilera Ariamna. C.I: 26.430.283

Roche Daniela. C.I: 25.093.979

Rojas Roy. C.I: 24.466.299

Vargas Cristian. C.I: 23.427.167

Sección: 71.

Naguanagua, 11 de Julio de 2018.

También podría gustarte