Documentos de Académico
Documentos de Profesional
Documentos de Cultura
2. TIPOS DE ESTACIONARIDAD
𝑓𝑋 (𝑥1 , 𝑥2 , … , 𝑥𝑁 ; 𝑡1 , 𝑡2 , … , 𝑡𝑁 ) = 𝑓𝑋 (𝑥1 , 𝑥2 , … , 𝑥𝑁 ; 𝑡1 + 𝑐, 𝑡2 + 𝑐, … 𝑡𝑁 + 𝑐) ∀𝑐
En Discreto:
2.2.1. Propiedades
Se define como dos variables aleatorias que se obtienen a partir del proceso
para dos instantes de tiempo, tendrán propiedades estadísticas relacionadas con
su función de densidad conjunta.
3.1. Propiedades
𝑅𝑿 (𝜏) = 𝑅𝑋 (−𝜏) ∀𝜏
|𝑅𝑋 (𝜏)| ≤ 𝑅𝑋 (0) ∀𝜏
𝑅𝑋𝑌 (𝜏) = 𝑅𝑌𝑋 (−𝜏) ∀𝜏
|𝑅𝑋𝑌 (𝜏)| ≤ √𝑅𝑋 (0)𝑅𝑌 (0) ∀𝜏
Para 𝑍(𝑡) = 𝑋(𝑡) + 𝑌(𝑡)
𝑅𝑍 (𝜏) = 𝐸[𝑍(𝑡 + 𝜏)𝑍(𝑡)] = 𝐸[(𝑋(𝑡 + 𝜏) + 𝑌(𝑡 + 𝜏))(𝑋(𝑡) + 𝑌(𝑡))]
𝑅𝑍 (𝜏) = 𝑅𝑋 (𝜏) + 𝑅𝑌 (𝜏) + 𝑅𝑋𝑌 (𝜏) + 𝑅𝑌𝑋 (𝜏)
Ejemplo:
𝑋(𝑡) = 𝐴𝑐𝑜𝑠(𝜔0 𝑡 + 𝜃)
SOLUCIÓN
Función de densidad:
1
𝑓𝑋 (𝑥, 𝑡) = 𝑓𝑋 (𝑥) =
𝜋√𝐴2 − 𝑥 2
|𝑥| ≤ 1 Estacionario de orden 1
Media:
𝜋
1
𝜂𝑥(𝑡) = 𝐸[𝐴𝑐𝑜𝑠(𝜔0 𝑡 + 𝜃)] = 𝐴 ∫ 𝑐𝑜𝑠(𝜔0 𝑡 + 𝜃) 𝑑𝜃 = 0 = 𝑐𝑜𝑛𝑠𝑡𝑎𝑛𝑡𝑒
2𝜋
−𝜋
La función de correlación a partir de 𝑅𝑋 (𝑡1 , 𝑡2 ) = 𝐸[𝑋(𝑡1 )𝑋(𝑡2 )], se tiene:
𝐴2
= {𝐸[cos(𝜔0 (𝑡1 + 𝑡2 ) + 2𝜃)] + 𝐸[cos(𝜔0 (𝑡1 − 𝑡2 ))]}
2
Como 𝐸[cos(𝜔0 (𝑡1 + 𝑡2 ) + 2𝜃)] = 0 entonces:
𝐴2
= cos(𝜔0 (𝑡1 − 𝑡2 ))
2
𝐴2
𝑅𝑋 (𝜏) = cos(𝜔0 𝜏)
2
Por tanto, la función de correlación depende sólo de 𝜏 y el valor medio es una
constante, por lo que X(t) es un proceso estacionario en sentido amplio.
𝐸{𝐴[𝑥(𝑡)]} = 𝜇
𝐸[ℛ𝑥𝑥(𝜏)] = 𝑅𝑥𝑥(𝜏)
ℛ𝑥𝑥(𝜏) = 𝑅𝑥𝑥(𝜏)
|𝑅𝑥𝑥(𝜏)| ≤ 𝑅𝑥𝑥(0).
𝑅𝑥𝑥(𝜏) = 𝑅𝑥𝑥(−𝜏).
𝑅𝑥𝑥(0) = 𝐸[𝑋 2 (𝑡)].
Si el proceso es ergódico sin componentes periódicos entonces
lim 𝑅𝑥𝑥(𝜏) = 𝜇 2 .
𝑇→∞
Si 𝑋(𝑡) tiene un componente periódico, también lo tendrá 𝑅𝑥𝑥(𝜏) con el
mismo periodo.
Teniendo eso en cuenta, se define la autocorrelación temporal como:
𝑇
1
ℛ𝑥𝑥(𝜏) = 𝐴[𝑥(𝑡)𝑥(𝑡 + 𝜏)] = lim ∫ 𝑥(𝑡)𝑥(𝑡 + 𝜏)𝑑𝑡
𝑇→∞ 2𝑇
−𝑇
Con los términos anteriores se puede definir que dos procesos aleatorios son
conjuntamente ergódicos si ambos son ergódicos individualmente y tienen también
una función temporal de correlación cruzada que es igual a la función de
correlación cruzada estadística y se define de la siguiente manera:
𝑇
1
𝑅𝑥𝑦(𝜏) = lim ∫ 𝑥(𝑡)𝑦(𝑡 + 𝜏)𝑑𝑡
𝑇→∞ 2𝑇
−𝑇
5. TIPOS DE ERGODICIDAD
5.1. Ergocidad en media
1 𝑇
lim ∫ 𝐸[|𝑋(𝑡)|]𝑑𝑡 < ∞
𝑇→∞ 2𝑇 −𝑇
1 𝑇
𝐴𝑋 = lim ∫ 𝑋(𝑡)𝑑𝑡
𝑇→∞ 2𝑇 −𝑇
Para definir todos los valores de 𝑥̅ generados por todas las funciones muestra del
proceso. El valor medio de 𝐴𝑋 es:
1 𝑇 1 𝑇
𝐴𝑋̅ = 𝐸[𝐴𝑋 ] = 𝐸 { lim ∫−𝑇 𝑋(𝑡)𝑑𝑡} = lim ∫−𝑇 𝑋̅𝑑𝑡 = 𝑋̅
𝑇→∞ 2𝑇 𝑇→∞ 2𝑇
1 𝑇 2
𝜎𝐴2𝑋 = 𝐸[(𝐴𝑋 − 𝐴𝑋̅ )2 ] = 𝐸 {[ lim ∫ [𝑋(𝑡) − 𝑋̅ ]𝑑𝑡] }
𝑇→∞ 2𝑇 −𝑇
1 2 𝑇 𝑇
𝜎𝐴2𝑋 = 𝐸 { lim ( ) ∫ ∫ [𝑋(𝑡) − 𝑋̅] [𝑋(𝑡1 ) − 𝑋̅ ]𝑑𝑡𝑑𝑡1 }
𝑇→∞ 2𝑇 −𝑇 −𝑇
1 2 𝑇 𝑇
𝜎𝐴2𝑋 = lim (2𝑇) ∫−𝑇 ∫−𝑇 𝐶𝑋𝑋 (𝑡, 𝑡1 ) 𝑑𝑡𝑑𝑡1
𝑇→∞
1 2 𝑇 𝑇
Por tanto, 𝜎𝐴2𝑋 = 0 si, y sólo si, lim (2𝑇) ∫−𝑇 ∫−𝑇 𝐶𝑋𝑋 (𝑡, 𝑡1 ) 𝑑𝑡𝑑𝑡1 = 0. Esta
𝑇→∞
condición general puede particularizarse para los procesos estacionarios en
sentido amplio en los que 𝐶𝑋𝑋 (𝑡, 𝑡1 ) = 𝐶𝑋𝑋 (𝜏) , donde 𝜏 = 𝑡1 − 𝑡 y 𝑑𝑡 1 = 𝑑𝜏 que
al sustituir nos queda:
1 2 𝑇 𝑇−𝑡
𝜎𝐴2𝑋 = lim (2𝑇) ∫𝑡=−𝑇 ∫𝑡=−𝑇−𝑡 𝐶𝑋𝑋 (𝜏) 𝑑𝜏𝑑𝑡
𝑇→∞
1 2𝑇 |𝜏| 1 2𝑇
𝜎𝐴2𝑋 = lim ∫ (1 − ) 𝐶𝑋𝑋 (𝜏)𝑑𝜏 < lim ∫ |𝐶𝑋𝑋 (𝜏)|𝑑𝜏
𝑇→∞ 2𝑇 −2𝑇 2𝑇 𝑇→∞ 2𝑇 −2𝑇
1 2 𝑇 𝑇−𝑡
FIGURA 1. Región cerrada de integración para la expresión 𝜎𝐴2𝑋 = lim (2𝑇) ∫𝑡=−𝑇 ∫𝑡=−𝑇−𝑡 𝐶𝑋𝑋 (𝜏) 𝑑𝜏𝑑𝑡 .
𝑇→∞
1 2𝑇 |𝜏|
Por último, a partir de la expresión 𝜎𝐴2𝑋 = lim ∫ (1 − 2𝑇) 𝐶𝑋𝑋 (𝜏)𝑑𝜏 <
𝑇→∞ 2𝑇 −2𝑇
2𝑇
1
lim ∫ |𝐶𝑋𝑋 (𝜏)|𝑑𝜏 comprobamos que la varianza es cero si:
𝑇→∞ 2𝑇 −2𝑇
Ejemplo:
1 2𝑇 𝜏
𝐼 = lim ∫ (1 − ) 𝑒 −2∝𝑡 𝑑𝜏
𝑇→∞ 𝑇 0 2𝑇
1 1
𝐼 = lim { (1 − 𝑒 −4∝𝑡 ) − 2 2
(1 − 𝑒 −4∝𝑇 − 4 ∝ 𝑇𝑒 −4∝𝑇 )} = 0
𝑇→∞ 2∝𝑇 8∝ 𝑇
1 2𝑇 |𝜏|
Puesto que 𝐶𝑋𝑋 (𝜏) satisface que 𝜎𝐴2𝑋 = lim ∫ (1 − 2𝑇) 𝐶𝑋𝑋 (𝜏)𝑑𝜏 <
𝑇→∞ 2𝑇 −2𝑇
1 2𝑇
lim ∫ |𝐶𝑋𝑋 (𝜏)|𝑑𝜏 y 𝜎𝐴2𝑋 = 0, entonces X(t) es ergódico con respecto al valor
𝑇→∞ 2𝑇 −2𝑇
medio.
1 𝑇
lim ∫ 𝑋(𝑡)𝑋(𝑇 + 𝜏)𝑑𝑡 = 𝑅𝑋𝑋 (𝑇)
𝑇→∞ 2𝑇 −𝑇
Mide, por lo tanto, cómo se reparte la potencia media del proceso en cada una
de las componentes espectrales que contribuyen a la formación del proceso.
Al tratarse todo esto no se debe perder del foco que un proceso es una
colección de variables aleatorias, que la transformada de este proceso sigue
estando en unción de variables aleatorias por lo que ella misma se le considera
una variable aleatoria, y que la energía y potencia de esta transformada también
van en función de dichas variables por lo que siguen siendo variables aleatorias,
en conclusión, en ningún momento se ha dejado de trabajar con variables
aleatorias.
Definición análoga
∞
∞
1
𝑅𝑋𝑌 (𝜏) = 𝑇𝐼𝐹[𝑆𝑋𝑌 (𝜔)] = ∫ 𝑆𝑋𝑌 (𝜔) 𝑒 𝑗𝜔𝜏 𝑑𝜔
2𝜋
−∞
En el caso discreto:
∞
CONCLUSIÓN
Durante el proceso de recaudación de información, los distintos ejemplos y el
análisis conjunto de todo lo estudiado a lo largo del curso y lo ya expuesto en este
compilado, se evidencia lo poderosísima que se vuelven las herramientas
probabilísticas para el análisis de señales reales, su tratamiento, su transmisión y
su recepción. Pues la teoría de probabilidades permite determinar cuando la
relación entre el ruido, la distorsión y una señal de interés se vuelve perjudicial
para su manejo, pues mediante el estudio de las propiedades de dicha señal y en
base al comportamiento que tiene a lo largo del tiempo, se puede diseñar los filtros
pertinentes que atenúan en gran medida la presencia de estos indeseables
factores que se superponen a la señal de interés.
REFERENCIAS
Peyton Z. Peebles, Jr. Principios de
Probabilidad, Variables Aleatorias y Señales
Aleatorias (2006). 4ta Edición. McGrawHall.
Alberola Lopéz Carlos. Probabilidad, Variables Aleatorias y Procesos
Estocásticos: Una Introducción Orientada a las Telecomunicaciones (2004).
Universidad de Valladolid, Secretariado de Publicaciones e Intercambio
Editorial.
Isabel Molina Peralta. Universidad Carlos III de Madrid. Capítulo 2 Procesos
Estocásticos Estacionarios.
http://halweb.uc3m.es/esp/Personal/personas/imolina/MiDocencia/SeriesTe
mporales/Tema2SeriesEstud.pdf
María Durbán. Procesos Estocásticos.
http://www.est.uc3m.es/esp/nueva_docencia/leganes/ing_telecomunicacion/
estadistica/doc_grupo1/archivosnew/procesos.pdf
Universidad de Cantabria. Tema 7: Procesos Estocásticos. Curso 2007-
2008.
UNIVERSIDAD DE CARABOBO
FACULTAD DE INGENIERÍA
ESCUELA DE TELECOMUNICACIONES
PROCESOS
ESTOCÁSTICOS
Integrantes:
Sección: 71.