Está en la página 1de 23

Capı́tulo 2

Modelos probabilı́sticos para


sistemas de comunicaciones
La teorı́a de la probabilidad no es más que sentido común reducido al cálculo.
—Pierre Laplace

En un sistema de comunicaciones, las señales de entrada no pueden ser predecibles, por lo


tanto, tienen ser consideradas como señales aleatorias. Ası́, la realización de un análisis prob-
abilı́stico de estas señales, y de los sistemas que se usan para procesarlas, es muy importante
para una correcta comprensión de los sistemas de comunicaciones digitales.

2.1 Teoria de la probabilidad


El concepto de probabilidad está ligado a la realización de un experimento cuyo resultado es
desconocido por un observador. Un ejemplo bastante común es el lanzamiento de un dado:
el resultado puede ser cualquier número entero entre 1 y 6, pero es a priori impredecible,
inclusive para el lanzador. Por lo tanto, la probabilidad es una medida de la incertidumbre
que, para un observador, tiene el resultado de un experimento, y es por tanto una medida
subjetiva. De esta forma, el contenido de un mensaje enviado a través de un canal de co-
municaciones digitales es completamente desconocido por el receptor antes de iniciarse la
comunicación, pero no por el transmisor, que puede predecirlo con exactitud en la medida
en que conoce el mensaje transmitido.

El desconocimiento puede ser total o parcial. Por ejemplo, en el experimento de lanzar dos
dados y sumar sus puntos, cualquier resultado entre 2 y 12 es posible, pero también sabemos
que el 7 es un resultado más probable que el 2. Lo sabemos por la naturaleza del experimento
o por información estadı́stica. En este mismo sentido, el receptor del mensaje enviado por un
transmisor puede desconocer completamente su contenido, pero tal desconocimiento puede
reducirse al observar la señal que ha recibido. Este desconocimiento se reducirá totalmente
si puede reconocer el mensaje a partir de la señal recibida, o parcialmente, si la señal enviada
por el transmisor ha sido afectada por el ruido y/o distorsiones durante la transmisión.

25
26 Capı́tulo 2. Modelos probabilı́sticos

Una medida de probabilidad P es definida como toda función que aplicada sobre cualquier
evento S (perteneciente a un espacio muestral ⌦), resultando en un numero real P (S) que
cumple las siguientes propiedades

• 0  P (S)  1

• P (;) = 0

• P (⌦) = 1

• Dado un conjunto finito de eventos disjuntos


( )
[ X
P Si = P (Si )
i i

Probabilidad condicional
Dado dos eventos A y B, la probabilidad condicional P (B|A) se define como

P (A \ B)
P (B|A) =
P (A)

donde P (A \ B) representa la probabilidad de la intersección de los eventos A y B. Note que


también es posible escribir la probabilidad condicional P (A|B) como

P (A \ B)
P (A|B) =
P (B)

estas dos relaciones nos permiten escribir la regla de Bayes definida como

P (B|A)P (A)
P (A|B) =
P (B)

Teorema de la probabilidad total


Dada una partición de un espacio muestral ⌦ (Bi ), la probabilidad de un evento A puede ser
calculada como X
P (A) = P (A \ Bi )
i

o considerando el resultado de la probabilidad condicional


X
P (A) = P (Bi |A)P (A)
i

o X
P (A) = P (A|Bi )P (Bi )
i

Dr. Alexander B. Hilario Tacuri


2.2. Variables aleatorias 27

Independencia estadı́stica entre eventos


Dos eventos A y B son estadı́sticamente independientes cuando

P (A \ B) = P (B)P (A).

Utilizando los resultados de la probabilidad condicional, es posible mostrar que la indepen-


dencia estadı́stica entre los eventos A y B tiene como consecuencia que

P (A|B) = P (A)

y
P (B|A) = P (B).

2.2 Variables aleatorias


Una variable aleatoria es la representación o proyección de todo el espacio muestral ⌦ en la
recta real. Esta proyección sobre la recta real se denomina espacio muestral imagen.

Ejemplo 2.1: Un transmisor envı́a una secuencia de datos binarios (s[n]) a un receptor
distante a través de un canal de comunicaciones digitales. Debido a las distorsiones generadas
por el canal, la secuencia de datos binarios detectada por el receptor (ŝ[n]), es posiblemente
diferente a la transmitida. Para evaluar el rendimiento de la comunicación, podemos definir
una variable aleatoria z que determine la ocurrencia o no de un error. Si z = 1 representa
el evento de ocurrencia de un error, entonces P (z = 1) es la probabilidad de que se haya
producido un error en la transmisión. De forma análoga, Si z = 0 representa el evento de no
ocurrencia de un error, entonces P (z = 0) es la probabilidad de que no se haya producido un
error en la transmisión.

Las variables aleatorias pueden clasificarse como siendo continuas o discretas. Esta clasi-
ficacion presenta diferencias importantes, especı́ficamente en el espacio muestral que es con-
tinuo o discreto respectivamente. Para caracterizar una variable aleatoria discreta basta con
asignar un valor de probabilidad a cada posible resultado (respetando las propiedades de
las probabilidades). Ademas, se puede construir cualquier resultado mediante la union de
sucesos únicos. Por otro lado, los eventos de las variables aleatoria continuas no pueden
construirse como la union de sucesos únicos, es más, la mayorı́a de los sucesos únicos tiene
probabilidad nula. Cuando la variable aleatoria es continua, la caracterización de este tipo de
variables suele hacerse de la forma {x  X}. La probabilidad que proporciona una valor para
este evento, se denomina función distribución de probabilidad y es denotado de la siguiente
forma,
Fx (X) = P (x  X). (2.1)
En (2.1), x representa la variable aleatoria y X un número real. La función distribución de
probabilidad tiene las siguientes propiedades

• 0  Fx (X)  1

Dr. Alexander B. Hilario Tacuri


28 Capı́tulo 2. Modelos probabilı́sticos

• Fx (1) = 1

• Fx ( 1) = 0

• Fx (X) es monotona no decreciente

Otra función que sirve para caracterizar las variables aleatorias continuas es la función
densidad de probabilidad definida como

dFx (X)
fx (X) =
dx
La función densidad de probabilidad tiene las siguientes propiedades

• fx (X) 0
RX
• Fx (X) = 1 fx (↵)d↵
R1
• 1 x
f (↵)d↵ = 1
Rb
• a
fx (↵)d↵ = P (x 2 [a, b])

Ejemplos de variables aleatorias


Gaussiana o normal: Una variable aleatoria x se denomina Gaussiana si su función den-
sidad de probabilidad tiene la forma
1 (X µ)2
fx (X) = p e 2 2 (2.2)
2⇡
2
donde µ y representan la media y varianza de la variable aleatoria Gaussiana respectiva-
mente.

La función distribución de probabilidad correspondiente a este tipo de variables es dada


por
Z X Z 1
Fx (X) = fx (X)dX = 1 fx (X)dX
1 X

la integral de la parte derecha de la ecuación anterior no tiene solución, sin embargo existe
una solución basada en una función conocida como función Q, definida como
Z 1
1 u2
Q(↵) = p e 2 du
2⇡ ↵
Usando este resultado, la función distribución de probabilidad es dada por
✓ ◆
X µ
Fx (X) = 1 Q .

Dr. Alexander B. Hilario Tacuri


2.2. Variables aleatorias 29

Uniforme: Una variable aleatoria x es uniforme en el intervalo [a, b], si su función


densidad de probabilidad es definida como
1
fx (X) = ; aXb (2.3)
b a
Exponencial: Una variable aleatoria x es exponencialmente distribuida si su función
densidad de probabilidad es definida como
aX
fx (X) = ae ; a>0

Bernoulli: Una variable aleatoria x es Bernoulli cuando su espacio muestral tiene dos
elementos ⌦ = (0, 1) con probabilidades

P (x = 0) = 1 p

P (x = 1) = p
o, de forma mas compacta
P (x = k) = pk (1 p)1 k

Binomial: Una variable aleatoria x es binomial si su función densidad de probabilidad


es definida como
n
X
fx (X) = Cni pi q n i
(X i) ; 0p1 , q=1 p
i

donde Cni son los coeficientes binomiales dados por la expresión

n!
Cni = .
(n i)!i!

Esta variable sirve para caracterizar experimentos donde se realiza n experimentos y desea
conocerse el numero de veces que se produce cierto evento S de probabilidad p.

2.2.1 Funciones distribución y densidad de probabilidad condi-


cionales
A partir de los conceptos de probabilidad condicional, es posible definir la función distribución
de probabilidad condicional como

Fxy (X, Y )
Fx|yY (X) =
Fy (Y )

análogamente, la función densidad de probabilidad condicional se puede definir como

fxy (X, Y )
fx|y=Y (X) =
fy (Y )

Dr. Alexander B. Hilario Tacuri


30 Capı́tulo 2. Modelos probabilı́sticos

De forma similar a lo presentado en la teorı́a de probabilidad, cuando existe independencia


entre dos variables aleatorias, se cumple que

Fxy (X, Y ) = Fx (X)Fy (Y )

y
fxy (X, Y ) = fx (X)fy (Y ).
Ademas, la función densidad de probabilidad condicional se puede definir como

fx|y=Y (X) = fx (X)

análogamente,
fy|x=X (Y ) = fy (Y ).
Un resultado interesante es que la función densidad de probabilidad de la la suma de dos
variables independientes y = x1 + x2 puede ser obtenida utilizando

fy (↵) = fx1 (↵) ⇤ fx2 (↵).

Los resultados de independencia anteriormente mostrados son validos para cualquier nu-
mero de variables aleatorias independientes, es decir
N
Y
Fx (X) = Fxi (Xi ),
i=1

N
Y
fx (X) = fxi (Xi )
i=1
y
fy (↵) = fx1 (↵) ⇤ fx2 (↵) · · · ⇤ fxN (↵)

2.3 Vectores Aleatorios


El concepto de variables aleatorias puede ser fácilmente extendido para espacios n-dimensionales.
Sea una colección de variables aleatorias definida de forma vectorial como
2 3
x1
6 x2 7
6 7
x = 6 .. 7 ,
4 . 5
xN

la función distribución de probabilidad de este vector aleatorio es definido como

Fx (X) = P (x  X) = P (x1  X1 , x2  X2 , . . . , xN  XN )

y análogamente a lo presentado para variables aleatorias, esta función de distribución tiene


las siguientes propiedades

Dr. Alexander B. Hilario Tacuri


2.4. Valor esperado 31

• Fx (+1, +1, . . . , +1) = 1

• Fx (X1 , X2 , . . . , Xi 1, 1, Xi+1 , . . . , XN ) = 0

• Fx (X) es monotona no decreciente en cada argumento

La función densidad de probabilidad es definida como


dn
f x(X) = Fx (X)
dX
y tiene tiene las siguientes propiedades
R X1 R X2 R XN
• 1 1
· · · f
1 x1 ,x2 ,...xN
(↵1 , ↵2 , . . . , ↵N )d↵1 d↵2 , . . . , d↵N = Fx1 ,x2 ,...xN (X1 , X2 , . . . , XN )
R1
• f (X)dX = 1
1 x

• fx (X) 0
R R
• · · · s fx (X)dX = P (x 2 S)

Considerando un vector aleatorio de dos dimensiones definido por x = [x y]T con función
densidad de probabilidad conjunta fx,y (X, Y ), es posible obtener la función de probabilidad
de cada una de las variables aleatorias utilizando
Z 1
fx (X) = fx,y (X, u)du
1

o Z 1
fy (Y ) = fx,y (v, Y )dv.
1

Este resultado es valido para vectores n-dimensionales.

2.4 Valor esperado


El valor esperado de una variable aleatoria x es definido por
Z 1
E[x] = Xfx (X)dX
1

donde fx (X) representa la función densidad de probabilidad de x definido en las secciones


anteriores. El teorema fundamental del valor esperado, nos permite obtener el valor esperado
de cualquier función de x utilizando
Z 1
E[g(x)] = g(X)fx (X)dX. (2.4)
1

A partir de (2.4) es posible definir algunas medidas estadı́sticas especificas bastante im-
portantes en la teorı́a de variables aleatorias. Las medidas mas importantes serán presentadas

Dr. Alexander B. Hilario Tacuri


32 Capı́tulo 2. Modelos probabilı́sticos

a seguir.

Media: La media (mx ) es una medida estadı́stica que es definida a través de (2.4) cuando
g(x) = x, de esta forma tenemos que
Z 1
mx = Xfx (X)dX (2.5)
1

A modo de ejemplo, podemos calcular la media de una variable aleatorio uniforme en el


intervalo [a, b]. Utilizando (2.5) y la definición de la función densidad de probabilidad de la
variable aleatoria uniforme presentada en (2.3), tenemos que
Z b
1 a+b
mx = XdX = .
b a a 2
Si deseamos calcular la media de una variable aleatoria Gaussiana, podemos utilizar (2.5)
y la definición de la función densidad de probabilidad de la variable aleatoria Gaussiana
presentada en (2.2), de esta forma tenemos que
Z 1
1 (X µ)2
mx = Xp e 2 2 dX
1 2⇡
realizando un cambio de variable X µ = ↵ tenemos que
Z 1 Z 1
1 ↵2 1 ↵2
mx = µ p e 2 d↵ +
2
↵p e 2 2 d↵
1 2⇡ 1 2⇡
Observe que la primera integral representa la integral de una función de probabilidad Gaus-
siana en todo R, por lo tanto es igual a 1. La segunda integral por otro lado es igual a cero,
ya que representa la integral de una función impar a lo largo de un intervalo simétrico en
relación al origen. Por lo tanto
mx = µ
Para el calculo de la media de una variable aleatoria discreta, podemos usar el hecho de
que la función densidad de probabilidad de una variable aleatoria discreta puede escribirse
de la siguiente forma X
fx (X) = P (x = Xi ) (X Xi )
i
por lo tanto, usando la definición de la media, tenemos que
Z 1 X X Z 1
mx = X P (x = Xi ) (X Xi )dX = P (x = Xi ) X (X Xi )dX
1 i i 1

o X
mx = Xi P (x = Xi ).
i

Varianza: La varianza ( x2 ) es una medida estadı́stica que esta asociada a la dispersión


de la variable aleatoria y es definida a través de (2.4) cuando g(x) = (x mx )2 , de esta forma
tenemos que Z 1
2
x = (X mx )2 fx (X)dX. (2.6)
1

Dr. Alexander B. Hilario Tacuri


2.4. Valor esperado 33

Es bueno resaltar que la raı́z cuadrada de la varianza, representa otra medida estadı́stica
conocida como desvı́o padrón. A modo de ejemplo, podemos calcular la varianza de una
variable aleatorio uniforme en el intervalo [a, b]. Utilizando (2.6) y la definición de la función
densidad de probabilidad de la variable aleatoria uniforme presentada en (2.3), tenemos que
Z b ✓ ◆
2 2 1 2 1 (b mx )3 (a mx )3
x = E[(x mx ) ] = (X mx ) dX =
b a a b a 3 3
Si deseamos calcular la varianza de una variable aleatoria Gaussiana, podemos utilizar
(2.6) y la definición de la función densidad de probabilidad de la variable aleatoria Gaussiana
presentada en (2.2), de esta forma tenemos que
Z 1
2 2 1 (X µ)2

x = (X µ) p e 2 2 dX
1 2⇡
esta integral puede ser calculada fácilmente utilizando la técnica de integración por partes,
sin embargo también puede ser calculada utilizando el siguiente artificio. Sabiendo que
Z 1
1 (X µ)2
p e 2 2 dX = 1
1 2⇡
tenemos que Z 1 (X µ)2 p
e 2 2 dX = 2⇡
1

derivando ambos lados de la expresión en función de tenemos que


Z 1 p
(X µ)2 (X µ) 2

3
e 2 2 dX = 2⇡
1

es decir Z 1
(X µ)2 (X µ)2
2
p e 2 2 dX =
1 2⇡
por lo tanto, tenemos que
2 2
x = .
Para el calculo de la varianza de una variable aleatoria discreta, podemos usar nuevamente
el hecho de que la función densidad de probabilidad de una variable aleatoria discreta puede
escribirse de la siguiente forma
X
fx (X) = P (x = Xi ) (X Xi )
i

por lo tanto, usando la definición de la varianza, tenemos que


Z 1 X X Z 1
2 2
x = (X mx ) P (x = Xi ) (X Xi )dX = P (x = Xi ) (X mx )2 (X Xi )dX
1 i i 1

o X
2
x = (Xi mx )2 P (x = Xi ).
i

Dr. Alexander B. Hilario Tacuri


34 Capı́tulo 2. Modelos probabilı́sticos

Valor medio cuadrático: El valor medio cuadrático (E[x2 ]) es una medida estadı́stica
que esta definida a través de (2.4) cuando g(x) = x2 , de esta forma tenemos que
Z 1
2
E[x ] = X 2 fx (X)dX. (2.7)
1

A modo de ejemplo, podemos calcular el valor medio cuadrático de una variable aleatorio
uniforme en el intervalo [a, b]. Utilizando (2.7) y la definición de la función densidad de
probabilidad de la variable aleatoria uniforme presentada en (2.3), tenemos que
Z b
2 1 b 3 a3
E[x ] = X 2 dX =
b a a 3(b a)

Si deseamos calcular el valor medio cuadrático de una variable aleatoria Gaussiana, pode-
mos utilizar (2.7) y la definición de la función densidad de probabilidad de la variable aleatoria
Gaussiana presentada en (2.2), de esta forma tenemos que
Z 1
2 1 (X µ)2
E[x ] = X2 p e 2 2 dX
1 2⇡
para resolver esta integral, podemos usar el resultado del calculo de la varianza, que será
repetido por conveniencia,
Z 1
(X µ)2 (X µ) 2
p e 2 2 dX = 2
1 2⇡
resolviendo el cuadrado del lado izquierdo de la ecuación
Z 1
1 (X µ)2
(X 2 + µ2 2Xµ) p e 2 2 dX = 2
1 2⇡
es decir
Z 1 Z 1 Z 1
1 (X µ)2 1 (X µ)2 1 (X µ)2
X2 p e 2 2 dX = 2
+ 2µ Xp e 2 2 dX µ 2
p e 2 2 dX
1 2⇡ 1 2⇡ 1 2⇡
note que la primera integral del lado derecho de la ecuación vale µ y la segunda integral vale
1. Por lo tanto, tenemos que
E[x2 ] = 2 + µ2
El concepto de valor medio cuadrático es bastante utilizado en problemas de optimización
y estimación de parámetros. Por ejemplo, en el cálculo de coeficientes de un ecualizador, es
usual optimizar los valores de los niveles de cuantización a través del criterio denominado
mı́nimo error medio cuadrático.

Es bueno resaltar que los valores esperados anteriormente definidos son usualmente cono-
cidos como momentos. De forma general podemos definir:

• Momento de orden n: E[xn ]

Dr. Alexander B. Hilario Tacuri


2.4. Valor esperado 35

• Momento central de orden n: E[(x mx ) n ]

Las medidas estadı́sticas anteriormente presentadas, estudian el comportamiento de una


sola variable aleatoria, cuando trabajamos con dos o más variables aleatorias, otras medidas
deben ser estudiadas.

Correlación: La correlación rxy entre dos variables aleatorias x y y es definida como


Z 1 Z 1
rxy = E[xy] = XY fxy (X, Y )dXdY (2.8)
1 1

Covarianza: La covarianza kxy entre dos variables aleatorias x y y es definida como


Z 1 Z 1
kxy = E[(x mx )(y my )] = (X mx )(Y my )fxy (X, Y )dXdY (2.9)
1 1

la correlación y la covarianza de dos variables aleatorias están relacionadas a través de

kxy = rxy mx my (2.10)

Coeficiente de correlación: El coeficiente de correlación ⇢xy entre dos variables aleato-


rias x y y es definido como
kxy
⇢xy = . (2.11)
x y

Utilizando la definición del coeficiente de correlación, podemos concluir que dos variables
aleatorias son descorrelacionadas (⇢xy = 0) cuando su covarianza es cero, es decir, kxy = 0.
Al mismo tiempo, este resultado nos permite concluir que una forma equivalente para mostrar
descorrelación es dado por la siguiente expresión

rxy = mx my . (2.12)

2.4.1 Valor esperado de vectores y matrices


El valor esperado de un vector x es definido como un vector de la misma dimensión cuyos
componentes son los valores esperados de los componentes de x.

Vector media: El vector media mx de un vector aleatorio x = (x1 , x2 , . . . , xN )T es


definido por 2 3 2 3
E[x1 ] m x1
6 E[x2 ] 7 6 mx 7
6 7 6 27
mx = 6 .. 7 = 6 .. 7 .
4 . 5 4 . 5
E[xN ] m xN

Dr. Alexander B. Hilario Tacuri


36 Capı́tulo 2. Modelos probabilı́sticos

Matriz Covarianza: La matriz covarianza Kx de un vector aleatorio x = (x1 , x2 , . . . , xN )T


es definido por
2 3
E[(x1 mx1 )2 ] · · · E[(x1 mx1 )(xN mxN )]
6 E[(x2 mx )(x1 mx )] · · · E[(x2 mx )(xN mx ) 7
T 6 2 1 2 N 7
Kx = E[(x mx )(x mx ) ] = 6 .. . . .. 7
4 . . . 5
2
E[(xN mxN )(x1 mx1 )] · · · E[(xN mxN ) ]

o, considerando las definiciones anteriores,


2 3
2
x1 k x1 x2 · · · k x1 xN
6 kx x 2
· · · k x2 xN 7
6 2 1 x1 7
Kx = 6 .. ... .. 7 .
4 . . 5
2
k xN x1 k xN x2 ··· xN

Función densidad de probabilidad de un vector Gaussiano: Un vector aleatorio


x es Gaussiano (sus componentes son conjuntamente Gaussianas) si la variable aleatoria real

z = aT x

es Gaussiana para cualquier valor de a. La función densidad de probabilidad de este tipo de


vectores es dado por
1 1
(x mx )T Kx 1 (x mx )
fx (X) = p e 2
det(Kx )(2⇡)N/2
El estudio de las variables o vectores aleatorios Gaussianos es muy importante ya que gran
parte de los fenómenos fı́sicos pueden ser descritos por un modelo probabilı́stico Gaussiano.
Esto fue probado por el Teorema del limite central, que indica que si una variable aleatoria
definida por
XN
yn = xi
i=1

donde x1 , x2 , . . . , xN son variables estadı́sticamente independientes, idénticamente distribuidas,


todas con media mx y varianza x2 . Entonces, para valores grandes de N , la variable aleatoria
yn es Gaussiana con función densidad de probabilidad dada por
(↵ N mx )2
1
fyn (↵) = p e 2N x2
.
N x2 2⇡

2.5 Procesos estocásticos


Un proceso estocástico es una colección o familia de variables aleatorias que dependen de una
variable independiente (usualmente esta variable independiente es el tiempo). En algunos
casos, las funciones de muestra de un proceso estocástico pueden ser representadas por una

Dr. Alexander B. Hilario Tacuri


2.5. Procesos estocásticos 37

expresión matemática simple, sin embargo en algunas situaciones eso no es posible. Considere
por ejemplo las funciones de muestra producida por la tension de ruido radio-eléctrico. Una
función de muestra de este proceso, puede ser visto en la Figura 2.1.

Figura 2.1: Tension de ruido radio-electrico

Como podemos ver, la curva de la Figura 2.1 es bastante irregular y no existe una ex-
presión matemática simple. Por otro lado, si consideramos los osciladores producidos por
una determinada fabrica, aunque la frecuencia de oscilación debe ser la misma, es usual que
exista una pequeña diferencia en los valores de estas frecuencias para diferentes osciladores,
sin embargo la señal generada por los osciladores puede ser representada por

x(t, w) = A sin(2⇡fc (w)t)

donde w representa el punto de muestra referente al oscilador seleccionado.

Momentos de procesos estocásticos


Los momentos de un proceso estocástico son los momentos de variables aleatorias definidos
en cualquier instante del proceso. Los momentos mas importantes serán presentados a seguir.

Media: La media de un proceso estocastico x(t), representado por mx (t), es definida


como
mx (t) = E[x(t)].
Función Autocorrelación: La función autocorrelación de un proceso estocástico x(t),
representado por Rx (t1 , t2 ), es definida como la correlación entre las variables aleatorias x(t1 )

Dr. Alexander B. Hilario Tacuri


38 Capı́tulo 2. Modelos probabilı́sticos

y x(t2 ), es decir,
Rx (t1 , t2 ) = E[x(t1 )x(t2 )]
es importante mencionar que la función correlación cuando t1 = t2 = t es denominada valor
medio cuadrático del proceso y es definida como
Rx (t, t) = E[x(t)2 ].
Función Autocovarianza: La función autocovarianza de un proceso estocástico x(t),
representado por Kx (t1 , t2 ), es definida como la covarianza entre las variables aleatorias x(t1 )
y x(t2 ), es decir,
Kx (t1 , t2 ) = E[(x(t1 ) mx (t1 ))(x(t2 ) mx (t2 ))]
análogamente a lo presentado para variables aleatorias, la expresión que relaciona la función
autocorrelación y autocovarianza es dada por
Kx (t1 , t2 ) = Rx (t1 , t2 ) mx (t1 )mx (t2 )
Ejemplo 2.2: Considere un proceso estocástico x(t), cuyas funciones de muestra son rectas
de la forma
x(t) = a1 t + a2
donde a1 y a2 son variables aleatorias Gaussianas, es decir, forman un vector Gaussiano con

0
ma =
0
y 
1 1/2
Ka = .
1/2 1
La media de este proceso estocástico es dada por
mx (t) = E[x(t)] = E[a1 ]t + E[a2 ]
como E[a1 ] = E[a2 ] = 0, tenemos que
mx (t) = 0.
Para calcular la función autocorrelación de este proceso, observe que
Rx (t1 , t2 ) = E[x(t1 )x(t2 )] = E[(a1 t1 + a2 )(a1 t2 + a2 )]
= t1 t2 E[a21 ] + E[a1 a2 ](t1 + t2 ) + E[a22 ]
Como E[a1 ] = E[a2 ] = 0 y a partir de la matriz covarianza de a tenemos que
E[a21 ] = E[a22 ] = 1
y
1
E[a1 a2 ] = ,
2
finalmente tenemos que
t1 + t2
Rx (t1 , t2 ) = t1 t2 + + 1.
2

Dr. Alexander B. Hilario Tacuri


2.5. Procesos estocásticos 39

Ejemplo 2.3: Considere un proceso estocástico x(t), que caracteriza una transmisión binaria
semi-aleatoria, que puede asumir uno dentro de dos valores: A y A en un determinado
intervalo de duración T . Una función de muestra de este proceso estocástico es presentado
en la Figura 2.2.

Figura 2.2: Transmisión digital binaria semi-aleatoria

Si suponemos que los valores A y A ocurren con probabilidades p y 1 p, respectiva-


mente. Para un instante t cualquiera, la función densidad de probabilidad del proceso puede
ser expresada como
fx (X) = p (X A) + (1 p) (X + A).
Ası́, la media de este proceso estocástico puede ser calculada usando
Z 1
mx = E[x(t)] = Xfx (X)dX = A(2p 1).
1

Para el calculo de la función autocorrelación, definimos una variable aleatoria y = x(t1 )x(t2 )
donde t1 y t2 son dos instantes de tiempo cualquiera que pertenecen a un determinado
intervalo. Asi, tenemos que considerar dos escenarios diferentes, en el primer escenario, los
instantes de tiempo t1 y t2 pertenecen al mismo intervalo (n1 = n2 ). En este caso la variable
aleatoria y siempre toma el valor A2 , por lo tanto
fy|n1 =n2 (Y ) = (Y A2 ).
En el segundo escenario, consideramos que los instantes de tiempo t1 y t2 pertenecen a
diferentes intervalos (n1 6= n2 ). Por lo tanto y puede asumir los valores A2 y A2 , es decir,
P (y = A2 |n1 6= n2 ) = P (xt1 = A, xt2 = A|n1 6= n2 ) + P (xt1 = A, xt2 = A|n1 6= n2 )

Dr. Alexander B. Hilario Tacuri


40 Capı́tulo 2. Modelos probabilı́sticos

P (y = A2 |n1 6= n2 ) = P (xt1 = A, xt2 = A|n1 6= n2 ) + P (xt1 = A, xt2 = A|n1 6= n2 )

considerando que xt1 y xt2 son variables aleatorias independientes.

P (y = A2 |n1 6= n2 ) = p2 + (1 p)2 = 2p2 2p + 1

P (y = A2 |n1 6= n2 ) = 2p(1 p) = 2p 2p2

por lo tanto

fy|n1 6=n2 (Y ) = (2p2 2p + 1) (Y A2 ) + (2p 2p2 ) (Y + A2 ).

Como

Rx (t1 , t2 ) = E[x(t1 )x(t2 )] = E[y],

tenemos que

A2 ; n1 = n2
Rx (t1 , t2 ) = (2.13)
A2 (2p 1) 2
; n1 6= n2

Ejemplo 2.4: Considere un proceso estocástico x(t) definido por una señal sinusoidal con
una fase aleatoria, es decir

x(t) = A sin(2⇡f t + ✓)

donde ✓ es una variable aleatoria uniformemente distribuida en el intervalo [0, 2⇡], es decir

⇢ 1
2⇡
; ⇥ 2 [0, 2⇡]
f✓ (⇥) = . (2.14)
0 ; ⇥ 62 [0, 2⇡]

La Figura 2.3 muestra funciones de muestra de este proceso.

Dr. Alexander B. Hilario Tacuri


2.5. Procesos estocásticos 41

Figura 2.3: Señales sinusoidales con fase aleatoria

La media de este proceso estocástico es dado por


Z 1
mx (t) = E[A sin(2⇡f t + ✓)] = A sin(2⇡f t + ⇥)f✓ (⇥)d⇥
1
Z 2⇡
1
= A sin(2⇡f t + ⇥) d⇥ = 0
0 2⇡
La función autocorrelación del proceso es dada por

Rx (t1 , t2 ) = E[x(t1 )x(t2 )] = E[A2 sin(2⇡f t1 + ✓) sin(2⇡f t2 + ✓)]


A2 A2
= E[cos(2⇡f (t2 t1 ))] E[cos(2⇡f (t2 + t1 ) + 2✓)]
2 2
puede ser fácilmente probado que, el segundo valor esperado del lado derecho de la ecuación
anterior es dado por
Z 2⇡
1
E[cos(2⇡f (t2 + t1 ) + 2✓)] = cos(2⇡f (t2 + t1 ) + 2⇥) d⇥ = 0
0 2⇡
por lo tanto
A2
Rx (t1 , t2 ) = cos(2⇡f (t2 t1 )).
2

Ejemplo 2.5: Considere un proceso estocástico x(t) definido por

x(t) = Ae t u(t)

Dr. Alexander B. Hilario Tacuri


42 Capı́tulo 2. Modelos probabilı́sticos

donde A representa una variable aleatoria de media 0 y varianza 1. La media de este proceso
estocástico es dado por

E[x(t)] = E[Ae t u(t)] = E[A]e t u(t) = 0

y su función autocorrelación por

Rx (t1 , t2 ) = E[x(t1 )x⇤ (t2 )] = E[Ae t1


u(t1 )Ae t2
u(t2 )] = E[A2 ]e (t1 +t2 )
u(t1 )u(t2 ) = e (t1 +t2 )
u(t1 )u(t2 )


Ejemplo 2.6: Considere un proceso estocástico x(t) definido por
1
X
x(t) = Ak p(t kT )
k= 1

donde A representa una variable aleatoria de media 0 y varianza 1 y p(t) un pulso rectangular
de duración T . La media de este proceso estocástico es dado por
" 1 # 1
X X
E[x(t)] = E Ak p(t kT ) = E[Ak ]p(t kT ) = 0
k= 1 k= 1

y su función autocorrelación por


1
X 1
X 1
X
Rx (t1 , t2 ) = E[Ak1 Ak2 ]p(t1 k1 T )p(t2 k2 T ) = p(t1 kT )p(t2 kT ).
k1 = 1 k 2 = 1 k= 1

Note que este resultado fue obtenido considerando el Ejemplo 2.2 para el caso particular en
que Ak tiene media 0, y los sı́mbolos son equiprobables, es decir p =0.5. ⌅
Ejemplo 2.7: Considere un proceso estocástico x(t) definido por
1
X
x(t) = Ak p(t ✏ kT )
k= 1

donde Ak representa una variable aleatoria de media 0 y varianza 1, p(t) un pulso rectangular
de duración T y ✏ una variable aleatoria que modela el sincronismo del sistema, puede asumir
que esta es una variable aleatoria uniforme en [0, T ]. La media de este proceso estocástico es
dado por
" 1 # 1
X X
E[x(t)] = E Ak p(t ✏ kT ) = E[Ak ]E[p(t ✏ kT )] = 0
k= 1 k= 1

y su función autocorrelación por


1
X 1
X 1
X
Rx (t1 , t2 ) = E[Ak1 Ak2 ]E[p(t1 ✏ k1 T )p(t2 ✏ k2 T )] = E[p(t1 ✏ kT )p(t2 ✏ kT )]
k 1 = 1 k2 = 1 k= 1

Dr. Alexander B. Hilario Tacuri


2.5. Procesos estocásticos 43

en este caso, podemos utilizar la densidad de probabilidad de ✏


1 Z T
1 X
Rx (t1 , t2 ) = p(t1 ✏ kT )p(t2 ✏ kT )d✏
T k= 1 0

haciendo un cambio de variable ↵ = t1 ✏ kT , tenemos que


1 Z t1 (1+k)T
1 X
Rx (t1 , t2 ) = p(↵)p(t2 + ↵ t1 )d↵
T k= 1 t1 kT

por lo tanto Z
1 1
Rx (t1 , t2 ) = p(↵)p(t2 t1 + ↵)d↵
T 1
o Z
1 1
Rx (⌧ ) = p(↵)p( (⌧ ↵))d↵
T 1

donde ⌧ = t2 t1 . Finalmente
1
Rx (⌧ ) = p(⌧ ) ⇤ p( ⌧ )
T

Estacionalidad de los procesos estocásticos


Los procesos estocásticos puede clasificarse de acuerdo a sus propiedades de estacionalidad. Se
dice que un proceso es estacionario en el sentido amplio, si cumple las siguientes propiedades

E[x(t)] = K

y
Rx (t1 , t2 ) = Rx (t2 t1 ) = Rx (⌧ )
Por otro lado, los procesos estocásticos que cumplen las siguientes propiedades

E[x(t + kT )] = E[x(t)]

y
Rx (t1 + kT, t2 ) = Rx (t1 , t2 )
se denominan procesos ciclo-estacionarios.

Densidad espectral de potencia


El conocimiento de la forma en que la potencia de una determinada señal se distribuye sobre
el espectro de frecuencias es de extrema importancia en el análisis de sistemas de comunica-
ciones digitales. Este hecho, motiva la definición de la densidad espectral de potencia que es
una función de la frecuencia, que cuando integrada proporciona el nivel de potencia de una

Dr. Alexander B. Hilario Tacuri


44 Capı́tulo 2. Modelos probabilı́sticos

determinada señal.

Para procesos estacionarios en el sentido amplio, la densidad espectral de potencia es


dado por Z 1
Sx (f ) = Rx (⌧ )e j2⇡f t dt
1

es decir, la densidad espectral de potencia es la transformada de Fourier de la función autocor-


relación. Análogamente, para procesos cicloestacionarios, la densidad espectral de potencia
es dada por Z 1
j2⇡f t
Sx (f ) = R̄x (⌧ )e dt
1

donde Z T0
1
R̄x (⌧ ) = Rx (t + ⌧, t)dt.
T0 0
Note que, la potencia de una señal sobre todo el rango de frecuencias, puede ser obtenida
usando Z 1
Px = Sx (f )df
1

y considerando las definiciones anteriores, tenemos que

Px = Rx (0) = E[x2 (t)]

Ejemplo 2.8: Un proceso estocástico x(t), estacionario en el sentido amplio, es dicho un


proceso de ruido blanco si su densidad espectral de potencia es constante a lo largo de todo
el eje de las frecuencias, es decir,
Sx (f ) = C
utilizando la definición de la densidad espectral de potencia, podemos concluir que

Rx (⌧ ) = C (⌧ ).

2.6 Procesos estocásticos y sistemas lineales


Como fue visto en el capitulo anterior, la relación entre la entrada y la salida de un sistema
lineal es dado por Z 1
y(t) = h(t) ⇤ x(t) = x(⌧ )h(t ⌧ )d⌧,
1

donde h(t) representa la respuesta al impulso del sistemas lineal. A diferencia del capitulo
anterior, consideramos ahora que x(t) representa un proceso estocástico, por lo tanto su
salida y(t) también sera un proceso estocástico. La media de y(t) puede ser obtenida usando
Z 1 Z 1
E[y(t)] = E x(⌧ )h(t ⌧ )d⌧ = E[x(⌧ )]h(t ⌧ )d⌧ = E[x(⌧ )] ⇤ h(t)
1 1

Dr. Alexander B. Hilario Tacuri


2.6. Procesos estocásticos y sistemas lineales 45

es decir
my (t) = mx (t) ⇤ h(t).
Si consideramos que x(t) es estacionario en el sentido amplio, tenemos que mx = Kx , de esta
forma Z 1
my (t) = Kx h(t ⌧ )d⌧ = Kx H(0) = Ky
1

es decir, el valor medio de y(t) también es constante.

La función autocorrelacion de y(t) es dada por


Z 1 Z 1
Ry (t1 , t2 ) = E x(⌧1 )h(t1 ⌧1 )d⌧1 x(⌧2 )h(t2 ⌧2 )d⌧2
1 1
Z 1Z 1
= E[x(⌧1 )x(⌧2 )]h(t1 ⌧1 )h(t2 ⌧2 )d⌧1 d⌧2
1 1
Z 1Z 1
= Rx (⌧1 , ⌧2 )h(t1 ⌧1 )h(t2 ⌧2 )d⌧1 d⌧2
1 1

considerando que x(t) es estacionario en el sentido amplio,


Z 1Z 1
Ry (t1 , t2 ) = Rx (⌧1 ⌧2 )h(t1 ⌧1 )h(t2 ⌧2 )d⌧1 d⌧2
1 1

haciendo los siguientes cambios de variable

= t1 ⌧1
= t2 ⌧2

tenemos que Z Z
1 1
Ry (t1 , t2 ) = Rx (t1 t2 + )h( )h( )d d
1 1

note que Ry depende de la diferencia de t1 t2 , por lo que podemos escribir


Z 1Z 1
Ry (⌧ ) = Rx (⌧ + )h( )h( )d d
1 1

considerando que
Z 1
F1 (⌧ + ) = Rx (⌧ + )h( )d = Rx (⌧ + ) ⇤ h(⌧ + )
1

tenemos que Z 1
Ry (⌧ ) = F1 (⌧ + )h( )d
1
o Z 1
Ry (⌧ ) = F1 ( (⌧ ))h( )d
1

Dr. Alexander B. Hilario Tacuri


46 Capı́tulo 2. Modelos probabilı́sticos

por lo tanto
Ry (⌧ ) = F1 (⌧ ) ⇤ h( ⌧ )
o considerando la definición de F1
Ry (⌧ ) = Rx (⌧ ) ⇤ h(⌧ ) ⇤ h( ⌧ ).
La densidad espectral de potencia de y(t), que es dada por la transformada de Fourier de la
función autocorrelación es
Sy (f ) = Sx (f )H(f )H ⇤ (f )
o
Sy (f ) = Sx (f )|H(f )|2 .
Ejemplo 2.9: Considere un proceso estocástico de ruido blanco x(t), con media nula y
densidad espectral de potencia dada por
N0
Sx (f ) =
2
determine la media, función autocorrelación y potencia de la señal y(t) a la salida de un filtro
RC como el mostrado en la Figura 2.4.

x(t) y(t)
C

Figura 2.4: Filtro RC

La respuesta en frecuencia del filtro RC es dada por


1
j2⇡f C
H(f ) = 1 ,
R + j2⇡f C

utilizando los resultados anteriormente obtenidos, la media de y(t) es dada por


my (t) = Kx H(0)
como Kx = 0, my (t) = 0. La densidad espectral de potencia de y(t) es dada por
✓ ◆✓ ◆
2 N0 1
Sy (f ) = Sx (f )|H(f )| =
2 1 + (2⇡f RC)2
utilizando las propiedades de la transformada de Fourier, tenemos que
✓ ◆✓ ◆
N0 1 1
|⌧ |
Ry (⌧ ) = e RC
2 2RC

Dr. Alexander B. Hilario Tacuri


2.6. Procesos estocásticos y sistemas lineales 47

finalmente, tenemos que


Z 1
N0
Py = Sy (f )df = Ry (0) = E[y 2 (t)] = .
1 4RC

Dr. Alexander B. Hilario Tacuri