Está en la página 1de 75

UNIVERSIDAD NACIONAL DE INGENIERÍA

FACULTAD DE ELECTROTECNIA Y COMPUTACIÓN


DEPARTAMENTO DE SISTEMAS DIGITALES Y TELECOMUNICACIONES

SISTEMAS DE COMUNICACIONES I

UNIDAD 2: PROBABILIDADES Y PROCESOS ESTOCASTICOS

Prof.: Ing. Marco A. Munguía Mena


CONTENIDO

• Breve Repaso: Probabilidad Y Teoría de Conjunto

• Variables Aleatorias Discretas

• Variables Aleatorias Continuas

• Valor Esperado y Varianza

• Procesos Estocásticos
PROBABILIDAD Y TEORIA DE CONJUNTOS

Axiomas de Probabilidad

1. La Probabilidad nunca es Negativa: P[A] ≥ 0


2. La Probabilidad del Espacio Muestral es uno: P[S] = 1
3. Las Probabilidades de Eventos que son Mutuamente
Exclusivos pueden ser sumadas:
Ai ∩ Aj = Φ cuando i ≠ j
P[A1 U A2 U ….] = P[A1] + P[A2] + ……
PROB. Y TEORIA DE CONJUNTOS (Cont.)

Propiedades de Grupos de Conjuntos

Un Grupo de Conjuntos A1, ……, AN son Mutuamente


Exclusivos si y solamente si:
A
Ai ∩ Aj = Φ cuando i ≠ j
B Cuando sólo hay 2 conjuntos en el grupo, se dice que
los conjuntos son: Disconjuntos.

A2
Un Grupo de Conjuntos A1, ……, AN son Colectivamente
Exhaustivos si y solamente si:
A1 U A2 U ….. U AN = S
A1 A3
PROB. Y TEORIA DE CONJUNTOS (Cont.)

Probabilidad Condicional

La Probabilidad de ocurrencia del evento A dado que ocurrió B es:


PAB
PA | B  
PB 

Propiedades:
1. P[A|B] ≥ 0
2. P[B|B] = 1
3. Si A = A1 U A2 U … con Ai ∩ Aj =Φ para i ≠ j
P[A|B] = P[A1|B] + P[A2|B] + …
PROB. Y TEORIA DE CONJUNTOS (Cont.)

Ley Total de la Probabilidad

Si B1, B2, …, Bm son un conjunto de eventos mutuamente


exclusivos y colectivamente exhaustivos y P[Bi] > 0, entonces:
m
PA   PA | Bi PBi 
i 1

B1 B4
A
B2 B3
PROB. Y TEORIA DE CONJUNTOS (Cont.)

Teorema de Bayes

Para el evento A con P[A] > 0 :


PA | B PB
PB | A 
PA

Para un Event Space B1, B2, …,Bm con P[Bi] > 0, y utilizando la ley
de la Probabilidad Total tenemos:
PA | Bi PBi 
PBi | A  m

 PA | B PB 
i 1
i i
PROB. Y TEORIA DE CONJUNTOS (Cont.)

Eventos Independientes

Dos eventos A y B son Independientes, si y solamente si:

PAB  PAPB

Los eventos A, B y C son independientes si y solamente si:


• A y B son independientes
• B y C son independientes
• A y C son Independientes
• P[A ∩ B ∩ C] = P[A]P[B]P[C]
VARIABLES ALEATORIAS DISCRETAS

Definición de Variable Aleatoria


Una Variable Aleatoria es una función, la cual asocia a cada resultado
de un experimento un numero real.

Variable Aleatoria Discreta


X es una V.A.D. si el rango de valores de X es un conjunto contable.
S
.. .
W1
W3

.
W2
W4

X(w2) X(w1) X(w3) X(w4)


R
VARIABLES ALEATORIAS DISCRETAS (Cont.)

Función de Masa de Probabilidad (PMF)

La PMF de una Variable Aleatoria Discreta X es: PX ( x)  PX  x


donde X es la variables aleatoria y “x” es uno de los resultados del
experimento.

Propiedades: Para una V.A. X con PMF PX(x) y rango SX:


1. Para cualquier x, PX(x) ≥ 0
2. ∑x ЄSx PX(x) = 1
3. Para cualquier evento B incluido en SX , P[B] esta dado por:
P[B] = ∑ PX(x)
xЄB
VARIABLES ALEATORIAS DISCRETAS (Cont.)

Ejemplo de PMF

Un jugador de baloncesto, toma 2 tiros libres, cada tiro es


igualmente probable que sea encestado o no. Si cada tiro
encestado equivale a un punto. Encuentre la PMF de Y, tal que Y
sea el numero de puntos encestados.

Solución

Existen 4 diferentes resultados: bm, mb,mm y bb. Con un simple


diagrama de árbol podemos demostrar que cada resultado tiene
una probabilidad de ¼ y la V.A. Y tiene 3 posibles valores que
corresponden a 3 eventos.
VARIABLES ALEATORIAS DISCRETAS (Cont.)

Función de Masa de Probabilidad (PMF)

{Y=0} = {mm} {Y=1} = {bm,mb} {Y=2} = {bb}


P[Y=0] = P[mm] = ¼, P[Y=1] = P[bm,mb] = ½, P[Y=2] = P[bb] = ¼
PY(y)

La PMF se puede expresar: 1


1
4 y0
 0.5
1
PY ( y )   y 1
2
1
4 y2 0
 y
-1 0 1 2 3
VARIABLES ALEATORIAS DISCRETAS (Cont.)

Variable Aleatoria de Bernoulli

X es una variable aleatoria de Bernoulli, si su PMF tiene la forma:

1  p x0

PX ( x)   p x 1
0
 otro lugar

donde el parámetro p esta en el rango 0 < p < 1.


Aplicable a todos aquellos experimentos donde sólo se tienen 2
posibles resultados.
Ej.: Lanzar una Moneda, Test de Cktos. Integrados (bueno o malo)
VARIABLES ALEATORIAS DISCRETAS (Cont.)

Variable Aleatoria Binomial

X es una variable aleatoria Binomial, si su PMF tiene la forma:


 n  x n x
  p (1  p) x  0,1,2,......., n
PX ( x)   x 
0
 otro lugar

Donde: 0 < p < 1 y n es un número entero tal que n ≥ 1.


Aplicable para conocer el numero de éxitos en n intentos.
Ej.: El numero de bits erróneos en una secuencia de n bits
transmitidos en un canal con probabilidad de error p.
VARIABLES ALEATORIAS DISCRETAS (Cont.)

Variable Aleatoria Uniforme

X es una variable aleatoria Uniforme, si su PMF tiene la forma:

 1
 x  k , k  1,...., l
PX ( x)   (l  k  1)
0
 otro lugar

donde k y l son números enteros tal que k < l


Ej.: Lanzamiento de un dado no alterado
VARIABLES ALEATORIAS DISCRETAS (Cont.)

Variable Aleatoria Geométrica

X es una variable aleatoria Geométrica, si su PMF tiene la forma:

 p(1  p) x 1 x  1,2,.......
PX ( x)  
0 otro lugar

donde p debe cumplir: 0 < p < 1. Aplicables cuando se quiere


conocer el numero de intentos hasta lograr el primer éxito.
Ej.: El numero de exámenes tomados hasta aprobar el curso.
VARIABLES ALEATORIAS DISCRETAS (Cont.)

Variable Aleatoria Poisson

X es una variable aleatoria de Poisson, si su PMF tiene la forma:

 x e 
 x  0,1,2,......
PX ( x)   x!
0
 otro lugar

donde α > 0, λ es la tasa de arribos y T es el intervalo de tiempo,


teniendo que α = λT
Ej.: El número de llamadas que arriban a un conmutador
telefónicos
VARIABLES ALEATORIAS DISCRETAS (Cont.)

PMF Condicional
Para cualquier evento Y = tal que PY(y) > 0, La PMF Condicional
de X dado Y = y es:

PX |Y ( x | y )  P[ X  x | Y  y ]
PX ,Y ( x, y )
PX |Y ( x | y ) 
PY ( y )

Dado un evento B, con P[B] > 0. La PMF condicional de la variable


aleatoria X se representa por:

PX | B ( x)  PX  x | B 
VARIABLES ALEATORIAS DISCRETAS (Cont.)

PMF Condicional

Ahora, una variable aleatoria X que resulta de un experimento con


event space B1, …, Bm su PMF se expresa por:
m
PX ( x)   PX | Bi ( x) P[ Bi ]
i 1

La PMF Condicional de una variable aleatoria X dado el evento B


debe de satisfacer:
 PX ( x)
 xB
PX | B ( x)   P[ B]
0
 otro lugar
VARIABLES ALEATORIAS DISCRETAS (Cont.)

Múltiples Variables Aleatorias Discretas

La PMF Conjunta de N Variables Aleatorias se representa así:

PX 1 ,..., X n ( x1 ,......., xn )  P[ X 1  x1 ,........, X n  xn ]

Para N = 2, tenemos:

PX ,Y ( x, y )  P[ X  x, Y  y ]

PX ,Y ( x, y )  PX |Y ( x | y ) PY ( y )  PY | X ( y | x) PX ( x)
VARIABLES ALEATORIAS DISCRETAS (Cont.)

Múltiples Variables Aleatorias Discretas

Propiedades:

1.  P
xSx ySy
X ,Y ( x, y )  1

2. PX ( x)   PX ,Y ( x, y)
y

3. PY ( y)   PX ,Y ( x, y)
x

4. B es un subconjunto de X,Y. La probabilidad de B es:

P[ B]  P
( x , y )B
X ,Y ( x, y )
VARIABLES ALEATORIAS DISCRETAS (Cont.)

Variables Aleatorias Discretas Independientes

Dos Variables Aleatorias Discretas son independientes, si y


solamente si:

PX ,Y ( x, y )  PX ( x) PY ( y )

Por lo tanto podemos deducir que:

PX |Y ( x | y )  PX ( x)
PY | X ( y | x)  PY ( y )
VARIABLES ALEATORIAS CONTINUAS

Variable Aleatoria Continua

Cuando todos los valores que toma una Variable Aleatoria están
dentro de un intervalo de los números Reales, se dice que V.A. es
Continua.
Por ejemplo: A = {x | 1 < x < 25}

R
1 25
VARIABLES ALEATORIAS CONTINUAS (Cont.)

Diferencias con respecto a V.A. Discretas

• Espacio Muestral Discreto


- Un Numero finito de Resultados
- Cada Resultado tiene una probabilidad de Ocurrencia
• Espacio Muestral Continuo
- Tenemos un infinito número de Resultados
- Ejemplo: Obtener un número real entre 2 y 4
VARIABLES ALEATORIAS CONTINUAS (Cont.)

Función de Distribución Acumulativa (CDF)

Consideremos un evento particular en R :


• Evento X ≤ x Valor Superior de X

Variable Aleatoria
• FX(x) = P[X ≤ x] para todo x es llamada: Función de Distribución
Acumulativa (CDF)
VARIABLES ALEATORIAS CONTINUAS (Cont.)

Propiedades de la CDF

1. FX ()  0

2. FX ()  1

3. P[ x1  X  x2 ]  FX ( x2 )  FX ( x1 )

4. La CDF es una función Creciente de 0 a 1


VARIABLES ALEATORIAS CONTINUAS (Cont.)

Función de Densidad de Probabilidad (PDF)

Para eventos muy pequeños


FX(x)

x1
x

FX(x1+ε) – FX(x1) = P[x1 < X ≤ x1+ε]


VARIABLES ALEATORIAS CONTINUAS (Cont.)

Función de Densidad de Probabilidad (PDF)

Si hacemos ε más pequeño y le calculamos el limite tenemos:

P( x1  X  x1   ) FX ( x1   )  FX ( x1 )
Lim  Lim
 0   0 
dFX ( x)

dx
 f X ( x)

Esta función es llama: Función de Densidad de Probabilidad


VARIABLES ALEATORIAS CONTINUAS (Cont.)

Propiedades de la PDF

dFX ( x)
1. f X ( x) 
dx
2. f X ( x)  0 para todo x

3. f

X (u ) du  1

x2

4. P[ x1  X  x2 ]  f
x1
X (u ) du  FX ( x2 )  FX ( x1 ) para x1  x2

5. FX ( x)  f

X (u ) du
VARIABLES ALEATORIAS CONTINUAS (Cont.)

Variable Aleatoria Uniforme

0 xa
 1 x  a
 a xb 
f X ( x)   b  a FX ( x)   a xb
0 otro lugar b  a
1 xb

Donde a y b son números reales, además a < b


VARIABLES ALEATORIAS CONTINUAS (Cont.)

Variable Aleatoria Exponencial

Para a > 0
a e  ax x0
f X ( x)  
0 otro lugar

1  e ax x0
FX ( x)  
0 otro lugar
VARIABLES ALEATORIAS CONTINUAS (Cont.)

Variable Aleatoria de Rayleigh

Para a > 0

 2  a
2 2
x

f X ( x)   x a e
2
x0
0 otro lugar

 a 2 2
x

FX ( x)  1  e x0
2

0 otro lugar


VARIABLES ALEATORIAS CONTINUAS (Cont.)

Variable Aleatoria Gausiana

Donde μ es un numero real y σ > 0

( x )2
1 
f X ( x)  e 2 2

2  2

( x )2
x
x 
1
FX ( x) 
2  2 e

2 2
du   
  
VARIABLES ALEATORIAS CONTINUAS (Cont.)

PDF Condicional
Para x tal que fX(x) > 0, la PDF condicional de Y dado que X = x es:

f X ,Y ( x, y)
fY | X ( y | x) 
f X ( x)

La PDF Condicional de una V.A. X dado un subconjunto B de


resultados con P[B] > 0 se expresa por:

 f X ( x)
 xB
f X | B ( x)   P[ B]
0
 otro lugar
VARIABLES ALEATORIAS CONTINUAS (Cont.)

Múltiples Variables Aleatorias Continuas

La CDF y PDF Conjuntas de N Variables Aleatorias se representa


así:

FX 1 ,......, Xn ( x1 ,........, xn )  P[ X 1  x1 , .........., X n  xn ]

 n FX 1 ,......... ..., X n ( x1 ,.........xn )


f X 1 ,......... .., X n ( x,.........., xn1 ) 
x1 xn
VARIABLES ALEATORIAS CONTINUAS (Cont.)

Múltiples Variables Aleatorias Continuas

FX ,Y ( x, y )  P[ X  x, Y  y ]
Para N = 2, tenemos: x y
FX ,Y ( x, y )  f
  
X ,Y (u, v)dvdu

 2 FX ,Y ( x, y )
f X ,Y ( x, y ) 
x y
f X ,Y ( x, y )  f X |Y ( x | y ) fY ( y )  fY | X ( y | x) f X ( x)
VARIABLES ALEATORIAS CONTINUAS (Cont.)

Múltiples Variables Aleatorias Continuas

Propiedades:

0  FX ,Y ( x, y )  1
FX ( x)  FX ,Y ( x, )
FY ( y )  FX ,Y (, y )
FX ,Y (, y )  FX ,Y ( x,)  0
FX ,Y (, )  1
Si x1  x y y1  y, entonces FX ,Y ( x, y )  FX 1Y1 ( x1 , y1 )
VARIABLES ALEATORIAS CONTINUAS (Cont.)

Múltiples Variables Aleatorias Continuas

Propiedades:
f X ,Y ( x, y )  0 para todo ( x, y )
 

 f
 
X ,Y ( x, y ) dx dy  1

P[ A]   fA
X ,Y ( x, y ) dx dy


f X ( x)  f

X ,Y ( x, y ) dy


fY ( y )  f

X ,Y ( x, y ) dx
VARIABLES ALEATORIAS CONTINUAS (Cont.)

Variables Aleatorias continuas Independientes

Dos Variables Aleatorias Continuas son independientes, si y


solamente si:

f X ,Y ( x, y )  f X ( x ) f Y ( y )

Por lo tanto podemos deducir que:

f X |Y ( x | y )  f X ( x)
fY | X ( y | x )  fY ( y )
VALOR ESPERADO Y VARIANZA

Definición de Valor Esperado

V.A. Discreta: EX    X   xP ( x)


X
xS X

Valor Esperado de algunas V.A. Discretas:


1. Bernoulli: E[X] = p
2. Geométrica: E[X] = 1/p
3. Poisson: E[X] = α
4. Binomial: E[X] = np
5. Uniforme: E[X] = (k + l)/2
VALOR ESPERADO Y VARIANZA (Cont.)

Definición de Valor Esperado

V.A. Continua: E X    X  x f X ( x) dx


Valor Esperado de algunas V.A. Discretas:


1. Uniforme: E[X] = (b+a)/2
2. Exponencial E[X] = 1/a
3. Rayleigh: E[X] = √(π/2a2)
4. Gausiana: E[X] = μ
VALOR ESPERADO Y VARIANZA (Cont.)

Propiedades del Valor Esperado

1. E[cX] = cE[X]
2. Var [ Constante ] = Constante
3. E[X +c] = E[X] + c
4. E[ X + Y] = E[X] + E[Y]
VALOR ESPERADO Y VARIANZA (Cont.)

Valor Esperado Condicional

Discreto:

E X | Y  y    xP X |Y ( x | y)
xS X

Continuo:

EX | Y  y   x f X |Y ( x | y ) dx

VALOR ESPERADO Y VARIANZA (Cont.)

Valor Cuadrático Medio

Discreto:
   x P ( x)
E X2  2
X
xS X

E X    x P ( x)
n n
X
xS X

Continuo:

  x
E X2  2
f X ( x) dx


  x
E Xn  n
f X ( x) dx
 Curso 2005
VALOR ESPERADO Y VARIANZA (Cont.)

Varianza

V.A. Discreta y Continua:

Var[ X ]   X2  E[( X  E[ X ]) 2 ]  E[ X 2 ]  ( E[ X ]) 2
Desviación Estándar:

 X  Var(x)

Nota: La Varianza siempre es Mayor que 0 (Cero)

Curso 2005
VALOR ESPERADO Y VARIANZA (Cont.)

Propiedades de la Varianza

1. Si Y = aX + b, donde a y b son constantes, entonces:


Var[Y] = a2Var[Y]
2. Var [ Constante ] = 0
3. Var[-X] = Var[X]
4. Var[X + Y] = Var[X] + Var[Y] + 2E[(X - μX)(Y - μY)]
VALOR ESPERADO Y VARIANZA (Cont.)

Varianza

Varianza de algunas V.A. Discretas:

1. Bernoulli: Var[X] = p(1-p)

2. Geométrica: Var[X] = (1-p) / p

3. Binomial: Var[X] = np(1-p)

4. Poisson: Var[X] = α

5. Uniforme: Var[X] = (l-k) (l-k+2) / 12


VALOR ESPERADO Y VARIANZA (Cont.)

Varianza

Varianza de algunas V.A. Continuas:

1. Uniforme Var[X] = (b-a)2 / 12

2. Exponencial: Var[X] = 1 / a2

3. Rayleigh: Var[X] = (2 – π/2) / a2

4. Gausiana: Var[X] = σ2
VALOR ESPERADO Y VARIANZA (Cont.)

Varianza Condicional

Discreto y Continuo:

Var[ X | Y ]  E[( X  E[ X | Y ]) 2 | Y ]  E[ X 2 | Y ]   X2 |Y

La Correlación

La Correlación de X e Y se expresa por:


rX ,Y  E[ XY ]   xyP
xS X ySY
X ,Y ( x, y )

 
rX ,Y  E[ XY ]    xy f
  
X ,Y ( x, y ) dx dy
VALOR ESPERADO Y VARIANZA (Cont.)

Covarianza

Cov[ X , Y ]  E[( X   X )(Y  Y )]


 E[ XY ]   X Y

Coeficiente de Correlación

Cov[ X , Y ]
 X ,Y   1   X ,Y  1
Var[ X ]Var[Y ]
VALOR ESPERADO Y VARIANZA (Cont.)

Variables Aleatorias Independientes

1. rX ,Y  E[ XY ]  E[ X ]E[Y ]
2. E[ X | Y  y ]  E[ X ] para todo y  SY
3. E[Y | X  x]  E[Y ] para todo x  S X
4. Var[ X  Y ]  Var[ X ]  Var[Y ]
5. Cov[ X , Y ]   X ,Y  0
VALOR ESPERADO Y VARIANZA (Cont.)

Variables Aleatorias Ortogonales

Dos Variables Aleatorias X e Y son Ortogonales si la correlación


es igual a CERO.

rX ,Y  E[ XY ]  0
Variables Aleatorias No Correlacionadas

Dos Variables Aleatorias X e Y son No Correlacionadas si la


covariancia es igual a CERO.

Cov[ X , Y ]  0
PROCESOS ESTOCASTICOS

Definición

Consideremos un experimento aleatorio especificado por los


resultados s de un Espacio Muestral S. Suponga que a cada
resultado le asignamos una función de tiempo representada:
X(t,s) -T ≤ t ≤ T
donde 2T es el intervalo de observación total.

En un punto sj de la muestra, la grafica de la función X(t,sj), en


función del tiempo t recibe el nombre función de muestra, la cual
denotamos como: xj(t) = X(t,sj).
PROCESOS ESTOCASTICOS (Cont.)

La figura (próxima diapositiva) muestra un conjunto de funciones de


muestra. Para un tiempo fijo tk dentro del intervalo de información el
conjunto de números
{x1(tk), x2(tk), . . ., xn(tk)} = {X(tk,s1), X(tk,s2), . . ., X(tk,sn)}
que constituye una variable aleatoria. Por lo tanto tenemos una
familia indexada de V.A. {X(t,s)}, que se le denomina proceso
aleatorio. Por simplicidad, usaremos la notación: X(t) para
representar un proceso aleatorio.
PROCESOS ESTOCASTICOS (Cont.)
x1(t)
x1(tk)

s1

s2
. x2(t) x2(tk)
.
.
sn
S

xn(t) xn(tk)

-T T
tk
PROCESOS ESTOCASTICOS (Cont.)

Tipos

Amplitud de X(.)
Continuo Discreto
Continuo
Eje del Tiempo

Tiempo Continuo Tiempo Continuo


Valor Continuo Valor Discreto
Discreto

Tiempo Discreto Tiempo Discreto


Valor Continuo Valor Discreto
PROCESOS ESTOCASTICOS (Cont.)

Las Cuatro Combinaciones


PROCESOS ESTOCASTICOS (Cont.)

Promedios Estadísticos

X(t1) X(t2) = X(t1+ ) 


Media  X (tk )  E[ X (tk )]  x f



X (t k ) ( x) dx
PROCESOS ESTOCASTICOS (Cont.)

Varianza

Var[ X (tk )]    x  E[ X (t k )] 2
f X (t k ) ( x) dx  E[ X (tk ) 2 ]  E[ X (tk )]
2



Covarianza: El comportamiento conjunto de un proceso X(t) en dos


instantes de tiempo distintos es contenido en la función de autocovarianza

C X (t , )  Cov[ X (t ) X (t   )]
 E[( X (t )   X (t )) ( X (t   )   X (t   ))]
 E[ X (t ) X (t   )]   X (t )  X (t   )
{
Autocorrelación
PROCESOS ESTOCASTICOS (Cont.)

1. Si el valor de la covarianza es alto quiere decir que X(t) varía


muy lento.
2. Si el valor de la covarianza tiende a cero, X(t) varía rápido.

Autocorrelación

RX (t , )  E[ X (t ) X (t   )] 
  xy f
all( x , y )
X ( t ), X ( t  ) ( x, y )dx dy
PROCESOS ESTOCASTICOS (Cont.)

Propiedades de la Autocorrelación

1. RX(0) ≥ 0
2. RX(t) = RX(-t)
3. |RX(t)| ≤ RX(0)
Procesos IID (Independent Identically Distributed)
Es Decir
• Todos los X(tk) son mutuamente independientes.
• Todos los X(tk) tienen la misma PDF
f X1 , X 2 ,, X k  ( x1 , x2 ,, xk ,)  f X1 ( x1 ) f X 2 ( x2 )  f X k ( xk ) 
 f X ( x1 ) f X ( x2 )  f X ( xk ) 
PROCESOS ESTOCASTICOS (Cont.)

Proceso Estacionario

Un proceso es Estacionario si y solamente si para todo un


conjunto de instantes de tiempo t1, ……, tm y cualquier variación 
de tiempo se cumple:
f X (t1 ), X (t2 ),, X (tm ) ( x1 , x2 ,, xm ) 
 f X (t1  ), X (t2  ),, X (tm  ) ( x1 , x2 ,, xm )
Consecuencias

1. f X (t ) ( x)  f X (t  ) ( x)  f X ( x)

Todas las PDF´s marginales son independientes del tiempo


PROCESOS ESTOCASTICOS (Cont.)

Por lo tanto:

 X (t )  E[ X (t )]  E[ X ]   X

 X2 (t )  Var[ X (t )]  Var[ X ]   X2
RX (t , )  RX ( )
C X (t , )  C X ( )  RX ( )   X2

El Valor Esperado, la Varianza, la Autocorrelación y la Covarianza son


independientes del tiempo
PROCESOS ESTOCASTICOS (Cont.)

Proceso WSS (Wide Sense Stationary)

Para mostrar que un proceso es Estacionario es necesario calcular


la PDF conjunta, lo cual es difícil de obtener. Un proceso puede ser
estimado calculando su Valor Esperado y la Autocorrelación.
Si la Autocorrelación y la Media satisfacen lo propuesto por un
proceso Estacionario, podemos llamar a este proceso Estacionario
en el sentido amplio (WSS).
Un proceso que es Estacionario es WSS pero un proceso que es
WSS no es necesariamente Estacionario. (Excepción: Proceso
Gasussiano)
 X (t )   X
RX (t , )  RX ( )
 C X (t , )  C X ( )  RX ( )   X2
PROCESOS ESTOCASTICOS (Cont.)

La Potencia promedio de un proceso WSS se estima por:

RX (0)  E[ X 2 (t )]   X2  ( X )2

Filtrado de Procesos WSS

WSS

X(t) Sistema Lineal Y(t)


H(t), H(n)
PROCESOS ESTOCASTICOS (Cont.)
 
1. E[Y (t )]  E[h(t )  x(t )]  E   h( s) x(t  s) ds 
  
 
  h(s) E[ x(t  s)] ds  E[ X (t )]  h(s) ds  
 
X h(0)

2. RY (t , )  E[Y (t ) Y (t   )]  E[( h(t )  x(t )) (h(t   )  x(t   ))]


 
  h(u )  h(v) RX (  v  u ) dv du
 

 h( ) h( ) RX ( )
PROCESOS ESTOCASTICOS (Cont.)

Densidad Espectral de Potencia

S X ( f )  F{RX ( )} 

 R

X ( ) exp(  j 2f ) d

Recordando Fourier
 

G( f )   g (t ) e  j 2ft
dt G ( 0)   g (t )dt




g (t )   G ( f )e j 2ft df g (0)   G ( f )df


PROCESOS ESTOCASTICOS (Cont.)

La Potencia promedio de un proceso X(t) se puede también expresar


como: 
RX (0)  S

X ( f ) df

Si a la Autocorrelación del Proceso de salida le aplicamos la


transformada de Fourier se obtiene:

RY ( )  h( )  h( )  RX ( )

SY ( f )  H ( f ) H * ( f ) S X ( f )  | H ( f ) |2 S X ( f )
PROCESOS ESTOCASTICOS (Cont.)

Función de Correlación Cruzada

¿Cuál es la relación entre X(t1) y Y(t2)?

RXY (t , )  E[ X (t )Y (t   )]
PROCESOS ESTOCASTICOS (Cont.)

Propiedades de la Correlación Cruzada

1. Si X(t) y Y(t) son WSS entonces: RXY (t , )  RXY ( )

2. RXY ( )  RYX ( )

3. Densidad Espectral Cruzada



S XY ( f )  F RXY ( )   XY
R ( ) e  j 2f
d

4. Si X(t) es WSS y es el proceso de entrada de un filtro LTI, se
tiene que Y(t) (WSS) y se puede expresar:
F
RXY ( )  h( )  RX ( )  S XY ( f )  H ( f ) S X ( F )
PROCESOS ESTOCASTICOS (Cont.)

Proceso Gaussiano

• Los Valores de Muestra X(t1), X(t2), …, X(tk) tienen una PDF gaussiana
conjunta (multivariate).

• PDF Conjunta esta descrita por:


– vector µX=[µX(t1), µX(t2), …, µX(tk)]T
– Matriz de Covarianza C

Cij  C X (ti , t j  ti )  RX (ti , t j  ti )   X (ti )  X (t j )


1  1 
f X (t1 ),, X (tk ) ( x1 ,, xk )  exp   ( x   ) T
C 1
( x   X 
)
(2 ) C
X
 2 
k 2 12
PROCESOS ESTOCASTICOS (Cont.)

Casos Especiales
N=1 V.A. Gaussiana
N=2 Bivariate PDF Gasussiana

( x1  1 ) 2

1 2 12
f X ( t1 ) ( x1 )  e
2  2
1

  x  
2
2  ( x1  1 )( x 2   2 )  x 2   2  
2
  1 1      
   1 
  
1 2  2
 

 
 2 (1  ) 2 
 
 
e
f X (t1 ), X (t 2 ) ( x1 , x2 ) 
21 2 1   2
PROCESOS ESTOCASTICOS (Cont.)

Proceso Blanco

El termino Proceso Blanco es usado para denotar un proceso en el


cual todas las componentes de frecuencia tienen igual potencia, es
decir si su DSP es constante para todas las frecuencias.
SN(f)

N0
Sn ( f ) 
N0/2 2

N0
Rn ( )   ( )
2
f
PROCESOS ESTOCASTICOS (Cont.)

Muestreo y Proceso limitado en Banda

• Un Proceso de Banda Limitada ocupa un BW finito


• Si W es el ancho de banda del proceso entonces para todo valor de
frecuencia mayor que W la DEP es igual a cero.
• Las muestras se toman a intervalos regulares Ts, donde Ts ≤ 1/2W

Si X(t) es un proceso limitado en banda entonces SX(f) tiende a cero


cuando la |f| ≥ W. Entonces tenemos:
2
 

E  X (t )   X (kTs ) sin c(2W (t  kTs ))  0
 k   
1
donde Ts 
2W
PROCESOS ESTOCASTICOS (Cont.)

Proceso Pasabanda
SX(f)

-f0-W -f0 -f0+W f0-W f0 f0+W f

X(t) es un proceso Pasabanda, si su DSP tiende a cero para |f-f0| ≥ W


donde W < f0

S X ( f  f 0 )  S X ( f  f 0 ) | f | f 0
S Xc ( f )  S Xs ( f )  
0 Otro