Está en la página 1de 54

CAPITULO VI PROCESOS ALEATORIOS Y RUIDO

6.1.-INTRODUCCION Hasta ahora se han estudiado las seales determinsticas discretas y continuas; estas seales son aquellas que pueden definirse perfectamente para todo t. Sin embargo, la teora de las comunicaciones presenta como elemento fundamental la aleatoreidad ya que el mensaje no se conoce de antemano o lo que es lo mismo no es determinstico. Adicionalmente existen perturbaciones aleatorias en las transmisiones que se conocen como "ruido". En cualquiera de los dos casos es necesario conseguir un modelo matemtico que permita representar estos fenmenos con el fin de analizar su comportamiento frente a los sistemas de comunicaciones. Basndose en la experimentacin, se pueden encontrar ciertas regularidades en los procesos aleatorios que permitirn describirlos estadsticamente y en muchos casos esta descripcin nos proporcionar informacin sobre la densidad espectral de potencia de la seal aleatoria. Con esta ltima herramienta seremos capaces de analizar el efecto del ruido en cada sistema de comunicacin y la calidad final del mensaje recibido. Comenzaremos repasando brevemente las nociones de probabilidad, variables aleatorias, funciones de densidad probabilstica, etc., antes de entrar a la caracterizacin de los procesos aleatorios. 6.2.-REPASO DE PROBABILIDADES Existen fenmenos fsicos que presentan cierta regularidad estadstica y cuyo modelo determinstico equivalente sera altamente complicado. Por ejemplo si lanzamos una moneda y conocisemos la altura desde la cual se lanza, la ecuacin del movimiento de la mano que la lanza, peso, geometra, composicin de la moneda, temperatura, gravedad, etc., se podra determinar si saldr cara o sello; pero es evidente que, dado que el nmero de variables a manejar es tan grande, es preferible utilizar una descripcin probabilstica y decir, por ejemplo, que existe 50% de probabilidad de que la moneda, si est bien construda, caiga del lado cara y 50% que caiga del lado sello. En un experimento realizado un nmero suficiente de veces (n), se llamar espacio muestral al conjunto formado por todos los posibles resultados o eventos. La probabilidad de ocurrencia de un evento A se define como:

donde nA es el nmero de veces que ocurre A. Hay casos donde no es necesario realizar el experimento para determinar la probabilidad de un evento dado; por ejemplo, en una moneda normal P(cara)=P(sello)=0.5. En este caso se define la probabilidad de ocurrencia del evento A como:

Supongamos ahora que tenemos un espacio muestral compuesto por N eventos; si la ocurrencia de uno imposibilita la de cualquier otro, se dice que son mutuamente excluyentes en cuyo caso, si elegimos dos eventos A1 y A2, la probabilidad de que ocurra uno de los dos vendr dada por: P( A1 A2 ) = P( A1) + P( A2) Un ejemplo de esto sera el lanzamiento de un dado; las seis salidas posibles son eventos mutuamente excluyentes. Existen otros casos que corresponden a eventos no excluyentes; un ejemplo podra verse en el siguiente conjunto de interruptores:

El paso de corriente entre a y b se produce cuando cualquiera de los dos interruptores est cerrado; esto conduce a calcular la probabilidad de paso de esta corriente I como : P ( S1 cerrado S2 cerrado) Pero en este caso por no ser estos eventos mutuamente excluyentes, hay que restar la probabilidad de que ocurran juntos ; es decir: P( I ) = P(S1 cerrado) + P (S2 cerrado) - P(S1 cerrado y S2 cerrado) En general , para eventos cualesquiera no excluyentes: P( A1 A2 ) = P( A1) + P( A2) - P( A1 y A2 )

En ciertos experimentos pueden ocurrir simultneamente 2 o ms eventos. Se define la probabilidad conjunta de dos eventos A y B como:

donde nAB es el nmero de veces que A y B ocurren juntos. Si la ocurrencia del evento B depende del evento A, se puede definir probabilidad condicional como:

de donde se obtiene el Teorema de Bayes que establece que:

Si la ocurrencia de un evento A no afecta la ocurrencia de un evento B, se dice que A y B son eventos independientes en cuyo caso: P(A/B)=P(A) y P(B/A)=P(B) y P(A y B )= P(A) P(B) Ejemplos: 1.- En una caja se tienen dos monedas: La moneda 1 tiene 2 sellos y la moneda 2 tiene cara y sello con P(cara) = 1/3 y P(sello) = 2/3. Se saca una moneda se lanza 1 vez y sale sello, cul es la probabilidad de que si se vuelve a lanzar salga de nuevo sello?

2.- Si se tiene el siguiente sistema de rels, determine la probabilidad de que entre A y B fluya una corriente, conociendo que la probabilidad de que cada rel est cerrado es p.

6.3.-REPASO DE VARIABLES ALEATORIAS Y FUNCIONES PROBABILISTICAS Cuando se tienen experimentos cuyas salidas son nmeros reales, a la regla que asigna un nmero a cada salida del experimento se le llama variable aleatoria (v.a). Las variables aleatorias se clasifican en : -Variables aleatorias discretas: Aquellas que pueden tomar un nmero contable de valores distintos finitos o infinitos. Ej: X es una v.a que representa el nmero de caras que salen al lanzar una moneda 3 veces. X solo puede tomar los valores 0,1,2,3. -Variables aleatorias contnuas: Aquellas que pueden tomar cualquier valor en un rango dado del eje real. Ej: X es una v.a que representa el valor de voltaje de una seal ruidosa. En este caso, X puede tomar cualquier valor de la recta real. Para una v.a X, sea discreta o continua, se define la Funcin de Distribucin Acumulativa ( F.D.A ) F(x), como la probabilidad de que X tome valores menores que dicho x. Es decir: F(x) = P [Xx] Donde se cumple que : 1. 0 F(x) 1 2. Para x1 x2 , F (x1) F (x2) es decir dF/dx 0 3. P [ x1< X x2 ]= F (x2) - F (x1)

4. F( -) =0 5. F() =1 Si la v.a es discreta se define la Funcin Frecuencia P(xj) como la probabilidad que la v.a X tome el valor xj . La relacin entre esta funcin y F(x) viene dada por las siguientes propiedades:

Si la v.a es contnua se define la Funcin Densidad de Probabilidad f.d.p p(x) como

Sus propiedades son:

Si se utilizan deltas de Dirac, es posible definir una f.d.p para variables aleatorias discretas de la siguiente forma: De esta forma se puede unificar el tratamiento de las v.a contnuas y discretas. Ahora bien, se han definido funciones probabilsticas que permiten caracterizar el comportamiento de una variable aleatoria. Sin embargo, muchas veces estaremos interesados en analizar simultneamente dos o mas v.a. Esto conduce al concepto de Funcin Densidad Conjunta que para dos v.a, llamaremos pxy(x,y). Esto nos permitir calcular por ejemplo, la probabilidad de que las variables aleatorias tomen valores en determinados rangos simultneamente. As:

Tambin se pueden calcular las densidades marginales px(x) y py (y) de la siguiente forma:

6.4.- PROMEDIOS ESTADISTICOS Cuando se tiene una seal determinstica, se puede definir una funcin que la caracterice para todo tiempo. Sin embargo, si dicha seal representa, por ejemplo, el voltaje en un punto de una red, en la prctica se prefiere tener otro tipo de informacin ms manejable como por ejemplo la potencia promedio. Del mismo modo para seales aleatorias, en vez de trabajar con las funciones probabilsticas, muchas veces se utilizan datos ms prcticos conocidos como promedios estadsticos. Estos parmetros sern muy tiles porque, en muchos casos, tendrn relacin con los parmetros elctricos de las seales aleatorias de inters. El primer promedio a definir ser la media, valor esperado o esperanza de una v.a X que se calcula como:

El valor esperado cumple con las siguientes propiedades: 1.- E(constante)=constante 2.-E(Kx)= KE(x) para K constante 3.- E(x+y)=E(x)+E(y)

Adems de la media, existen otros promedios estadsticos como por ejemplo el momento n-simo de una v.a que se define como:

En particular el segundo momento ser de gran importancia as como la varianza, que no es ms que el segundo momento de la v.a referida a su media. Es decir:

A manera de ejemplo, y para ilustrar la importancia de la varianza de una v.a, imaginemos dos fbricas de bombillos que aseguran tener la misma vida media de su producto. Por ejemplo dos distribuciones uniformes alrededor de 1000, una de ancho 1000(Fbrica A) y otra de ancho 10(Fbrica B); al explorar ms y calcular la varianza de las v.a, definidas como la duracin de sus productos, se descubre que la de la fbrica A es mayor a la de la fbrica B. Esto lo que significa es que los productos de la fbrica A son menos confiables que los de la B, ya que a pesar de garantizar la misma duracin media, la desviacin alrededor de sta es mayor que la de la fbrica B. Justamente, otra cifra de inters es la desviacin standard sx, definida como la raz cuadrada de la varianza, que representa la desviacin que un valor tiene alrededor de la media de la distribucin. Ejemplo: Se tienen 2 fbricas de bombillos que aseguran que la vida media de su producto es de 1.000 horas. Sin embargo, al investigar ms se descubre que: a) El fabricante A produce N/2 bombillos que duran 500 horas y N/2 que duran 1.500. b) El fabricante B produce N bombillos cuya vida cumple con una distribucin uniforme entre 975 y 1025. Es decir:

Y efectivamente ambos productos tienen una vida media de 1.000 horas; sin embargo, sabemos que la confiabilidad no puede ser la misma en ambas fbricas; por tanto necesitamos otro parmetro que permita elegir qu fbrica produce los mejores bombillos. Ese parmetro puede ser la varianza anteriormente definida.
a. Fbrica A:

b) Fbrica B:

Esto indica que los productos de la fbrica B son mejores, ya que la varianza es menor que en el caso A. La varianza presenta las siguientes propiedades: 1 Varianza [constante] = 0 2 Varianza [kx] = k2 varianza [x] para k = constante 3 Varianza [x + y] = varianza [x] + varianza [y] solo s x e y son independientes.

4 La raz cuadrada de la varianza se le llama desviacin standard (x) y representa la desviacin que un valor tiene de la media de la distribucin. 5 P [(X-E(x)) > k x] 1/k2 o la probabilidad de que la v.a. se aleje de la media k veces la desviacin standard, es inversamente proporcional al cuadrado de k. Esta relacin recibe el nombre de desigualdad de Chebyshev y establece un lmite en la probabilidad de que una v.a. tome valores alejados de su media. Ejemplos: 1 Se transmite una seal S, modelada por una v.a uniformemente distribuida entre 0 y 2; esta se le agrega en el canal un ruido N que se modela por una v.a uniformemente distribuida entre 0 y 1. Determine a) El valor esperado de S+N b) El valor esperado de la potencia promedio de (S+N) sobre una resistencia de 2 Solucin:
a. E[Y] = E[S+N] = E [S] + E [N] = 1 + 0.5 = 1.5 2 b. Potencia promedio=E[ (S+N) ] /2

2.5.- PROMEDIOS ESTADISTICOS PARA MAS DE UNA VARIABLE ALEATORIA.

Si se tienen 2 variables aleatorias X, Y se definen sus momentos conjuntos como.

En particular el momento conjunto de primer orden E[xy] es de gran inters y recibe el nombre de correlacin de X Y. Tambin es importante la covarianza de las dos v.a. definida como:

Sus propiedades son:

1 Si E(xy)=0 se dice que X,Y son ortogonales 2 Si X e Y son independientes Cov (XY) = 0 3 Si Cov(XY) = 0 se dice que X y Y estn decorrelacionadas. 4 Si X y Y estn decorrelacionadas no necesariamente son ortogonales ni independientes. Ejemplo:Sea Z una v.a. uniformemente distribuida entre -1 y 1; se definen 2 nuevas v.a. X y Y como X = Z Y = Z2. Determine si X , Y estn decorrelacionadas.

Cov (XY)= E [XY]-E[X]E[Y] = 0 => X, Y estn decorrelacionadas pero no son independientes. 6.6.- DISTRIBUCIONES PROBABILISTICAS USUALES: 6.6.1.- Distribucin Uniforme: Se utiliza en aquellas v.a. igualmente probables en un intervalo (a,b) y se define como:

La media de una variable X con esta distribucin es: E[X] = 0.5(b+a) Su varianza resulta:

6.6.2.-Distribucin Gausseana: Es una de las distribuciones ms usadas debido al teorema del lmite central que establece lo siguiente: Si se tiene una v.a. Y resultado de sumar M variables Xi con distribuciones arbitrarias, la distribucin de Y se aproxima a gausseana cuando M crece, siempre que la contribucin de cada variable Xi sea muy pequea. Este teorema, por ejemplo, se aplica perfectamente al caso de ruido trmico el cual se forma con pequeas contribuciones de movimiento de electrones. La funcin densidad de probabilidad para una v.a X con distribucin gausseana se define como:

Donde: m es la media de la distribucin, 2 es la varianza y la desviacin estandar

Cuando queremos determinar valores de probabilidad sobre una v.a. con esta distribucin se necesita calcular: Pero esta integral no es de fcil resolucin. Es por esto que se ha tabulado el valor Q(k) definido como:

As por ejemplo si se desea determinar:

Hacemos el siguiente cambio de variable:

Ejemplo: Una v.a. gaussiana tiene E[ X] = 10 y x = 1. Determine P [x 13]

Con la funcin Q(k) podemos determinar cualquier valor de probabilidad ya que:

Muchas veces se tabula 0.5 - Q(k) en vez de Q(k). Sin embargo esto no altera el mtodo de calcular probabilidades. Ejemplo: Se tiene una v.a. gaussiana con media igual a 10 y varianza unitaria. Determine P[4 x 13].

m - k1 = 4 = 10 - k1 => k1 = 6 m + k2 = 13 = 10 + k2 => k2 = 3 => P[4 x 13] = 0.5 - Q(6)+0.5 - Q(3) 6.6.3.- Distribucin de Rayleigh

Esta distribucin ser muy til en algunas representaciones del ruido pasabanda que afecta los sistemas de comunicaciones. Est descrita como:

Si se desea determinar P(x x0)

Ejercicio: Una v.a con distribucin Rayleigh tiene x2 = 7. Cul es el valor de la media? Solucin:

6.6.4.- Distribucin binomial: Si un experimento solo puede producir 2 resultados A y su complemento (no A)con probabilidad p y q=1-p respectivamente, y ste se realiza m veces, la probabilidad que A ocurra k de estas m veces vendr dada por:

Donde el coeficiente binomial representa la cantidad de combinaciones de m elementos en los cuales k de ellos son A y el resto el complemento (no A). Por ejemplo: Si m=3 y k=1 tendremos

y en efecto existen 3 combinaciones donde A ocurre solo una vez, ya que: El coeficiente binominal se puede calcular con el tringulo de Pascal.

Ejemplo:

1 Una moneda normal se lanza 10 veces cul es la probabilidad de que salgan 4 caras?

A este tipo de pruebas se les llama de Bernoulli y es por esto que la distribucin a veces recibe ese nombre. Los momentos de una v.a. X con esta distribucin son: E(X)= p.m donde p=P(A) y m= N total de veces que se realiza la prueba. La varianza resulta igual a 2=mpq. 6.6.5.- Distribucin de Poisson: Cuando se realizan pruebas de Bernoulli , y se desea cuyos resultados pueden ser determinar la probabilidad de que en m pruebas A salga k veces, se utiliza la distribucin binomial. Pero si el nmero de pruebas crece mucho en un problema donde P[A] es muy pequea se prefiere utilizar la distribucin de Poisson para el clculo de probabilidades particulares. La funcin de probabilidad se expresa como:

Para esta distribucin tanto la media como la varianza son iguales numricamente a : Ejemplo: En una central telefnica se han recibido 270 llamadas en 180 minutos, es decir, 1.5 llamadas por minuto. Si quisiramos calcular la probabilidad de recibir 1, 2 3 llamadas en los prximos 3 minutos debiramos subdividir el tiempo total en subintervalos en los cuales ocurre o no ocurre llamada. Por ejemplo: A.- 3 minutos = 9 intervalos de 20 seg. La probabilidad de llamada en este caso sera:

Para evitar la probabilidad de 2 o ms llamadas en cada subintervalo es conveniente hacerlo cada vez ms pequeo y en ese caso la probabilidad de llamada baja pero n.p = cte. Es decir n-> ? p -> o pero np = cte. En este caso:

2 Un fabricante produce artculos con probabilidad de ser defectuoso igual a 0.001. Cul es la probabilidad de que en un lote de 500 artculos ninguno salga defectuoso?

y es ms cmodo trabajar con Poisson. 3 La probabilidad de que un automvil choque con otro es p = 0,0001. Si a cierta hora pasan 1.000 carros. Cul es la probabilidad que ocurran 2 o ms accidentes en dicho perodo?.

6.7.- PROCESOS ALEATORIOS Uno de los objetivos de la materia Comunicaciones I, es lograr una descripcin de las seales aleatorias bien sea que estas representen mensaje o ruido. Para lograrlo comenzaremos definiendo un proceso aleatorio como el conjunto de funciones temporales que resultan de un experimento particular, es decir, cada vez que se realiza el experimento, se produce como salida una determinada seal. La aleatoreidad radica en saber cual de todas las funciones saldr. Adems, en cada instante de tiempo tk, se puede definir una v.a que podra llamarse xtk.Queda claro que la diferencia fundamental entre una v.a y un proceso aleatorio es la dependencia con la variable tiempo.

Ejemplo: Suponga un proceso estocstico definido como x(t)= at donde a est uniformemente distribuda entre 0 y 1. Cada vez que se realiza el experimento, la salida es una recta de pendiente diferente. Para un tiempo dado, digamos t=t0, se tendr una v.a xt0= at0, que puede tomar valores entre 0 y t0. Una forma de caracterizar el proceso x(t) es a travs de la definicin de una funcin conjunta de infinitas v.a correspondientes a tiempos distintos tk. Afortunadamente, para la mayora de los problemas prcticos, bastar para su descripcin funciones de una o a lo sumo de dos v.a. Esto estar asociado al tipo de estacionaridad que cumpla el proceso estudiado; por esto a continuacin presentaremos conceptos y funciones esenciales para caracterizar los procesos aleatorios. 6.8.- ESTACIONARIDAD Supongamos un proceso aleatorio definido en un intervalo de tiempo dado dentro del cual definimos a su vez los instantes t1, t2 ,..., tn . Para caracterizar el proceso, necesitaramos una funcin probabilstica de orden n :
p x ( t 1) x ( t 2) .........x ( t n) ( x ( t 1) , x ( t 2) , ........, x ( t n) )

Diremos que un proceso aleatorio es estacionario en el sentido estricto, si sus propiedades estadsticas no cambian con un desplazamiento del origen temporal. Es decir:
p x ( t 1) .........x ( t n) ( x ( t 1) ,
........., x ( t n) )

= p x ( t 1+ )

........x ( t n+ ) ( x ( t 1+ ) , ......., x ( t n+ ) )

Si esta igualdad se cumple solo hasta un orden m, se dice que el proceso es estacionario de orden m lo que incluye la estacionaridad de todos los rdenes menores. En la prctica los procesos ms frecuentes se pueden modelar como estacionarios (aunque sea en pequesimos intervalos de tiempo) por lo menos hasta de segundo orden, y como sus propiedades ms importantes se describen muy bien con el primero y segundo momento, trabajaremos usualmente con estacionaridad de orden 2. Definamos la funcin de autocorrelacin de dos v.a x(t1) y x(t2), definidas dentro de un proceso x(t) para dos instantes t1 y t2 como: R x ( t1 ) x ( t 2 ) = x ( t1 ) x ( t 2 )p x ( t1 ) x ( t 2 ) ( x ( t1 ), x ( t 2 ))dx ( t1 )dx ( t 2 ) Esta funcin es muy til porque, adems de que nos dar idea del comportamiento temporal de x(t), en muchos casos nos proporcionar, al transformarla segn Fourier, la densidad espectral de potencia. Si el proceso es estacionario de orden 1, la media de la v.a es constante ( no depende del tiempo). Si el proceso es estacionario de orden 2, adems de cumplirse lo anterior, la correlacin entre dos v.a depender, no de la ubicacin absoluta de cada una, sino de la distancia entre ellas. La demostracin de sto, se basa en que, para un proceso estacionario de orden 2, se cumple:

Por lo tanto, Rx(t1,t2)= Rx(t1+ , t2 + ). Si seleccionamos = - t1, Rx(t1,t2)= Rx(0, t2 - t1 ) = Rx(). En ese caso podemos escribir: Rx() = E [ x(t) x(t- ) ] Definiremos ahora, un proceso estacionario en el sentido amplio, como aquel en el que se cumple: 1.- E [ x(t) ] = mx =constante 2.- E [ x(t) x(t- ) ] = Rx() Es evidente que un proceso estacionario de orden 2, lo ser en sentido amplio, sin embargo, esto ltimo no garantiza la primera condicin. La funcin de autocorrelacin de un proceso estacionario en el sentido amplio cumple las siguientes propiedades: a) Rx(0) = E [ x2(t) ] b) Rx() = Rx( - ) c) | Rx() | Rx( 0 )

d) La graficacin de Rx() puede darnos informacin sobre el comportamiento temporal del proceso. Por ejemplo : Si se tienen las siguientes funciones de autocorrelacin para dos procesos diferentes X1 y X2 :

Se observa que el proceso X1(t) flucta ms lentamente que el proceso X2(t) ya que la correlacin de este ltimo se anula ms rpidamente. En general , se dice que un proceso tiene un tiempo t0 de decorrelacin si Rx(t0) = 0.01 Rx( 0 ). Ejemplo 1: Sea x(t) el proceso descrito como x(t)= A Cos (0t + ) , donde A y 0 son constantes y est uniformemente distribudo entre 0 y 2. Determine la media y la autocorrelacin del proceso.

Ejemplo 2: Sea x(t)= at donde a est uniformemente distribudo entre 0 y 1. Determine la fdp de primer orden del proceso px(t) (x(t)) En este caso es ms fcil calcular la F.D.A ( Fx(t) (x(t))) y luego derivarla para obtener la fdp ( px(t) (x(t))). Fx(t) (x(t)) = P [ X(t) <= x(t) ] = P [ at <= x(t) ]

Es decir es una distribucin uniforme variable con el tiempo. Este proceso no es estacionario ni siquiera de primer orden. Ejemplo 3: Se tiene una seal telegrfica que puede tomar solo los valores A y -A y tiene igual probabilidad de cambiar de uno a otro en cualquier instante. Si n = Nmero promedio de cambios por unidad de tiempo, determine la autocorrelacin de este proceso. Una seal tpica podra ser:

Queremos calcular Rx() = E [ x(t) x (t- ) ] = Sumatoria de todos los posibles productos multiplicados por su probabilidad. En este caso x(t) x (t- ) solo puede tomar dos valores : A2 si x(t)= x (t- ) (nmero de cambios en t es par) y -A2 si x(t)= -x (t- ) (nmero de cambios en t es impar) .

Definamos por tanto la funcin probabilstica que permite obtener la probabilidad de que en t ocurran n cambios. Esto corresponde a una distribucin Poisson la cual est definida como: n ( ) e P [ en ocur r an n cambi os ] =
n!

Donde es la media de la distribucin equivalente a n.p

R () = E[x ( t ) x ( t )] = A 2 P N 0 cambios par A 2 P N 0 cambios impar

As: P [ x(t) = x (t ) ] = P [ Nmero de cambios sea par ] =

P [ x(t) = -x (t- t ) ] = P [ Nmero de cambios sea impar ] =

Por lo tanto:
Rx( ) = A e
2

Cosh -

A e

Senh = A e

Como esto es vlido para t negativo:


2

Rx( ) =

A e

6.9.- PROCESOS ERGODICOS En un proceso estocstico uno puede determinar ciertos parmetros de dos formas: a) Se toma una muestra completa del proceso (Ej: x1(t)) y se realizan clculos sobre ella b) Se toman los valores de todas las salidas posibles para un tiempo fijo tk y se calcula el parmetro deseado. Si el valor del parmetro resulta igual por los dos mtodos, se dice que el proceso es

ergdico con respecto a ese parmetro. Por ejemplo, ergodicidad con respecto a la media sera decir que :

Dara el mismo resultado tomar , por ejemplo, x2(t) y promediarla en el tiempo, o tomar los valores de x1(tk), x2(tk),......, xn(tk) y promediarlos. Es evidente que si un proceso es ergdico tambin es estacionario y si la salida representa una seal elctrica, esta ser de potencia y se cumplir que:
E [ x ] = x = Ni vel D.C de x(t )
2 2

E[ x ] = x
2

= Pot enci a pr omedi o t ot al de x(t )

E [x ] = x
2 2

= Pot enci a D.C de x(t )


2

x = E [x ] - E [x ] = Pot enci a pr omedi o A.C de x(t )

x = Vol t aj e R.M.S de x(t )


F { Rx() } = Gx (f) = Densidad Espectral de Potencia. Esta ltima relacin es importantsima ya que nos dice que a pesar de que la seal es aleatoria, su autocorrelacin, y por ende, su densidad espectral de potencia, son determinsticas. La demostracin es la siguiente: Uno puede definir la densidad espectral de un proceso aleatorio como el promedio de las densidades espectrales de las funciones muestras as:

donde XT(f) es la transformada de Fourier del proceso aleatorio truncado x(t) (t/T). Su mdulo al cuadrado es igual a:

T/2 X T (f ) 2 = XT * (f )XT (f ) =

T/2

T/2

x(t1 )e j t1dt1

T/2

x(t 2 )e jt 2 dt2

Estas dos integrales pueden expresarse como una integral doble del producto de x(t1)x(t2), y como la operacin de promediacin es otra integral ms, puede realizarse primero; esto ltimo se expresara como la promediacin previa del producto x(t1)x(t2) . Queda entonces que:

Si el proceso es estacionario en el sentido amplio, el promedio del producto x(t1)x(t2) es la autocorrelacin evaluada en la diferencia de tiempos t2 - t1. La densidad espectral queda entonces igual a :

La integral doble puede cambiarse por una integral nica respecto a la diferencia (t2 - t1) = notando que el argumento a integrar es constante cuando (t2 - t1) lo es. Eso significa que la integral doble sobre (t2 ,t1) , lo cual es un volumen, puede calcularse como el argumento multiplicado por el rea de la base. El clculo de esta rea puede verse de la siguiente figura:

Quedara 0.5(T- )2 - 0.5(T- -)2 ( Resta de las reas de los dos tringulos) esto es aproximadamente (T- ) cuando t tiende a cero. Para t negativo el rea resulta (T+ ) . Por lo tanto el volumen, en la pequea zona ser F(t) (T- | | ) . El volumen total es la densidad espectral de potencia Gx(f) , y resulta igual a:

limT

1 T

Finalmente , y recordando la definicin de F(t), tendremos: F { Rx() } = Gx (f) = Densidad Espectral de Potencia Una vez conocido esto, si el proceso pasa por un sistema dado, se podr conocer caractersticas de la salida de la siguiente forma: a) Si el sistema es lineal, conocemos la densidad espectral de potencia de la seal de entrada Gx (f) y el cuadrado de la magnitud de la funcin transferencia |H(f)|2 , podremos conocer la densidad espectral de potencia de la seal de salida Gy (f) de la siguiente forma: Gy (f) = | H(f) | 2 Gx (f) b) Si el sistema es no lineal, podemos transformar el proceso de entrada con el conocimiento de la funcin caracterstica. Ejemplos: 1 Un proceso ergdico tiene la siguiente funcin de autocorrelacin:

( )(T )d = limT

( )(1

)d = T

( )d

Rx( ) =

A e

Determine: La densidad espectral de potencia del proceso, la potencia promedio total, la potencia A.C, la potencia D.C y el voltaje R.M.S. a) La densidad espectral de potencia es la transformada de Fourier de la autocorrelacin, resultando entonces (por tablas de Fourier):
Gx(f ) = 4 A 4
2 2 2

+ b) La potencia DC es nula ya que en f=0 no existe una delta de Dirac. c) La potencia AC en este caso es igual a la potencia total, ya que la potencia DC es nula. Al evaluar la autocorrelacin en cero , tendremos el valor de la potencia total. Tambin dara el mismo resultado integrar la densidad espectral de potencia entre menos infinito e infinito. Potencia total = Potencia AC = Rx(0) = A2. d) El voltaje R.M.S es igual a la raz de la potencia AC. Es decir, VR.M.S = A.

2 Se tiene un proceso ergdico con distribucin gaussiana y densidad espectral de potencia definida como:
Gx(f ) = 1 4 +
2

Determine la probabilidad de que el proceso tome valores entre 0.5 y 1. Solucin: Si la f.d.p es gaussiana, solo hace falta conocer su media y desviacin standard para poder calcular la probabilidad exigida. La media es cero por no existir delta de Dirac en el origen. La desviacin standard es la raz de la potencia AC que en este caso es la potencia total . Por lo tanto basta integrar la densidad espectral en todo el intervalo de existencia o evaluar la autocorrelacin en cero y, en cualquiera de los casos, luego tomar la raz. 2 1 Rx( ) = e
4

La autocorrrelacin en cero es igual a la varianza (porque la media vale cero). En este caso entonces s= 0.5, m=0. As, P [ 0.5 < x < 1 ]= Q(k0.5) -Q( k1 ). m + k0.5 s = 0.5 esto implica k0.5 = 1

m + k1 s = 1 esto implica k1 = 2 P [ 0.5 < x < 1 ] = Q(1) -Q(2). PASO DE SEALES ALEATORIAS POR SISTEMAS LINEALES Y NO LINEALES En el curso de Seales y Sistemas se vio que al pasar una seal por un sistema lineal se poda calcular la salida bien convolucionando en tiempo la seal de entrada con la respuesta impulsiva o multiplicando en frecuencia la transformada de Fourier de la seal de entrada por la respuesta en frecuencia. Para seales aleatorias a lo sumo dispondremos de la funcin de autocorrelacin funcin de t, o de la Densidad Espectral de Potencia(DEP).
Paso de la seal aleatoria por un sistema lineal Cuando una seal aleatoria pase por un sistema lineal, definido por una respuesta impulsiva h(t), podramos estar interesados en determinar la autocorrelacin de la seal de salida.

R y ( ) = E [ y (t ) y (t - )] =

E h( ' )x(t- ' )d ' h( ' ' )x(t- - ' ' )d ' ' - -

E [x(t- ' )x(t- - ' ' )] = R x ( + ' '- ' )

Al intercambiar operadores, es necesario calcular:


R y ( ) = - h( ' )h( ' ' ) R ( ' ' ' ) d ' d ' ' + x -

Por lo tanto la autocorrelacin de la seal de salida resultara: Y esto puede escribirse como:
2

R y ( ) = h(- ) * h( ) * R x ( ) G y ( f ) = H ( f ) Gx ( f )

Tambin se puede demostrar que

R yx ( ) = h( ) * R x ( ) R xy ( ) = R yx (- )

Paso de la seal aleatoria por un sistema no lineal

Si la seal aleatoria pasa por un sistema no lineal, puede convenir tratar de encontrar la autocorrelacin de salida aplicando la definicin. Ejemplo: Sea z(t) =x(t). w(t). Determine la autocorrelacin de z(t)
R z ( ) = E [x(t ) w(t ) x(t - )w(t - )]

= E [x(t ) x(t - )]E [w(t ) w(t - )] = R x ( ) Rw ( ) G z ( f ) = G x ( f ) * Gw ( f )

R z ( ) = E [x(t ) w(t ) x(t - )w(t - )]

Si los procesos x(t) y w(t) no son independientes, seria necesario conocer la funcin densidad conjunta pxw. Pero si son independientes la autocorrelacin de z(t) resultara: Un caso muy frecuente, en el cual podemos aplicar el resultado anterior, es el siguiente: Sea z(t) =x(t). Acos(0t +), con uniformemente distribuido entre Determine la autocorrelacin y la DEP de z(t)
R z ( ) = R x ( )0.5 A 2 Cos 0 G z ( f ) = 0.25 A 2 (G x ( f - f 0 ) + G x ( f + f 0 ))

En este caso podemos aplicar el resultado obtenido anteriormente, recordando que la autocorrelacin de Acos(0t +) es igual a 0.5A2cos(0). Como observamos al multiplicar una seal aleatoria por una sinusoide, la DEP de la seal aleatoria queda trasladada en frecuencia (Teorema de Modulacin) Ejemplos de paso de seales aleatorias por sistemas 1) Sumador

Sea z(t) =x(t) + w(t). Determine la autocorrelacin de z(t) conociendo que x(t) y w(t) son independientes
= E [x(t ) x(t - )] + E [w(t ) w(t - )] + E [x(t ) w(t - )] + E [w(t ) x(t - )] =
R x ( ) + Rw ( ) + 2 E [x(t )]E [w(t )] R x ( ) + Rw ( ) + E [x(t )]E [w(t - )] + E [w(t )]E [x(t - )] = R z ( ) = E [( x(t ) + w(t ))( x(t - ) + w(t - ))]

Esto pudo hacerse porque se asumi que los procesos x(t) y w(t) son ergodicos. Si alguna de los dos tiene media nula el resultado se simplifica:
R x ( ) = R x ( ) + Rw ( ) + 2 E [x(t )]E [w(t )] = R x ( ) = R x ( ) + Rw ( ) G x ( f ) = G x ( f ) + Gw ( f )

Observe que solo puede hacerse superposicin de DEPs cuando los procesos son independientes y al menos uno tiene media nula; si esta ultima condicin no se cumple, adems de las DEPs individuales aparecer un termino DC producto de las medias de los procesos. 2) Retardador Sea z(t) =x(tt0). Determine la autocorrelacin y la DEP de z(t).
R z ( ) = E [( x(t -t 0 ) x(t -t 0 - ))] = R x ( )

Como se observa el retardador no cambia la autocorrelacin y por tanto la DEP del proceso. 3) Transformador de Hilbert Si se tiene una seal x(t) cuya transformada de Fourier es X(f), a la (t ) , y su transformada de transformada de Hilbert de x(t) se le llamar x Fourier ser:
X(f ) = - j sgn(f ) X(f )

Es decir , un transformador de Hilbert lo que hace es desfasar -90 todas las componentes de frecuencia de la seal sin alterar la magnitud de dichas componentes. En el dominio del tiempo:
x (t ) = x(t ) * h H (t )

Sin embargo para seales aleatorias el tratamiento sera el siguiente:

R y ( ) = hH (- ) * hH ( ) * R x ( ) G y ( f ) = H H ( f ) Gx ( f ) G y ( f ) = (-jsgn(f)) G x ( f ) = G x ( f )
2 2

4) Representacion del ruido pasabanda Un ruido pasabanda es aquel que tiene un contenido espectral en una zona alejada de las bajas frecuencias de tal forma que entre su frecuencia mnima y el origen podran tenerse repeticiones del espectro. Dicho ruido puede representarse matemticamente como: n (t) = Rn(t) Cos ( ct + n (t)). n (t) = ni(t)Cos ct - nq(t)Senct
donde:

Rn(t) es llamada la envolvente n (t) es la fase ni(t) es la componente en fase y nq(t) es la componente en cuadratura Se puede demostrar que:

Por ejemplo tomemos la primera expresin:


n(t ) = n i(t )Cos ct n(t ) = n i(t )Sen ct n(t )Cos ct = n i(t )(Cos ct ) n(t )Sen ct = n i(t )(Sen ct )
2

- n q(t )Sen ct + n q(t )Cos ct - n q(t )Sen ct Cos ct + n q(t )Cos ct Sen ct

Al sumar estas dos ltimas ecuaciones se obtiene ni(t). Demuestre usted la otra expresin. Determine la autocorrelacin de la componente en fase:

R n i () = E[n i ( t )n i ( t - )] =

E[(n ( t )Cosc t + n ( t )Senc t)(n ( t - )Cosc ( t - ) + n ( t - )Senc ( t - )] =

( t )n ( t - )Senc ( t - ) (n ( t )n ( t - )Cosc tCosc ( t - ) + n E = ( t - )Cosc t Senc ( t - ) + n ( t )n ( t - )Senc tCosc ( t - ) + n ( t )n R n ()Cosc tCosc ( t - ) + R n ( )Senc tSenc ( t - ) + R nn ( )Cosc t Senc ( t - ) + R n n ( )Senc t Cosc ( t - )

Pero hay que considerar los siguientes aspectos:


R yx () = h () * R x () R xy () = R yx (-)

R n () = R n ( )

Rn n ( ) = h H ( ) * R n ( ) Rn n ( ) = R n ( ) R nn ( ) = h H (-) * R n ( ) R nn ( ) = -R n ( )
Por lo tanto, la autocorrelacin de la componente en fase del ruido quedar:

R n ()Cosc tCosc ( t - ) + R n ( )Senc tSenc ( t - ) + n ()Cosc t Senc ( t - ) + R n ()Senc t Cosc ( t - ) = -R R n ()[Cosc tCosc ( t - ) + Senc tSenc ( t - )] + n ()[Senc t Cosc ( t - ) - Cosc t Senc ( t - )] = R

n ()Senc R n ()Cosc + R

6.10.- RUIDO
Se conoce como ruido a toda perturbacin inevitable sobre la seal que se desea transmitir y cuyas causas pueden ser externas ( ruido atmosfrico, solar , de encendidos, de mquinas, etc.) o internas. Estas ltimas se deben a fluctuaciones espontneas de corriente o voltaje y entre ellas se destacan el ruido de disparo y el

ruido trmico. El ruido de disparo se debe al movimiento de partculas a travs de un gradiente de potencial. Por ejemplo, en los semiconductores, este se debe a la difusin aleatoria de los portadores minoritarios y a la recombinacin de huecos y electrones. Este ruido es gausseano y con media nula. El ruido trmico se debe al movimiento aleatorio de los electrones dentro de un conductor. Tambin se le llama ruido resistivo o ruido Johnson, debido a que su primer anlisis fu realizado por Johnson y Nyquist sobre resistores. De estos estudios surgen las siguientes caractersticas: a) Cuando un resistor R est a una temperatura T, aparece en sus extremos un voltaje v(t) aleatorio, gausseano con media cero y varianza igual a :

donde : k = Constante de Boltzman = 1.37 x 10-23 J/K h = Constante de Planck = 6.62 x 10-34 J/seg T = Temperatura en K b) Su densidad espectral de voltaje cuadrtico tiene la siguiente expresin:

A temperatura ambiente ( T0 = 290 K ), hf/kT0 < 0.1 para f < 500 GHz, es decir, para efectos prcticos, Gv(f) es constante para todo el rango de frecuencias de inters y aproximadamente igual a 2RkT. Esta aproximacin tiene el inconveniente de que la potencia resulta infinita, sin embargo esto se resuelve al recordar que cualquier sistema real tiene ancho de banda finito que limita el valor de la potencia promedio total. c) El modelo Thevenin de un resistor ruidoso es:

donde Gv(f) es proporcional a V2 . d) El modelo Norton puede deducirse del anterior ya que v2= (Ri)2 mientras que Gi(f)= Gv(f)/ R2 = 2kTG. As:

e) Cualquiera sea el modelo utilizado para el resistor ruidoso existe un lmite en la potencia de ruido que puede generar, lo que ocurrir en condicin de mxima transferencia, es decir cuando en sus extremos se coloque una resistencia de su mismo valor. As:

Esto es la densidad espectral de voltaje cuadrtico aprovechable. Por otra parte la densidad espectral de potencia aprovechable se obtiene dividiendo Gva(f) entre el valor de la resistencia R. As: Ga(f) = Gva(f)/R = Gv(f)/4R = kT/2 watts/Hz Observe que la densidad de potencia aprovechable es independiente del valor de R.

f) Cuando el ruido trmico se hace pasar por una red lineal, invariante en el tiempo y estable, con funcin de transferencia H(f), la densidad espectral de ruido a la salida, se consigue multiplicando la densidad espectral de potencia de ruido por el cuadrado del mdulo de la funcin transferencia. Gy(f) = Gx(f) . | H(f) | 2 Por ejemplo, en el caso de ruido trmico al utilizar el modelo Thevenin se tiene:

H'(f) debe incluir la resistencia no ruidosa y as: Gvout(f) = 2RkT | H'(f) | 2 Ejemplo:

g) Cuando se tienen dos fuentes de ruido independientes alimentando a un sistema lineal, si al menos una de las dos seales tiene media nula, el espectro de potencia a la salida ser la suma de los espectros de cada una de las fuentes por separado. Demostracin: Cuando la entrada es f1(t) + f2(t), la salida y(t)= y1(t) + y2(t). Calculemos Ry().

Ry(t) = E [ y(t) y(t- ) ] = E [ ( y1(t) + y2(t)) ( y1(t- ) + y2(t - )) ] = E [y1(t) y1(t- )] + E [y2(t)y1(t- )] +E[y1(t) y2(t- )] + E [y2(t)y2(t- ) ] = Ry1() + E [ y2(t)] E [ y1(t- )] + E [ y1(t)] E [y2(t- )] + Ry2() Ry()= Ry1() + Ry2() Por lo tanto, al transformar: Gy(f)= Gy1(f) + Gy2(f) De ser independientes pero con media no nula, Ry() = E [ y(t) y(t- t )] quedara: Ry() = Ry1() + E [ y2(t)] E[ y1(t- )] + E[ y1(t)] E [y2(t- )] + Ry2() Ry() = Ry1() + 2 m2 m1 + Ry2() Por lo tanto, al transformar: Gy(f)= Gy1(f) + 2 m2 m1 (f) + Gy2(f) Es decir aparecer una delta en el origen de frecuencias adicionales a las propias de y1 y y2.

6.11.- RUIDO BLANCO Cuando la densidad espectral de potencia de una seal ruidosa es constante con la frecuencia, se dice que es ruido blanco por analoga con la luz blanca que tiene todas las componentes de frecuencia ( aunque no en la misma proporcin) dentro de la banda visible del espectro electromagntico. Adems del ruido trmico, existen otras fuentes de ruido que pueden modelarse como blanco, por ejemplo: el ruido csmico, el ruido solar, etc. La densidad espectral G(f) se define como:

La autocorrelacin para este tipo de ruido es una delta ubicada en el origen de es decir Rn( ) = ( / 2) () , lo que indica que el ruido en cada instante est decorrelacionado de lo que sucede en cualquier otro intervalo de tiempo. En el caso de ruido trmico:

v= 4RkT

i= 4GkT

a= kT

Cuando el ruido blanco pasa a travs de una red L.T.I , con funcin de transferencia H(f), la densidad espectral a la salida viene dada por: Go(f)= (/ 2 ) | H(f) |2

La autocorrelacin de la seal de salida vendr dada por la antitransformada de la densidad espectral, mientras que la potencia promedio total a la salida del sistema se conseguira evaluando la autocorrelacin en cero, o integrando en todo el rango de frecuencias la densidad espectral de potencia. El efecto del filtraje es " colorear" el ruido y de esta forma, generar correlacin entre sus muestras. 6.12.- TEMPERATURA DE RUIDO Cuando se tiene una fuente de ruido no trmica cuya densidad de potencia aprovechable es a/ 2, se define TN como la temperatura a la cual estara una resistencia cuya densidad de potencia aprovechable fuese la misma a= k TN; as TN= a/ k.

6.13. -ANCHO DE BANDA EQUIVALENTE Cuando ruido blanco pasa a travs de una red con funcin transferencia H(f), la potencia de ruido de salida se calcula como:

Definamos

En ese caso: N0= BN| H(f) |2 max. Es decir, se busca un filtro ideal con ancho de banda (hacia f positivo) igual a BN , con ganancia de voltaje igual a | H(f) | max y que deje pasar la misma cantidad de potencia que el filtro real. Ejercicio: Encuentre el ancho de banda equivalente de un filtro pasabajo RC. Recuerde que H(f) = (1 + jwRC)-1 ; | H(f) | max = 1 6.14.- TRANSMISION DE SEALES CON RUIDO Normalmente el ruido que afecta las transmisiones lo hace en forma aditiva es decir:

Para ver el efecto del ruido se utiliza la relacin seal a ruido ya que el conocimiento de las caractersticas del ruido sin saber las de la seal, no produce mayor informacin: No es lo mismo hablar de un ruido con VRMS en el orden de los milivoltios en un sistema de potencia de alto voltaje, que en una aplicacin en medicina donde las seales tienen rdenes de magnitud similares (mv). As: Si yD(t)= xD(t) + nD(t), RyD(0) = E [xD2(t) + 2 xD(t) nD(t) + nD2(t) ]. Solo si la fuente de ruido es independiente de la de seal y el ruido tiene media cero ( aunque usualmente la seal tiene nivel DC nulo ), la potencia de salida ser la suma de la potencia de seal ms la de ruido. E [ yD2(t)] = E [ xD2(t) ] + E [ nD2(t) ] Definiremos la relacin seal a ruido detectada a recibida como:

En la prctica uno puede "apagar " la seal y medir la potencia de ruido. Tambin puede medir a la salida la potencia de seal ms ruido ; en ese caso:

Ejemplo: Suponga el siguiente sistema de transmisin en banda base :

El mensaje x(t), con ancho de banda W, tiene potencia Sx, el transmisor lo amplifica y la potencia transmitida resulta ST = gT . Sx. Luego el canal produce una atenuacin de potencia L y el receptor una amplificacin gR. As , SD = ( gT . Sx . gR )/ L. Por su parte el ruido solo se afecta por gR . As: ND = . gR . W. Finalmente:

Se observa que la relacin seal a ruido recibida: a) No depende de la ganancia del receptor. b) Es inversamente proporcional al ancho de banda del filtro.

c) Es inversamente proporcional a la atenuacin que produce el canal. Una manera de mejorar la relacin seal a ruido es colocando estaciones repetidoras en zonas intermedias del trayecto de transmisin. Normalmente la ganancia del repetidor compensa la prdida del trayecto; de esta forma, la potencia de seal se mantiene a la salida del sistema ST = gT . Sx = SD . Por su parte, la potencia de ruido luego de la primera repetidora queda ND1 = . L1 .W. La potencia de este ruido al final de las m repetidoras queda igual ya que cada prdida de canal ser compensada por la ganancia de cada repetidora. Sin embargo se irn sumando contribuciones idnticas de ruido, tantas como repetidoras existan. Al final para m repetidoras ND = m . . L1 .W. Finalmente

Comparando con la relacin seal a ruido sin repetidoras se obtiene que:

Para ilustrar esto, considere un sistema basado en lneas de transmisin con una prdida de 10 dB/ Km. Para un trayecto de 14 Km, si se coloca una repetidora en la mitad , L=1014 y L1= 107 ( El receptor se cuenta como repetidora, por tanto m=2). La ganancia en este caso ser de: L/mL1 = 5 x 106 . Esto es produce una mejora considerable en la relacin seal a ruido. 6.15.- RUIDO EN DISPOSITIVOS LINEALES Adems del ruido resistivo, los sistemas lineales como por ejemplo las lneas de transmisin, los amplificadores, etc. tambin contaminan la seal que se desea transmitir. Es por ello necesario cuantificar a travs de alguna cifra de mrito cuanto ruido aporta el dispositivo. Las cifras ms usadas son: la figura de ruido y la temperatura efectiva de ruido. 6.15.1.- Figura de ruido:Considere el siguiente modelo para un sistema lineal con una banda de trabajo (f0-W/2) a (f0+W/2) que introduce ruido:

La figura de ruido del sistema se determina alimentndolo con ruido trmico a temperatura ambiente T0= 290, colocando a la salida una carga cualquiera y determinando: F = Pot. total a la salida / Pot. a la salida debida a la fuente El diagrama sera el siguiente:

En este caso la figura de ruido resultara:

Si la respuesta del sistema G(f) es constante con la frecuencia e igual a G, la figura de ruido resultara:

Si el dispositivo no proporciona ruido, la figura de ruido ser igual a 1. F se acostumbra a especificar en decibeles. Ejercicio: Determine la figura de ruido de la cascada de 3 amplificadores con ganancia constante. El modelo aplicable a este caso sera el siguiente:

De este modo la figura de ruido para el sistema total sera:

Esto tambin se puede escribir como:

Se observa claramente que la primera etapa de la cascada debe ser la menos ruidosa y adems debe proporcionar una alta ganancia. 6.15.2. -Temperatura efectiva de ruido: Esta cifra se basa en el siguiente modelo:

En este modelo, Te se conoce como la temperatura efectiva de ruido del dispositivo, es decir, sera la temperatura a la que debiera estar una resistencia para que, sumada al ruido de entrada, lograra el mismo valor de potencia total a la salida.

Si la respuesta del sistema es constante con la frecuencia e igual a G, la potencia total a la salida resultara igual a:

De donde se deduce que la temperatura efectiva de ruido sera igual a :

Generalmente se coloca la temperatura de entrada igual a la temperatura ambiente a menos que el sistema est en cascada con otro sistema a temperatura arbitraria.

Ejercicio: Determine la temperatura efectiva de ruido de la cascada de 3 amplificadores.

Esto tambin se puede expresar como:

Al igual que al realizar el anlisis de la figura de ruido, se puede concluir que la primera etapa de la cascada debe ser la menos ruidosa y adems debe proporcionar una alta ganancia. Ejercicio: Determine la temperatura efectiva de ruido y la figura de ruido de una lnea de transmisin de impedancia caracterstica R0, que produce una prdida de potencia L, alimentada por una fuente resistiva R0 y que se termina con una impedancia acoplada. Asuma que la temperatura a la que se encuentra la lnea es TL. Cuando se tiene una lnea de transmisin con impedancia caracterstica R0 , terminada en una carga con este mismo valor, a la salida de la lnea se ver solamente el ruido producido por un conductor colocado a temperatura TL ( ruido trmico). Es decir la potencia de salida POUT ser igual a KTLW . Por lo tanto para una lnea de transmisin con una prdida total de potencia L, la temperatura efectiva de ruido ser:

(G=1/L)Si la temperatura de entrada y la de la lnea son iguales, la temperatura efectiva de la lnea de transmisin resultar igual a:

Por otra parte, la figura de ruido resulta:

En general , la relacin entre la figura de ruido y la temperatura efectiva de ruido se consigue colocando la entrada a temperatura ambiente ( tambin la lnea) y en ese caso resultara :

Ejercicio: Una antena est conectada a un receptor de televisin(F=16 dB), a travs de un trozo de lnea de transmisin de una longitud tal que la prdida total que produce es de 3.75 dB. a) Determine la figura global de ruido de este sistema b) Inserte un amplificador exactamente despus de la antena y antes de la lnea con F=3dB y G=20 dB. Determine la figura de ruido global. c)Inserte el mismo amplificador anterior despus de la lnea de transmisin . Determine la figura de ruido global. d) Compare los resultados de b) y c) y concluya. Solucin: a)En primer lugar dibujemos el modelo del sistema :

De los datos suministrados para el televisor se deduce que : FdB= 16dB indica que F= 39.81 , es decir

Por otra parte la lnea tiene una prdida en dB de 3.75. Esto indica que L=2.37; asimismo ,como la lnea se coloca a temperatura ambiente para medir la figura de ruido, se obtiene que Te= T0(L-1)= 1.37 T0. En este caso la figura de ruido total queda:

b) Ahora al insertar el amplificador despus de la antena el sistema queda :

El amplificador tiene una figura de ruido de 3 dB, por lo tanto

Ahora la figura de ruido global quedar:

c) Ahora al colocar el amplificador despus de la lnea el modelo quedar:

Ahora la figura de ruido resultar:

d) La figura de ruido resulta menor en el caso b) , es decir cuando el amplificador se conecta antes de la lnea de transmisin. Por esto es conveniente colocar siempre el amplificador a la salida de la antena. 6.16. -DISTORSION El ruido no es la nica fuente de contaminacin en los sistemas de comunicaciones. Existe tambin distorsin debida a la respuesta imperfecta de los diferentes bloques que conforman el sistema. Entre ellas destacan: -Distorsin lineal (De amplitud y/o fase) -Distorsin no-lineal Distorsin lineal: En un sistema lineal , se dice que la seal a su salida no est distorsionada si se cumple que:

siendo x(t) la seal de entrada. Para un sistema lineal esto sera lo mismo que decir que la funcin transferencia o respuesta en frecuencia del sistema vendra dada por:

es decir que la magnitud es constante con la frecuencia e igual a K y la fase tiene un comportamiento lineal con la frecuencia e igual a -( td m). Si estas condiciones no se cumplen, se presentar el fenmeno de distorsin lineal el cual cambiar la forma de la seal recibida. Cuando la magnitud de H(f) no es constante , se produce distorsin de amplitud. Cuando la fase de H(f) no es lineal con la frecuencia se producir distorsin o retardo de fase. Imagine por ejemplo que la seal enviada es una peridica que sabemos est constituda por infinitas armnicas distanciadas f0 (frecuencia fundamental) , con amplitudes y fase determinadas. Si la magnitud de la funcin transferencia no es constante con la frecuencia, la contribucin de cada armnica no ser la adecuada para contribuir con la formacin de la peridica y por ende la salida no preservar la

forma original. Tampoco se preservara si la respuesta en fase del sistema no es lineal con la frecuencia. Distorsin no-lineal: El considerar que el sistema por el que pasa la seal es lineal, generalmente es una simplificacin que es vlida solo para ciertas circunstancias (p.e. pequeas seales). Lamentablemente en la mayora de los casos estas condiciones no se cumplen y hay necesariamente que utilizar un modelo no-lineal. Con distorsin no-lineal, la amplitud y la fase cambian con el voltaje de entrada Vin de la siguiente forma:

Cuando el sistema no es lineal, la salida y(t) y la entrada x(t) pueden relacionarse a travs de una ecuacin caracterstica que puede ser del siguiente tipo:

que al transformarla produce:

En ese caso an siendo la seal x(t) de ancho de banda finito, la salida no solo perder semejanza con la entrada sino que ocupar un ancho de banda mayor. Si existieran canales adyacentes, aparecer interferencia en los mismos.

En la prctica , por ejemplo, los amplificadores producen distorsin no-lineal y si se alimentaran con un tono puro, x(t) = A Cos(0t+F), la salida y(t) tendra la siguiente forma: y(t) =k0 + k1Cos(0t+1) + k2Cos(20t+ 2) + k3Cos(30t+ 3)+.......

De esta forma , se puede definir la distorsin armnica total como:

Otro tipo de distorsin es la distorsin por intermodulacin (DI) , la cual se determina alimentando el sistema con 2 tonos y observando los trminos adicionales que aparecen. Si x(t) = A1Sen1t + A2Sen2t la salida y(t) ser: y(t) = k0 + k1Sen1t + k2Sen2t + k3Sen21t + k4Sen22t + k5Sen1t Sen2t + k6Sen31t + k7Sen21t Sen22t +k8Sen1t Sen22t+........ Se observan trminos de frecuencia 2f2 + f1, 2f1 + f2 , 2f2 - f1 , etc. Este tipo de distorsin es caracterstica de los amplificadores pasabanda y los de RF usados en transmisores y receptores. Otro tipo de distorsin presente a la salida de un amplificador no lineal es la modulacin cruzada (cross-modulacin). Los trminos de la modulacin cruzada tienen las mismas frecuencias originales (1 y 2), pero amplitudes cruzadas; es decir aparecer un tono de frecuencia 1 y amplitud relacionada a la amplitud del tono original de frecuencia 2 y viceversa. Por ejemplo si se tiene x(t) = A1(1+m1(t))Sen1t + A2Sen2t , el trmino de orden 3 arrojar un elemento del tipo : k (1+m1(t))2Sen2t Retardo de grupo:

Para un tono puro, se define el retardo de fase rp() como:

donde q( ) es la respuesta de fase del sistema. Para una seal modulada, como tiene gran cantidad de frecuencias, ya esta relacin no se cumple. En general algunas componentes viajarn ms lento que otras, con una regla no lineal, y esto producir distorsin. En estos casos se habla del retardo de grupo definido como:

Las componentes del retardo de grupo se relacionan con los siguientes tipos de distorsin: -Si q( ) es parablico se habla de retardo lineal ( Distorsin de segundo orden). Este tipo de distorsin altera la relacin de fase entre las bandas laterales. -Si q( ) es cbico se habla de retardo parablico ( Distorsin de primero y tercer orden). Este tipo de distorsin altera la relacin de fase entre las bandas laterales y la portadora. Si existe una combinacin de las dos anteriores se le llama ripple residual.

También podría gustarte