Está en la página 1de 101

Fundamentos de Se

nales y Sistemas
Notas de Clase

Antoni Morell y Rosana Rodrguez

Universitat Aut`
onoma de Barcelona (UAB)
Escola dEnginyeria

Indice general
1. Introducci
on a Se
nales y Sistemas

2. La Transformada de Laplace

18

3. Funci
on de Transferencia de un Sistema

41

4. La Transformada de Fourier

57

5. Correlaci
on y Espectro de Se
nales Deterministas

85

ii

Tema 1: Introducci
on a Se
nales y Sistemas
Antoni Morell y Rosana Rodrguez
4 de febrero de 2013

1.

Se
nales

Definicion de se
nal: Imagen o representaci
on de algo. Para nosotros sera casi siempre la representacion de una magnitud fsica (tensi
on, voltaje, etc.) y normalmente llevara un mensaje asociado
(entendiendo mensaje como la manifestacion fsica de la informacion tal y como la produce la fuente).
En un sistema de comunicaciones esto esta claro.

1.1.

Clasificaci
on de se
nales

Encontramos diferentes clasificaciones. Las mas relevantes son:


Determinista/aleatoria
Determinista: conocida para t. P. ej.: x(t) = A cos(w0 t).
Aleatoria: No es posible determinar su valor para un instante t = t0 . No obstante, s sabemos algo
sobre dicho valor, aunque se trata de un conocimiento probabilstico. P. ej.: A cos(w0 t+), [0, 4 ].
En la figura vemos una realizaci
on de la se
nal para = 0 (trazo continuo) y otra para = 4
(trazo discontinuo). Nuestra se
nal puede ser cualquiera de entre estas dos con igual probabilidad,
pero nunca con otro desfase ( 4 , 2).
A

A
0

10

12

14

16

18

Figura 1: Ejemplo de se
nal aleatoria.

20

Peri
odica/No peri
odica
Periodica: x(t) = x(t+mT0 ) para m = 0, 1, 2, . . .. T0 es el menor periodo de repeticion posible.
P.ej., en la figura anterior T0 = 2 y no 4 aunque este u
ltimo tambien cumpla la condici
on.
No periodica: no se repite peri
odicamente.
Contnua/Discreta
Contnua: definida para t.
Discreta: definida s
olo para los instantes de tiempo nT con n entero. Ej.: el ndice de la bolsa.
Anal
ogica/Digital
Analogica: la amplitud de la se
nal puede tomar cualquier valor. P. ej.: m
usica grabada en un
disco LP.
Digital: la amplitud de la se
nal no puede ser cualquiera sino un valor dentro de un conjunto de
valores posibles. Por lo tanto, conocemos algo de la estructura de la se
nal antes de recibirla. P.
ej.: m
usica grabada en un disco CD.

1.2.

Transformaciones de la variable independiente

Partiendo de una se
nal x(t) conocida, vemos como se modifica esta cuando se aplica alguna transformacion sobre la variable independiente t. Las mas habituales son:
Reflexion: x(t). La se
nal sufre un giro respecto al eje de ordenadas. En una cinta de vdeo,
sera reproducirla c
amara atr
as.
x(t)

x(t)

Escalado: x(at). Siempre con a > 0, la se


nal se contrae respecto al eje de ordenadas en un factor a
si se cumple a > 1 y se expande por un factor b > 1 si a = 1b . En el primer caso, reproduciramos
a veces m
as r
apido y en el segundo b veces mas lento.
x(t)

x( 2t )

x(2t)

Traslaci
on: x(t t0 ) o bien x(t + t0 ). En el primer caso, la se
nal se retasa t0 segundos mientras
que en el segundo se adelanta t0 segundos.
2

x(t 1)

x(t)

x(t + 1)

-1

Muy importante. A menudo nos encontraremos con una combinacion de transformaciones, como
por ejemplo en x( 2t 2). Para no equivocarse, es aconsejable seguir siempre los siguientes pasos:
Expresar la transformaci
on como x(k(t t0 )). En el caso de ejemplo sera x( 1
2 (t + 4)).
Hacer primero reflexi
on y escalado. En el ejemplo, girar y ensanchar por un factor 2.
x( t
2 )

x(t)

Finalmente, hacer la traslaci


on. En el ejemplo, avanzar la se
nal 4 unidades.
x( t
2 )

x( t
2 )

-4

Si queremos asegurarnos que la transformacion es correcta, cogemos 2 puntos faciles de reconocer


y los comprobamos. Por ejemplo, en el caso anterior, sustituimos t = 4 en x( 2t 2), lo que nos da
x(0). Es decir, el valor correspondiente al punto t = 4 en la se
nal transformada tiene que coincidir
con el valor en el origen de la se
nal sin transformar. En este caso es cierto, pero faltara mirar otro
punto para estar del todo seguros.
Relacionado con esto, vemos la definici
on de la se
nal par e impar:
Se
nal par: si cumple x(t) = x(t).
Se
nal impar: si cumple x(t) = x(t).
Toda se
nal se puede descomponer en parte par e impar de tal forma que x(t) = par{x(t)} +
impar{x(t)}. Parte par e impar se hallan seg
un:

1
par{x(t)} = (x(t) + x(t))
2
1
impar{x(t)} = (x(t) x(t))
2

(1)
(2)

Ejemplo:
x(t)

par{x(t)}

-2 -1

1.3.

impar{x(t)}

-2 -1

-1

Se
nales continuas b
asicas

Tenemos:
Funcion exponencial: x(t) = Ceat
En el caso que tanto a como C sean reales, tenemos:

a<0
a>0
C

Si ambos son complejos, es decir C = |C|ej y a = r + jw0 , entonces x(t) = |C|ert ej(w0 t+) =
|C|ert [cos(w0 t + ) + j sin(w0 t + )]. Se trata pues, de una se
nal compleja. Para representarla
graficamente, debemos dibujar parte real e imaginaria por separado (en funcion de t) o bien
modulo y fase. A continuaci
on vemos solo una parte de la se
nal, Re{x(t)} = |C|ert [cos(w0 t + )]:

r>0

Pulso rectangular: x(t) =

r=0

t
T

1 |t| < T2
0 resto

r<0

Pulso triangular: x(t) =

1
0

T
2

T2

t
T

!t"

|t|
T

|t| < T
resto
( Tt )
1

-T

Funcion signo: sgn(t) =

1
t>0
1 t < 0
sgn(t)
1

Funcion escal
on: u(t) =

1 t>0
0 t<0

= 12 (1 + sgn(t))
u(t)
1

Funcion sinc: sinc(t) =

sin t
t
1
0.8
0.6
0.4
0.2
0
0.2
0.4
6

Importante recordar: sinc(0) = 1 y sinc(T t) = 0 para los m


ultiplos de 1/T , es decir,
t = k/T con k N+ .
(
0 t 6= 0
Funcion delta: (t) =
t=0
Podemos entender la funci
on delta (de Dirac), que no es propiamente un funcion ya que (0)
tiene varias im
agenes, como la caracterizacion matematica de un impulso. Por ejemplo, esto es
lo que sucede cuando se de un golpe con un martillo: se produce una fuerza elevada durante
un intervalo de tiempo muy peque
no. Bajo ese punto de vista, lo que realmente nos interesa es
la suma (integral) de dicha fuerza y de ah sale la definicion formal de la funcion delta. En la
siguiente figura vemos un impulso de duracion 1/A y amplitud A, que por tanto tiene area 1. Si
reducimos progresivamente su duracion y aumentamos la amplitud con el objetivo de mantener
el area a la unidad, obtendremos la funcion delta.

1/A

Dicha interpretaci
on justifica la definicion formal de la delta, que toma forma integral. Pero
mas que la propia definici
on, consideraremos una propiedad que se deriva de ella y que es
R
a 1 siempre y
(t)dt = 1. Hay que interpretarla como que la integral de una delta valdr
cuando la delta este dentro de los lmites de integracion.
1.3.1.

Propiedades de (t)

Son las siguientes:


1
1. (at) = |a|
(t). Intuitivamente, esta claro que ensanchar o estrechar la delta no tiene ning
un
efecto ya que esta tieneancho 0 y seguira con el mismo ancho despues de cualquier escalado.
Si hacemos la integral de (at) (hacer cambio de variable para ponerla en funcion de la integral
R
de (t)) veremos que se debe cumplir esta propiedad para conseguir que (at)dt = 1.

2. (t) = (t). Se trata, por tanto, de una funcion par.


3. x(t)(t) = x(0)(t). Si una funci
on se multiplica por (t), solo nos importa el valor de la funci
on
en el origen ya que el resto vale 0. Lo mismo sucede si desplazamos la delta, es decir: x(t)(tt0 ) =
x(t0 )(t t0 ).
R
4. x(t) = x( )( t)d . Multiplicamos primero x( ) por una delta centrada en t e integramos
R
para todo , o sea x(t)( t)d . Como la integral de la delta debe ser 1 y x(t) no depende
de , el resultado final es x(t).
R
De la misma manera, x(t) = x( )(t )d . Solo hay que fijarse que (t ) ( es la variable
independiente) se puede expresar como (1( t)). Seg
un hemos visto, esto es girar la delta
y desplazarla t unidades a la derecha. Dado que la delta es par, (t ) = ( t), y por lo
tanto estamos en la misma situaci
on que antes. Tambien podemos interpretar la integral como
P
una suma infinita de deltas, algo como x(t) =
mite,
k= xk (t tk ) (ver figura). En el l
cuando la distancia entre dos deltas sea 0, tendramos la se
nal x(t).

x1 x2

t1 t1 t2
t0

5. u(t) =

Rt

( )d

R
0

( t)d .

6. ( ) = du(t)
on escal
on es plana para todo t (derivada 0) excepto para t = 0, donde hay
dt . La funci
un salto abrupto de 0 a 1 con pendiente . Esto se corresponde con la funcion (t).

2.

Sistemas

Un sistema es una combinaci


on de objetos o componentes que act
uan conjuntamente para cumplir
un determinado objetivo. Existen sistemas de distinta naturaleza: mecanicos, fsicos, biologicos, sociales, polticos, etc. Por ejemplo, los frenos de un coche constituyen un sistema mecanico cuyo objetivo
es detener el vehculo.
Un sistema puede ser, a su vez, subsistema de otro mayor, as como los frenos son un subsistema
del sistema coche. A nosotros nos interesara modelar matematicamente el sistema y desde este punto
de vista, lo veremos como el proceso que transforma la se
nal de entrada para obtener una se
nal de
salida, o lo que es lo mismo: y(t) = T [x(t)].

Sistema
T[ ]

x(t)

2.1.

y(t)

Propiedades de los sistemas

2.1.1.

Linealidad

Un sistema es lineal si cumple las propiedades de superposici


on y homogeneidad :
Superposici
on: supongamos que y1 (y) es la salida del sistema cuando la entrada es x1 (t), es
decir, y1 (t) = T [x1 (t)]. Del mismo modo, y2 (t) = T [x2 (t)]. Entonces, en el caso que exista
superposici
on, la salida del sistema a la suma de entradas, x1 (t) + x2 (t), es tambien la suma de
salidas y1 (t) + y2 (t). En otras palabras: T [x1 (t) + x2 (t)] = y1 (t) + y2 (t).
Homogeneidad: cuando un escalado a la entrada se traduce en el mismo escalado a la salida. Es
decir, si y1 (t) = T [x1 (t)], entonces T [x1 (t)] = y1 (t).
Ambas propiedades se puede resumir diciendo que un sistema es lineal si y solo si:
T [1 x1 (t) + 2 x2 (t)] = 1 y1 (t) + 2 y2 (t)
Ejemplos:
1. Un derivador, T [ ] =
Comprobaci
on:

d( )
dt ,

T [1 x1 (t) + 2 x2 (t)] =

es un sistema lineal.
d
dx1 (t)
dx2 (t)
(1 x1 (t) + 2 x2 (t)) = 1
+ 2
= 1 y1 (t) + 2 y2 (t)
dt
dt
dt

2. Un sistema que saque el cuadrado de la salida, T [ ] = ( )2 , no es lineal.


Comprobaci
on: (T [x1 (t)] = y1 (t) = x21 (t))
T [1 x1 (t) + 2 x2 (t)] = (1 x1 (t) + 2 x2 (t))2 = 12 x21 (t) + 22 x22 (t) + 1 2 x1 (t)x2 (t)
= 12 y1 (t) + 22 y2 (t) + 1 2 x1 (t)x2 (t) 6= 1 y1 (t) + 2 y2 (t)
8

(3)

No cumple ni superposici
on ni homogeneidad.
3. El sistema T [ ] = a( ) + b no es lineal.
Comprobaci
on: (T [x1 (t)] = y1 (t) = ax1 (t) + b)
T [1 x1 (t)+2 x2 (t)] = 1 a x1 (t)+2 a x2 (t)+b = 1 y1 (t)+2 y2 (t)+(11 2 )b 6= 1 y1 (t)+2 y2 (t)
No cumple superposici
on ni homogeneidad.
2.1.2.

Invarianza

Un sistema es invariante cuando un retraso en la se


nal de entrada se traduce en el mismo retraso
en la se
nal de salida. Es decir, si T [x(t)] = y(t), entonces T [x(t t0 )] = y(t t0 ).
Ejemplos:
1. T [ ] = cos( ), es un sistema invariante.
Compobaci
on: (y(t) = cos(x(t)))
y(t t0 ) = cos(x1 (t t0 )) = T [x(t t0 )]
2. T [ ] = ( ) cos(w0 t), es un sistema variante.
Comprobaci
on: (T [x(t)] = y(t) = x(t) cos(w0 t))
En primer lugar, transformamos x(tt0 ): T [x(tt0 )] = x(tt0 ) cos(w0 t). Vemos que el resultado
depende por un lado de t y por otro de t t0 .
Ahora desplazamos y(t) sustituyendo t por t t0 , es decir, y(t t0 ) = x(t t0 ) cos (w0 (t t0 )).
Ahora el resultado s
olo depende de t t0 . No coinciden y por lo tanto es variante.
2.1.3.

Causalidad

Un sistema es causal cuando la salida no se anticipa a la entrada, lo que significa que en un sistema
causal, la salida en un determinado instante no depende de instantes futuros de la entrada. Matem
aticamente, si x(t) = 0 para t < t0 , entonces se debe cumplir y(t) = 0 para t < t0 .
Ejemplos:
1. y(t) = x(t 1) es causal ya que produce un retardo.
2. y(t) = x(t + 1) no es causal ya que la salida se anticipa a la entrada. Por ejemplo, en el instante
t = 0, para obtener la salida y(0) necesitamos conocer x(1), o sea, un valor futuro de la entrada.

2.1.4.

Estabilidad

Un sistema es estable cuando, para cualquier entrada acotada, la salida tambien lo es, es decir, si
|x(t)| < , entonces |y(t)| < .
Ejemplo:


Rt
/2
, tenemos:
Consideremos el sistema integrador T [x(t)] = x( )d . Si x(t) = tT
T

Por lo tanto, la salida es acotada y podramos pensar que es estable. No obstante, hay que comprobarlo para cualquier entrada. Si ahora cogemos x(t) = u(t), tenemos:

Entonces vemos que la salida crece indefinidamente, con lo cual el sistema es inestable.

2.2.

Caracterizaci
on matem
atica de los sistemas

Ahora buscamos una forma simple y generica de obtener y(t) a partir de x(t) para cualquier
sistema. Usaremos dos caracterizaciones distintas:
A traves de ecuaciones diferenciales:
X
i

ai

dxi (t) X dy j (t)


=
bi
dti
dtj

(4)

Es la que usaremos por ejemplo en circuitos y la respuesta del sistema dependera de las condiciones en que este se encuentre al aplicar la entrada, lo que denominamos condiciones iniciales. Por
ejemplo, la respuesta de un circuito donde haya un condensador no sera la misma si, en aplicar la
entrada, este tiene cierta carga o esta totalmente descargado. Para obtener esta caracterizaci
on
hace falta conocer el sistema componente a componente y por lo tanto, puede ser compleja si el
sistema es grande.
A traves de la respuesta impulsional, que se define como la salida del sistema a una delta. La
denominamos h(t) = T [(t)]. Esta aproximacion toma el sistema como una caja negra y s
olo
necesitamos conocer cu
al es la salida a una determinada entrada, o sea, hacer un experimento
sin necesidad de abrir la caja. A partir de h(t) se puede encontrar la salida a cualquier entrada
seg
un:

10

y(t) = T [x(t)] = T

Z

x( )(t )d =

si el sistema
es lineal

x( )T [(t )]d

(5)

En el mejor de los casos, cuando el sistema es invariante, tendremos T [(t )] = h(t ), es


decir, simplemente h(t) (que ya conocemos) desplazada. En cambio, si el sistema es variante, la
salida a una delta desplazada dependera de cuanto vale el desplazamiento pero tambien de
cual es el instante t en que la delta entra en el sistema. En este u
ltimo caso, decimos que tenemos
una respuesta impulsional variante en tiempo y escribimos h(t, ). El sistema es mas difcil de
caracterizar ya que habra que hacer un experimento para cada instante de tiempo t.
De aqu sacamos:
Sistema variante: y(t) =

x( )h(t, )d .
R
= x( )h(t )d .

Sistema invariante: y(t)


Esta ecuacion es la ecuaci
on o integral
de convoluci
on de sistemas LTI (Linear and Time Invariant), que escribiremos:
Z
y(t) = x(t) h(t) =
x( )h(t )d
(6)

Ejemplo 1: Amplificador.

x(t)

y(t) = Kx(t)

En este caso h(t) = K(t) independientemente de cuando hagamos el experimento. Por tanto, es
invariante.
Ejemplo 2: Retardador.
x(t)

y(t) = x(t T )

En este caso h(t) = (t T ), tambien independientemente de cuando hagamos el experimento. Por


tanto, tambien es un sistema invariante.

11

Ejemplo 3: Integrador.

!t

x(t)

y(t)

Rt
En este caso h(t) = ( )d = u(t), tambien independientemente de cuando hagamos el experimento. Por tanto, tambien es un sistema invariante.
Ejemplo 4: Modulador.

x(t)

y(t) = x(t) cos w0 t

cos w0 t
En este caso, si entramos una delta al sistema tenemos T [(t)] = (t) cos w0 t = (t). Esta claro que
esto no caracteriza bien el sistema ya que en realidad no nos devuelve la entrada. Aqu s que la respuesta del sistema depende del momento en que se hace el experimento, ya que el coseno va evolucionando
con el tiempo. En este caso el sistema es variante y tenemos que usar T [(t )] = (t ) cos w0 t.
R
R
R
Entonces y(t) = x( )h(t, )d = x( )(t ) cos w0 td = cos w0 t x( )(t )d =
x(t) cos w0 t, lo cual es correcto (mirar el siguiente apartado para ver como funciona la integral de
convolucion).
A partir de ahora, nos centraremos en el estudio de sistemas LTI.

3.

Sistemas lineales invariantes

3.1.

Obtenci
on semi-gr
afica de y(t) = x(t) h(t)

Consideremos el siguiente sistema:

h(t)

x(t)

y(t)
t

Para calcular la integral, que es respecto a , vemos que necesitamos los terminos x( ) y h(t ).
El primero ya est
a claro, y el segundo lo reescribimos como h(1( t)). O sea, que para encontrar
12

la salida en el instante t debemos primero multiplicar x( ) con h( ) girada y desplazada t y luego


integrar para todo , tal y como vemos en la siguiente figura para t = 5:
y(t)

x( )h(5 )

t=5

t=5

x( )h(5 )

As hemos obtenido y(5). La se


nal entera se obtiene con este mismo procedimiento barriendo desde t = .
Ejemplo 1: calcular la convoluci
on de x1 (t) =

tTB /2
TB

y x2 (t) =

tTA /2
TA

con TA > TB .

R
En este caso vamos a calcular x2 (t) x1 (t) como x2 ( )x1 (t )d , aunque tambien lo podramos
haber hecho al reves. Gr
aficamente, queremos hacer:

TB

TA

x1 (t )

t TB

x2 ( )

En primer lugar, vemos que las se


nales no se solapan hasta t = 0, con lo que y(t) = 0 para
t < 0. Si seguimos avanzando en t, los dos pulsos se solapan. Entre t = 0 y t = TB el producto
de funciones ser
a un pulso que va de = 0 a = t. La integral de convolucion en este intervalo
Rt
R
sera y(t) = x2 (t)x1 (t )d = 0 1d = t. Luego, x1 (t ) se solapa por completo hasta que
R
Rt
t = tA . La integral ser
a y(t) = x1 (t )d = tTB 1d = TB . Finalmente, el pulso x1 (t )
sale de x2 ( ), desde t = TA hasta t = TA + TB . En este u
ltimo intervalo, el solape entre pulsos, y
por lo tanto el valor de la integral, es cada vez menor. El producto de funciones es un pulso que va
R
R TA
de = t TB hasta = TA . Matem
aticamente tenemos: y(t) = x2 ( )x1 (t )d = tT
1d =
B
TA t + TB = (TA + TB ) t. A partir de este punto ya no existe solape y la salida se mantiene a 0.
Si agrupamos los resultados de las distintas partes obtenemos la siguiente salida y(t):

13

y(t)

TB

TA

TA + TB

De este ejemplo, podemos sacar dos observaciones importantes:


La duraci
on de la salida es la suma de las duraciones de las se
nales. Esto es as en general.
Si TA = TB la salida pasa a ser un triangulo. Por lo tanto, la convolucion de dos pulsos de
duracion T , ( Tt ), da lugar a un triangulo de duracion 2T que expresamos como ( Tt ).
Ejemplo 2: queremos obtener la se
nal y(t) que oyen los espectadores de un auditorio cuando los
m
usicos tocan una meloda x(t).

x(t)

Auditorio

y(t)

Supondremos que el auditorio es un sistema LTI, lo cual parece razonable, ya que se espera que
se comporte de la misma manera independientemente del momento en que es usado. El paso siguiente
es ver cual es la respuesta a una delta para obtener la respuesta impulsional del auditorio. Para ello,
generamos un impulso de sonido en el escenario y medimos en el patio de butacas. En particular vemos
que recibimos el mismo impulso generado con un retardo despreciable mas un eco del impulso, que
llega 200ms m
as tarde y con un nivel per debajo del primero. Determinamos entonces que la respuesta
impulsional de la sala es:

h( )

200ms

Si hacemos la convoluci
on para cualquier x(t) como antes, tenemos:

14

h(t )

x( )

Como h(t) son dos deltas y sabemos que la convolucion cumple la propiedad distributiva, vamos a
convolucionar cada delta por separado y luego sumar. Fijemonos en la delta de mayor nivel. Cuando
se solape con la se
nal, el producto x( )h(t ) sera x(t)( t), con lo que despues de integrar en
todo , nos quedamos con x(t). Comprobamos, pues, la propiedad x(t) (t) = x(t). Para la segunda
delta tendremos m
as o menos lo mismo, pero con un retardo adicional y una reduccion de nivel. A
continuacion vemos la se
nal de salida como suma de las dos convoluciones:

y(t)
convolucin
entera

t
convolucin delta
sin retardo

convolucin delta
del eco

As pues, comprobamos que el operador convolucion da como resultado lo que esperaramos de


este sistema. Podemos usar este ejemplo para interpretar la convolucion seg
un (5) como sigue: si
descomponemos h( ) como una suma (quiza infinita) de deltas con su valor correspondiente, entonces
la salida del sistema ser
a la suma de replicas (quiza infinitas) de x(t) adecuadamente escaladas y
retardadas.

3.2.

Propiedades de la convoluci
on

Son las siguientes:


1. Conmuntativa: x(t) h(t) = h(t) x(t)

x( )h(t

)d =

h( )x(t

)d

En el ejemplo 1 anterior, podemos comprobar que si giramos y desplazamos x( ) en vez de h( )


para obtener y(5), el
area resultante es exactamente la misma.
2. Asociativa: x(t) (y(t) z(t)) = (x(t) y(t)) z(t) = x(t) y(t) z(t)
En sistemas en cascada, no importa el orden en que se encuentren. Los siguientes sistemas son
todos equivalentes:

15

x(t)

h1 (t)

h2 (t)

y(t)

x(t)

h2 (t)

h1 (t)

y(t)

x(t)

h1 (t) h2 (t)

y(t)

x(t)

h2 (t) h1 (t)

y(t)

3. Distributiva: x(t) (h1 (t) + h2 (t)) = (x(t) h1 (t)) + (x(t) h2 (t))


Esto equivale a decir que dos sistemas en paralelo equivalen a uno cuya respuesta impulsional
es suma de la respuestas.
h1 (t)

x(t)

x(t)

y(t)

h1 (t) + h2 (t)

y(t)

h2 (t)

4. Identidad con (t): x(t) (t) = x(t), (t) (t) = (t)


Ejemplo: Calcular la respuesta impulsional del siguiente sistema:

h1 (t)
x(t)

+
-

!t

y(t)

h3 (t)

h2 (t)

Simplemente hay que expresar h(t) en funcion de las respuestas de los subsistemas
 individuales,

/2
es decir, h(t) = (h1 (t) h2 (t)) h3 (t) = ((t) (t T )) u(t) = u(t) u(t T ) = tT
.
T

3.3.

Propiedades de los sistemas LTI a partir de h(t)

Conociendo h(t) es posible determinar si un sistema LTI es causal y/o estable de la siguiente forma:
Causalidad: el sistema ser
a causal si h(t) = 0 para t < 0.
Recordemos la definici
on de un sistema causal, es decir, si x(t) = 0 para t < t0 entonces
R
y(t) = 0 para t < t0 . Calculemos ahora la salida del sistema como y(t) = x( )h(t )d .
16

Si la respuesta impulsional debe ser 0 para t < 0, entonces h(t ) = 0 para t < 0, o lo
que es lo mismo, para > t. En la integral de convolucion, esto se traduce en que solo hace
falta integrar hasta t, ya que h(t ) es 0 para valores mayores. Por lo tanto, en este caso,
Rt
y(t) = x( )h(t )d . En la integral solo intervienen valores de x( ) anteriores a t y por lo
tanto, se comprueba que el sistema es causal.
R
Estabilidad: se requiere que |h( )|d < .
Miremos si ante estas condiciones y para una entrada acotada |x(t)| < B, la salida se mantiene
acotada:
Z
Z
Z
|h( )|d
(7)
|x(t )||h( )|d B
x(t )h( )d |
|y(t)| = |

Notese que en la primera desigualdad se interpreta la integral como una suma y luego se hace uso
de la desigualdad triangular, que dice que dados dos complejos a y b, entonces |a + b| |a| + |b|.
Ademas, se tiene en cuenta tambien que para dos complejos a y b, se cumple |a b| = |a| |b|.

17

Tema 2: La Transformada de Laplace


Antoni Morell y Rosana Rodrguez
4 de febrero de 2013

1.

La transformada de Laplace. Definici


on y propiedades.

Antes de empezar con la definici


on formal de la transformada, comencemos viendo cual es su
utilidad. Desde ese punto de vista, la transformada de Laplace es una operacion o transformaci
on
matematica muy u
til para la resoluci
on de ecuaciones diferenciales ordinarias (en particular, las lineales
y de coeficientes constantes). Pero... que es una ecuacion diferencial? Es una ecuacion donde aparecen
funciones de una o varias variables y tambien sus derivadas. Si nos centramos en las ecuaciones
diferenciales ordinarias de orden n con coeficientes reales, estas tomaran la siguiente forma:
dn
dn1
d
y(t)
+
a
y(t) + . . . + a1 y(t) + a0 y(t) = f (t)
n1
n
n1
dt
dt
dt

(1)

donde ai son los coeficientes constantes, y(t) es la variable dependiente y f (t) se conoce como funci
on
excitadora.
Consideremos un ejemplo pr
actico. Supongamos que, en el circuito de la Figura 1, se quiere ver
cual es la tensi
on del condensador en todo momento vc (t).

+
+

i(t)

vC (t)

Figura 1: Circuito RC.


Aplicando la ley de Kirchoff de tensiones, vemos que:
V = R i(t) + vC (t)

(2)

donde ya se ha considerado que la tens


on en la resistencia vale vR (t) = R i(t). Finalmente, si tenemos
d
en cuenta la ley tensi
on-corriente del condensador, es decir, iC (t) = C dt
vC (t), llegamos a la ecuaci
on
V = RC

d
vC (t) + vC (t)
dt
18

(3)

Comprobamos que se trata de una ecuacion en la que intervienen tanto la funcion incognita vC (t)
como su derivada. Pues bien, la transformada de Laplace es una herramienta que, entre otras cosas,
nos permitira resolver ecuaciones diferenciales de forma sencilla.
Como es eso posible? Como veremos, gracias a la transformada de Laplace podremos pasar de una
ecuaci
on diferencial en el dominio del tiempo a una ecuaci
on algebraica en el dominio s o dominio
transformado (se llama dominio s porque esta es la variable que usaremos en el otro dominio al igual
que en tiempo usamos la variable t y que, dicho sea de paso, se trata de una variable compleja que
descompondremos seg
un s = + j). Trabajar con la ecuacion algebraica va a ser en general mucho
mas sencillo que hacerlo con la ecuaci
on en el dominio temporal (hemos resuelto muchas veces este tipo
de ecuaciones) y una vez encontrada la solucion en el dominio s, la clave sera poder antitransformar
para volver al dominio temporal que es el que nos interesa.

1.1.

Definici
on de la Transformada de Laplace Unilateral

La trasformada de Laplace unilateral de una funcion temporal f (t) es una funcion de variable
compleja s que se define seg
un
Z
f (t) est dt
(4)
F (s) = L {f (t)} =
0

donde f (t) es una funci


on que depende del tiempo t y que esta definida para t > 0 (supondremos
siempre que f (t) = 0 para t < 0), F (s) es la version transformada en el dominio s de f (t) y L es el
smbolo que distingue al operador de Laplace, lo cual indica que lo que haya dentro de dicho operador
sera transformado. Cuando tratamos con la transformada unilateral de Laplace (veanse los lmites de
integracion, que tienen en cuenta s
olo el lado positivo del eje real) nos importan los valores que toma
la funcion para t > 0. A menudo trataremos con funciones f (t) definidas para todo t pero a la luz de
la transformada unilateral de Laplace, estamos suponiendo que multiplicamos implcitamente dicha
funcion por u(t) (esto sera lo m
as correcto aunque no siempre lo explicitemos).
Veamos a continuaci
on algunos ejemplos:
f (t) = 1. Como hemos comentado, en la transformada unilateral de Laplace consideraremos
indistintamente f (t) = 1 y f (t) = u(t) puesto que para t 0 son la misma funcion, aunque lo
correcto es siempre a
nadir el termino u(t). En el caso que estamos tratando tenemos:

Z
1 1
st
F (s) =
1 e dt = =
(5)
s 0
s
0
f (t) = t (o bien f (t) = t u(t)). En este caso calculamos la transformada de Laplace como:
!


Z
Z st
t est
e
1 st
1
integracion
st
F (s) =
t e dt =
=
+
dt = 2 e = 2

s 0
s
s
s
por partes
0
0
0

(6)

f (t) = et . Este caso es algo m


as especial que los anteriores ya que dependiendo del valor
que tome s existe o no transformada. Notese que cuando Re{s} > , entonces la exponencial
19

et est = e(s)t tiene parte real negativa o, lo que es lo mismo, el complejo resultante tiene
un modulo que decae exponencialmente con el tiempo. En esta situacion la integral converge y
podemos calcular su transformada de Laplace como

Z
Z
Z
1 (s)t
1
(s)t
(s)t
t st
e
dt =
e
dt =
e e dt =
e
=
(7)

s
s
0
0
0
0
As pues, asociada a la transformada de Laplace esta la region de convergencia o ROC, que
nos dice para que valores de s existe transformada. El concepto de ROC es muy importante
aunque no lo veamos de forma explcita a la largo de esta asignatura per el hecho de tratar con
la transformada unilateral de Laplace, pero para mostrar su importancia diremos que, en caso
de considerar la transformada bilateral, entonces una misma transformada puede corresponder a
dos se
nales temporales distintas y solo la ROC nos delimitara cual es la buena. La transformada
bilateral se puede ver como una extension de la unilateral en la que los lmites de integraci
on
van de a + y por lo tanto, elimina la condicion f (t) = 0 para t < 0. A nivel de sistema, la
transformada unilateral tiene sentido ya que todos los sistemas implementables seran causales y
por lo tanto su respuesta impulsional estara definida u
nicamente para t 0. Volviendo al ejemplo
1
anterior y considerando ahora la transformada bilateral, la funcion transformada F (s) = s
tendra como transformada:
f (t) = et u(t) si la ROC fuese Re{s} >

f (t) = et u(t) si la ROC fuese Re{s} <

Por lo tanto, vemos en este ejemplo que la ROC para un sistema causal es siempre el semiplano
a la derecha de un cierto umbral como indica la siguiente figura:
j

sistema
causal

sistema
anti-causal

1.2.

Existencia de la Transformada de Laplace

Con el objetivo de determinar la existencia de la Transformada de Laplace debemos asegurarnos


basicamente que la integral de la definicion exista y resulte en algo finito. As pues, podemos decir
que:
1. Si una funci
on no es integrable, entonces seguro que no tiene transformada.
2. Si una funci
on es integrable pero su integral no converge (se va a infinto), entonces tampoco
puede tener transformada.

20

Si consideramos una funci


on f (t) definida en [0, ) y ademas continua a trozos, conseguimos solucionar el primer problema, pues ser
a integrable aunque no necesariamente va a converger (es decir,
podremos hacer la suma pero esta puede ser infinita). Para solucionar tambien el segundo problema
requeriremos que adem
as la funci
on sea de orden exponencial.
Una funcion es de orden exponencial si en valor absoluto esta acotada por una exponencial del tipo
M ect con M, c R, es decir
|f (t)| M ect
(8)
como muestra la figura. En este caso, podemos asegurar que la integral converge para todo s con

M ect
|f (t)|
M
t
Re{s} > c ya que el producto M ect est sera una exponencial con modulo decreciente en el tiempo.
Notese que si este producto es decreciente, a
un con mas razon lo sera el producto f (t)est .
Teorema de exixtencia de la Transformada de Laplace
Dada f (t) para 0 t < , si se cumple: i) f (t) es continua a trozos y ii) f (t) es de orden exponencial,
entonces su transformada de Laplace F (s) existe para Re{s} > c.
Nota: Las condiciones son suficientes pero no necesarias, con lo que una funcion f (t) no contnua a
trozos y que no sea de orden exponencial puede tener tambien (o no) transformada de Laplace.
Comprobaci
on
Z

lm
A

f (t)e

st



dt

Z
lm

A 0

M lm


f (t)est dt = lm

A 0

A 0

e(c)t dt =

M
c



|f (t)| est dt

(9)

(si > c)

Aqu vemos claramente que la transformacion (de Laplace) resulta en algo finito bajo las condiciones
expuestas.

1.3.

Propiedades de la Transformada de Laplace

Son las siguientes:


21

1. Correspondencia biunvoca: f (t) F (s).


Nota: En la transformada de Laplace bilateral es necesario tambien definir la ROC correspondiente. En la unilateral (la que usaremos nosotros) no hace falta.
2. Linealidad: L{c1 f1 (t) + c2 f2 (t)} = c1 L{f1 (t)} + c2 L{f2 (t)}
Comprobaci
on: a traves de la linealidad del operador integracion
Z
Z
Z
f1 (t)est dt + c2
[c1 f1 (t) + c2 f2 (t)]est dt = c1

f2 (t)est dt

(10)

= c1 L{f1 (t)} + c2 L{f2 (t)}


Ejemplo de aplicaci
on: encontrar las transformadas del seno y del coseno. Si consideramos f (t) =
cos(t) y g(t) = sin(t) y aplicamos la formula de Euler, vemos que ejt = f (t) + jg(t). Desde
el punto de vista transformado y aplicando la propiedad de linealidad tenemos:
L{ejt } = L{f (t)} + jL{g(t)} = F (s) + jG(s)
1
Por suerte, ya sabemos calcular la transformada de ejt , que vale L{ejt } = sj
=
Ahora ya simplemente identificando partes llegamos a la conclusion deseada, es decir

s
s2 + 2

G(s) = L{sin(t)} = 2
s + 2
F (s) = L{cos(t)} =

(11)
s+j
.
s2 + 2

(12)
(13)

3. Derivaci
on: L{f 0 (t)} = L{ dfdt(t) } = sF (s) f (0).
Comprobaci
on:
Z
0

!
st
0 (t)dt = dv
u
=
e
f
f 0 (t)est dt =
du = sest dt
f (t) = v

Z

= est f (t) + s
f (t)est dt = f (0) + sF (s)
0

(14)
(15)

Generalizaci
on:
Esta propiedad se puede generalizar siempre que la derivada n-esima tenga transformada de
Laplace, que se relacionar
a con F (s) seg
un
L{

dn f (t)
} = sn F (s) sn1 f (0) sn2 f 0 (0) sn3 f 00 (0) . . . sf (n2) (0) f (n1) (0) (16)
dtn

Ejemplo de aplicaci
on:
Gracias a la propiedad de derivacion obtenemos una de las aplicaciones mas importantes de
la transformada de Laplace, pues es lo que nos permite transformar una ecuacion diferencial
ordinaria en algebraica. Por ejemplo, supongamos un sistema cuya respuesta y(t) evoluciona a
lo largo del tiempo seg
un la ecuacion
y 00 (t) + 4y 0 (t) + 3y(t) = t
22

(17)

con condiciones iniciales y(0) = 2 y y 0 (0) = 3. Notese que, al fin y al cabo, una ecuaci
on
diferencial nos da informaci
on sobre variaciones del sistema pero en ning
un caso nos da una
medida absoluta de su estado. Por eso son necesarias las condiciones iniciales si se pretende dar
una caracterizaci
on completa del sistema.
Usando la propiedad de derivaci
on, vemos que
L{y(t)} = Y (s)

L{y 0 (t)} = sY (s) 2

L{y 00 (t)} = s2 Y (s) sy(0) y 0 (0) = s2 Y (s) sy(0) y 0 (0)


Ademas, sabemos que L{t} = s12 , por lo que sustituyendo terminos, la ecuacion temporal se
transforma en
1
s2 Y (s) 2s + 3 + 4sY (s) 8 + 3Y (s) = 2
(18)
s
que es una ecuaci
on algebraica. Ahora es posible aislar Y (s), con lo que llegamos a la soluci
on
Y (s) =

1 + s2 (2s + 5)
(s2 + 4s + 3)s2

(19)

y u
nicamente nos faltara anti-transformar para encontrar y(t), que es lo que realmente nos
interesa.
Rt
4. Integraci
on: L{ 0 f ( )d } = F (s)
s
Comprobaci
on:
Para verificar esta propiedad, emplearemos el primer teorema fundamental del calculo, que nos
dice
Z
d b(x)
f (t)dt = f (b(x))b0 (x) f (a(x))a0 (x)
(20)
dx a(x)
Aplicado a nuestro caso tenemos
Z
g(t) =
0

f (u)du

d
g(t) = f (t)
dt

Ahora, aplicando la anterior propiedad de derivacion obtenemos


Z t

0
F (s) = L{g (t)} = sL{g(t)} g(0) = sL
f (u)du

(21)

(22)

ya que g(0) =

R0
0

f (u)du = 0. As pues concluimos que


L

Z


F (s)
f (u)du =
s

d
F (s)
5. Multiplicaci
on por t: L{t f (t)} = ds

Comprobaci
on:

23

(23)

d
d
F (s) =
ds
ds

st

Z
f (t)dt =
0

d st
e f (t)dt =
ds

t est f (t)dt = L{t f (t)}

(24)

Generalizaci
on:
L{tn f (t)} = (1)n
6. Division por t: L{ f (t)
t }=

R
s

dn
F (s)
dsn

(25)

F (u)du

Comprobaci
on:
Partiendo de la definici
on de F (s) =
Z
s

R
0

f (t)est dt, vemos que

!
cambio del orden
f (t)e dt du =
F (u)du =
de integracion
s
0
Z



Z
Z
est
f (t)
ut
f (t)
f (t)
e du dt =
=
dt = L
t
t
0
0
s
Z

ut

(26)



7. Multiplicaci
on por et : L et f (t) = F (s )
Comprobaci
on:
Z

L{e f (t)} =

e f (t) e

st

dt =

f (t) e(s)t dt = F (s )

(27)



Analogamente, podemos afirmar que L et f (t) = F (s + ).
Pongamos un ejemplo: si sabemos que L{cos(t)} =
L{et cos(t)} =

s
,
s2 + 2

entonces

s+
(s + )2 + 2

(28)

8. Traslaci
on (
en el tiempo: si F (s) = L{f (t)} y desplazamos f (t) un cierto tiempo a obteniendo
f (t a) t a
as f(t) =
(ver figura), entonces L{f(t)} = eas F (s).
0
t<a
Comprobaci
on:

L{f(t)} =

st

f(t)dt =

Z
=

st

e
a

f (t a)dt =

ta=u
dt = du

!
(29)

esu esa f (u)du = eas F (s)

Ejemplo
de aplicaci
on: encontrar la transformada de Laplace del pulso rectangular f (t) =


tt0 /2
.

t0
24

f (t)
f(t)
t

Sabemos que podemos expresar el pulso rectangular como:

tt0 /2
t0

= u(t)u(tt0 ). Teniendo

esto en cuenta y conociendo la transformada del pulso unitario L{u(t)} = 1s , encontramos



 
1 est0
t t0 /2
1 est0
= L{u(t)} L{u(t t0 )} =
L
=
t0
s
s
s
s
a

9. Cambio de escala: L{f (at)} = a1 F

(30)

Comprobaci
on:

st

f (at)dt =

t=
dt =

a
d
a

es a f ()

d
1
=
a
a

es a f ()d =

1 s
F
a
a

(31)

10. Funciones peri


odicas: si f (t) es una funcion periodica, es decir, f (t+rt) = f (t), r N+ , entonces
podemos encontrar su transformada de Laplace como
RT
L{f (t)} =

est f (t)dt
1 esT

(32)

Comprobaci
on:
F (s) = L{f (t)} =

st

Z
f (t)dt =

st

f (t)dt +

est f (t)dt

Hacemos el cambio de variable t = T + u en la segunda de las integrales y nos queda


!
Z T
Z
f
(u)
=
f
(T
+
u)
F (s) =
est f (t)dt +
es(T +u) f (T + u)du =
por ser periodica
0
0
Z T
Z
Z T
=
est f (t)dt + esT
esu f (u)du =
est f (t)dt + esT F (s)
0

Finalmente, aislando F (s) llegamos al resultado deseado.

25

(33)

(34)

11. Teorema del valor inicial: nos permite encontrar f (t) para t 0 a partir de F (s) sin necesidad
de calcular la transformada inversa para obtener f (t) y luego calcular el lmite correspondiente.
Gracias al teorema del valor inicial podremos, por ejemplo, verificar las condiciones iniciales del
sistema.
Sean f (t) y

df (t)
dt

ttransformables, entonces lmt0 f (t) = lms s F (s).

Comprobaci
on:
Empezamos usando la propiedad de derivacion para establecer la siguiente relacion
Z
d f (t) st
e dt = s F (s) f (0)
dt
0
y tomamos el lmite s en la parte izquierda de la igualdad, lo que resulta en
Z
Z
Z
d f (t)
d f (t)
d f (t) st
st
e dt =
lm e dt =
0 dt = 0
lm
s
s 0
dt
dt
dt
0
0
Por lo tanto, teniendo en cuenta la relacion inicial llegamos a
Z
d f (t) st
lm
e dt = lm s F (s) f (0) = 0
s
s 0
dt

(35)

(36)

(37)

Finalmente, identificando f (0) = lmt0 f (t) llegamos al resultado deseado.


Ejemplo de aplicaci
on: Nos dan la funcion I1 (s) =
piden i1 (0).

2s+5
(s+1)(s+2)

en el domino transformado y nos

Aplicando el teorema del valor inicial, podemos encontrarlo sin necesidad de anti-transformar
haciendo
2s2 + 5s
=2
(38)
i1 (0) = lm 2
s s + 3s + 2
Si hubieramos anti-transformado (veremos como mas adelante), obtendramos i1 (t) = 3et e2t
y tomando el lmite t 0, hubieramos llegado al mismo resultado.
12. Teorema del valor final: an
alogamente al teorema del valor inicial, nos permiten encontrar f (t)
para t a partir de F (s) sin necesidad de calcular la transformada inversa para obtener f (t)
y luego calcular el lmite correspondiente. Gracias al teorema del valor final podremos saber, por
ejemplo, hacia d
onde tiende el sistema (a muy largo plazo).
Sean f (t) y

df (t)
dt

ttransformables tal que exista f (), entonces lmt f (t) = lms0 s F (s).

Comprobaci
on:
De manera semejante al caso anterior pero tomando el lmite s 0 obtenemos
Z
Z
Z
d f (t)
d f (t)
d f (t) st
st
lm
e dt =
lm e dt =
1 dt = f () f (0)
s0 0
dt
dt s0
dt
0
0

(39)

Usando de nuevo la propiedad de derivacion y a


nadiendo los lmites obtenemos
f () f (0) = lm [s F (s) f (0)]
s0

(40)

Finalmente, cancelando f (0) a ambos lados de la igualdad e identificando f () = lmt f (t)


llegamos al resultado descrito.
26

13. Evaluaci
on de integrales: si F (s) = L{f (t)}, entonces
Z
Z
est f (t)dt =
lm F (s) = lm
s

s 0

f (t)dt = F (0)

(41)

14. Transformada de la integral de convolucion: L{f1 (t) f2 (t)} = F1 (s) F2 (s)


As pues, una operaci
on m
as bien compleja a nivel temporal como es la convolucion se simplifica
enormemente bajo el prisma de la transformada de Laplace. Como en el caso de la resoluci
on de
ecuaciones diferenciales ordinarias, a menudo nos resultara mucho mas interesante transformar
las se
nales a convolucionar, hacer el producto en el dominio s y luego anti-transformar que
intentar abordar la convoluci
on directamente a nivel temporal.
Comprobaci
on:
Z

f1 (t )f2 ( )d est dt

Z0 Z0
st
f1 (t )e dt f2 ( )d
=

L{f1 (t) f2 (t)} =

(42)

Notese que en la primera igualdad la integral de convolucion empieza en 0 y no en dado que


las se
nales a convolucionar valen 0 para t < 0. En la segunda igualdad cambiamos el orden de
integraci
on y nos damos cuenta que la integral interior es justamente la transformada de Laplace
de f1 (t) con un cierto desplazamiento . Aplicando la propiedad de desplazamiento temporal
podemos ver que dicha integral vale e s F1 (s). Entonces

Z Z
Z
st
f1 (t )e dt f2 ( )d =
e s F1 (s)f2 ( )d
(43)
0
0
0
Z
= F1 (s)
e s f2 ( )d = F1 (s) F2 (s)
0

Transformada de Laplace de u(t) y (t):


Ambas funciones tienen especial relevancia en terminos de convolucion y transformada de Laplace. En cuanto a la funci
on (t), ya sabemos que la salida de un sistema cuando a la entrada hay
una delta nos proporciona su respuesta impulsional h(t). En el dominio transformado, definiremos
H(s) = L{h(t)} como la funci
on de transferencia del sistema y para encontrarla necesitaremos la
transformada de Laplace de (t). Otras veces, con el mismo fin de encontrar H(s), nos ser
a m
as
practico considerar como entrada al sistema el pulso unitario u(t) (a la practica es conectarlo)
y medir su respuesta.
La transformada de u(t) ya la hemos visto, pero la recordamos,
Z
Z
1
L{u(t)} =
u(t)est dt =
est dt =
s
0
0

(44)

La transformada de (t) es
L{(t)} =

(t)est dt = es0 = 1

27

(45)

Comprobaci
on mediante ejemplo:
Consideremos las funciones f1 (t) = u(t) y f2 (t) = u(t)et . La convolucion de ambas funciones
resulta
Z t
Z
Z
e d = 1 et (46)
u(t )e d =
u(t )u( )e d =
f (t) = f1 (t) f2 (t) =

Si lo miramos en el dominio transformado tenemos


1
F1 (s) = L{f1 (t)} =
s
1
F2 (s) = L{f2 (t)} =
s+1
F (s) = L{f (t)} = L{1 et } = L{1} L{et } =

(47)
1
1
1

=
s s+1
s(s + 1)

donde claramente comprobamos que se cumple F (s) = F1 (s) F2 (s).

2.

La Transformada Inversa de Laplace

Hasta el momento hemos visto cu


al es la puerta de entrada al dominio s (la propia transformada de
Laplace), una serie de herramientas que nos permiten relacionar ambos dominios de forma mas sencilla
que a fuerza bruta (las propiedades de la transformada) y nos falta ver cual es el camino de regreso
del dominio s al dominio temporal, es decir, la transformada inversa o anti-transformada de Laplace,
que denotaremos como L1 .
Para encontrar la transformada inversa de Lapace tenemos basicamente dos opciones:
Aplicar directamente la anti-transformada de Laplace como sigue
Z c+jT
1
1
L {F (s)} = f (t) = lm
F (s)est ds
T 2j cjT

(48)

donde c se debe escoger con el fin de integrar u


nicamente puntos dentro de la ROC y t 0. Se
trata de un metodo generico pero a su vez complicado ya que implica el calculo de una integral
sobre variable compleja y lo evitaremos en la practica.
Por descomposici
on de F (s) en terminos cuya anti-transformada sea conocida. En ese caso,
aplicando la propiedad de linialidad de la transformada, podremos expresar f (t) como suma de
anti-transformadas.
Anti-transformada de Laplace por descomposici
on en fracciones simples
Centremonos pues en la segunda opci
on y busquemos una manera sistematica de hacer la descomposicion de F (s) en terminos conocidos. En concreto, este metodo nos sera u
til cuando podamos
expresar F (s) como fracci
on de polinomios en s con el grado del numerador menor o igual que el del
denominador. As pues, tenemos
N (s)
(49)
F (s) =
D(s)
28

donde m = grado{N (s)} y n = grado{D(s)} con m n. Gracias al teorema fundamental del algebra,
sabemos que es posible descomponer N (s) y D(s) en m y n races complejas contando multiplicidades,
respectivamente. As pues, podemos expresar F (s) como
F (s) = K

(s z1 )(s z2 ) . . . (s zm )
(s p1 )(s p2 ) . . . (s pn )

(50)

donde zk son las races de N (s), a las que llamaremos los ceros de F (s), y pk son las races de D(s),
a las que llamaremos polos de F (s).
A continuacion veremos c
omo obtener la transformada inversa en cuatro casos distintos, que son
1. Polos simples reales y n > m.
2. Polos simples reales y complejos conugados con n > m.
3. Polos reales m
ultiples y n > m.
4. La funci
on F (s) cumple n = m.
Caso 1: Polos reales simples
En este caso es posible hacer la siguiente descomposicion
F (s) =

N (s)
A1
A2
An
=
+
+ ...
(s p1 )(s p2 ) . . . (s pn )
s p1 s p2
s pn

donde Ak son valores constantes. Una vez conseguida la descomposicion y sabiendo que L{et } =
encontramos la transformada inversa como

f (t) = A1 ep1 t + A2 ep2 t + . . . + An epn t u(t)

(51)
1
s ,

(52)

La cuestion ahora es c
omo encontrar los valores Ak . Fijemonos que, dado que m < n y que disponemos
de n valores Ak , tenemos suficientes grados de libertad para poder fijar los m + 1 coeficientes que
tendra a lo sumo el polinomio N (s), por lo que la descomposicion es posible. Pongamos un ejemplo
sencillo.
F (s) =

s2

4s 3
A1
A2
A2 (s + 1) + A1 (s + 3)
(A1 + A2 )s + (3A1 + A2 )
=
+
=
=
+ 4s + 3
s+1 s+3
(s + 1)(s + 3)
s2 + 4s + 3

(53)

con lo que debemos cumplir A1 + A2 = 4 junto con 3A1 + A2 = 3, lo cual es factible.


No obstante, este modo de proceder resultara algo tedioso, por lo que intentaremos encontrar una
alternativa m
as simple. Veamos que sucede si multiplicamos F (s) en su forma descompuesta por
(s pk ). Tendremos
F (s)(s pk ) =

A1
A2
Ak
An
(s pk ) +
(s pk ) + . . . +
(s pk ) + . . .
(s pk )
s p1
s p2
s pk
s pn

29

(54)

y cancelando (s pk ) en el k-esimo termino tenemos


F (s)(s pk ) =

An (s pk )
A1 (s pk ) A2 (s pk )
+
+ . . . + Ak + . . .
s p1
s p2
s pn

(55)

Finalmente, si evaluamos F (s)(s pk ) en s = pk obtenemos directamente Ak ya que el resto de


sumandos valen 0. As pues, el metodo para determinar los coeficientes es multiplicar F (s) por el
monomio correspondiente y evaluar todo en el valor del polo. En resumen,


(56)
Ak = F (s)(s pk )
s=pk

Ejemplo: anti-transformar F (s) =

s2 +2s+2
(s+1)(s+2)(s+3)

En primer lugar expresamos F (s) como


F (s) =

s2 + 2s + 2
A1
A2
A3
=
+
+
(s + 1)(s + 2)(s + 3)
s+1 s+2 s+3

(57)

Acto seguido calculamos las constantes haciendo


A1 =
A2 =
A3 =


(s2 + 2s + 2)
(s
+
1)
12+2

= 0, 5
=



(s + 2)(s + 3)
12
(s
+ 1) s=1

(s2 + 2s + 2)
(s
+
2)
44+2

= 2
=



(s + 1)(s + 3)
(1) 1
(s
+ 2) s=2

(s2 + 2s + 2)
96+2
(s
+
3)

=
= 2, 5



(s + 1)(s + 2)
(s
+ 3) s=3 (2) (1)

(58)

0,5
2,5
2
con lo que nos queda F (s) = s+1
s+2
+ s+3
. Ahora ya podemos anti-transformar cada una de las
fracciones para llegar al resultado deseado, que es

f (t) = 0, 5et 2e2t + 2, 5e3t u(t)
(59)

Caso 2: Polos complejos


En este segundo caso supondremos que ademas de races reales tenemos races complejas y hay que
tener en cuenta que cuando aparece una raz compleja debe haber tambien su compleja conjugada.
A continuacion vemos que sucede cuando hay una raz y su compleja conjugada, pero el siguiente
desarrollo sirve para cuantas races existan. Supongamos pues que F (s) es de la forma
F (s) =

N (s)
)2 + 2 )

D0 (s) ((s

(60)


En este caso est
a claro que no existe ning
un n
umero real tal que (s )2 + 2 = 0 y debemos recorrer
a los n
umeros complejos para hallar sus dos raices, que son j. De esta forma la descomposici
on
en fracciones simples quedara
F (s) =

N (s)
A
A
=
+
+ ...
D0 (s) [s ( + j)] [s ( j)]
s j s + j
30

(61)

donde los puntos suspensivos indican la descomposicion en fracciones simples de las races reales (caso
1). Notese que las constantes A y A que acompa
nan a las fracciones complejas y que se calculan
del mismo modo que en el caso anterior son tambien complejas conjugadas, por lo que no hace falta
calcular ambas.
En cuanto a la transformaci
on inversa, este caso es muy parecido al anterior aunque ahora nos apareceran exponenciales con argumento complejo con los que podremos elaborar algo mas. Tenemos dos
posibilidades:
1. Expresar A en m
odulo y fase como A = |A|ej , con lo que A = |A|ej .
En este caso la anti-transformada seria:


f (t) = u(t) |A|ej e(+j)t + |A|ej e(+j)t + . . .
(62)



= u(t) |A|et (ej(t+) + ej(t+) ) + . . . = u(t) 2|A|et cos (t + ) + . . .
2. Expresar A en parte real e imaginaria como A = a + jb, con lo que A = a jb.
En este caso la anti-transformada seria:


f (t) = u(t) (a + j)e(+j)t + (a jb)e(j)t + . . .


= u(t) et (aejt + jbejt + aejt jbejt ) + . . .

= u(t) et (2a cos t + 2b sin t) + . . .

(63)

Aunque no llegamos a la misma expresi


on, evidentemente ambas son la misma funcion. Quiza la primera nos sea m
as u
til para visualizar el resultado final, pues se trata de una senoide de amplitud
inicial |A| y fase que se aten
ua ( < 0) o amplifica ( > 0) de forma exponencial seg
un el termino
t
e (si = 0 la amplitud se mantiene constante a |A|).
Ejemplo: anti-transformar F (s) =

2s+3
s3 +5s2 +9s+5

En primer lugar buscamos las races del denominador y encontramos


F (s) =

2s + 3
(s + 1)[s2 + 4s + 5]

(64)

Si buscamos las races de s2 + 4s + 5 utilizando la formula para resolver ecuaciones de segundo grado,
encontramos que estas se encuentran en s = 2 j. As pues, expresamos F (s) como
F (s) =

2s + 3
A1
A2
A3
=
+
+
(s + 1)(s + 2 + j)(s + 2 j)
s+1 s+2+j s+2j

Ahora calculamos A1 y A2 igual que en el caso 1, es decir





(s
+
1)
(2s + 3)

A1 =
= 0, 5



(s + 1) s=1
(s + 2 + j)(s + 2 j)




(2s + 3)
(s
+
2
+ j)
1 2j
2 + 6j
A2 =
=
=
= 0, 25 + 0, 75j



(2j 2)
8
(s + 1)(s + 2 j)
(s
+
2 + j) s=2j
31

(65)

(66)

Notese que no hace falta calcular A3 ya que A3 = A2 = 0, 25 0, 75j. De esta forma podemos
expresar F (s) como
0, 5
0, 25 + 0, 75j 0, 25 0, 75j
F (s) =
+
+
(67)
s+1
s+2+j
s+2j
y anti-transformar seg
un lo explicado, cuyo resultado sera


f (t) = u(t) 0, 5et + (0, 25 + 0, 75j)e2t ejt + (0, 25 0, 75j)e2t ejt



= u(t) 0, 5et + e2t 0, 25(ejt + ejt ) + e2t 0, 75j(ejt + ejt )
(68)

t
2t
= u(t) 0, 5e + e (0, 5 cos t + 1, 5 sin t)
Caso 3: Polos m
ultiples
En este tercer caso exploramos la existencia de races m
ultiples. As pues, supongamos que F (s) tiene
una raz de multiplicidad l y veamos c
omo pasar al dominio temporal. Supongamos primero
F (s) =

(s p1

)l (s

N (s)
p2 ) . . . (s pn )

(69)

En este caso el polo en p1 debe considerar tantas constantes en la descomposicion como su multiplicidad. En nuestro caso, la descomposici
on debera ser
F (s) =

A11
A12
A1l
A2
An
+
+ ... +
+
+ ... +
l
l1
s p1 s p2
s pn
(s p1 )
(s p1 )

(70)

Nos preocupamos primero del c


alculo de los coeficientes A1k . Siguiendo la logica del primer caso
encontramos f
acilmente el coeficiente A11 como


l
(71)
A11 = F (s)(s p1 )
s=p1

No obstante, no sabemos c
omo calcular el resto de los coeficientes. Consideremos ahora la funci
on
l
(s p1 ) F (s) simplificada
F (s)(s p1 )l = A11 + A12 (s p1 ) + . . . + A1l (s p1 )l1 +

A2 (s p1 )l
An (s p1 )l
+ ... +
s p2
s pn

(72)

y tomemos la derivada respecto a s. Llegamos a


d
A2 l (s p1 )l1 (s p2 ) A2 (s p1 )l
{F (s)(sp1 )l } = A12 +. . .+A1l (l 1)(sp1 )l2 +
+. . . (73)
ds
(s p2 )2
y nos damos cuenta que evaluando en s = p1 obtendremos el valor de A12 ya que el proceso de
derivacion ha anulado los terminos de orden inferior mientras que el resto de terminos valen cero una
vez evaluamos en s = p1 . Vemos tambien que este mecanismo se puede repetir tomando derivadas
sucesivas para conseguir todos los valores requeridos. De forma generica, calcularemos el termino A1k
como
dk1
1
A1k =
lm
{(s p1 )n F (s)}
(74)
(k 1)! sp1 dsk1
Notese que el lmite s p1 es equivalente a evaluar la funcion resultante en s = p1 . No obstante,
formalmente ponemos el lmite ya que si no simplificamos la funcion cancelando terminos como hemos
32

hecho hasta el momento y evaluamos directamente, obtendremos una indeterminacion. Con el lmite
evitamos ese error de d definici
on y en los casos anteriores hubiera sido mas correcto tambien expresarlo as.
Finalmente, para pasar al dominio temporal la expresion de F (s) descompuesta en fracciones simples
resultante de (70) y en particular los terminos con denominador (sp1 )k , haremos uso de la propiedad
de multiplicaci
on por t (propiedad 5), que de forma generica nos deca
L{tn f (t)} = (1)n

dn F (s)
dsn

(75)

Partimos de la relaci
on ya vista en los casos anteriores
ep1 t

1
s p1

(76)

y aplicamos dicha propiedad. Para n = 1, obtendramos




d
1
1
p1 t
te (1)
=
ds s p1
(s p1 )2

(77)

De la misma forma, para n = 2 obtendramos


2 p1 t

t e

d2
2
ds

1
s p1


=

2
(s p1 )3

(78)

Vemos que a traves de sucesivas multiplicaciones por t vamos consiguiendo los terminos (sp1 )k . Sim1
plemente hay que tener en cuenta los factores adicionales que van apareciendo para finalmente llegar
a la relacion que nos interesa y que es
tn ep1 t

n!
(s p1 )n+1

tn p1 t
1
e
n!
(s p1 )n+1

(79)

Con todo esto ya somos capaces de trabajar con races m


ultiples. Veamos a continuacion un ejemplo.
Ejemplo: anti-transformar F (s) =

s+2
(s+1)2 (s+3)

En primer lugar hacemos la descomposicion en fracciones simples seg


un lo que hemos dicho, resultando
F (s) =

A11
A12
A2
+
+
2
(s + 1)
s+1 s+3

(80)

y calculamos los coeficientes haciendo


A11 =
A12
A2

s+2
 1 + 2
(s
+
1)2 =
= 0, 5


2


(s + 1) (s + 3)
1 + 3






d
s+2
1 (s + 3) (s + 2) 1

2

= lm
= lm
(s
+ 1)
= 0, 25


s1
s1 ds
(s
+
1)2 (s + 3)
(s + 3)2


(s + 2)(s + 3)
=
= 0, 25
(s + 1)2 (s + 3) s=3
33

(81)
(82)

con lo que nos queda


F (s) =

0, 5
0, 25
0, 25
+

(s + 1)2 s + 1 s + 3

(83)

Ahora ya podemos anti-transformar y nos queda


f (t) = u(t) 0, 5 t et + 0, 25 et 0, 25 e3t

(84)

Caso 4: Grados numerador y denominador iguales


Por u
ltimo, supongamos que F (s) tiene la forma
F (s) =

pn sn + pn1 sn1 + . . . + p0
qn sn + qn1 sn1 + . . . + q0

En este caso, podemos hacer la divisi


on de polinomios y nos quedara:



pn
n1 + . . . + p
p

q
s
n1
0
qn n1
pn
+
F (s) =
n
n1
qn
qn s + qn1 s
+ . . . + q0

(85)

pn
qn q0


(86)

La segunda parte ya sabemos solucionarla con los casos 1-3 y la primera parte tendra como transformada pqnn (t), as que f (t) sera


pn
f (t) = u(t)
(t) + . . .
(87)
qn
Con esto acabamos la transformaci
on inversa de Laplace y a continuacion veremos dos aplicaciones
importantes de la transformada de Laplace.

3.

Aplicaciones de la Transformada de Laplace

Dos de las aplicaciones m


as importantes de la transformada de Laplace para un ingeniero de telecomunicacion o electr
onico son la resoluci
on de ecuaciones diferenciales ordinarias y el analisis de circuitos
con elementos capacitivos y reactivos. A continuacion emplearemos las herramientas desarrolladas
hasta el momento en estas dos aplicaciones concretas.

3.1.

Resoluci
on de ecuaciones diferenciales ordinarias

Veremos esta aplicaci


on a traves de un ejemplo y para ello vamos a rescatar el circuito RC del principio
del tema dando valores a los elementos como vemos en la figura. Vimos que el circuito deba responder
a la siguiente ecuaci
on diferencial (ya sustituyendo los valores)
6=3

dvc (t)
+ vc (t)
dt

34

(88)

R = 1M
+
-

i(t)

C = 3F

V = 6V

vC (t)

A partir de la ecuaci
on diferencial, debemos sustituir cada uno de los terminos por su transformada
de Laplace. En este caso tendramos
6
s
L{vc (t)} = Vc (s)


dvc (t)
L 3
= 3(s Vc (s) vc (0)) = 3 s Vc (s) 3 vc (0)
dt
L{6} =

(89)

Suponiendo que la tensi


on inicial del circuito es nula (vc (0) = 0), la ecuacion diferencial se transformara en el dominio s en
6
= 3 s Vc (s) + Vc (s) = (3s + 1)Vc (s)
(90)
s
que es una ecuaci
on algebraica f
acil de resolver. Aislando Vc (s) llegamos a la solucion en el dominio
de Laplace, que es
6
(91)
Vc (s) =
s(3s + 1)
No obstante, nos interesa la soluci
on en el dominio temporal. Como ya sabemos anti-transformar,
empezamos por descomponer Vc (s) en fracciones simples seg
un
6
6/3
A1
A2
=
=
+
s(3s + 1)
s(s + 1/3)
s
s + 1/3

Vc (s) =

(92)

y calculamos los coeficientes como


A1 =
A2 =



6/3
6/3

=
=6

s(s
1/3
 + 1/3)s
 s=0


6/3
6/3

=
= 6







s
(s
+ 1/3)
(s
+ 1/3) s=1/3 1/3

As nos queda
Vc (s) =

6
6
6
=
s(3s + 1)
s s + 1/3

(93)

(94)

Finalmente ya podemos pasar al dominio temporal y nos queda


1

vc (t) = 6(1 e 3 t )

35

(95)

donde comprobamos que la tensi


on en el condensador es 0 inicialmente y este se va cargando de forma
exponencial hasta igualar la tensi
on de la fuente.
Aunque aqu hemos visto la resoluci
on de ecuaciones diferenciales en base a un ejemplo, la forma de
proceder sirve para todos los casos. En este ejemplo en particular hemos visto, ademas, que la resoluci
on
de circuitos con condensadores requiere tratar de alg
un modo con ecuaciones diferenciales. Desde el
punto de vista de transformada de Laplace, existe un metodo mas sistematico para tratar circuitos
que tengan bobinas y condensadores. Es lo que estudiaremos a continuacion y con eso cerramos el
tema de transformada de Laplace.

3.2.

An
alisis de circuitos

El analisis de circuitos usando transformada de Laplace se podra plantear de la siguiente manera.


Primero podramos extraer las ecuaciones diferenciales por las que se rigen las tensiones o corrientes
en el circuito, luego las podramos transformar para resolver en el dominio s y una vez encontrada
la solucion pasar al dominio temporal. No obstante, esta manera de proceder podra ser complicada
y existe un metodo m
as sencillo de llevar a cabo el analisis de circuitos. Lo que haremos es analizar
el circuito directamente en el dominio s aprovechandonos de que es posible interpretar bobinas y
condensadores como si fueran resistencias especiales (a las que llamaremos impedancias). Como ya
sabemos analizar un circuito que tenga u
nicamente resistencias, lo u
nico que nos quedara ser
a antitransformar la soluci
on alcanzada, pero tambien es algo que ya sabemos hacer.
Transformaci
on de los elementos
Una resistencia es un elemento o dispositivo que establece una relacion proporcional entre la corriente
que circula por ella y la tensi
on que hay en sus bornes. Sabemos que la relacion tension-corriente en
bobinas y condensadores es algo m
as complicada, pues es diferencial. No obstante, esta relaci
on se
puede simplificar en el dominio s y lo que pretendemos es que se parezca lo mas posible a algo proporcional. Empecemos viendo que sucede cuando las condiciones iniciales son nulas y luego veremos
el caso general.
Condiciones iniciales nulas
Estudiemos primero la relaci
on V-I en el condensador cuando vc (0) = 0 (ver la figura). Sabemos que

ic (t)

C
vc (t)

36

c (t)
la relacion temporal es ic (t) = C d vdt
. Si transformamos esta relacion al dominio s obtenemos

Ic (s) = C s Vc (s)

(96)

y si lo expresamos en forma de tensi


on-corriente nos queda
1
Vc (s)
=
Ic (s)
Cs

(97)

Precisamente esta relaci


on es la impedancia y se puede entender como una generalizacion del concepto
de resistencia. Dicho de otra forma, en el dominio transformado podramos ver al condensador como
una resistencia cuyo valor es 1/C s y por lo tanto, los mismos metodos de analisis que usabamos en
circuitos con resistencias en el dominio temporal serviran en circuitos con condensadores en el dominio
transformado. De forma gr
afica representaremos al condensador como en la figura.

Ic (s)
1/Cs

Vc (s)

L (t)
Analicemos ahora que sucede con una bobina, cuya ecuacion V-I es vL (t) = L d idt
. Si transformamos
esta ecuacion al dominio s suponiendo iL (0) = 0 obtendremos

VL (s) = L s IL (s)

VL (s)
= Ls
IL (s)

(98)

Ahora la impedancia en el dominio transformado vale L s y por lo tanto podremos tratar una bobina como si fuera una resistencia de valor L s. Graficamente representaremos la bobina en ambos
dominios como en la figura.

IL (s)

iL (t)

Ls

vL (t)

VL (s)

Condiciones iniciales NO nulas


Si consideramos que las condiciones iniciales pueden ser no nulas, entonces no basta con representar
el condensador y la bobina como una impedancia. Hace falta hacer algo mas. Empezemos viendo
que sucede con el condensador. Si vc (0) 6= 0, entonces (96) pasa a ser
Ic (s) = C s Vc (s) Cvc (0)
37

(99)

y la relacion de proporcionalidad anterior deja de existir. Reescribimos la relacion anterior como


Ic (s) vc (0)
+
(100)
Cs
s
e identificamos la parte de proporcionalidad como antes a la que se le suma un offset. Este u
ltimo
termino lo podemos ver como un generador de las condiciones iniciales y circuitalmente podemos
representar al condensador con condiciones iniciales no nulas seg
un se ve en la figura (impedancia +
fuente).
Vc (s) =

Ic (s)
vc (0)/s

1/Cs

Vc (s)

Otra posibilidad es representar al condensador como una impedancia en paralelo a una fuente de
corriente. Para ello empleamos el equivalente Thevenin-Norton y sabemos que la fuente de corriente
c (0)/s
debe valer la tensi
on de fuente inicial dividida por la impedancia, es decir, v1/C
s = C vc (0). De esta
forma, conseguimos la representaci
on de la figura.
+
1
Cs

C vc (0)

Vc (s)

En el caso de la bobina partimos de la relacion VL (s) = LsIL (s) LiL (0) y vemos que ahora el
generador de tensi
on toma el valor LiL (0). Aplicando el teorema de Thevenin-Norton podemos
pasar a una configuraci
on compuesta por una fuente de corriente de valor iLs(0) con la impedancia en
paralelo. Vemos ambas posibilidades en la siguiente figura.
IL (s)
LiL (0)
+

+
Ls

iL (0)
s

Ls

VL (s)

VL (s)

Por u
ltimo, cabe comentar que las resistencias se mantienen como impedancias de valor R puesto que
la relacion vR (t) = R iR (t) no cambia en el dominio transformado, donde tenemos VR (s) = R IR (s).

38

Ejemplos de aplicaci
on
Ejemplo1:
Supongamos que queremos analizar el circuito de la siguiente figura y, por ejemplo, nos interesa calcular
la evolucion de la tensi
on en el condensador.
10

i(t)

1
10 F

vC (t)

vc (0) = 20V

Para poder analizarlo directamente en el dominio s como si se tratase de un circuito con resistencias
y generadores, debemos transformar primero los elementos. En este caso solo hay que transformar el
condensador (puesto que la resistencia se mantiene como impedancia de valor 10). Dado que existe
una condicion inicial no nula, el condensador se convierte en una impedancia mas un generador. El
circuito transformado resulta ser el de la figura siguiente.
10

+
1
Cs

Vc (s)

10
s

I(s)

+
vc (0)
s

20
s

Dado que el objetivo era encontrar la tension en el condensador, la identificamos primero en el dominio
transformado como
vc (0) I(s)
Vc (s) =

(101)
s
Cs
y una vez hallada la corriente I(s) en el circuito transformado, solo nos quedara anti-transformar para
encontrar el resultado buscado.
Ejemplo 2:
Supongamos ahora que queremos analizar el siguiente circuito, donde las condiciones iniciales de la
bobina y condensador son no nulas.

39

R1

R2

vs (t)

vC (t)

iL (t)

Como en el caso anterior, transformamos los elementos para obtener el circuito transformado (ver
figura).
R1

R2

1
Cs

Vs (s)

iL (0)
s

Ls

+
vc (0)
s

Una vez transformado, aplicamos las herramientas clasicas de analisis de circuitos (leyes de Kirchoff,
equivalente Thevenin-Norton, principio de superposicion, . . . ) para hallar la tension o corriente que
deseemos encontrar. Por ejemplo, podramos aplicar el equivalente Thevenin-Norton para pasar de 3
a 2 mallas como muestra la figura.
R1

R2

+
Vs (s)

Ls

1
Cs

+
vc (0)
s

iL (0)L

Una vez obtenidas las magnitudes deseadas, solo nos queda anti-transformar para conocer la evoluci
on
temporal de las corrientes y tensiones en el circuito.

40

Tema 3: Funci
on de Transferencia de un Sistema
Antoni Morell y Rosana Rodrguez
4 de febrero de 2013

1.

Definici
on

La funci
on de transferencia de un sistema LTI se define como la relacion (cociente) entre la transformada de Laplace de la salida o respuesta del sistema Y (s) = L{y(t)} y la transformada de Laplace de
la entrada o funci
on excitadora X(s) = L{x(t)} suponiendo condiciones iniciales nulas (sistema en
estado cero) y una u
nica excitaci
on. As tenemos
H(s) =

Y (s)
X(s)

(1)

Si convertimos la ecuaci
on anterior a Y (s) = H(s)X(s) y aplicamos la propiedad de convolucion para
volver al dominio temporal (propiedad 14 del tema 2), obtenemos
L1 {Y (s)} = L1 {H(s)X(s)}

y(t) = h(t) x(t)

(2)

con lo que ya podemos anticipar que, en realidad, la funcion de transferencia corresponde a la transformada de Laplace de la respuesta impulsional en sistemas lineales e invariantes con condiciones iniciales
nulas.
En caso de definir el sistema en forma de ecuacion diferencial como
bn

dn y(t)
dn1 y(t)
dy(t)
dm x(t)
dx(t)
+
b
+
.
.
.
+
b
+
b
y(t)
=
a
+ . . . + a1
+ a0 x(t),
n1
1
0
m
dtn
dtn1
dt
dtm
dt

(3)

su transformaci
on al dominio s (suponiendo condiciones iniciales nulas) nos lleva a


bn sn + bn1 sn1 + . . . + b1 s + b0 Y (s) = am sm + am1 sm1 + . . . + a1 s + a0 X(s),

(4)

de lo que concluimos que


H(s) =

Y (s)
am sm + am1 sm1 + . . . + a1 s + a0
=
X(s)
bn sn + bn1 sn1 + . . . + b1 s + b0

(5)

Finalmente, llamaremos orden de la funci


on de transferencia al orden del polinomio que se encuentra
en el denominador.

41

Utilidad de la funci
on de transferencia
La funcion de transferencia nos sirve para caracterizar un determinado sistema de una forma compacta
(igual que lo hace su respuesta impulsional) pero, ademas, nos permite calcular la salida a cualquier
entrada de forma habitualmente m
as simple que haciendo la integral de convolucion. En otras palabras,
es preferible transformar la se
nal de entrada, hacer el producto con H(s) y finalmente anti-transformar
el resultado obtenido que abordar la convolucion directamente. Veamoslo en un ejemplo muy simple.
Consideremos el circuito de la figura siguiente y definamos la entrada vi (t) como la tension de generador
y la salida v0 (t) como la tensi
on en bornes de la resistencia R2 .
R1

+
vi (t)

R2

v0 (t)

2
A priori, como se trata de un circuito muy simple, vemos facilmente que v0 (t) = R1R+R
vi (t). No
2
obstante, hagamos un peque
no ejercicio academico y abordemoslo como un sistema generico. Como
ya hemos dicho, una opci
on para caracterizar el sistema es obtener su respuesta impulsional. Para ello
2
fijamos vi (t) = (t) y obtenemos v0 (t) = h(t) = R1R+R
(t). Ahora, para calcular la salida a cualquier
2
entrada deberamos hacer
Z
Z
R2
(t )d
(6)
v0 (t) = h(t) vi (t) =
h(t )vi ( )d =
vi ( )
R
1 + R2
0
Z 0
R2
R2
vi ( )(t ) =
vi (t)
=
R1 + R2 0
R1 + R2

Intuimos en este caso tan simple que el hecho de tener que calcular una integral para nada facilita el
calculo.
Por contra, si calculamos H(s) =

Y (s)
X(s)

obtenemos
H(s) =

R2
R1 + R2

(7)

Ahora la salida se obtiene haciendo el producto V0 (s) = H(s)Vi (s). Es cierto que hara falta transformar
primero vi (t) y luego anti-transformar V0 (s), pero normalmente resultara menos complejo que integrar
directamente. Adem
as, como veremos mas adelante, el estudio de H(s) nos permite un analisis m
as
profundo y a la vez simple del sistema.

42

2.

Determinaci
on de la Funci
on de Transferencia a Partir de las
Respuestas al Impulso Unidad y al Escal
on Unitario

A la practica, determinaremos la funci


on de transferencia de un sistema inyectandole se
nal y midiendo
su respuesta, todo ello a nivel temporal. Lo ideal (mas practico) sera inyectar al sistema el impulso
unitario (t), puesto que con s
olo anti-transformar la salida y(t) = h(t) nos valdra. No obstante, a
veces resulta complicado generar un impulso unitario y es mucho mas practico usar el escalon unidad.
Por ejemplo, si nuestro sistema es un circuito y definimos la entrada al sistema como la tensi
on de
generador, entonces aplicar u(t) a la entrada es equivalente a conectar el circuito usando una fuente
de tension constante. En cualquiera de los dos casos, es sumamente importante que el sistema se encuentre en estado cero antes de hacer el experimento.
Veamos a continuaci
on los dos casos descritos:
1. Si x(t) = (t), entonces y(t) = h(t) (t) = h(t). En el dominio transformado X(s) = 1 y por
lo tanto Y (s) = H(s), con lo que nos basta transformar la salida del sistema a nivel temporal
para obtener su funci
on de transferencia.
2. Si x(t) = u(t), entonces y(t) = h(t) u(t). En el dominio transformado X(s) = 1/s y por lo tanto
Y (s) = H(s)/s, con lo que H(s) = s Y (s). En este caso, para hallar H(s) deberemos transformar
la salida del sistema al dominio s y luego simplemente la multiplicaremos por s.
Ejemplo de aplicaci
on: Supongamos que para cierto sistema, la respuesta al escalon unidad en estado

cero es y(t) = 1 e3t u(t). Encontrar H(s).
En este caso transformamos primero y(t) al dominio de Laplace, resultando en
Y (s) =

1
1

s s+3

(8)

y luego multiplicamos por s para finalmente encontrar la funcion de transferencia. As resulta


H(s) = s Y (s) = 1

s
s+3

(9)

Ahora ya podemos conocer la respuesta a cualquier entrada del sistema. Simplemente hay que transformar la entrada al dominio de Laplace, multiplicarla por H(s) y anti-transformar el resultado obtenido.

3.

Diagrama de Zeros y Polos

Como ya vimos en el tema 2, todo polinomio de orden n se puede descomponer, por el teorema
fundamental del
algebra, en n races (contando multiplicidades). Cuando H(s) sea una divisi
on de
polinomios en s, es decir, H(s) = N (s)/D(s), entonces podremos expresarla como
H(s) = K

(s z1 ) . . . (s zm )
(s p1 ) . . . (s pn )

43

(10)

y diremos que n es el grado de la funci


on de transferencia, o sea, el grado del polinomio denominador.
Como ya vimos en el tema anterior, llamaremos ceros de H(s) a las races del polinomio numerador
y polos de H(s) a las races del polinomio denominador.
Como tambien sabemos, s es una variable compleja que descomponemos seg
un s = + j. Llamaremos plano complejo o plano s al plano de dimension 2 que forman todos los valores de s con
(, +) y (, +). En este plano se representan los ceros de H(s) con un crculo ()
y sus polos con una cruz (). La posici
on de ambos en el plano s, as como el valor de K, es lo que
finalmente determina la respuesta del sistema y tambien algunas de sus propiedades como veremos en
el siguiente apartado.
Ejemplos de representaci
on:
s+2
H(s) = K (sj)(s+j)

s+3
H(s) = K [s(1+j)][s(1j)]

4.

Estabilidad

Una de las propiedades fundamentales de cualquier sistema es su estabilidad, pues un sistema inestable
pocas veces tendr
a utilidad pr
actica. En este caso son los polos de la funcion de transferencia quienes
determinan si un sistema es estable o no para una entrada cualquiera, siempre que esta este acotada.
Consideremos ahora el sistema de la figura, inicialmente en estado cero,
X(s)

H(s)

Y (s)

donde la salida vale Y (s) = H(s) X(s). Si quisieramos volver al dominio temporal para encontrar
y(t), deberamos descomponer Y (s) en fracciones simples seg
un ya hemos visto en el tema anterior.
Supongamos que el producto H(s) X(s) da lugar a n fracciones simples correspondientes a los n polos
de H(s) mas otras l fracciones simples correspondientes a las l races del denomindador de la se
nal de

44

entrada X(s). En este caso tenemos


Y (s) =

An
B1
Bl
A1
+ ... +
+
+ ... +
s p1
s pn s s 1
s sl

(11)

Por otro lado, llamaremos componente libre a la respuesta que el sistema genera de manera intrnseca
pero que no est
a relacionada con la forma temporal de la se
nal de entrada y denominaremos componente forzada a la parte de la respuesta que es debida directamente a la entrada, es decir, que
comparte su misma forma temporal.
Si nos fijamos de nuevo en (11) veremos que ya se ha separado en dos grupos de fracciones simples: i)
las correspondientes a las races del denominador de H(s) (los polos del sistema) y ii) las correspondientes a las races del denominador de la se
nal de entrada X(s). Si ahora nos planteasemos pasar al
dominio temporal, resulta evidente que el segundo grupo de fracciones simples dara formas de onda
iguales a las de la se
nal de entrada (modificadas solo por el coeficiente Bi correspondiente) mientras
que el segundo grupo dara lugar a formas de onda que el sistema genera por s mismo y que, salvo
por los coeficientes Ak , no dependen de cual es la entrada.
Llegados a este punto, disponemos de herramientas suficientes para plantearnos cuando un sistema es
estable y cuando no. Recordemos del tema 1 que un sistema es estable por definicion si la salida a
cualquier entrada acotada es tambien acotada. Teniendo esto en cuenta y volviendo a la expresi
on de
Y (s) en (11), vemos claramente que la componente forzada de la respuesta no influye en la estabilidad
del sistema, ya que si la entrada es estable, esa parte de la salida tambien lo sera (los coeficientes son
siempre finitos). Por lo tanto, la estabilidad del sistema tiene que venir determinada por la componente
libre. Intuitivamente, si un sistema es estable esperaremos que la respuesta libre tienda a desaparecer
con el avance del tiempo, es decir, que exista un cierto instante t0 a partir del cual la componente
libre sea nula o despreciable y u
nicamente nos quede la respuesta forzada. Siguiendo esta misma idea
podemos definir:
Regimen transitorio: intervalo de tiempo en el que la componente libre de la respuesta es ostensible frente a la componente forzada.
Regimen permanente: intervalo de tiempo en el que la componente libre se puede considerar nula
o despreciable y queda u
nicamente la parte forzada de la respuesta.
Formalmente, diremos que un sistema es estable si la componente libre de la respuesta tiende a cero
cuando el tiempo tiende a infinito. Ademas, como ya se ha visto, un sistema es estable independientemente de la excitaci
on a la que es sometido. A continuacion veremos la relacion entre la respuesta
libre del sistema y su diagrama de ceros y polos.

Relaci
on entre Respuesta Libre y Diagrama de Polos y Ceros
A continuacion veremos los distintos tipos de polos que podemos encontrar para analizar a continuaci
on
su efecto en la respuesta del sistema.
a) Polos reales con parte real negativa.
45

Supongamos que tenemos un polo simple en p = . Entonces, su anti-transformada tendr


a fort
ma de exponencial decreciente, es decir, sera del tipo Ae u(t). Vemos que da lugar a una
respuesta que se aten
ua con el tiempo. Incluso si el polo hubiera sido m
ultiple, una respuesta del
tipo Atk et u(t) tambien se atenuara con el tiempo puesto que la exponencial decrece siempre
mas rapido que el termino tk para un k dado. Vemos tambien que a mayor valor de (polo
mas negativo) mayor es la velocidad de decrecimiento. Por lo tanto, polos reales con parte real
negativa contribuir
an a que el sistema sea estable.
b) Polos reales con parte real positiva.
Si el polo es real pero positivo sucede justo lo contrario. Si tenemos un polo simple en p = ,
este dar
a lugar a una respuesta de tipo Aet u(t), es decir, crecera exponencialmente con el
tiempo y como mayor sea el valor de , tambien mayor sera su velocidad de crecimiento. Por
lo tanto, polos reales con parte real positiva haran que el sistema sea inestable. Notese que una
sola contribuci
on de este tipo har
a que el sistema sea inestable. Dicho de otra forma, aunque un
sistema tenga 100 polos reales negativos y uno solo de positivo, el sistema sera inestable.
c) Polos complejo conjugados.
Parte real negativa.
Supongamos que tenemos un polo complejo conjugado del tipo p = j. Como vimos en
el tema 2, estos polos generan una respuesta del tipo Aet cos (t + )u(t) y se trata, por
lo tanto, de una cosnoide a frecuencia angular cuya amplitud decrece exponencialmente
seg
un et . Como sucede en el caso a), como mas negativa es la parte real del polo m
as
rapidamente decrece. Por lo tanto, estos polos contribuiran a la estabilidad del sistema.
Parte real positiva.
Consideremos ahora p = j. En este caso la respuesta es del tipo Aet cos (t + )u(t)
y ahora la amplitud de la cosenoide crece exponencialmente con el tiempo. Por lo tanto, un
polo de este tipo fuerza la inestabilidad del sistema.
Finalmente, si el polo tiene parte real nula, es decir p = j, la respuesta sera A cos (t + )u(t),
o sea, una cosenoide. En este caso el sistema sera estable seg
un la definicion del tema 1 pero la
componente libre del sistema no se aten
ua con el tiempo. Es por eso que en este caso diremos
que el sistema es estable en sentido amplio o bien marginalmente estable. Lo mismo sucede si el
polo fuera real con parte real nula.
d) Polos m
ultiples en el eje imaginario.
En este caso tendremos el escal
on multiplicado por tn o bien un coseno multiplicado por tn . Por
lo tanto, el sistema ser
a inestable en este caso ya que la respuesta correspondiente a estas races
crece a infinto, aunque lo haga de forma mas lenta que la exponencial.
Una vez hemos analizado todos los casos, podemos anticipar la condicion de estabilidad de un sistema
mirando u
nicamente su funci
on de transferencia H(s).

46

Estabilidad / Inestabilidad de un Sistema


Podemos clasificar los sistemas seg
un:
Sistema estable en sentido estricto: si todos sus polos tienen parte real estrictamente negativa
(no 0).
Sistema estable en sentido amplio: si todos sus polos tienen parte real estrictamente negativa o
bien 0 (en este caso con multiplicidad 1).
Sistema marginalmente estable: si tiene al menos un polo con parte real nula (pero u
nicamente
con multiplicidad 1).
Sistema inestable: si tiene al menos un polo con parte real estrictamente positiva o bien un polo
m
ultiple con parte real nula.
La figura siguiente muestra, para los distintos tipos de polo, su forma temporal asociada y su condici
on
de estabilidad / inestabilidad.

x
x

x
x

ESTABLE (S. ESTRICTO)

INESTABLE

ESTABLE (S. AMPLIO)

5.

MARGINALMENTE ESTABLE

Diagramas de Bode

Los diagramas de Bode son una representacion grafica de la respuesta de un determinado sistema a
un tipo de entrada muy particular: la cosenoide. Su utilidad practica se pone de manifiesto cuando
nos damos cuenta de que las se
nales con las que trabajan los sistema de comunicacion se pueden
descomponer como suma de senoides (de diferente amplitud y fase) seg
un la transformada de Fourier
(que veremos en el siguiente tema). As pues, conocer la respuesta del sistema a una cosenoide de
cualquier frecuencia y fase nos lleva a poder predecir la respuesta del sistema a cualquier se
nal de
entrada. De ahora en adelante, diremos que el sistema trabaja en r
egimen permanente senoidal
cuando a la entrada tiene una senoide que esta presente desde t = .
47

5.1.

Respuesta a la cosenoide. La se
nal exponencial como autofunci
on de los sistemas LTI.

Veamos primero que queremos decir con que la exponencial es autofuncion de un sistema LTI cualquiera. Pues bien, esto significa que si a la entrada de un sistema LTI inyectamos una se
nal exponencial
st
x(t) = e , entonces la salida tambien tendra la misma forma de exponencial multiplicada por un cierto factor constante al que llamamos autovalor. Esto es valido tanto para la transformada de Laplace
unilateral como bilateral. No obstante, ya que hasta ahora nos hemos centrado en la transformada de
Laplace uniltateral, vamos a considerar el sistema causal como indica la siguiente figura.

h(t)

x(t) = est

y(t) = ! est

LTI y causal

En este caso, la salida resulta


Z
Z
y(t) = x(t) h(t) =
h( )x(t )d =

h( )es(t ) d = est

h( )es d = est H(s) (12)

Este resultado es interesante por su simplicidad pero tiene un problema desde el punto de vista
practico: una se
nal exponencial de tipo est con s complejo no es algo demasiado intuitivo ni u
til si
no es que la parte real de s sea nula (si es positiva la se
nal no esta acotada y si es negativa la se
nal
se desvanece). Por contra, una se
nal senoidal de tipo cos (t + ), correspondiente a una parte real
nula, resulta mucho m
as manejable o interpretable y la salida del sistema a dicha se
nal nos permite
entenderlo mucho mejor ya que nos dice como este se comporta ante una determinada frecuencia
angular . Si utilizamos la f
ormula de Euler, vemos que podemos expresar el coseno como suma de
exponenciales seg
un

1  jt+
cos (t + ) =
(13)
e
+ ejt
2
Ahora podemos encontrar la salida del sistema aplicando el resultado de (12), obteniendo

1  jt j
y(t) =
e e H(j) + ejt ej H(j)
(14)
2
Centremonos un momento a ver que vale H(j). Empezando con la definicion de transformada de
Laplace, esto es
Z

Z
j

j
H(j) =
h( )e =
h ( )e
d
(15)
0

donde hemos conjugado dos veces teniendo en cuenta que en complejos se cumple (ab + cd) = a b +
c d independientemente del numero de sumandos que haya. Si nos fijamos en la u
ltima expresi
on

encontrada y tenemos en cuenta que los sistemas seran reales en la practica, es decir h ( ) = h( ),
entonces llegamos a
H(j) = H (j)
(16)
Por lo tanto, H(j) y H(j) ser
an iguales en modulo y tendran fase opuesta, que denotaremos por
(), por el hecho de ser uno el conjugado del otro. Aplicando esta idea al desarrollo inicial podemos
48

ver que
y(t) =


1  jt j
e e |H(j)|ej() + ejt ej |H(j)|ej() = |H(j)| cos (t + + ())
2

(17)

Llegamos a la conclusi
on que la salida a una senoide de frecuencia y fase es otra senoide a la
misma frecuencia pero desfasada una cierta cantidad marcada por la fase de H(j) a dicha frecuencia
y escalada por el m
odulo de H(j). As pues, nos interesaran estas dos magnitudes y esa informaci
on
es lo que representamos gr
aficamente con los diagaramas de Bode de amplitud y fase.

5.2.

Diagrama de Bode de Amplitud y Fase.

Como acabamos de decir, son la representacion de |H(j)| y () = H(j) en funcion de la frecuencia angular dada en rad/s, aunque tambien se pueden representar en funcion de la frecuencia natural
f dada en Hz, ambas relacionadas seg
un = 2f . Habitualmente se representa en escala logartmica
tanto el eje de frecuencias como el de amplitudes para ambos diagramas. Esto es interesante para
poder representar as en una misma gr
afica un amplio margen de frecuencias (el logaritmo comprime).
Diagrama de Bode de amplitud
En este caso en particular, aplicaremos 10 log10 |H(j)|2 = 20 log10 |H(j)| en el eje de amplitudes
para trabajar as en dB (magnitud relativa habitualmente relacionada con medidas de potencia o
intensidad). La raz
on principal es que los distintos terminos de H(j) que estan multiplicando y
dividiendo pasan a sumar y restar dadas las propiedades del logaritmo. Es decir, si representamos
(j)
H(j) como H(j) = K N
D(j) , entonces
|H(j)|2dB = 20 log10 |H(j)| = 20 log10 |K| + 20 log10 |N (j)| 20 log10 |D(j)|

(18)

Diagrama de Bode de fase


En este caso representaremos la amplitud en lineal pues la escala ira entre 0 y 2.
En general, el diagrama de Bode es una herramienta para ver el comportamiento de un sistema de
verdad con se
nales de verdad y de una forma rapida. Ademas, nos permite incluso reconstruir la funci
on
de transferencia del sistema si es necesario. Aunque gracias a las herramientas informaticas existentes
en la actualidad resulta relativamente facil dibujar el diagrama de Bode de un sistema, tambien
veremos como hacer una representaci
on asintotica (no exacta) de este (aplicado a circuitos) de forma
facil y sin necesidad de ordenadores. No obstante, antes de eso veremos como son los diagramas de
Bode de algunos sistemas muy b
asicos, ya que mas tarde los combinaremos para obtener los diagramas
de sistemas m
as complejos.
Casos b
asicos
1. H(j) = K (constante).
Este caso es muy elemental y tenemos
H(j) = 0 rad

|H(j)|2dB = 20 log10 |K|


49

(19)

H(j)

20 log10 |H(j)|
20 log10 |K|

que corresponde a
2. H(j) = K/j.
En este segundo caso, el diagrama de Bode de amplitud responde a
|H(j)|2dB = 20 log10 |H(j)| = 20 log10

K
= 20 log10 |K| 20 log10

(20)

lo que corresponde a una recta con pendiente negativo. Que sucede si pasamos de una frecuencia
0 a una 10 veces mayor, es decir, 100 ? (Nota: Este salto entre una frecuencia 0 y otra 10
veces superior es lo que llamamos decada.) Queda claro que para 0 tendramos el resultado de
(20) si sustituimos por 0 . Para 100 tendramos
K
(21)
10 0
= 20 log10 |K| 20 log10 0 20 log10 10 = 20 log10 |K| 20 log10 0 20

|H(j10 0 )|2dB = 20 log10 |H(j10 0 )| = 20 log10

Se trata pues de una recta de pendiente -20 dB/decada, o sea, entre una frecuencia cualquiera
y una frecuencia 10 veces superior a la primera caen 20 dB.
El diagrama de Bode de fase se encuentra a partir de
H(j) = numerador denominador = tan1

tan1 = 0
K
0
2

(22)

As pues, el diagrama de Bode para este segundo caso resulta ser


3. H(j) = jK.
En este caso, el diagrama de Bode de amplitud es
|H(j)|2dB = 20 log10 |H(j)| = 20 log10

K
= 20 log10 |K| + 20 log10

(23)

y si multiplicamos la frecuencia por 10 tenemos


|H(j10 )|2dB = 20 log10 |K|10 = 20 log10 |K| + 20 log10 0 + 20
Se trata entonces de una recta con pendiente +20 dB/decada.

50

(24)

H(j)

20 log10 |H(j)|
20 log10 |K|
|K|

0 10 0

20 dB

H(j)

20 log10 |H(j)|
20 dB

2
20 log10 |K|
0 10 0

El diagrama de Bode de fase responde a


H(j) = tan1

=
0
2

(25)

En resumen, tenemos
4. H(j) = K/(j)n .
En este u
ltimo caso el diagrama de Bode de amplitud es
|H(j)|2dB = 20 log10 |H(j)| = 20 log10

K
= 20 log10 |K| 20n log10
n

(26)

que corresponde a una recta de pendiente -20n dB/decada.


El diagrama de fase responde a
H(j) = 0 (j n n ) = n

y por lo tanto cada incremento de n corresponde a un incremento de 2 en la fase.


En resumen, tenemos

51

(27)

H(j)

20 log10 |H(j)|
20 log10 |K|
|K|

0 10 0

20n dB

5.3.

Obtenci
on del Diagrama de Bode de un Circuito

Veremos como obtener el diagrama de Bode de un circuito a traves del estudio de un ejemplo sencillo:
un circuito RC como el de la figura, donde la tension de generador se define como la entrada y la
tension del condensador como la salida del sistema. Podemos ver tambien el circuito equivalente seg
un
Laplace, que usaremos para encontrar la funcion de transferencia del sistema.

Lo primero que debemos hacer es calcular H(j), es decir, H(s) s=j . Utilizando la formula del divisor
de tension, encontramos f
acilmente
V0 (s) =
y de aqu

1
C s Vi (s)
1
Cs +R

Vi (s)
1 + sRC


V0 (s)
1
H(j) =
=

Vi (s) s=j
1 + jRC

(29)

+
vi (t)

(28)

+
Vi (s)

v0 (t)

+
1
sC

V0 (s)

Por lo tanto, el diagrama de Bode de este circuito sera la representacion grafica de


|H(j)|2dB = 20 log10

H(j) = tan1 RC

1
1+(RC)2

(30)

Para dibujar ambas funciones de forma facil y sin necesidad de soporte informatico, usaremos la
aproximaci
on asint
otica del diagrama de Bode. Para ello calcularemos dos asntotas especiales:
52

Asntota de baja frecuencia


Cuando es muy peque
no, el termino jRC del denominador se puede despreciar frente al 1.
Es por eso que aproximamos H(j) 1 y por lo tanto las funciones a representar (amplitud y
fase) son
H(j) = tan1

|H(j)|2dB = 20 log10 1 = 0 dB

0
1

(31)

= 0 rad

Asntota de alta frecuencia


En cambio, cuando es suficientemente grande el 1 del denominador se puede despreciar frente
1
al termino jRC, por lo que la funcion se puede aproximar ahora por H(j) jRC
y las
funciones a representar en el diagrama de Bode son
1
= 20 log10 RC dB
RC
0
RC

H(j) = tan1 tan1


= rad
1
0
2

|H(j)|2dB = 20 log10

(32)

Si juntamos ambas aproximaciones en una misma grafica obtenemos donde vemos en trazo negro el

H(j)

20 log10 |H(j)|
c = 1/RC

c = 1/RC

3 dB

20 dB/decada

diagrama de Bode asint


otico y en trazo rojo el diagrama real. Vemos en la figura que se ha marcado
una frecuencia en particular, la frecuencia de corte o c . Esta frecuencia es el punto de corte (en
ampitud) entre las asntotas de alta y baja frecuencia, es decir

2
1
1
2
1 =

c =
(33)
RCc
RC
En esa frecuencia, adem
as, sabemos que el diagrama de Bode en amplitud real esta 3 dB por debajo
del asintotico y que el diagrama de Bode en fase real tiene una fase de /4 en ese punto. Podemos
comprobarlo haciendo

1
H(j) = 1 =
(34)
RC
1+j
y por lo tanto
|H(j)|2dB = 20 log10

1
2

H(j) = 0 tan1

= 3 dB

1
1

= 4 rad

(35)

Visto esto, el mensaje es que una vez dibujado el diagrama de Bode asintotico y conociendo la frecuencia de corte c , dibujar una buena aproximacion del diagrama de Bode real no resulta difcil.
53

An
alisis frecuencial de sistemas m
as completos
Consideremos ahora el siguiente circuito con R = 21 , L = 1 H y C = 1/20 C.
R

+
vi (t)

v0 (t)

En este caso, el an
alisis en el dominio de Laplace nos da la siguiente funcion de transferencia
H(s) =

20/s
20
20
1

= 2
=
=
s
21 + s + 20/s
s + 21s + 20
(s + 1)(s + 20)
(s + 1) 20
+1

(36)

Vemos que hemos expresado dicha funci


on en terminos del tipo (1+a s). En este caso solo ha sido en el
denominador, pero si el numerador tuviera grado mayor que uno, haramos lo mismo. La razon de esto
es que intentamos reproducir lo visto en el circuito RC donde H(s) = 1/1+RCs para poder aprovechar
los resultados ya vistos. Calculemos pues la respuesta frecuencial de este circuito considerando dicha
descomposicion como
1

(37)
H(j) =

(1 + j) 1 + j 20
Ahora podemos calcular el diagrama de Bode de amplitud como












1
1
1




2




|H(j)|dB = 20 log10

= 20 log10 (1 + j) + 20 log10
(1 + j) 1 + j 20
1 + j 20
y el de fase como
H(j) =

1
1
+

1 + j
1 + j 20

(38)

(39)

de forma que los terminos que aparecen ya los habamos visto en el circuito RC. Para dibujar el
diagrama de Bode lo haremos por partes. Por ejemplo, en amplitud sabemos que a partir de la frecuencia angular 1 rad la respuesta decae a razon de 20 dB/decada debidos al primer polo. Como el
segundo polo provoca otra pendiente de -20 dB/decada a partir de la frecuencia angular 20 rad, en
total tendremos -40 dB/decada. Adem
as, si los polos estan lo suficientemente alejados, los -3 dB en la
frecuencia de corte siguen siendo v
alidos. En fase tendremos un primer polo que provoca un desfase
de /2 rad y un segundo polo que provoca un desfase adicional de otros /2 rad. Podemos ver
todo lo dicho en la siguiente figura.

54

H(j)

20 log10 |H(j)|
1

20

3 dB

/4

20 dB/decada

3 dB

20

/2

-40 dB/decada

Ejemplo de aplicaci
on: Dibujar el diagrama de Bode de modulo y fase de la siguiente funci
on de
transferencia
s+2
H(s) = 4
(40)
(s + 1)(s + 3)

Lo primero que debemos hacer es expresar la respuesta frecuencial de la forma adecuada, haciendo
H(j) = 4

1 + j 2
8
j + 2
=
(j + 1)(j + 3)
3 (1 + j)(1 + j 3 )

(41)

Para facilitar m
as las cosas, podemos descomponer H(j) en terminos de los que ya sabemos como
hacer el diagrama de Bode, es decir
H(j) =

1
1
8
(1 + j )

= H1 (j) H2 (j) H3 (j) H4 (j)


3
2 1 + j 1 + j 3

(42)

Analicemos cada uno de los terminos:


1. H1 (j) =

8
3

Este termino nos dar


a una amplitud constante de 20 log10

8
3

= 8, 52 dB y una fase de 0 rad.

2. H2 (j) = 1 + j 2
Este termino contribuir
a en amplitud con una recta de pendiente +20 dB/decada a partir de su
frecuencia de corte, que en este caso es c = 2, y con una fase que pasara de 0 rad a /2 rad.
3. H3 (j) = 1 + j
Este termino contribuir
a en amplitud con una recta de pendiente -20 dB/decada a partir de su
frecuencia de corte, que en este caso es c = 1, y con una fase que pasara de 0 rad a /2 rad.
4. H4 (j) = 1 + j 3
De forma semejante al anterior, este termino contribuira en amplitud con una recta de pendiente
-20 dB/decada a partir de su frecuencia de corte, que en este caso es c = 3, y con una fase que
tambien pasar
a de 0 rad a /2 rad.

55

Una vez hecho este an


alisis, dibujamos en el siguiente grafico el diagrama de Bode asintotico de los
distintos terminos solapando unos con otros.
20 log10 |H(j)|

H(j)

+20 dB/decada

8, 52 dB

/2
1

6 dB
9, 54 dB

20 dB/decada

/2

Finalmente, dibujamos el diagrama de Bode asintotico del conjunto y a partir de este aproximamos el
diagrama de Bode del sistema tal y como aparece en la figura siguiente.
H(j)

20 log10 |H(j)|
8, 52 dB

20 dB/decada

2, 52 dB
1

/2

56

Tema 4: La Transformada de Fourier


Antoni Morell y Rosana Rodrguez
4 de febrero de 2013

1.
1.1.

Definici
on de la transformada de Fourier
Recordatorio: Autofunciones y autovalores de la ecuaci
on de convoluci
on

En el Tema 3 vimos que la se


nal x(t) = est era autofuncion de la ecuacion de convolucion. Esto es,
si la entrada a un sistema caracterizado por h(t) es x(t) = est , entonces la salida es y(t) = H(s)est ,
donde H(s) es lo que llamamos autovalor.

x(t) = est

Verifiquemoslo de nuevo,
Z
Z
y(t) =
x(t )h( )d =

y(t)

h(t)/H(s)

s(t )

st

h( )d = e

=
=

x(t) h(t)
H(s)est

es h( )d = H(s)est

(1)

R
donde identificamos H(s) = es h( )d , que se corresponde con la transformada (bilateral) de
Laplace de h(t). En este caso se llama bilateral porque integramos desde y no de 0, pero coinciden
para sistemas causales (los que nos interesan) ya que h(t) = 0 para t < 0. Recordemos que s es una
variable compleja con parte real y parte imaginaria , es decir, s = + j y que gracias a la transformada de Laplace podamos trabajar con las se
nales y sobretodo con los sistemas en el dominio s de
forma mas simple que directamente en el dominio temporal. Ahora nos preguntamos si particularizando s de forma que = 0, o sea, haciendo s = j podramos hacer algo parecido. La transformaci
on
resultante se llama transformada de Fourier y es lo que estudiaremos en este tema, ya que tiene sus
particularidades con respecto la transformada de Laplace. La transformada de Fourier estara asociada
a frecuencia, ya sea angular medida en rad/s o bien frecuencia f medida en Hz o s1 , siendo = 2f .
Bajo esa nueva idea tendremos
H(w) =

ej h( )d

(2)

como la transformada de Fourier de h(t) y, de la misma manera que antes, y(t)|x(t)=ejt = H(w)ejwt .
Intuitivamente, dado que ejt es una se
nal de tipo senoidal, la transformada de Fourier nos ser
au
til

57

cuando sea posible expresar la se


nal de entrada como suma (integral) de senoides, es decir, si x(t) =
P
P
j
t
i
. Entonces la salida se determinara facilmente como y(t) = ai H(i )eji t .
i ai e
A partir de este momento, trabajaremos con frecuencia f (es lo mismo pero quiza un poco m
as
comodo), as que de ahora en adelante escribiremos la transformada de Fourier como
Z
ej2f h( )d
(3)
H(f ) =

1.2.

La transformada de Laplace versus la transformada de Fourier

Si planteamos la transformada de Fourier como una particularizacion de la transformada de Laplace, inmediatamente nos surge la pregunta: Por que es necesaria esta nueva transformacion? No
vale solo con la de Laplace?
En primer lugar, est
a claro que la transformada de Laplace es mas generica. Desde el punto de vista
de se
nales y sistemas, esto tiene las siguientes ventajas:
Permite transformar un mayor n
umero de se
nales. Por ejemplo, como veremos mas adelante, la
transformada de Fourier no nos permite transformar se
nales que no decaen en el tiempo (las
se
nales peri
odicas s, pero como veremos, son un caso especial). Es decir, habra se
nales como por
ejemplo x(t) = t u(t) que no se pueden transformar con Fourier ya que la integral no converge.
El hecho de trabajar en dos dimensiones nos aporta mas informacion. En otras palabras, con
la transformada de Fourier no podremos estudiar el sistema desde el punto de vista de polos y
ceros como hemos hecho con Laplace.
En cambio, cuando la transformada de Fourier aplique, nos beneficiamos de:
Mayor simplicidad en la transformacion.
Mayor facilidad para trabajar en el dominio transformado, ya que tenemos mas propiedades
(herramientas) que emplear.
Mas facil de interpretar ya que s
olo tenemos una dimension. De hecho, ya lo hemos visto en los
diagramas de Bode, donde se particularizaba para s = j.
En general, podemos afirmar que la transformada de Laplace sera mas u
til en el estudio de sistemas
y, por contra, la transformada de Fourier sera mas u
til en el analisis de se
nales. Fijemonos que la
transformada de Laplace trata problemas de valor inicial (se fijan las condiciones iniciales) y esto ya
nos va bien des del punto de vista de sistema. En se
nales esto no es as. Por ejemplo, no podemos
fijar un valor inicial a la se
nal x(t) = A cos 0 t ya que se extiende en todo t. En Fourier, a cambio de
trabajar en regimen permanente senoidal, esto es posible.

1.3.

Definici
on formal

Tal y como hemos anticipado en (3), la transformada de Fourier de una se


nal, digamos x(t) y que
denotaremos X(f ) = F{x(t)}, se define como
Z +
X(f ) =
x(t)ej2f t dt
(4)

58

y desde nuestro punto de vista, debemos interpretarla como una transformacion que nos dice cu
al es el
contenido frecuencial de la se
nal, es decir, cual es la contribucion de una determinada frecuencia f0 a
la se
nal x(t). Intuitivamente, fijemonos que para encontrar X(f )|f =f0 = X(f0 ), multiplicamos primero
x(t) por ej2f0 t y luego integramos para todo t. Lo que estamos haciendo con esto es comparar
la se
nal x(t) con un tono puro a f0 (coseno en parte real y seno en parte imaginaria). Si se parecen
mucho, X(f0 ) tomar
a un valor grande y en cambio, si no se parecen, el valor sera bajo.
A continuacion se muestran dos grupos de condiciones que son suficientes (aunque no necesarias)
para que exista X(f ) (con un solo grupo hay suficiente):
R +
1. x(t) es de cuadrado integrable, es decir |x(t)|2 dt < .
2. Condiciones de Dirichlet:

x(t) es absolutamente integrable, es decir

R +

|x(t)|dt < .

x(t) debe tener un n


umero de maximos y mnimos finito dentro de un intervalo finito.

Contraejemplo: x(t) = sin 2
en el intervalo t [0,5, 0,5]
t
1
0.8
0.6
0.4
0.2
0
0.2
0.4
0.6
0.8
1
0.5

0.5

x(t) debe tener un n


umero de discontinuidades finitas dentro de un intervalo finito. Contraejemplo:

x(t)

1/2

3/4

7/8

Esta funci
on est
a definida para t [0, 1] y vale x(t) = 1 para t [0, 1/2] y x(t) =
2n1 1 2n 1
t [ 2n1 , 2n ] con n N, n > 1.

59

1
2n1

para

1.4.

La transformada inversa de Fourier

Dada la se
nal en el dominio frecuencial X(f ), la transformada inversa de Fourier, que denotaremos
x(t) = F 1 {X(f )}, se define como
Z +
x(t) =
X(f )ej2f t df
(5)

y nos permite recuperar la se


nal temporal.
R +
Para comprobarlo, calculemos primero ej2f t df . El calculo es el siguiente
"
#
Z W

Z +
ej2f t W
j2f t
j2f t
e
df = lm
e
df = lm
W
W
j2t W

W


sin 2W t
= lm
= lm [2W sinc(2W t)] = (t)
W
W
t

(6)

donde vemos que la suma de todos los tonos posibles (de cualquier frecuencia) da como resultado una
delta.
A partir de aqu, podemos decir
Z
h(t) = T [(t)] = T [

j2f t

si el sistema
es lineal

df ] =

T [ej2f t ]df

(7)

Es decir, de la misma forma que la integral de convolucion era una combinacion lineal de infinitas
respuestas a deltas desplazadas, ahora buscamos la respuesta a una suma (infinita) de se
nales exponenciales. Pero ya hemos visto antes que la exponencial es una autofuncion del sistema, es decir
T [ej2f t ] = H(f )ej2f t , as que nos queda
Z +
h(t) =
H(f )ej2f t df
(8)

llegando entonces a la definici


on de la transformada inversa de Fourier.

2.

Transformada de se
nales b
asicas
1. Transformada de (t):
F{(t)} =

(t)e

j2f t

dt =

(t)dt = 1

(9)

De forma compacta, escribiremos las transformadas como x(t) X(f ). As pues, para este
caso nos queda:
(t) 1
(10)
2. Transformada de (t t0 ):
Z +
Z
F{(t t0 )} =
(t t0 )ej2f t dt =

60

(t t0 )ej2f t0 dt = ej2f t0

(11)

Si lo expresamos como m
odulo y fase, vemos que X(f ) = |X(f )|ejX (f ) = 1 ej(2t0 f ) . Por lo
tanto se trata de una se
nal en frecuencia de modulo constante 1 y de fase lineal con pendiente
2t0 .
De forma compacta escribimos:
(t t0 ) ej2f t0

(12)

3. Transformada de la se
nal constante x(t) = A:
F{A} =

Ae

j2f t

dt = A lm

Z

j2f t


dt = A(t),

(13)

donde la integral se calcula tal y como hemos visto para la transformada inversa. Fijemonos que
existe una cierta dualidad en la transformada de Fourier: la transformada de la delta es una
constante y la de una constante es una delta.
De forma compacta escribimos:
A A(t)

(14)

4. Transformada de h(t) = et u(t) con > 0 (en caso contrario la integral no converge):
Z +
Z +
t
t
j2f t
F{e u(t)} =
e u(t)e
dt =
e(j2f +)t u(t)dt
=

Z +

(j2f +)t

Si descomponemos en m
odulo y fase obtenemos

+

1

=
dt =
( + j2f ) 0
+ j2f

1
|H(f )| = p
,
2
+ (2f )2
1

(15)

(+j2f
)t
e

H (f ) = arc tg

|H(f )|

2f

(16)

H (f )
90

1
2

-90

Como vemos, se trata de un filtro paso-bajo. Fijemonos, ademas, que H(f ) es una funci
on

hermtica, es decir H(f ) = H (f ). Esto quiere decir que la parte real es una funcion par y la
parte imaginaria impar, o bien, como vemos en las graficas, que el modulo es una funcion par y
la fase una funci
on impar.
De forma compacta escribimos:
et u(t)

61

1
+ j2f

(17)

5. Transformada de h(t) = e|t| (tambien con > 0):


|t|

F{e

} =
=

|t| j2f t

dt =

0
(j2f )t

1
1
2
+
= 2
j2f
+ j2f
+ (2f )2

dt +

e(j2f +)t dt

(18)

En este caso, el m
odulo tiene una forma parecida al caso anterior pero con un decaimiento m
as
rapido, ya que para f = /2 el modulo decae a la mitad de su maximo. En cambio, la fase
permanece constante a 0 ya que la transformada es real. Fijemonos que hemos pasado de una
se
nal real y par en el dominio del tiempo a otra tambien real y par en el dominio frecuencial.
De forma compacta escribimos:
e|t|
6. Transformada de x(t) = A
F

t
T

2
+ (2f )2

(19)

 
 
 
Z +
Z +T /2
t
t
t
A
A
=
ej2f t dt =
ej2f t dt =
T
T
T

T /2
+T /2
j2f
T
/2
j2f
t

e
ej2f T /2
e

=
A
= A
=
j2f T /2
j2f

(20)

AT sin f T
= AT sinc(f T )
f T

Aqu volvemos a ver como una se


nal real y par se convierte en otra tambien real y par, por lo
que con solo representar la parte real sera suficiente. Alternativamente, podemos representar el
modulo (valor absoluto de la sinc) y la fase (que tomara valores 1 o -1). En este caso, adem
as,
observamos como a medida que x(t) se ensancha en tiempo, X(f ) se estrecha en frecuencia y
viceversa.

x(t)

X(f )
AT
A

-T/2

T/2

1
T

2
T

De forma compacta escribimos:


 
t
A
AT sinc(f T )
T

62

(21)

3.

Propiedades de la transformada de Fourier

Son extremadamente u
tiles ya que nos proporcionan una serie de herramientas que nos ayudaran
enormemente en el an
alisis frecuencial de los sistemas. Veremos un total de 11 propiedades, algunas
de las cuales ya nos han salido en transformada de Laplace. No obstante, en transformada de Fourier
tenemos alguna m
as, lo que se traduce en mas posibilidades para el analisis.
1. Linealidad:
Partimos de
x1 (t) X1 (f )

x2 (t) X2 (f )

Entonces se cumple que


1 x1 (t) + 2 x2 (t) 1 X1 (f ) + 2 X2 (f )
lo cual se comprueba f
acilmente a traves de la definicion de la transformada de Fourier y viene
dado por el hecho de que la integral es una operacion lineal.
2. Simetras:
Vemos dos tipos de simetra b
asicos en la transformada de Fourier, que son:
a) La transformada de Fourier conserva la paridad, es decir
x(t) es par X(f ) es par

x(t) es impar X(f ) es impar

R +
Comprobaci
on: en el caso de x(t) par, partimos de la definicion de X(f ) = x(t)ej2f t dt
y calculamos X(f ) teniendo en cuenta que se cumple x(t) = x(t),
(
)
Z +
Z +
0 = t
t
X(f ) =
x(t)ej2(f )t dt =
x(t)ej2f (t) dt =
=
dt0 = dt

Z
0
=
x(t0 )ej2f t dt0 = X(f )
+

b) Adem
as, se cumple tambien
x(t) es real X(f ) es hermtica

x(t) es imaginaria X(f ) es antihermtica


Aclaraci
on:
X(f ) es hermtica si se cumple X(f ) = X (f ), es decir, que tiene parte real par y parte
imaginaria impar. Tambien podemos decir que tiene modulo par, |X(f )| = |X(f )|, y fase
impar, X (f ) = X (f ).
X(f ) es antihermtica si se cumple X(f ) = X (f ), es decir, que tiene parte real impar
y parte imaginaria par. Alternativamente, podemos decir que el modulo |X(f )| es par,
|X(f )| = |X(f )|, y la fase cumple X (f ) = X (f ) + .
63


Estas
dos son las simetras b
asicas que existen, pero tambien las podemos combinar, por ejemplo:
a) x(t) es real y par X(f ) es real y par

Comprobaci
on: Por ser x(t) par, podemos afirmar que X(f ) = X(f ). Por ser x(t) real,
podemos afirmar que X(f ) = X (f ). Juntando ambas, tenemos que X(f ) debe ser par en
parte real e impar en parte imgainaria y ademas debe ser par (tanto en parte real como en
parte imaginaria). La u
nica opcion para cumplir ambas condiciones es que Im{X(f )} = 0
y por lo tanto debe ser una se
nal real (y par, por supuesto).

b) x(t) es real e impar X(f ) es imaginario puro e impar


3. Retardo:
Partimos de la relaci
on x(t) X(f ) y aplicamos un retardo t0 a la se
nal temporal. Entonces
obtenemos la siguiente relaci
on:
x(t t0 ) ej2f t0 X(f )

(22)

Comprobaci
on:
F{x(t t0 )} =

x(t t0 )e

= ej2f t0

j2f t

dt =

t0 = t t0
dt0 = dt

x(t0 )ej2f (t +t0 ) dt0

x(t0 )ej2f t dt0 = ej2f t0 X(f )

Por lo tanto, un retardo conserva el modulo de la se


nal pero a
nade una fase linial en f de valor
2t0 f .
4. Cambio de escala:
Partimos de la relaci
on x(t) X(f ) y aplicamos un escalado por a a la se
nal temporal.
Entonces obtenemos la siguiente relacion:
 
f
1
X
(23)
x(at)
|a|
a
Comprobaci
on: directamente a traves de la definicion como en el caso del retardo.
Con este resultado se extiende la observacion que hemos hecho para el pulso rectangular a
cualquier se
nal, es decir, un estrechamiento en tiempo supone un ensanchamiento en frecuencia
y viceversa.
5. Teorema de convoluci
on:
Es muy u
til (como ya hemos visto en Laplace) y nos dice
y(t) = x(t) h(t) Y (f ) = X(f ) H(f ),

(24)

o sea, la convoluci
on de dos se
nales en el dominio temporal se traduce en el producto de ambas
se
nales en el dominio transformado. Notese que resulta mucho mas facil hacer un producto que
una convoluci
on.
64

Comprobaci
on:
Teniendo en cuenta que x(t) =
y(t) = T [x(t)] = T

Z

R +

X(f )ej2f t df
j2f t

X(f )e

la exponencial es
autofunci
on del sistemal

df =

Por otro lado, tenemos que


y(t) =

si el sistema
es lineal

h
i
X(f )T ej2f t df

X(f )H(f )ej2f t df

Y (f )ej2f t df,

con lo que, identificando terminos en las dos expresiones anteriores, llegamos a la conclusi
on que
Y (f ) = X(f )H(f ).
6. Dualidad:
Partimos de la relaci
on x(t) X(f ) y nos preguntamos cual es la transformada de Fourier de
una se
nal que en tiempo tenga la forma de X(f ). Llegamos entonces al siguiente resultado:
x(t) X(f )
X(t) x(f )

(25)

Es decir, si cogemos X(f ) y la reinterpretamos como una se


nal temporal X(t), entonces su
transformada tiene la misma forma que x(t) pero girada, esto es, x(f ).
Comprobaci
on:
Hay que ver que transformar x(t) nos da la misma se
nal que antitransformar x(f ). Nos fijamos
en la forma de la se
nal, indpendientemente de si la variable es t o f . La primera transformaci
on
es inmediata, y cambiaremos la variable f por para no confundirnos, esto es
Z +
Z +
j2f t
F{x(t)} =
x(t)e
dt { = f } X() =
x(t)ej2t dt
(26)

Ahora antitransformamos x(f ), cambiando t por como antes, esto es


Z +
Z +
F 1 {x(f )} =
x(f )ej2f t df
x(f )ej2f df = {f 0 = f }
=

Z +

(27)

x(f 0 )ej2f df 0 = X()

Vemos, pues, que ambas se


nales son identicas. Es muy importante, en este caso, no dar sentido
fsico a las variables f y t, s
olo sentido matematico como variables.
Ejemplo de aplicaci
on: calcular la transformada de Fourier de x(t) = sinc(W t).
En este caso podemos usar dualidad ya que sabemos que la transformada de un pulso rectangular

es una sinc, o sea, Wt W sinc(f W ). As pues, tenemos

Wt W sinc(f
)
 W
(28)
f
W sinc(tW ) W
65

Aplicando la propiedad de linealidad y teniendo en cuenta que la funcion pulso es par, llegamos
finalmente a
 
f
1
(29)

sinc(tW )
W
W
7. Desplazamiento frecuencial (modulacion):
Esta propiedad es la dual del desplazamiento en tiempo y nos dice

x(t)e

x(t) X(f )

j2f0 t

(30)

X(f f0 )

(31)

Comprobaci
on:
F{x(t)ej2f0 t } =

x(t)ej2f0 t ej2f t dt =

x(t)ej2(f f0 )t dt = X(f f0 )

Ejemplo de aplicaci
on 1: Encontrar la transformada de cos (2f0 t) y de sin (2f0 t)
Sabiendo que la transformada de 1 es (f ), entonces tenemos

1  j2f0 t
1
1
cos (2f0 t) =
e
+ ej2f0 t (f f0 ) + (f + f0 )
2
2
2
De la misma manera,

1
1
1  j2f0 t
e
ej2f0 t (f f0 ) (f + f0 )
sin (2f0 t) =
2j
2j
2j

(32)

(33)

Ejemplo de aplicaci
on 2: Circuito modulador
x(t)

y(t) = x(t) cos(2f0 t)

cos(2f0 t)

La se
nal de salida en el dominio de la frecuencia es


1
1
1
1
j2f0 t
j2f0 t
F {x(t) cos(2f0 t)} = F
x(t)e
+ x(t)e
= X(f f0 ) + X(f + f0 )
2
2
2
2

(34)

que graficamente corresponde a


X(f )

Y (f )
X

f
cos(2f0 t)

f0

f0

La modulaci
on de se
nales es lo que nos permite transmitir varias de ellas en un mismo tiempo si
estas se encuentran separadas en frecuencia. Por ejemplo, esto es lo que se haca en la televisi
on
analogica para transmitir la se
nal de audio y la de video simultaneamente.
66

8. Integraci
on:
De manera semejante a la transformada de Laplace tenemos:

x(t) X(f )
X(f ) 1
x( )d
+ X(0)(f )
j2f
2

(35)

Comprobaci
on:

Rt
Basta con ver que x( )d = x(t) u(t). Conociendo la transformada del escalon U (f ) =
1
1
j2f + 2 (f ), podemos hacer la transformada que buscamos como el producto X(f )U (f ).
9. Derivaci
on:
Tambien de manera parecida a la transformada de Laplace tenemos:

x(t) X(f )

(36)

d
x(t) X(f )j2f
dt
Comprobaci
on:
Z +
 Z + n
o
d
d
j2f t
X(f )e
df =
X(f )ej2f t df
dt
dt
Z +
=
X(f ) j2f ej2f t df = F 1 {X(f ) j2f }

d
x(t) =
dt

(37)

10. Transformada del producto (enventanamiento):


Esta propiedad es la recproca de la de convolucion y nos dice:

x(t) X(f )

(38)

y(t) Y (f )

x(t) y(t) X(f ) Y (f )


Comprobaci
on:

F{x(t) y(t)} =

j2f t

Z

x(t)y(t)e
dt =
x(t)
Y ()e

Z +

Z +
=
Y ()
x(t)ej2f t ej2t dt d

Z +

Z +
j2(f )t
=
Y ()
x(t)e
dt d

Y ()X(f )d = Y (f ) X(f )
67

j2t

d ej2f t dt (39)

11. Teorema de Parseval:


El teorema de Parseval nos dice que si tenemos las siguientes relaciones,
x(t) X(f )

(40)

y(t) Y (f )

entonces se cumple que


Z

x(t) y (t) dt =

X(f ) Y (f ) df

(41)

No obstante, habitualmente se emplea el teorema de Parseval para una misma se


nal. Es decir,
si x(t) = y(t), entonces se cumple que
Z +
Z +
|x(t)|2 dt =
|X(f )|2 df,
(42)

que es equivalente a decir que la energa de la se


nal es la misma en ambos dominios. Esto nos
sera especialmente u
til para tratar la energa y la potencia de las se
nales en el siguiente tema.
Comprobaci
on:
Z

+ Z +

X(f )e

(43)

Hacemos primero la integral temporal, que es


Z
Z +
Z + 

y (t)ej2f t dt =
y(t)ej2f t dt =

df y (t)dt


Z +
Z +

j2f t
X(f )
y (t)e
dt df
=

x(t)y (t)dt =

j2f t


y(t)ej2f t dt = Y (f )

(44)

y sustituyendo en (43) llegamos al resultado anunciado.


Nota: en (44) no estamos haciendo F{y (t)}. Se puede ver que F{y (t)} = Y (f ) (para
deducir este u
ltimo caso seguiramos la misma argumentacion pero, ademas, haciendo el cambio
de variables f 0 = f ).

68

4.

Limitaci
on en frecuencia (fen
omeno de Gibbs) y limitaci
on en
tiempo (enventanado)

En esta parte del tema vemos que sucede cuando se limita el ancho de banda de la se
nal y que sucede cuando se limita la duraci
on temporal de la se
nal.
Aclaraci
on sobre ancho de banda: Para una se
nal en banda base, es decir, que no ha sido modulada (trasladada en frecuencia), consideraremos Bx = fx,max 0 = fx,max , o sea, la maxima frecuencia
positiva. En cambio, si una se
nal en banda base se traslada en frecuencia, entonces consideramos
By = fy,max+ fy,min+ , o sea, la diferencia entre las frecuencias maxima y mnima (positivas). Por
ejemplo:
X(f )

Y (f )
X

4.1.

f0

Bx

cos(2f0 t)

f0

By

Limitaci
on en frecuencia - fen
omeno de Gibbs

La limitaci
on en banda de una se
nal se aprecia sobretodo en las discontinuidades que esta pueda
presentar y por este motivo ahora nos centramos en el estudio de esta situacion. Supongamos que
tenemos una se
nal x(t) con una sola discontinuidad (de salto finito) en t0 . Dicha se
nal se puede
descomponer en



x(t) = xc (t) + x(t+


(45)
0 ) x(t0 ) u(t t0 )

donde xc (t) es una se


nal continua a la cual a
nadimos un escalon que empieza en t0 y con amplitud
correspondiente al salto de la discontinuidad. Graficamente estamos haciendo:
x(t)

[x(t+
0 ) x(t0 )]u(t t0 )

xc (t)

x
t0

+
t0

x
t0

A partir de ahora, consideraremos por simplicidad y sin perdida de generalidad que t0 = 0. Por lo
tanto tenemos:
x(t) = xc (t) + x u(t) X(f ) = Xc (f ) + x F {u(t)}
(46)
Ahora limitamos la se
nal en banda, es decir, eliminamos las componentes frecuenciales |f | > B
usando un filtro paso-bajo ideal, es decir:

69

H(f )

y(t) = x(t) h(t)

x(t)
X(f )

x 2B
B

|Y (f )|

|X(f )|

As pues, obtenemos
Y (f ) = X(f )

f
2B

= Xc (f )

f
2B

+ x F{u(t)}

f
2B

(47)

Para simplificar el an
alisis, supondremos que Xc (f ) tiene un ancho de banda inferior a B, con lo que
nos queda




f
f
Y (f ) = X(f )
= Xc (f ) + x F{u(t)}
(48)
2B
2B
y desde el punto de vista temporal tenemos

y(t) = F 1 {Y (f )} = xc (t) + x [u(t) 2Bsinc(2Bt)]

(49)

Aqu vemos que la se


nal x(t), una vez limitada en frecuencia, se puede descomponer en xc (t) y yd (t) =
x [u(t) 2Bsinc(2Bt)], es decir, la parte correspondiente al pulso que ha generado la discontinuidad
pero limitado en banda. Veamos lo que vale esta parte de la se
nal:
Z +
Z t
yd (t) = x [u(t) 2Bsinc(2Bt)] = x
2Bsinc(2B )u(t )d = x
2Bsinc(2B )d (50)

Dicha integral se puede calcular numericamente, obteniendo el siguiente resultado:

yd (t)

x 2Bsinc(2B )
!t

x 2B

()d

x
2

1
2
2B 2B

1
2
2B 2B

En otras palabras, la transici


on abrupta del pulso se suaviza y aparece un rizado adicional. A continuacion resumimos las conclusiones que se extraen de este estudio.

70

Efectos de la limitaci
on en banda cuando la se
nal presenta discontinuidades finitas.
Fen
omeno de Gibbs.
1. Aparece un rizado alrededor de la discontinuidad que se suaviza a medida que nos alejamos
de esta. Los m
aximos y mnimos se alternan en los m
ultiplos de 1/2B, encontrado el m
aximo
absoluto en 1/2B y el mnimo absoluto en 1/2B.
2. El flanco de subida se suaviza, siendo el tiempo de subida ts

1
2B .

3. En el punto de discontinuidad se observa el valor medio del salto, es decir, yd (0) = x/2.
4. Si aumentamos el ancho de banda B observamos:
a) La amplitud m
axima y mnima del rizado no cambian, aunque se den mas cerca de la
discontinuidad.
b) Solo en el caso lmite con ancho de banda infinito (no se da en la practica) la sinc degenerara
en una delta y no habra distorsion de la se
nal.
Ya por u
ltimo, comentar que si la limitacion en frecuencia se hiciera con un filtro de forma triangular
como el de la figura, un an
alisis parecido nos llevara a las siguientes conclusiones:
1. El rizado desaparece.
2. El valor en el punto de la discontinuidad se mantiene a yd (0) = x/2.
3. El tiempo de subida aumenta a ts

1
B.

yd (t)
H(f )

x
x
2

B f

t
1
2
2B 2B

4.2.

Limitaci
on en tiempo - enventanado

Ahora nos encontramos ante la situacion dual a la anterior. Supondremos que tenemos una se
nal
x(t) y la limitamos en tiempo, es decir, cogemos los valores correspondientes a |t| T /2. N
otese
que en la practica siempre existir
a alg
un tipo de enventanado. Entonces, a partir de la se
nal x(t)
expresaremos la se
nal enventanada en tiempo como:
 
t
xT (t) = x(t)
(51)
T
71

Desde el punto de vista frecuencial, esto se traduce en:


XT (f ) = F{xT (t)} = X(f ) T sinc(T f )

(52)

Vemos entonces que el enventanado provoca una distorsion de la se


nal original, que sera tanto menor
como mayor sea T ya que la sinc tiende entonces a convertirse en una delta. Para ver los efectos de
la limitacion en tiempo, apliquemos el resultado anterior a se
nales de tipo coseno. Empecemos con
x(t) = A0 cos (2f0 t) por su sencillez en el dominio frecuencial: se trata de dos deltas, una a f0 y otra
a f0 . Su versi
on enventanada es


1
1
A0 T
A0 T
XT (f ) = A0 (f f0 ) + (f + f0 ) T sinc(f T ) =
sinc (T (f f0 )) +
sinc (T (f + f0 ))
2
2
2
2
(53)
es decir, dos sincs centradas a f0 y f0 .
Consideremos ahora dos cosenos distintos, es decir, x(t) = A0 cos (2f0 t) + A1 cos (2f1 t). Esta se
nal
enventanada y vista desde el dominio frecuencial es
A0 T
A1 T
A0 T
A1 T
sinc (T (f f0 )) +
sinc (T (f f1 )) +
sinc (T (f + f0 )) +
sinc (T (f + f1 ))
2
2
2
2
(54)
Graficamente tenemos:
XT (f ) =

A1 T
2
A0 T
2

f1 f0

f2

f2

f0 f1

Notese que se han dibujado las 4 sincs sin sumar y que el resultado final sera la suma de todo. No
obstante, esta representaci
on nos es u
til para extraer las siguientes conclusiones:
1. Aparece un l
obulo principal y una serie de lobulos secundarios relacionados con cada una de las
deltas, o sea, cada frecuencia singular. Esto es as para la ventana rectangular y tambien para
otras alternativas, aunque la forma sera distinta.
2. El ancho del l
obulo principal determinara la resolucion del sistema, es decir, cual es la capacidad
de distinguir el coseno a f0 del que esta a f1 . Notese que, dado un ancho de lobulo principal,
existe una separaci
on mnima de las frecuencias a partir de la cual es imposible distinguir los
dos tonos ya que veremos un solo pico.
3. El nivel de los l
obulos secundarios determinara como el contenido a una frecuencia enmascara
el contenido a otras frecuencias. Por ejemplo, si hubiera un coseno con amplitud mucho menor
que A1 en la frecuencia f2 (ver figura), se vera enmascarado por el lobulo secundario del coseno
a f1 .
72

Alternativamente, tambien podemos hacer uso de los resultados obtenidos en la parte de limitaci
on
en banda (se trata de la situaci
on dual). En otras palabras, si quisieramos sintetizar una se
nal en el
dominio frecuencial con discontinuidades y buscaramos hacerlo a traves de un sistema con respuesta
impulsional finita en el tiempo, entonces lo dicho anteriormente valdra aqu tambien. Por ejemplo,
supongamos que queremos sintetizar un pulso rectangular en frecuencia y tuvieramos dos opciones:
ventana rectangular o triangular en tiempo (la primera tiene el lobulo principal mas estrecho pero un
nivel de lobulos secundarios mayor). Entonces, con ventana rectangular generaramos una respuesta
con transiciones m
as r
apidas pero con rizado. En cambio, con la venta triangular eliminaramos el
rizado pero las transiciones seran m
as lentas.
Nota: En funci
on de la aplicaci
on nos interesara una u otra ventana ya que siempre hay un compromiso en sus par
ametros. N
otese que si mantenemos la energa de la ventana a nivel temporal,
esta debe ser la misma en el dominio frecuencial por Parseval y por lo tanto, si bajamos los l
obulos
secundarios (les quitamos energa) es l
ogico que aumente el grosor del lobulo principal.
Finalmente, la siguiente tabla contiene los parametros de 3 ventanas de uso habitual:
Par
ametro
Ancho l
obulo principal
Ancho de banda a -3dB
Relaci
on l
obulo principal a secundarios

5.

Rectangular
2/T
0, 85/T
13dB

Triangular
4/T
1, 25/T
26dB

Hamming
4/T
1, 3/T
43dB

Transformada de Fourier de se
nales peri
odicas

Antes de estudiar la transformada de Fourier de una se


nal periodica, buscaremos un resultado
intermedio necesario para ello, la transformada de Fourier de un tren de deltas.

5.1.

Transformada de un tren de deltas

Consideremos el siguiente tren de deltas en tiempo, P (t) =


P (t)

3T 2T T

2T

Dado que P (t) se puede expresar como P (t) = lmN +


en calcular la transformada del tren de deltas finito.

73

P+

3T

P+N

n=N

n= (t

nT ).

(tnT ), nos concentramos primero

+N
X

n=N

+N
X

ej2f T (N +1) ej2f T (N )


(55)
ej2f T 1
n=N
h
i
1
T
1

ej2f 2 ej2f T (N + 2 ) ej2f T (N 2 )
sin 2f T [N + 12 ]
h
i
=
=
1
T
1
sin (f T )
ej2f 2 ej2f T 2 e+j2f T ( 2 )

(t nT )

ej2f nT =

Nota: La suma de la serie geometrica que hemos hecho resulta de


N
X

n=N

rn =

2N
X

rnN = rN

n=0

2N
X

rn = rN

n=0

rN +1 rN
1 r2N +1
=
1r
r1

(56)

Veamos ahora como es la funci


on que hemos obtenido. En concreto, nos damos cuenta de que:
Los zeros en el denominador deben cumplir f T = n y por lo tanto, se encuentran a m
ultiples
de 1/T , es decir, para f = n/T con n Z.


Los zeros en el numerador deben cumplir 2f T N + 12 = k y por lo tanto, se encuentran para
f = T (2Nk +1) con k Z.
Ademas, vemos que cuando hay un cero en el denominador, el numerador tambien vale cero. Si
resolvemos esta indeterminaci
on, por ejemplo usando la regla de Hopital, vemos que el valor en f = n/T
es
( +N
)






X

2T N + 12
2T N + 12 cos 2f T N + 21

=
= 2N + 1
F
(t nT )
=

T cos (f T )
T
f =n/T
f =n/T
n=N

(57)

Dibujemos la funci
on (cogemos T = 1 y N = 9):
20

15

10

5
1.5

0.5

0.5

1.5

Que sucede cuando N ? De entrada, vemos que los maximos de la funcion crecen hacia
infinito y que el rizado a su alrededor se compacta (notese que los ceros se encuentran a m
ultiplos
74

de 1/(2N + 1)). As pues, llegamos a un tren de deltas en frecuencia que estan separadas 1/T . No
obstante, para poder caracterizar bien las deltas nos falta un detalle, que es saber cuanto vale su
integral. Cojamos pues (55) e integremos en un periodo,


Z 1/2T
Z 1/2T X
N
N
X
sin 2f T [N + 12 ]
1 j2nT f 1/2T
j2nT f
df =
e
(58)
e
df =

sin (f T )
j2nT
1/2T
1/2T
1/2T
n=N

N
X

sin (n)
1  jn
e
ejn =
j2nT
nT

N
X

n=N

n=N

n=N

N
X

1
1
sinc(n) =
T
T

n=N

y vemos que el resultado es independiente de N .


Esto nos lleva al siguiente resultado final,
( +
)
(
X
F
(t nT ) = F
lm
n=

N
X

n=N

(t nT )

1
T


m
f
T
m=
+
X

(59)

es decir, un tren de deltas separadas T en tiempo se corresponde a un tren de deltas separadas 1/T
en frecuencia.
Con este resultado ya podemos estudiar la transformada de Fourier de una se
nal periodica.

5.2.

Transformada de una se
nal peri
odica

Consideremos una se
nal peri
odica cualquiera x(t) con periodo de repeticion T como la de la figura:

x(t)
xb (t)

t
T

Vemos que x(t) se puede interpretar como la repeticion de una se


nal basica xb (t), la cual tiene duraci
on
T , o sea, el periodo de repetici
on. Matematicamente:
!
+
+
+
X
X
X
prop. distrib.
xb (t nT ) =
xb (t) (t nT ) =
= xb (t)
(t nT ) (60)
x(t) =
convolucion
n=
n=
n=
Pasando al dominio transformado obtenemos
+
1 X 
m
1
X(f ) = Xb (f )
f
=
T m=
T
T
75

+
X

m=

Xb

m 
m
f
T
T

(61)

donde Xb (f ) = F{xb (t)}.


Aunque nos resultar
a mucha m
as u
til esta transformacion y es la que emplearemos habitualmente,
tambien es cierto que podramos haber hecho la transformacion como
X(f ) =

+
X

Xb (f )ej2f nT

(62)

n=

Volviendo al primer caso, observamos que:

1. La transformada de Fourier de una se


nal periodica tiene la forma de un tren de deltas.
2. Depende esencialmente de la transformada de la se
nal basica Xb (f ) y del periodo T .


P
tnT

Ejemplo: calcular la transformada de Fourier de x(t) = +


n=
T /2 .

En primer lugar nos dibujamos la se


nal: Luego representamos x(t) a partir de la se
nal basica, que
x(t)

xb (t)

T /2

t
T



 P

en este caso es xb (t) = T t/2 , obteniendo x(t) = T t/2 +
n= (t nT ). Finalmente, pasamos
al dominio transformado:
+
T
m
T 1 X 
X(f ) = sinc(f )
f
(63)
2
2 T m=
T
Vemos que nos queda una sinc con ceros a m
ultiples de 2/T multiplicando al tren de deltas, es decir:

X(f )

f
2/T 4/T

Fijemonos que, en este caso en particular, las deltas situadas a las m


ultiplos pares de 1/T desaparecen
ya que son anuladas por la ceros de la sinc. Si hicieramos el pulso cuadrado mas estrecho, por ejemplo
de duracion T /4, entonces la sinc se ensanchara (el primer cero estara en 4/T ) y el lobulo principal
pasara de contener 3 deltas a 7, as como cada uno de los lobulos secundarios pasaran de contener 1
delta a 3.
76

5.3.

Series de Fourier

La series de Fourier nos permiten aproximar se


nales periodicas en el dominio del tiempo como
combinacion lineal de exponenciales complejas o, alternativamente, de senos y cosenos. Los coeficientes que acompa
nan a estas funciones base son los denominados coeficientes de Fourier y para que
una se
nal se pueda aproximar con series de Fourier se deben cumplir una serie de condiciones. En
particular, son condiciones suficientes pero no necesarias para que exista serie de Fourier las mismas
que aplican para la transformada de Fourier sobre la se
nal basica xb (t) y que ya hemos visto.
A continuacion se obtiene la serie de Fourier de una se
nal periodica como antitransformada de X(f ).
Esto es:
)
(

+
+
+
m 
X
X
Xb Tn j2t n
n
1 X
m
1
1
T =
=
F { X(f )} = F
Xb
f
e
cn ej2t T (64)
T m=
T
T
T
n=
n=
X (n)
donde identificamos cn = bT T con el n-esimo coeficiente de Fourier. Como vemos, hemos conseguin
do representar la se
nal x(t) como suma o serie de exponenciales complejas ej2t T en el tiempo, de
frecuencia fn = Tn , y ponderadas por los coeficientes de Fourier. Normalmente llamamos frecuencia
fundamental f0 = 1/T y arm
onicos a las otras frecuencias fn = nf0 . Resumiendo, la serie de Fourier
nos permite aproximar la se
nal periodica x(t) seg
un:

x(t) =

+
X

cn ej2t T

(65)

n=

Si desarrollamos un poco vemos que los coeficientes de Fourier se calculan:





Z
Z

Xb Tn
n
1 +
1
Xb (f )
j2f t
cn =
=
=
x
(t)e
dt
=
x(t)ej2 T t dt
b
m
T
T f = m
T
T
<T >
f=
T

(66)

Cabe destacar que s


olo hace falta integrar la se
nal en un periodo cualquiera y por eso escribimos
< T > (no hace falta que sea de T /2 a T /2). El motivo es que dada la periodicidad de la se
nal xb (t)
y de ej2nf0 t , la integral es la misma empecemos donde empecemos siempre y cuando abarquemos
un periodo entero. En otras palabras, si a [T /2, T /2], entonces:
Z
n
1 a+T
cn =
x(t)ej2 T t dt
(67)
T a
Comprobaci
on:
Z a+T
Z
n
j2 T
t
x(t)e
dt =
a

T /2

x(t)e

n
j2 T
t

dt +

a+T

x(t)e

n
j2 T
t

dt =

T /2

T /2

x(t)e

n
j2 T
t

dt +

t0 = t T
dt = dt0

(68)

x(t0 + T )ej2 T (t +T ) dt0

T /2

Ahora, dada la periodicidad tanto de x(t) como de ej2 T t , es decir, x(t) = x(t kT ) y ej2 T t =
n
ej2 T (tkT ) , obtenemos
Z a+T
Z T /2
Z a
Z T /2
n
n
n 0
n
j2 T
t
j2 T
t
0 j2 T
(t ) 0
x(t)e
dt =
x(t)e
dt +
x(t )e
dt =
x(t)ej2 T t dt (69)
a

T /2

77

T /2

Series de Fourier de se
nales reales
Las series de Fourier fueron originalmente concebidas para representar se
nales periodicas reales
como suma de se
nales senoidales. Aqu hemos llegado a la serie de Fourier a traves de la transformada

X (n)
y hemos visto que los coeficientes se pueden hallar como cn = b T = Xb (f ) m . Por lo tanto, se
T

f= T

deben cumplir las mismas propiedades que hemos visto para la transformada de Fourier y en particular,
si xb (t) es real, entonces debe existir simetra hermtica tanto en Xb (f ) como en los coeficientes. Esto
n
n
es, si definimos cn = an jb
, entonces cn = an +jb
. Apliquemos este resultado a la serie de Fourier:
2
2
+
X

cn ej2f0 nt = c0 +

n=

cn ej2f0 nt + cn ej2f0 nt

(70)

n=1
+ 
X

an jbn
(cos (2f0 nt) + j sin (2f0 nt))
2
n=1

an + jbn
(cos (2f0 nt) j sin (2f0 nt))
2

= c0 +
+

+
X

Teniendo en cuenta que c0 = c0 (tomando lmites en Xb (f ) para f 0+ y f 0 , respectivamente)


vemos que necesariamente b0 = 0. Si continuamos operando llegamos a:
+

x(t) =

a0 X
+
an cos (2f0 nt) + bn sin (2f0 nt)
2

(71)

n=1

con a0 =

2
T

R a+T
a

Comprobaci
on:

cn =
=

x(t)dt, an =

2
T

R a+T
a

x(t) cos (2f0 nt)dt y bn =

2
T

R a+T
a

x(t) sin (2f0 nt)dt.

Z
Z
n
1 a+T
1 a+T
x(t)ej2 T t dt =
x(t) (cos (2f0 nt) j sin (2f0 nt)) dt
T a
T a
Z
Z
1 a+T
1 a+T
x(t) cos (2f0 nt)dt j
x(t) sin (2f0 nt)dt
T a
T a

Finalmente, identificando (72) con la definicion cn =


Ejemplo: encontrar la serie de Fourier de x(t) =

an
2

(72)

j b2n llegamos a los resultados deseados.

P+

n=

tnT
T /2

En el apartado anterior hemos encontrado la transformada de Fourier de x(t), que era:




T
T 1
X(f ) = sinc f
2
2 T

+
m 
X
m
1
m
f
=
sinc
f
T
2
2
T
m=
m=
+
X

(73)

Antitransformando obtenemos la serie de Fourier, que es:


x(t) = F

+
n
X
n
1
{X(f )} =
sinc
ej2t T
2
2
n=

78

(74)

n
Alternativamente, dado que cn = 12 sinc( n2 ) y teniendo en cuenta que cn = an jb
, podemos identificar
2
n
an = sinc( 2 ) y bn = 0. N
otese que debido a que la se
nal x(t) es real y par, X(f ) es puramente real
(la sinc) y por lo tanto los coeficientes tambien son reales. Esto nos permite escribir la se
nal tambien
como:
+
n
1 X
x(t) = +
cos (2f0 nt)
(75)
sinc
2
2

n=1

Observaciones:

1. El termino a0 nos dice cu


al es la componente de continua de la se
nal, es decir, su media. En el
ejemplo de la se
nal cuadrada con amplitud 1 y ciclo de trabajo del 50 %, el termino a0 vale 1/2.
Comprobamos, pues, que se corresponde con la media de la se
nal.
2. Las series de Fourier nos pueden ser u
tiles a la hora de calcular sumatorios. Si en el caso anterior
cogemos t = 0, vemos que
+
n
X
1
1
sinc
= x(0) =
(76)
2
2
2
n=1

Evidentemente, esto nos servir


a b
asicamente para series cuyos elementos tengan la forma de una
P
n
transformada conocida. Por ejemplo, si hubiesemos querido calcular +
n=1 sinc( 2 ) de entrada,
el hecho de que la sinc sea la transformada de un pulso nos habra dado la pista para abordar el
sumatorio a traves de la serie de Fourier.
Notese que esto es el equivalente de
Z

1

x(0) = F {X(f )} t=0 =

+
j2f t

X(f )e

para se
nales no peri
odicas.

6.



df

=
t=0

X(f )df

(77)

Muestreo

Entendemos por muestreo el hecho de coger una se


nal continua en el tiempo y quedarnos u
nicamente con los valores de la se
nal a tiempos m
ultiples de T . Es decir:

x(t)

T 2T

El proceso de muestreo est


a ntimamente relacionado con lo que habitualmente entendemos por digitalizar una se
nal, que consiste en: i) hacer discreto en tiempo (muestrear) y ii) hacer discreto en amplitud
(cuantificar). Aqu analizaremos que sucede u
nicamente por el hecho de muestrear una se
nal x(t) e
intentarla regenerar luego a partir de la se
nal discretizada en tiempo xd (t). De entrada, la intuici
on
nos dice que si muestreamos suficientemente rapido (T suficientemente peque
no) podremos recuperar
x(t) a partid de xd (t). Veamos, pues, que hay de verdad en esta afirmacion.
79

6.1.

Espectro de una se
nal muestreada. Criterio de Nyquist.

Consideremos el siguiente esquema de muestreo ideal con tren de deltas:

x(t)

xd (t)

T 2T

t
!+

n=

T 2T

(t nT )

T 2T

A nivel temporal tenemos:


xd (t) = x(t)

+
X

n=

(t nT ) =

+
X

n=

x(nT )(t nT )

(78)

Esto se traduce al dominio frecuencial como:


Xd (f ) = X(f )

1
T


m
1
f
=
T
T
m=
+
X


m
X f
T
m=
+
X

(79)

y por lo tanto se trata de una se


nal periodica en frecuencia. Si asumimos que x(t) tiene un ancho de
banda limitado a W , la representaci
on grafica de Xd (f ) es:

1
T

T1

1
2T

Xd (f )
X(f )

W
1
2T

1
T

1
Observando la figura vemos que, para que las replicas de X(f ) no se solapen se debe cumplir W < 2T
.
1
Teniendo en cuenta que la frecuencia a la que se ha muestreado la se
nal es fm = T , reescribimos la
condicion anterior como
fm > 2W
(80)

tambien conocida como criterio de Nyquist. En otras palabras, para evitar el efecto aliasing (el solapamiento o interferencia entre replicas), es necesario muestrear al doble del ancho de banda de la se
nal.
80

Equivalentemente, definimos la frecuencia de Nyquist fN , que es funcion de fm , como el maximo ancho


de banda que puede tener la se
nal para que no sufra aliasing una vez muestreada. En otras palabras,
forzando al m
aximo (80), tenemos
fm = 2fN fN =

6.2.

fm
2

(81)

Recuperaci
on de x(t) a partir de xd (t). Interpolaci
on.

En caso de que no haya efecto aliasing, esta claro que limitando el espectro de Xd (f ) en [1/2T, 1/2T ]
y escalando por T recuperamos el espectro de la se
nal original. Esta idea es la que usamos para reconstruirla. En concreto, vemos que:


f
(82)
X(f ) = Xd (f ) T
1/T


f
Esto se corresponde con el siguiente sistema cuando H(f ) = T 1/T
:
H(f )
T

Xd (f )
xd (t)

1
2T

1
2T

X(f ) = Xd (f ) H(f )
x(t) = xd (t) h(t)

Antitransformando la relaci
on anterior obtenemos:


 
 
f
1
t
t
1
F {Xd (f ) T
} = xd (t) T sinc
= xd (t) sinc
1/T
T
T
T

donde hemos usado F 1 {H(f )} = h(t) = sinc Tt . Desarrollando un poco mas obtenemos:
"



 
+
X
t nT
t
=
x(nT ) sinc
x(t) =
x(nT )(t nT ) sinc
T
T
n=
n=
+
X

(83)

(84)

Esta
es la formula de interpolaci
on con la sinc como funcion de interpolacion. Notese que los valores
de x(t) en los instantes t = nT son iguales que los de xd (t) en t = nT , lo cual es correcto. Ve
amoslo
en la siguiente figura:

81

x(t)
x(T )

x(2T )

t

Si nos fijamos, por ejemplo, en t = T , vemos que la sinc centrada all, es decir x(T ) sinc tT
toma
T
el valor deseado x(T ) mientras que el resto de funciones sinc se anulan en ese punto. Esto mismo
sucede para cualquier otro punto t = nT . Ademas, en los valores de t intermedios, la suma de sincs
nos devolvera la se
nal original (en trazo discontinuo en la figura).
No obstante, la funci
on de interpolaci
on ideal (la sinc) no se podra implementar a la practica ya
que se trata de un sistema no causal. En todo caso, habra que introducirle un retraso y truncarla
para que h(t) = 0 para t < 0. Otra opci
on es usar funciones de interpolacion mas sencillas, como por
ejemplo:


/2
.
Interpolaci
on de orden cero: h(t) = tT
T


P
Con esta funci
on tendremos x(t) n x(nT ) tT /2nT
, es decir, mantenemos el valor de
T
una muestra hasta que llegue la siguiente. La recuperacion de la se
nal no es muy buena pero es
sencilla.
x(t)
x(T )

x(2T )


Interpolaci
on de primer orden: h(t) = Tt .

P
Con esta funci
on tendremos x(t) n x(nT ) tnT
, es decir, entre dos muestras consecutivas
T
aproximamos la funci
on por una recta. Resulta tambien simple de implementar (con un retraso
para que sea causal) y funciona mejor que la anterior.

82

x(t)
x(T )

x(2T )

6.3.

Implementaci
on pr
actica

Finalmente, cabe destacar que en la practica se procura evitar el efecto del aliasing a toda costa.
Es por ello que en el caso del muestro, si la se
nal de entrada x(t) no cumple el criterio de Nyquist, se
coloca un filtro (llamado antialiasing) que limite el ancho de banda de la se
nal a fm /2. Es preferible
distorsionar la se
nal quit
andole les componentes frecuenciales mas altas que acarrear luego con el
aliasing. As pues, el diagrama de bloques de un sistema de muestreo debe ser:

x(t)

Filtro antialiasing
(ancho de banda W)

Muestreo
fm > 2W

Cuanticacin
n bits

Conversor A/D

Si queremos recuperar la se
nal continua a partir de informacion digitalizada, usaremos un bloque
conversor digital a anal
ogico. No obstante, la se
nal de salida de este bloque (suma de deltas) contendra las replicas no deseadas en frecuencia, por lo que colocaremos, tal y como hemos visto, un filtro
interpolador o reconstructor.

Conversor D/A

Filtro interpolador

Ejemplo: importancia de evitar el aliasing.


Consideremos la se
nal x(t) = cos (2f0 t). Sabemos que si la muestreamos con fm > 2f0 no vamos a tener problemas. En cambio, supongamos que la muestreamos a una frecuencia menor, es decir,
f0 > fm /2. Si no colocamos el filtro anti-alisaing, la se
nal muestreada en frecuencia sera Xd (f ) =

1 P+
m
aficamente corresponde a:
m= X f T , que gr
T

83

Xd (f )
1
T

rplicas

X(f )

H(f )

f
f2m

fm

fm
2

fm

Si ahora pretendemos recuperar la se


nal original con el filtro interpolador ideal (sombreado en la figura), vemos que en realidad estamos recuperando un coseno a frecuencia menor que la original (la
simetrica de f0 respecto a fm /2).
Esto es precisamente lo que est
a sucediendo cuando en television vemos las ruedas de un f
ormula
1 girando al reves, tambien llamado efecto estroboscopico. Supongamos que tenemos un crculo como
el de la figura girando a velocidad constante con periodo T0 . Tambien tenemos una lampara estroboscopica que ilumina el crculo durante un breve instante de tiempo (se ve el crculo quieto) cada Tm
segundos. Seg
un Nyquist, la frecuencia de muestreo de este sistema, que es 1/Tm , debe ser mayor que
dos veces la frecuencia de rotaci
on 1/T0 para capturar el movimiento correctamente, o sea, Tm < T0 /2.
Que sucede si fijamos Tm = 3T4 0 ? Ve
amoslo en la figura:

T0

Tm

t=0

t = Tm

t = 2Tm

t = 3Tm

Nos parecera que gira a la izquierda con un periodo T0 = Tm /4.

84

Tema 5: Correlaci
on y Espectro de Se
nales
Deterministas
Antoni Morell y Rosana Rodrguez
4 de febrero de 2013

1.

Energa y potencia

De electronica sabemos que la potencia instantanea disipada en una resistencia de valor R es


2
PR (t) = |v(t)|
da de tension en sus bornes. A partir de ahora asumiremos una
R , donde v(t) indica la ca
resistencia de valor R = 1 y calcularemos la potencia instantanea de una se
nal cualquiera x(t) como
Pi (t) = |x(t)|2

(1)

En caso de que la se
nal x(t) corresponda a una tension y la resistencia no sea 1, habra que dividir
por el valor que toque para encontrar la potencia tal y como la entendemos en electronica.
Definiremos la energa de la se
nal como la integral (suma) de la potencia instantanea para todo
instante de tiempo, es decir
Z +
Ex =
|x(t)|2 dt
(2)

y la potencia media de la se
nal como el promedio temporal de Pi (t) o, lo que es lo mismo, como la
energa de x(t) por unidad de tiempo calculada seg
un
1
Px = lm
T T

+T /2

T /2

|x(t)|2 dt

(3)

Clasificaci
on de las se
nales en t
erminos energ
eticos
En funcion de los valores que tomen tanto Ex como Px , la se
nal x(t) sera:
1. Se
nal de energa finita: 0 < Ex < +.
2. Se
nal de potencia media finita: 0 < Px < +.
3. Se
nal que no es ni de energa finita ni de potencia finita.
Los tipos 1 y 2 son excluyentes, es decir, si una se
nal es de energa finita no puede ser de potencia

media finita y viceversa. Como ejemplo del grupo 3, podemos considerar x(t) = t 2 u(t 1) con
0 < < 1. En este caso, Ex + y Px = 0.
85

1.1.

Se
nales de energa finita

Son todas las se


nales finitas de duracion finita mas algunas se
nales de duracion infinita. Como ejemR +
plo de este segundo caso tomemos x(t) = eat u(t) con a > 0, cuya energa vale Ex = |x(t)|2 dt =
R + at
R +
1
y es, por tanto, finita.
u(t)|2 dt = 0 e2at dt = 2a
|e
Aprovechemos ahora el teorema de Parseval, que nos iguala la energa de una se
nal en el dominio
temporal con su energa en el dominio frecuencial, para definir la densidad espectral de energa de la
se
nal, Sxx (f ), que nos indica cu
al es la distribucion de energa de una se
nal a lo largo del eje frecuencial. Las unidades de Sxx (f ) ser
an, pues, en forma de energa partido frecuencia, o sea, J/Hz. Del
teorema de Parseval vemos que
Z +
Z +
|X(f )|2 df
(4)
|x(t)|2 dt =
Ex =

y por lo tanto |X(f )|2 marca la distribucion de energa en frecuencia del mismo modo que |x(t)|2
marca la distribuci
on de energa en tiempo (equivalente a potencia instantanea si se considera una
duracion temporal infinitesimal t entorno a t). Llegamos pues a:
Sxx (f ) = |X(f )|2

(5)

Propiedades de Sxx (f ) = |X(f )|2


Son las siguientes:
1. Se trata de una magnitud real, pues es modulo al cuadrado de X(f ).
2. Es no negativa (tambien por ser modulo al cuadrado).
3. Si x(t) es real, entonces Sxx (f ) es par. Esto es debido a las propiedades de simetra de la
transformada de Fourier que nos dicen que para x(t) real se cumple que X(f ) = X (f ). Dado
que para un n
umero complejo a es cierto que |a| = |a |, resulta facil ver que |X(f )| = |X (f )| =
|X(f )|.
Energa en un intervalo frecuencial
Supongamos ahora que queremos medir la energa contenida entre f1 y f2 con f2 > f1 . Para
ello filtramos la se
nal con un filtro paso banda ideal h(t), obteniendo as y(t) = x(t) h(t), y luego
medimos la energa de y(t). Dado que en la practica nos encontramos con la se
nal x(t) y el sistema
(filtro) h(t) reales, ambos (X(f ) y H(f )) tienen simetra hermtica. Esta misma propiedad se cumple
tambien para la se
nal que queremos medir Y (f ) = X(f ) H(f ) ya que sera tambien real en tiempo
(la convolucion de dos se
nales reales es real). Siguiendo este razonamiento llegamos a
Z +
Z +
Z +
2
2
Ex (f1 , f2 ) = Ey =
|y(t)| dt =
|Y (f )| df =
|X(f )|2 |H(f )|2 df
(6)

86

Graficamente tenemos:

|X(f )|2

|H(f )|2
1

f2 f1

f1

f2

Recordando que |X(f )|2 y |H(f )|2 son pares si provienen de se


nales reales en tiempo, obtenemos
finalmente
Z f2
Z f2
Z f1
|X(f )|2 df
(7)
|X(f )|2 df = 2
|X(f )|2 df +
Ex (f1 , f2 ) =
f2

f1

f1

Si f2 f1 = f 0, entonces Ey |X(f1 )|2 2f , que es lo mismo que decir |X(f1 )|2 =


corroborando de nuevo que |X(f )|2 es densidad espectral de energa.

1.2.

Ey
2f ,

Se
nales de potencia media finita

Son se
nales de potencia media finita:
Las se
nales peri
odicas (siempre que sean cuadrado integrables en un periodo).
Algunas se
nales de duraci
on infinita, como por ejemplo el pulso o la rampa.
Las se
nales aleatorias, es decir, las correspondientes a procesos estocasticos.
En este tema trataremos s
olo los dos primeros casos, es decir, las se
nales periodicas y las no peri
odicas.
Empecemos por el primero.
Se
nales peri
odicas
R +T /2
En las se
nales peri
odicas, la potencia (Px = lmT T1 T /2 |x(t)|2 dt) se puede obtener de dos
maneras distintas:
R
1. Px = T10 <T0 > |x(t)|2 dt, es decir, como la potencia en un periodo.
P+
2
2. Px =
odulos al cuadrado de sus coeficientes de
n= |cn | , es decir, como suma de los m
Fourier.
Comprobaci
on de la primera aproximaci
on:
Definimos T = M T0 con M N+ e impar y calculamos la potencia a traves de la definicion:
Z
Z +M T0 /2
1 +T /2
1
2
|x(t)| dt = lm
|x(t)|2 dt
Px = lm
T T T /2
M T0 M T0 M T0 /2
87

(8)

Fijemonos que la u
ltima integral calcula la potencia en M periodos (ver la figura) y por lo tanto,
valdra M veces la integral en un periodo.
x(t)
T0

t
M T0

As pues:
1
Px = lm
M T0 M T0

+M T0 /2

M T0 /2

1
|x(t)| dt = lm
M
M T0 M T0
2

+T0 /2

T0 /2

1
|x(t)| dt =
T0
2

+T0 /2

T0 /2

|x(t)|2 dt (9)

Comprobaci
on de la segunda aproximaci
on:
P
j2 Tn t
0 .
Partimos del resultado anterior y expresamos x(t) en serie de Fourier como x(t) = +
n= cn e
Desarrollando obtenemos:
#
Z + T0
Z + T0
Z + T0 " X
+
2
2
2
1
1
1
j2 Tn t
2

0
x (t)dt (10)
cn e
Px =
|x(t)| dt =
x(t) x (t)dt =
T0 T0
T0 T0
T0 T0 n=
2
2
2
#
"Z T0
T0
Z
+
+
+
+
2
2
1 X
1 X
j2 Tn t
j2 Tn t

0 dt =
0 dt
=
x (t)e
x(t)e
cn
cn
T
T
T0 n=
T0 n=
0
0
2

Si recordamos la definici
on del n-esimo coeficiente de Fourier, cn =
la expresion entre corchetes es justamente cn T0 . As pues:
Px =

1
T0

+
+
X
1 X
cn [cn T0 ] =
|cn |2
T0 n=
n=

j2 Tn t
0 dt,
<T0 > x(t)e

vemos que

(11)

Densidad espectral de potencia de se


nales peri
odicas:
Definimos la densidad espectral de potencia Sxx (f ) de x(t) como la distribucion de potencia de la
se
nal a lo largo del eje frecuencial, que debe cumplir, al igual que la densidad espectral de energa para
R +
se
nales de energa finita, Px = Sxx (f )df . En el caso de x(t) periodica, ya sabemos del estudio
de la transformada de Fourier de una se
nal periodica que existen solo componentes frecuenciales a los
m
ultiplos de 1/T0 y que el contenido frecuencial en cada una de las componentes viene determinado
u
nicamente por cn . Teniendo en cuenta lo dicho junto con (11), vemos que necesariamente:
+
X

m
|cm | f
Sxx (f ) =
T0
m=
2

88


(12)

Se
nales no peri
odicas
En se
nales no peri
odicas deberemos calcular la potencia usando la definicion. Por ejemplo, para calcular la potencia de x(t) = u(t) haremos:
Z T
Z T
1 +2
1T
1 +2 2
1
u (t) dt = lm
1 dt = lm
Px = lm
=
(13)
T
T T 0
T T 2
T T
2
2

Densidad espectral de potencia de se


nales no peri
odicas:
Y si queremos calcular la potencia desde el dominio frecuencial? Definamos una version enventanada de x(t) a la que llamaremos xT (t) seg
un:
 
t
(14)
xT (t) = x(t)
T
Podemos ver que xT (t) y x(t) coinciden cuando hacemos la ventana arbitrariamente grande (T +).
Calculemos ahora Px usando esta definicion como:
Z T
Z
1 +2
1 +
2
Px = lm
|xT (t)|2 dt
(15)
|x(t)| dt = lm
T T T
T T
2

Gracias a la se
nal enventanada hemos podido llevar los lmites de la integral a infinito, lo que nos
permite aplicar el teorema de Parseval tal y como hemos hecho para el caso de se
nales de energa
finita. Entonces tenemos:
Z
Z
Z +
1 +
1 +
|XT (f )|2
2
2
Px = lm
|xT (t)| dt = lm
|XT (f )| df =
lm
df
(16)
T T
T T
T
T
Llegamos, pues, a la conclusi
on que la densidad espectral de potencia para se
nales de potencia media
finita no periodicas se puede calcular como:
|XT (f )|2
T
T

(17)

Sxx (f ) = lm

Apliquemos este resultado al ejemplo anterior, x(t) = u(t). En este caso xT (t) =

T
tanto XT (f ) = ej2f 4 T2 sinc T2 f . Calculemos su densidad espectral:
|XT (f )|2
1 T 2 sin2 2 T f
1 sin2 T2 f
= lm
=
l
m
2
T
T T 4 2 T f 2
T T
T
2f 2

Sxx (f ) = lm

tT /4
T /2

y por lo

(18)

Considerando el lmite vemos que


Sxx (f ) =

f 6= 0

0
2

2 T4 f 2
T 2 f 2

T
4

= f =0

(19)

donde hemos aproximado el seno por su argumento para f = 0. Llegamos pues a Sxx (f ) = A(f ),
R +
pero nos falta determinar el valor de A. Como Px = Sxx (f ) df = A y ya sabemos por otro lado
que Px = 21 , concluimos que
1
Sxx (f ) = (f )
(20)
2
89

2.

Correlaci
on y espectro de energa

Hasta ahora hemos tratado la energa y la potencia de las se


nales tanto desde el punto de vista
temporal como frecuencial. En los siguientes dos apartados nos interesara establecer una medida que
nos permita comparar dos se
nales x(t) e y(t) y veremos que cuando las dos se
nales a comparar son la
misma, existe una clara relaci
on entre la medida de similitud, a la que llamaremos correlacion, y los
resultados establecidos hasta el momento.
Empecemos por encontrar una medida de similitud. Aqu nos serviremos de la idea de distancia
de los espacios vectoriales eucldeos, donde definimos la distancia entre dos vectores x e y como
d(x, y) = ||x y||. Como menor sea d mas semejantes seran los vectores. Analogamente, podemos definir la distancia (al cuadrado en este caso) entre dos funciones o se
nales x(t) e y(t) como
R +
2
2
2
d (x, y) = ||x y|| = |x(t) y(t)| dt. Y si a
un queremos afinar mas, podemos comprar las
se
nales para cualquier retraso relativo entre ellas , es decir
Z +
Z +
(x(t + ) y(t)) (x(t + ) y(t)) dt (21)
|x(t + ) y(t)|2 dt =
d2 (x(t + ), y(t)) =

Z
=

|x(t + )|2 dt +

|y(t)|2 dt

x(t + )y (t)dt

x (t + )y(t)dt

= Ex + Ey Rxy ( ) Rxy
( ) = Ex + Ey 2Re{Rxy ( )}

donde

Rxy ( ) =

x(t + )y (t)dt

(22)

se define como la correlaci


on o correlaci
on cruzada entre x(t) e y(t). Aqu vemos que si nuestro objetivo es medir cu
anto se parecen dos se
nales, la distancia entre ellas no es del todo adecuada ya que
contiene terminos que no nos aportan informacion como son Ex y Ey . Es por este motivo que de ahora
en adelante usaremos como medida de similitud Rxy (t).
Vemos que la definici
on de Rxy ( ) nos recuerda a la integral de convolucion. De hecho, podemos
expresar Rxy ( ) como
Z

Rxy ( ) =

Z +



x(t + )y (t)dt = t0 = t + =

x(t0 )y (( t0 ))dt0 = x( ) y ( )

Propiedades de Rxy ( )
Son las siguientes:
1. |Rxy ( )|2 Ex Ey

90

x(t0 )y (t0 )dt0

(23)

Comprobaci
on: aplicaci
on directa de la desigualdad de Schwarz
R +
R +
R +

2
(| u(t)v (t)dt| |u(t)|2 |v(t)dt|2 ):
Z

|Rxy ( )| =

2 Z

x(t + )y (t)dt

|x(t + )|

|y(t)dt|2 = Ex Ey

(24)

(Nota: la igualdad se dara si u(t) = v(t)).


( )
2. Rxy ( ) = Ryx
( ) =
Comprobaci
on: Ryx

R

+
y(t

 
R +
)x (t)dt = t = t0 + = y (t0 )x(t0 + )dt0

3. F{Rxy ( )} = F{x( ) y ( )} = X(f ) Y (f ) = Sxy (f ), que se conoce como la densidad


espectral (de energa) cruzada entre x e y.
De especial interes es el caso x(t) = y(t). Entonces la correlacion cruzada se convierte en
Z +
x(t + )x (t)dt
Rxx ( ) =

(25)

y se conoce como funci


on de autocorrelacion de la se
nal x(t). En este caso, medimos cuanto se parece
la se
nal x(t) a una replica suya desplazada , o sea, x(t + ). Mediante la transformada de Fourier
encontramos
F{Rxx ( )} = F{x( ) x ( )} = X(f )X (f ) = |X(f )|2 = Sxx (f ),

(26)

es decir, la densidad espectral de energa de la se


nal como caba esperar.
Propiedades de Rxx ( )
Son las siguientes:
1. Rxx (0) =

R +

Sxx (f )df = Ex

2. |Rxx ( )|2 Ex2


( ). Por lo tanto se trata de una funci
3. Rxx ( ) = Rxx
on hermtica. Si x(t) es real, Rxx ( ) =

x( ) x ( ) ser
a real y adem
as par.

4. F{Rxx ( )} = Sxx (f ) 0
Analicemos ahora el caso de una se
nal z(t) compuesta de otras dos, es decir, z(t) = x(t) + y(t), desde
el punto de vista de la funci
on de autocorrelacion:
Rzz ( ) = z( ) z ( ) = [x( ) + y( )] [x ( ) + y ( )]

(27)

= x( ) x ( ) + y( ) y ( ) + x( ) y ( ) + y( ) x ( )
= Rxx ( ) + Ryy ( ) + Rxy ( ) + Ryx ( )

91

( ) tambi
Si tenemos en cuenta que Ryx ( ) = Rxy
en podemos escribir

Rzz ( ) = Rxx ( ) + Ryy ( ) + Rxy ( ) + Rxy


( )

(28)

y la energa de z(t) como

Ez = Rzz (0) = Rxx (0) + Ryy (0) + Rxy (0) + Rxy


(0) = Ex + Ey + 2Re{Rxy (0)}

(29)

Son de especial interes los siguientes casos:


Si Re{Rxy (0)} = 0 decimos que las se
nales son incoherentes y se cumple Ez = Ex + Ey .
R +
Si Rxy (0) = 0 decimos que las se
nales son ortogonales (su producto escalar x(t)y (t)dt se
anula).
Si Rxy ( ) = 0 para todo , entonces las se
nales estan incorreladas y Rzz ( ) = Rxx ( ) + Ryy ( ).
Correlaci
on y espectro de energa a trav
es de sistemas LTI
Para terminar la parte correspondiente a se
nales de energa finita, nos preguntamos que sucede con
las correlaciones de las se
nales de entrada x(t) y salida y(t) a un sistema LTI descrito por su respuesta
impulsional h(t).

x(t)

h(t)

y(t)

En este caso tenemos:


1. Rxy ( ) = x( ) y ( ) = x( ) (x ( ) h ( )) = Rxx ( ) h ( )
2. Ryx ( ) = y( ) x ( ) = (x( ) h( )) x ( ) = Rxx ( ) h( )
3. Ryy ( ) = y( ) y ( ) = (x( ) h( )) (x ( ) h ( )) = Rxx ( ) h( ) h ( ) = Rxx ( )
Rhh ( )
Desde el punto de vista frecuencial esto se traduce en (aplicacion directa de la transformada de Fourier):
1. Sxy (f ) = Sxx (f ) H (f )
2. Syx (f ) = Sxx (f ) H(f )
3. Syy (f ) = Sxx (f )H(f )H (f ) = Sxx ( )|H(f )|2

92

3.

Correlaci
on y espectro de potencia

Para el caso de se
nales de potencia finita, calcularemos la correlacion siguiendo la logica que
R +T
hemos usado para calcular la potencia. Es decir, si decamos que Px = lmT T1 T2 |x(t)|2 dt, ahora
la autocorrelaci
on de se
nales de potencia finita vendra dada por:
1
Rxx ( ) = lm
T T

+ T2

T2

x(t + )x (t)dt

(30)

donde comprobamos f
acilmente que Rxx (0) = Px . Ademas, la correlacion cruzada se calculara como:
1
T T

Rxy ( ) = lm

+ T2

T2

x(t + )y (t)dt

(31)

Propiedades de Rxx ( )
Son las mismas (cambiando energa por potencia) que las de las se
nales de energa finita, es decir:
1. Rxx (0) = Px
2. |Rxx ( )|2 |Rxx (0)|2
( )
3. Rxx ( ) = Rxx

Propiedades de Rxy ( )
As mismo, las propiedades de Rxy ( ) tambien se repiten y son:
1. |Rxx ( )|2 Px Py
( )
2. Rxy ( ) = Ryx

Densidad espectral de potencia


Tambien igual que antes, la densidad espectral de potencia (cruzada o no) se calcula como la transformada de Fourier de la autocorrelaci
on o la correlacion cruzada seg
un sea el caso, es decir:
|XT (f )|2
T
T
XT (f )YT (f )
F{Rxy ( )} = Sxy (f ) = lm
T
T

F{Rxx ( )} = Sxx (f ) = lm

(32)
(33)

Nota: aunque llamemos igual a la densidad espectral de energa y a la de potencia como Sxx (f ), hay
que ser conscientes que son distintas y que nos aportan informacion semejante pero no igual.

93

Comprobaci
on: Empezaremos desarrollando por Sxx (f ) = lmT
ponde con F{Rxx ( )}. Esto es:

|XT (f )|2
T

para ver que se corres-

|XT (f )|2
1
= lm XT (f )XT (f )
T
T T
T
Z +
 Z +

1
0
= lm
xT (t)ej2f t dt
xT (t0 )ej2f t dt0
T T
"ZT
# "Z
#
+2
+ T2
1
0
x(t)ej2f t dt
x (t0 )e+j2f t dt0
= lm
T T
T
T

Sxx (f ) =

lm

(34)

donde hemos expresado XT (f ) como F{xT (t)}. Ahora juntamos las integrales y hacemos el cambio
de variable t = + t0 (aqu t0 es s
olo un parametro que no interviene en la integral respecto t), con lo
que dt = d :
Z T Z T
1 +2 +2
0
Sxx (f ) = lm
x(t)x (t0 )ej2f (tt ) dt dt0
(35)
T T T
T2
2
Z T Z T 0
1 + 2 + 2 t
= lm
x( + t0 )x (t0 )ej2f d dt0
T T T
T t0
2

t0

(t0

Ahora aprovechamos el hecho que es finito


[T /2, T /2]) para aplicar el lmite T en la
primera integral (la de dentro), llegando a
Z T Z
1 + 2 +
Sxx (f ) = lm
x(t0 + )x (t0 )ej2f d dt0
(36)
T T T

Finalmente, invertimos el orden de integracion para llegar al resultado esperado, esto es:
Z +
Z T
1 +2
Sxx (f ) =
lm
x(t0 + )x (t0 )ej2f dt0 d
T T T2
Z +
=
Rxx ( )ej2f d = F{Rxx ( )}

(37)


Ejemplo: Obtener Rxx ( ) y Sxx (f ) para x(t) = u(t).
Aplicamos la definici
on de Rxx ( ) para obtener
Z T
Z T
1 +2
1 +2
Rxx ( ) = lm
u(t + )u(t)dt = lm
u(t + )dt
T T 0
T T T

(38)

Si > 0, u(t + ) es un escal


on que empieza en alg
un t negativo (t = ) y por lo tanto, Rxx ( ) se
reduce a:
Z T
1 +2
1T
1
Rxx ( ) = lm
=
(39)
dt = lm
T T 0
T T 2
2
Finalmente, como Rxx ( ) debe ser siempre par para x(t) real, no hace falta estudiar el caso < 0 y
podemos afirmar que
1
1
Rxx ( ) = Sxx (f ) = F{Rxx ( )} = (t)
(40)
2
2
94

Densidad espectral a la salida de un sistema LTI


Al igual que en el caso de energa finita se cumple que la densidad espectral de potencia Syy (f ) a la
salida de un sistema LTI caracterizado por H(f ) = F{h(t)} vale
Syy (f ) = Sxx (f )|H(f )|2

(41)

donde Sxx (f ) es la densidad espectral de potencia de la se


nal x(t) a la entrada del sistema.
Correlaci
on en se
nales peri
odicas
En cuanto a autocorrelaci
on se refiere, vemos que si comparamos una se
nal periodica con ella misma
pero desplazada un n
umero entero de periodos como se ve en la figura, las se
nales a comparar son
identicas. Es lo mismo que sucede cuando no hay desplazamiento.
x(t)

t
x(t)

T0

Por lo tanto intuimos que la autocorrelacion de una se


nal periodica sera tambien periodica, es decir:
x(t) = x(t + kT0 ) Rxx ( ) = Rxx ( + kT0 ),

kZ

(42)

Comprobaci
on:

1
Rxx ( + kT0 ) = lm
T T

1
= lm
T T

+ T2

T2
+ T2

T2

x(t + + kT0 )x (t)dt

(43)

x(t + )x (t)dt = Rxx ( )

Ademas, del mismo modo que para obtener la potencia de la se


nal, basta con hacer la integral en un
periodo (incluso sin necesidad que sea [T0 /2, T0 /2], lo cual tambien es cierto para la potencia ya que
Rxx (0) = Px ):
Z
1
Rxx ( ) =
x(t + )x (t)dt
(44)
T0 <T0 >

95

Correlaci
on entre dos fasores
Estudiemos ahora la correlaci
on entre x(t) = a1 ej2f1 t y y(t) = a2 ej2f2 t . Aplicando directamente la
definicion vemos que:

1
Rxy ( ) = lm
T T
=

+ T2

T2

a2 a1 ej2f1

a1 ej2f1 (t+ ) a2 ej2f2 t dt

a2 a1 ej2f1

1
lm
T T

+ T2

T2

ej2(f1 f2 )t dt (45)


1 ej2(f1 f2 )t T /2
1 sin (f1 f2 )T
lm
= a1 a2 ej2f1 lm

T T j2(f1 f2 ) T /2
T T (f1 f2 )T

= a1 a2 ej2f1 lm sinc ((f1 f2 )T )


T

Por lo tanto, cuando f1 6= f2 evaluaremos la sinc en valores muy grandes y el resultado sera 0. S
olo
cuando f1 = f2 la sinc tomar
a valor 1. Por lo tanto, llegamos al siguiente resultado:
(
0
f1 6= f2
Rxy ( ) =
(46)
a1 a2 ej2f1 f1 = f2
Correlaci
on cruzada entre dos se
nales peri
odicas
El resultado anterior nos sirve para calcular Rxy ( ) con x(t) e y(t) periodicas si las desarrollamos en
series de Fourier. Esto es:
X
x(t) =
cx,m ej2mf0,x t
(47)
m

y(t) =

cy,n ej2nf0,y t

(48)

Calculemos, pues, la correlaci


on cruzada:
#
# "
Z T "
X
1 +2 X

j2nf0,y t
j2mf0,x (t+ )

cy,n e
dt
cx,m e
Rxy ( ) = lm
T T T
m
n
2
Z +T
XX
2
1
=
cx,m cy,n ej2mf0,x lm
ej2(mf0,x nf0,y )t dt
T T T
m n

(49)

Vemos que cada elemento del sumatorio se corresponde con la correlacion de dos fasores, de la cual
ya tenemos el resultado en (46). Sabemos que solo cuando mf0,x = nf0,y el elemento en cuesti
on
contribuira al sumatorio. En caso contrario dicha contribucion sera 0. La cuestion ahora es: con
que periodicidad los fasores de la se
nal x(t) van a coincidir con los de la se
nal y(t)? Miremos primero
un ejemplo. Supongamos f0,x = 3 y f0,y = 4 y dibujemos sus espectros (por comodidad, ya que un
fasor en tiempo queda representado en frecuencia por una delta cuya posicion nos indica la frecuencia).

96

X(f )

-18

-15

-12

-9

-6

-3

-12

-8

12

15

18

Y (f )

12

-16

-4

12

16

Vemos que con una periodicidad de fr = 12, la posicion de las deltas coincide. Todo se reduce a
encontrar M y N tales que
f0,r = N f0,x = M f0,y , M, N N+
(50)
Si nos fijamos nos daremos cuenta que f0,r = mcm(f0,x , f0,y ) y una vez encontrado el mnimo com
un
m
ultiple de ambas frecuencias fundamentales, determinar M y N ya es trivial seg
un (50).
Finalmente, eliminando los terminos que no contribuyen a la correlacion cruzada, esta no queda como:
X
Rxy ( ) =
cx,M r cy,N r ej2rf0,r
(51)
r

Como caso particular, vemos que la autocorrelacion de una se


nal periodica x(t) se puede calcular como
en (44) o bien seg
un:
X
Rxx ( ) =
|cx,r |2 ej2rf0,x
(52)
r

En cualquier caso, se trate de correlaci


on cruzada o autocorrelacion, queda claro que su transformada
de Fourier, es decir, la densidad espectral de potencia (cruzada o no) va tomar la forma de un tren de
deltas con los coeficientes correspondientes.

97