Está en la página 1de 172

Señales y Sistemas:

Fundamentos para el Procesamiento de


Señales en Comunicaciones y Control

Jorge Iván Marín Hurtado


Julián Adolfo Ramírez Gutiérrez
Jaime Alberto Buitrago
ii

Señales y Sistemas: Fundamentos para el Procesamiento de Señales


en Comunicaciones y Control

Jorge Iván Marín Hurtado


Julián Adolfo Ramírez Gutiérrez
Jaime Alberto Buitrago

No está permitida la reproducción total o parcial de esta obra, ni su tratamiento o transmi-


sión por cualquier método sin autorización escrita de los autores.

Todos los derechos reservados



c 2014. Armenia, Quindío, Colombia

ISBN:
978-958-46-4313-1

Editado e Impreso por Editorial Granada


Tel: 7343842, Armenia, Q.
PRESENTACIÓN

Un sistema se concibe como un aparato que procesa y entrega señales. En el campo de la


electrónica, los sistemas procesan generalmente señales de voltaje y corriente, pero cualquier
variable física se puede considerar como una señal. Independiente del proceso físico, todas las
señales se pueden modelar usando las mismas herramientas matemáticas, que se derivan de
un análisis de las ecuaciones diferenciales y la teoría de la probabilidad. Este libro brinda
una visión general del análisis y procesamiento de señales usando herramientas matemáticas
conocidas, herramientas computacionales, y haciendo particular énfasis en su interpretación
conceptual y aplicaciones prácticas.
Este libro se concibe como un texto guía para estudiantes de ingeniería electrónica que se
incursionan por primera vez en el tratamiento de las señales y los sistemas, y está enfocado a
fundamentar las bases para quienes incursionan posteriormente en algún énfasis de especializa-
ción, ya sea en comunicaciones, en control, o en procesamiento digital de señales. La estructura
de este libro está diseñada para soportar el curso de Señales y Sistemas que se orienta en el
Programa de Ingeniería Electrónica, de la Universidad del Quindío, un curso de tres créditos
cuya intensidad horaria es de 64 horas semestrales; por lo cual puede ser una opción útil para
cursos similares. En el curso se asumen como conocimientos previos las ecuaciones diferenciales,
la estadística y la probabilidad, y las transformadas de Laplace y Z.
A diferencia con otros libros texto, en éste se aborda simultáneamente el análisis de señales
continuas y discretas, incluye ejemplos de implementación y aplicación de los conceptos, e inclu-
ye una fundamentación sobre el procesamiento estadístico de señales. Muchos de los ejemplos
de este libro incluyen programas en lenguaje C o programas escritos en Matlab.
Este libro está estructurado como sigue:
En el Capítulo 1 se presentan las deniciones de señales y sistemas, tanto en tiempo continuo
como en tiempo discreto, y se hace énfasis en el análisis y procesamiento de las señales en el
dominio del tiempo; también se hace particular énfasis en cómo se implementan los sistemas,
ya sea en tiempo continuo o tiempo discreto, y una herramienta útil para los sistemas lineales
e invariantes en el tiempo (L.T.I.), la convolución.
En el Capítulo 2, se introduce el espacio de señales, y a partir de éste se detallan la serie de
Fourier y la transformada de Fourier como herramientas para el análisis de señales y sistemas
en el dominio de la frecuencia.

iii
iv

Dado que el Capítulo 2 se enfoca exclusivamente en el análisis en frecuencia de señales


continuas, en el Capítulo 3, se explora el análisis en el dominio de la frecuencia para las señales
discretas.
Finalmente, en el Capítulo 4, se introducen las bases para el análisis estadístico de señales
y sistemas.
ÍNDICE GENERAL

1. Señales y Sistemas en el Dominio del Tiempo 5


1.1. Señales y Procesos Físicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.1.1. Muestreo y Cuantización . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.1.2. Potencia y Energía de una Señal . . . . . . . . . . . . . . . . . . . . . . . 10
1.1.3. Señales de Energía y Señales de Potencia . . . . . . . . . . . . . . . . . . 12
1.2. Transformaciones de Variable Independiente . . . . . . . . . . . . . . . . . . . . . 14
1.2.1. Desplazamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.2.2. Reexión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.3. Escalado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 15
1.2.4. Forma General de las Transformaciones de Variable Independiente . . . . 16
1.3. Señales Periódicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.3.1. Señales Periódicas Discretas . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.3.2. Señales Armónicas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.4. Señales Pares e Impares . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
1.5. Señales Elementales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.5.1. Señal Escalón Unitario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.5.2. Señal Impulso Unitario . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
1.5.3. Señal Rampa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
1.5.4. Señal Pulso Rectangular . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
1.5.5. Señal Exponencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
1.5.6. Señal Sinc . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.6. Sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
1.7. Clasicación de los Sistemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
1.7.1. Sistemas Lineales o no Lineales . . . . . . . . . . . . . . . . . . . . . . . . 31
1.7.2. Sistemas Invariantes en el Tiempo . . . . . . . . . . . . . . . . . . . . . . 32
1.7.3. Sistemas Con y Sin Memoria . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.7.4. Sistemas Causales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.7.5. Sistemas Estables e Inestables . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.7.6. Sistemas Determinísticos y no Determinísticos . . . . . . . . . . . . . . . 35

1
2 ÍNDICE GENERAL

1.8. Ecuaciones Diferenciales y en Diferencias . . . . . . . . . . . . . . . . . . . . . . . 35


1.9. Diagramas de Bloques . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.9.1. Diagramas de Bloques para Sistemas en Tiempo Continuo . . . . . . . . . 38
1.9.2. Diagramas de Bloques para Sistemas en Tiempo Discreto . . . . . . . . . 41
1.10. La Convolución . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.10.1. Interpretación de la Convolución . . . . . . . . . . . . . . . . . . . . . . . 44
1.10.2. Interpretación de la Sumatoria de Convolución . . . . . . . . . . . . . . . 45
1.10.3. Interpretación y Cálculo de la Integral de Convolución . . . . . . . . . . . 45
1.10.4. Propiedades de la Convolución e Interconexión de Sistemas L.T.I. . . . . 48
1.10.5. Respuesta al Impulso y Clasicación de Sistemas L.T.I. . . . . . . . . . . 51
1.11. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53

2. Análisis en Frecuencia de Señales Continuas 57


2.1. Espacio de Señales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.1.1. Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.1.2. Las Señales como Vectores . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.2. Serie de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.2.1. Propiedades de la Serie de Fourier . . . . . . . . . . . . . . . . . . . . . . 66
2.2.2. Serie de Fourier de una Señal Real . . . . . . . . . . . . . . . . . . . . . . 70
2.2.3. Simetrías y Serie de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . 72
2.2.4. Relación de Parseval . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
2.2.5. Sistemas LTI y Señales Periódicas . . . . . . . . . . . . . . . . . . . . . . 74
2.2.6. Series Fourier de Trenes de Pulsos . . . . . . . . . . . . . . . . . . . . . . 76
2.2.7. Ejemplos de Aplicación de la Serie de Fourier . . . . . . . . . . . . . . . . 77
2.3. Transformada de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
2.3.1. Transformada de Fourier de una Señal Real . . . . . . . . . . . . . . . . . 82
2.3.2. Transformada de Fourier de Señales Típicas . . . . . . . . . . . . . . . . . 84
2.3.3. Propiedades de la Transformada de Fourier . . . . . . . . . . . . . . . . . 84
2.3.4. Principio de Incertidumbre . . . . . . . . . . . . . . . . . . . . . . . . . . 89
2.3.5. Transformada de Fourier en Sistemas LTI y no LTI . . . . . . . . . . . . . 91
2.3.6. Transformada de Fourier de una Señal Periódica . . . . . . . . . . . . . . 93
2.4. Densidad Espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
2.4.1. Señales de Energía . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
2.4.2. Señales de Potencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
2.5. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97

3. Análisis en Frecuencia de Señales Discretas 99


3.1. Transformada de Fourier de una Señal Discreta . . . . . . . . . . . . . . . . . . . 99
3.2. Transformada de Fourier de Tiempo Discreto (DTFT) . . . . . . . . . . . . . . . 103
3.2.1. Propiedades de la Transformada de Fourier de Tiempo Discreto . . . . . . 104
3.3. Serie Discreta de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.4. Transformada Discreta de Fourier (DFT) . . . . . . . . . . . . . . . . . . . . . . 106
3.4.1. Propiedades de la DFT . . . . . . . . . . . . . . . . . . . . . . . . . . . . 109
3.5. Transformada Rápida de Fourier (FFT) . . . . . . . . . . . . . . . . . . . . . . . 112
3.6. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
ÍNDICE GENERAL 3

4. Señales Aleatorias 117


4.1. Probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 117
4.1.1. Propiedades de la Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . 118
4.1.2. Eventos Dependientes, Independientes y Excluyentes . . . . . . . . . . . . 119
4.1.3. Teoremas de la Probabilidad . . . . . . . . . . . . . . . . . . . . . . . . . 120
4.1.4. Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
4.1.5. Valor Medio y Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . 123
4.1.6. Variables Aleatorias Importantes . . . . . . . . . . . . . . . . . . . . . . . 124
4.1.7. Funciones de Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . 130
4.1.8. Variables Aleatorias Múltiples . . . . . . . . . . . . . . . . . . . . . . . . . 135
4.2. Procesos Estocásticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
4.3. Propiedades de las Señales Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . 138
4.3.1. Promedio Estocástico . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
4.3.2. Función de Autocorrelación . . . . . . . . . . . . . . . . . . . . . . . . . . 138
4.4. Procesos Estacionarios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
4.5. Procesos Ergódicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141
4.6. Potencia y Energía de una Señal Aleatoria . . . . . . . . . . . . . . . . . . . . . . 141
4.6.1. Espectro de Potencia de una Señal Aleatoria . . . . . . . . . . . . . . . . 142
4.7. Proceso Ruido Blanco . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 145
4.8. Proceso Gausiano . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
4.9. Paso a Través de un Sistema LTI . . . . . . . . . . . . . . . . . . . . . . . . . . . 146
4.9.1. Múltiples Fuentes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
4.10. Procesos Estacionarios y Filtros . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
4.11. Problemas . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 160

5. Referencias 163
4 ÍNDICE GENERAL
CAPÍTULO 1
SEÑALES Y SISTEMAS EN EL
DOMINIO DEL TIEMPO

El objetivo de este capítulo es introducir los conceptos básicos de señales, los cuales serán de
gran utilidad en el desarrollo de los próximos capítulos. Inicialmente distinguiremos los dos tipos
de señales estudiadas en el texto y daremos algunos ejemplos de aplicaciones. A continuación
presentaremos algunas propiedades de las señales y su relación con los procesos físicos. Para
concluir se estudiarán las diferentes propiedades de los sistemas y se introducirá el concepto
de convolución. Estos estudios se realizarán en forma simultánea para las señales continuas y
discretas.

1.1. Señales y Procesos Físicos


Las señales pueden describir una gran parte de los fenómenos físicos, por ejemplo, si con-
sideramos el circuito de la Figura 1.1, tenemos varios ejemplos de señales: las señales de los
voltajes en la fuente, la resistencia e inductancia en el tiempo y la señal de corriente. Otros
tipos de señales son el sonido, que es la variación de la presión en el tiempo, las ondas de radio,
que son el cambio de los campos eléctrico y magnético con el tiempo, una onda sísmica, que
corresponde al movimiento de la corteza terrestre en el tiempo, o una imagen, que corresponde
a la variación de la intensidad de brillo con la posición espacial (x,y). En conclusión, podemos
decir que una señal es la variación de alguna variable o magnitud en función de otras variables
como el tiempo, la posición espacial, etcétera.
La expresión matemática de una señal está dada como una función f : Rn → Rm con
n, m ≥ 1. Para el circuito de la Figura 1.1 tenemos que las señales de corriente y voltaje en los
extremos de la inductancia, al usar una fuente de corriente alterna Vs (t) = A cos (ωt), donde ω
es la frecuencia, A es la amplitud de la señal y t el tiempo, serán:

I(t) = I0 cos (ωt − ϕ)

5
6 1.1. SEÑALES Y PROCESOS FÍSICOS

( π )
VL (t) = VLmax cos ωt + − ϕ
2
donde:

( ωL )
I0 = √ V0 , VLmax = I0 ωL y ϕ = arctan
R2 +ω 2 L2 R

R
+

V0 cos(ω t) i 0 (t) L VL (t)

Figura 1.1: Circuito RL en serie

Para las señales del circuito de la Figura 1.1 podemos decir que el voltaje en la inductancia
π
está adelantado un ángulo de
2 radianes con respecto a la corriente, y que la corriente está
desfasada en relación con el voltaje de la fuente de alimentación. En otras palabras, las señales
nos dan una completa información sobre el fenómeno físico que las genera.
En este texto estaremos interesados en señales representadas por funciones de una variable
independiente que generalmente representará el tiempo. Sin embargo, en ciertas aplicaciones la
variable independiente puede ser otra magnitud física, como veremos a continuación:

1. Los aviones para determinar su elevación sobre el nivel del mar hacen uso de la señal
presión atmosférica, la cual presenta una dependencia con la altura.

2. La distribución de temperatura a lo largo de un alambre metálico sometido a un calen-


tamiento en uno de sus extremos es una señal cuya intensidad depende de la posición
relativa a la fuente térmica.

3. Una imagen es un tipo de señal que representa la intensidad de la luz y que a su vez
depende de la posición con respecto a la posición espacial de los ejes X y Y.

Como en el caso de una imagen, que depende de una variable bidimensional (x,y), existen otras
señales que pueden depender de una variable n-dimensional, por ejemplo, el índice de polución
atmosférica es una señal que depende de las coordenadas espaciales (x,y,z).
En todo el texto, consideraremos dos tipos de señales, las continuas y las discretas. Los
ejemplos anteriores corresponden a señales continuas. Como ejemplo de una señal discreta,
podemos pensar en el precio diario del dólar o en el nivel de pH en un río medido cada kilómetro,
dado a que estas variables se conocen únicamente en ciertos instantes y no para todo el rango
continuo de valores de la variable independiente. En general, cualquier señal discreta tiene la
forma de la Figura 1.2.
A continuación daremos las siguientes deniciones formales de señales:

Denición 1.1. Una señal es un patrón de variaciones de cierta variable descrita


en términos de una o más dimensiones.
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 7

x[n]

n
1 2 3 4 5 6 7 8 9 10

Figura 1.2: Representación gráca de una señal discreta

Denición 1.2. Se dice que una señal


R → R
x:
t → x(t)
es continua en un punto t0 ∈ R cuando ∀ε > 0, ∃ δ > 0 tal que si t∈R y |t − t0 | <
δ ⇒ |x(t) − x(t0 )| < ε.

Denición 1.3. Si una señal


R → R
x:
t → x(t)

es continua en todos los puntos de R decimos que x(t) es una señal continua.

Denición 1.4. Una señal es discreta cuando la variable dependiente está de-
nida solamente para un conjunto de valores discretos de la variable independiente.

Denotaremos las señales continuas por x(t) donde t ∈ R y las señales discretas por x[n],
n ∈ Z.
En muchas aplicaciones prácticas las señales discretas son versiones muestreadas de una
señal continua, relacionadas mediante la expresión:

x[n] = x(nTs ) (1.1)

donde n es el índice de la muestra y Ts es el período de muestreo , cuyo inverso fs = 1


Ts se
denomina la frecuencia de muestreo.

1.1.1. Muestreo y Cuantización


En las aplicaciones actuales existe una gran tendencia al procesamiento digital de señales,
lo cual se logra con el muestreo de señales continuas; tal es el caso del audio digital almacenado
en un disco compacto CD, en el cual la música, que es la señal continua, se almacena en el
CD como una secuencia de números obtenidos a partir del muestreo de la señal original a
una frecuencia de muestreo fs = 44,1kHz . Para ilustrar el funcionamiento de estos sistemas,
consideraremos inicialmente un sistema básico de procesamiento digital de señales compuesto
por tres elementos: un conversor análogo-digital (A/D), un sistema digital de procesamiento y
un conversor digital-análogo (D/A) (Figura 1.3).
El propósito del conversor A/D es realizar el muestreo de la señal continua cada Ts segun-
dos, donde Ts se denominada periodo de muestreo y la operación de muestreo consiste en medir
8 1.1. SEÑALES Y PROCESOS FÍSICOS

~ Digital ~ Digital
Senal
Senal
m bits m bits Salida
Entrada Memoria Analoga
xq[n] yq[n]
Analoga y(t)
x(t) Conversor Conversor
A/D D/A
Microprocesador o
ASIC o FPGA
~ de Disparo
Senal
cada Ts Sistema Digital de
Procesamiento

Figura 1.3: Sistema básico para procesamiento digital de señales

la amplitud instantánea de la señal de entrada x(t). Dado que la amplitud de la muestra es


un voltaje en un rango continuo de valores, el conversor A/D realiza una operación adicional
denominada cuantización , que consiste en asignarle un valor numérico entero a la amplitud
muestreada. Esta operación es necesaria dado a las restricciones del sistema digital de procesa-
miento pues cada una de las muestras es necesario almacenarlas en la memoria del sistema como
números binarios de una longitud de palabra nita. De esta forma, los datos almacenados en
la memoria del sistema de procesamiento dieren ligeramente de (1.1) dado a que es necesario
incluir el operador de cuantización Q:

xq [n] = Q {x(nTs )} (1.2)

donde xq es el vector de datos con las muestras que se almacenan en la memoria del sistema
de procesamiento. Note que en este sistema la señal continua de entrada x(t), que está denida
para todo instante de tiempo, se ha almacenado en el sistema digital como un vector de datos,
xq , donde n representa la posición de memoria de la muestra que se capturó en el instante de
tiempo nTs . Lo anterior implica que cualquier variación de la señal continua de entrada entre
dos instantes de tiempo donde no se realiza el muestreo es imposible de ser identicada por
este sistema digital (Figura 1.4). Esta limitante del sistema digital puede ser "ignorada" si la
máxima componente de frecuencia de la señal de entrada, fmax , es menor a la mitad de la
frecuencia de muestreo fs , es decir, fmax ≤ fs /2, relación conocida como teorema del muestreo
y que será abordada con mayor detalle en la Sección 1.3.1 y en el Capítulo 3.

Ts
Conversor A/D
x(t) x(nTs ) xq [n]
Q{ }

Ts

Figura 1.4: Modelo de un conversor A/D. El suiche representa el paso de la señal de análoga
de entrada cada Ts segundos y Q el cuantizador para las amplitudes. Note que ciertos cambios
de la señal de entrada no es posible capturarlos por el muestreador.

Note que esta limitante en el tiempo no es la única condición impuesta por el conversor
A/D, pues el cuantizador restringe el rango de valores de amplitud que pueden ser capturados.
En un conversor A/D, hay dos parámetros adicionales a la frecuencia de muestreo, estos son:
el voltaje de referencia y el número de bits. El voltaje de referencia impone una restricción
al máximo voltaje que puede ser leído por el conversor, y el número de bits a la cantidad de
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 9

valores que pueden ser entregados por el conversor. Supongamos por ejemplo un conversor A/D
con entrada bipolar operando a un voltaje de referencia Vref y con ancho de palabra de m bits.
Dado a que el conversor puede capturar voltajes entre [−Vref , Vref ], los valores de salida del
conversor deben contemplar una salida con signo. Al usar una palabra de m bits, el número de
niveles que se pueden representar en el rango entre −Vref y Vref es de 2
m
niveles, y dado a que
es necesario emplear el bit más signicativo (MSB) para el signo, la correspondencia entre el
valor cuantizado de amplitud, xq , y el valor análogo aproximado, x̂, es

( )
Vref
x̂ = xq (1.3)
2m−1
donde el término entre paréntesis corresponde a la resolución del conversor, que no es más
que el valor en voltios entre dos niveles consecutivos. La expresión (1.3) además de indicar la
relación entre las muestras digitalizadas y el valor aproximado de la muestra, describe la forma
como opera el conversor digital-análogo (D/A) . Este conversor toma básicamente los valores
digitales de cada muestra, xq , que están representados a través de números de m bits y produce
a su salida un voltaje análogo, x̂, proporcional al valor de la muestra de entrada.
La diferencia entre la señal muestreada antes del cuantizador, x(nTs ), y la señal aproximada,
x̂(nTs ), es decir, x̂(nT s) − x(nT s), se denomina ruido de cuantización , pues entre menor sea
esta cantidad más el será la señal muestreada a la señal original. En la Figura 1.5 se muestran
diferentes ejemplos de señales discretizadas con un diferente número de bits, y la forma de la
señal esperada a la salida del converso D/A. Como es de esperarse entre mayor es el número de
bits, menor es el ruido de cuantización y mejor la representación de la señal de entrada.

(a) Señal cuantizada a 4bits (b) Error de cuantización para 4bits


1 0.2

0.5 0.1

0 0

−0.5 −0.1

−1 −0.2
0 20 40 60 80 100 0 20 40 60 80 100

(c) Señal cuantizada a 8bits (d) Error de cuantización para 8bits


1 0.2

0.5 0.1

0 0

−0.5 −0.1

−1 −0.2
0 20 40 60 80 100 0 20 40 60 80 100

Figura 1.5: Ejemplos de cuantización de una señal senoidal para diferentes cuantizadores, (a)
m=4 bits y (c) m=8 bits. (b) y (d) corresponden a los errores de cuantización para 4 y 8
bits, respectivamente.

El hecho de que las limitaciones de los sistemas de procesamiento digital de señales pueden
ser superadas al cumplir el teorema del muestreo y emplear un número de bits adecuado para los
conversores, ha hecho posible que estos sistemas sean tan populares, pues al tener almacenada
la señal en forma de un vector de datos al interior del sistema de procesamiento hace posible
emplear un sinnúmero de trucos y algoritmos de procesamiento. En términos simples, imple-
10 1.1. SEÑALES Y PROCESOS FÍSICOS

mentar un sistema de procesamiento digital de señales consiste en escribir un programa (o algo-


ritmo) que evalúa un conjunto de ecuaciones sobre un microprocesador. Otras alternativas para
el sistemas de procesamiento digital son el hardware especializado ASICs (Application-specic
integrated circuit ) o las FPGAs (Field-programmable gate array ), que describen el algoritmo ya
no como un programa almacenado sino con conexiones físicas entre multiplicadores, sumadores,
y registros de almacenamiento, entre otros. Algunas ideas de cómo se elaboran estos algoritmos
serán presentadas en la Sección 1.10.2. El procesamiento análogo, es decir, el procesamiento
de las señales en tiempo continuo, está limitado por el comportamiento de los dispositivos que
transforman señales (por ejemplo, condensadores, resistencias, transistores, etc.), el cual es ge-
neralmente jo y no es modicable tan fácilmente. En contraste, una arquitectura digital ofrece
un alto grado de exibilidad debido a su fácil reconguración. Por esta razón, el procesamiento
digital de señales ha desplazado signicativamente al procesamiento análogo. Sin embargo, el
procesamiento análogo está cobrando un papel importante en la actualidad para el diseño de
sistemas de ultrabajo consumo de potencia en aplicaciones donde una arquitectura digital no
permite alcanzar niveles de consumo de potencia tan bajos.

1.1.2. Potencia y Energía de una Señal


La mayoría de las señales analizadas están relacionadas con fenómenos físicos que extraen
potencia y energía de un sistema. Estas cantidades pueden determinarse a partir de la señal
involucrada.

Ejemplo 1.1. Mediante el circuito de la Figura 1.6, formado por una resistencia
y una fuente de alimentación, podemos establecer las relaciones de potencia y energía
de la señal por medio de la ley de Joule de la siguiente forma:

v(t) i(t)

Figura 1.6: Circuito eléctrico simple

v 2 (t)
p(t) = v(t)i(t) =
R
Donde el voltaje v(t) es la señal y p(t) es la potencia instantánea disipada en la
resistencia. Por otro lado, la energía total disipada en la resistencia en el intervalo
de tiempo ξ = [t1 , t2 ] es:

∫ t2 ∫ t2
1
Eξ = p(t)dt = v 2 (t)dt
t1 R t1
y la potencia promedio en dicho intervalo está dada por:

∫ t2 ∫ t2
1 1 1 Eξ
pξ = p(t)dt = v 2 (t)dt = 
t2 − t1 t1 R t2 − t1 t1 t2 − t1
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 11

1
En las expresiones anteriores tenemos un factor de escala constante
R que las afecta. Al-
go similar ocurre con las señales generadas en otro tipo de fenómenos físicos, por lo tanto, si
normalizamos dichas expresiones tomando R = 1, podemos generalizar para cualquier señal,
independiente del fenómeno físico, la potencia instantánea, la energía y la potencia promedio.

Denición 1.5. Para una señal continua x(t), denimos:


1. La potencia instantánea de x(t) por:

2
p(t) = |x(t)| (1.4)

2. La energía total de x(t) en el intervalo ξ = [t1 , t2 ] por:


∫ t2 ∫ t2
2
Eξ = p(t) = |x(t)| dt (1.5)
t1 t1

3. La potencia promedio ξ = [t1 , t2 ] por:


en el intervalo
∫ t2
Eξ 1 2
pξ = = |x(t)| dt  (1.6)
t2 − t1 t2 − t1 t1
En las anteriores expresiones, la magnitud de la señal |x(t)| fue añadida con el n de esta-
blecer una expresión general para cualquier señal compleja o n-dimensional.

Denición 1.6. Para una señal discreta x[n], denimos:


1. La energía total de x[n] en el intervalo ξ = [n1 , n2 ] por:


n2
2
Eξ = |x[n]| (1.7)
n=n1

2. La potencia promedio en el intervalo ξ = [n1 , n2 ] por:


Eξ 1 ∑n2
2
pξ = = |x[n]|  (1.8)
n2 − n1 + 1 n2 − n1 + 1 n=n
1

Las ecuaciones (1.4)-(1.8) son relaciones muy útiles que nos permiten estimar la cantidad y
la velocidad de suministro de energía, o potencia, que serían necesarios para generar cierto tipo
de señal. Asimismo, con estas expresiones es posible determinar la cantidad de energía cedida
por la señal al sistema cuando ocurre una interacción que desencadena en la extinción de la
señal. Para estas estimaciones resulta más útil calcular la energía y potencia promedio en todo
el rango de la señal, es decir en el intervalo ξ = (−∞, ∞).

Denición 1.7. La energía en el innito para una señal continua y discreta,


respectivamente, es denida por:

∫ T
2
E∞ = lı́m |x(t)| dt (1.9)
T →∞ −T


N
2
E∞ = lı́m |x[n]| (1.10)
N →∞
n=−N
12 1.1. SEÑALES Y PROCESOS FÍSICOS

Denición 1.8. La potencia promedio en el innito para una señal continua y


discreta, respectivamente, es denida por:

∫ T
1 2
P∞ = lı́m |x(t)| dt (1.11)
T →∞ 2T −T

1 ∑
N
2
P∞ = lı́m |x[n]| (1.12)
N →∞ 2N + 1
n=−N

1.1.3. Señales de Energía y Señales de Potencia


Existen tres tipos de señales según su clasicación en términos de energía y potencia pro-
medio en el innito (ecuaciones 1.9-1.12).

I) Señales de Energía
Si E∞ < ∞ se dice que la señal es de energía. Este hecho implica obligatoriamente que
P∞ = 0, ya que P∞ = lı́mT →∞ E2T∞ = 0, y desde el punto de vista físico indica que:
a) La disipación promedio de potencia del sistema para generar la señal es mínima.
b) La energía de la señal está concentrada en su mayoría en un intervalo de tiempo; tal es el
caso de una onda explosiva como la mostrada en la Figura 1.7; en esta señal E∞ = 1 y P∞ = 0.

x(t)
1

0 1 t

Figura 1.7: Ejemplo de señal de energía

II) Señales de Potencia


Se dice que una señal es de potencia si P∞ < ∞. Esto implica que E∞ = ∞ , lo cual indica
que es necesario suministrar una energía innita para poder generar la señal. Tal es el caso
de una batería de DC (x(t) = V0 ) en la cual la energía necesaria para poder mantener un
suministro de potencia constante sería innita; como esto es imposible en la naturaleza, este
tipo de señal no puede sobrevivir por siempre. Otro tipo de señales que siempre son de potencia,
sin importar su forma, son las señales periódicas.
Para las señales periódicas se puede vericar fácilmente que la potencia en el innito, P∞ ,
es igual a la potencia promedio en un período, Pperiodo , P∞ = Pperiodo , donde Pperiodo está
∫ 2
T T |x(t)| dt (Ver Ejemplo 1.2).
1
dada por Pperiodo =

III) Señales de Potencia y Energía Innitas


Una señal tiene potencia y energía innitas cuando E∞ = ∞ y P∞ = ∞. Por ejemplo, una
señal con esta propiedad es la señal denida por x(t) = t. Aunque estas señales son posibles desde
el punto de vista matemático, son imposibles de existir en la naturaleza ya que demandarían
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 13

un consumo innito de energía. Por consiguiente, las únicas señales que existen en la naturaleza
son las señales de energía y potencia.
A continuación se ilustrarán algunos ejemplos de señales de energía y potencia, y se mostra-
rá cómo estas deniciones ayudan a predecir el desempeño de un sistema sin entrar en detalles
técnicos del sistema como tal.

Ejemplo 1.2. Para una señal senoidal



x(t) = sen(ω0 t), ω0 =
T0 , calcule la
energía y potencia promedio en un período de la señal y en el innito.
Solución. La energía en el período se obtiene mediante (1.5) a través de:

∫ T0 ∫ T0
1 + cos(2ω0 t) 1 1 T0
ET0 = sen2 (ω0 t)dt = dt = t |T0 0 + sen(2ω0 t) |T0 0 = ,
0 0 2 2 4ω0 2

la potencia promedio se encuentra según (1.6) y sería:

ET0 1
PT0 = =
T0 2
y para el caso de la potencia y energía en el innito usamos (1.9) y (1.11) para
obtener:

∫ T
1 1
P∞ = lı́m sen2 (ω0 t)dt =
T →∞ 2T −T 2
E∞ = ∞,
por lo tanto, la señal senoidal es una señal de potencia. Además, una relación impor-
para las señales periódicas es el hecho que la potencia
tante que se encuentra
promedio en un período es igual a la potencia promedio en el innito . 
Ejemplo 1.3. En un sistema de transmisión por amplitud modulada con por-
tadora (radio AM convencional), la señal del modulador está dada por u(t) =
c(t) + m(t)c(t), donde m(t) es la señal mensaje y c(t) es la portadora. Estime la
cantidad de potencia que disipa la antena para transmitir la señal mensaje y la
señal portadora si m(t) = βsen(ωm t), 0 ≤ β ≤ 1, y c(t) = Ac cos(ωc t).
Solución.La señal AM la podemos reescribir utilizando la identidad trigono-
A+B B−A
métrica sen(A) + sen(B) = 2sen
2 cos 2 , como:

u(t) = Ac (1 + βsen(ωm t))cos(ωc t) = Ac cos(ωc t) + Ac βsen(ωm t)cos(ωc t)

Ac β Ac β
u(t) = Ac cos(ωc t) + sen(ωm t − ωc t) + sen(ωm t + ωc t).
2 2
Así la potencia promedio está dada por:

A2c A2 β 2
Pu = + c .
2 4
14 1.2. TRANSFORMACIONES DE VARIABLE INDEPENDIENTE

Ahora, puesto que Ac está relacionada con la amplitud de la portadora y β


con la de la señal mensaje y está limitada a 0 ≤ β ≤ 1, tenemos que la potencia
promedio disipada por la antena para transmitir la portadora (primer término) es
siempre mayor o igual que la potencia disipada en la transmisión de la señal mensaje
A2 A2 β 2
(segundo término), esto es, c ≥ c
2 4 . En el mejor de los casos, cuando la intensidad
de la señal mensaje es máxima (β = 1), se emplea un máximo del 33 % de toda la
potencia del transmisor para transmitir la señal mensaje y la potencia restante se
utiliza para transmitir la portadora. 

1.2. Transformaciones de Variable Independiente


Hay ciertas operaciones matemáticas que se pueden realizar sobre la variable independiente
y que tienen gran utilidad en la representación de señales y en la descripción de muchas de las
propiedades que se discutirán a lo largo del libro. En esta sección presentaremos las operaciones
de desplazamiento, reexión y escalado.

1.2.1. Desplazamiento
Si x(t) es la señal original, entonces:

x(t − t0 ) corresponde a un atraso de la señal en el tiempo.

x(t + t0 ) corresponde a un adelanto de la señal en el tiempo.

De la misma forma para una señal discreta, x[n − n0 ] y x[n + n0 ] corresponden respectivamente
a un atraso y un adelanto de dicha señal, donde n0 es el tamaño del desplazamiento.

Ejemplo 1.4. Consideremos la señal continua dada por



 1+t −1 ≤ t ≤ 0
x(t) = 1−t 0≤t≤1

0 c.c.
Al desplazar esta señal hacia 3 unidades hacia adelante se obtiene un atraso de
ella, lo cual puede observarse a través de la siguiente expresión analítica:
 
 1 + t − t0 −1 ≤ t − t0 ≤ 0  t−2 2≤t≤3
x(t − t0 ) = 1 − t + t0 0 ≤ t − t0 ≤ 1 = 4−t 3≤t≤4
 
0 c.c. 0 c.c.
y su representación gráca se muestra en la Figura 1.8.

x(t) x(t-3)
1 1

t t
-1 0 1 0 1 2 3 4

Figura 1.8: Ejemplo de desplazamiento de la señal x(t)


CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 15

1.2.2. Reexión
La versión reejada de x(t) se obtiene a partir de x(−t), es decir invirtiendo el signo de la
variable independiente, de modo que grácamente la reexión se da al rededor del eje t = 0.
Esto mismo se aplica para una señal discreta x[n].

Ejemplo 1.5. Consideremos la señal


{
t+1 −1 ≤ t ≤ 2
x(t) =
0 c.c.
su versión reejada será:

{
−t + 1 −1 ≤ −t ≤ 2
x(−t) =
0 c.c.
{
1−t −2 ≤ t ≤ 1
x(−t) = ,
0 c.c.
En la Figura 1.9 se muestra la operación de reexión sobre esta señal.

x(t) x(-t)

3 3

2 2

1 1

t t
-2 -1 0 1 2 -2 -1 0 1 2

Figura 1.9: Ejemplo de reexión de una señal

1.2.3. Escalado
Una señal también se puede comprimir o expandir en el tiempo mediante la transformación
x(kt), llamada transformación de escalado y para la cual:

La señal se comprime si |k| > 1.


La señal se expande si |k| < 1.
Además de la compresión o expansión se obtiene una reexión si k < 0.
Las anteriores relaciones se cumplen también para una señal discreta.

Ejemplo 1.6. La versión expandida por un factor de 2 de la señal:



 t 0≤t≤1
x(t) = 1 1≤t≤3

0 c.c.
será:
16 1.2. TRANSFORMACIONES DE VARIABLE INDEPENDIENTE

  t
( )  t
0≤ t
≤1  2 0≤t≤2
1 2 2
x t = 1 1≤ t
≤3 = 1 2≤t≤6
2  2 
0 c.c 0 c.c.
y en forma gráca se muestra en la Figura 1.10.

x(t) x(t/2)

1 1
t t
−1 0 1 2 3 4 −1 0 1 2 3 4 5 6 7

Figura 1.10: Ejemplo de escalado de una señal

1.2.4. Forma General de las Transformaciones de Variable Indepen-


diente
Las tres transformaciones de la variable independiente mencionadas anteriormente, aplicadas
a una señal x(t), pueden expresarse de forma general por:

x(t) → x( k(t + t0 ) ) (1.13)

donde k está relacionada con las operaciones de reexión y escalado, y t0 con la operación de
desplazamiento.
Cuando el escalamiento y desplazamiento están denotados de esta forma, la transformación
de la señal original debe hacerse aplicando primero el factor de escalamiento k seguido de la
operación de corrimiento t0 . Este mismo orden se debe emplear al aplicar las propiedades de
las transformadas que serán abordadas en los próximos capítulos.

Ejemplo 1.7. Suponga la señal x(t) dada en la Figura 1.11a. Obtener gráca-
mente la forma de la transformación x(2t − 5). ( ( ))
Solución. La transformación x(2t − 5) en la notación de (1.13) es x 2 t − 52 .
Por consiguiente, es necesario hacer una compresión por un factor de 2 (Figura
1.11b) seguido de un desplazamiento hacia la derecha de 5/2 (Figura 1.11c). 

(a) x(2t) (b)


x(t)
1 1

t t
−2 −1 0 1 2 3 4 −1 −1 0 1 1 2
2 2

x(2t−5) (c)
1

t
−1 0 1 2 3 7 4 5
2

Figura 1.11: Ejemplo de transformaciones de escalamiento y desplazamiento a una señal


CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 17

1.3. Señales Periódicas


El tipo más común y útil de señales lo constituyen las señales periódicas.

Denición 1.9. Una señal x(t) : R → R, es periódica si cumple con la siguiente


propiedad:

x(t) = x(t + mT0 ) ∀t ∈ R. (1.14)

Es decir, el valor de la señal para un cierto t = t1 es el mismo para t = t1 + mT0


donde m = 0, ±1, ±2... y T0 se denomina el período fundamental de la señal.

El inverso del período fundamental se denomina frecuencia fundamental f0 =


1
T0 cuya unidad
es el Hertz (Hz). Habitualmente se considera tratar las frecuencias en unidades de radianes por
segundos, en cuyo caso, se denomina frecuencia angular fundamental ω0 y se relaciona con el

período fundamental a través de ω0 = 2πf0 =
T0 .
Según las transformaciones de la variable independiente, podemos establecer otro signicado
para una señal periódica diferente a (1.14), en este caso podemos decir que una señal periódica
puede expresarse como la suma de una señal generatriz xg (t) denida en el intervalo 0 ≤ t ≤ T0
y sus versiones desplazadas mT0 unidades, como se ilustra en la Figura 1.12, esto es:



x(t) = xg (t + mT0 ) (1.15)
m=−∞

xg (t)

0 T0 2 T0 3 T0 4 T0 5 T0 6 T0

+ xg (t−T0 )

0 T0 2 T0 3 T0 4 T0 5 T0 6 T0

+ xg (t−2T0 )

0 T0 2 T0 3 T0 4 T0 5 T0 6 T0

+...=x(t)

0 T0 2 T0 3 T0 4 T0 5 T0 6 T0

T1

Figura 1.12: Representación gráca de la ecuación (1.15)

Hay que hacer la precisión de que la cantidad T0 se denomina período fundamental si


constituye el mínimo valor para el cual la señal generatriz, xg (t), en el intervalo 0 ≤ t ≤ T0 puede
denir completamente la señal periódica x(t). T1 también
En la Figura 1.12 puede verse que
es un período de la señal x(t), sin embargo no es el período fundamental, ya que T1 = 2T0 . En
general, para cualquier señal periódica, 2T0 , 3T0 , 4T0 ,... , kT0 son también períodos de la señal.
18 1.3. SEÑALES PERIÓDICAS

Por otro lado, si para cierta señal no es posible determinar un período fundamental, se dice
que la señal es aperiódica. Además se considera que la señal nivel de DC, x(t) = k, es una
señal periódica con período innito y frecuencia cero, este hecho se demostrará posteriormente
al estudiar la señal exponencial compleja (Sección 1.5.5).
En cuanto a la potencia promedio y energía, toda señal periódica es una señal de potencia,
donde la potencia promedio en el período es idéntica a la potencia promedio en el innito
Pperiodo = P∞ .
Las deniciones dadas en (1.14) y (1.15) muestran que periodos fundamentales negativos
también son periodos de la señal. Es decir, la señal x(t) puede tener un periodo fundamental
T0 y simultáneamente un periodo fundamental −T0 . Esto permite identicar la presencia de
frecuencias negativas , las cuales juegan un rol importante en el análisis de frecuencia que se
estudiará en próximos capítulos.

1.3.1. Señales Periódicas Discretas


Aunque una señal periódica discreta cumple las propiedades (1.14) y (1.15) y su signicado
es idéntico al discutido en la sección anterior para una señal continua, hay diferencias notables
en cuanto al rango de valores posibles del período y frecuencia. Para establecer estas diferencias,
denamos (1.14) para el caso de una señal discreta a través de:

x[n] = x[n + kN0 ] ∀n, k ∈ Z (1.16)

Hay que recodar que el argumento de una señal discreta debe ser siempre un número entero,
esto implica que el período fundamental N0 también es un número entero. Ahora, puesto que
las señales discretas se obtienen a partir del muestreo de una señal continua como en la ecuación
(1.1) (x[n] = x(nTs )), tenemos dos diferencias para las señales periódicas continuas y discretas:

1. Para una señal continua el período fundamental puede tomar cualquier valor continuo, es
decir, −∞ < T0 < ∞. En cambio para una señal discreta, el período equivalente en tiempo
continuo debe ser un múltiplo entero del período de muestreo Ts , esto es, T0 = N0 Ts , o en
forma equivalente, la frecuencia de la señal discreta toma solamente un conjunto de valores
1
discretos ω =
N0 ωs , donde ωs es la frecuencia de muestreo en radianes por segundo.

2. En tiempo continuo, el aumento de la frecuencia angular trae consigo un incremento en


la velocidad de oscilación de la señal, es decir la frecuencia de una señal periódica puede
tomar cualquier valor real −∞ < ω < ∞, a diferencia con el tiempo discreto, existe un
límite para la frecuencia máxima de la señal. Para demostrarlo, recordemos que a mayor
frecuencia el período es menor. En tiempo discreto tenemos como alternativa dos períodos
mínimos N0 = 1 y N0 = 2:

a) Una señal discreta con período N0 = 1 implica que x[n] = k ∀n, es decir, se tratará
de un nivel de DC cuya frecuencia, ω = 0, sería la mínima frecuencia en tiempo
discreto, y el período equivalente sería el mismo período de muestreo, T0 = Ts ; en
otras palabras, la frecuencia mínima de una señal periódica discreta es cero o un
múltiplo de la frecuencia de muestreo: ω = 0, ±ωs , ±2ωs , ... Ver Figura 1.13(a).

b) Si la señal discreta tiene período N0 = 2 como en la Figura 1.13(b), su período


equivalente en tiempo continuo sería dos veces el período de muestreo Tmin = 2Ts , y
su frecuencia sería la máxima frecuencia representable en tiempo discreto ωmax = ω2s ,
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 19

así que la frecuencia de una señal periódica discreta toma valores discretos en el rango
− ω2s ≤ ω ≤ ω2s .

x[n] x[n]

0 n 0 n
Ts

(a) N0 =1
(b) N0 =2 T0=2Ts

Figura 1.13: Señales periódicas discretas con período N0 = 1 y N0 = 2.

De la discusión anterior se obtiene una importante relación denominada el teorema del mues-
treo, éste sugiere que para discretizar una señal continua sin perder información, es necesario
emplear una frecuencia de muestreo mayor o igual al doble de la máxima frecuencia presente
en la señal:

fs ≥ 2fmax (1.17)

Para diferenciar las frecuencias en tiempo continuo y tiempo discreto se acostumbra norma-
lizar el rango de frecuencias en tiempo discreto porfs :− 2f
ωs
s
≤ fωs ≤ 2fωs
s
y denotando a
ω
fs = Ω
como la frecuencia en tiempo discreto o frecuencia normalizada
. El rango de frecuencias de la
señal discreta será entonces −π ≤ Ω ≤ π , donde Ω=π corresponde a la mitad de frecuencia de
muestreo, y

f
Ω = 2π . (1.18)
fs
De la discusión anterior surge la pregunta: ¾Qué pasa si muestreamos una señal periódica
continua de cierta frecuencia, f0 , a una frecuencia de muestreo, fs , que no cumpla con el
teorema del muestreo ?. A simple vista, se podría pensar que no se vería señal alguna, sin
embargo, lo que realmente ocurre es que se obtiene una señal discreta que representa la versión
muestreada de una señal continua de más baja frecuencia que la señal f0 . A este fenómeno se
le conoce con el nombre de aliasing cuyo efecto se puede observar mejor en la Figura 1.14. En
dicha gura, una señal de alta frecuencia (línea continua) se muestrea a una frecuencia que
invalida el teorema del muestreo, es decir, fs < 2f0 , dando como resultado la señal discreta
representada por puntos, los cuales a su vez, pueden asociarse al muestreo de una señal continua
de menor frecuencia (línea punteada).

Figura 1.14: Fenómeno de aliasing


20 1.4. SEÑALES PARES E IMPARES

En presencia de aliasing, la frecuencia de la nueva señal se puede determinar a partir de


la frecuencia normalizada, ya que Ω posee unidades de ángulos y como tales tienen asociada
implícitamente una periodicidad. Por ejemplo, supongamos que la señal a muestrear tiene una
f0 = 8kHz y la muestreamos a fs = 10kHz , de esta forma no se cumple el teorema del muestreo
ya que f0 > fs /2. La señal discreta resultante tendrá asociada una frecuencia normalizada Ω =
8kHz
2π 10kHz = 1,6π , pero como Ω solamente puede tomar un valor máximo de π (o equivalentemente
fs /2), y debido a que Ω = 1,6π = −0,4π (Figura 1.15a), la señal discreta representa la versión
muestreada de una señal continua con frecuencia f =
fs
2π Ω =
10kHz
2π × 0,4π = 2kHz .
Una forma alternativa de identicar la frecuencia de la señal resultante sin determinar
la frecuencia normalizada es considerar el hecho que todas las señales cuya frecuencia es un
múltiplo entero de la frecuencia de muestreo dan como resultado una frecuencia normalizada
igual a cero, es decir, todas las señales con frecuencia 0, fs , 2fs , 3fs , ... corresponden a un nivel
de DC y la máxima frecuencia observable es fs /2, luego como f0 = 8kHz está por encima de
fs /2 = 5kHz , la frecuencia de la señal muestreada será de fs − f0 = 2kHz . Una representación
gráca de este cálculo se presenta en la Figura 1.15b.

π/2 2.5kHz
(a) (b)

(+) (+)
π,−π 0,2π 5kHz,−5kHz 0,10kHz
(−) 1.6π (−)
8kHz
−0.4π −2kHz
−π/2 −7.5kHz

Figura 1.15: Representación gráca para analizar el efecto del aliasing. Note que todas las
frecuencias del semicírculo superior son las frecuencias positivas y las del semicírculo inferior
las frecuencias negativas.

1.3.2. Señales Armónicas


Denición 1.10. Se denomina el k-ésimo armónico de una señal periódica x(t),
a la señal periódica xk (t) idéntica a la señal original pero con frecuencia angular
ωk = kω0 , k ∈ Z, es decir, un múltiplo entero de la frecuencia fundamental.

Los armónicos de una señal serán entonces siempre señales con una frecuencia mayor a la de
la señal original. Su principal utilidad está en la síntesis de señales. Como se verá en el siguiente
capítulo al estudiar la serie de Fourier.

1.4. Señales Pares e Impares

Denición 1.11. Una señal x(t) : R → R es par cuando x(−t) = x(t) ∀t ∈ R.

Denición 1.12. Una señal x(t) : R → R es impar cuando x(−t) = −x(t) ∀t ∈


R, esto implica que x(0) = 0.
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 21

Un ejemplo de una señal par es la función coseno y de una señal impar es la función seno.

Teorema 1. Una señal cualquiera x(t) puede expresarse como la suma de una
señal par y una señal impar en la forma:

x(t) = Par {x(t)} + Impar {x(t)} (1.19)

donde:

1
Par {x(t)} = [x(t) + x(−t)] (1.20)
2
e

1
Impar {x(t)} = [x(t) − x(−t)] . (1.21)
2
Ejemplo 1.8. Determine en forma analítica y gráca las componentes par e
impar de la señal:
{
t+1 −1 ≤ t ≤ 3
x(t) =
0 c.c.

Impar{x(t)}

2
Par{x(t)} x(t)
2
1
2 x(-t)
2

1
-5 -4 -3 -2 -1 0 1 2 3 4 5 t

x(t)
-5 -4 -3 -2 -1 0 1 2 3 4 5 t 2
-x(-t)
2
(a)
(b)

Figura 1.16: Componentes par (a) e impar (b) del ejemplo.

Solución: {
−t + 1 −3 ≤ t ≤ 1
x(−t) =
0 c.c.
 1

 −t −3 ≤ t ≤ −1
 2 2
1 −1 ≤ t ≤ 1
Par {x(t)} =


1
+ t
1≤t≤3
 2 2
0 c.c.
 t
 2−

1
−3 ≤ t ≤ −1
 2
t −1 ≤ t ≤ 1
Impar {x(t)} =
 2

t
+ 1
1≤t≤3
 2
0 c.c.
22 1.5. SEÑALES ELEMENTALES

En la Figura 1.16 se muestra las componentes par de x(t) e impar de x(t),


respectivamente.

1.5. Señales Elementales


Existen varias señales llamadas elementales que son muy importantes por su aplicabilidad
y porque sirven de base para representar otras señales. Algunas de ellas se describen a conti-
nuación:

1.5.1. Señal Escalón Unitario


La señal escalón unitario en tiempo continuo se dene como:

{
1 t≥0
u(t) = (1.22)
0 t<0
y su representación gráca, tanto en tiempo continuo como tiempo discreto, se muestra en la
Figura 1.17.

u(t) u[n]
1 1

0 0
t n
(a) (b)

Figura 1.17: Señal escalón unitario: (a) tiempo continuo, (b) tiempo discreto.

1.5.2. Señal Impulso Unitario


Una de las señales continuas más simple es el impulso unitario o la función delta Dirac.
Para comenzar estableceremos la relación que existe entre el escalón unitario continuo con el
impulso unitario, dada por

∫ t
u(t) = δ(τ )dτ. (1.23)
−∞

A partir de la ecuación (1.23) vemos que el impulso unitario puede obtenerse de la primera
derivada del escalón unitario continuo en la forma

du(t)
δ(t) = . (1.24)
dt
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 23

u∆ (t)
1

0 ∆ t

Figura 1.18: Aproximación continua al escalón unitario u∆ (t)

La ecuación (1.24) presenta cierta dicultad formal como representación de la función im-
pulso unitario ya que u(t) es discontinua en t = 0 y consecuentemente, no es diferenciable.
Sin embargo, dicha ecuación se puede interpretar considerando una aproximación del escalón
unitario u∆ (t), con ∆ muy pequeña, como se muestra en la Figura 1.18.
El escalón unitario cambia de valor instantáneamente, es decir, si t ≈ 0 =⇒ u(t) = 0 y si
t = 0 =⇒ u(t) = 1. Así, se puede considerar u(t) como una idealización de u∆ (t) con ∆ ≪ ya
que su duración no es signicativa para efectos prácticos, pues u∆ (t) también cambia de valor
muy rápidamente si ∆ ≪, esto es, u∆ (t) se eleva de 0 a 1 en un corto intervalo de tiempo.
De manera formal:

u(t) = lı́m u∆ (t).


∆−→0

Consideremos ahora la señal δ∆ (t) cuya representación gráca se muestra en la Figura 1.19
que corresponde a las expresiones:

δ∆ (t) = dudt
∆ (t)

{ 1
∆ 0≤t≤∆
δ∆ (t) =
0 c.c.

δ∆(t)
1/∆

0 ∆ t

Figura 1.19: Derivada de u∆ (t)

El área bajo δ∆ es 1 para todo ∆, luego se puede denir la función δ como el siguiente límite,

δ(t) = lı́m δ∆ (t).


∆−→0

Se tiene entonces en la Figura 1.20 la representación gráca de la señal δ(t) denida ante-
riormente. Note que bajo este supuesto, la señal impulso tiene un área unitaria, un ancho cero
y una altura innita.
Presentamos a continuación algunas propiedades de la función δ(t):
24 1.5. SEÑALES ELEMENTALES

δ (t)

0
t

Figura 1.20: Señal impulso unitario en tiempo continuo

∫∞
1. δ(t) tiene área 1, esto es,
−∞
δ(t)dt = 1

2. kδ(t) tiene área k.

3. Para todo a ̸= 0, δ(at) = 1


|a| δ(t).

4. δ(t) es una función par, esto es, δ(−t) = δ(t).

5. Si x(t) es una función continua en t = t0 , entonces

∫ ∞
x(t)δ(t − t0 )dt = x(t0 ) (1.25)
−∞

Esta expresión se conoce con el nombre de propiedad de extracción de la delta de Dirac.

Según la primera propiedad, es común encontrar en algunos libros la siguiente denición para
la señal impulso unitario δ(t):
{
1 t=0
δ(t) = (1.26)
̸ 0
0 t=
cuya representación gráca se muestra en la Figura 1.21. Sin embargo, esta denición no es
matemáticamente correcta como se discutirá más adelante. Para el caso del tiempo discreto
esta es la única denición válida de la señal delta de Dirac, ya que solamente de esta forma se
garantiza que la sumatoria de todos los componentes (área) de la delta de tiempo discreto sea
igual a 1.

δ (t) δ [n]
1 1

0 0
t n
(a) (b)

Figura 1.21: Señal impulso unitario: (a) tiempo continuo, (b) tiempo discreto

La quinta propiedad signica que para obtener el valor de la señal x(t) en el instante t = t0 ,
basta integrar el producto de dicha señal por la función delta de Dirac desplazada hasta t = t0 .
Esta propiedad indica que la señal impulso, más que una función, se debe considerar como una
distribución de probabilidad, de allí que la denición (1.26) no sea matemáticamente correcta
en tiempo continuo y sea únicamente una descripción fenomenológica del efecto de la delta de
Dirac aplicada sobre una función x(t).
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 25

La principal utilidad de esta propiedad está en la descripción del muestreo de una señal
continua, en este caso, la versión discreta x[n] de la señal continua x(t), se obtiene utilizando
la función delta mediante la expresión

∫ ∞
x[n] = x(t)δ(t − nTs )dt (1.27)
−∞

esto es, tomando muestras de x(t) en los instantes de tiempo nTs . Lo anterior signica que una
señal muestreada puede expresarse como la suma de varias funciones delta de Dirac ponderadas
por la amplitud de la señal continua evaluada en t = nTs (Figura 1.22). De forma similar, la
versión continua de una señal muestreada se obtiene a partir de:


∑ ∞

xs (t) = x[n]δ(t − nTs ) = x(nTs )δ(t − nTs ). (1.28)
n=−∞ n=−∞

xs (t)

Figura 1.22: Representación continua de una señal muestreada

Es interesante apreciar, que si en la expresión hacemos Ts innitesimalmente pequeño, po-


demos observar que una señal continua se puede expresar como la suma continua de innitas
señales impulso:
∫ ∞
x(t) = x(λ)δ(t − λ)dλ (1.29)
−∞

Ahora, si en lugar de emplear la función impulso unitario en tiempo continuo usamos la


función impulso unitario en tiempo discreto, tenemos que:



x[n] = x[k]δ[n − k] (1.30)
k=−∞

Estas expresiones serán útiles posteriormente en la demostración de la sumatoria de convo-


lución y en la determinación del espectro de una señal discreta.

Relación entre las señales impulso unitario y escalón unitario


En tiempo continuo podemos obtener la función escalón unitario a través de la integral de
la función impulso unitario, es decir:

∫ t
u(t) = δ(τ )dτ (1.31)
−∞

y para obtener la función impulso unitario a partir del escalón unitario, basta con derivar u(t)
en la forma:
26 1.5. SEÑALES ELEMENTALES

du(t)
δ(t) = . (1.32)
dt
En el caso de tiempo discreto estas relaciones equivalen a:


n
u[n] = δ[m] (1.33)
m=−∞

δ[n] = u[n] − u[n − 1]. (1.34)

En la Figura 1.23 se muestran en forma gráca la última relación.

u[n]
1
δ [n] = u[n]-u[n-1]
1
0
n
- u[n-1]
=
0
n
1

0
n

Figura 1.23: Relación entre el impulso unitario y el escalón unitario en tiempo discreto

1.5.3. Señal Rampa


La señal rampa está dada por la forma:
{
t t≥0
r(t) = (1.35)
0 t<0

y grácamente corresponde a la Figura 1.24. Esta señal se obtiene integrando la función escalón
unitario a través de:

∫ t
r(t) = u(τ )dτ
−∞

y equivalentemente en tiempo discreto por medio de:


n
r[n] = u[τ ].
τ =−∞
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 27

r(t)
r[n]

0 t 0
n
(a) (b)

Figura 1.24: Señal rampa: (a) tiempo continuo, (b) tiempo discreto

1.5.4. Señal Pulso Rectangular


La señal pulso rectangular se dene mediante la expresión:
{
1 |t| ≤ 1
2
rect(t) = (1.36)
0 |t| > 1
2

y grácamente corresponde a la Figura 1.25.

rect(t)

1 0 1 t
-
2 2

Figura 1.25: Señal pulso rectangular

La señal pulso rectangular se puede obtener a partir de la señal escalón unitario mediante:

( ) ( )
1 1
rect(t) = u t + −u t− (1.37)
2 2

Ejemplo 1.9. Una señal periódica cuadrada (Figura 1.26a) pasa a través de un
circuito derivador. Determine la forma de la señal de salida.
Solución. De acuerdo a (1.15), se puede obtener una representación de la señal
periódica cuadrada a partir de la señal rectangular:


∑ ( )
t − nT
x(t) = rect
n=−∞
τ

donde τ representa el factor de escalamiento para obtener el ancho deseado de la


señal cuadrada y T es el período de la señal. Dado que la derivación es una operación
lineal, la derivada de x(t) es también una señal periódica de la forma:

( ∞ ( )) ∞ ( )
d ∑ t − nT ∑ d t − nT
ẋ(t) = rect = rect .
dt n=−∞
τ n=−∞
dt τ
28 1.5. SEÑALES ELEMENTALES

Ahora, dado que la función rectangular es la suma de dos escalones (1.37) y la


derivada de un escalón es la función delta, tenemos nalmente que:

∑∞ ( ) ( )
1 t − nT 1 1 t − nT 1
ẋ(t) = δ + − δ −
n=−∞
τ τ 2 τ τ 2

∑ ( τ) ( τ)
= δ t − nT + − δ t − nT − ,
n=−∞
2 2

cuya forma se presenta en la Figura 1.26b.


Problema: Obtenga la derivada de una señal periódica diente de sierra.
x(t)

(a)

−T −τ/2 0 τ/2 T 2T t

x(t)

(b)
τ/2
−T −τ/2 0 T 2T t

Figura 1.26: Señal periódica cuadrada (a) y su derivada (b)

1.5.5. Señal Exponencial


Denición 1.13. La señal continua exponencial compleja x : R → C, es denida
por x(t) = ceat , donde a, c ∈ C.

Dependiendo de los valores de c y a, podemos tener los dos casos siguientes para la señal
continua exponencial compleja: señal exponencial real y señal periódica exponencial compleja
y senoidal.

Señal exponencial real


Si a∈R y c ∈ R, entonces la señal x(t) es real y tiene tres tipos de comportamiento:

1. Si a > 0, entonces x(t) es creciente. Figura 1.27a.

2. Si a < 0, entonces x(t) es decreciente. Figura 1.27b.

3. Si a = 0, entonces x(t) es constante, luego se trata de una señal que describe la salida de
una batería o nivel de DC. Figura 1.27c.
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 29

x(t) x(t) x(t)


c

t t t
(a) (b) (c)

Figura 1.27: Señal exponencial real para (a) a > 0, (b) a<0 y (c) a = 0.

Señal periódica exponencial compleja y senoidal


at
Si en la señal x(t) = ce , tenemos c ∈ R y a un imaginario puro, esto es, a = jω0 , entonces
jω0 t
x(t) = ce o de otra forma x(t) = c cos ω0 t + j c sin ω0 t.

Proposición: Considere la señal x(t) = cejω 0t


,

1. Si ω0 = 0, entonces x(t) es periódica con cualquier período T0 > 0.


2. Si ω0 ̸= 0, entonces x(t) es periódica con período fundamental T0 = 2π
|ω0 | .

Demostración : Debemos probar que la señal x(t) satisface la igualdad x(t+T0 ) =


x(t), para algún T0 > 0, ω0 = 0 en-
es decir, es periódica. Primero observe que si
tonces x(t) = c, es periódica para todo t, x(t) = c,
esto signica que el nivel de DC,
se trata de una señal periódica con frecuencia ω0 = 0 y período T0 = ∞. Si por
el contrario ω0 ̸= 0, y como x(t + T0 ) = ce 0 e 0 0 , para que x(t) sea periódica
jω t jω T
jω0 T0
debemos tener e = 1, esto es, cos ω0 T0 + j sin ω0 T0 = 1, lo cual es cierto si

T0 = |ω 0|
.

Proposición: Las señales x(t) = ejω 0t


y x∗ (t) = e−jω0 t son periódicas con el mismo período
fundamental.
Lo anterior muestra la existencia de frecuencias negativas , y su efecto en la práctica es
equivalente al de una señal real con frecuencia positiva. El entendimiento de las frecuencias
negativas será más claro cuando se aborde el análisis espectral en el siguiente capítulo.
Una señal que está relacionada con la exponencial compleja es la senoidal denida por:
x(t) = A cos(ω0 t + ϕ), donde ω0 representa la frecuencia fundamental, dada en radianes por
segundo, y ϕ representa la fase de la señal (Figura 1.28). Algunas veces se escribe ω0 = 2πf0 ,
donde f0 representa la frecuencia en ciclos por segundo. Dado que la señal senoidal se deriva de
una señal exponencial compleja, la señal senoidal es también una señal periódica con periodo

T0 = |ω 0|
.

x(t)
T0 = 2 π
A ω0
Acos φ
t

Figura 1.28: Señal senoidal


30 1.6. SISTEMAS

1.5.6. Señal Sinc


Aunque este tipo de señal no se podría denominar completamente elemental, si se encuentra
muy a menudo en el análisis de señales y sistemas. Se dene mediante:

{
sin(πt)/πt t ̸= 0
sinc(t) = (1.38)
1 t=0
En la Figura 1.29 puede observarse que esta señal tiene un valor máximo de 1 en t = 0 y
decrece rápidamente conforme |t| → ∞. Asimismo, la señal exhibe ceros en t = ±1, ±2, ±3, ...
en t = ± , ± , ....
3 5
y los extremos locales están
2 2

sinc(t)

-4 -3 -2 -1 0 1 2 3 4

Figura 1.29: Señal sinc

1.6. Sistemas
Un sistema es un proceso o mecanismo que transforma señales de entrada en otras señales
de salida. A continuación se listan algunos ejemplos de sistemas:

1. Un carrito de juguete: es un sistema cuya entrada es una señal eléctrica de control y cuya
salida es un determinado movimiento o una acción realizada por el carrito.

2. Un televisor: es un sistema electrónico cuya entrada es una señal electromagnética y cuya


salida es una señal de vídeo que aparece en la pantalla.

3. Un ltro: es un sistema cuya entrada es una señal distorsionada por ruido o interferencias
y cuya salida es la señal ltrada, es decir, la señal original.

Grácamente un sistema se representa por medio de un bloque que toma la señal de entrada y
le aplica un operador para obtener la señal de salida (Figura 1.30).

x(t) T{ } y(t)

Figura 1.30: Representación gráca de un sistema

La representación matemática de un sistema es:

y(t) = T {x(t)} (1.39)

donde x(t) es la entrada, y(t) es la salida y T es la operación realizada por el sistema. Este tipo
de notación se conoce con el nombre de relación entrada-salida del sistema.
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 31

1.7. Clasicación de los Sistemas


De acuerdo a sus propiedades, los sistemas se pueden clasicar como: lineal o no lineal,
variante o invariante con el tiempo, con o sin memoria, causal o no causal, estable o inestable
y determinístico o no determinístico.

1.7.1. Sistemas Lineales o no Lineales


Un sistema T {x(t)} es lineal sí y solo sí para dos señales de entrada x1 (t), x2 (t) y escalares
α, β arbitrarios se satisfacen las dos propiedades siguientes:

1. Aditividad. T {x1 (t) + x2 (t)} = T {x1 (t)} + T {x2 (t)}


2. Homogeneidad. T {αx1 (t)} = αT {x1 (t)}
combinadas en una sola propiedad, un sistema T es lineal si

T {αx1 (t) + βx2 (t)} = αT {x1 (t)} + βT {x2 (t)} .

Un sistema es no lineal si la relación anterior no se cumple para algún conjunto x1 (t), x2 (t),
α y β.

Sistemas lineales típicos son la derivación y la integración, es decir, si el operador T {} que


modica x(t) es lineal, el sistema será lineal.

Ejemplo 1.10. Considere el divisor de tensión que aparece en la Figura 1.31,


con R1 = R2 , la salida y(t) es
y(t) = T {x(t)} = R1R+R2
2
x(t) = 12 x(t). Para cualquier entrada x(t) y salida y(t)
este es un sistema lineal.

R1

x(t) y(t) R2

Figura 1.31: Circuito eléctrico lineal

Para probar que la relación es lineal considere la señal de entrada x(t) = αx1 (t)+
βx2 (t), luego

T {αx1 (t) + βx2 (t)} ; αT {x1 (t)} + βT {x2 (t)}


{ } { }
1 1 1
{αx1 (t) + βx2 (t)} ; α x1 (t) + β x2 (t)
2 2 2
1 1 1 1
αx1 (t) + βx2 (t) ; = αx1 (t) + βx2 (t)
2 2 2 2
32 1.7. CLASIFICACIÓN DE LOS SISTEMAS

Como el término de la derecha es idéntico al de la izquierda, se comprueba la


propiedad lineal.
Por otra parte, si R1 dependiera de R2 en la forma R1 = R2 x(t), el sistema sería
no lineal. En este caso la expresión para la señal de salida en función de la entrada
tendría la forma

x(t)
T {x(t)} = R2
R2 x(t)+R2 x(t) = x(t)+1 .

Para probar si este sistema es lineal, usaremos de nuevo la señal de entrada


x(t) = αx1 (t) + βx2 (t), lo que nos conduce a la siguiente salida:

T {αx1 (t) + βx2 (t)} ; αT {x1 (t)} + βT {x2 (t)}

αx1 (t) + βx2 (t) x1 (t) x2 (t)


; α +β
αx1 (t) + βx2 (t) + 1 x1 (t) + 1 x2 (t) + 1
luego el sistema no es lineal, pues la salida real del sistema (término de la izquierda)
es diferente al que se obtendría aplicando la propiedad de linealidad (término de la
derecha).

Ejemplo 1.11. Considere el sistema y(t) = 1 + 3x(t). Se puede vericar fá-


cilmente que este sistema, en apariencia lineal, no lo es. Para ello introducimos al
sistema la señal x(t) = αx1 (t) + βx2 (t), lo que nos conduce a:

T {αx1 (t) + βx2 (t)} ; αT {x1 (t)} + βT {x2 (t)}

1 + 3 {αx1 (t) + βx2 (t)} ; α {1 + 3x1 (t)} + β {1 + 3x2 (t)}

1 + 3αx1 (t) + 3βx2 (t) ̸= α + β + 3αx1 (t) + 3βx2 (t)


De esta forma los sistemas lineales deben cumplir la regla ante entrada cero
salida cero, una condición necesaria pero no suciente.

1.7.2. Sistemas Invariantes en el Tiempo


Un sistema es invariante en el tiempo sí y solo sí para todo x(t) y todo valor t0 , su respuesta
ante x(t − t0 ) es y(t − t0 ) donde y(t) = T {x(t)} es la respuesta del sistema a x(t), es decir, un
desplazamiento temporal de la señal de entrada causa un desplazamiento temporal idéntico de
la señal de salida.

Para comprobar si un sistema es invariante en el tiempo verique los siguientes pasos:

1. Considere y1 (t) = T {x1 (t)} la salida correspondiente a x1 (t).

2. Para la entrada x2 (t) = x1 (t − t0 ) encuentre la salida correspondiente y2 (t) = T {x2 (t)} ,


donde y2 es la salida real del sistema.
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 33

3. Obtenga la señal y3 (t) = y1 (t − t0 ) a partir de y1 (t), haciendo el cambio de variable


t → t − t0 y compárela con y2 (t), donde y3 es la salida esperada del sistema sí el sistema
es invariante en el tiempo.

4. Si y2 (t) = y3 (t) entonces el sistema es invariante con el tiempo.

Ejemplo 1.12. Vericar si T {x(t)} = cos(x(t)) es invariante con el tiempo.

1. y1 (t) = T {x1 (t)} = cos(x1 (t)) es la salida para x1 (t).


2. Para la entrada x2 (t) = x1 (t−t0 ) la salida es y2 (t) = T {x2 (t)} = cos(x1 (t−t0 )).

3. y3 (t) = y1 (t − t0 ) = cos(x1 (t − t0 )).


4. Como y2 (t) y y3 (t) corresponden a la misma salida entonces el sistema es
invariante con el tiempo.

La Figura 1.32 ilustra grácamente esta propiedad. En la Figura 1.32b se muestra


la señal de salida ante la entrada mostrada en la Figura 1.32a. Nótese para la señal
de salida cuando la entrada está desplazada t0 unidades en el tiempo (Figura 1.32c)
es la misma señal de la Figura 1.32b desplazada la misma proporción de tiempo t0
(Figura 1.32d).

x(t) x(t−t0 )
(a) 2π (c) 2π

t t
t0
y(t) y(t−t0 )
(b) 1 (d) 1

t t
t0
−1 −1

Figura 1.32: Ejemplo de un sistema invariante en el tiempo

Ejemplo 1.13. Considere un sistema modulador de AM dado por la relación


y(t) = x(t)cos(ωm t), donde ωm se corresponde a la frecuencia de la portadora. Este
sistema es lineal:

T {αx1 (t) + βx2 (t)} ; αT {x1 (t)} + βT {x2 (t)}

{αx1 (t) + βx2 (t)} cos(ωm t) ; αx1 (t)cos(ωm t) + βx2 (t)cos(ωm t)


más no invariante con el tiempo:
y1 (t) = x1 (t) cos(ωm t),
si x2 (t) = x1 (t − t0 ), y2 (t) = T {x2 (t)} = x1 (t − t0 ) cos(ωm t)
y y3 (t) = y1 (t − t0 ) = x1 (t − t0 ) cos(ωm (t − t0 )) ̸= y2 (t). 

En general, un sistema es variante con el tiempo cuando en la relación de entrada/salida,


la señal x(t) está multiplicada por una función dependiente del tiempo, así por ejemplo,
√ y(t) =
tx(t) es un tipo de sistema variante con el tiempo, pero y(t) = x(t) es invariante.
Los sistemas lineales e invariantes en el tiempo son llamados sistemas L.T.I. (Linear Time-
Invariant Systems ), y son los tipos de sistemas más comúnmente usados.
34 1.7. CLASIFICACIÓN DE LOS SISTEMAS

1.7.3. Sistemas Con y Sin Memoria


Un sistema es sin memoria o instantáneo si el valor de la salida en el instante t0 depende
solamente del valor de la entrada en el mismo instante t0 , y no de valores pasados o futuros de
la señal en el tiempo. Es decir y(t0 ) = T {x(t0 )} .

Ejemplo 1.14. Una resistencia es un sistema sin memoria pues si la entrada


x(t) es la corriente que circula por la resistencia y la salida y(t) es la tensión entre
los extremos de la resistencia, la relación entrada/salida es y(t) = Rx(t) siendo R
el valor de la resistencia. Note que el valor de y(t) depende solamente de x(t).

Ejemplo 1.15. Un condensador es un sistema con memoria, ya que si la señal


de entrada es la corriente que circula por el condensador y la salida es la tensión
entre sus extremos, la relación estrada/salida para este caso es
∫t
v(t) = C1 −∞ i(τ )dτ
donde C es el valor de la capacitancia.

Ejemplo 1.16. Un canal de comunicaciones inalámbrico en el que existen múlti-


ples caminos de la señal transmitida por efecto de reexiones múltiples, se relaciona
generalmente con su entrada x(t) de la siguiente forma:
y(t) = a0 x(t) + a1 x(t − T1 ) + a2 x(t − T2 ) + ... + ap x(t − Tp )
indicando que y(t) no depende únicamente de la entrada en el instante actual t sino
también de su pasado hasta en p etapas anteriores, por lo tanto este es un sistema
lineal, con memoria nita e invariante en el tiempo.

1.7.4. Sistemas Causales


Un sistema es causal si su salida en cualquier instante t0 depende de la entrada de x(t) en
el mismo instante t0 (presente) y/o en instantes anteriores (pasado), esto es

y(t) = T {x(t) : t ≤ t0 } .

Puesto que y(t) depende solo del presente y pasado de x(t), los sistemas causales se deno-
minan también sistemas físicamente realizables.

Ejemplo 1.17. Según la caracterización anterior, el condensador es un sistema


lineal, con memoria innita, e invariante en el tiempo, pero también es un sistema
causal, puesto que el valor de su carga almacenada depende de los valores anteriores
de la corriente suministrada al mismo, más no de valores futuros de la carga de
entrada.

En el práctica no existe en la naturaleza sistemas continuos no causales, sin embargo, en


tiempo discreto si es posible implementarlos. Tal es el caso de un promediador en tiempo
discreto, en el cual el valor de la señal de salida en un instante dado depende del promedio de
las muestras adyacentes:

1 ∑
N
y[n] = x[n + k]
2N + 1
k=−N
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 35

y es factible implementarlo debido a que la señal de entrada puede ser un vector de datos
previamente almacenado, por ejemplo, puede corresponder a un archivo de audio grabado pre-
viamente.

1.7.5. Sistemas Estables e Inestables


Un sistema T {x(t)} es estable cuando ante una entrada acotada se obtiene una salida tam-
bién acotada, es decir,

Si |x(t)| ≤ k ⇒ |y(t)| ≤ k ′ .
Si la implicación anterior no se cumple se dice que el sistema es inestable. Este tipo de crite-
rio de estabilidad se conoce con el nombre de BIBO por sus siglas en inglés ( Bounded-input
bounded-output : Entrada acotada salida acotada).

Ejemplo 1.18. El sistema y[n] = 2y[n − 1] + x[n] es un sistema inestable, puesto


que si la entrada x[n] = u[n] (entrada acotada), la salida y[n] crece sin límite cuando
n > 0, ya que la nueva salida y[n] es el doble de la salida anterior y[n − 1] más uno.

1.7.6. Sistemas Determinísticos y no Determinísticos


Un sistema es determinístico cuando conociendo la señal de entrada se puede determinar en
forma exacta la señal de salida en cada instante de tiempo, y es no determinístico cuando su
salida tiene incorporada una componente aleatoria que no permite establecer con exactitud el
valor su amplitud de en un instante de tiempo dado. A pesar de esta aleatoriedad, en los sistemas
no determinísticos es posible predecir resultados promedios, aspectos que serán analizados con
mayor detalle en el Capítulo 4.

1.8. Ecuaciones Diferenciales y en Diferencias


Cualquier sistema físico en tiempo continuo se modela a través de una ecuación diferencial
(E.D.). Considere por ejemplo el circuito RC mostrado en la Figura 1.33a. Por ley de voltajes
de Kirchho:

∫ t
1
v(t) = vR (t) + vC (t) = Ri(t) + i(t)dt
C −∞

di(t) 1 1 dv(t)
⇒ + i(t) =
dt RC R dt
por lo tanto, si la señal de entrada v(t) es cero o una fuente de DC, la E.D. se transforma en:

di(t) 1
+ i(t) = 0
dt RC
cuya solución i(t) se denomina solución homogénea iH (t) y da información acerca de los tran-
sitorios del sistema (Figura 1.33b). Por su parte, cuando la señal de entrada es alguna fuente
36 1.8. ECUACIONES DIFERENCIALES Y EN DIFERENCIAS

de AC (o cierta señal dependiente del tiempo), la solución obtenida para i(t) se denomina solu-
ción particular iP (t), y está relacionada con el régimen en estado estacionario del sistema. La
solución nal (señal de salida i(t)), será entonces:

i(t) = iH (t) + iP (t), (1.40)

es decir, la suma de la respuesta transitoria y la de estado estacionario.

R iH(t)

i0

v(t) i(t) C

t
(a) (b)

Figura 1.33: Circuito RC (a) y su respuesta transitoria (b).

Cuando la ecuación diferencial que representa el sistema posee únicamente coecientes cons-
tantes, se dice que es una ecuación diferencial lineal, y representa el tipo más común de sistemas,
los L.T.I. Aunque las ecuaciones diferenciales son el lenguaje natural de los sistemas, ésta no
es la mejor y ni la forma más simple de tratar los sistemas L.T.I., para éstos resulta más
conveniente usar representaciones alternativas como la convolución.
En este libro no utilizaremos la representación de sistemas en ecuaciones diferenciales, sin
embargo, es interesante mostrar que para un sistema en tiempo discreto, el equivalente a las
ecuaciones diferenciales son las ecuaciones en diferencias nitas (E.D.F.). Para un sistema
L.T.I., la ecuación en diferencias puede representarse como:


P ∑
Q
ak y[n − k] = bk x[n − k] (1.41)
k=0 k=0

donde el máx(P, Q) dene el orden de la ecuación en diferencias y ak y bk son coecientes


constantes. En una E.D.F., el término x[n] representa la entrada actual, x[n − 1], la entrada
anterior, x[n − 2], la entrada anterior a la anterior, y así sucesivamente. Para y se tiene una
descripción similar. La estructura de esta ecuación en diferencias viene del hecho que un deri-
vador de primer orden en tiempo discreto está dado por ẋ[n] = x[n] − x[n − 1], uno de segundo
orden, por ẍ[n] = ẋ[n] − ẋ[n − 1] = x[n] − 2x[n − 1] + x[n − 2], y así sucesivamente.
Al igual que una ecuación diferencial en tiempo continuo, las ecuaciones en diferencias tienen
una solución homogénea yH [n], cuando x[n] = 0, relacionada con los transitorios del sistema y
una solución particular yP [n], asociada al régimen estacionario.
La solución homogénea siempre es fácil determinarla, puesto que tiene la forma:

yH [n] = Aλn (1.42)

la cual vericada en (1.41), nos conduce a una combinación lineal de exponenciales,


P
A ak λn−k = 0
k=0
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 37

{ }
λn−P ao λP + a1 λP −1 + ... + aP −1 λ + aP = 0
ya que descartando la solución trivial λ = 0:

yH [n] = A1 λn1 + A2 λn2 + ... + AP λnP (1.43)

P P −1
donde λ1 ...λP
son las raíces del polinomio característico ao λ + a1 λ + ... + aP −1 λ + aP .
n n 2 n
Para las raíces repetidas, las diferentes soluciones son λ1 ,nλ1 ,n λ1 , ...

Sin embargo, para la solución particular no existe una forma simple de determinarla y ge-
neralmente se recurre a simple inspección.

Ejemplo 1.19. Determine la salida del sistema dado por la ecuación en diferen-
cias y[n] − a1 y[n − 1] = x[n] ante la entrada x[n] = bn .
Primero encontraremos la solución a la homogénea, para la cual tenemos el
siguiente polinomio característico: λ − a1 = 0, así que la solución a la homogénea
será:
yH [n] = Aλn1 = A · an1
y para la particular tenemos la siguiente ecuación en diferencias:
y[n] − a1 y[n − 1] = bn
así que supondremos como solución, una función del tipo:
yP [n] = B · bn
que reemplazada en la E.D.F.:
B · bn − a1 B · bn−1 = bn ⇒ B − a1 Bb−1 = 1 ⇒ B = b
b−a1
b
yP [n] = b−a 1
bn
la solución total será entonces:

b
y[n] = yH [n] + yP [n] = A · an1 + bn 
b − a1
Para terminar, resulta interesante estudiar ciertos casos particulares de E.D.F.:

Caso 1. Si P =0 y a0 = 1, la ecuación en diferencias adquiere la forma:


Q
y[n] = bk x[n − k] (1.44)
k=0

y se denomina ecuación en diferencias no recursiva, porque la salida depende únicamente de


la entrada actual y entradas anteriores. Como se verá posteriormente, los sistemas con estas
características, poseen una respuesta de longitud nita Q+1 a la señal impulso unitario δ[n], y
se denominan sistemas de respuesta nita al impulso o simplemente FIR ( Finite Impulse Res-
ponse ). Estos sistemas siempre son estables y se caracterizan porque su respuesta en frecuencia
está regida completamente por ceros. Además como se verá más adelante, los coecientes bk
son la respuesta al impulso del sistema y (1.44) corresponde a la sumatoria de convolución. Por
otro lado, si x[n] es un ruido blanco, (1.44) también representa un proceso estocástico de media
móvil (MA).
38 1.9. DIAGRAMAS DE BLOQUES

Caso 2. Si Q = 0 y b0 = 1, la E.D.F. resultante será:



P
y[n] = x[n] − ak y[n − k] (1.45)
k=1

y corresponde a una ecuación en diferencias completamente recursiva, ya que la salida depende


respuesta de longitud inni-
de la entrada actual y salidas anteriores. Estos sistemas poseen una
ta ante la entrada impulso, de allí que se denominen sistemas IIR (Innite Impulse Response ).
Estos sistemas pueden ser inestables, ya que su respuesta en frecuencia está gobernada comple-
tamente por polos y son sistemas fuertemente dependientes de las condiciones iniciales. Desde
el punto de vista estocástico, esta ecuación en diferencias corresponde a un ltro autorregresivo
(AR).

Caso 3. Si P ̸= 0 y Q ̸= 0, la ecuación en diferencias tiene la forma (1.41). Esta E.D.F.


tiene una componente recursiva y otra no recursiva:


Q ∑
P
y[n] = bk x[n − k] − ak y[n − k] (1.46)
k=0 k=1

pero tiene las mismas características de un sistema IIR. Desde el punto de vista estocástico,
como constituye la suma de un sistema AR y un MA, se denomina sistema ARMA.

1.9. Diagramas de Bloques


Las ecuaciones diferenciales son el lenguaje natural de representar un sistema continuo, y
las ecuaciones en diferencia la forma natural de representar un sistema discreto. Sin embargo,
para efectos prácticos de implementación y simulación, es preferible emplear una representación
alternativa a la que denominaremos diagramas de bloques . Estos diagramas permiten solucionar
una ecuación diferencial o en diferencias en herramientas computacionales tales como Simulink,
y visualizar directamente el hardware de implementación requerido para el montaje del sistema.

1.9.1. Diagramas de Bloques para Sistemas en Tiempo Continuo


El diagrama de bloques para un sistema de tiempo continuo implica la utilización de dos
operadores fundamentales, integradores y derivadores. Para ilustrar cómo obtener la represen-
tación en diagrama de bloques a partir de un sistema, consideremos un circuito RLC en serie
como el mostrado en la Figura 1.34. Si la fuente de voltaje, x(t), es la señal de entrada y la
corriente, y(t), a lo largo de los elementos es la señal de salida, la ecuación diferencial que
describe dicho sistema está dada por:

∫ t
dy(t) 1
Ry(t) + L + y(τ )dτ = x(t)
dt C −∞

que al ser derivada para obtener una forma más estándar, nos conduce a

d2 y(t) dy(t) 1 dx(t)


L 2
+R + y(t) =
dt dt C dt
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 39

R L

x(t) y(t) C

Figura 1.34: Circuito RLC serie

Para abreviar escritura y hacer más evidente la presencia de los derivadores, y como se verá
más adelante, las variables de estado del sistema, se acostumbra a emplear la notación punto,
dy(t) d2 y(t)
donde ẏ ≡
dt y ÿ ≡ dt2 . Usando esta notación, la ecuación diferencial se puede escribir en
forma más compacta a través de
1
Lÿ + Rẏ + y = ẋ (1.47)
C
Nótese que en esta ecuación diferencial aparece la señal de salida y sus derivadas hasta el
segundo orden, por lo que su solución implicaría dos integradores. Si uno de los integradores
entrega a su salida la señal y es de esperarse que su entrada sea su derivada, ẏ , y si un integrador
entrega la señal de salida ẏ , la entrada a éste integrador será la señal ÿ (Figura 1.35a). Dado
a que estamos interesados en obtener la solución y , de la construcción mostrada en la Figura
1.35a se inere que es necesario determinar únicamente la forma de calcular a ÿ . Eso se obtiene
fácilmente al despejar ÿ de (1.47):

R 1
ÿ = ẋ − ẏ − y
L LC
Dado que y y ẏ aparecen explícitos en la Figura 1.35a, es necesario añadir simplemente a la
construcción: un derivador a la señal de entrada x para obtener ẋ; un nodo de suma para
evaluar la expresión anterior; y una serie de amplicadores de ganancias R/L y 1/LC que se
han representado a través de un triángulo. El montaje resultante es el diagrama de bloques
mostrado en la Figura 1.35b. Este diagrama se puede implementar fácilmente en Simulink o en
hardware usando amplicadores operacionales en conguración de integradores y derivadores.

y(t) y(t) y(t)


(a)

x(t)
d/dt + y(t) y(t) y(t)



(b)
R/L

1/LC

Figura 1.35: Diagrama de bloques equivalente para un circuito RLC serie


40 1.9. DIAGRAMAS DE BLOQUES

En la práctica, los derivadores no son recomendables de utilizar, ya que éstos amplican el


ruido de alta frecuencia (esto se verá en mayor detalle al analizar la respuesta en frecuencia de un
derivador en el siguiente capítulo). Una forma de visualizar la no conveniencia de un derivador
está en el Ejemplo 1.9, en el cual se mostró que la derivada en las discontinuidades de una señal
cuadrada eran funciones impulso que tienen teóricamente una amplitud innita. Por este
motivo es necesario buscar una forma de eliminar el uso de derivadores en una implementación
práctica. Una forma de eliminar derivadores en el diagrama de bloques es descomponer la
ecuación diferencial original en ecuaciones diferenciales de primer orden. Un procedimiento para
obtener estas ecuaciones consiste en integrar en repetidas ocasiones la ecuación diferencial y
asignar una nueva variable a los términos que aparecen explícitamente bajo el operador integral.
Para ilustrar el procedimiento, integremos una vez a (1.47):


1
Lẏ + Ry + y=x
C

así que creamos una nueva variable y1 = y, lo que nos conduce a que

ẏ1 = y , (1.48)

y la ecuación anterior se transforma en

1
Lẏ + Ry + y1 = x
C
Integrando de nuevo,
∫ ( )
1
Ly + Ry + y1 − x = 0
C
∫( )
por consiguiente, creamos una nueva variable y2 = Ry + C1 y1 − x lo que nos conduce a

1
ẏ2 = Ry + y1 − x , (1.49)
C
y la ecuación anterior se transforma en

1
Ly + y2 = 0 → y = − y2 (1.50)
L
De nuevo, el diagrama de bloques contará con dos integradores cuyas salidas serán las variables
y1 y y2 , por lo que sus entradas, serán ẏ1 y ẏ2 , respectivamente, tal como se muestra en la
Figura 1.36a. De esta forma, para interconectar el diagrama, es necesario, añadir nodos de
suma y amplicadores a las entradas ẏ1 y ẏ2 acorde a las ecuaciones de primer orden que
resultaron en los pasos intermedios (1.48) y (1.49). Finalmente, las conexiones para obtener la
salida están dadas por la ecuación obtenida en el último paso (1.50) (Figura 1.36b).
Nótese que el diagrama resultante no posee derivadores, por lo que será una implementación
más estable numéricamente hablando que el diagrama de bloques presentado en la Figura 1.35.
El diagrama obtenido con este procedimiento es una forma canónica del sistema. Las formas
canónicas son útiles en el campo del control para el análisis de la controlabilidad de un sistema.
Asimismo, las variables intermedias y1 y y2 , se denominan variables de estado del sistema, pues
dan información sobre los aspectos que son medibles de un sistema, y en el campo del control
son empleadas para la implementación de diferentes estrategias de control modernas.
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 41

y1(t) y1(t) y2(t) y2(t)


(a)

x(t)

− y2(t)
y1(t) y1(t) y2(t) y(t)
+

1/C + −1/L
(b)
R

Figura 1.36: Diagrama de bloques para el circuito RLC serie sin usar derivadores

1.9.2. Diagramas de Bloques para Sistemas en Tiempo Discreto


Para sistemas en tiempo discreto, también es posible obtener un diagrama de bloques a
partir de las ecuaciones en diferencia, pero a diferencia con los sistemas en tiempo continuo, los
integradores son reemplazados por unidades de retardo. En este sentido, un elemento de retardo
cuya entrada sea x[n] producirá a su salida la señal x[n − 1] (Figura 1.37a). Estos elementos
de retardo se representan grácamente mediante un bloque al que se le asigna la nomenclatura
z −1 dado a que la transformada Z de x[n − 1] es z −1 X(z), por lo que esta notación en términos
de z permite obtener fácil y rápidamente la expresión equivalente de un sistema en el dominio
z a partir del diagrama de bloques.

La construcción del diagrama de bloques a partir de la ecuación en diferencias es muy simple,


basta con colocar tantos elementos de retardo como el orden de la ecuación en diferencias. Para
ilustrar la construcción de dicho diagrama, consideraremos la siguiente ecuación en diferencias:

1 3 1
y[n] = x[n] − 2x[n − 1] + x[n − 2] + y[n − 1]
2 4 2

Nótese que en esta ecuación, el máximo retardo para la señal de entrada, x[n], es dos, por lo que
es necesario emplear dos elementos de retardo para esta señal, en cambio para la salida, y[n], es
necesario únicamente un elemento de retardo. Una vez ubicados los elementos de retardo como
se muestra en la Figura 1.37b, solo basta con ubicar sumadores y multiplicadores y conectarlos
conforme se expresa en la ecuación en diferencias original (Figura 1.37c).

Una ventaja de los diagramas de bloques para sistemas en tiempo discreto consiste en el
hecho que esta representación gráca se puede llevar rápidamente a un circuito digital. En
este caso, los elementos de retardo se reemplazan por registros de datos cuya señal de reloj es
común para todos los elementos de retardo, y para los sumadores y multiplicadores es necesario
emplear sumadores y multiplicadores digitales. Otras arquitecturas que se deben añadir son
desplazadores de bits con el n de ajustar los resultados de los cálculos a una representación
numérica adecuada (Figura 1.38). Sin embargo, el análisis de este tipo de sistemas está fuera
de los alcances de este curso.
42 1.9. DIAGRAMAS DE BLOQUES

x[n] y[n]
x[n] x[n−1]
(a) z−1 (b) z−1 z−1
x[n−1] y[n−1]
−1
z
x[n−2]
1/2
x[n] y[n]
−1 −1
z −2 1/2 z
(c) x[n−1] y[n−1]

z−1 3/4
x[n−2]

Figura 1.37: Diagrama de bloques de una ecuación en diferencias


desplazador

y[n]
1/2

x[n]

−2
registro 1/2 registro

x[n−1] y[n−1]

3/4
registro

x[n−2]
CLK

Figura 1.38: Diagrama circuital equivalente al diagrama de bloques de la Figura 1.37


CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 43

1.10. La Convolución
En el apartado anterior vimos que cualquier sistema puede ser descrito por medio de una
ecuación diferencial, para el caso de sistemas en tiempo continuo, y por ecuación en diferen-
cias, para los sistemas en tiempo discreto. En cualquiera de los casos, la señal de salida y(t)
ante cualquier señal de entrada x(t) puede encontrarse solucionando la ecuación diferencial o
en diferencias. Este procedimiento no siempre es fácil y requiere de la realización de cálculos
dispendiosos. Para un sistema L.T.I. existe una forma más simple de expresar la señal de salida
en función de la señal de entrada y una función característica del sistema, denominada respuesta
al impulso h(t). Esta expresión se conoce con el nombre de integral de convolución, en el caso
de sistemas en tiempo continuo, y sumatoria de convolución, si se trata de sistemas L.T.I. en
tiempo discreto.

Denición 1.14. La salida de cualquier sistema L.T.I. en tiempo continuo puede


expresarse por medio de la integral de convolución:

∫ ∞
y(t) = x(t) ⋆ h(t) = x(λ)h(t − λ)dλ (1.51)
−∞

Denición 1.15. La salida de cualquier sistema L.T.I. en tiempo discreto puede


expresarse por medio de la sumatoria de convolución:



y[n] = x[n] ⋆ h[n] = x[k]h[n − k] (1.52)
k=−∞

Denición 1.16. La señal de salida h(t) de un sistema L.T.I. ante la entrada


impulso unitario δ(t), se representa como:

h(t) = T {δ(t)} (1.53)

y se denomina respuesta al impulso del sistema.

Demostración. Recordemos que podemos expresar cualquier señal x(t) como la combinación
lineal de innitas funciones impulso unitario desplazadas hasta t = λ y escaladas por la amplitud
x(λ) (ec. (1.29)):

∫ ∞
x(t) = x(λ)δ(t − λ)dλ (1.54)
−∞

Si aplicamos esta señal como entrada a un sistema cualquiera, obtenemos la siguiente relación
entrada/salida:

{∫ ∞ }
y(t) = T x(λ)δ(t − λ)dλ (1.55)
−∞

Tomando la consideración de que el sistema es lineal, y haciendo uso de la propiedad aditiva


de la integral, tenemos que (1.55) puede expresarse como:

∫ ∞
y(t) = T {x(λ)δ(t − λ)} dλ
−∞
44 1.10. LA CONVOLUCIÓN

Debido a que el término x(λ) es independiente del tiempo y por la linealidad del sistema,
podemos sacarlo fuera del operador T. Ahora, al considerar la invarianza en el tiempo, y según
la denición dada en (1.53), podemos nalmente expresar, y(t) como:

∫ ∞
y(t) = x(λ)h(t − λ)dλ 
−∞

La demostración de la sumatoria de convolución es análoga a la de la integral de convolución.

1.10.1. Interpretación de la Convolución


La convolución puede tomar diferentes interpretaciones como se verá en las siguientes sec-
ciones, cada una de ellas obedece a distintas formas de aplicación. En esta sección se estudiará
la que resulta del análisis cualitativo que resulta de la demostración de la convolución.

Recordemos que la señal de entrada se modeló como una sumatoria de innitas funciones
delta de diferentes áreas separadas una distancia innitesimal tal como se muestra en la Figura
1.39a. Si a un sistema L.T.I. aplicamos como entrada una señal delta, la señal de salida será
la respuesta al impulso h(t) (Figura 1.39b). De esta forma, y por las propiedades lineal e
invarianza en el tiempo del sistema, si aplicamos a la entrada diferentes funciones delta de
distinta amplitud, la señal de salida será la suma de cada una de las respuestas al impulso
individuales, desplazadas y amplicadas según la posición y área de cada función delta (Figura
1.39c). Esta sumatoria de las versiones desplazadas y amplicadas de las funciones delta es el
efecto de la convolución y, como se aprecia en la gura, la respuesta al impulso es la función
característica que debe ser desplazada y amplicada para generar la señal de salida.

x(t) h(t)
(a) (b)

y(t) =

(c) +
+
+
+

+
+

Figura 1.39: Interpretación de la convolución


CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 45

1.10.2. Interpretación de la Sumatoria de Convolución


La sumatoria de convolución indica que la señal de salida se puede representar como la
suma ponderada de los valores de las entradas pasadas, actual y futuras. Para ilustrar mejor
esta característica, hagamos el cambio de variable l =n−k en (1.52), por lo tanto:



y[n] = h[l]x[n − l] = h[n] ⋆ x[n] (1.56)
l=−∞

es decir, la convolución es una operación conmutativa.


Ahora, si expandimos algunos términos de (1.56) tenemos:

y[n] = ... + h[−2]x[n + 2] + h[−1]x[n + 1] + h[0]x[n] + h[1]x[n − 1] + h[2]x[n − 2] + ...

Lo anterior signica que el término h[0] es el peso que tendrá la entrada actual (x[n]) en la
señal de saliday[n], h[1], la contribución de la entrada anterior (x[n − 1]), h[−1], la contribución
de la entrada futura x[n + 1], y así sucesivamente. Es decir, la respuesta al impulso es una señal
que pondera la contribución de las entradas pasadas, la actual y las futuras en la señal de salida;
y la convolución es la suma de todas las contribuciones que generan la señal de salida y[n].
Nótese que si h[n] está denido para n ≥ 0, el sistema será causal (no depende del futuro)
y por ende, físicamente realizable. Además si consideramos que la respuesta al impulso, tiene
una longitud nita Nh (h[n] : 0 ≤ n ≤ Nh − 1), la ecuación (1.56) se transforma en la ecuación
en diferencias de un sistema FIR (1.44), en la cual los coecientes bk = h[k] y el orden de la
E.D.F será Q = Nh − 1.
Esta característica hace útil la denición de la sumatoria de convolución, en el campo del
procesamiento digital de señales para la implementación de ltros digitales FIR, caracterizados
porque su salida se calcula considerando únicamente valores de entradas anteriores y la respuesta
al impulso del sistema. En la Figura 1.40 se muestra un algoritmo en lenguaje C que realiza un
ltrado digital de la señal leída a través de un conversor analógico digital (ADC).
En este programa, el arreglo h contiene los elementos de la respuesta al impulso y x almacena
los valores de la entrada actual (que no es más que la lectura del ADC) y entradas anteriores
de la siguiente forma:
x[0] ←entrada actual, x[n],
x[1] ←entrada anterior, x[n − 1],
x[2] ←entrada anterior-anterior, x[n − 2], etc.
Nótese que según la ecuación (1.44), la salida y[n] se calcula como y[n] = h[0]x[n]+h[1]x[n−
1] + h[2]x[n − 2] + ..., pero en el programa nunca se hace alusión a un índice n, y y tampoco
se trata de un arreglo, tal como sugeriría dicha ecuación. Esto se debe, a que las ecuaciones en
diferencias solamente indican el orden en que se deben hacer los cálculos y no debe entenderse
como una ecuación literal para elaborar un programa. Por esta razón, el programa incluye un
ciclo de movimiento de datos que garantiza que al pasar de nuevo el ujo del programa por la
línea x[0] = LeerADC(), el elemento x[1] contenga el valor que entregó anteriormente el ADC,
x[2] la muestra leída hace dos instantes de tiempo, y así sucesivamente.

1.10.3. Interpretación y Cálculo de la Integral de Convolución


Al igual que la sumatoria de convolución, podemos interpretar la integral de convolución
como la suma ponderada de la señal de entrada x(t). Por otro lado, si analizamos con detalle el
46 1.10. LA CONVOLUCIÓN

#dene Nh 50
oat x[Nh];
oat h[Nh] = { -0.013, 0.026, .... };
void main() {
int k;
oat y;
while(1) {
x[0] = LeerADC();
//Calculo de la convolución
y = 0;
for(k=0; k<Nh; k++) {
y += h[k]*x[k];
}
//Movimiento de datos del arreglo x
for(k=Nh-1; k>0; k- -) {
x[k] = x[k-1];
}
EscribirDAC(y);
}
}

Figura 1.40: Programa en C de un ltro digital FIR


CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 47

término h(t − λ) presente en la ec. (1.51), podemos notar que la variable t es un valor constante,
ya que la integración se hace sobre el dominio de λ, así que h(t−λ), indica que para calcular y(t)
es necesario realizar una reexión y desplazamiento hasta t de la respuesta al impulso. En otras
palabras, la convolución implica las operaciones de reexión, desplazamiento y multiplicación
acumulativa.

Ejemplo 1.20. Calcule la salida y(t) resultante al aplicar al sistema dado por
la respuesta al impulso

{ t
T 0≤t≤T
h(t) = ,
0 c.c
la señal de entrada (Figura 1.41):

{
Ae−t t≥0
x(t) =
0 c.c

h(t) x(t)

A
1

T t t
(a) (b)

Figura 1.41: Grácas de la respuesta al impulso (a) y señal de entrada (b) del ejemplo.

Solución. En la Figura 1.42 puede observarse grácamente que el procedimiento


de cálculo de y(t) se puede resumir como el movimiento de la versión reejada de
h(t) sobre la señal de entrada x(t), hasta el punto de evaluación ti ; se calcula el
producto entre x(t) y h(ti − t) y se suma sobre toda la región −∞ < t < ∞ para
producir el valor y(ti ).
En las Figuras 1.42a y 1.42b se puede observar que y(t) = 0 para t ≤ 0.
Por otra parte, para el caso de 0≤t≤T (Figuras 1.42c y 1.42d), y(t) estará
dada por la convolución:

∫ ( )
t
−λ t−λ
y(t) = x(t) ⋆ h(t) = Ae dλ 0≤t≤T
0 T
los límites de integración deben ser entre 0 y t, ya que la región común entre x(t)
y h(ti − t) es la ubicada en el intervalo [0, t], o en otras palabras, la región en el
intervalo [0, t] es la región diferente de cero después de hacer el producto x(t)h(ti −t)
. Después de solucionar la integral:

A( )
y(t) = t − 1 + e−t 0≤t≤T
T
Ahora, para t>T (Figura 1.42e), la salida está dada por la convolución:
48 1.10. LA CONVOLUCIÓN

x(t) h(t -t) x(t)


2 t <t
h(t -t) 1 2
1

t t =0 t
t1-T t1 -T 2
(a) (b)

x(t) t <t x(t) t <t


2 3 3 4
h(t -t)
3
h(t -t)
4
t t
t -T t t =T
(c) 3 3 (d) 4

y(t)
x(t) t <t
4 5
h(t -t)
5
t t
t -T t T
(e) 5 5 (f)

Figura 1.42: Interpretación gráca del cálculo de la integral de convolución.

∫ ( )
t
t−λ
y(t) = Ae−λ dλ t>T
t−T T

A ( −T )
y(t) = e + T − 1 eT −t t>T
T
Nótese que los límites de la integral en este rango son entre t−T y t, dado a que
este es el rango donde el producto de los términos es diferente de cero. La solución
nal se puede ver en forma gráca en la Figura 1.42f, que corresponde a la función:


 0 t<0
y(t) = A
(t − 1 + e−t
( T−T ) )T −t 0≤t≤T 
 A
T e + T − 1 e t>T

1.10.4. Propiedades de la Convolución e Interconexión de Sistemas


L.T.I.
La convolución cumple con las propiedades de elemento neutro, asociatividad, conmutati-
vidad y distribución respecto a la suma, cuya principal aplicación está en la interconexión de
sistemas (Figuras 1.43, 1.44 y 1.45).

Elemento Neutro
Si un sistema tiene como respuesta al impulso la función delta de Dirac (δ(t)), la salida del
sistema será la misma entrada:
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 49

y(t) = x(t) ⋆ δ(t) = x(t). (1.57)

Demostración.
∫ ∞ ∫ ∞
x(t) ⋆ δ(t) = x(λ)δ(t − λ)dλ = x(λ)δ(λ − t)dλ = x(t)
−∞ −∞

ya que la función δ(t) tiene simetría par y se ha aplicado la propiedad de extracción de la


función delta de Dirac (ec. 1.25).

Propiedad Asociativa de la Convolución


Dos sistemas L.T.I. conectados en cascada con respuestas al impulso h1 (t) y h2 (t) pueden
modelarse como un único sistema con respuesta al impulso (Figura 1.43)

h(t) = h1 (t) ⋆ h2 (t) (1.58)

ya que:

y(t) = {x(t) ⋆ h1 (t)} ⋆ h2 (t) = x(t) ⋆ {h1 (t) ⋆ h2 (t)} (1.59)

x(t)*h1(t)
x(t) y(t) x(t) y(t)
h1 h2 = h1 *h 2

Figura 1.43: Propiedad Asociativa de la Convolución

Propiedad Conmutativa de la Convolución


Dos sistemas L.T.I. conectados en cascada pueden invertirse entre sí sin modicarse la salida
del sistema (Figura 1.44):

y(t) = x(t) ⋆ {h1 (t) ⋆ h2 (t)} = x(t) ⋆ {h2 (t) ⋆ h1 (t)} (1.60)

Su demostración se realizó en la sección 1.10.2.

x(t) y(t) x(t) y(t)


h1 h2 = h2 h1

Figura 1.44: Propiedad Conmutativa de la Convolución

Propiedad Distributiva Respecto a la Suma de la Convolución


Dos sistemas L.T.I. h1 (t) y h2 (t) conectados en paralelo pueden modelarse como un único
sistema con respuesta al impulso (Figura 1.45)

h(t) = h1 (t) + h2 (t) (1.61)


50 1.10. LA CONVOLUCIÓN

puesto que:

y(t) = x(t) ⋆ h1 (t) + x(t) ⋆ h2 (t) = x(t) ⋆ {h1 (t) + h2 (t)} (1.62)

x(t)*h1(t)
h1
x(t) x(t) y(t)

h2
y(t)
= h1 +h 2

x(t)*h2(t)

Figura 1.45: Propiedad Distributiva respecto a la suma de la Convolución

Ejemplo 1.21. Para la interconexión de los sistemas mostrados en la Figura


1.46, calcule la respuesta al impulso total del sistema si: h1 (t) = e−2t u(t) ; h2 (t) =
e−3t u(t) ; h3 (t) = 2e−t u(t) ; h4 (t) = 4δ(t)

h1 h3
x(t)
y(t)
h2 h4

Figura 1.46: Interconexión de sistemas del ejemplo

Solución. Podemos notar que la respuesta total al impulso del sistema será:

h(t) = h1 (t) ⋆ h3 (t) + h2 (t) ⋆ h4 (t)

calculando cada convolución por separado:

∫ ∞
h1 (t) ⋆ h3 (t) = 2 e−2λ u(λ)e−(t−λ) u(t − λ)dλ =
−∞

{
0 t<0 { }
= ∫t −t−λ = 2 e−t − e−2t u(t)
2 0
e dλ t≥0

y para h2 (t) ⋆ h4 (t):


∫ ∞
h2 (t) ⋆ h4 (t) = 4 e−3λ u(λ)δ(t − λ)dλ =
−∞

{
0 t<0
= = 4e−3t u(t)
4e−3t t≥0
por lo tanto,

{ }
h(t) = 2e−t − 2e−2t + 4e−3t u(t)
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 51

1.10.5. Respuesta al Impulso y Clasicación de Sistemas L.T.I.


Recordemos que únicamente los sistemas L.T.I. son aquellos que poseen respuesta al impulso
h(t). Según la interpretación de la convolución dada en la Sección 1.10.3, el cálculo de la señal
de salida de un sistema LTI implica desplazar la versión reejada de la respuesta al impulso
hasta el instante de tiempot (al que denominamos presente), y multiplicar esta señal por la
señal de entrada tal como se muestra en la Figura 1.47. De esta forma, un sistema LTI será
causal si su respuesta al impulso está denida únicamente para valores positivos del tiempo, es
decir

{
f (t) t≥0
h(t) = (1.63)
0 c.c.

h(t) x(t)

0 t
pasado futuro
t: presente

Figura 1.47: Causalidad en Sistemas LTI

De la misma forma, un según la Figura 1.47, un sistema LTI no tendrá memoria si la


respuesta al impulso es un impulso

h(t) = kδ(t) (1.64)

Nótese que la expresión anterior corresponde a la propiedad del elemento neutro de la


convolución, por lo tanto, el único sistema L.T.I. sin memoria, será y(t) = x(t) ⋆ {kδ(t)} = kx(t)
que corresponde a un amplicador de ganancia k, lo que signica que un circuito amplicador
es el único sistema L.T.I. que no tiene memoria.
Finalmente el criterio de estabilidad BIBO establece que:

Si |x(t)| ≤ k ⇒ |y(t)| ≤ k ′ .
1
por lo tanto, al sustituir el valor de y(t) y emplear la relación de Cauchy-Schwartz :

∫ (∫ ) (∫ )
∞ ∞ ∞
|y(t)| = h(λ)x(t − λ)dλ ≤
2
|h(λ)| dλ
2
|x(λ)| dλ < ∞

−∞ −∞ −∞
∫ ∞
∴ |h(λ)| dλ < ∞ (1.65)
−∞

es decir, un sistema L.T.I. será estable si el área bajo la curva de la magnitud absoluta de h(t)
es nita.

1 La relación de Cauchy-Schwartz establece que |⟨x(t), y(t)⟩| ≤ ∥x(t)∥ ∥y(t)∥ donde ⟨x(t), y(t)⟩ se conoce como
∫ ∫
producto interno y es igual a ⟨x(t), y(t)⟩ = x(t)y ∗ (t)dt y ∥x(t)∥2 = |x(t)|2 dt es la norma de la señal x.
52 1.10. LA CONVOLUCIÓN

Ejemplo 1.22. Hallar la respuesta al impulso del promediador dado por la


∫ T
1 t+ 2
relación de entrada/salida: x(t) =
T t− T2 x(τ )dτ , y caracterizarlo según la forma
de su respuesta al impulso.
Solución. Podemos vericar que x(t) se trata realmente de un sistema lineal e
invariante en el tiempo, por lo tanto, su respuesta al impulso será:
{ 1
∫ t+ T − T2 ≤ t ≤ T2
h(t) = T1 t− T2 δ(τ )dτ = T
2 0 c.c.
por lo tanto, el sistema no es causal, ya que h(t) está denida para t < 0; tiene
memoria, ya que su respuesta al impulso no tiene la forma kδ(t) y es estable, puesto
∫ T /2 1
que
−T /2 T
dλ = 1.

Ejemplo 1.23. Encuentre la respuesta al impulso del sistema y(t) = 3x(t) +


5tx(t − 1).
Puede vericarse que este sistema es lineal, más no invariante con el tiempo,
por consiguiente no es L.T.I. y no tiene sentido establecer una respuesta al impulso
estacionaria h(t).
Ejemplo 1.24. En la Sección 1.8 se comentó que un sistema cuya ecuación en
diferencias tenía solamente una contribución no recursiva, se caracterizaba por tener
una respuesta nita al impulso y ser siempre estable (Sistema FIR). Para probarlo,
calculemos la respuesta al impulso de (1.44):
∑Q
h[n] = k=0 bk δ[n − k]
por lo tanto, su respuesta al impulso será la suma de Q + 1 funciones delta de Dirac
(Figura 1.48), es decir, tendrá una longitud de Q + 1 muestras, lo cual signica
que el área bajo la curva de |h[n]| siempre será nita, por lo tanto, un sistema FIR
siempre es estable.

h[n]
b1 b7
b6
b0 b3 b5

n
b2
b4

Figura 1.48: Respuesta al impulso de un sistema FIR

Ejemplo 1.25. Ahora mostremos que un sistema IIR tal como y[n]+ 21 y[n−1] =
x[n] tiene longitud innita al impulso.
Si asumimos x[n] = δ[n] y condiciones iniciales cero, es decir, x[n] = 0 ∀n < 0,
al evaluarh[n] − 12 h[n − 1] = δ[n], tenemos:
h[0] = 1
h[1] = − 12
h[2] = 14
h[3] = − 81
{ ( )n
(−1)n 12 n≥0
h[n] =
0 n<0
∑∞
puede notarse que h[n] tiene longitud innita, es causal y estable ya que 0 |h[n]| =
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 53

2. El sistema sería inestable si el coeciente de y[n − 1] fuera un número positivo


mayor o igual a 1.

Respuestas al Impulso Especiales


Hay algunas respuesta al impulso que son particularmente interesantes.

1. La primera de ellas es h(t) = kδ(t), que corresponde a un sistema sin memoria cuya acción
sobre la entrada es producir una amplicación de la señal de entrada por un factor de
escala k.
2. Ahora, si h(t) = u(t), el sistema asociado será un integrador perfecto, puesto que: y(t) =
∫∞ ∫t
x(t) ⋆ u(t) = −∞ x(λ)u(t − λ)dλ = −∞ x(λ)dλ
3. La respuesta al impulso de un sistema derivador perfecto es igual a la derivada de la
función delta de Dirac: h(t) = −δ
(1)
(t). La función δ (1) (t) tiene la forma gráca mostrada
en la Figura 1.49 y se dene mediante la distribución:

∫ ∞
x(t)δ (1) (t − t0 )dt = −ẋ(t0 )
−∞

En general para cualquier n-ésima derivada:



dn
x(t)δ (n)
(t − t0 )dt = (−1) n
x(t)
−∞ dtn t=t0

(1)
δ (t)

Figura 1.49: Derivada de la función impulso unitario

1.11. Problemas
1. Clasique las siguientes señales en par o impar. Si la señal no cumple ninguna de estas
propiedades, encuentre las componentes par e impar de la señal.
 −t
 e t>0
a ) x1 (t) = −et t<0

0 t=0
b ) x2 (t) = e−|t|
{ t
t ̸= 0
c ) x3 (t) = |t|
0 t=0
54 1.11. PROBLEMAS

2. Clasique las siguientes señales en señales de energía, potencia o energía y potencia in-
nita. En cualquiera de los casos, encuentre el contenido de potencia o energía de la
señal.

a ) x1 (t) = e−t cos t u(t)



 1 t>0
b ) x2 (t) = sign(t) = 0 t=0

−1 t<0
c ) x3 (t) = A cos 2πf1 t + B cos 2πf2 t
{
Kt− 4
1
t>0
d ) x4 (t) =
0 t≤0
e) Muestre que el escalón unitario es una señal de potencia y encuentre su contenido
de potencia.

3. Encuentre la respuesta al impulso (h(t)) de los siguientes sistemas. ¾Es posible calcularla
en todos los casos?

a ) Un modulador de amplitud (AM) dado por y(t) = x(t)cos(2πf0 t)


b ) y[n] = x[n] + y[n − 1]
c ) y(t) = x(t)δ(t)

d ) y(t) = −∞
t
x(τ )dτ
e ) y[n] = nx[n]
{
x(t)
x(t) ̸= 0
f ) y(t) = |x(t)|
0 x(t) = 0
g ) y(t) = x(t)u(t)
h ) y[n] = 3x[n] + 5x[n − 1] − 3x[n − 3] + x[n − 5]

 d
dt x(t)
t>0
i ) y(t) = x(t) t<0

0 t=0
j ) y[n] = (x[n])2
4. Obtenga un sistema simplicado para las diferentes interconexiones mostradas en la Fi-
gura 1.50, donde las respectivas respuestas al impulso son:

h1 (t) = e−3t u(t)


h2 (t) = 3δ(t − 1) + δ(t − 2)
h3 (t) = −6t + 3 0≤t≤ 1
2

5. Clasique los siguientes sistemas L.T.I. en causales, estables y sin memoria. Haga uso de
una descripción gráca.

a ) h(t) = t−1 u(t)


b ) h(t) = −3tu(t − 1) + 5δ(t)
CAPÍTULO 1. SEÑALES Y SISTEMAS EN EL DOMINIO DEL TIEMPO 55

h2(t)
x(t) y(t)
h1(t)

a) h3(t)
h2(t) h1(t)
x(t) y(t)

h2(t) h3(t) h1(t)


x(t) y(t)
h1(t) c)
h3(t)
b)

Figura 1.50:

( )
c) h(t) = [1 − e−3t ]rect t − 12
d) h(t) = arctan(t)
e) h(t) = 10 sin(5πt)
πt
f) h(t) = 5δ(t + 5)

6. En el circuito de la Figura 1.51a la onda cuadrada es una señal de cierta frecuencia f2 y con
un ciclo útil muy bajo (<1 %), que conmuta la apertura y cierre de un suiche analógico.
De esta forma, la señal senoidal que ingresa al suiche con una frecuencia f1 pasa a la
salida del suiche solamente en ciertos instantes de tiempo. La señal de salida se puede
observar en un osciloscopio. Puesto que este circuito se puede montar perfectamente en el
laboratorio, analice teóricamente lo que pasa en la señal de salida vista en el osciloscopio
si se hacen las siguientes pruebas:

a ) Las frecuencias f1 y f2 son iguales.


b ) La frecuencia f1 es igual a 1 kHz y f2 a 10 kHz.
c ) f1 = 1 kHz y f2 se disminuye lentamente desde 10 kHz hasta 100 Hz.
d ) f2 se deja ja en 10 kHz y f1 se aumenta lentamente desde 1 kHz hasta 50 kHz.
e ) Se dejan jas las frecuencias f1 a 1 kHz y f2 a 10 kHz, pero a la entrada del suiche
se añade un desplazador de fase variable.

f) Se dejan jas las frecuencias f1 a 1 kHz y f2 a 10 kHz, pero se añade un derivador


construído con amplicador operacional (AMP-OP) (Figura 1.51b) a la salida del
suiche, y luego se coloca a la entrada del suiche.

Osciloscopio

-
f1
+
(a) (b)
f2

Figura 1.51:
56 1.11. PROBLEMAS

7. Ahora suponga los siguientes experimentos:

a) Al circuito de la Figura 1.51b se le aplica una señal proveniente de un micrófono y


en la salida de este circuito se conecta un amplicador (construído con AMP-OP).
¾Cómo suena la señal en el parlante si se invierte el orden de los dos sistemas?, es
decir, se coloca primero el amplicador y luego el derivador.

b) Repita el mismo procedimiento anterior pero ahora coloque una fuente de 1V a la


entrada no inversora.

8. Para los sistemas H1 y H2 se obtuvieron las salidas mostradas en la Figura 1.52 ante
diferentes señales de entrada. Determine si los sistemas podrían ser sin memoria, causales,
lineales e invariantes con el tiempo.

...

Figura 1.52:
CAPÍTULO 2
ANÁLISIS EN FRECUENCIA DE
SEÑALES CONTINUAS

En el capítulo anterior se introdujeron deniciones y conceptos para analizar las señales y


sistemas en el dominio del tiempo. Para éstos últimos se mostró que cualquier sistema puede
representarse por medio de una ecuación diferencial, si el sistema es de tiempo continuo, o
una ecuación en diferencias, para el caso de los sistemas en tiempo discreto. Sin embargo, estas
representaciones no resultan lo sucientemente fácil de manipular y solamente cuando el sistema
era lineal e invariante en el tiempo (LTI), se podía usar una representación simple de la acción
del sistema, la convolución.
El análisis de cualquier señal o sistema resulta más simple de realizar cuando se introduce
alguna transformación del dominio del tiempo a otro espacio, como puede ser el dominio de la
frecuencia. La principal técnica de análisis en frecuencia es la transformada de Fourier y todas
sus transformadas relacionadas: la transformada de Laplace y Z. Estas técnicas están basadas
en el concepto de espacio de señales que se estudiará a continuación.

2.1. Espacio de Señales


2.1.1. Vectores
Las señales pueden considerarse como si fueran entidades vectoriales. Por tal razón resulta
interesante revisar algunos conceptos básicos de espacios vectoriales . Recordemos que cualquier
vector r en el espacio 3D se puede representar por medio de la combinación lineal de los vectores
bx , u
unitarios (u by , u
bz ) que forman la base del espacio. Generalizando para cualquier espacio n-
dimensional:


n
r= bl
rl u (2.1)
l=1

57
58 2.1. ESPACIO DE SEÑALES

Los vectores unitarios bl


u deben ser ortogonales entre sí, lo cual se verica si el producto
punto o producto escalar entre ellos es cero para un par de vectores unitarios diferentes, y es
uno si se trata del mismo vector. Lo anterior se expresa matemáticamente como:

bl • u
u bm = δlm (2.2)

donde δlm se denomina delta de Kronecker y está denida como:

{
0 l ̸= m
δlm = (2.3)
1 l=m

La ecuación (2.2) se denomina habitualmente condición de ortogonalidad. El producto punto


o producto interno se dene como:


n
a•b= al bl (2.4)
l=1

y tiene interesantes propiedades, tales como el cálculo de la norma de un vector:

v
u n
√ u∑
∥a∥ = a • a = t a2l (2.5)
l=1

y la determinación de cada una de las componentes rl de un vector r, por medio de la proyección


de r sobre el vector unitario ûl :

rl = r • u
bl (2.6)

con lo cual, podemos reescribir (2.1) como:


n
r= (r • u
bl )b
ul (2.7)
l=1

Por otro lado, existen relaciones importantes de norma de los vectores, tales como la de-
sigualdad del triángulo :

∥a + b∥ ≤ ∥a∥ + ∥b∥ (2.8)

la cual se transforma en el teorema de Pitágoras si los vectores a y b son ortogonales:

2 2 2
∥a + b∥ = ∥a∥ + ∥b∥ (2.9)

Demostración . El teorema de Pitágoras se demuestra al expandir ∥a + b∥2


2 2 2
∥a + b∥ = a • a + b • b + 2a • b = ∥a∥ + ∥b∥ + 2a • b
y considerar que a y b son ortogonales, es decir, cuando a•b = 0 nos conduce a
(2.9). 
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 59

En notación vectorial, es posible transformar un vector x de longitud n en un vector y de


longitud m por medio de una transformación lineal A de la forma y = Ax, donde A corresponde
a una matriz de tamaño m × n. Una propiedad importante de ciertas transformaciones lineales,
lo constituye el hecho de que existen ciertos vectores el para los cuales el resultado de la
transformación Ael es un simplemente un cambio en la longitud del vector el por un factor λl ,
es decir, no se produce un cambio en la dirección del vector original sino que el resultado es un
vector en la misma dirección de el . Lo anterior se denota a través de

Ael = λl el (2.10)

donde los vectores el se denominan autovectores o eigenvectores de la matriz A y λl se de-


nominan los autovalores o eigenvalores de A. La ecuación anterior se denomina ecuación de
autovalores . Para el caso de señales, también es posible hablar de una terminología semejante,
aspecto que se mostrará al analizar los sistemas LTI en el dominio de la frecuencia en la Sección
2.3.5.

2.1.2. Las Señales como Vectores


Para considerar una señal como un vector, diremos que una señal se puede descomponer en
un conjunto innito de señales fundamentales Ψi (t), ortogonales entre sí, y las cuales forman
la base de un espacio de señales, es decir, las señales fundamentales Ψi (t) tienen el mismo
signicado físico de los vectores unitarios. Así que para obtener las expresiones equivalentes a
las ecuaciones (2.1), (2.2), (2.5), (2.7) y (2.6) para el caso de una señal, es necesario denir
la operación producto interno de funciones 1 , para lo cual consideraremos el caso continuo de
(2.4):

∫ b
⟨u(t), v(t)⟩ = u(t)v ∗ (t)dt (2.11)
a
donde el intervalo de integración [a, b] se toma en la región donde u(t) y v(t) son ortogonales, y
puesto que estas funciones, pueden ser complejas, se toma el producto con el complejo conjugado
de v(t), con el n de que el cuadrado de la norma de una función sea exactamente igual a la
energía de la señal en el intervalo [a, b]:
∫ b ∫ b
u(t)u∗ (t)dt =
2 2
∥u(t)∥ = ⟨u(t), u(t)⟩ = |u(t)| dt (2.12)
a a
Nótese que (2.12) corresponde a la denición de la energía de la señal u(t), por lo que en el
caso de señales, el equivalente a la norma de una señal es la energía de la señal.
Si Ψl (t) son las señales fundamentales que forman el espacio, la expresión equivalente a (2.1)
será entonces:



x(t) = cl Ψl (t) (2.13)
l=−∞

que signica que una señal x(t) se puede descomponer como la sumatoria innita de señales
fundamentales Ψl (t) escaladas por un factor cl , el cual se determina mediante una ecuación
equivalente a (2.6):

1 En el formalismo matemático, los espacios de señales considerados en este capítulo hacen parte de lo que se
denomina un espacio de Hilbert, que es un espacio completo donde se encuentra denido el producto interno.
60 2.1. ESPACIO DE SEÑALES

∫ b
1
cl = ⟨x(t), Ψl (t)⟩ = x(t)Ψ∗l (t)dt (2.14)
Ql a

Naturalmente, las funciones Ψl (t) deben ser ortogonales entre sí, lo cual se verica mediante
la condición de ortogonalidad para señales:

∫ b
⟨Ψl (t), Ψm (t)⟩ = Ψl (t)Ψ∗m (t)dt = Ql δlm (2.15)
a

y la constante Ql , denominada factor de normalización, se ha incluido porque la energía de las


funciones Ψl (t) no necesariamente tiene que ser unitaria. Cuando la energía de las funciones Ψl
es unitaria se dice que éstas funciones forman un espacio ortonormal , en caso contrario, cuando
la energía no es unitaria, forman un espacio ortogonal . Finalmente, reuniendo (2.13) y (2.14)
para obtener una expresión similar a (2.7), tenemos:



x(t) = ⟨x(t), Ψl (t)⟩ Ψl (t) (2.16)
l=−∞

Al igual que en un espacio vectorial, (2.14) se interpreta como la proyección de la señal x(t)
sobre la función base Ψl (t), por lo tanto, (2.16) se puede interpretar como la mejor aproximación
de x(t) en el espacio {Ψl }l∈Z . En general, la aproximación (2.16) no es perfecta para algunos
espacios de señales, por lo cual habrá un error asociado, e(t), dado por


x(t) = cl Ψl (t) + e(t) = x̂(t) + e(t) , (2.17)
l∈Z

Debido a que (2.17) es una aproximación de la señal x(t) sobre un espacio ortogonal {Ψl }l∈Z , es
de esperarse que el error, e(t), sea ortogonal dicho espacio. Este aspecto se ilustra grácamente
en la Figura 2.1 para un espacio tridimensional. En este caso, el vector r que se encuentra en el
espacio tridimensional se ha proyectado sobre el espacio bidimensional generado por los vectores
Ψ1 y Ψ2 r sobre
que forman una base ortogonal. Esta proyección será la mejor aproximación de
el espacio, por lo cual se denota como r̂. e, según se deriva de (2.17) es la
El vector de error,
diferencia entre el vector original y el vector aproximado, e = r − r̂, y como se muestra en la
Figura 2.1, es ortogonal al espacio formado por los vectores Ψ1 y Ψ2 .

r
e

Ψ1
r
Ψ2

Figura 2.1: Ortogonalidad del error

Ejemplo 2.1. Mostrar que el espacio de señales formado por las exponenciales

complejas Ψn (t) = exp(jω0 nt), con ω0 una frecuencia igual a ω0 = T0 y T0 el periodo
de la señal, forman un espacio ortogonal.
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 61

Solución. En la Figura 2.2 se muestran las funciones base resultantes de evaluar


Ψn para diferentes valores de n. Dado que estas señales son complejas, se ha gracado
por separado la parte real y la parte imaginaria de Ψ. Nótese que estas funciones son
periódicas y de longitud innita, y la frecuencia de la función base Ψn es n veces la
frecuencia ω0 . Por estas particularidades de las funciones base, la combinación lineal
de estas funciones de acuerdo a (2.16) es de esperarse que sea una señal periódica.
Cómo se verá en la siguiente sección, estas funciones son la base de la serie de Fourier
que sirve para representar exclusivamente señales periódicas.
Para vericar que el espacio formado por estas señales es ortogonal es necesario
evaluar la condición de ortogonalidad (2.15), así:

∫ T0 ∫ T0
⟨Ψl (t), Ψm (t)⟩ = exp(jω0 lt) exp(−jω0 mt)dt = exp(jω0 (l − m)t)dt
0 0
exp(jω0 (l − m)T0 ) − 1 exp(j2πq) − 1
= = ,
jω0 (l − m) jqω0

donde q = l − m. Note que si l = m, entoncesq = 0, lo que conduce a la forma


indeterminada 0/0, que al ser resuelta por el teorema de L'Hopital, nos conduce a
⟨Ψl (t), Ψm (t)⟩ = T0 ∀l = m . Ahora, si l ̸= m, entonces q ̸= 0, y al transformar la
cos(2πq)+jsin(2πq)−1
expresión anterior en resulta evidente que cos(2πq) = 1 ∀q ∈ Z,
jqω0
y sin(2πq) = 0 ∀q ∈ Z, lo que nos conduce a que ⟨Ψl (t), Ψm (t)⟩ = 0 ∀l ̸= m. De
esta forma las funciones exponenciales complejas antes denidas, forman un espacio
ortogonal, donde el factor Ql de (2.14) es Ql = T0 .
1
Ψ (t)

0.5
0

0
0 1 2 3 4 5 6
1
Ψ1(t)

−1
0 1 2 3 4 5 6
1
Ψ2(t)

−1
0 1 2 3 4 5 6
1
Ψ3(t)

−1
0 1 2 3 4 5 6
t

Figura 2.2: Funciones base exponenciales complejas Ψn (t) = exp(jω0 nt) para ω0 = 1. La parte
real está representada por la línea continua y la parte imaginaria por la línea punteada

Como se verá en las siguientes secciones, el tipo más común de señales fundamentales son las
exponenciales complejas, lo que nos conduce a la serie de Fourier y la transformada de Fourier,
sin embargo, otro tipo de señales fundamentales muy usadas en los últimos años para el análisis
62 2.1. ESPACIO DE SEÑALES

de señales, son las onditas o wavelets, y por tanto, las ecuaciones (2.13)-(2.16) describen una
generalización de las transformadas, como se verá en el siguiente ejemplo.

Ejemplo 2.2. En este ejemplo consideramos la expansión de una señal x(t) en


términos de una wavelet Haar. En general, para cualquier wavelet, el espacio de señal
se genera a partir de dilataciones, contracciones y desplazamientos de una función
wavelet madre ψ(t):

Ψn.k (t) = 2n/2 ψ(2n t − k) n, k ∈ Z (2.18)

Nótese que en este caso, la función base está dada por dos índices, n y k, en lugar
de uno solo índice como se estableció en las expresiones anteriores, sin embargo, las
ecuaciones denidas para el espacio de señales siguen siendo válidas. La razón de
dos índices se debe a que las funciones base wavelets son señales de energía, perfec-
tamente localizadas en el tiempo, que requieren de escalamiento y desplazamiento
para poder expandirse a todo el rango del tiempo y así permitir la representación
de cualquier señal. En este sentido, el índice n está relacionado con el factor de
escala, es decir, indica que tan expandida o comprimida es la función base y k está
relacionado con el desplazamiento en el tiempo de la función base. Lo anterior se
ilustra mejor al considerar la wavelet madre Haar:



1 0 ≤ t < 1/2
ψ(t) = −1 1/2 ≤ t < 1


0 otro caso

cuya familia de funciones base se muestran en la Figura 2.3 para diferentes índices
n y k. Se puede vericar fácilmente a partir de esta gura que las wavelets Haar
2
forman un espacio ortonormal , ya que el producto interno entre cualquier par de
éstas funciones base es cero (condición de ortogonalidad 2.15) y cada una de estas
funciones base tiene energía unitaria.
Para representar la señal x(t) mostrada en la Figura 2.4a en el espacio de señales
de las wavelet Haar, es necesario determinar los coecientes de la expansión por
medio del producto interno entre x(t) y las funciones base (2.18) cuyas formas se
muestran en la Figura 2.3. Estos coecientes wavelet se obtienen mediante (2.14) y es
necesario gracarlos para diferentes valores de n y k , lo cual se puede hacer a través
de las grácas mostradas en la Figura 2.5, donde cada gráca muestra los coecientes
para un valor jo de n, y cada muestra está ubicada a un diferente desplazamiento
k. Por ejemplo, la primera muestra (k = 0) de la gráca superior corresponde
al coeciente wavelet resultante del producto interno entre x(t) y la función Ψ0,0
mostrada en la Figura 2.3. La segunda muestra de esta gráca (k = 1), es el producto
interno con Ψ0,1 , y así sucesivamente para todos los posibles desplazamientos de
Ψ0,0 . La gráca de la segunda la son entonces los coecientes obtenidos para Ψ1,0
y todos sus corrimientos en el tiempo.
Por otra parte, la señal aproximada x̂(t) obtenida por medio de la combinación
lineal de las funciones base Ψn,k , donde el factor de peso son los coecientes wavelet
2 En el sentido estricto, las wavelet Haar forman un espacio completo en el rango entre 0 y 1, lo que impone
ciertas restricciones a los valores de n y k. Sin embargo, en el ejemplo se ha relajado esta condición para ilustrar
por medio la utilidad de las expresiones presentadas en esta sección.
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 63

k Ψ Ψ Ψ
0,0 0,1 0,2
1 1 1
0 0 0
−1 −1 −1
−1 0 1 2 3 −1 0 1 2 3 −1 0 1 2 3
Ψ Ψ Ψ
1,0 1,1 1,2
2 2 2
0 0 0
−2 −2 −2
−1 0 1 2 3 −1 0 1 2 3 −1 0 1 2 3
n Ψ2,0 Ψ2,1 Ψ2,2
2 2 2
0 0 0
−2 −2 −2
−1 0 1 2 3 −1 0 1 2 3 −5 0 5
Ψ3,0 Ψ3,1 Ψ3,2
4 4 4
2 2 2
0 0 0
−2 −2 −2
−4 −4 −4
−1 0 1 2 3 −1 0 1 2 3 −1 0 1 2 3

Figura 2.3: Funciones base que forman el espacio de señales de las wavelet Haar

obtenidos previamente, se ilustra en la Figura 2.4b. Esta aproximación es el resultado


de evaluar (2.16). En esta gura también se ha incluido el error e(t) = x(t) −
x̂(t) (Figura 2.4c). Nótese que a pesar de que las wavelet Haar formen un espacio
ortonormal, la representación de la señal x(t) en este espacio de señal, x̂(t), será
una aproximación "aceptable" pues la señal original posee una forma continua que
diere bastante de la forma de las wavelet Haar. 

1
(a)
x(t)

−1
−1 −0.5 0 0.5 1 1.5 2 2.5 3

1
(b)
x^(t)

−1
−1 −0.5 0 0.5 1 1.5 2 2.5 3

0.5
(c)
e(t)

−0.5
−1 −0.5 0 0.5 1 1.5 2 2.5 3
t

Figura 2.4: Aproximación de la señal (a) en el espacio de señales de las wavelet Haar (b) y el
error entre ambas señales (c)
64 2.2. SERIE DE FOURIER

0.5

c0,*
0

−0.5
0 1 2 3 4 5 6 7 8
0.1

c1,*
0

−0.1
0 1 2 3 4 5 6 7 8
0.1

c2,* 0

−0.1
0 1 2 3 4 5 6 7 8
0.1
c3,*

−0.1
0 1 2 3 4 5 6 7 8
k

Figura 2.5: Coecientes wavelet resultantes de la descomposición de la señal de la Figura 2.4a

2.2. Serie de Fourier


La serie de Fourier es una transformación aplicable únicamente a señales periódicas y puede
interpretarse como la descomposición en la suma innita de señales exponenciales complejas
armónicas de la frecuencia fundamental de la señal original. En otras palabras, las señales base
Ψn (t) serán:

Ψn (t) = exp(jω0 nt) (2.19)



donde ω0 =
T0 es la frecuencia angular fundamental de la señal x(t) a descomponer. Usando
(2.13) y (2.14) se obtiene la descripción matemática de la serie de Fourier (ec. 2.20) y el cálculo
(ec. 2.21) de cada uno de los coecientes cn :


x(t) = cn exp(jω0 nt) (2.20)
n=−∞
∫ α+T0
1
cn = x(t) exp(−jω0 nt)dt (2.21)
T0 α
el término 1/T0 se ha incluido en el cálculo de los coecientes cn debido a que al aplicar la
condición de ortogonalidad (2.15) entre un par de funciones exponenciales complejas armónicas,
el factor de normalización Ql es justo T0 . Puede notarse que cn se debe calcular sobre un período
fundamental T0 x(t) sin importar el origen del punto de cálculo.
de la señal
Para poder aplicar la serie de Fourier se debe tener en cuenta además de la periodicidad de
x(t), las denominadas condiciones de Dirichlet :
∫ T0
1. x(t) debe ser absolutamente integrable sobre su período:
0
|x(t)| dt < ∞;
2. el número de máximos y mínimos de x(t) en cada período debe ser nito;

3. el número de discontinuidades de x(t) en cada período debe ser nito.

Puede notarse de (2.21) que los coecientes cn son en general complejos, por lo tanto, conviene
representarlos en notación polar por medio de una magnitud |cn | y fase ∠cn :

cn = |cn | ej∠cn (2.22)


CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 65

por ello, los coecientes de la serie de Fourier se acostumbran representar en un diagrama de


magnitud y uno de fase, tal como el de la Figura 2.6, estos diagramas se denominan espectros
discretos de la señal periódica x(t) e indican la contribución de cada una de las componentes
de frecuencia de las señales armónicas constitutivas, ya que |cn | indica el peso que tiene la señal
armónica Ψn (t) en la señal ∠cn la fase de dicha componente. Por eso la gráca de |cn |
x(t) y
se denomina espectro de magnitud y ∠cn , espectro de fase.

|c n | cn

-5 -3 -2 4
n n
-7 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 7 -7 -6 -4 -1 0 1 2 3 5 6 7

Figura 2.6: Ejemplo de un espectro discreto.

Nótese que la señal base Ψ0 (t) corresponde a un nivel de DC (Ver Figura 2.2), por lo tanto,
el coeciente c0 está asociado al valor medio de la señal periódica. Por su parte, el coeciente
c±1 indica que tanto contenido hay en x(t) de una señal exponencial compleja con una frecuen-
cia igual a la frecuencia fundamental de x(t). Así que los coecientes de |n| > 1 corresponden
al contenido de armónicos, es decir, a señales exponenciales complejas con una frecuencia que
es múltiplo entero de la frecuencia fundamental.

Ejemplo 2.3. Calcular la serie de Fourier de la señal cuadrada mostrada en la


Figura 2.7.

Solución. En un período, la señal x(t) se representa como:


{
1 0 ≤ t ≤ T20
x(t) =
−1 2 ≤ t ≤ T0
T0

por lo tanto, al usar (2.21), los coecientes de la serie de Fourier serán:

∫ T0 /2 ∫ T0
1 1
cn = exp(−jω0 nt)dt − exp(−jω0 nt)dt
T0 0 T0 T0 /2
1 T /2 1 T
= − exp(−jω0 nt)|0 0 + exp(−jω0 nt)|T00 /2
jT0 ω0 n jT0 ω0 n
1 1 1
= − (cos(πn) − 1) + (1 − cos(πn)) = (1 − cos(πn))
j2πn j2πn jπn
(π ) {
2 0 n par
= sen2 n = 2 (2.23)
jπn 2 jπn n impar

nalmente, la serie de Fourier resultante (señal aproximada en el espacio de señales


de exponenciales complejas) será:
66 2.2. SERIE DE FOURIER


∑ 2 (π )
x̂(t) = sen2 n exp(jω0 nt)
n=−∞
jπn 2
−1
∑ 2 (π ) ∑∞
2 (π )
= sen2 n exp(jω0 nt) + sen2 n exp(jω0 nt)
n=−∞
jπn 2 n=1
jπn 2
∑∞
4 (π )
= sen2 n sen(ω0 nt)
n=1
πn 2
4 4 4
= sen(ω0 t) + sen(3ω0 t) + sen(5ω0 t) + ... (2.24)
π 3π 5π

x(t)

t
−1
−T0 T0

Figura 2.7: Señal Cuadrada

En la Figura 2.8a se muestran los coecientes de la serie de Fourier dados por


(2.23). Note que esta señal en particular no requiere las funciones base para n=
0, 2, 4, ..., y su valor medio (valor del coeciente c0 ) es cero como era de esperarse
a partir de la inspección visual de la señal en el tiempo. Los coecientes de la
serie de Fourier se amortiguan conforme n → ∞. Esto es un resultado del teorema
de Parseval que será descrito en la Sección 2.2.4. En la Figura 2.8b se muestra
grácamente la expresión (2.24), donde se ilustra el procedimiento de reconstrucción
de la señal x(t) a partir de las funciones base Ψn (t) = exp(jω0 nt). Nótese que la señal
x̂(t), obtenida a través de (2.24), es una aproximación a la señal original x(t), dado
a que se empleó un número nito de términos de la sumatoria. Con esta expresión
es posible obtener la señal original solamente cuando se usa un número innito de
funciones base en el proceso de reconstrucción. El efecto de usar un número menor
de coecientes en la aproximación de la señal por medio de la serie de Fourier se
ilustrará en mayor detalle en la Sección 2.2.7.

2.2.1. Propiedades de la Serie de Fourier


Un resultado importante de la serie de Fourier, es el hecho de que los coecientes dependen
exclusivamente de la forma de la señal y no de su frecuencia o punto de inicio de la señal. Lo
anterior se mostrará a partir de los siguientes ejemplos.

Ejemplo 2.4. ¾Cuáles son los coecientes de la serie de Fourier de una señal
senoidal, sin(ωm t), y de una señal cosenoidal, cos(ωm t)? ¾En qué se diferencian sus
espectros?.
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 67

1.4
4/π
1.2
(a)
1

0.8

cn
0.6 4/3π
0.4 4/5π 4/7π
0.2

0
0 2 4 6 8 10
n

Ψ1(t) 4/π

Ψ3(t) 4/3π (b)


x(t)

Ψ5(t) 4/5π

Ψ7(t) 4/7π

Figura 2.8: Ejemplo de reconstrucción de la señal de la Figura 2.7 por medio de la serie de
Fourier dada en (2.24). (a) Coecientes de la serie de Fourier; (b) Reconstrucción x̂(t) empleando
únicamente algunos coecientes

Solución. La señal coseno se puede expandir por medio de


1
cos(ωm t) = {exp(jωm t) + exp(−jωm t)} ,
2
por lo tanto, sin necesidad de hacer algún cálculo de los coecientes de la serie de
Fourier, se encuentra que los coecientes de la serie son
{
1
2 n = −1, 1
cn =
0 c.c.
Es decir, el espectro de magnitud son únicamente dos muestras en n = −1 y n = 1,
de amplitud 1/2, y el espectro de fase es ∠cn = 0 ∀n (Figura 2.9a).
Para el caso de una señal seno, la expansión está dada por

1
sen(ωm t) = {exp(jωm t) − exp(−jωm t)} ,
2j
por lo tanto, los coecientes de la serie de Fourier son

− 2j
 n = −1
1

1
cn = n=1
 2j

0 c.c.
Nótese que el espectro de magnitud |cn | es idéntico al espectro de magnitud de la
señal coseno (Figura 2.9b), pero el espectro de fase tiene una diferencia de π/2, lo
cual era de esperarse ya que la diferencia de fase entre la señal seno y coseno es π/2
radianes.
68 2.2. SERIE DE FOURIER

|cn | cn
(a)
1/2 1/2

n n
−7 −6 −5 −4 −3 −2 −1 0 1 2 3 4 5 6 7 −7 −6 −5 −4 −3 −2 −1 0 1 2 3 4 5 6 7

|cn | cn
(b)
1/2 1/2 π/2

−7 −6 −5 −4 −3 −2 −1 0 1 2 3 4 5 6 7
n −7 −6 −5 −4 −3 −2 −1 0 2 3 4 5 6 7
n
−π/2

Figura 2.9: Coecientes de la serie de Fourier de la señal: (a) coseno, (b) seno

Ejemplo 2.5. ¾Cuáles son los coecientes de la serie de Fourier para una señal
que tiene la misma forma de la Figura 2.7 pero del doble de frecuencia?

Solución. Los coecientes de la serie de Fourier son exactamente los mismos


que se calcularon en el Ejemplo 2.3. Lo anterior dado a que los coecientes de la
serie de Fourier dependen de la forma de la señal y no de su frecuencia. Eso signica
que los coecientes para la señal mostrada en la Figura 2.7, y dados por la ecuación
(2.23), son los mismos para una señal cuadrada de frecuencia de 1Hz o 2.4GHz.

Ejemplo 2.6. Suponga que se le calcula la serie de Fourier de la señal mostrada


en la Figura 2.10. ¾En qué se diferencian los coecientes de la serie de Fourier de
esta gura con respecto a aquellos obtenidos para la Figura 2.7?

x(t)
2

−T0 0 T0 t

Figura 2.10: Señal cuadrada con valor medio diferente de cero

Solución. Nótese que la señal de este ejemplo se puede obtener desplazando en


amplitud la señal de la Figura 2.7, de esta forma, el valor medio de la señal pasa de
ser cero a uno. En este ejemplo se mostrará que al desplazar la señal modicando
el valor medio de la misma, no es necesario recalcular los coecientes de la serie de
Fourier, ya que el único coeciente que se modica es c0 .
Para el cálculo de los coecientes de la serie de Fourier de la Figura 2.10 tenemos
que la señal x(t) toma el valor de 2 en el rango 0 ≤ t ≤ T20 , por lo tanto, al usar
(2.21), los coecientes de la serie de Fourier serán:
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 69

∫ T0 /2
1 2 T /2
cn = 2 exp(−jω0 nt)dt = −
exp(−jω0 nt)|0 0
0 T0 jT 0 ω0 n
1 exp(−j(πn − π/2)) − j
= − (exp(−jπn) − 1) =
jπn πn
sen(πn) + j(cos(πn) − 1)
= (2.25)
πn
En la Figura 2.11 se muestran las grácas de los coecientes de la serie de
Fourier de la señal del Ejemplo 2.3, dada por la ecuación (2.23), y para la señal de
este ejemplo (Figura 2.10) dada por la ecuación (2.25). A partir de estas grácas se
puede concluir que el único coeciente que cambia es c0 , y este coeciente es igual
al valor medio o nivel DC de la señal. 

0.8 2

0.6 1
∠cn
|cn|

0.4 0

0.2 −1

0 −2
−10 −5 0 5 10 −10 −5 0 5 10
n n
1 2

1
∠cn
|cn|

0.5 0

−1

0 −2
−10 −5 0 5 10 −10 −5 0 5 10
n n

Figura 2.11: Espectros de las señales de la Figura 2.7 (superior) y la Figura 2.10 (inferior).

Ejemplo 2.7. Suponga que x(t) es una señal periódica continua con coecientes
de la serie de Fourier xn . Si a la señal, se le suma un valor constante k, es decir,
z(t) = x(t) + k , ¾cómo calcular los coecientes de la serie de Fourier, zn , en función
de los coecientes xn ?.
Solución. Este ejemplo es análogo al anterior. Como se intenta sumar un nivel
de DC a la señal, y el nivel de DC es la componente asociada al valor medio de la
señal, o dicho de otra forma al coeciente
{ c0 , entonces, el único coeciente que se

xn n ̸= 0
altera por el valor k es c0 . Así que, zn = .
x0 + k n = 0

Ejemplo 2.8. Si a x(t) se le introduce un desplazamiento en el tiempo, es decir,


z(t) = x(t−τ ), ¾cómo calcular los coecientes de la serie de Fourier de zn en función
de los coecientes xn ?.
70 2.2. SERIE DE FOURIER

Solución. Como se ha indicado anteriormente, el desplazamiento en el tiempo


solamente modicará el espectro de fase de la señal. Lo anterior se puede demostrar
muy fácilmente calculando los coecientes de la serie de Fourier de x(t − τ ):

1
zn = x(t − τ )exp(−jω0 nt)dt
T0 T0

1
= x(u)exp(−jω0 n(u + τ ))du
T0 T0

1
= exp(−jω0 nτ ) × x(u)exp(−jω0 nu)du
T0 T0
= exp(−jω0 nτ ) xn

De la expresión anterior se deriva, al asumir la notación polar de los coecientes


xn = |xn | ej∠xn , que
zn = |xn | ej(∠xn −ω0 nτ )
comprobando que únicamente se altera el espectro de fase por una cantidad ω0 nτ .

Ejemplo 2.9. Suponga dos señales periódicas continuas x(t) y y(t) cuyos coe-
cientes de la serie de Fourier son xn y yn . La señal resultante de la combinación
lineal de x y y, es decir, z(t) = αx(t) + βy(t) también es una señal periódica conti-
nua, y por lo tanto, tendrá una serie de Fourier. ¾Cómo calcular los coecientes de
la serie de Fourier, zn , en función de los coecientes xn y yn ?.
Solución. Como la ecuación para el cálculo de los coecientes es una expresión
lineal, es posible aplicar el principio de superposición al cálculo de los coecientes
de la serie de Fourier, luego, zn = αxn + βyn .

2.2.2. Serie de Fourier de una Señal Real


Puesto que las señales presentes en la naturaleza son completamente reales, resulta intere-
sante estudiar la serie de Fourier para esta clase de señales. Como se demostrará a continuación,
la serie de Fourier de una señal real se puede representar de tres formas diferentes: como la suma
de innitas exponenciales complejas, la suma de señales tipo coseno y seno de fase cero, o como
la suma de señales cosenoidales de fase variable; estas dos últimas representaciones se cono-
cen con el nombre de expansión trigonométrica de la serie de Fourier. Estas representaciones
indican desde el punto de vista práctico, que una señal periódica puede ser sintetizada (genera-
da) mediante la suma de algunas señales senoidales o cosenoidales armónicas de la frecuencia
fundamental, generadas a partir de una serie de osciladores.
Podemos ver de (2.21) que si x(t) es real, los coecientes de índices n negativos son el
complejo conjugado de los coecientes de n positivo:

∫ { ∫ }∗
α+T0 α+T0
1 1
c−n = x(t)exp(jω0 nt)dt = x(t)exp(−jω0 nt)dt = c∗+n
T0 α T0 α

c−n = c∗+n (2.26)

por ello, solamente basta conocer el valor de los cn para n positivos. Como directa consecuencia
de (2.26):
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 71

Re{c+n } = Re{c−n } (2.27)

Im{c+n } = −Im{c−n } (2.28)

|c+n | = |c−n | (2.29)

∠c+n = −∠c−n (2.30)

lo cual signica que en el espectro discreto de una señal real, la magnitud tiene simetría par y
la fase simetría impar.
Por otro lado, si expresamos cn en forma compleja como:

an − jbn
cn = , (2.31)
2
la serie de Fourier de una señal real, aplicando la propiedad (2.26) nos conduce a:

−1
∑ ∞

x(t) = c−n exp(jω0 nt) + c0 + c+n exp(jω0 nt)
n=−∞ n=1


∑ { ∗ }
x(t) = c0 + c+n exp(−jω0 nt) + c+n exp(jω0 nt) (2.32)
n=1

y reemplazado cn por (2.31)


a0 ∑
x(t) = + {an cos(ω0 nt) + bn sen(ω0 nt)} (2.33)
2 n=1
a0
Debido a que x(t) es real, c0 = 2 , y los coecientes an y bn pueden ser calculados mediante:

∫ α+T0
2
an = x(t)cos(ω0 nt)dt (2.34)
T0 α

∫ α+T0
2
bn = x(t)sen(ω0 nt)dt (2.35)
T0 α

Demostración . Partamos de la ecuación (2.21) y hagamos uso de la relación


(2.31):

an −jbn α+T∫
cn = 2 = T10 α 0 x(t)exp(−jω0 nt)dt
al expandir la exponencial compleja según la relación de Euler tenemos:

∫ α+T0 ∫ α+T
2 − 2 = T0 α x(t)cos(ω0 nt)dt − Tj0 α 0 x(t)sen(ω0 nt)dt
an jbn 1

por lo tanto, al igualar términos se llega a las expresiones (2.34) y (2.35).


72 2.2. SERIE DE FOURIER

Finalmente, la tercera forma de representar una señal real, se obtiene al notar que

c∗+n exp(−jω0 nt) + c+n exp(jω0 nt) = 2 |cn | cos(ω0 nt + ∠cn )


por lo que la ecuación (2.32) se transforma en:



x(t) = c0 + 2 |cn | cos(ω0 nt + ∠cn ) (2.36)
n=1
en cuyo caso, la relación con los coecientes an y bn es

1√ 2
|cn | =
an + b2n (2.37)
2
( )
bn
∠cn = −arctan (2.38)
an

2.2.3. Simetrías y Serie de Fourier


El cálculo de los coecientes an y bn de la serie de Fourier puede hacerse más fácil si se
consideran simetrías en la forma de la señal periódica x(t) a descomponer. Si analizamos la
descomposición trigonométrica de la serie de Fourier dada por la ecuación (2.33), podemos ver
que cualquier señal se puede descomponer en dos series, una formada por la sumatoria de señales
con simetría par (coseno) y otra de simetría impar (seno), cuyos respectivos coecientes son
an y bn . Lo anterior signica que si la señal x(t) tiene simetría par, únicamente los coecientes
an tendrán sentido y los bn serán por tanto cero. En caso contrario, si la señal tiene simetría
impar, los coecientes an son cero y los bn serán los únicos coecientes relevantes.
Hay un tipo de señales especiales denominadas
( ) señales armónicas impares
, en las cuales se
cumple la relación x t + 0 = −x(t) para todo t, en cuyo caso los coecientes impares de la se-
T
2
rie de Fourier serán los únicos que sobrevivirán de la serie ya que los pares serán cero. Aunque se
( T
)
puede hablar de señales armónicas pares, en las cuales se valida la expresión x t + 0 = x(t),
2
estas carecen de sentido, ya que una señal armónica par debería tener obligatoriamente un pe-
ríodo T0 /2.

Ejemplo 2.10. Calcular la serie de Fourier de la señal triangular de la Figura


2.12.

x(t)

t
−1
−T0 −T0 T0 T0
2 2

Figura 2.12: Onda Triangular

Solución. De la gura podemos observar que la señal tiene simetría par, por lo
tanto, los coecientes bn = 0, y solamente es necesario calcular los an , pero además
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 73

podemos ver que la señal es armónica impar, por lo tanto, los coecientes an para
n par serán cero. Para calcular an , asumiremos que la señal x(t) se puede expresar
como:

{ 4
1+ T0 t − T20 ≤ t < 0
x(t) =
1− 4
T0 t 0 ≤ t ≤ T20
así que:

∫0 ( ) ∫ T /2 ( )
an = 2
T0 −T0 /2
1+ 4
cos(ω0 nt)dt + T20 0 0
T0 t 1− 4
T0 t cos(ω0 nt)dt
{
0 n par
an = π24n2 (1 − cos(nπ)) = 8
2
π n 2 n impar
y nalmente,

8 8 8
x̂(t) = π 2 cos(ω0 t) + 9π 2 cos(3ω0 t) + 25π 2 cos(5ω0 t) + ...

2.2.4. Relación de Parseval


Para una señal periódica, la relación de Parseval establece que la potencia en el período de
una señal es igual a la suma de las potencias individuales de cada una de los armónicos que
componen la señal. Esta relación puede ser vista como aplicación del teorema de Pitágoras al
3
caso de señales , y es una consecuencia directa del principio de conservación de energía, ya que
la energía en el período puede calcularse ya sea directamente en el tiempo o a través del espectro
de frecuencias de la señal. Matemáticamente la relación de Parseval para señales periódicas se
establece como:
∫ ∑
1 2 2
|x(t)| dt = |cn | (2.39)
T0 T0 n

Demostración . Una forma de estimar el cuadrado de la magnitud de x(t) es


|x(t)| = x(t)x∗ (t),
2
realizar el producto entre la señal y su complejo conjugado, de
esta forma, tenemos las siguientes series de Fourier:



x(t) = xn ejω0 nt
n=−∞



x∗ (t) = x∗m e−jω0 mt
m=−∞

así que para calcular el cuadrado de la magnitud tenemos:


∑ ∞

xn x∗m ejω0 (n−m)t
2
|x(t)| =
n=−∞ m=−∞

y al integrar ambos lados de la ecuación sobre el período:

3 Recordar que el cuadrado de la norma de una señal en un intervalo [a, b] es igual a la energía de la señal en
ese intervalo.
74 2.2. SERIE DE FOURIER

∫ ∞
∑ ∞
∑ ∫
xn x∗m
2
|x(t)| dt = ejω0 (n−m)t dt
T0 n=−∞ m=−∞ T0

podemos notar que si n = m, la integral del lado derecho da como resultado T0 .


En cambio cuando ̸ m, como la integración se realiza sobre el
n = período, esta
integral da cero (condición de ortogonalidad), así que el lado derecho de la ecuación
se simplica en una única sumatoria sobre el dominio de n:
∫ ∞

2 2
|x(t)| dt = T0 |xn |
T0 n=−∞

la cual conduce nalmente a (2.39).

Nótese que para el caso de una señal real, en la cual, la descomposición se realiza en sumas de
A2amplitud
senos y cosenos, cada uno de ellos con potencias promedio de , la relación de Parseval
2
se puede expresar de una forma simple como:

∫ ∞
1 2 a20 1 ∑{ 2 }
|x(t)| dt = + an + b2n (2.40)
T0 T0 4 2 n=1
La relación de Parseval conduce a una importante propiedad de los espectros discretos, que
consiste en que los coecientes de la series de Fourier para n → ∞ se deben anular rápidamente,
ya que recordemos que las señales periódicas son por excelencia señales de potencia, así que
tanto la integral (lado izquierdo de la relación de Parseval) como la sumatoria sobre los aportes
individuales de cada componente de la señal (lado derecho de la ec. 2.39) deben converger a un
valor nito, lo cual solamente es posible si los coecientes cn tienen a cero conforme el índice
n aumenta, es decir, el aporte a la potencia de la señal de los armónicos de alta frecuencia
es prácticamente despreciable. Es por esta razón que en la práctica, cuando se analiza o desea
sintetizar una señal a través de la serie de Fourier, sea válida la suposición de emplear únicamente
algunos de los primeros términos de la serie, ya que los coecientes de índice superior son muy
cercanos a cero. Este aspecto será mostrado a través de un ejemplo en la Sección 2.2.7.

2.2.5. Sistemas LTI y Señales Periódicas


Recordemos que la salida de un sistema LTI se puede determinar por medio de la convolución,
por lo tanto, si introducimos a un sistema LTI una señal periódica dada por la serie de Fourier:



x(t) = xn exp(jω0 nt)
n=−∞

donde xn son los coecientes de la serie de Fourier de la señal de entrada. La señal de salida
será entonces:

∫ { ∞
}
∞ ∑
y(t) = x(t) ⋆ h(t) = h(λ) xn exp(jω0 n(t − λ)) dλ
−∞ n=−∞

y por las propiedades de linealidad del operador integral y sumatoria, podemos invertir el orden
de los operadores, lo cual permite expresar la ecuación anterior como:
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 75


∑ ∫ ∞
y(t) = xn exp(jω0 nt) h(λ) exp(−jω0 nλ)dλ (2.41)
n=−∞ −∞

Puesto que la integral denida es una constante parametrizada por n, podemos asociarle una
función continua que denotaremos H(ω), la cual se evalúa en los puntos ω = ω0 n que corres-
ponden a las frecuencias de las señales armónicas constitutivas. H(ω) se denomina respuesta en
frecuencia del sistema y es igual a:

∫ ∞
H(ω) = h(t)exp(−jωt)dt (2.42)
−∞

y curiosamente, corresponde a la transformada de Fourier de la respuesta al impulso, h(t). Esta


función debe ser continua, puesto que la relación (2.41) se debe cumplir para cualquier señal
periódica sin importar su período fundamental. Esta relación será demostrada posteriormente
cuando se estudie la transformada de Fourier. Finalmente, la ecuación (2.41) se puede reescribir
como:



y(t) = xn H(ω0 n) exp(jω0 nt) (2.43)
n=−∞

la cual indica que la señal de salida de un sistema LTI ante una señal de entrada periódica es de
nuevo una señal periódica, que posee el mismo contenido de frecuencias y frecuencia fundamental
de la señal de entrada, pero cada una de las componentes de frecuencia está afectada por un
factor de peso H(ω0 n) que se denomina respuesta en frecuencia del sistema.
Otra forma de interpretar (2.43) consiste en que el espectro discreto de la señal de salida
es el producto entre el espectro de la señal de entrada y la respuesta en frecuencia del sistema.
Del análisis anterior se deriva una importante propiedad de los sistemas LTI, y lo constituye el
hecho de que un sistema LTI nunca genera componentes de frecuencia que no existan en la señal
de entrada, únicamente altera la magnitud y fase de las diferentes componentes de frecuencia
de la señal de entrada. Esta ponderación está dada por la respuesta en frecuencia H(ω) la cual
es una función única e invariante en un sistema LTI. Lo anterior puede verse con mejor detalle,
si asociamos a los coecientes de la serie de Fourier que representa la señal de salida, yn , (ec.
2.43) la forma:

yn = xn H(ω0 n) (2.44)

|yn | ej∠yn = |xn | |H(ω)| ej(∠xn +∠H(ω)) (2.45)

por lo tanto, el espectro de magnitud de la señal de salida, |yn |, es igual al producto del espectro
de magnitud de la señal de entrada, |xn |, por la magnitud de la respuesta en frecuencia del
sistema, |H(ω)|; y el espectro de fase de señal de salida, ∠yn , es igual a la suma de los espectros
de fase de la señal de entrada, ∠xn , y respuesta en frecuencia del sistema, ∠H(ω).

Ejemplo 2.11. A un ltro con respuesta en frecuencia como la mostrada en


la Figura 2.13 se le ingresa una señal periódica cuya serie de Fourier está dada por
(2.23) (Ver Ejemplo 2.3). ¾Cómo son los coecientes de la serie de Fourier si la
frecuencia fundamental de la señal es 5 kHz? ¾Y si la frecuencia de la fundamental
es 6 kHz? ¾Cómo son las señales en el tiempo para cada uno de los casos?
76 2.2. SERIE DE FOURIER

|H(f)|

−16 −13 13 16 f (kHz)

Figura 2.13: Respuesta en frecuencia de un ltro pasa-banda

Solución. Según (2.23), los coecientes de la serie de Fourier están dados por

(π ) {
2 0 n par
cn = = sen2 n = 2
jπn 2 jπn n impar

Si la frecuencia fundamental es 5 kHz, las componentes de frecuencia presentes en


la señal de entrada estarían ubicadas en n × 5kHz = 0, ±5, ±10, ±15, ±20, ...kHz .
Pero según la gráca del ltro, las componentes que sobreviven a la salida del ltro
serán las ubicadas en −5kHz y 5kHz :
{
xn n = ±5
yn = xn H(nf0 ) = ,
0 c.c.

por lo tanto, la señal de salida será una señal senoidal de frecuencia 5kHz.
Sif0 es 6 kHz, las componentes de frecuencia presentes en la señal de entrada
serían n × 6kHz = 0, ±6, ±12, ±18, ±24, ...kHz , luego como ninguna de estas com-
ponentes está dentro de las frecuencias de paso del ltro, la señal de salida será cero,
es decir, yn = 0 ∀n.

2.2.6. Series Fourier de Trenes de Pulsos


La señal tren de impulsos (Figura 2.14a) y tren de pulsos (Figura 2.14b) son muy usadas
en el estudio del muestreo señales continuas, por ello resulta importante conocer sus series de
Fourier.

x(t) x(t)

t −τ τ t
(a) (b) 2 2

Figura 2.14: Señal tren de impulsos (a) y tren de pulsos (b)

Tren de Impulsos
La señal tren de impulsos se puede representar como la suma de innitas señales impulso
desplazadas en el tiempo, es decir, usando la notación dada en el Capítulo 1:
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 77



x(t) = δ(t − kT0 )
k=−∞

Puesto que los coecientes de la serie de Fourier se calculan sobre un período, y como la
forma del tren de impulsos en esta región es una única función delta:

∫ T0 /2
1 1
cn = δ(t) exp(−jω0 nt)dt =
T0 −T0 /2 T0
lo que nalmente indica que la serie de Fourier de esta señal será la suma de innitas señales
exponenciales complejas armónicas de igual amplitud:


1 ∑
x(t) = exp(jω0 nt) (2.46)
T0 n=−∞

Tren de Pulsos
Ahora, para el caso de una señal tren de pulsos, la forma del espectro de frecuencias será
una señal sinc discretizada como se mostrará a continuación:

( )
∫ τ /2 (τ )
τ /2 exp(−jω0 nt) −τ /2 sen sen τ
T0 πn
1 2 ω0 n
cn = exp(−jω0 nt)dt = − = =
T0 −τ /2 jT0 ω0 n πn πn
( )
τ τ
cn = sinc n (2.47)
T0 T0
donde la relación τ /T0 , llamada ciclo útil , denota el porcentaje del tiempo en el que la señal
toma el valor de amplitud uno con respecto al periodo total. De la expresión anterior se derivan
dos posibles representaciones para la serie de Fourier, en términos de exponenciales complejas,


∑ ( )
τ τ
x(t) = sinc n exp(jω0 nt) (2.48)
T
n=−∞ 0
T0

o en términos de cosenos,

∑∞ ( )
2τ τ
x(t) = sinc n cos(ω0 nt) (2.49)
T
n=0 0
T0

2.2.7. Ejemplos de Aplicación de la Serie de Fourier


Síntesis de señales
Al estudiar las propiedades de la serie de Fourier de una señal real (Sección 2.2.2) se comentó
que ésta se puede usar para construir un circuito que permita generar (sintetizar) una señal
periódica a partir de la suma de osciladores armónicos de diferente amplitud y fase. Esta técnica
en particular fue empleada para la construcción de los primeros sintetizadores de instrumentos
78 2.2. SERIE DE FOURIER

musicales y las tarjetas de sonido de primera generación. La idea detrás del circuito de la Figura
2.15 es implementar (2.36):



x(t) = c0 + 2 |cn | cos(ω0 nt + ∠cn )
n=1

donde cada desplazador de fase corre la señal la cantidad indicada por ϕn = ∠cn y la ganancia
R/Rn de cada una de las entradas al sumador está dada por 2 |cn |. Dado que la ecuación (2.36)
representa una suma sobre innitos términos, y en la práctica solamente es posible tener algunos
osciladores, las señales sintetizadas por el circuito son versiones aproximadas de la señal real.
Surge entonces la pregunta, ¾cuáles y cuántos coecientes tomar?. La respuesta se encuentra en
la relación de Parseval, establece que solamente es necesario emplear los primeros coecientes
de la serie.

R0
+Vcc

f0
R1
desplazador
fase φ 1 R
R2
2f0 desplazador
x1 fase φ 2

R3
3f0 desplazador
x2 fase φ 3 +

Rn
nf0
xn desplazador
fase φ ν

Figura 2.15: Circuito para síntesis de señales basado en la Serie de Fourier

En la Figura 2.15 se muestra la forma de onda sintetizada de una señal cuadrada y una
triangular para diferente número de coecientes. Observe que aunque se use un número elevado
de coecientes para obtener una mejor aproximación de la señal cuadrada, las transiciones
abruptas de la señal nunca es posible reproducirlas (a este efecto se le denomina efecto Gibbs );
en cambio para la onda triangular con pocos coecientes es posible reproducir la señal deseada.
Por esta razón, cuando se sintetizan instrumentos con este método, la calidad de la síntesis es
apenas aceptable.

Multiplicadores de frecuencia
En circuitos digitales existe la posibilidad de dividir la frecuencia por cualquier entero n
mediante el empleo de un circuito contador, sin embargo, ningún circuito lógico permitía multi-
plicar dicha frecuencia por un factor entero. Estos circuitos multiplicadores de frecuencia como
se verá a continuación se pueden plantear a partir de un análisis de la serie de Fourier.
Ante todo, recordemos que para una señal senoidal, la serie de Fourier tiene un único coe-
ciente c1 (Figura 2.17a), por lo tanto si dicha señal pasa a través de un inversor tipo Schmitt, la
forma de la salida será una onda cuadrada con una frecuencia fundamental igual a la de la señal
de entrada, y su serie de Fourier tendrá un contenido de componentes cn más amplio (Figura
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 79

1.5 N=3 1.5 N=8

1 1

0.5 0.5
x(t)

x(t)
0 0

−0.5 −0.5

−1 −1

−1.5 −1.5
0 0.5 1 0 0.5 1
Tiempo (t) Tiempo (t)

1.5 N = 15 1.5 N = 100

1 1

0.5 0.5
x(t)

x(t)

0 0

−0.5 −0.5

−1 −1

−1.5 −1.5
0 0.5 1 0 0.5 1
Tiempo (t) Tiempo (t)
1 1
N=3 N=5
0.5 0.5
x(t)

x(t)

0 0

−0.5 −0.5

−1 −1
0 0.5 1 0 0.5 1
Tiempo (t) Tiempo (t)

1 1
N=7 N = 100
0.5 0.5
x(t)
x(t)

0 0

−0.5 −0.5

−1 −1
0 0.5 1 0 0.5 1
Tiempo (t) Tiempo (t)

Figura 2.16: Ejemplos de señales sintentizadas con la serie de Fourier


80 2.3. TRANSFORMADA DE FOURIER

2.17a). Por lo que el inversor Schmitt se comporta como un sistema no LTI. Finalmente, si
ubicamos a la salida de la compuerta un ltro pasa-banda (Figura 2.17b) con la especicación:
frecuencia central fc = nf0 y ancho de banda BW ≤
f0
2 , a la salida obtendremos una senoidal
de frecuencia fundamental nf0 , lo que indica que la frecuencia de la señal de entrada se ha
multiplicado por un factor de n (Figura 2.17).

|cn | |cn |
(a)

−7 −6 −5 −4 −3 −2 −1 0 1 2 3 4 5 6 7
n −7 −6 −5 −4 −3 −2 −1 0 1 2 3 4 5 6 7
n

|cn | |cn |
(b)

−7 −6 −5 −4 −3 −2 −1 0 1 2 3 4 5 6 7
n n
−7 −6 −5 −4 −3 −2 −1 0 1 2 3 4 5 6 7

Figura 2.17: Multiplicador de frecuencia por 4

Valor RMS de una señal periódica


√ valor RMS mide el equivalente DC de una señal AC y se calcula a través
Recordemos que el
de (no como Vpico / 2, el cual solo es válido para señales senoidales):
√ ∫
1 2
VRM S = |x(t)| dt
T0 T0
Si analizamos con detenimiento dicha ecuación encontramos que el valor RMS no es más
que la raíz cuadrada de la potencia de la señal periódica; de esta forma, es fácil calcular el
VRM S a través de la relación de Parseval. Calculemos por ejemplo, el valor RMS de la señal

π cos(2ω0 t) − π 2 cos(5ω0 t) + π 2 sin(5ω0 t). Se tiene para esta señal que los coecientes de
4 2 3
r(t) =
π , a5 = − π 2 , b5 = π 2 , por lo que usando la relación de Parseval
4 2 3
la serie de Fourier son a2 =
tenemos que:

v √
u 2 ∞
u a0
t 1∑ 2 16 4 9
VRM S = + {an + bn } =
2
2
+ 4 + 4 = 1,7141
4 2 n=1 π π π

2.3. Transformada de Fourier


Como se comentó al inicio, el desarrollo por medio de la serie de Fourier permite obtener el
espectro de una señal periódica continua, así que para una señal continua no periódica, existe
una relación equivalente, denominada transformada de Fourier de tiempo continuo. Para una
señal aperiódica, la transformada de Fourier será el equivalente a los coecientes cn de la serie de
Fourier y su transformada inversa a la serie propiamente dicha, cuyo signicado para una señal
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 81

aperiódica se puede resumir como la suma de innitas exponenciales complejas no armónicas


de frecuencia continua. Como se verá más adelante (Sección 2.3.6), la transformada de Fourier
será aplicable también a señales periódicas, sin embargo, la forma del espectro en frecuencia
será una función discreta similar a la obtenida por medio de la serie de Fourier.
Matemáticamente, la transformada de Fourier X(ω) de una señal continua x(t) se calcula
mediante:

∫ ∞
X(ω) = x(t) exp(−jωt)dt (2.50)
−∞

donde ω es la frecuencia dada en radianes por segundo. La transformada inversa se dene como:

∫ ∞
1
x(t) = X(ω) exp(jωt)dω (2.51)
2π −∞

Cuando el eje de frecuencias se expresa en Hertz, la transformada de Fourier y su inversa se


expresan de la siguiente manera:

∫ ∞
X(f ) = x(t) exp(−j2πf t)dt (2.52)
−∞
∫ ∞
x(t) = X(f ) exp(j2πf t)df (2.53)
−∞

Demostración . Para derivar las expresiones de la transformada de Fourier,


podemos considerar las señales aperiódicas como señales periódicas con período
innito, así que a partir de la serie de Fourier:


{ ∫ }
∑ 1 α+T0 /2
x(t) = lı́m x(τ ) exp(−jω0 nτ )dτ exp(jω0 nt)
T0 →∞ T0 α−T0 /2
n=−∞

podemos notar que el término ω0 n corresponde a la frecuencia de la componente


armónica, y al suponer la señal aperiódica como la suma de innitas exponenciales
de frecuencia continua ω, podemos hacer el cambio de variable ω = ω0 n, así mismo,
la separación entre dos componentes de frecuencia es ∆ω = ω0 = 2π
T0 , de esta forma,
la ecuación anterior se transforma en:

∑∞ { ∫ }
∆ω ∞
x(t) = lı́m x(τ ) exp(−jωτ )dτ exp(jωt)
∆ω→0
n=−∞
2π −∞

y ya que si T0 → ∞, ∆ω → 0, por lo tanto, ∆ω se transformará en un diferencial,


y la sumatoria en una integral:

∫ ∞ {∫ ∞ }
1
x(t) = x(τ ) exp(−jωτ )dτ exp(jωt)dω (2.54)
2π −∞ −∞

En esta ecuación, la integral interior será una función en términos de ω y corres-


ponde a la transformada de Fourier X(ω) (2.50), y la integral exterior a la transfor-
mada inversa de Fourier (ec. 2.51).
82 2.3. TRANSFORMADA DE FOURIER

Finalmente, debemos decir que una señal x(t) tiene transformada de Fourier si cumple con las
condiciones de Dirichlet :
∫∞
1. la señal debe ser absolutamente integrable:
−∞
|x(t)| dt < ∞;
2. el número de máximos o mínimos de x(t) en cualquier intervalo nito debe ser nito;

3. el número de discontinuidades de x(t) en cualquier intervalo nito debe ser nito.

En este documento denotaremos la transformada de Fourier de una señal x(t) por medio de la
letra mayúscula y el operador F así: X(ω) = F{x(t)} o X(f ) = F{x(t)}; y la transformada
−1 −1
inversa por medio del operador F así: x(t) = F {X(ω)}.

2.3.1. Transformada de Fourier de una Señal Real


Al igual que para la serie de Fourier, la transformada de Fourier de una señal real cumple
la propiedad de que la forma del espectro para valores positivos de la frecuencia es el complejo
conjugado de los valores de X(ω) para frecuencias negativas, esto es:

X(ω) = X ∗ (−ω) (2.55)

lo anterior se puede demostrar al expandir la exponencial compleja por medio de la relación de


Euler:

∫ ∞ ∫ ∞
X(ω) = x(t)cos(ωt)dt − j x(t)sen(ωt)dt = X ∗ (−ω)
−∞ −∞

De (2.55) se derivan las siguientes relaciones, equivalentes a (2.27)-(2.30):

Re{X(ω)} = Re{X(−ω)} (2.56)

Im{X(ω)} = −Im{X(−ω)} (2.57)

|X(ω)| = |X(−ω)| (2.58)

∠X(ω) = −∠X(−ω) (2.59)

Asimismo, si x(t) tiene simetría par, Im{X(ω)} = 0, y para señales impares, Re{X(ω)} = 0.

Ejemplo 2.12. Calcular la transformada de Fourier de una señal pulso rectan-


gular escalada. Figura 2.18.
Solución. Para calcular su transformada de Fourier haremos uso de (2.50):

∫ τ /2 ( τ) ( ωτ )
τ /2
exp(−jωt) 2
X(ω) = exp(−jωt)dt = = sen ω = τ sinc
−τ /2 −jω −τ /2 ω 2 2π

puede notarse que esta transformada de Fourier de un pulso rectangular es una


función continua. Si se compara esta ecuación con los coecientes de la serie de
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 83

rect ( tτ )


τ 0 τ t
2 2

Figura 2.18: Señal pulso rectangular escalada.

Fourier de una señal tren de pulsos (ec. 2.47) se encontrará una similitud: ambos
espectros son funciones sinc, pero para el caso de la señal tren de pulsos, el espectro es
discreto, y se podría obtener a partir del muestreo de la expresión anterior asumiendo
ω = 2π
T0 n. Este aspecto se detallará en la Sección 2.3.6.

Ejemplo 2.13. Calcular las transformadas de Fourier de las señales impulso


unitario, δ(t), e impulso unitario retardado δ(t − t0 ).
Solución. Para determinar su valor, haremos uso de (2.54):
∫ ∞ {∫ ∞ }
1 −jωτ
x(t) = x(τ )e dτ ejωt dω
2π −∞ −∞

que después de intercambiar los integrandos nos conduce a:

∫ ∞ { ∫ ∞ }
1 jω(t−τ )
x(t) = e dω x(τ )dτ.
−∞ 2π −∞

Esta relación es válida si la integral interior es igual a δ(t − τ ), y como tiene la


forma de una transformada inversa, tenemos que:

δ(t − τ ) = F −1 {e−jωτ }

por lo tanto,

F{δ(t − τ )} = e−jωτ (2.60)

F{δ(t)} = 1 . (2.61)

Si esta transformada se realiza en términos de f:

F{δ(t − τ )} = exp(−j2πf τ ) (2.62)

F{δ(t)} = 1 (2.63)
84 2.3. TRANSFORMADA DE FOURIER

Cuadro 2.1: Transformadas de Fourier de señales típicas


Señal Transformada de Fourier Transformada de Fourier
x(t) X(ω) X(f )
δ(t) 1 1
1 2πδ(ω) δ(f )
δ(t − t0 ) e−jωt0 e−j2πt0
ejω0 t 2πδ(ω − ω0 ) δ(f − f0 )
cos(ω0 t) πδ(ω − ω0 ) + πδ(ω + ω0 ) 1
2 δ(f − f0 ) + 21 δ(f + f0 )
sen(ω0 t) jπδ(ω + ω0 ) −( jπδ(ω
) − ω0 ) 2 δ(f + f0 ) − 2 δ(f − f0 )
j j
ω
rect(t) sinc ( 2π ) sinc(f )
ω
sinc(t) rect 2π rect(f )
1 1 1
u(t) πδ(ω) + jω 2 δ(ω) + j2πf
2 1
signo(t) jω jπf
2 ω 2
triang(t) sinc ( 2π ) sinc (f )
e−αt u(t) 1
α+jω
1
α+j2πf
te−αt u(t) 1
(α+jω)2
1
(α+j2πf )2
e−α|t| 2α
α2 +ω 2

α2 +4π 2 f 2
e−πt −ω 2 /4π −πf 2
2
e e
e−αt cos(2πβt)u(t) α+jω
(α+jω)2 +(2πβ)2
α+j2πf
(α+j2πf )2 +(2πβ)2
e−αt sen(2πβt)u(t) 2πβ 2πβ
∑∞ ∑(α+jω)2 +(2πβ)2
∞ ∑
(α+j2πf

)2 +(2πβ)2
n=−∞ δ(t − nT ) k=−∞ δ(ω − T ) k=−∞ δ(f − T )
2π 2πk 1 k
T T

2.3.2. Transformada de Fourier de Señales Típicas


4 5
En la Tabla 2.1 se presenta un conjunto básico de pares de transformada de Fourier .

2.3.3. Propiedades de la Transformada de Fourier


A continuación se muestran las propiedades más importantes de la transformada de Fourier
en sus diferentes versiones, frecuencia en radianes por segundo, ω, y en Hertz, f. Se supondrá
que X1 (ω) = F{x1 (t)} y X2 (ω) = F{x2 (t)}.

Linealidad

αx1 (t) + βx2 (t) ⇔ αX1 (ω) + βX2 (ω) (2.64)

αx1 (t) + βx2 (t) ⇔ αX1 (f ) + βX2 (f ) (2.65)



 1 t>0
4 signo(t) = 0 t=0

 −1 t < 0
 1 + t −1 ≤ t ≤ 0
5 triang(t) = 1−t 0≤t≤1

0 c.c
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 85

Dualidad
Si

X(f ) = F{x(t)} (2.66)

tenemos que:

x(f ) = F{X(−t)} (2.67)

x(−f ) = F{X(t)} (2.68)

Ejemplo 2.14. Calcular la transformada de Fourier de la señal sinc.


Solución. Anteriormente se determinó que F{rect(t)} = sinc(f ) cuando τ = 1,
por lo tanto,F{sinc(t)} = rect(−f ) y como la señal pulso rectangular es par:
F{sinc(t)} = rect(f ).

Desplazamiento en el Tiempo

x(t − t0 ) ⇔ e−jωt0 X(ω) (2.69)

x(t − t0 ) ⇔ e−j2πf t0 X(f ) (2.70)

Puede notarse que el desplazamiento en el tiempo no modica la magnitud del espectro en


frecuencia, únicamente modica la forma de espectro de la fase de la señal.

Demostración . Calculemos la transformada de Fourier de x(t − t0 ) haciendo


uso de (2.50):

∫ ∞
F{x(t − t0 )} = x(t − t0 ) exp(−jωt)dt
−∞
haciendo el cambio de variable τ = t − t0 ,
∫ ∞ ∫ ∞
−jω(τ +t0 ) −jωt0
F{x(t − t0 )} = x(τ )e dτ = e x(τ )e−jωτ dτ
−∞ −∞
y puesto que la integral adquiere la forma de una transformada de Fourier, tenemos
nalmente que:

F{x(t − t0 )} = e−jωt0 X(ω).

Desplazamiento en la Frecuencia

ejω0 t x(t) ⇔ X(ω − ω0 ) (2.71)

ej2πf0 t x(t) ⇔ X(f − f0 ) (2.72)

Su demostración es análoga a la de desplazamiento en el tiempo. Además puede observarse


que la propiedad de desplazamiento en la frecuencia es el dual del desplazamiento en el tiempo.
86 2.3. TRANSFORMADA DE FOURIER

Escalado

1 (ω )
x(at) ⇔ X (2.73)
|a| a
Recordemos que si |a| < 1 la señal en el tiempo sufrirá una expansión, lo que se reeja en
una contracción del espectro en frecuencia y viceversa. Como se verá en la Sección 2.3.4 esto
está ligado al principio de incertidumbre.
El efecto del escalado puede apreciarse cuando se reproduce una cinta de casete a diferente
velocidad. Por ejemplo, si se acelera la reproducción (contracción en el tiempo), el sonido se
escuchará más agudo porque aumenta el contenido de frecuencias altas (expansión del espec-
tro); en cambio cuando se desacelera la reproducción (dilatación en el tiempo), el sonido se
escucha más grave puesto que el contenido de frecuencias altas disminuye concentrándose todo
el espectro a bajas frecuencias (contracción del espectro).

Demostración . Aplicando la transformación directa sobre x(at) (ec. 2.50) y


usando el cambio de variable τ = at:
∫ ∞ ∫ ∞ ( ωτ )
1
F{x(at)} = x(at) exp(−jωt)dt = x(τ ) exp −j dτ
−∞ a −∞ a
Puede apreciarse que la integral es igual a una transformada de Fourier pero en
la cual se ha realizado un escalamiento del eje de frecuencias ω, de esta forma se
llega a:

1 (ω )
F{x(at)} = X
|a| a
donde se ha realizado el mismo procedimiento por separado para a negativos y
positivos. 

Convolución

x1 (t) ⋆ x2 (t) ⇔ X1 (ω)X2 (ω) (2.74)

x1 (t) ⋆ x2 (t) ⇔ X1 (f )X2 (f ) (2.75)

Demostración . Aplicando la transformación directa sobre la convolución de


las señales x1 (t) y x2 (t), y la denición de la convolución para dos señales continuas
(ec. 1.51), tenemos:

∫ ∞ [∫ ∞ ]
F{x1 (t) ⋆ x2 (t)} = x1 (λ)x2 (t − λ)dλ exp(−jωt)dt
−∞ −∞
∫ ∞ [∫ ∞ ]
= x2 (t − λ) exp(−jωt)dt x1 (λ)dλ
−∞ −∞
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 87

donde la integral más interna corresponde a la transformada de Fourier de la se-


ñal x2 (t) desplazada en λ instantes de tiempo, así que al emplear la propiedad de
desplazamiento en el tiempo de la transformada de Fourier:

∫ ∞
= X2 (ω) exp(−jωλ)x1 (λ)dλ = X2 (ω)X1 (ω). 
−∞

Modulación
∫ ∞
1 1
x1 (t)x2 (t) ⇔ X1 (ω) ⋆ X2 (ω) = X1 (λ)X2 (ω − λ)dλ (2.76)
2π 2π −∞

x1 (t)x2 (t) ⇔ X1 (f ) ⋆ X2 (f ) (2.77)

Las propiedades de convolución y modulación se pueden resumir como: la convolución de


dos señales en el tiempo es equivalente al producto de sus respectivos espectros en la frecuencia
e inversamente, el producto de dos señales en el tiempo es equivalente a convolución en la
frecuencia de sus respectivos espectros.
La demostración de las ecuaciones (2.76) y (2.77) es análoga a la de la propiedad de convo-
lución.

Diferenciación en el tiempo

dn
x(t) ⇔ (jω)n X(ω) (2.78)
dtn
dn
x(t) ⇔ (j2πf )n X(f ) (2.79)
dtn
Demostración . Empleando para x(t) la expresión de la transformada inversa
de Fourier (ec. 2.51), tenemos para su n-ésima derivada:

∫ ∞ ∫ ∞
dn 1 dn 1
n
x(t) = X(ω) exp(jωt)dω = (jω)n X(ω) exp(jωt)dω
dt 2π dtn −∞ 2π −∞

y puesto que la integral corresponde a la transformada inversa de Fourier del espectro


(jω)n X(ω):
{ }
dn dn
x(t) = F −1 {(jω)n X(ω)} ⇒ F x(t) = (jω)n X(ω). 
dtn dtn

Diferenciación en la frecuencia

dn
tn x(t) ⇔ j n X(ω) (2.80)
dω n
( )n n
j d
tn x(t) ⇔ X(f ) (2.81)
2π df n
Su demostración es similar a la de la propiedad de diferenciación en el tiempo.
88 2.3. TRANSFORMADA DE FOURIER

Integración
∫ t
1
x(t)dt ⇔ X(ω) + πX(0)δ(ω) (2.82)
−∞ jω
∫ t
1 1
x(t)dt ⇔ X(f ) + X(0)δ(f ) (2.83)
−∞ j2πf 2
El segundo término que aparece en las transformadas de Fourier está relacionado con el valor
medio o nivel de DC de la señal de entrada, el cual se ve reejado en el espectro de frecuencia
como una señal impulso unitario en ω = 0.

Demostración . En el Capítulo 1 se estableció que un integrador por ser un


∫t
sistema LTI posee una respuesta al impulso h(t) = u(t), luego, −∞ x(τ )dτ = u(t) ⋆
x(t), y de esta forma la transformada de Fourier de la integración será:

{∫ t } { }
1
F x(τ )dτ = F {u(t) ⋆ x(t)} = + πδ(ω) X(ω) =
−∞ jω
1
X(ω) + πX(0)δ(ω). 

n-ésimo momento


dn
n
t x(t)dt = (j) X(ω) n
(2.84)
dω n
−∞ ω=0
∫ ∞ ( )n n
j d
n
t x(t)dt = X(f ) (2.85)
2π df n
−∞ f =0
Su demostración es similar a la de la propiedad de diferenciación en el tiempo.

Relación de Parseval
∫ ∞ ∫ ∞
1
x1 (t) x∗2 (t)dt = X1 (ω) X2∗ (ω)dω (2.86)
−∞ 2π −∞
∫ ∞ ∫ ∞

x1 (t) x2 (t)dt = X1 (f ) X2∗ (f )df (2.87)
−∞ −∞
En las expresiones anteriores se contempla el complejo conjugado de la señal x2 (t), puesto
que si x1 (t) = x2 (t) = x(t), la relación de Parseval debe adquirir la forma de la energía de la
señal x(t):
∫ ∞ ∫ ∞
2 2
|x(t)| dt = |X(f )| df , (2.88)
−∞ −∞
relación conocida con el nombre de teorema de Rayleigh, e indica que la energía de una señal
puede calcularse tanto en el dominio del tiempo como de la frecuencia, dando exactamente el
mismo resultado.
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 89

Autocorrelación
La autocorrelación de una señal determinística se dene como:

∫ ∞ ∫ ∞
Rx (τ ) = x(t)x∗ (t − τ )dt = x(t + τ )x∗ (t)dt (2.89)
−∞ −∞

e indica para una señal x(t), la relación existente entre dos instantes de tiempo separados una
distancia τ. Puede notarse que (2.89) es similar a la convolución, salvo que la señal x∗ (t) no se
reeja como si ocurría en la convolución. De esta forma:

Rx (τ ) = x(τ ) ⋆ x∗ (−τ ) (2.90)

Así mismo, la energía de la señal es igual a la autocorrelación evaluada en cero Ex = Rx (0). A


partir de (2.75) y (2.90) se puede demostrar que la transformada de Fourier de la autocorrelación
es igual a la densidad espectral :
2
F{Rx (τ )} = |X(f )| (2.91)

Estos aspectos se ampliarán con mejor detalle en la Sección 2.4.

2.3.4. Principio de Incertidumbre


Como se discutirá en esta sección la transformada de Fourier corresponde a una idealización
matemática de las señales, haciendo que sea imposible la determinación precisa de la localiza-
ción en el tiempo de las componentes de frecuencia de una señal. Para ilustrar esta situación
consideremos una señal cosenoidal. Para esta señal, es conocido que su espectro en frecuencia
son dos funciones delta de Dirac ubicadas en las frecuencias ω = ±ω0 , lo cual indica que sus
componentes de frecuencia están perfectamente localizadas, es decir, el error o desviación de la
medida de la frecuencia para este tipo de señal es cero. Sin embargo, la forma de la señal en el
tiempo muestra que dicha señal se encuentra esparcida a lo largo de todo el tiempo, es decir,
la señal no tendrá ningún inicio ni nal, y está denida en todo instante de tiempo. Desde el
punto de vista lógico esta señal es imposible de existir en la naturaleza, puesto que implica que
la señal ha existido por siempre y nunca morirá, lo cual implica una energía innita (Figura
2.19a).
Otro ejemplo, lo constituye una señal de energía, perfectamente localizada en el tiempo
como lo es un pulso rectangular. Si la incertidumbre en la medición de los extremos de la señal
son cero, el espectro en frecuencia de la señal (una función sinc) indica que son necesarias
innitas componentes de frecuencia para conformar la señal original, es decir, las componentes
en frecuencia están deslocalizadas y la incertidumbre en la medición de las frecuencias es alto
(Figura 2.19b). De lo anterior se concluye que existe una relación indivisible entre el error de la
medición de la frecuencia de una señal y el error en la medición de la señal en el tiempo. Dicho
de otra forma, no es posible conocer nunca con precisión donde están localizadas en el tiempo las
componentes de frecuencia de una señal. Lo anterior se constituye en lo que se puede denominar
principio de incertidumbre. Matemáticamente se puede demostrar que la incertidumbre entre
el conocimiento del tiempo ∆ω y la frecuencia ∆t está dada por:

∆ω ∆t ≥ 1 (2.92)
90 2.3. TRANSFORMADA DE FOURIER

1
∆f ∆t ≥ (2.93)

Las expresiones anteriores están fuertemente ligadas a la propiedad de escalamiento de la
transformada de Fourier, ya que si el espectro en frecuencia de una señal es muy angosto, la
señal en el tiempo estará dispersa o existe para un gran número de valores del tiempo. En caso
contrario, cuando la energía de una señal está localizada en un conjunto estrecho de valores del
tiempo, el espectro en frecuencia de la señal será muy ancho.

X(ω )
(a) x(t)

−ω0 0 ω0

y(t)
Y(ω )
(b)

τ 0 τ t

0 ω 2 2

∆t

Figura 2.19: Implicaciones prácticas del principio de incertidumbre

Demostración . La función más típica para representar la distribución de los


valores de una medición z es una gausiana

( )
1 (z − z)2
√ exp − ,
2π∆z 2(∆z)2
donde z representa el valor medio de la medición y ∆z la dispersión o desviación
estandard alrededor de dicho valor medio. Por otro lado, recordemos que la señal
delta de Dirac era el único tipo de señal altamente localizada en el tiempo, es decir, la
dispersión de valores alrededor de t = 0 es igual cero. Luego, como en la práctica esta
señal es imposible de obtener, podemos suponer que una delta de Dirac práctica se
puede modelar como una señal pulso gausiano, en la cual, su valor medio t=0 y su
dispersión es ∆t, en otras palabras, un pulso gausiano es una señal que representa
una función delta ensanchada.
El espectro de dicha señal será entonces:

{ ( )} ∫ ∞ ( )
1 t2 1 t2
X(ω) = F √ exp − = √ exp − exp (−jωt) dt
2π∆t 2(∆t)2 2π∆t −∞ 2(∆t)2
∫ ∞ ( )
1 t2
= √ exp − − jωt dt.
2π∆t −∞ 2(∆t)2

Completando el cuadrado del argumento de la exponencial, se tiene que:


CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 91

t2 1 [2 ] 1 [ ]
− 2
−jωt = − 2
t + j2(∆t)2 ωt = − 2
(t + j(∆t)2 ω)2 + (∆t)4 ω 2
2(∆t) 2(∆t) 2(∆t)
que sustituida en la transformada nos conduce a:

∫ ∞ ( ) ( )
1 1 1
X(ω) = √ exp − (t + j(∆t) ω) exp − (∆t) ω dt
2 2 2 2
2π∆t −∞ 2(∆t)2 2
( 1 )
2 2 ∫ ∞ ( )
exp − 2 (∆t) ω 1
= √ exp − (t + j(∆t)2 ω)2 dt
2π∆t −∞ 2∆t

ahora, sea u = t + j(∆t)2 ω , entonces la ecuación anterior se transforma en:

( )∫ ∞ ( )
exp − 12 (∆t)2 ω 2 1 2
X(ω) = √ exp − u du.
2π∆t −∞ 2∆t
Nótese que la integral corresponde al área bajo la curva de una gausiana, cuyo

valor es igual a 2π∆t, por lo tanto, tenemos nalmente que:

( )
exp − 12 (∆t)2 ω 2
X(ω) = √
∆t
lo que signica que el espectro de una gausiana es de nuevo una gausiana, en la
cual las componentes de frecuencia se distribuyen alrededor de la frecuencia central
1
ω = 0 con una dispersión ∆ω igual a ∆ω = ∆t , luego la relación que existe entre
las incertidumbres de las mediciones en el tiempo y en la frecuencia será:

∆t ∆ω ≥ 1
donde la desigualdad aparece como consecuencia de que el desarrollo anterior fue
obtenido para un caso ideal. 

2.3.5. Transformada de Fourier en Sistemas LTI y no LTI


Recordemos que la salida de un sistema LTI en tiempo continuo está descrito por medio de
integral de convolución y(t) = x(t) ⋆ h(t), así que el espectro de la señal de salida, aplicando la
propiedad de convolución de la transformada de Fourier será:

Y (ω) = X(ω)H(ω) (2.94)

donde H(ω), que corresponde a la transformada de Fourier de la respuesta al impulso, se


denomina la respuesta en frecuencia del sistema, ya que de (2.94) se puede apreciar que es igual
a la relación entre el espectro de la señal de salida y el espectro de la señal de entrada:

∫ ∞
Y (ω)
H(ω) = F{h(t)} = h(t) exp(−jωt)dt = (2.95)
−∞ X(ω)
lo que signica que la respuesta en frecuencia del sistema trabaja como una función que
pondera el espectro de la señal de entrada para producir el espectro de salida. Al igual que la
92 2.3. TRANSFORMADA DE FOURIER

respuesta al impulso, la respuesta en frecuencia es una función única que describe por completo
las propiedades frecuenciales del sistema.
La respuesta en frecuencia también está relacionada con los autovalores de un sistema LTI.
Anteriormente se mostró, para el caso de vectores, que en ciertas transformaciones lineales,
A, existen unos vectores, el , llamados autovectores, bajo los cuales la transformación lineal
solamente modica la longitud del vector más no su dirección, es decir, Ael = λl el (ec. 2.10).
6
Para extender estas ideas para el caso de las señales, y en particular para los sistemas LTI ,
recordemos que la salida de un sistema LTI está dada por la integral de convolución
∫ ∞
T {x(t)} = x(t) ⋆ h(t) = h(τ )x(t − τ )dτ
−∞

Ahora supongamos que al sistema LTI se le introduce como entrada una señal exponencial
compleja, X(ω) = exp(jωt), entonces su salida será
∫ ∞ ∫ ∞
T {exp(jωt)} = h(τ ) exp(jω(t − τ ))dτ = exp(jωt) h(τ ) exp(−jωτ )dτ
−∞ −∞

Nótese que la integral en la expresión anterior corresponde a la transformada de Fourier de la


∫∞
respuesta al impulso, H(ω) = h(τ ) exp(−jωτ )dτ , la cual hemos denominado respuesta en
−∞
frecuencia del sistema. Luego,

T {exp(jωt)} = exp(jωt)H(ω) (2.96)

tiene una forma semejante a la ecuación de autovalores (2.10) que se presentó para el caso de
vectores. Así que para un sistema LTI, las señales exponenciales complejas son las autofuncio-
nes (equivalente a los autovectores) de un sistema LTI, y la respuesta en frecuencia son los
autovalores de un sistema LTI.
Nótese que si en las expresiones de la transformada de Fourier se lleva a cabo la sustitución
s = jω , llegamos a la denición formal de la transformada de Laplace. Por lo tanto, la trans-
formada de Laplace no es más que un caso particular de la transformada de Fourier de una
señal continua o en otras palabras, su representación algebraica. Cuando usamos transformada
de Laplace, la ecuación equivalente a (2.95) será H(s) y se denomina función de transferencia
del sistema.
Una consecuencia importante de (2.95) lo constituye el hecho de que en un sistema LTI el
espectro de la señal de salida posee únicamente componentes de frecuencia que están presentes
en la señal de entrada, es decir, no genera a la salida nuevas componentes de frecuencia.
En un sistema no LTI, lo anterior no es válido y por tanto, para estos sistemas no es posible
establecer una respuesta en frecuencia H(ω), pero si una relación entre el espectro de la señal
de entrada y la señal de salida. Estos sistemas se caracterizan porque modican completamente
el contenido frecuencial de la señal de entrada como se ilustra en el siguiente ejemplo.

Ejemplo 2.15. Consideremos un sistema no LTI simple como lo es un modulador


de amplitud (AM) dado por la relación de entrada-salida y(t) = x(t)cos(ω0 t), donde
ω0 se denomina frecuencia de la portadora. El espectro de salida será entonces:

F{y(t)} = F{ x(t) cos(ω0 t) }


6 Como se comentó en el Capítulo 1, un sistema se representa matemáticamente a través de un operador que
realiza una transformación de una señal x(t) en una señal y(t)
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 93

al aplicar la propiedad de modulación de la transformada de Fourier:

1 1 1
Y (ω) = X(ω) ⋆ F{cos(ω0 t)} = X(ω) ⋆ πδ(ω − ω0 ) + X(ω) ⋆ πδ(ω + ω0 )
2π 2π 2π

1 1
Y (ω) = X(ω − ω0 ) + X(ω + ω0 )
2 2
lo cual signica que el cero del espectro de la señal de entrada se desplaza hacia la
frecuencia de la portadora ±ω0 (Figura 2.20). También se puede vericar para este
sistema, que la señal de salida presenta componentes de frecuencia más altas que
las que están presentes en la señal de entrada original.

X( ω ) Y( ω )
X( ω ) Y( ω)
Modulador

ω
−ωm 0 ωm −ω0−ω m −ω0 −ω0+ωm 0 ω0−ω m ω0 ω0+ω m ω

Figura 2.20: Espectros de la señal de entrada y salida de un modulador AM.

2.3.6. Transformada de Fourier de una Señal Periódica


Aunque es posible calcular la transformada de Fourier de una señal periódica continua, sus
resultados son idénticos a los predichos por la serie de Fourier.
Por otro lado, una consecuencia importante que se deriva del estudio realizado hasta el
momento a las señales continuas lo constituye el hecho de que el espectro de frecuencia de una
señal continua aperiódica es continuo, en cambio el de una señal periódica continua es discreto.
Para demostrarlo haremos uso de la representación dada en el Capítulo 1 para cualquier señal
periódica continua x(t), para las cuales x(t) se genera a partir de la suma de las versiones
desplazadas de una señal de energía aperiódica -o denida únicamente en un rango del tiempo-
que denominamos señal generatriz g(t):


x(t) = g(t + nT0 )
n=−∞

Para calcular su transformada de Fourier, emplearemos las propiedades de linealidad (a) y


desplazamiento en el tiempo (b):

a ∞
∑ b ∞
∑ c ∞

X(ω) = F{g(t + nT0 )} = e jωnT0
G(ω) = G(ω) ejωnT0
n=−∞ n=−∞ n=−∞

el último paso (c) se justica en el hecho que G(ω) es independiente del índice n de la sumatoria.
Ahora, recordemos que en la Sección 2.2.6 se estableció que la sumatoria de exponenciales
complejas era la serie de Fourier de una señal tren de impulsos, lo que nos conduce a:



X(ω) = ω0 G(ω) δ(ω − nω0 ) (2.97)
n=−∞
94 2.4. DENSIDAD ESPECTRAL

y como el producto entre cualquier señal continua y un tren de impulsos equivale a la discreti-
zación de la señal continua G(ω), tenemos que el espectro de una señal periódica siempre será
discreto y cada una de las muestras de frecuencia será ω0 G(nω0 ).
De esta forma la relación que existe entre los coecientes de la serie de Fourier y la transfor-
mada de Fourier de la señal generatriz se obtiene al calcular la transformada inversa de Fourier
de (2.97):

∫ [ ∞
] ∞
ω0 ∞ ∑ 1 ∑
x(t) = G(ω)δ(ω − nω0 ) exp(jωt)dω = G(nω0 ) exp(jω0 nt)
2π −∞ n=−∞
T0 n=−∞

dándonos los siguientes coecientes cn para la serie de Fourier:

1
cn = G(nω0 ) (2.98)
T0
Como se verá en el ejemplo a continuación, (2.98) indica que la serie de Fourier que se forma
a partir de una señal generatriz de energía g(t) será entonces la versión discretizada del espectro
de frecuencia de dicha señal afectada por un factor de escala 1/T0 .

Ejemplo 2.16. Calcular la serie de Fourier de una señal tren de pulsos de


parámetro τ.
Solución. Para esta onda en particular, la señal generatriz se trata de un pulso
rectangular, del cual se conoce (Ejemplo 2.12) que su transformada de Fourier es
una señal sinc, G(ω) = F{rect( )} = τ sinc(
t ωτ
τ 2π ), por lo tanto, los coecientes de la
serie de Fourier que resultan al formar una señal periódica con dicha señal generatriz
serán:

( nω τ ) ( )
1 0 τ nτ
cn = τ sinc = sinc
T0 2π T0 T0
Puede vericarse que este resultado es idéntico al determinado en la Sección
2.2.6.
En la Figura 2.21 se ilustra como la forma del espectro de la señal generatriz
g(t) (Parte superior) se transforma en el espectro de la señal calculado por (2.97).

2.4. Densidad Espectral


En secciones pasadas se ha mostrado que las relaciones de Parseval para tanto las señales
periódicas como las señales aperiódicas, permitían calcular la potencia y energía en el inni-
to, respectivamente, ya sea desde los dominios del tiempo o la frecuencia. En esta sección se
mostrará como se puede realiar un análisis, desde el punto de vista espectral, de la energia y
potencia de una señal empleando dos herramientas: la autocorrelación y la densidad espectral .

2.4.1. Señales de Energía


Anteriormente se denió la función de autocorrelación como la convolución entre la señal
x(t) y la versión reejada de su compleja conjugada:
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 95

τ sinc(f τ )
rect ( tτ ) (a)
1

τ 0 τ t 0 f

2 2

(b)
1

τ 0 τ T0 t 0
− f
2 2

Figura 2.21: Señal recangular con ancho de pulso τ y su respectivo espectro (a). Señal tren de
pulsos con el mismo ancho de pulsoτ y su respectivo espectro (b).

Rx (τ ) = x(τ ) ⋆ x∗ (−τ ) (2.99)

en este caso, cuando τ = 0, la autocorrelación retorna el valor de la energía de la señal:

Ex = Rx (0) (2.100)

y por medio de las relaciones de Parseval y la propiedad de autocorrelación de la transformada


de Fourier tenemos que:

∫ ∞ ∫ ∞ ∫ ∞
2 2
Ex = |x(t)| dt = |X(f )| df = F{Rx (τ )}df (2.101)
−∞ −∞ −∞

|X(f )| se denomina densidad espectral de energía. Este nombre se debe a que


2
donde al término
2
si consideramos a |X(f )| constante en una región de frecuencias ∆f , tenemos que la energía de
2 2
la señal será igual a Ex = |X(f )| ∆f , y por tanto |X(f )| =
Ex
∆f tiene unidades de densidad de
energía e indica la forma como se distribuye la energía a lo largo de la frecuencia. Esta función,
llamada también espectro de energía, se acostumbra expresar por medio de:
2
Gx (f ) = |X(f )| (2.102)
∫∞
en la cual el área bajo la curva es igual a la energía de la señal Ex = G (f )df . La densidad
−∞ x
espectral de energía representa la forma como se distribuye la energía para cada una de las
componentes de frecuencia que conforman la señal.
Puesto que las señales de energía se caracterizan por estar denidas en un intervalo nito
de tiempo, a través de la relación de Parseval podemos ver que la densidad espectral de energía
también debe estar denida únicamente para una región nita de frecuencias, es decir, una señal
de energía se caracteriza porque su energía está localizada en ciertas regiones de frecuencias,
por lo tanto, las señales de energía siempre tendrán un ancho de banda nito.
Para un sistema LTI tenemos que al aplicarle una señal de energía a la entrada, la señal de
salida también lo será, puesto que Y (f ) = X(f )H(f ). Sin embargo, es interesante notar que:

2 2
Gy (f ) = Gx (f )Gh (f ) = |X(f )| |H(f )| (2.103)

y la función de autocorrelación de la señal de salida adquiere la forma:


96 2.4. DENSIDAD ESPECTRAL

Ry (τ ) = Rx (τ ) ⋆ Rh (τ ) (2.104)

2.4.2. Señales de Potencia


Recordemos que una señal de potencia se caracteriza porque la energía en el innito es inni-
ta, así que para estas señales resulta más útil encontrar una expresión diferente a Gx (f ), de tal
forma que la nueva expresión esté directamente relacionada con la potencia de la señal en lugar
de la energía de la señal, a esta expresión se le dará el nombre de densidad espectral de poten-
cia. En forma equivalente a la densidad espectral de energía, es necesario que la transformada
inversa de Fourier de la densidad espectral de potencia sea una función de autocorrelación, y
esta función de autocorrelación evaluada en cero, debe ser igual a la potencia de la señal. Note
que la forma de calcular la función de autocorrelación por medio de (2.99) no es la forma más
apropiada para lograr este propósito si la señal es de potencia. Por ejemplo, un caso típico de
señales de potencia son las señales periódicas, así al evaluar (2.99) para una señal periódica, la
función de autocorrelación exhibirá una forma periódica, por lo que una forma más apropiada
para calcular la función de autocorrelación es obtenerla en un periodo o a través de un promedio
en el tiempo. A esta nueva denición se le conoce con el nombre de autocorrelación promedio,
la cual se basa en el principio que la potencia en el innito de una señal se calcula a partir del
límite al innito del cociente entre la energía en el período y el respectivo período:

∫ T /2
1
Rx (τ ) = lı́m x(t)x∗ (t − τ )dt (2.105)
T →∞ T −T /2

La anterior expresión permite validar la siguiente suposición que permite calcular la potencia
de la señal:

Px = Rx (0) (2.106)

Por otra parte, tenemos que la transformada de Fourier de la autocorrelación promedio es


igual a la densidad espectral de potencia Sx (f ) o espectro de potencia :

Sx (f ) = F{Rx (τ )} (2.107)
∫∞
cuya área bajo la curva es igual a la potencia Px de la señal Px = −∞
Sx (f )df y está relacionada
con la densidad espectral de energía mediante:

Gx,T (f )
Sx (f ) = lı́m , (2.108)
T →∞ T
donde Gx,T (f ) es la densidad espectral de energía de un fragmento de longitud T de la señal
x. Nótese que cuando la señal es periódica, la expresión anterior se transforma en un promedio
sobre el cuadrado de las transformadas de Fourier (o densidades espectrales de energía de la
señal truncada) sobre diferentes segmentos.
La anterior expresión tiene fuertes implicaciones prácticas. En general, para conocer la
densidad espectral de energía es necesario conocer la señal en todo el dominio del tiempo, lo
cual es imposible en un instrumento de medida real, por lo que la única información disponible
es un fragmento de la señal de longitud T . Así que, si el instrumento de medida puede capturar
múltiples segmentos de la señal de entrada de longitud T , es posible en la práctica obtener un
valor promedio de las densidades espectrales de energía de cada segmento. Este valor promedio
CAPÍTULO 2. ANÁLISIS EN FRECUENCIA DE SEÑALES CONTINUAS 97

corresponde a la denición de la densidad espectral de potencia, Sx (f ), lo que signica, que en


la práctica, un instrumento de medida puede estimar el espectro de potencia de una señal más
power spectral
nunca el espectro de energía. Por esta razón, la densidad espectral de potencia (o
density PSD ), es una magnitud muy usada comúnmente para el análisis de señales.
Al igual que Gx (f ), la densidad de espectral de potencia Sx (f ) indica como se distribuye la
potencia a lo largo de las diferentes frecuencias.
Al pasar una señal de potencia por un sistema LTI, tenemos que la densidad espectral de
potencia de la señal de salida será igual a:

2
Sy (f ) = Sx (f ) |H(f )| = Sx (f )Gh (f ) (2.109)

y su respectiva función de autocorrelación promedio:

Ry (τ ) = Rx (τ ) ⋆ h(τ ) ⋆ h(−τ ) (2.110)

Al comparar las expresiones de la densidad espectral de energía y densidad espectral de


potencia de la señal de salida de un sistema LTI se puede apreciar un término común, el
2
cuadrado de la magnitud de la respuesta en frecuencia del sistema |H(f )| o densidad espectral
de energía de la respuesta al impulso. Este término indica para un sistema LTI, independiente
de sí la señal de entrada es de energía o potencia, la forma como modica el contenido de energía
o potencia de dicha señal es la misma en ambos casos y está fuertemente ligada a la respuesta
en frecuencia del sistema.
Cuando se habla de ltros, es muy común tomar criterio para establecer las frecuencias de
corte, fc , el decir que la ganancia ha caído −3dB o en términos absolutos 0,7071 la ganancia
máxima. Estas misteriosas cifras no son más que una consecuencia directa del teorema de
máxima de transferencia de potencia, el cual estipula que en las frecuencias de corte de un ltro
la potencia disipada en la salida del sistema será la mitad de la potencia de entrada. Asi que
de las relaciones para las densidades espectrales, y según el teorema de máxima transferencia
2
de potencia, |H(fc )| =
1
2 , por lo que en la frecuencia de corte la magnitud ha decaído a
|H(fc )| = √2 = 0,7071 suponiendo que el valor máximo de la ganancia del sistema es 1. En
1

términos en dB, la respuesta en frecuencia de un sistema se suele calcular como |H(f )|dB =
2
10log10 |H(f )| = 20log10 |H(f )|.

2.5. Problemas
1. Recticador de Media Onda.

a) Determine el espectro de frecuencia de la señal salida (V0 ) en el circuito recticador


de media onda mostrado en la Figura 2.22a. Será que el recticador de media onda
es un sistema LTI?

b) Considere la señal de energía w(t) de la Figura 2.22b cuya forma es únicamente un


pico de la señal de salida del recticador de media onda. Será que el espectro en
frecuencia de ésta señal y la calculada en el numeral (a) son idénticos?

c) Si se conecta a la salida del recticador de media onda un sistema LTI con el n de


obtener una señal triangular (Figura 2.22c), cuál debe ser la respuesta en frecuencia
del sistema LTI? es posible implementarlo?
98 2.5. PROBLEMAS

(a) (b) w(t)

Acos(ω t) V0

(c) V0(t) y(t)


V0(t) y(t)
LTI

t t

Figura 2.22:

2. Usando las propiedades de la transformada de Fourier, determine la respuesta en frecuen-


cia o espectro de la señal de salida de los siguientes sistemas:

a ) y(t) = 3x(t − 4) + 12 x(t − 3) + 5x(t − 2) − 12 x(t − 1) + 3x(t)



b ) y(t) = ∞ n=−∞ (−1) x(nTs )δ(t − nTs )
n
∫ 3t−5
c ) y(t) = −∞
x(τ )dτ

3. Considere un sistema LTI cuya respuesta al impulso es h(t) = sinc(6t). Si la señal de


entrada es un escalón unitario u(t), determine la región de frecuencias donde se presenta
el mayor contenido de potencia de la señal de salida. ¾Cuál es el ancho de banda efectivo
de la señal de la salida? Considere el ancho de banda efectivo como aquella región de
frecuencias donde la magnitud del espectro ha decaído -3dB.

4. A partir de un recticador de onda completa diseñe un circuito que permita obtener las
ondas triangulares de la Figura 2.23. Nota: debe proponer si la señal tiene oset y si es
simétrica par o impar. Verique sus resultados en un simulador de circuitos o por medio
de un montaje práctico en el laboratorio.

(a) (b)

Figura 2.23:

5. Para las siguientes señales: (a) Recticador de media onda y (b) Recticador de onda
completa. Calcule el espectro de la señal obtenida al pasarla por un derivador ideal (el
calculado matemáticamente) y compárelo con uno real (el obtenido con amplicadores
operacionales). Verique sus resultados en un simulador de circuitos o por medio de un
montaje práctico en el laboratorio.

6. Resuelva el punto anterior para un sistema integrador.

7. Idee un circuito que permita obtener experimentalmente la función de transferencia de


un circuito LTI. Si no se puede diseñar, justicarlo.
CAPÍTULO 3
ANÁLISIS EN FRECUENCIA DE
SEÑALES DISCRETAS

En el capítulo anterior se presentó el concepto de espacio de señales y se ilustró como el


espacio de señales formado por exponenciales complejas permite obtener una representación
en el dominio de la frecuencia de señales continuas. Al respecto, se mostró que las señales
periódicas continuas se pueden representar por medio de la serie de Fourier, y las señales
aperiódicas continuas por medio de la transformada de Fourier. También se indicó que la gráca
de los coecientes de la serie de Fourier, para el caso de señales periódicas, o la gráca de la
transformada de Fourier, para el caso de señales aperiódicas, se denominan espectros de la
señal. Se mostró que el espectro de una señal periódica es discreto y aperiódico, donde cada
componente de frecuencia está ubicada en posiciones que son múltiplo entero de la frecuencia
fundamental. Por otro lado, el espectro de una señal aperiódica es continuo y aperiódico. En este
capítulo se presentará el espectro de las señales discretas y se ilustrarán deniciones alternativas
de la transformada de Fourier que serán muy útiles para describir el espectro de estas señales.

3.1. Transformada de Fourier de una Señal Discreta


Hasta el momento hemos realizado el análisis en frecuencia de señales continuas, para las
cuales se determinó que el espectro de una señal periódica continua es discreto y aperiódico, y
para una señal aperiódica continua, es una función continua aperiódica. Como se demostrará a
continuación, para las señales discretas, el espectro será una forma de línea continua periódica,
cuyo período es igual a la frecuencia de muestreo.
Además, debemos recordar que para obtener la versión discreta de una señal continua,
debemos muestrearla a una frecuencia igual o superior al doble de la máxima componente de
frecuencia de la señal. La justicación de esta última relación, conocida con el nombre del
teorema del muestreo, se podrá ver con mejor detalle al analizar su espectro en frecuencia.
Para comenzar, recordemos que una señal discreta se puede expresar como el producto entre
la señal continua x(t) y un tren de impulsos, lo que grácamente se muestra en la Figura 3.1,

99
100 3.1. TRANSFORMADA DE FOURIER DE UNA SEÑAL DISCRETA

Muestreador Ts
x(t) xs (t)

Figura 3.1: Modelo equivalente de un muestreador ideal


∑ ∞

xs (t) = x(t)δ(t − nTs ) = x(t) δ(t − nTs ) (3.1)
n=−∞ n=−∞

cuyo espectro en frecuencias se obtiene calculando la transformada de Fourier:



Xs (ω) = X(ω) ⋆ F{δ(t − nTs )}
n=−∞



Xs (ω) = X(ω) ⋆ e−jωnT s
n=−∞

y puesto que en la Sección 2.2.5 determinamos que la sumatoria de exponenciales armónicas es


equivalente a la sumatoria de impulsos unitarios, tenemos que:



Xs (ω) = X(ω) ⋆ ωs δ(ω − nωs )
n=−∞

y al usar las propiedades de linealidad y elemento neutro de la convolución, la ecuación anterior


se transforma en:



Xs (ω) = ωs X(ω − nωs ) (3.2)
n=−∞

lo que signica que al muestrear el espectro de una señal aperiódica continua (Figura 3.2a),
el espectro resultante será la superposición de réplicas del espectro original centradas a unas
frecuencias que son múltiplos de la frecuencia de muestreo (Figura 3.2b). Puede notarse además
que la forma de (3.2) corresponde a una señal periódica, de allí que el espectro de una señal
discreta sea siempre periódico y por tanto, tendrá un ancho de banda innito.
En la Figura 3.2 se muestra la forma del espectro de la señal antes y después de pasar por un
muestreador. Como puede notarse en el espectro de salida del muestreador (Figura 3.2b), este
entrega componentes de frecuencia que no están presenten en la señal original (Figura 3.2a), de
allí que sea un sistema no LTI.
Nótese que la señal analógica original puede ser reconstruida íntegramente a partir de su
ωs
versión muestreada por medio un ltro pasa-bajo con frecuencia de corte
2 . Este ltro se
emplea en aplicaciones prácticas a la salida del conversor digital-análogo (D/A) como se ilustra
en la Figura 3.3. En este caso, el ltro pasabajo garantiza que los espectros laterales sean
eliminados.
CAPÍTULO 3. ANÁLISIS EN FRECUENCIA DE SEÑALES DISCRETAS 101

X( ω) Xs(ω )
(b)
(a)

−ω ω ω ω
max
0
max −2ωs −ωs −ωs 0 ωs ωs 2ωs
2 2

Figura 3.2: Espectro de una señal discreta (b) obtenido a partir del muestreo de la señal continua
cuyo espectro es mostrado en (a)

x[n] xq (t) x(t)


Filtro
D/A Pasabajo

Figura 3.3: Recuperación de la señal análoga a partir de las muestras digitales.

Por otro lado, si el ancho de banda de la señal de entrada es superior a la mitad de la


frecuencia de muestreo, habrá una superposición de los espectros de las diferentes réplicas
(Figura 3.4). Este fenómeno se conoce con el nombre de aliasing, y evita que la señal analógica
original pueda ser recuperada perfectamente a partir de su versión muestreada. Lo anterior
indica que la máxima componente de frecuencia que debe estar presente en la señal original,
antes de que ocurra aliasing, debe ser como máximo la mitad de la frecuencia de muestreo

ωs ≥ 2ωmax , (3.3)

que corresponde a la expresión conocida como teorema del muestreo .


X(ω ) Xs(ω )

−ω ω ω ω
m
0
m −3ω s −2ω s −ωs 0 ωs 2ω s 3ω s
ωs

Figura 3.4: Fenómeno de aliasing

Puesto que en la práctica, es imposible tener un muestreo perfecto por medio un tren de
impulsos, en su lugar lo que se realiza es un muestreo de la señal usando un tren de pulsos
(Figura 3.5), cuyo ancho del pulso τ es de unos cuantos nano o microsegundos. Por ello, la señal
muestreada se puede modelar como el producto entre la señal y un tren de pulsos dado por
(2.48):


∑ ( )
τ τ
xs (t) = x(t) sinc n exp(jωs nt) (3.4)
T
n=−∞ s
Ts
102 3.1. TRANSFORMADA DE FOURIER DE UNA SEÑAL DISCRETA

cuyo espectro será:


∑ ( )
τ τ
Xs (ω) = X(ω) ⋆ sinc n 2πδ(ω − nωs )
T
n=−∞ s
Ts


∑ ( )
2πτ τ
Xs (ω) = sinc n X(ω − nωs ) (3.5)
Ts n=−∞
Ts

Muestreador
Real
x(t) xs (t)

Ts

Figura 3.5: Modelo equivalente de un muestreador real

La expresión anterior sugiere que el espectro resultante del muestreo con un tren de impulsos
( muestreo práctico ) aparecerán de nuevo las réplicas del espectro de la señal original ubicadas
en múltiplos enteros de la frecuencia de muestreo, por lo tanto, el teorema del muestreo seguirá
siendo válido, sin embargo, el espectro resultante está dominado por una envolvente de la forma
de una señal sinc, la cual como sabemos, se amortigua hasta desaparecer para un n grande, por
consiguiente, el ancho de banda una señal con muestreo práctico será nito. Además como se
τ
muestra en la Figura 3.6, para diferente ciclo útil de la señal de muestreo (razón
Ts ), la forma
del espectro es diferente. Este tipo de espectros son los que corresponden a la señal a la salida
de un conversor D/A.

τ /T = 0.4
s

X (ω)

−2ω s −ωs 0 ωs 2ω s

τ /T = 0.7
s
−ωs 0 ωs
2 2

−ωs 0 ωs
−2ω s 2ω s

Figura 3.6: Espectro de una señal con muestreo práctico para dos casos de ciclo útil τ /Ts = 0,4
y τ /Ts = 0,7
CAPÍTULO 3. ANÁLISIS EN FRECUENCIA DE SEÑALES DISCRETAS 103

3.2. Transformada de Fourier de Tiempo Discreto (DTFT)


Como se vio en la sección anterior, el espectro de una señal discreta ideal es una forma de
línea periódica cuyo período es la frecuencia de muestreo. Puede notarse además en el espectro
resultante, que el intervalo de frecuencias 0 ≤ ω ≤ s , corresponde a la misma forma de línea
ω
2
2 ≤ ω ≤ ωs es idéntico a la región de frecuencias
ωs
del espectro de la señal original, y el intervalo
negativas del espectro original. Resulta entonces conveniente usar una notación más compacta
y simple de la transformada de Fourier de una señal discreta, esta nueva notación se denomina
Transformada de Fourier de Tiempo Discreto (DTFT: Discrete Time Fourier Transform), y
su idea básica consiste en usar para el eje de frecuencias, la frecuencia normalizada Ω en lugar
de ω. En adelante usaremos la variable ω para expresar la frecuencia en tiempo continuo y Ω
para el tiempo discreto. Es de recordar que Ω se denió como la relación entre la frecuencia de
tiempo continuo ω y la frecuencia de muestreo ωs (ec. 1.18):

ω f
Ω = 2π = 2π (3.6)
ωs fs
Este cambio de variable tiene una ventaja signicativa sobre ω , ya que Ω por ser adimensional
y tomar valores entre 0 ≤ Ω ≤ 2π , dene en forma implícita la periodicidad del espectro
de frecuencia. Puede notarse que bajo esta nueva denominación, la máxima componente de
frecuencia corresponde a Ω = π y la frecuencia de muestreo a Ω = 2π . Una consecuencia de la
periodicidad de Ω resulta en el hecho que la sección de frecuencias entre π ≤ Ω ≤ 2π corresponde
exactamente con la región −π ≤ Ω ≤ 0, es decir, la zona de frecuencias negativas (Figura 3.7).
En analogía con la frecuencia de tiempo continuo ω podemos asumir que Ω = π es equivalente
a la frecuencia ω → ∞ y Ω = −π a ω → −∞.

Η(Ω)


−4π −3π −2π −π 0 π 2π 3π 4π

Figura 3.7: Ejemplo de un espectro resultante al aplicar la transformada de Fourier de tiempo


discreto

La DTFT y su inversa se denen como:



X(Ω) = x[n] exp(−jΩn) (3.7)
n=−∞

1
x[n] = X(Ω) exp(jΩn)dΩ (3.8)
2π 2π
En (3.7) se puede apreciar que el espectro de la señal discreta x[n] es una función conti-
nua, cuya periodicidad está determinada por el argumento Ω. Por otro lado, la integral de la
transformada inversa se debe realizar sobre un período 2π del espectro X(Ω) de la señal, sin
importar el punto de origen.
104 3.2. TRANSFORMADA DE FOURIER DE TIEMPO DISCRETO (DTFT)

Demostración . Usando la expresión para la versión continua de una señal


discreta:



xs (t) = x[n]δ(t − nTs )
n=−∞

y calculando su respectiva transformada de Fourier:

∫ [ ∞
]
∞ ∑
X(ω) = x[n]δ(t − nTs ) exp(−jωt)dt
−∞ n=−∞


∑ ∫ ∞ ∞

= x[n] δ(t − nTs ) exp(−jωt)dt = x[n] exp(−jωnTs )
n=−∞ −∞ n=−∞



⇒ X(Ω) = x[n] exp(−jΩn) 
n=−∞

Existe una relación directa entre la DTFT y la transformada Z al emplear la variable compleja
z = exp(jΩ):

∑ ∞

X(Ω) = x[n] exp(−jΩn) ⇔ X(z) = x[n]z −n (3.9)
n=−∞ n=−∞

La transformada Z ofrece una simplicación sobre la DTFT ya que la DTFT de una señal es
un vector complejo mientras que la transformada Z es una expresión totalmente algebraica. De
esta forma, la transformada Z no es más que la representación algebraica de la transformada
de Fourier de una señal discreta, similar a como la transformada de Laplace lo es a una señal
continua. Asimismo, la transformada Z permite la representación de sistemas para su fácil im-
plementación en hardware y juega un papel importante en el análisis de estabilidad de sistemas
en tiempo discreto.

3.2.1. Propiedades de la Transformada de Fourier de Tiempo Discreto


La DTFT cumple exactamente las mismas propiedades de la transformada Fourier, salvo
que las variables tiempo (t) y frecuencia (ω ) se intercambian por sus homónimas en tiempo
discreto, n y Ω, respectivamente.

1. Linealidad

ax1 [n] + bx2 [n] ↔ aX1 (Ω) + bX2 (Ω)

2. Desplazamiento en el tiempo

x[n − n0 ] ↔ exp(−jΩn0 )X(Ω)

3. Desplazamiento en la frecuencia

exp(jΩ0 n)x[n] ↔ X(Ω − Ω0 )


CAPÍTULO 3. ANÁLISIS EN FRECUENCIA DE SEÑALES DISCRETAS 105

4. Diferenciación en el tiempo

x[n] − x[n − 1] ↔ X(Ω) {1 − exp(−jΩ)}

5. Diferenciación en la frecuencia

nx[n] ↔ j ∂X(Ω)
∂Ω

6. Convolución

x1 [n] ⋆ x2 [n] ↔ X1 (Ω)X2 (Ω)

7. Modulación

x1 [n]x2 [n] ↔ 1
2π 2π
X1 (λ)X2 (Ω − λ)dλ = 1
2π X1 (Ω) ⋆ X2 (Ω)

En la Tabla 3.1 se muestran algunos pares típicos de la DTFT.

Cuadro 3.1: Algunos pares útiles de la DTFT


Señal x[n] DTFT X(Ω)
δ[n] 1
1 2πδ(Ω)
u[n] πδ(Ω) + 1−e1−jΩ
cos(nΩ0 ) πδ(Ω − Ω0 ) + πδ(Ω + Ω0 )
sin(nΩ0 ) jπδ(Ω + Ω0 ) − jπδ(Ω − Ω0 )
sin(nΩc ) Ω
nπ rect( 2Ω c
)
αn u[n], |α| < 1 1
1−αe−jΩ
αe−jΩ
nαn u[n], |α| < 1 (1−αe−jΩ )2
(n + 1)αn u[n], |α| < 1 1
(1−αe−jΩ )2
1−α2
α|n| , |α| < 1 1−2αcosΩ+α2

Ejemplo 3.1. Calcule la respuesta en frecuencia de un ltro de media móvil de


5 puntos dado por la ecuación de diferencias

1
y[n] = {x[n − 2] + x[n − 1] + x[n] + x[n + 1] + x[n + 2]}
5
Solución. Aplicamos transformada de Fourier a ambos lados de la ecuación y
según la propiedad de desplazamiento en el tiempo:
{ }
Y (Ω) = 15 e−j2Ω X(Ω) + e−jΩ X(Ω) + X(Ω) + ejΩ X(Ω) + ej2Ω X(Ω)
{ }
Y (Ω)
H(Ω) = X(Ω) = 15 e−j2Ω + e−jΩ + 1 + ejΩ + ej2Ω
H(Ω) = 15 {1 + 2 cos(Ω) + 2 cos(2Ω)} 

3.3. Serie Discreta de Fourier


Los desarrollos establecidos en las secciones anteriores para una señal discreta corresponden
a señales aperiódicas, y aunque dichas expresiones son válidas para una señal discreta periódica,
106 3.4. TRANSFORMADA DISCRETA DE FOURIER (DFT)

resulta más conveniente usar para este tipo de señales un conjunto de expresiones equivalentes
a la serie de Fourier de una señal continua periódica, esta nueva notación se denomina Serie
Discreta de Fourier.
Antes de denirla, resulta importante destacar que el espectro de una señal discreta ape-
riódica es continuo y periódico, y el de una señal continua periódica, es aperiódico y discreto,
por lo tanto, el espectro de una señal discreta periódica será periódico y discreto, así que para
expresar una señal periódica discreta debemos usar un conjunto nito de exponenciales comple-
jas armónicas en lugar de uno innito como lo sugería la serie de Fourier. Se puede demostrar
que la cantidad de exponenciales complejas armónicas que se deben incluir para sintetizar x[n]
corresponde exactamente con el período de la señal, N . Por otro lado, como el eje de frecuencias
está normalizado y se extraerán N exponenciales armónicas de índice k , sus frecuencias serán:

k
Ωk = 2π (3.10)
N
así que la serie discreta de Fourier tiene una forma similar a la serie de Fourier:


N −1
x[n] = ck exp(jΩk n) (3.11)
k=0

N −1
1 ∑
ck = x[n] exp(−jΩk n) 0≤k ≤N −1 (3.12)
N n=0

donde N es el período de la señal periódica discreta.

Finalmente, podemos resumir en la Tabla 3.2 las principales relaciones entre los espectros
de señales continuas-discretas y periódicas-aperiódicas. Nótese que la periodicidad del espectro
está relacionado con las señales discretas en el tiempo y su forma discreta con la periodicidad
en el tiempo.

Cuadro 3.2: Resumen de la forma de los espectros de las 4 diferentes categorías de señales.
Señal (Tiempo) Espectro de la Señal (Frecuencia)
Continuas
Periódica Aperiódico - Discreto
Aperiódica Aperiódico - Continuo

Discretas
Periódica Periódico - Discreto
Aperiódica Periódico - Continuo

3.4. Transformada Discreta de Fourier (DFT)


La principal utilidad de las señales discretas es en la implementación digital de sistemas.
Puesto que la transformada de Fourier de tiempo discreto (DTFT) da como resultado una
función continua periódica, esta transformada no es deseable para efectos prácticos de imple-
mentación. Para una implementación práctica, es necesario contar con una transformada similar
CAPÍTULO 3. ANÁLISIS EN FRECUENCIA DE SEÑALES DISCRETAS 107

a la DTFT, pero en la cual, el espectro resultante sea un conjunto de valores discretos, es de-
cir, una transformada que entregue directamente la versión muestreada del espectro continuo
X(Ω). Este método computacional de calcular la transformada de Fourier de una señal discre-
ta se denomina Transformada Discreta de Fourier (DFT: Discrete Fourier Transform ). Esta
transformada tiene un costo computacional proporcional a O(N 2 ), donde N es la longitud de
la señal de entrada x[n]. Como se verá en la Sección 3.5, existe una forma más eciente de cal-
cular la DFT, denominada Transformada Rápida de Fourier (FFT ) cuyo tiempo de ejecución
es proporcional a O(N log2 N ).
En cuanto a las propiedades de la DFT, tenemos que el vector de datos resultante de la
transformación tendrá también N datos, por lo tanto, como se demostrará más adelante, las
propiedades de la DFT son idénticas a las de la serie discreta de Fourier.
Puesto que el propósito de la DFT es obtener la versión muestreada X[k] del espectro
continuo X(Ω) (Figura 3.8), esta discretización se puede expresar como:

X[k] = X(Ω)|Ω=Ωk
donde Ωk se denió en (3.10). Al igual que para X(Ω), se tiene que las muestras correspondientes

2 ≤ k ≤ N − 1, equivalen a la región de frecuencias negativas, es decir, X[−k] =


N
a la región
X[N − k]. Ahora, si recordamos que N está asociado a la frecuencia normalizada Ω = 2π que a
su vez es la frecuencia de muestreo ωs , tenemos que la máxima componente de frecuencia será
la que tenga el índice k = N2 . Si hacemos la sustituciones pertinentes en (3.7) y (3.8), tenemos
las siguientes deniciones para la DFT y su inversa (IDFT):


N −1
kn
X[k] = x[n] exp(−j2π ) 0≤k ≤N −1 (3.13)
n=0
N

N −1
1 ∑ kn
x[n] = X[k] exp(j2π ) 0 ≤ n ≤ N − 1 (3.14)
N N
k=0

X( Ω )

−π 0 π 2π 3π Ω

X[k]
N=8

0 1 2 3 4 5 6 7 8 k

Figura 3.8: Muestreo del espectro de la DTFT (parte superior) para obtener el espectro de la
DFT (parte inferior) para N =8

Las anteriores ecuaciones permiten establecer el algoritmo de cálculo de la DFT y su inversa,


sin embargo, puede verse que el mismo algoritmo para calcular la transformada directa sirve
para el cálculo de la inversa, la única modicación está en el signo de la exponencial compleja.
A continuación se presenta un fragmento de código en lenguaje C que permite calcular la DFT:
108 3.4. TRANSFORMADA DISCRETA DE FOURIER (DFT)

#dene N 100
#dene pi2N 6.2831853072/N
oat Xk_real[N];
oat Xk_imag[N];
for (int k=0; k<N; k++) {
Xk_real[k] = Xk_imag[k] = 0;
for (int n=0; n<N; n++) {
Xk_real[k] += x[n] * cos(pi2N*k*n);
Xk_imag[k] -= x[n] * sin(pi2N*k*n);
}
}

En las deniciones de la DFT y la IDFT es muy común hacer uso de la sustitución

( )

WN = exp −j (3.15)
N
1
y repartir el término
N tanto en la transformada directa como en la inversa, con el n de poder
representar estas transformadas como una operación vectorial:

N −1
1 ∑
X[k] = √ x[n]WNkn 0 ≤ k ≤ N − 1 ⇒ X = WN x (3.16)
N n=0
N −1
1 ∑
x[n] = √ X[k]WN−kn 0 ≤ n ≤ N − 1 ⇒ x = WN
−1
x (3.17)
N k=0
en las cuales x
corresponde al vector columna de la señal de entrada en el tiempo, X es el
kn
x[n] y WN
vector columna con los elementos de la transformada de Fourier de es una matriz
cuadrada cuyos elementos están dados por (3.15):
   
x[0] X[0]
 x[1]   X[1] 
   
x=
 x[2] 
 ; X= X[2] ;

 ...   ... 
x[N − 1] X[N − 1]
 
1 1 1 ... 1
 1 WN WN2 ... WNN −1 
1  
WN = √  1 WN2 WN4 ... WN
2(N −1) 
N  : : : : :


N −1 2(N −1) (N −1)(N −1)
1 WN WN ... WN
Para el caso especíco de la transformada de Fourier se tiene que la inversa de la matriz
−1
W es igual su compleja conjugada W = W∗ , y esta a su vez es igual a su transpuesta
W−1 = WT . Bajo estas condiciones, se dice que la DFT es una transformación ortogonal y
unitaria. La principal utilidad de la representación vectorial está en la posibilidad de denir la
transformada de Fourier de una señal bidimensional (una imagen, por ejemplo) y establecer un
algoritmo para calcularla.
CAPÍTULO 3. ANÁLISIS EN FRECUENCIA DE SEÑALES DISCRETAS 109

Ejemplo 3.2. Calcular la DFT de la señal x[n] = { 0, 1, 2, 3 }


Solución. Como esta señal tiene un tamaño
 N = 4, tenemos
 para la matriz W4 :
1 1 1 1 1 1 1 1
 1 W4 W42 W43  
1  1 −j −1 j 
W4 = 12 
 1
= 
W42 W44 W46  2  1 −1 1 −1 
1 W43 W46 W49 1 j −1 −j
nalmente,
    
1 1 1 1 0 3

1  1 −j −1 j  1   −1 + j 
 = 
X = W4 x = 2 
1 −1 1 −1  2   −1  
1 j −1 −j 3 −1 − j
Puede notarse que las expresiones de la DFT son similares a las de la serie discreta de Fourier.
Esta implicación tiene un importante efecto sobre el espectro X[k], que consiste en que la DFT
calcula realmente la transformada de Fourier de una señal que tiene período N. En la Figura
3.9 se muestra como el espectro de la señal aperiódica x[n] calculada con una DFT de N =8
puntos (parte inferior de la gráca) es más cercano al espectro continuo real (parte superior de
la gráca), en cambio si se hubiera usado una longitud de la señal N =4 (parte central de la
gráca) como lo sugería a simple vista la señal original, nos conduciría a un resultado erróneo,
ya que bajo estas circunstancias la DFT calcularía el espectro de la señal periódica construida
a partir de la señal aperiódica. Lo anterior signica que para el cálculo de la transformada de
Fourier de una señal aperiódica por medio una DFT hay que tener la precaución de adicionar
ceros a la izquierda del arreglo de datos de entrada, con el n de calcular la DFT con un mayor
tamaño N y tener así mayor exactitud en el espectro calculado.

x[n] X( Ω)

~
Senal Real

-4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 11 n −π 0 π 2π 3π Ω

x[n] N=4 X[k]


DFT-4

-4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 11 n 0 1 2 3 k

x[n] N=8 X[k]


DFT-8

-4 -3 -2 -1 0 1 2 3 4 5 6 7 8 9 10 11 n 0 1 2 3 4 5 6 7 k

Figura 3.9: Ejemplo de cálculo de una DFT.

3.4.1. Propiedades de la DFT


Debido a la periodicidad tanto el espectro X[k] como de la señal de entrada x[n], y teniendo
en cuenta que la región de frecuencias negativas es la segunda mitad del arreglo de datos
110 3.4. TRANSFORMADA DISCRETA DE FOURIER (DFT)

X[k], las propiedades de la DFT requieren que los índices en el tiempo y frecuencia se deban
expresar en función de la operación módulo (residuo), cuya notación a usar será: a0 mód N .
Esta operación garantiza que el resultado siempre esté dentro del rango 0...N − 1, y brinda la
posibilidad de representar las secuencias como un conjunto circular de datos.

Linealidad

αx1 [n] + βx2 [n] ⇔ αX1 [k] + βX2 [k]

Desplazamiento en el Tiempo
( )
kn0
x[(n − n0 ) mód N ] ⇔ exp −j2π X[k]
N
La inclusión de la operación módulo en el desplazamiento en el tiempo se debe a que la DFT
asume que la señal x[n] tiene un período N, en otras palabras, aunque la señal x[n] tenga una
longitud nita N esta debe ser vista como un conjunto circular de datos. De las conclusiones
anteriores se extrae que n0 debe tomar en forma efectiva únicamente valores comprendidos
entre 0 y N − 1, ya que valores de n0 > N hacen que el espectro resultante sea equivalente al
espectro de un desplazamiento de n0 mód N muestras.

Desplazamiento en la Frecuencia
( )
k0 n
exp j2π x[n] ⇔ X[(k − k0 ) mód N ]
N
Al igual que el desplazamiento en el tiempo, el espectro discreto X[k] debe considerarse
como una señal periódica de período N . Debemos recordar que la región de frecuencias entre

2 ≤ k < N corresponde a la región de frecuencias negativas, que como sabemos para una
N

señal real, será la versión reejada del complejo conjugado de las muestras para 1 ≤ k <
N
2.
Matemáticamente lo anterior lo podemos expresar como:

X[−k] = X[N − k]

X[N − k] = X ∗ [k] ∀k ̸= 0 si x[n] es real


La propiedad de desplazamiento en la frecuencia puede ser vista como si al multiplicar por
una exponencial compleja en el tiempo, se produjera una rotación circular del espectro original
X[k]. La circularidad del espectro se ilustra mejor en forma gráca al considerar el espectro de
una señal cualquiera (Figura 3.10a). Al producir un desplazamiento en frecuencia de k0 = 2
muestras de frecuencia (Figura 3.10b), aparecen dos muestras aparentemente erróneas en k=
{0, 1} las cuales corresponden a los índices k = {12, 13} del espectro original. Este mismo efecto
ocurre cuando se produce un desplazamiento de k0 = 5 muestras en frecuencia (Figura 3.10c).

En ambos casos el espectro resultante es asimétrico e invalida la condición X[N −k] = X [k], ya
que la señal resultante en el tiempo será compleja. Al igual que el desplazamiento en el tiempo,
k0 puede tomar valores entre 0 y N − 1, debido a que desplazamientos mayores caen dentro de
este rango como consecuencia de la circularidad del espectro X[k].
CAPÍTULO 3. ANÁLISIS EN FRECUENCIA DE SEÑALES DISCRETAS 111

X[k] (a) X[k−2] (b)


Espectro Original

0 1 2 3 4 5 6 7 8 9 10 111213 k 0 1 2 3 4 5 6 7 8 9 10 111213 k

X[k−5]
(c)

0 1 2 3 4 5 6 7 8 9 10 111213 k

Figura 3.10: Efecto del desplazamiento en frecuencia de un espectro DFT. Las muestras som-
breadas aparecen como consecuencia de la periodicidad implícita de un espectro DFT.

Modulación

N −1
1 1 ∑
x[n]y[n] ⇔ X[k] ⃝N Y {k] = X[i]Y [k − i]
N N i=0

Esta propiedad es idéntica a la de la transformada de Fourier de tiempo continuo, en la


cual el producto en el tiempo equivale a la convolución en la frecuencia, sin embargo, como
las secuencias X[k] y Y [k] son periódicas, el símbolo ⃝N denota la operación de convolución
circular, que diere de la convolución lineal tratada en secciones anteriores, en cuanto a que la
primera es aplicable a señales periódicas discretas.

Convolución Circular


N −1
x[n] ⃝N y[n] = x[i]y[k − i] ⇔ X[k]Y [k]
i=0

Es de resaltar que los resultados de la convolución circular x[n] ⃝N y[n] son diferentes a los
de la convolución lineal x[n] ⋆ y[n], y solamente son idénticos en el caso de que ambas señales,
x[n] y y[n], sean periódicas.
Desde el punto de vista práctico esta propiedad vislumbra una aplicación directa en la
implementación de ltros digitales, ya que si recordamos, la salida de un sistema LTI (ltro)
está descrito por la convolución entre la señal de entrada y la respuesta al impulso, por lo tanto,
con esta propiedad de la DFT, la señal de salida de dicho ltro se puede obtener multiplicando
componente a componente la transformada discreta de Fourier de la señal de entrada (X[k]) y
la respuesta en frecuencia discretizada del sistema (H[k]) y nalmente calculando la IDFT de
dicho producto (Figura 3.11). Este método aunque algo complejo, resulta ser más eciente que
la convolución lineal (aquella que implementa la sumatoria de convolución, Sección 1.10.2), si se
emplea, claro está, para el cálculo de las DFT e IDFT la transformada rápida de Fourier (FFT).
Esta técnica de ltrado se conoce con el nombre de convolución rápida, y es usada cuando se
tienen señales de entrada de grandes longitudes.
112 3.5. TRANSFORMADA RÁPIDA DE FOURIER (FFT)

x[n] X[k]
DFT
Y[k]=X[k]H[k]
y[n]
X IDFT
H[k]

Figura 3.11: Esquema computacional para el cálculo de la convolución rápida

Puesto que tanto la señal de entrada x[n] como la respuesta al impulso h[n] no son nece-
sariamente periódicas, la convolución rápida no sería posible, sin embargo, se puede garantizar
que la convolución circular retorne los mismos resultados que la convolución lineal para un par
de señales aperiódicas, lo cual se logra usando un tamaño, N , para la DFT e IDFT que satisfaga
la condición:

N ≥ Nx + Nh − 1 (3.18)

donde Nx y Nh son las longitudes de la señal de entrada y la respuesta al impulso, respec-


tivamente. Además de usar DFT de mayor longitud, es necesario emplear ciertas operaciones
adicionales llamadas técnicas de segmentación, entre las que se destacan solapamiento y suma
( overlap-add ) y solapamiento y almacenamiento ( overlap-save ), las cuales están por fuera del
alcance de este libro.

3.5. Transformada Rápida de Fourier (FFT)


Como se comentó en la sección anterior, la transformada rápida de Fourier (FFT: Fast
Fourier Transform ) es un método computacional para poder calcular más ecientemente la
transformada discreta de Fourier, y por tanto no constituye un nuevo tipo de transformada con
propiedades diferentes a la DFT. Es de recordar que un algoritmo que implemente directamen-
te la sumatoria de la DFT tendrá un tiempo de ejecución proporcional a O(N ) y como se
2

demostrará a continuación, la FFT requerirá un tiempo O(N log2 N ).


La FFT se basa en el hecho de las propiedades de periodicidad y simetría del término WN
que acompaña las expresiones de la DFT y la IDFT (ec. 3.16 y 3.17). Otro de los principios
fundamentales de la FFT consiste en el hecho de que una FFT de N puntos se puede expresar
N
como la combinación de 2 FFTs de
2 puntos. Para ello, expresemos la sumatoria de la Trans-
formada Discreta de Fourier (3.16) en dos términos, uno correspondiente a la sumatoria de los
términos pares y otra para los impares:

1 ∑ 1 ∑
N/2−1 N/2−1
(2r+1)k
X[k] = √ x[2r]WN + √
2rk
x[2r + 1]WN
N r=0 N r=0

1 ∑ 1 ∑
N/2−1 N/2−1
( )rk ( )rk
X[k] = √ x[2r] WN2 + WNk √ x[2r + 1] WN2
N r=0 N r=0
( 4π )
del término WN , tenemos que WN = exp −j
2
por simetría
N = WN/2 , por lo tanto, ambas
sumatorias corresponden a dos transformadas discretas de Fourier independientes, la primera
con los elementos de índice par de la señal de entrada y la segunda con los de índice impar:
CAPÍTULO 3. ANÁLISIS EN FRECUENCIA DE SEÑALES DISCRETAS 113

1 ∑ 1 ∑
N/2−1 N/2−1
X[k] = √ rk
x[2r]WN/2 + WNk √ rk
x[2r + 1]WN/2
N r=0 N r=0
k
Así mismo, puede notarse que el término WN que afecta a la segunda DFT corresponde a
un desplazamiento en el tiempo de una muestra, el cual era de esperarse, ya que la separación
entre una muestra par y una impar es de 1. Finalmente, la ecuación anterior se puede reescribir
como:

X[k] = F [k] + WNk G[k] (3.19)

donde F [k] y G[k] son las DFT de las muestras de índice par e impar de la señal x[n]. Esta
ecuación sugiere que el cálculo de una FFT de N puntos se puede realizar haciendo sucesivas
particiones del arreglo original de datos hasta obtener subconjuntos de FFTs de dos elementos
(Figura 3.12). Cada una de estas FFT son muy simples de calcular, ya que implican únicamente
una suma y una resta:

X[0] = x[0] + W20 x[1] = x[0] + x[1] (3.20)

X[1] = x[0] + W21 x[1] = x[0] − x[1] (3.21)

y para obtener la solución completa de N puntos basta con combinar las soluciones más peque-
ñas, comenzando con las FFTs de 2 puntos, luego las de 4, etc., hasta conseguir la FFT total.
Estas combinaciones se llevan a cabo mediante la ecuación de mezcla denida en (3.19).

N=8
log 8=3 particiones
2
0 1 2 3 4 5 6 7 1 FFT 8puntos

0 2 4 6 1 3 5 7 2 FFTs de 4 puntos

0 4 2 6 1 5 3 7 4 FFTs de 2 puntos!!!

Figura 3.12: Particiones del arreglo de datos x[n] para calcular la FFT.

Nótese que las particiones solamente son posibles si utilizamos tamaños de la FFT que
sean potencias de dos, así mismo, como el número de particiones que se deben hacer al arreglo
original es log2 N , y cada una de las respectivas combinaciones (usando la ec. 3.19) consume
un tiempo proporcional a N, tenemos en total, un tiempo de ejecución para el algoritmo de la
FFT de O(N log2 N ).
El algoritmo antes descrito se denomina decimación en el tiempo, puesto que para calcular
las FFTs de 2 puntos fue necesario hacer inicialmente una subdivisión recursiva de la señal x[n].
Cuando se realizan las combinaciones es posible reducir el tiempo de cómputo si se considera
la simetría del término WN :

n+N/2
WN = −WNn (3.22)
114 3.5. TRANSFORMADA RÁPIDA DE FOURIER (FFT)

lo cual signica que para calcular la primera mitad de una FFT de N puntos se deben combinar
las soluciones de las FFTs de N/2 puntos usando (3.19) y para la segunda mitad basta con usar
k
esta misma ecuación, pero en este caso, el factor WN se debe tomar negativo.

Ejemplo 3.3. Calcule la FFT del vector de datos


x[n] = {0 0,84 0,91 0,14 − 0,76 − 0,96 − 0,28 0,66}

Solución. Según lo presentado en la Figura 3.12, primero es necesario realizar


una reorganización del vector x[n] empleando decimación en el tiempo. El resultado
de esta reorganización se muestra en la Figura 3.13.
A continuación, es necesario calcular las FFTs de dos puntos empleando las
ecuaciones (3.20) y (3.21), es decir, sumando y restando las respectivas muestras de
la señal de entrada. El resultado de este cálculo se muestra en la segunda la de la
Figura 3.14.
Una vez calculadas las FFTs de dos puntos se procede a realizar las mezcalas de
estas FFTs para producir FFTs del doble de puntos empleando (3.19). Por ejemplo,
para generar la primera FFT de 4 puntos (F3 ), se deben llevar a cabo los siguientes
cálculos, usando como entrada las FFTs de 2 puntos calculadas en la etapa anterior:
F3 [0] = F1 [0] + W40 G1 [0] = −0,76 + 0,63 = −0,13
F3 [1] = F1 [1] + W41 G1 [1] = 0,76 + (−j)(1,19) = 0,76 − 1,19j
F3 [2] = F1 [0] − W40 G1 [0] = −0,76 − 0,63 = −1,39
F3 [3] = F1 [1] − W41 G1 [1] = 0,76 − (−j)(1,19) = 0,76 + 1,19j
Finalmente, el procedimiento de mezcla se repite a lo largo del arreglo y tantas
veces sea necesario como niveles de descomposición. El proceso completo se ilustra
en la Figura 3.14.

Arreglo de entrada
0 1 2 3 4 5 6 7
0 0.84 0.91 0.14 -0.76 -0.96 -0.28 0.66

0 4 2 6 1 5 3 7
0 -0.76 0.91 -0.28 0.84 -0.96 0.14 0.66
Arreglo de salida (despues de bit-reversal)

Figura 3.13: Decimación de un arreglo de 8 puntos

0 4 2 6 1 5 3 7
0 -0.76 0.91 -0.28 0.84 -0.96 0.14 0.66 Entrada x[n] decimada

F1 G1 F2 G2
4 FFTs de N=2
-0.76 0.76 0.63 1.19 -0.12 1.8 0.8 -0.52

F3 G3
-0.13 0.76-1.19j -1.39 0.76+1.19j 0.68 1.8+0.52j -0.92 1.8-0.52j 2 FFTs de N=4

0.55 2.4-2.095j -1.39+0.92j -0.88+0.285j -0.81 -0.88-0.285j -1.39-0.92j 2.4+2.95j FFT de N=8

Figura 3.14: Combinaciones de las FFTs diezmadas para obtener la FFT de 8 puntos.

Finalmente en la Figura 3.15 se muestra un diagrama de Flujo para calcular la FFT.


CAPÍTULO 3. ANÁLISIS EN FRECUENCIA DE SEÑALES DISCRETAS 115

Calcular FFTs de 2 puntos

N1=2

k1=0

k=0

cosk = cos( 2*pi*k/2*N1 )


senk = sen( 2*pi*k/2*N1 )
BWnk_r = Hr[k1+N1+k] * cosk + Hi[k1+N1+k] * senk
BWnk_i = Hi[k1+N1+k] * cosk − Hr[k1+N1+k] * senk

Hr[k1+N1+k] = Hr[k1+k] − BWnk_r


Hi[k1+N1+k] = Hi[k1+k] − BWnk_i
Hr[k1+k] = Hr[k1+k] + BWnk_r
Hi[k1+k] = Hi[k1+k] + BWnk_i

k=k+1

Si
k<N1
?
No

k1 = k1 + 2*N1

k1=N No
?
Si
N1=2*N1

N1=N No
?
Si
FIN

Figura 3.15: Diagrama de ujo para el cálculo de la FFT


116 3.6. PROBLEMAS

3.6. Problemas
1. Usando las propiedades de la transformada de Fourier, determine la respuesta en frecuen-
cia o espectro de la señal de salida de los siguientes sistemas:

a ) y[n] = x[n] + 12 x[n − 2] − 12 x[n − 3] + 34 x[n − 4]


b ) y[n] = 3x[n − 4] + 12 x[n − 3] + 5x[n − 2] − 21 x[n − 1] + 3x[n] − y[n − 1]
2. Un ltro digital FIR se diseña por medio de la respuesta en frecuencia del sistema deseado
∑N −1
y se implementa usando la sumatoria de convolución: y[n] = k=0 x[k]h[n − k] donde
h[n] es la respuesta al impulso del ltro. Si se desea ltrar una señal cuyo contenido de fre-
cuencias cubre de 0 a 5kHz, por medio de un ltro pasa-banda ideal cuyas especicaciones
en frecuencia están dadas en la Figura 3.16:

a) Cuál es la frecuencia de muestreo óptima para implementar el sistema?

b) Cuál es la respuesta al impulso del ltro?

c) Escriba un programa en lenguaje C que permita calcular la salida del ltro diseñado.

Ayuda: En sistemas en tiempo discreto, el eje de frecuencias debe estar en frecuencia


normalizada (Ω).
|H(f)|
200Hz 200Hz

-1000Hz 1000Hz f

Figura 3.16:

3. En Matlab se puede calcular un ltro digital IIR basado en un ltro análogo Butterworth
haciendo uso de la función butter de esta forma: [bk ak] = butter(N, Wn); donde ak
b0 +b1 z −1 +...+bn z −n
y bk son los coecientes de la función de transferencia H(z) =
1+a1 z −1 +a2 z −2 +...+an z −n ,
N es el orden del ltro, y Wn es la frecuencia de corte del ltro pasa-bajo normalizada
a la mitad de la frecuencia de muestreo. Si lo que se desea es un ltro pasa-alto, pasa-
banda o rechaza-banda se usa el formato [bk ak] = butter(N, Wn, tipo) donde tipo
toma los valores 'highpass', 'bandpass', 'stop', respectivamente, y Wn, para el caso
de pasa-banda o rechaza-banda, es un vector que contiene las dos frecuencias de corte.

a) Use Matlab para calcular los coecientes del ltro y gracar la respuesta en frecuencia
del ltro (use el comando freqz).
b) Simule el ltro empleando los comandos wavread para un archivo de audio y filter
para calcular la señal de salida.

c) Escriba un programa en C que permita eliminar las frecuencias hacer el ltrado


digital a una señal de audio.

4. Escriba un programa en lenguaje C que permita calcular la transformada discreta de


Fourier de una señal usando la notación vectorial de la DFT.
CAPÍTULO 4
SEÑALES ALEATORIAS

En este capítulo se abordará el estudio de las señales aleatorias, también llamados procesos
estocásticos, las cuales constituyen la mejor forma de modelar señales y sistemas cuando es
imposible establecer una función determinística que las describa.
Dado que los procesos estocásticos se basan en la teoría de las probabilidades, inicialmente se
dará una introducción a sus aspectos más relevantes y a continuación se describirán los procesos
(o señales) estocásticos, sus propiedades, y los modelos más comunmente usados: autorregresivo
(AR), media móvil (MA) y autoregresivo más media móvil (ARMA).

4.1. Probabilidades
En la teoría de probabilidades uno de los conceptos fundamentales lo constituye el experi-
mento aleatorio, en el cual lo importante no es predecir cual será el siguiente valor que arrojará el
experimento sino con que frecuencia se presenta cierto evento. Esta frecuencia, llamada también
frecuencia relativa de un evento, denotada como fr (E), se puede estimar como:
n
fr (E) = (4.1)
N
donde N es el número de número de veces que se repite el experimento y n el número de veces
que ocurrió el evento E en forma satisfactoria. Es claro en (4.1) que el valor máximo de la
frecuencia relativa es 1 y su valor mínimo 0. Dado que la frecuencia relativa de un evento es una
cantidad que depende del número de veces que se repite un experimento, se preere emplear
como medida para la posibilidad de un evento la Probabilidad P (E), la cual se toma como la
tendencia de la frecuencia relativa de un evento para un innito número de experimentos, es
decir,

n
P (E) = lı́m (4.2)
N →∞ N

Dado que (4.2) es imposible de determinar en la práctica, la probabilidad es una magnitud


que generalmente se calcula a partir del conocimiento del experimento aleatorio y el evento.

117
118 4.1. PROBABILIDADES

Para el cálculo teórico de la probabilidad se recurre habitualmente al espacio muestral Ω, que


corresponde al conjunto de todos los posibles resultados de un experimento, de tal forma que un
evento E se constituye en un subconjunto de Ω (E ⊆ Ω) y sobre el cual se puede establecer una
probabilidad de ocurrencia del evento, calculada por medio de la división entre el tamaño del
subconjunto E y el tamaño del espacio muestral Ω. Por ejemplo, en el lanzamiento de un dado,
el espacio muestral Ω está formado por el conjunto de los elementos Ω = {1, 2, 3, 4, 5, 6} y si el
evento es obtener un número par, el subconjunto E = {2, 4, 6}, de tal forma que P (E) = 63 = 12 .
Una forma intuitiva de calcular las probabilidades y que se deriva de las explicaciones an-
teriores, es por medio de los diagramas de Venn, donde el conjunto universal es el espacio
muestral Ω. En la Figura 4.1 se muestra el diagrama de Venn asociado al cálculo de la proba-
bilidad de obtener par en el lanzamiento de un dado. Como se verá en la siguiente sección, esta
representación permite identicar las propiedades de la probabilidad.

W .1

E .6
.3
.2 .4
.5

Figura 4.1: Diagrama de Venn para el cálculo de la probabilidad de un evento

4.1.1. Propiedades de la Probabilidad


1. 0 ≤ P (E) ≤ 1

2. P (E c ) = 1 − P (E) donde Ec denota el complemento del E.

3. P (∅) = 0

4. P (E1 ∪ E2 ) = P (E1 ) + P (E2 ) − P (E1 ∩ E2 )

5. Sí E1 ⊂ E2 ⇒ P (E1 ) ≤ P (E2 )

Habitualmente se suele abreviar P (E1 ∩E2 ) en P (E1 E2 ). Cada una de estas propiedades se suele
interpretar analíticamente de la siguiente forma: el término P (E1 ∪ E2 ) indica la probabilidad
de ocurrencia del evento E1 o E2 ; P (E1 E2 ) como la probabilidad de ocurrencia simultánea de
c
los eventos E1 y E2 ; y P (E ) como la probabilidad de que el evento E no ocurra. Grácamente
se muestra en la Figura 4.2 la representación por diagramas de Venn de las propiedades 2 y 4
de la probabilidad, nótese que la resta incluida en la propiedad 4 soluciona el problema de la
doble consideración de los elementos comunes a ambos subconjuntos Ei .

W Ec W
E E1 E2

E1ÇE2

Figura 4.2: Diagramas de Venn para las propiedades del complemento y unión de eventos de la
probabilidad
CAPÍTULO 4. SEÑALES ALEATORIAS 119

4.1.2. Eventos Dependientes, Independientes y Excluyentes


Otra propiedad importante de las probabilidades la constituye la probabilidad condicional
P (E1 | E2 ), que mide la posibilidad de ocurrencia del evento E1 dado que ocurrió el evento
E2 , es decir, mide la dependencia del evento E1 con respecto al evento E2 . Esta interrelación
de eventos se presenta cuando los eventos E1 y E2 se relacionan al mismo experimento. La
probabilidad condicional se calcula a través de:

{
P (E1 ∩E2 )
P (E2 ) ̸= 0
P (E1 | E2 ) = P (E2 ) (4.3)
0 c.c

o en otros términos, la probabilidad de que dos eventos se presenten en forma simultánea es


igual a

P (E1 ∩ E2 ) = P (E2 )P (E1 | E2 ) (4.4)

Un ejemplo típico de eventos dependientes es el experimento de sacar las bolas de una urna.
Si una persona A saca una bola de la urna, la probabilidad de que la siguiente persona, B, saque
una bola con ciertas características depende fuertemente del valor de la bola sacada por A.
Si por el contrario, el experimento consistiera en sacar la bola de la urna y regresarla, la
persona B tendrá igual probabilidad que A de sacar una bola dada, pues las condiciones de la
urna no se han alterado, es decir, los eventos A y B son independientes. En términos mate-
máticos, la independencia de eventos implica que la probabilidad de ocurrencia de B depende
exclusivamente del evento B y no de A o P (B | A) = P (B), lo que conduce a que la probabilidad
de ocurrencia simultánea de A y B (ec. 4.4) sea P (AB) = P (A)P (B).
Es así como, por medio de la ecuación de probabilidad condicional se distinguen 3 tipos de
eventos: los dependientes, independientes y excluyentes.
En términos generales sí n eventos son estadísticamente independientes entre sí, la probabi-
lidad de ocurrencia simultánea de todos los n eventos es igual a:

P (E1 E2 ) = P (E1 )P (E2 )


P (E1 E2 E3 ) = P (E1 )P (E2 )P (E3 )
...
P (E1 E2 E3 ...En ) = P (E1 )P (E2 )P (E3 )...P (En ) (4.5)

por lo cual, la probabilidad condicional de ocurrencia de un evento será:

P (E1 | E2 ) = P (E1 ) (4.6)

ya que la ocurrencia del evento E1 no está condicionada a la ocurrencia del evento E2 .


El equivalente de (4.5) para el caso de eventos dependientes entre sí es:

P (E1 E2 ...En ) = P (E1 )P (E2 | E1 )P (E3 | E2 E1 )...P (En | E1 E2 ...En−1 ) (4.7)

ecuación denominada producto de probabilidades .


Otra clasicación para los eventos y la cual no se debe confundir con independencia de
eventos son los eventos mutuamente excluyentes . Dos eventos son mutuamente excluyentes
cuando la ocurrencia de un evento no implica la ocurrencia del otro evento, o en otras palabras
120 4.1. PROBABILIDADES

la ocurrencia de un evento anula la posibilidad de ocurrencia del otro o simplemente que los dos
eventos no pueden ocurrir simultáneamente. En este caso, los eventos excluyentes se identican
porque:

P (E1 E2 ) = 0 (4.8)

lo cual conduce a que

P (E1 ∪ E2 ) = P (E1 ) + P (E2 ) (4.9)

Visto en diagramas de Venn, dos eventos son excluyentes cuando no comparten elementos
comunes E1 ∩ E2 = ∅, pero independencia de eventos no lo implica necesariamente, es decir,
cuando dos eventos son independientes es posible que E1 ∩ E2 ̸= ∅.

4.1.3. Teoremas de la Probabilidad


Sí existen n eventos tales que la unión de sus elementos crean el espacio muestral Ω, ∪ni=1 Ei =
Ω, y Ei ∩ Ej = ∅, la probabilidad de ocurrencia de un evento cualquiera A se puede calcular a
partir de (ver Figura 4.3):


n
P (A) = P (Ei A)
i=1

y haciendo uso de (4.4), la expresión anterior se transforma en:


n
P (A) = P (Ei )P (A | Ei ) (4.10)
i=1

conocida con el nombre de teorema de la probabilidad total .


W E E5
1
A
E3
E2 E4

Figura 4.3: Diagrama de Venn para el teorema de probabilidad total

Por otra parte, si lo que se desea es determinar la probabilidad de algún evento Ei dada la
ocurrencia del evento A, P (Ei | A) se debe aplicar el teorema de Bayes

P (Ei )P (A | Ei ) P (Ei )P (A | Ei )
P (Ei | A) = = ∑n (4.11)
P (A) i=1 P (Ei )P (A | Ei )

4.1.4. Variables Aleatorias


Una variable aleatoria es el mapeo del espacio muestral Ω a un conjunto de números reales
(Figura 4.4), de tal forma que la variable aleatoria se comporta como una magnitud variable
que como resultado de un experimento, puede tener uno u otro valor previamente conocido.
Es decir, se asigna un número real a un conjunto de resultados de un evento. Sí la variable
CAPÍTULO 4. SEÑALES ALEATORIAS 121

aleatoria solamente toma ciertos valores discretos de la recta real, se dice que la variable alea-
toria es discreta , en caso contrario la variable aleatoria es continua . Es común encontrar para
ciertos eventos, una descripción por medio de variables aleatorias que involucran conjuntos de
resultados discretos y continuos, en cuyo se dice que la variable aleatoria es mixta .
W
w1 w2 w5
w4
w3

4)
X( 3 )
X( 5 )
1)
)

w
2

w
w
w
w

X(
X(
X(

Figura 4.4: Signicado de una variable aleatoria

Para describir las variables aleatorias se emplean dos representaciones, la función de dis-
tribución de probabilidad acumulada (f.d.p.a.), FX (x), o la función de densidad de probabilidad
(f.d.p.), fX (x). Sin embargo, la f.d.p. es la notación más común para las variables aleatorias.
La f.d.p.a. de una variable aleatoria X se dene como:

FX (x) = P (X ≤ x) (4.12)

y tiene las siguientes propiedades:

1. 0 ≤ FX (x) ≤ 1
2. FX (x) es no decreciente

3. lı́mx→−∞ FX (x) = 0 y lı́mx→∞ FX (x) = 1


4. FX (x) es continua a la derecha, es decir, lı́mϵ↓0 FX (x + ϵ) = F (x)
5. P (a < X ≤ b) = FX (b) − FX (a)
6. P (X = a) = FX (a) − FX (a− )
En la Figura 4.5a se muestra la forma de una f.d.p.a. de una variable aleatoria discreta, la cual
siempre es una función escalera creciente, en cambio en la Figura 4.5b se presenta la forma de
la f.d.p.a. para una variable aleatoria continua; en ambos casos, f.d.p.a. es un función continua.

F (x) FX(x)
X
1
1

0 0
(a) (b)

Figura 4.5: Funciones de distribución de probabilidad acumulada para variables aleatorias dis-
cretas (a) y continuas (b)

La función de densidad de probabilidad o f.d.p. de una variable aleatoria X se dene como


la derivada de FX (x), esto es:
122 4.1. PROBABILIDADES

d
fX (x) = FX (x) (4.13)
dx
y se trata de una función que indica la forma como se distribuye la probabilidad a lo largo de
la recta real. Sus propiedades son:

1. fX (x) ≥ 0
∫∞
2.
−∞ X
f (x)dx = 1
∫ b+
3.
a+
fX (x)dx = P (a < X ≤ b)
∫ x+
4. FX (x) = −∞
fX (u)du

Puede notarse en la tercera propiedad que el cálculo de la probabilidad se resume en el cálculo


del área de la f.d.p.
Para variables aleatorias discretas, la f.d.p. toma la forma de un conjunto de deltas, por lo
cual se le denomina también como función de probabilidad de masas(f.p.m) ya que:

fX (xi ) = pi = P (X = xi ) (4.14)

A diferencia con las variables aleatorias continuas, las discretas son las únicas a las cuales se
les puede calcular probabilidad a una cantidad aislada x, dado que en las continuas, la región
de integración será un rectángulo de base innitesimal, es decir, P (X = xi ) = fX (xi )dx. En
otras palabras, para las variables continuas solamente es posible calcular la probabilidad que la
variable aleatoria tome el valor contenido en un intervalo (a, b].

Ejemplo 4.1. Considere el experimento de lanzar una moneda 3 veces, y se


tiene que la probabilidad de ocurrencia de la cara es p. Sí la variable aleatoria X
denota el número total de veces que aparece cara, determinar: (a) ¾Cuáles valores
puede tomar la variable aleatoria?, (b) ¾Cuál es la función de probabilidad de masas
de la variable aleatoria X ?, (c) Determine la f.d.p.a. de la variable aleatoria X.
Solución. Dado a que la variable aleatoria representa el número total de veces
que aparece cara en los tres lances, lo más simple consiste en asignar a los valores
de la recta númerica x = 0, 1, 2, 3 el número de veces que se presenta cara en los tres
lances, de esta forma, la variable aleatoria es discreta y se puede establecer entonces
la f.p.m. pi = P (X = xi ) considerando los siguientes conjuntos:
Para xi = 0, que consiste en no obtener cara en ninguno de los lances, se tiene
un único conjunto de posibles resultados, y es obtener tres veces consecutivas sello,
lo cual representaremos por (sss).
xi = 1, hay tres conjuntos de posibles resultados esperados: (css), (scs), (ssc)
xi = 2, hay tres conjuntos de posibles resultados esperados: (ccs), (csc), (scc)
xi = 3, hay un único conjunto, y es el resultado de obtener cara consecutivamente
en los tres lances, (ccc).
Otra consideración importante a tener en cuenta lo constituye el hecho que un
lanzamiento es independiente del anterior, es decir, se trata de eventos independien-
tes. Así mismo, sí la probabilidad de obtener cara es p, la probabilidad de obtener
sello será 1 − p. Por consiguiente, la f.p.m., será entonces:
CAPÍTULO 4. SEÑALES ALEATORIAS 123



 P (sss) = P (s)P (s)P (s) = (1 − p)3 i=0

P (css) + P (scs) + P (ssc) = 3P (c)P (s)P (s) = 3p(1 − p)2 i=1
pi =

 P (ccs) + P (csc) + P (scc) = 3P (c)P (c)P (s) = 3p2 (1 − p) i=2

P (ccc) = p3 i=3

Y la forma de la funcíon de probabilidad acumulada f.d.p.a. resulta de la inte-


gración de pi :


 0 xi <0


 (1 − p)3 xi <1
FX (xi ) = (1 − p)3 + 3p(1 − p)2 = 1 − 3p2 + 2p3 xi <2 



 1 − 3p2 + 2p3 + 3p2 (1 − p) = 1 − p3 xi <3

1 xi ≥3

4.1.5. Valor Medio y Varianza


Para una variable aleatoria, además del conocimiento de su función de densidad de proba-
1
bilidad o de su función de distribución acumulada, interesa conocer su valor más probable ,
denominado también valor medio y denotado como µ, y su varianza
σ 2 , cuya raíz cuadrada, σ ,
denominada desviación estándar , mide el grado de dispersión de los valores alrededor del valor
más probable. Ambas propiedades se denen a través del operador esperanza matemática E[X].
La esperanza matemática de cierta función g(u) evaluada con una variable aleatoria X se
dene como:

∫ ∞
E[g(X)] = g(x)fX (x)dx (4.15)
−∞

la cual es una operación matemática lineal que pondera la función g(x) con la función de
densidad de probabilidad fX (x).
El valor de E[X] o valor medio (µ) de X, se denomina también primer momento :

µ = E[X] (4.16)

Dado que la expresión de cálculo de µ es idéntica al centro de masa, el valor más probable
de una variable aleatoria se encuentra cercano al punto donde el área de la función de densidad
de probabilidad f.d.p. se reparte equitativamente a la derecha y la izquierda de µ.
2
La expresión E[X ], se denomina comúnmente valor cuadrático medio
o segundo momento,
3 4
E[X ], E[X ], ..., tercer momento, cuarto momento, etc., sin embargo, en la mayoría de las
aplicaciones carecen de un signicado físico.
La esperanza y por tanto, el valor medio tienen las siguientes propiedades:

1. E[cX] = cE[X] con c una constante arbitraria

2. E[c] = c
3. E[X + c] = E[X] + c
1 Es importante aclarar que µ = E[X] corresponde al valor más probable únicamente si la f.d.p. es unimodal,
es decir, si la forma de la f.d.p.está concentrada alrededor de un único conjunto de valores como en la f.d.p.
gausiana.
124 4.1. PROBABILIDADES

Estas propiedades muestran el carácter lineal del operador esperanza e indican que el valor
medio de una constante o señal determinística es exactamente la misma constante o señal.
La tercera propiedad tiene una importante implicación, y consiste en que si una señal está
compuesta por una componente aleatoria y otra determinística, el valor esperado de la señal
total, será la suma de la componente determinística más el valor esperado de la componente
aleatoria.
Otros momentos importantes son los denominados momentos centrales , pues se determinan
alrededor del valor más probable:

E[(X − µ)n ] (4.17)

Se puede vericar que el primer momento central es cero, sin embargo, el segundo momento
central , se denomina varianza de la variable aleatoria:

E[(x − µ)2 ] = var[X] = σ 2 (4.18)

y posee las siguientes propiedades:

1. var[cX] = c2 var[X]

2. var[c] = 0

3. var[X + c] = var[X]

4. var[X] = E[X 2 ] − µ2

Estas propiedades indican que la varianza es un operador no lineal. La segunda propiedad es


un resultado acorde con la realidad, ya que indica que la dispersión de una constante o señal
determinística es cero, puesto que siempre se tiene certeza del resultado de la señal. Así mismo,
la tercer propiedad indica que si una señal está compuesta por una componente aleatoria y otra
constante determinística, la dispersión de valores está regida exclusivamente por la componente
aleatoria.
Grácamente, la varianza, al estar ligada a la desviación estándar, indica para una función
de densidad de probabilidad, que tan ancha o angosta es su forma de línea alrededor del valor
medio.
Por otra parte, el tercer momento central, calculado por medio de E[(X − µ)3 ] se denomina
habitualmente sesgo y mide el grado de asimetría de la función de densidad de probabilidad
alrededor del valor más probable. Si este momento es cero, indica que la f.d.p. tiene una forma
simétrica alrededor de µ, si es positiva indica que a la derecha del valor medio se encuentra una
cola de posibles valores, en cambio al ser negativa, la cola se presenta a la izquierda de µ.

4.1.6. Variables Aleatorias Importantes


Bernoulli
Esta es una variable aleatoria discreta que toma dos posibles valores 1 y 0 con probabilidades
p y 1−p. Esta variable aleatoria permite modelar un generador binario o el error en la recepción
de bits en un canal de transmisión.
CAPÍTULO 4. SEÑALES ALEATORIAS 125

Binomial
Esta es una variable aleatoria discreta que permite modelar el número de bits recibidos con
error en una transmisión, cuando la secuencia transmitida estaba compuesta por n bits, todos
ellos independientes entre sí y con la misma probilidad de error. En otras palabras, la variable
aleatoria binomial es el conjunto de n variables aleatorias del tipo Bernoulli. Su función de
densidad de probabilidad es:

 ( )
 n
pk (1 − p)n−k 0≤k≤n
P (X = k) = k (4.19)
 c.c.
0
( )
n n!
con = k!(n−k)! . En la Figura 4.6a se muestra grácamente la forma de la ecuación (4.19).
k
Para esta variable aleatoria, su valor medio es: µ = np y su varianza σ 2 = np(1 − p).

Uniforme
Esta es una variable aleatoria continua que toma sus valores entre el intervalo a y b con
igual probabilidad. La f.d.p. está denida como:

{ 1
b−a a<x<b
fX (x) = (4.20)
0 c.c.
Esta variable aleatoria se utiliza para modelar variables aleatorias cuyo rango de excursión
es conocido. Ejemplo de ello es la variación de fase de un generador sinusoidal, ya que ésta toma
únicamente valores entre 0 y 2π .
Su valor medio es: µ = a+b
2 y su varianza σ2 = b−a
12 .

Gausiana o Normal
Esta es la variable aleatoria continua más común, ya que permite modelar desde fuentes de
ruido o señales de información hasta canales de comunicación. Esta variable aleatoria se obtiene
como extensión de la variable aleatoria binomial cuando el número de experimentos tiende al
innito (n → ∞), en otras palabras, representa un evento conformado por innito número de
eventos independientes entre sí. Un tipo de ruido que puede ser perfectamente modelado por
una distribución gausiana los es el ruido térmico. Esta función se describe a través de:

1 (x−µ)2
fX (x) = √ e− 2σ2 (4.21)
2πσ
donde µ y σ son la media y varianza de la variable aleatoria, respectivamente. Esta es una
distribución que presenta simetría par alrededor de x = µ. Dentro de una dispersión de 3σ
alrededor de su medio, se encuentran aproximadamente el 99,7 % de valores posibles del evento.
En la Figura 4.6b se muestra la forma de la f.d.p (ec .4.19).
Para evaluar las probabilidades se recurre comúnmente a tablas en las cuales se encuentra
tabulada la función Q (Tabla 4.1), descrita como

∫ ∞
Q(x) = P (X > x) = fN (u)du (4.22)
x
126 4.1. PROBABILIDADES

2
donde fN (u)
es una distribución normal de media cero µ = 0 y varianza σ = 1. Esta función
1
tiene los siguientes valores extremos Q(0) =
2 y Q(∞) = 0. Por otro lado, para calcular la
2
probabilidad P (X > x) de una distribución gausiana con diferentes parámetros µ y σx se debe
( )
x−µ
evaluar Q σx .

Otra forma alternativa de evaluar las probabilidades es usando la función de error, erf, que
se encuentra disponible en algunos programas como Matlab. La función de error o erf, está
denida por medio de la ecuación:

∫ x
2
e−t dt
2
erf (x) = √ (4.23)
π 0

Nótese que mientras Q(x) está relacionada con probabilidad P (X > x), erf (x) está rela-
cionada con la probabilidad P (0 < X < x) (Figura 4.7a). Para calcular la probabilidad de una
2
variable aleatoria gausiana de media µ y varianza σ en el rango [0, x], es necesario hacer las
siguiente transformación a la función erf:
( )
1 x−µ
P (0 < X < x) = erf √ (4.24)
2 2σ 2

0.3 0.3

0.25 0.25

0.2 0.2
(b)
(a)
P(X=k)

fX (x)

0.15 0.15

0.1 0.1

0.05 0.05

0 0
0 2 4 6 8 10 12 −5 −4 −3 −2 −1 0 1 2 3 4 5 6 7 8 9 10
k x

Figura 4.6: Función de densidad de probabilidad para una variable aleatoria (a) binomial y (b)
gausiana

Ejemplo 4.2. Calcule la probabilidad de que una variable aleatoria gausiana de


media 3 y varianza 1.5 para los siguientes casos: a) x > 1; b) 1 < x < 2; c) x < 5.
Solución. La probabilidad de una distribución gausiana se puede calcular por
medio de la función Q dada en (4.22) o usando Matlab por medio de la función
de error, erf. En la Figura 4.7a se muestra la probabilidad que calcula la función
erf, la cual siempre es entre 0 y x, con µ=0. En las Figuras 4.7b-d, se muestran
las probabilidades que se requieren para el problema P (X > 1), P (1 < X < 2), y
P (X < 5), respectivamente.
Para el primer caso, se tiene que el valor x = 1 está por debajo de la media µ = 3
(Figura 4.7b), asi que dicha probabilidad se debe calcular por medio de P (X > 1) =
P (1 < X < µ) + 21 , donde 12 es el área de la f.d.p. para todos los valores por encima
CAPÍTULO 4. SEÑALES ALEATORIAS 127

Cuadro 4.1: Tabla de valores de la función Q(x)


x Q(x) x Q(x) x Q(x)
0.0 5.0000000e-000 2.4 8.1975359e-003 4.8 7.9332815e-007
0.1 4.6017216e-001 2.5 6.2096653e-003 4.9 4.7918328e-007
0.2 4.2074029e-001 2.6 4.6611880e-003 5.0 2.8665157e-007
0.3 3.8208858e-001 2.7 3.4669738e-003 5.1 1.6982674e-007
0.4 3.4457826e-001 2.8 2.5551303e-003 5.2 9.9644263e-008
0.5 3.0853754e-001 2.9 1.8658133e-003 5.3 5.7901340e-008
0.6 2.7425312e-001 3.0 1.3498980e-003 5.4 3.3320448e-008
0.7 2.4196365e-001 3.1 9.6760321e-004 5.5 1.8989562e-008
0.8 2.1185540e-001 3.2 6.8713794e-004 5.6 1.0717590e-008
0.9 1.8406013e-001 3.3 4.8342414e-004 5.7 5.9903714e-009
1.0 1.5865525e-001 3.4 3.3692927e-004 5.8 3.3157460e-009
1.1 1.3566606e-001 3.5 2.3262908e-004 5.9 1.8175079e-009
1.2 1.1506967e-001 3.6 1.5910859e-004 6.0 9.8658765e-010
1.3 9.6800485e-002 3.7 1.0779973e-004 6.1 5.3034233e-010
1.4 8.0756659e-002 3.8 7.2348044e-005 6.2 2.8231580e-010
1.5 6.6807201e-002 3.9 4.8096344e-005 6.3 1.4882282e-010
1.6 5.4799292e-002 4.0 3.1671242e-005 6.4 7.7688476e-011
1.7 4.4565463e-002 4.1 2.0657507e-005 6.5 4.0160006e-011
1.8 3.5930319e-002 4.2 1.3345749e-005 6.6 2.0557889e-011
1.9 2.8716560e-002 4.3 8.5399055e-006 6.7 1.0420977e-011
2.0 2.2750132e-002 4.4 5.4125439e-006 6.8 5.2309575e-012
2.1 1.7864421e-002 4.5 3.3976731e-006 6.9 2.6001270e-012
2.2 1.3903448e-002 4.6 2.1124547e-006 7.0 1.2798125e-012
2.3 1.0724110e-002 4.7 1.3008075e-006
128 4.1. PROBABILIDADES

de la media, es decir, P (X > 3). Luego,(si se )utiliza la función Q(x), usando la


|1−3|
2 −Q + 12 = 1 − Q(1,63) = 0,9452.
1 √
Tabla 4.1, se tiene queP (X > 1) =
1,5
Al emplearse la función erf, la probabilidad P (1 < X < µ) se calcula directa-
( )
1 |1−3|
mente con (4.24): P (X > 1) = 2 + 12 erf √
2×1,5
y en Matlab,

mu = 3; sigma2 = 1.5;
Pa = 1/2 + 0.5*erf( abs(1-mu)/sqrt(2 * sigma2) );
Para P (1 < X < 2), como el rango [1, 2] está por debajo de la media (Figura 4.7c),
esta área es equivalente a calcular el área en el rango [1−µ, 2−µ] = [−2, −1] = [1, 2].
Si se usa la función Q, dicha área se obtiene mediante sustracción del área para
( ) ( )
[1, ∞) y el área [2, ∞): P (1 < X < 2) = Q √1
1.5
− Q √21.5 = 0.1571
Si se usa la función erf, dicha área se obtiene mediante sustracción del área entre
( ) ( )
[0, 2] y el área [0, 1]: P (1 < X < 2) = 12 erf √ 2
2×1,5
− 12 erf √ 1
2×1,5
.

Finalmente, para P (X < 5), se tiene que como 5 es mayor a µ = 3, el cálculo


de esta probabilidad es equivalente a sumar 1/2 µ = 3)
(probabilidad de X menor a
y la probabilidad en el rango
( [µ = ) 3, 5] (Figura 4.7d). Entonces, usando la función

Q, P (X < 5) = 21 + 21 −Q √5−3
= 0,9452 y usando la función erf, P (X < 5) =
( ) 1,5
1
2 + 12 erf √5−3
2×1,5


Figura 4.7: Función erf (a) y ejemplos de cálculo de las probabilidades

Ejemplo 4.3. Supóngase que en el laboratorio se montó un circuito generador


de ruido blanco, construido a partir de la amplicación del ruido térmico producido
por los componentes electrónicos. La señal de dicho generador fue discretizada por
medio de un conversor analógico-digital (ADC) tomándose para ello 100000 muestras
de la señal. Determinar experimentalmente la función de densidad de probabilidad.
Solución. Una forma experimental de intuir la forma de la función de densidad
de probabilidad, es apartir del cálculo del histograma a un vector de N datos expe-
rimentales. El histograma consiste en agrupar los datos experimentales que toman
el valor en el rango xn < x ≤ xn + ∆x, con ∆x el ancho del intervalo, y realizar
el conteo del número de elementos que pertenecen a cada uno de estos grupos, es
decir,

H(n) = #elementos entre xn < x ≤ xn + ∆x


En la Figura 4.8a se muestra el histograma del vector digitalizado por medio
del ADC. Dado que el eje y corresponde al número de datos contenidos en el rango
CAPÍTULO 4. SEÑALES ALEATORIAS 129

xn < x ≤ xn + ∆x, si lo dividimos entre la longitud del vector (N ), obtenemos la


frecuencia relativa del evento (ec. 4.1), la cual es una aproximación experimental de
la probabilidad. Por consiguiente,

H(n)
P (xn < x ≤ xn + ∆x) ≈
N
∫ xn +∆x
Si recordamos que P (xn < X ≤ xn + ∆x) =
xn
fX (x)dx, vemos entonces
que el histograma es una aproximación por suma de Riemann de la función de
H(n)
densidad de probabilidad, lo cual permite realizar la siguiente aproximación
N ≈
fX (xn )∆x, lo que nalmente nos conduce a

H(n)
fX (xn ) ≈ (4.25)
N ∆x
Se presenta a continuación un programa en Matlab que permite realizar el cálculo
experimental de la f.d.p. por medio de (4.25). Asimismo, la media y varianza de dicho
proceso se puede estimar experimentalmente por medio de las funciones mean y var.
Por las características de ruido térmico se espera que la función de densidad de
probabilidad sea una forma gausiana, lo cual se verica al suporponer a la f.d.p.
experimental la f.d.p. calculada teóricamente con (4.21). Ver Figura 4.8b.

12000

10000

8000
H(X)

6000

4000

2000

0
−4 −3 −2 −1 0 1 2 3 4
x
0.8
teórico
experimental
0.6
fX (x)

0.4

0.2

0
−4 −3 −2 −1 0 1 2 3 4
x

Figura 4.8: Ejemplo de un histograma y la función de densidad de probabilidad calculada


experimentalmente

N = length(x);
mu = mean(x);
sigma2 = var(x);
fprintf('la media es: %f\n', mu );
fprintf('la varianza: %f\n', sigma2 );
%calcula el histograma
130 4.1. PROBABILIDADES

dx = 0.2;
[h xn] = hist(x, [-3:dx:3]);
%calcula la f.d.p. y la graca
fx = h/(N*dx);
bar(xn,fx,'w');
%graca la distribución teórica
hold on;
yval = [-3:0.1:3];
fy = exp( -((yval-mu).^2)/(2*sigma2) ) / sqrt( 2*pi*sigma2 );
plot(yval, fy); 

4.1.7. Funciones de Variables Aleatorias


Una señal aleatoria, o ruido, se puede modelar en primera aproximación por medio de una
única variable aleatoria. Para hacerlo, se considera que la amplitud del ruido en cada instante de
tiempo está determinado por una variable aleatoria X con una función de densidad de probabi-
lidad fX (x). Como se verá más adelante, las señales aleatorias en las cuales el modelamiento se
puede hacer de esta forma se denominan procesos aleatorios estrictamente estacionarios . El tipo
más común de este tipo de procesos es el ruido térmico. Para estos procesos, la señal aleatoria
tendrá en el tiempo una forma como se indica en la Figura 4.9, pues como consecuencia de que
la amplitud de la señal en cada instante de tiempo está regido por la misma variable aleatoria,
da como resultado una señal con media y varianza constante, donde la desviación estándar está
relacionada con la dispersión, o en términos aproximados a la amplitud de la señal aleatoria.
Este último aspecto se visualiza mejor en la Figura 4.9, pues en ella, se puede apreciar que la
amplitud de la señal aleatoria está concentrada en un rango de valores entre
√ −σ ≤ x ≤ σ , con
σ= var(x) la desviación estándar de la señal.

1.5

0.5

2σ 0

−0.5

−1

−1.5

−2
0 10 20 30 40 50 60 70 80 90 100
tiempo

Figura 4.9: Proceso estrictamente estacionario

Si dicha señal pasa a través de cierto sistema, para determinar la forma de la señal de salida
basta con calcular la densidad de probabilidad de la señal de salida fY (y) cuando la variable
aleatoria X pasa por el sistema y = g(x).
En general, la forma de la f.d.p. de la señal de salida se puede determinar a través de
su función de distribución de probabilidad acumulada pues resulta más fácil de calcular; sin
embargo, para ciertos casos es posible emplear la siguiente fórmula:
CAPÍTULO 4. SEÑALES ALEATORIAS 131

[ ]−1
∑ dg(x)
fY (y) = fX (xi ) (4.26)
i
dx xi

donde y = g(x) es la relación entrada-salida del sistema y xi sus respectivas raíces.

Ejemplo 4.4. Un ruido descrito por medio de una variable aleatoria con distri-
{
1/2 1≤x≤3
bución uniforme fX (x) = pasa a través de un amplicador de
0 c.c.
ganancia A y con un oset B . Determinar la forma de la densidad de probabilidad
de la señal de salida.
Solución. La relación entrada-salida de dicho sistema se puede modelar a través
de y = g(x) = Ax+B , por lo cual su derivada es dg(x)
dx = A y su única raíz x =
y−B
A ,
teniéndose por tanto para fY (y):

( ) { 1
y−B 1 2A 1 ≤ y−B
A ≤3
fY (y) = fX =
A A 0 c.c.
{ 1
2A A + B ≤ y ≤ 3A + B
fY (y) =
0 c.c.
En el programa en Matlab descrito a continuación se muestra como generar la
señal de entrada y estimar la f.d.p para las condiciones A = 2 y B = 1.
El ruido se genera a partir de la función rand que genera una señal con distribu-
ción uniforme para el intervalo [0, 1], por lo que es necesario transformar esta señal
al rango deseado, [1, 3], por medio de la ecuación x = (b-a)*rand(1,N) + a.
La f.d.p. puede ser estimada a partir del histograma de la señal, tal como se
ilustró en el ejemplo de la página 128. Se muestra en la Figura 4.10, las f.d.p.
experimentales para las señales de entrada y salida, así como la amplitud teórica
máxima que puede alcanzar la f.d.p. de la señal de salida, es decir, 1/2A.

a = 1; b = 3;
N = 100000;
%rand genera un conjunto de datos con distribución
%uniforme entre 0...1. Por lo cual se hace necesario
%multiplicar el vector por (b-a), para expandir el
%intervalo a 1...3 y desplazar lo valores hasta el
%punto x=1
x = (b-a)*rand(1,N) + a;
%se pasa la señal por un amplicador de
%ganancia A y oset B
A = 3; B = 1;
y = A*x + B; %acción del sistema
%graca las f.d.p.
dx = 0.2;
[hx xn] = hist(x, [0:dx:15]);
subplot(2,1,1), bar(xn, hx/(N*dx),'w');
132 4.1. PROBABILIDADES

[hy yn] = hist(y, [0:dx:15]);


subplot(2,1,2), bar(yn, hy/(N*dx),'w'); 

0.8

0.6
fX (x)

0.4

0.2

0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
x
0.2

0.15
fY (y)

0.1

0.05

0
0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15
y

Figura 4.10: Funciones de densidad de probabilidad experimentales de la señal de entrada (parte


superior) y salida (parte inferior) del ejemplo

Ejemplo 4.5. x(t) se puede modelar a través de una variable


Una señal eléctrica
aleatoria de distribución gausiana con media cero y varianza σx2 . Determine la forma
que tendrá el ruido al pasar la señal x(t) por un dispositivo de ley cuadrática g(x) =
ax2 .
Solución. Dado que la relación √
2
entrada-salida es y = g(x) = ax , su derivada
dg(x)
dx = 2ax y sus raíces x = ±
y
es
a , teniéndose por tanto para fY (y):
(√ ) ( √ )
y 1 y 1
fY (y) = fX
√ + fX − √
a 2a ay a −2a ay

y como fX (x) tiene media cero, es una función con simetría par, así que

(√ )
1 y 1 − y
fY (y) = √ fX =√ e 2aσx2 
ay a 2πayσx

Ejemplo 4.6. Analizar el efecto de pasar el ruido del ejemplo anterior por un
recticador ideal de media onda. {
x x>0
Solución. En este caso la relación entrada-salida será y = g(x) = 0 x≤0
,

pero como tiene innitas raíces, es imposible usar la ec. (4.26) en todo el rango de
x. Sin embargo, si analizamos con detenimiento el efecto del sistema g(x) sobre la
señal de entrada, tenemos que:
CAPÍTULO 4. SEÑALES ALEATORIAS 133

la probabilidad de que la señal de salida tenga un valor positivo está ligada


directamente a la probabilidad que este mismo valor esté presente en la entrada,
es decir P (Y = a : a > 0) = P (X = a : a > 0), por lo que en esta región
la f.d.p. es exactamente la misma f.d.p. de la entrada, fY (y) = fX (x) para
x > 0, ∧, y > 0;
la probabilidad de que la señal de salida tome un valor negativo es cero, P (y <
0) = 0, lo que implica que fY (y) = 0 para y < 0;
por efecto del recticador, las señales de entrada negativas se mapean como el
valor de salida cero, por lo tanto, la probabilidad de que la señal de salida tome
1
el valor de cero es muy alta, y sería igual entonces a P (y = 0) = P (x < 0) = .
2
Por lo anterior la f.d.p. de la señal de salida será entonces:


 fX (y) y>0
1
fY (y) = y=0
 2
0 y<0
2
1 u(y) − 2σ
y
1
= fX (y)u(y) + δ(y) = √ e x2 + δ(y) 
2 2
2πσx 2

En la Figura 4.11 se muestra la simulación en Matlab del anterior sistema. Para


esta simulación el ruido de entrada fue generado con la función randn que genera un
ruido con una distribución normal de media cero y varianza uno, por lo que para otra
2
especicación se hace necesario multiplicarlo por σ , dado que var[cX] = c var[X],
y desplazarlo hacia su valor medio: x = sqrt(sigma2)*randn(1,N) + mu.
Puede observarse en la Figura 4.11 que el delta predicho en la ecuación teórica
para fY (y), se visualiza como una barra de amplitud N/2, con N el número de datos
generados para la señal X.

mu = 0; sigma2 = 0.5;
N = 100000;
%randn genera un conjunto de datos con distribución
%gausiana con media cero y varianza 1. Por lo cual se
%hace necesario multiplicar el vector por sqrt(sigma2) y
%desplazarlo en su media.
x = sqrt(sigma2)*randn(1,N) + mu;
%se pasa la señal por un dispositivo de ley cuadrática
%con a=1
y = x;
y( nd(y<0) ) = 0; %acción del sistema
%graca las f.d.p.
dx = 0.2;
[hx xn] = hist(x, [-3:dx:3]);
subplot(2,1,1), bar(xn, hx/(N*dx),'w');
[hy yn] = hist(y, [-3:dx:3]);
subplot(2,1,2), bar(yn, hy/(N*dx),'w'); 
134 4.1. PROBABILIDADES

0.8

0.6

fX (x)
0.4

0.2

0
−4 −3 −2 −1 0 1 2 3 4

x
3

2.5

2
fY (y)

1.5

0.5

0
−4 −3 −2 −1 0 1 2 3 4
y

Figura 4.11: Funciones de densidad de probabilidad experimentales de las señales de entrada y


salida del ejemplo

Ejemplo 4.7. Genere una señal aleatoria que tenga una f.d.p.

{
1 −t/3
3e t≥0
fT (t) =
0 c.c.

a partir de una señal aleatoria uniforme [0, 1].


Solución. En los problemas anteriores se ha empleado una transformación g(x)
conocida a cierta variable aleatoria y se ha obtenido una nueva variable aleatoria con
cierta f.d.p. En este problema, conocemos las f.d.p. de entrada, uniforme [0, 1], y la
f.d.p. de salida, fT (t), por lo tanto, es necesario determinar la transformación g(x).
Esta transformación se puede generar a través de una ecuación inversa a fY (y) =
[ ]−1
∑ dg(x)
i fX (xi ) dx , lo que conduce al siguiente teorema:
xi

g(u) = FT−1 (u)

donde u [0, 1] y FT es la inversa de la función de


es la variable aleatoria uniforme
distribución acumulada de fT (t). En este caso, la función de distribución acumulada
es:
∫ t ∫ t t
1 −t/3 1 −t/3
FT (t) = fT (t)dt = e dt = e × (−3) = 1 − e−t/3
−∞ 0 3 3 0

Se puede vericar que FT (u) es invertible en el rango u = [0, 1] lo que es una condi-
ción indispensable para poder emplear la ecuación anterior. Entonces, la inversa de
la f.d.p. es
1
u = 1 − e−t/3 ⇒ t = − log(1 − u)
3
CAPÍTULO 4. SEÑALES ALEATORIAS 135

por consiguiente, se puede vericar en Matlab que la anterior expresión conduce a


una f.d.p. fT (t):

u = rand(100000,1);
t = -3*log(1-u);
dx = 0.1; %Graca la f.d.p. experimental
[h,xval] = hist(t, -2:dx:20);
plot(xval,h/(length(t)*dx));
t = 0:dx:20; %Graca la f.d.p. teórica
ft = 1/3*exp(-t/3);
hold on; plot(t, ft,'r');

4.1.8. Variables Aleatorias Múltiples


Si un cierto evento depende de dos o más variables aleatorias, resulta útil denir un única
f.d.p.a. y f.d.p., denominadas función de distribución de probabilidad acumulada conjunta :

FX1 X2 ...Xn (x1 , x2 , ... xn ) = P (X1 ≤ x1 , X2 ≤ x2 , ... Xn ≤ xn ) (4.27)

y función de densidad de probabilidad conjunta :


∂ n FX1 X2 ...Xn (x1 , x2 , ... xn )
fX1 X2 ...Xn (x1 , x2 , ... xn ) = (4.28)
∂x1 ∂x2 ...∂xn
cuyas propiedades son las siguientes:
∫∞ ∫∞ ∫∞
1.
−∞ −∞
... −∞
fX1 X2 ...Xn (x1 , x2 , ... xn )dx1 dx2 ...dxn = 1
∫ b1 ∫ bn
2. P (a1 < X1 ≤ b1 , ... an < Xn ≤ bn ) = −a1
... −an
fX1 ...Xn (x1 , ...xn )dx1 ...dxn

3. La densidad de probabilidad marginal de la variable aleatoria Xi es:


∫∞ ∫∞ ∫∞
fXi (xi ) = −∞ −∞
... −∞
fX1 X2 ...Xn (x1 , x2 , ... xn )dx1 ...dxi−1 dxi+1 ...dxn

4. FXi (xi ) = FX1 X2 ...Xn (∞, ∞, ...xi , ... ∞, ∞)

5. La densidad de probabilidad condicional es


{
fX1 ...Xn (x1 , ... xn )
fXi (xi ) ̸= 0
fX1 ...Xn (xi | x1 ...xi−1 xi+1 ...xn ) = fXi (xi )
0 c.c.
∫∞ ∫∞ ∫∞
6. E[g(x1 ...xn )] = −∞ −∞
... −∞
g(x1 ...xn )fX1 ...Xn (x1 , ... xn )dx1 dx2 ...dxn

De esta forma, el cálculo de probabilidades cuando se tiene una variable multidimensional


(segunda propiedad) se resume en el cálculo de un volumen. De la quinta propiedad se encuentra
que sí las variables aleatorias Xi son estadísticamente independientes entre sí, la función de
densidad de probabilidad conjunta toma la forma:

fX1 X2 ...Xn (x1 , x2 , ... xn ) = fX1 (x1 )fX2 (x2 )...fXn (xn )
136 4.1. PROBABILIDADES

Para el caso especíco de una variable aleatoria bidimensional, la E[XY ] se denomina corre-
lación cruzada

cor[XY ] = E[XY ] (4.29)

Por otra parte, el equivalente a la varianza en el caso 2D se denomina covarianza , denida


como:

cov[XY ] = E[(x − µx )(y − µy )] (4.30)

Aplicando las propiedaes del operador esperanza se encuentra la siguiente relación entre la
varianza y la covarianza:

cov[XY ] = cor[XY ] − µx µy (4.31)

La covarianza y la correlación cruzada son cantidades que permiten comparar dos variables
aleatorias con el n de establecer su grado de dependencia y su relación. Se dice que dos
eventos no están correlacionados o que dos variables aleatorias no son correlacionadas cuando
la covarianza es nula cov[XY ] = 0 o lo que es lo mismo, sí la correlación cruzada es igual a
cor[XY ] = µx µy .
La no correlación de dos variables aleatorias no necesariamente implica independencia, pero
lo contrario si es cierto, es decir, dos eventos independentes, regidos por las variables aleatorias
X y Y, no estarán correlacionados. La única excepción a la regla son las variables aleatorias
gausianas, en las cuales la no correlación de dos variables aleatorias implica necesarimente
independencia.
En síntesis, las variables aleatorias independientes son siempre no correlacionas, pero las
variables aleatorias dependientes pueden ser correlacionadas o no correlacionadas.
Por otra parte, se dice que dos variables aleatorias son ortogonales entre sí, cuando su corre-
lación cruzada se anula (cor[XY ] = 0). Por consiguiente, dos variables aleatorias ortogonales ,
serán también no correlacionadas solamente cuando tengan media cero.
Del análisis anterior se encuentra que, para efectos de comparación de dos variables alea-
torias, la medida que mejor lo describe es la covarianza, cuyo valor mínimo (cero) indica la
no existencia de correlación alguna entre las variables aleatorias, pero en el caso de existir
correlación, esta cantidad no permite conocer con precisión en que proporción lo están. Una
cantidad que mejor describe el grado de relación entre dos variables aleatorias es el coeciente
de correlación ρxy , que resulta de la normalización de la covarianza por su valor máximo, el
cual es máx {cov[XY ]} = σx σy :

cov[XY ]
ρxy = (4.32)
σx σy
De esta forma, el coeciente de correlación es una magnitud en el rango −1 ≤ ρxy ≤ 1,
donde ρxy = 0, indica que las variables no están correlacionas, y si ρxy = ±1, existe una alta
correlación entre ellas, lo cual permite expresar la variable aleatoria Y por medio de una relación
de primer orden del tipo Y = aX + b, con a y b constantes.
La correlación tiene también una fuerte inuencia cuando se analiza la varianza de la com-
binación de dos o más variables aleatorias. Veamos algunos ejemplos:

1. Sea la variable aleatoria Z = X ±Y donde X y Y son dos variables aleatorias. El valor


medio de la nueva variable aleatoria será E[Z] = E[X ± Y ] = µx ± µy , y su varianza
CAPÍTULO 4. SEÑALES ALEATORIAS 137

var[Z] = var[X] + var[Y ] ± 2cov[XY ], por consiguiente, la varianza de la suma de dos


variables aleatorias será igual a la suma de sus varianzas solamente en el caso de que las
variables sean no correlacionadas o independientes, pues bajo esta situación cov[XY ] = 0.

2. La varianza de la combinación lineal de n variables aleatorias será:


∑n ∑n 2

var [ i=1 ai Xi ] = i=1 ai var[Xi ] +2 i<j ai aj cov[Xi Xj ]
Y si las variables aleatorias son independientes
∑n ∑n
var [ i=1 ai Xi ] = i=1 a2i var[Xi ]

3. Para variables aleatorias independientes X y Y, la dispersión de su producto será

var[XY ] = var[X]var[Y ] + µ2x var[Y ] + µ2y var[X]

4.2. Procesos Estocásticos


Un proceso estocástico o señal aleatoria se concibe como un conjunto de variables aleatorias
indexadas en el tiempo, es decir, en un cierto instante de tiempo el valor que toma la amplitud
de la señal aleatoria está regida por una cierta variable aleatoria (Figura 4.12a); es así como,
la señal aleatoria X(t) se puede modelar a través de una variable aleatoria multidimensional
fX (X; t), y la señal en el tiempo será la trayectoria que tomarán los valores de estas variables
aleatorias (Figura 4.12b).

X(t) ∼ fX (x1 , x2 , ..., xn ; t1 , t2 , ..., tn ) (4.33)

P(x)
(a)

t1 t2 t3 t4 t5 t7 t

x
X1(t)

(b) t

X2(t)
(c)
t

X3(t)
(d) t

Figura 4.12: Representación de un proceso estocástico

Esta notación indica que en el instante de tiempo ti la amplitud de la señal está regida por
una variable aleatoria xi .
138 4.3. PROPIEDADES DE LAS SEÑALES ALEATORIAS

Dado a que la amplitud de la señal aleatoria en un instante de tiempo está condicionada a una
variable aleatoria, esta descripción matemática indica que para un proceso aleatorio, la amplitud
de la señal puede tomar diferentes valores en un mismo instante de tiempo. Esto suena confuso,
pero puede entenderse mejor al analizar la siguiente situación. Supóngase que se construyen
varios generadores de señales aleatorias, todos ellos empleando el mismo circuito e igual valor
de los componentes. Si todos los generadores se encienden y se visualizan simúltaneamente las
señales que entrega cada uno de ellos, se encuentra que, por las características aleatorias de cada
generador, la forma de todas las señales es diferente aunque hayan sido generadas por el mismo
tipo de circuito. Esta situación es mostrada en las Figuras 4.12b-d. Cada una de las señales
aleatorias que entrega un generador en particular se denomina función muestral o realización
de un proceso aleatorio, y el conjunto de todas las señales aleatorias, un ensamble aleatorio.
Esta representación permite entender más fácilmente las propiedades que se describen en las
siguientes secciones.

4.3. Propiedades de las Señales Aleatorias


Aunque las señales aleatorias se pueden modelar a través de una función de densidad de
probabilidad conjunta f.d.p.c., fX (X; t), desde el punto de vista práctico este no es el camino
más simple, por lo cual se preere usar representaciones más simples como lo son el promedio
estocástico , la autocorrelación y la densidad espectral de potencia .

4.3.1. Promedio Estocástico


El promedio estocástico o valor medio es una medida de la componente determinística de
la señal aleatoria, por lo tanto, ésta es una función dependiente del tiempo, la cual se calcula
como:

∫ ∞
mX (t0 ) = E[X(t0 )] = xfX (t0 )dx (4.34)
−∞
El valor medio de una señal se puede interpretar entonces en términos de que toda señal
se puede describir por medio de la suma de una componente determinística xdeterministica (t) y
una aleatoria (ruido) a(t):

x(t) = xdeterministica (t) + a(t) (4.35)

siendo xdeterministica (t) = mX (t) el valor medio de la señal.


En (4.34) es importante resaltar lo siguiente. Sí bien se había dicho que un proceso aleatorio
está descrito por medio de una variable aleatoria multidimensional del tipo fX (X; t), para el
cálculo del valor medio de un proceso, no es necesario conocerla, pues solamente se involucra
en el cálculo del valor medio la variable aleatoria que se encuentra indexada en el instante
de tiempo t0 : fX (t0 ) = fX (x0 ; t0 ). Lo anterior es una consecuencia del modelo de ensamble
aleatorio, ya que un instante de tiempo t0 , mX (t0 ) será el valor medio de las amplitudes de
todas las realizaciones del proceso (o generadores de la Figura 4.12) en ese instante de tiempo.

4.3.2. Función de Autocorrelación


De las funciones que describen un proceso aleatorio, la autocorrelación es la más importante,
ya que indica el grado de asociación de las variables aleatorias de dos instantes de tiempo t1 y
CAPÍTULO 4. SEÑALES ALEATORIAS 139

t2 que conforman el proceso. Esta función se calcula como:

∫ ∞ ∫ ∞
RXX (t1 , t2 ) = E[X(t1 )X(t2 )] = x1 x2 fX (x1 x2 ; t1 t2 )dx1 dx2 (4.36)
−∞ −∞

La doble integral surge como consecuencia de que para el instante de tiempo t1 la amplitud
de la señal X(t1 ) está ligada a una variable aleatoria x1 y en el instante t2 lo está a la variable
aleatoria x2 , de tal forma que la función de densidad de probabilidad multimensional que
compone el proceso se resume, para el cálculo de la autocorrelación, en una variable aleatoria
bidimensional que involucra únicamente las variables aleatorias en los instantes t1 y t2 .
De la denición anterior se deriva que, la función de autocorrelación permite medir la velo-
cidad con que cambia una señal aleatoria, o lo que es equivalente, está ligada con el contenido
frecuencial de la señal. Por ejemplo, si una señal aleatoria presenta cambios lentos (Figura
4.13a) o lo que es equivalente, componentes de baja frecuencia, es de esperarse que la función
de autocorrelación evaluada en los instantes de tiempo t y t+τ tome valores altos para τ
grande, pues existe una alta similitud o dependencia para las amplitudes de la señal X(t) y
X(t + τ ). Es decir, RXX (t, t + τ ) es una función ancha muy dispersa en el tiempo (Figura
4.13c). Por otra parte, para un proceso aleatorio que cambia rápidamente (Figura 4.13b), la
función de autocorrelación, tomando el mismo valor de τ del ejemplo anterior, arroja un valor
más pequeño que indica la existencia de poca dependencia o similitud para las amplitudes de
la señal en estos dos instantes de tiempo. Es de esperarse entonces, en procesos que cambian
rápidamente, encontar una función de autocorrelación angosta (Figura 4.13d).

Una señal aleatoria continua, por más aleatoria que sea, debe garantizar una continuidad en
su forma de onda, es decir, no deben existir cambios abrutos en la amplitud de la señal aleatoria
para dos instantes de tiempo t y t + dt. Por consiguiente, la amplitud de la señal aleatoria en
un instante de tiempo dado debe obligatoriamente guardar una dependencia con su instante o
instantes de tiempo anteriores, lo que se traduce en que un proceso aleatorio tiene ligada una
memoria. Una larga memoria implica entonces la existencia de una alta dependencia entre la
amplitud de la señal en un instante de tiempo y valores muy lejanos del proceso aleatorio, lo
cual es el caso de los procesos que varían lentamente. Es así como, el ancho de la función de
autocorrelación brinda información sobre la longitud de la memoria de un proceso aleatorio.

X1(t) X2(t)
t t

(a) (b)

RX1X1(t,t+ ) RX1X1(t,t+ )

t t
(c) (d)

Figura 4.13: Realizaciones de dos procesos aleatorios con variaciones lentas (a) y rápidas (b), y
sus respectivas funciones de autocorrelación (c) y (d).
140 4.4. PROCESOS ESTACIONARIOS

4.4. Procesos Estacionarios


Un proceso estacionario es aquel en el cual, sus propiedades estadísticas se mantienen inal-
terarables a lo largo del tiempo, o equivalentemente, las propiedades del proceso dependen
exclusivamente de la separación entre dos instantes de tiempo. Estos procesos se clasican a su
vez en: estrictamente estacionario, estacionario en el sentido amplio y débilmente estacionario.
Los procesos estrictamente estacionarios son aquellos en los cuales la función de densidad
de probabilidad multimensional es una única variable aleatoria independiente del tiempo. Esto
es, la f.d.p.c. no se altera con el desplazamiento en el tiempo,

fX (x1 , x2 , ..., xn ; t1 , t2 , ..., tn ) = fX (x1 , x2 , ..., xn ; t1 + τ, t2 + τ, ..., tn + τ ) = fX (x)∀τ


(4.37)
Esta característica conduce a que el proceso estrictamente estacionario posea media, mX (t) =
µx , y varianza, var[x(t)] = σx , constante. Asimismo, la función de autocorrelación depende de
la separación τ entre los instantes de tiempo, τ = t1 − t2 , es decir, el proceso es independiente
del tiempo donde se tome el origen de la señal. Matemáticamente lo anterior se puede expresar
como:

RXX (t1 , t1 − τ ) = RXX (t1 + τ, t1 ) = RXX (τ ) = RX (τ ) (4.38)

Y esta es una función con simetría par:

RX (τ ) = RX (−τ ) (4.39)

Por su parte, se dice que el proceso es estacionario en el sentido amplio cuando, aunque
estando compuesto por variables aleatorias diferentes en cada instante de tiempo, se cumplen
únicamente dos propiedades estadísticas: el tener media constante y la autocorrelación depender
de la separación entre los instantes de tiempo τ = t1 − t2 .
Por otra parte, para los procesos débilmente estacionarios, solamente es necesario garantizar
que la señal aleatoria tenga un valor medio mX (t) = µx y varianza var[x(t)] = σx constante.
El hecho que un proceso sea estrictamente estacionario garantiza que la media y varianza
sea constante, y que la función de autocorrelación dependa de la separación en el tiempo, sin
embargo, lo contrario no es cierto.
Sí mX (t) es una función periódica mX (t) = mX (t + kT0 ), con T0 el período de la media, se
dice que el proceso es cicloestacionario .
Para un proceso cicloestacionario, RXX también depende de la separación entre los instantes
de tiempo, pero es una función periódica dependiente de éste:

RX (t + τ, t) = RX (t + τ + nT0 , t + nT0 ) (4.40)

Además, para los procesos estacionarios, el valor máximo de la autocorrelación se encuentra


en RX (τ = 0) exclusivamente y para los cicloestacionarios, la función de autocorrelación toma
valores máximos cada período de la señal, es decir, máx{RX } = RX (0) = RX (nT0 ) ∀n ∈ Z .
Es importante anotar que para los procesos estacionarios:

RX (0) = var[X(t)] = σ 2 = PX (4.41)

donde PX es la potencia de la señal. Dado que las señales aleatorias requieren un valor de la
varianza diferente de cero, éstas siempre son señales de potencia.
CAPÍTULO 4. SEÑALES ALEATORIAS 141

4.5. Procesos Ergódicos


Como se estudió en la Sección 4.2, un proceso aleatorio es el conjunto de múltiples realiza-
ciones de un proceso. De esta forma, si en la práctica se deseara realizar una caracterización
completa de un proceso aleatorio sería necesario contar con múltiples realizaciones o generado-
res aleatorios. Por fortuna, la mayoría de los procesos que se presentan en la naturaleza cuentan
con la propiedad de ergodicidad.
Se dice que un proceso es ergódico , si sus propiedades pueden ser descritas satisfactoriamente
por únicamente una sola realización del proceso aleatorio. Es decir, una única realización de un
proceso, o un único generador aleatorio, permite caracterizar cualquiera de las realizaciones o
generadores aleatorios.
Cuando los procesos son ergódicos, la determinación de su valor medio y función de auto-
correlación se hace independiente de las funciones de densidad de probabilidad múltiples que
rigen el proceso, de esta forma:

∫ T /2
1
µx = lı́m X(t)dt (4.42)
T →∞ T −T /2
∫ T /2
1
Rx (τ ) = lı́m X(t)X(t + τ )dt (4.43)
T →∞ T −T /2

Estas características son explotadas por programas computacionales, entre ellos Matlab,
pues indican que el valor medio y la función de autocorrelación de un proceso aleatorio puede
ser determinado con una única realización del proceso y empleando un cálculo que involucra
exclusivamente las amplitudes de dicha realización. A lo largo de este capítulo se presentarán di-
ferentes ejemplos que hacen uso de Matlab para demostrar varias características de los procesos
aleatorios.

4.6. Potencia y Energía de una Señal Aleatoria


Las deniciones de potencia y energía de una señal aleatoria son exactamente las mismas
de un proceso determinístico, pero en este caso es necesario conocer su valor medio, lo cual nos
conduce a una relación de la energía EX y potencia PX de la señal en términos de la función
de autocorrelación:

[∫ ∞ ] [∫ ∞ ]
EX = E 2
X (t)dt = E RX (t, t)dt → ∞ (4.44)
−∞ −∞
[ ∫ ] ∫
T /2 T /2
1 2 1
PX = E lı́m X (t)dt = lı́m RX (t, t)dt (4.45)
T →∞ T −T /2 T →∞ T −T /2

La tendencia a innito de la energía de la señal aleatoria (ec. 4.44) se debe a que éstas
siempre son señales de potencia, en cuanto a que si fueran de energía estarían acotadas en el
tiempo, lo cual implica que para ciertos instantes de tiempo, donde la señal toma el valor de
la amplitud igual a cero, sería predecible el valor de la amplitud de la señal, en otras palabras,
habría un comportamiento determinístico de la señal.
Finalmente, para el caso especíco de las señales estacionarias, se tiene que la potencia de
la señal es equivalente a la amplitud que toma la función de autocorrelación en τ = 0:
142 4.6. POTENCIA Y ENERGÍA DE UNA SEÑAL ALEATORIA

PX = RX (0) (4.46)

4.6.1. Espectro de Potencia de una Señal Aleatoria


Como se discutió en las secciones anteriores, las señales aleatorias son de potencia, por tanto,
para analizar su espectro en frecuencia es necesario recurrir a la densidad espectral de potencia
SX (f ), calculada sobre un intervalo de tiempo de longitud T , dada por:
[ ] [ ]
2
|XT (f )|
2 E |XT (f )|
SX (f ) = E lı́m = lı́m (4.47)
T →∞ T T →∞ T

En la práctica no es fácil calcular (4.47) por lo cual se recurre a la relación que existe
entre la densidad espectral de potencia y la autocorrelación (Capítulo 2). En general, para
cualquier proceso estocástico, la densidad espectral de potencia se calcula a través del teorema
de Wiener-Khinchin :
[ ∫ ]
T /2
1
SX (f ) = F lı́m RX (t + τ, t)dt (4.48)
T →∞ T −T /2

Para el caso especíco de los procesos estacionarios tenemos la siguiente aproximación de


(4.48):

SX (f ) = F {RX (τ )} (4.49)

y para los procesos cicloestacionarios:

{ }
SX (f ) = F RX (τ ) (4.50)

donde RX (τ ) es la autocorrelación promedio , la cual se debe calcular sobre el período T0 de


función de autocorrelación:

∫ T0 /2
1
RX (τ ) = RX (t + τ, t)dt (4.51)
T0 −T0 /2

Debe recordarse que la función de autocorrelación estaba asociada a la velocidad de los


cambios de la señal aleatoria. Cuando la señal posee variaciones lentas, la función de autocorre-
lación, para procesos aleatorios estacionarios será una forma de línea que decrece suavemente
conforme τ → ∞, en cambio para señales aleatorias con variaciones rápidas la función de au-
tocorrelación es una forma de línea angosta. Por consiguiente, espectralmente, al aplicar la
propiedad de escalamiento de la transformada de Fourier, se tiene que las señales con varia-
ciones lentas conducen a espectros angostos, es decir, con poco contenido de frecuencia, y las
señales con cambios rápidos, poseen espectros más anchos o equivalentemente, componentes de
muy alta frecuencia.

Ejemplo 4.8. Suponga que tiene una señal aleatoria dada por el modelo: Y (t) =
A cos(2πf0 t + Θ) donde Θ es una variable aleatoria que puede tomar cualquier
valor entre 0..,2π con igual probabilidad. Encontrar para esta señal su valor medio,
CAPÍTULO 4. SEÑALES ALEATORIAS 143

su función de autocorrelación, la potencia de la señal y su densidad espectral de


potencia:
Solución. La señal tiene la forma de una senoidal cuya fase describe un co-
rrimiento aleatorio. Como la fase puede tomar valores entre 0 y 2π igualmente
probables, Θ se puede representar por medio de una variable aleatoria uniforme:

{ 1
2π 0 ≤ θ ≤ 2π
Θ(θ) =
0 c.c.
Ahora, tenemos que su valor medio es constante e independiente de t.
∫ 2π
1
mY (t) = E[Y (t)] = A cos(2πf0 t + θ) dθ = 0
0 2π
Por su parte la función de autocorrelación será:

RY (t1 , t2 ) = E [A cos (2πf0 t1 + Θ) A cos (2πf0 t2 + Θ)]


2
= A2 E [cos (2πf0 (t1 + t2 ) + Θ) + cos (2πf0 (t1 − t2 ))]
A2 2
= 2 cos (2πf0 (t1 + t2 )) E [cos Θ] − A2 sin (2πf0 (t1 + t2 )) E [sin Θ]
2
+ A2 cos (2πf0 (t1 − t2 ))
2
= A2 cos (2πf0 (t1 − t2 ))

donde el último paso se justica en que cos (2πf0 (t1 − t2 )) es una función deter-
minística independiente de la variable aleatoria Θ y E [cos Θ] = 0 y E [sin Θ] = 0.
Además, como la función de autocorrelación depende de la separación en el tiempo
t1 − t2 = τ ,

A2
RY (τ ) = cos (2πf0 τ )
2
tenemos que el proceso es estacionario, en virtud de que su media es constante. Por
lo anterior, la potencia de la señal será:

A2
PX = RY (0) =
2
y su densidad espectral de potencia (Figura 4.14):

{ }
A2
SY (f ) = F {RY (τ )} = F 2 cos (2πf0 τ ) =
A2 A2
= 4 δ(f − f0 ) + 4 δ(f + f0 )
Observe que esta es la misma densidad espectral de potencia de una señal coseno
determinística. Esta similitud se debe a que el corrimiento de la fase de la señal no
produce un cambio en la densidad espectral de potencia. 

Ejemplo 4.9. Estudiar el valor medio de la señal, su función de autocorrelación,


la potencia de la señal de salida y la densidad espectral de la señal de salida de un
sistema modulador AM-DSB SC, si de la señal de entrada sabemos que es un proceso
estacionario y conocemos su autocorrelación RX (τ ) y su media µX .
Solución. El modulador AM-DSB SC está denido por:
144 4.6. POTENCIA Y ENERGÍA DE UNA SEÑAL ALEATORIA

Sx(f)
2
A /4

0 f
-f c fc

Figura 4.14: Densidad espectral de potencia del ejemplo

Y (t) = X(t) cos (2πf0 t)


siendo X(t) un proceso estacionario con media µX , autocorrelación RX (τ ) y densi-
dad espectral de potencia SX (f ).
Para analizar los sistemas generalmente se supone que las señales de entrada se
pueden modelar como ruidos gausianos (por ejemplo, la señal de voz), de allí que la
mayoría de las veces se suponen entradas X(t) de la forma estacionarias con media
constante y autocorrelación dada por la separación en el tiempo τ. A continuación
calcularemos el valor medio de Y (t):

mY (t) = E[X(t) cos (2πf0 t)]


como cos (2πf0 t) es una función determinística:

mY (t) = E[X(t)] cos (2πf0 t) = µX cos (2πf0 t)


de esta forma, mY (t), es una función del tiempo indicando que el sistema no es
estacionario, sin embargo, como mY (t) es periódica, el sistema puede ser cicloesta-
cionario, para lo cual se calculará a continuación la autocorrelación:

RY (t + τ, t) = E [X(t + τ ) cos (2πf0 (t + τ )) X(t) cos (2πf0 t)]


={cos (2πf0 (t + τ )) cos (2πf0 t) E [X(t + }τ ) X(t)]
= 12 cos (4πf0 t + 2πf0 τ ) + 12 cos (2πf0 τ ) RX (τ )
dado que esta función es periódica en el tiempo, se comprueba entonces que el
proceso es cicloestacionario.
Para encontrar su densidad espectral de potencia debemos calcular inicialmente
la autocorrelación promedio:

1
∫ T0 /2
RY (τ ) = T0 −T0 /2 RY (t + τ, t)dt
1
∫ T0 /2 { 1 }
= T0 −T0 /2 2 cos (4πf0 t + 2πf0 τ ) + 12 cos (2πf0 τ ) RX (τ )dt
= 21 cos (2πf0 τ ) RX (τ )
por lo tanto,

{ } { }
SY (f ) = F RY (τ ) = F 12 cos (2πf0 τ ) RX (τ )
= 12 F {cos (2πf0 τ )} ⋆ F {RX (τ )}
= 4 {δ(f − f0 ) + δ(f + f0 )} ⋆ SX (f )
1

= 14 SX (f − f0 ) + 14 SX (f + f0 )
cuyo resultado es idéntico al estudiado anteriormente para el modulador AM DSB
SC (Figura 4.15).
CAPÍTULO 4. SEÑALES ALEATORIAS 145

Sx(f)
(a) A

f
-W 0 W

Sy(f)
A/4
(b)

-f c-W -f c -f c+W 0 f c -W f c +W f
fc

Figura 4.15: Densidad espectral de potencia del ejemplo

4.7. Proceso Ruido Blanco


A la señal ruido blanco se le da este nombre debido a que es la única señal que posee todas
las componentes de frecuencia (similar a la luz blanca, de ahí su nombre), por tal motivo es una
señal extraña cuya función de autocorrelación indica que un valor de salida del ruido blanco
depende únicamente de él y no de los valores anteriores, es decir, el proceso ruido blanco no
tiene memoria.
El ruido blanco (Figura 4.16), es un proceso estacionario que se describe por las siguientes
expresiones:

µX = 0 (4.52)

kT0
RX (τ ) = δ(τ ) (4.53)
2
kT0
SX (f ) = (4.54)
2
∫ ∞
PX = SX (f )df → ∞ (4.55)
−∞

kT0
var[a(t)] = σa2 = (4.56)
2

Sx(f)

kT/2

0 f

Figura 4.16: Densidad espectral del proceso ruido blanco

En las ecuaciones anteriores se ha introducido el término kT0 en cuanto a que en la naturaleza


el tipo de señal que más se aproxima al ruido blanco es el ruido térmico, donde kT0 , que tiene
unidades de energía, es la potencia promedio del ruido, siendo k la constante de Boltzman
−23
(k = 1,38 × 10 J/K ) y T0 la temperatura, asimismo, en la práctica, el ruido térmico no tiene
un ancho de banda innito, pero si muy grande, cercano a 2 × 10 Hz .
12
146 4.8. PROCESO GAUSIANO

4.8. Proceso Gausiano


Para los procesos estacionarios estudiados en las secciones precedentes, se puede notar que la
función de densidad de probabilidad conjunta no es necesario conocerla, únicamente sus efectos,
como son la media y varianza. Sin embargo, cuando el proceso es no estacionario, el conocimiento
de la f.d.p.c. es crucial. Para modelar entonces dichos procesos se emplea comúnmente una
función de distribución de probabilidad conjunta denominada gausiana multivariada , que da
origen al proceso gausiano .
La gausiana multivariada permite modelar canales de comunicación y fuentes de información,
y se dene como:

( )
exp − 12 (x − E(x))T C−1 (x − E(x))
fX1 ...Xn (x1 , ... xn ; t1 , ... tn ) = (4.57)
(2π)n/2 | C |1/2
donde x = (x1 x2 ... xn ), E[x] = (µ1 µ2 ... µn ) el vector de medias, | C |el determinante de la
matriz C, denominada matriz de covarianza
 
cov(t1 , t1 ) cov(t1 , t2 ) ... cov(t1 , tn )
 cov(t2 , t1 ) cov(t2 , t2 ) cov(t2 , tn ) 
C= 

 (4.58)
.... ... ...
cov(tn , t1 ) cov(tn , t2 ) cov(tn , tn )
2
Nótese que los elementos de la diagonal de la matriz son las varianzas (cov(t1 , t1 ) = σ1 ,
2
cov(t2 , t2 ) = σ2 , etc.) de cada una de las variables aleatorias que componen el proceso. Si las
diferentes variables aleatorias que componen el proceso son independientes entre sí, la matriz
de covarianza toma una forma diagonal.

4.9. Paso a Través de un Sistema LTI


Al pasar una señal estacionaria de media µX y función de autocorrelación RX (τ ) a través
de un sistema LTI con respuesta al impulso h(t), tenemos para la señal de salida el siguiente
comportamiento:

∫ ∞
µY = µX h(t)dt (4.59)
−∞

RY (τ ) = RX (τ ) ⋆ h(τ ) ⋆ h(−τ ) (4.60)

RXY (τ ) = RX (τ ) ⋆ h(−τ ) (4.61)

De las ecuaciones (4.59) y (4.60) se deduce que sí a un sistema LTI ingresa una señal
estacionaria, la señal de salida será también estacionaria.
Por su parte, el término RXY (4.61) se denomina correlación cruzada y mide el grado de
parecido y relación entre las señales X y Y. Para señales estacionarias RXY depende de la
separación en el tiempo τ, pero para cualquier señal aleatoria será:

RXY (t1 , t2 ) = E[X(t1 )Y (t2 )] = RY X (t2 , t1 ) (4.62)

por lo tanto,
CAPÍTULO 4. SEÑALES ALEATORIAS 147

RXY ̸= RY X (4.63)

y especícamente para procesos estacionarios:

RXY (t1 , t2 ) = RXY (t1 − t2 ) = RXY (τ ) (4.64)

RXY (τ ) = RY X (−τ ) (4.65)

Al igual que ocurría con la correlación y covarianza de las variables aleatorias, la correlación
cruzada permite medir el grado de dependencia entre dos procesos aleatorios. Por lo tanto, sí
dos procesos aleatorios son independientes entre sí, la correlación cruzada será igual al producto
de las medias de ambos procesos RXY = µx µy , y sí los procesos son ortogonales, RXY = 0.
Esta última condición se presenta también cuando los dos procesos son independientes y tienen
media cero. Debe recordarse también, que el hecho de que la correlación cruzada sea cero no
garantiza que los procesos sean independientes.
Otras relaciones importantes para sistemas LTI y señales aleatorias son:

∫∞
Como H(f ) = F {h(t)} ⇒ H(0) = −∞
h(t)dt, por lo que:

µY = µX H(0) (4.66)

lo cual era de esperarse, ya que el valor medio de la señal esta relacionada con su nivel de
DC, cuya contribución en la señal de salida está dada por el término f = 0 de la respuesta
en frecuencia.

La densidad espectral de potencia de la salida es la misma del caso determinístico (Capí-


tulo 2):

2
SY (f ) = SX (f ) |H(f )| (4.67)

Densidad espectral de potencia cruzada SXY (f ):

SXY (f ) = F {RXY (τ )} = SX (f )H ∗ (f ) (4.68)

Como RXY (τ ) = RY X (−τ ) tenemos que:


SY X (f ) = SXY (f ) = SX (f )H(f ) (4.69)

Las ecuaciones (4.68)-(4.69) muestran la utilidad de la densidad espectral de potencia cruza-


da SXY (f ) o SY X (f ) en la identicación de sistemas. En resumen, en la Figura 4.17 se muestra
una síntesis de las ecs. (4.67)-(4.69). Es importante resaltar que en la densidad espectral de po-
tencia SY (f ) se pierde información sobre la fase del sistema, dado a que depende exclusivamente
de la magnitud de la respuesta en frecuencia del sistema. En cambio, la densidad espectral de
potencia cruzada SXY o SY X permiten determinar experimentalmente la magnitud y fase de
la respuesta en frecuencia del sistema LTI.
148 4.9. PASO A TRAVÉS DE UN SISTEMA LTI

H*(f) S xy(f)

S x(f)
H(f) S yx(f)

2
|H(f)| S y(f)

Figura 4.17: Densidad espectral de potencia cruzada

y(t)
x(t)
d/dt

Retardo T

Figura 4.18:

Ejemplo 4.10. x(t) es un proceso estacionario con densidad espectral de po-


tencia Sx (f ). Esta señal pasa a través del sistema mostrado en la Figura 4.18.
Determinar sí y(t) es estacionario, la densidad espectral de potencia de y(t), y la
función de autocorrelación de la señal de salida RY (t1 , t2 ).
Solución. Dado que el sistema mostrado está compuesto exclusivamente por
sistemas LTI, y como la señal de entrada es estacionaria, la señal de salida también
lo será como consecuencia de que el sistema total es LTI. Ahora, para calcular la
densidad espectral de potencia, tenemos que la relación entrada-salida del sistema
es:

d
{x(t) + x(t − T )}
y(t) =
dt
y para su respuesta en frecuencia H(f ), calcularemos la transformada de Fourier de
la ecuación anterior, encontrando que:

Y (f ) { }
H(f ) = = j2πf 1 + e−j2πf T
X(f )
por lo que

{ } 2
SY (f ) = SX (f ) | H(f ) |2 = SX (f ) j2πf 1 + e−j2πf T
2
= SX (f ) |2πf {j[1 + cos(2πf T )] + sin(2πf T )}|
= 2(2πf ) {1 + cos(2πf T )} SX (f )
2

y para la función de autocorrelación calcularemos la transformada inversa de Fourier


de SY (f ):

{ }
RY (τ ) = F −1 {SY (f )} = 2RX (τ ) ⋆ F −1 (2πf )2 {1 + cos(2πf T )}
2
−1
= −2RX (τ ) ⋆ dτ d
2F {1 + cos(2πf T )}
2 { }
= −2RX (τ ) ⋆ dτ d
2 δ(τ ) + 1
2 δ(τ − T ) + 12 δ(τ + T )
d2 d2 d2
= −2 dτ 2 RX (τ ) − dτ 2 RX (τ − T ) − dτ 2 RX (τ + T )
CAPÍTULO 4. SEÑALES ALEATORIAS 149

El siguiente programa en Matlab muestra la simulación del anterior sistema


para dos valores diferentes del retardo T. Para la simulación se tomó T como el
número de muestras de retardo y se modeló a través de la ecuación en diferencias
x[n] + x[n − T ], además, se consideró para la señal de entrada un ruido blanco,
cuya densidad espectral de potencia es una constante para todas las frecuencias. La
densidad espectral de potencia se estima a través de la función psd.

%Retardo T = 50
T = 50;
%genera la señal ruido blanco de entrada
N = 2000; x = randn(1,N);
%genera el vector de salida. El retardo se modela
%a través de una E.D. H(z) = 1 + z^-T
bk = [1 zeros(1,T-2) 1];
y = di( lter(bk,1,x) );
%calcula la densidad espectral de potencia
[Syy,F] = psd(y,N,1e3);
plot(F,Syy);

En la Figura 4.19 se puede notar que la intensidad de SY (f ) aumenta con la


frecuencia y está envuelta por una función periódica coseno, tal como se determinó
teóricamente. Además, para valores pequeños del retardo T , el periodo de las osci-
laciones en SY (f ) es más ancho, como consecuencia del término cos(2πf T ) presente
en la densidad espectral de potencia.

80

60 T=50
Sy(f)

40

20

0
0 100 200 300 400 500
Frecuencia (Hz)
80

60
T=10
Sy(f)

40

20

0
0 100 200 300 400 500
Frecuencia (Hz)

Figura 4.19:

Ejemplo 4.11. En la esta sección se mencionó la utilidad de las expresiones de


la densidad espectral de potencia cruzada para la identicación de los sistemas LTI.
Ahora, si a la entrada de un sistema LTI aplicamos un ruido blanco, es claro que
SY (f ) = σx2 | H(f ) |2 y SY X (f ) = σx2 H(f ), por lo que el cálculo de la densidad
espectral de potencia cruzada proporciona un método para la determinación directa
150 4.9. PASO A TRAVÉS DE UN SISTEMA LTI

de la respuesta en frecuencia de un sistema LTI, así mismo, como la función de


autocorrelación del ruido blanco es una función delta, la función de autocorrelación
cruzada RY X (τ ) = RX (τ ) ⋆ h(τ ) = h(τ ) será igual a la respuesta al impulso del
sistema.
En la siguiente simulación se ha generado un ltro pasabanda Butterworth de
orden 4 con frecuencias de corte 200Hz y 400Hz , cuyos espectros de magnitud y fase
se muestran en la parte superior de la Figura 4.20; para la respuesta en frecuencia
estimada (parte inferior de la Figura 4.20), que se calcula a través de SY X (f ), se
emplea la función csd. Nótese la buena coincidencia entre la respuesta en frecuencia
estimada y la original.

%Crea un ltro pasabanda butterworth de orden 4


%con frecuencias de corte entre 200...400 Hz y una
%frecuencia de muestreo de 2KHz
fs = 2000;
[bk ak] = butter(4, [200/(fs/2) 400/(fs/2)], 'bandpass');
%calcula la respuesta en frecuencia del sistema
[H Omega] = freqz(bk,ak);
f1 = Omega * fs / (2*pi);
%Crea el ruido gausiano de entrada y lo ltra
N = 2000;
x = randn(1,N);
y = lter(bk,ak,x);
%calcula la densidad espectral de potencia cruzada
[Syx f2] = csd(y,x,N,fs);
%graca los espectros
subplot(2,2,1),plot(f1, 20*log10(abs(H)));
subplot(2,2,2),plot(f1, unwrap( angle(H) ) * 180/pi);
subplot(2,2,3),plot(f2,20*log10(abs(Syx)));
subplot(2,2,4),plot(f2, -unwrap( angle(Syx) ) * 180/pi);

4.9.1. Múltiples Fuentes


En esta sección se analizará el problema concerniente a la identicación de las características
de una señal aleatoria generada a partir de la superposición de dos fuentes. Supóngase que se
cuenta dos fuentes de voltajes X1 (t) y X2 (t), las cuales se tratan de dos procesos aleatorios
estacionarios con medias µ1 y µ2 , y funciones de autocorrelación R1 (τ ) y R2 (τ ). Si ambos
procesos se suporponen, es decir se suman,

Y (t) = X1 (t) + X2 (t)


el proceso Y (t) será también estacionario, dado a que involucra una combinación lineal de los
procesos X1 (t) y X2 (t). El valor medio y función de autocorrelación del proceso de salida será
igual a:

µy = E[Y (t)] = E[X1 (t) + X2 (t)] = µ1 + µ2 (4.70)


CAPÍTULO 4. SEÑALES ALEATORIAS 151

0 0

−50
−200

Φ(H(f)) (grados)
|H(f)|dB
−100
−400
−150
−600
−200

−250 −800
0 200 400 600 800 1000 0 200 400 600 800 1000
Frecuencia (Hz) Frecuencia (Hz)
50 0

Φ(Syx) (grados)
0
−200
|Syx(f)| dB

−50
−400
−100
−600
−150

−200 −800
0 200 400 600 800 1000 0 200 400 600 800 1000
Frecuencia (Hz) Frecuencia (Hz)

Figura 4.20:

Ry (τ ) = E[Y (t)Y (t + τ )]
= E[X1 (t)X1 (t + τ ) + X1 (t)X2 (t + τ ) + X2 (t)X2 (t + τ ) + X2 (t)X1 (t + τ )]
= R1 (τ ) + R12 (τ ) + R2 (τ ) + R21 (τ )
= R1 (τ ) + R2 (τ ) + R12 (τ ) + R12 (−τ ) (4.71)

De esta forma, el valor medio de la suma de dos procesos aleatorios será igual a la suma
de los valores medios individuales de cada uno de los procesos, sin embargo, la autocorrelación
involucra la suma de las autocorrelaciones individuales y la correlación cruzada entre ambos
procesos.
Espectralmente, tenemos que el equivalente de (4.71) es:

Sy (f ) = S1 (f ) + S2 (f ) + 2ℜe{S12 (f )} (4.72)

con S12 (f ) la densidad espectral de potencia cruzada de ambos procesos.


Es de esperarse entonces, que si los dos procesos son independientes entre sí, la correlación
cruzada R12 (τ ) = 0 y por consiguiente S12 (f ) = 0, lo cual simplica la función de autocorrela-
ción y densidad espectral de potencia a:

Ry (τ ) = R1 (τ ) + R2 (τ ) (4.73)

Sy (τ ) = S1 (τ ) + S2 (τ ) (4.74)

Ejemplo 4.12. Sea el circuito de la Figura 4.21a en el cual las fuentes de voltaje
X1 (t) y X2 (t) son señales aleatorias estacionarias. X1 (t) es un ruido blanco con
media cero y varianza unitaria, por su parte X2 (t), es una fuente con media cero y
función de autocorrelación Rx (τ ) = exp(−a |τ |). Encuentre el valor medio, función
152 4.9. PASO A TRAVÉS DE UN SISTEMA LTI

de autocorrelación y densidad espectral de potencia de la señal que se obtiene en el


capacitor.

6 2

X1(t) 3 1
Y(t)
X2(t)
2

6 2

X1(t) 3 1 X2(t)
Y(t)
2

2
3 1
(a) (b) Y(t)

Figura 4.21:

Solución. Según la especicación del circuito, se encuentra que ambas fuentes


son procesos aleatorios independientes. Para X1 (t) tenemos µ1 = 0 y Rx1 (τ ) =
δ(τ ) y para X2 (t), µ2 = 0 y Rx2 (τ ) = exp(−a |τ |), cuyas respectivas densidades
2a
espectrales son Sx1 (f ) = 1 y Sx2 (f ) = 2
a +(2πf )2 .
Por el principio de superposición, el voltaje de salida en el capacitor es igual a
la suma de la contribución debida a la fuente X1 (t) y X2 (t) por separado, las cuales
denotaremos como Y1 (t) y Y2 (t). Las señales Y1 (t) y Y2 (t) son estacionarias, pues los
sistemas formados de la anulación de las fuentes X1 o X2 son LTI (Figura 4.21b).
De esta forma,

Yc (t) = Y1 (t) + Y2 (t)


Y1 (t) = X1 (t) ⋆ h1 (t) ⇐⇒ Y1 (f ) = X1 (f )H1 (f )
Y2 (t) = X2 (t) ⋆ h2 (t) ⇐⇒ Y2 (f ) = X2 (f )H2 (f )

Aplicando el teorema de Thevenin se encuentran los valores de las funciones de


transferencia H1 (f ) y H2 (f ):

1
H1 (f ) =
3(1 + j10πf )
1
H2 (f ) =
2(1 + j10πf )

Ahora, al aplicar las ecuaciones (4.70) y (4.66) resulta que la media es

µyc = µ1 + µ2 = 0
y por tratarse de fuentes independientes, la función de autocorrelación y densidad
espectral de potencia se calculan por medio de las ecs. (4.73) y (4.74):
CAPÍTULO 4. SEÑALES ALEATORIAS 153

Ry (τ ) = Ry1 (τ ) + Ry2 (τ )

Sy (τ ) = Sy1 (τ ) + Sy2 (τ )
Los términos Ry1 , Ry2 , Sy1 y Sy2 deben ser calculados. Para mayor facilidad
usaremos la notación espectral. De esta forma, haciendo uso de la ecuación para
el cálculo de la densidad espectral de potencia de la salida de un proceso LTI (ec.
4.67), tenemos que

2
1 1
Sy1 (f ) = Sx1 (f ) |H1 (f )| = =
2
3(1 + j10πf ) 9 + (30πf )2

2
2a 1
Sy2 (f ) = Sx2 (f ) |H2 (f )| = 2
2
a + (2πf )2 2(1 + j10πf )
2a 1
= ×
a2 + (2πf )2 4 + (20πf )2
Por consiguiente, la densidad espectral de potencia del proceso de salida es

1 2a 1
Sy (f ) = + 2 ×
9 + (30πf )2 a + (2πf )2 4 + (20πf )2
y al tomar su transformada inversa de Fourier encontramos la función de autoco-
rrelación

( τ ) ( τ )
1 1
Ry (τ ) = exp −3 + exp(−a |τ |) ⋆ exp −2 
90 15 40 10
Ejemplo 4.13. Considere ahora el circuito de la Figura 4.22 en el cual la fuente
de voltaje X1 (t) es un ruido blanco con media cero y varianza unitaria, pero la
fuente X2 (t) se obtiene a partir de la fuente X1 (t), haciéndola pasar por un sistema
1
LTI con respuesta en frecuencia H(f ) =
1+j2πf . Encuentre el valor medio, función
de autocorrelación y densidad espectral de potencia de la señal que se obtiene en el
capacitor.

1/(1+jw) X2(t)
2

6 2

X1(t) 3 1

Figura 4.22:

Solución. Según la especicación del circuito, se encuentra que ambas fuen-


tes son procesos aleatorios dependientes, así mismo, para X1 (t) tenemos µ1 = 0,
154 4.9. PASO A TRAVÉS DE UN SISTEMA LTI

Rx1 (τ ) = δ(τ ) y Sx1 (f ) = 1; por su parte para X2 (t), tenemos las siguientes carac-
terísticas al pasar la señal X1 (t) por el sistema LTI que dene la dependencia entre
fuentes (ecs. 4.66 y 4.67):

µ2 = µ1 H(0) = 0

2
1 1
Sx2 (f ) = Sx1 (f ) |H(f )| = =
2
1 + j2πf 1 + (2πf )2
Por el principio de superposición, el voltaje de salida en el capacitor es igual a
la suma de la contribución debida a las fuentes X1 (t) y X2 (t) por separado, deno-
tadas como Y1 (t) y Y2 (t). Aplicando un desarrollo similiar al del ejemplo anterior se
encuentran las siguientes expresiones para cada una de las salidas:

Yc (t) = Y1 (t) + Y2 (t)


Y1 (t) = X1 (t) ⋆ h1 (t) ⇐⇒ Y1 (f ) = X1 (f )H1 (f )
Y2 (t) = X2 (t) ⋆ h2 (t) = X1 (t) ⋆ h(t) ⋆ h2 (t) ⇐⇒ Y2 (f ) = X1 (f )H(f )H2 (f )

1
H1 (f ) =
3(1 + j10πf )
1
H2 (f ) =
2(1 + j10πf )

Así mismo, el valor medio del proceso de salida resulta ser igual a

µyc = µ1 + µ2 = 0
pero por tratarse de fuentes dependientes, la densidad espectral de potencia se
calcula por medio de la ec. (4.72):

Sy (τ ) = Sy1 (τ ) + Sy2 (τ ) + 2ℜe{Sy1y2 (f )}


En este caso, los términos Sy1 y Sy2 se calcula idéntico a la forma como se realizó
para el ejemplo anterior, es decir, haciendo uso de (4.67),

2 1
Sy1 (f ) = Sx1 (f ) |H1 (f )| =
9 + (30πf )2

2
1 1
Sy2 (f ) = Sx2 (f ) |H2 (f )| =
2
1 + (2πf )2 2(1 + 10πf )
1 1
= ×
1 + (2πf )2 4 + (20πf )2

El cálculo de la densidad espectral de potencia cruzada es un poco más complejo,


pues debemos partir de su denición formal:
CAPÍTULO 4. SEÑALES ALEATORIAS 155

Sy1y2 (f ) = F {Ry1y2 (τ )}
= F {E [Y1 (t)Y2 (t + τ )]}
= F {E [X1 (t) ⋆ h1 (t) × X2 (t + τ ) ⋆ h2 (t + τ )]}
{ [∫ ∞ ∫ ∞ ]}
= F E X1 (t − α)h1 (α)dα × X2 (t + τ − β)h2 (β)dβ
−∞ −∞
{ [∫ ∞ ∫ ∞ ]}
= F E h1 (α)h2 (β)X1 (t − α)X2 (t + τ − β)dαdβ
−∞ −∞

Dado que el operador esperanza y la integral son lineales, los podemos inter-
cambiar, y como las respuestas al impulso son funciones determinísticas, la ecuación
anterior se puede reescribir como

{∫ ∞ ∫ ∞ }
Sy1y2 (f ) = F h1 (α)h2 (β)E [X1 (t − α)X2 (t + τ − β)] dαdβ
−∞ −∞
{∫ ∞ ∫ ∞ }
= F h1 (α)h2 (β)Rx1x2 (τ + α − β)dαdβ
−∞ −∞
{∫ ∞ ∫ ∞ }
= F h1 (α) h2 (β)Rx1x2 (τ + α − β)dβdα
−∞ −∞
{∫ ∞ }
= F h1 (α) [h2 (τ + α) ⋆ Rx1x2 (τ + α)] dα
−∞
= F {h1 (−τ ) ⋆ h2 (τ ) ⋆ Rx1x2 (τ )}
= H1∗ (f )H2 (f )Sx1x2 (f )
Finalmente para el cálculo de la densidad espectral de potencia cruzada entre las
fuentes, emplearemos (4.69) dado a que la fuente X2 (t) se obtiene como resultado
de pasar la señal de salida de la fuente X1 (t) por un sistema LTI. Tenemos entonces
que,

Sx1x2 (f ) = Sx1 (f )H ∗ (f )
que sustuido en la ecuación anterior nos conduce a:

Sy1y2 (f ) = H1∗ (f )H2 (f )Sx1x2 (f )


= H1∗ (f )H2 (f )Sx1 (f )H ∗ (f )
1 1 1
= × ×
3(1 − j10πf ) 2(1 + j10πf ) 1 − j2πf
1 + j2πf
=
6[1 + (10πf )2 ][1 + (2πf )2 ]
Por consiguiente, la densidad espectral de potencia del proceso de salida es

1 1 1 1
Sy (f ) = + × +
9 + (30πf )2 1 + (2πf )2 4 + (20πf )2 3[1 + (10πf )2 ][1 + (2πf )2 ]
156 4.10. PROCESOS ESTACIONARIOS Y FILTROS

4.10. Procesos Estacionarios y Filtros


Las señales aleatorias estacionarias se pueden modelar como si hubieran sido originadas por
un ruido blanco que pasó a través de un ltro (Figura 4.23). Este tipo de ltros se denominan
coloreadores y el ltro que hace la operación inversa (reconstruir el ruido blanco) se denomina
blanqueador. Estos ltros son sistemas LTI y pueden ser de tres tipos: autoregresivo (AR ),
media móvil (MA), autoregresivo más media móvil (ARMA).

a(t) filtro x(t)


ruido blanco coloreador

Figura 4.23: Filtro coloreador

Cuando la señal X(t) depende del ruido blanco exclusivamente, es decir de la señal de
entrada a(t) y sus valores anteriores o lo que es lo mismo, una combinación lineal de ruidos
blancos, el sistema es un media móvil (MA). Para el sistema autoregresivo (AR), la señal X(t)
depende del valor del ruido blanco actual (entrada actual) y los valores previos de X(t). El
proceso ARMA entonces, dependerá tanto de las entradas como de las salidas pasadas. En
general, los procesos MA, AR, ARMA son procesos estocásticos con memoria. Así mismo, el
ltro blanqueador de un proceso AR es un MA y viceversa.
Para determinar los ltros se utilizan dos funciones, la función de autocorrelación normali-
zada y la autocorrelación parcial.
En (4.32) se denió el coeciente de correlación ρXY como la covarianza entre las dos señales
sobre el valor máximo de la covarianza, es decir, ρXY = cov[XY ]
σx σy . Cuando la señal X y Y , es
la misma, el coeciente de correlación se transforma entonces en la función de autocorrelación
normalizada, denida como:

γXX (k)
ρX (k) = (4.75)
γXX (0)
siendo γXX (k) la función de autocovarianza, γXX (0) el valor máximo de la autocovarianza y es
, por lo que −1 ≤ ρX (k) ≤ 1. Al igual que la
2
igual a la varianza de X , γXX (0) = var[X] = σX
covarianza, la autocovarianza, se calcula entonces como

γXX (k) = cov {X[n], X[n + k]} = E {(X[n] − µX )(X[n + k] − µX )} (4.76)

donde k es la separación en el tiempo que asumiremos entero por tratarse de señales discretas.
Debe recordarse que existe una relación entre la correlación cruzada cor[XY ] y la covarianza
de dos variables aleatorias cov[XY ], la cual fue establecida en (4.31), de tal forma que la relación
que existe entre la función de autocorrelación RX (τ ) y la función de correlación normalizada
será entonces,

RX (k) − µ2x
ρX (k) = (4.77)
RX (0)
Por otra parte, la autocorrelación parcial ϕkk , mide el grado de relación entre dos instantes
de tiempo de la señal aleatoria pero quitando las combinaciones lineales intermedias. En las
Figuras 4.24-4.26 se muestran las formas de ρk y ϕkk para los diferentes ltros.
La autocorrelación parcial ϕkk se calcula por medio de:
CAPÍTULO 4. SEÑALES ALEATORIAS 157

ρ φ
k kk

0 0
q o´
φ
kk

MA(q)

Figura 4.24: Funciones de autocorrelación y autocorrelación parcial de un proceso MA orden q.


ρ φ
k kk

0 0 p

ρ
k
AR(p)

Figura 4.25: Funciones de autocorrelación y autocorrelación parcial de un proceso AR orden p.

ϕ11 = ρ1

1 ρ1

ρ1 ρ2 ρ − ρ21
ϕ22 = = 2

1 ρ1 1 − ρ21
ρ1 1

1 ρ1 ρ1

ρ1 1 ρ2

ρ2 ρ1 ρ3
ϕ33 =
1 ρ1 ρ1
ρ1 1 ρ1

ρ2 ρ1 1

1 ρ1 ρ2 ... ρk−2 ρ1

ρ1 1 ρ ... ρk−3 ρ2
1
: : : : : :

ρk−1 ρk−2 ρk−3 ... ρ1 ρk
ϕkk = (4.78)
1 ρ1 ρ2 ... ρk−2 ρk−1
ρ1 1 ρ1 ... ρk−3 ρk−2

: : : : : :

ρk−1 ρk−2 ρk−3 ... ρ1 1
158 4.10. PROCESOS ESTACIONARIOS Y FILTROS

ρ siguen patron
φ
siguen patron
k exponencial o senoidal kk exponencial o senoidal
1

0
0
q muestras p muestras
desordenadas ARMA(p,q) desordenadas

Figura 4.26: Funciones de autocorrelación y autocorrelación parcial de un proceso ARMA orden


p, q .

Es importante resaltar que para los ltros MA, la autocorrelación normalizada exhibe un
conjunto de muestras nitas, las cuales determinan el orden del ltro, y la autocorrelación
parcial es una exponencial o senoidal amortiguada (Figura 4.24).
Para un AR, el orden lo indica la función de autocorrelación parcial y es la autocorrelación
normalizada la que muestra el patrón exponencial decreciente (Figura 4.25).
Finalmente, para un ARMA, tanto la autocorrelación normalizada como la autocorrela-
ción parcial son funciones decrecientes, pero en este caso, el orden está dado por las primeras
muestras que no siguen el patrón (Figura 4.26).
Los modelos en ecuación en diferencias son:

Autoregresivo (AR):

X[n] − ϕ1 X[n − 1] − ϕ2 X[n − 2] − ... − ϕp X[n − p] = a[n] (4.79)

Media móvil (MA):

X[n] = a[n] − θ1 a[n − 1] − θ2 a[n − 2] − ... − θq a[n − q] (4.80)

ARMA:

X[n] − ϕ1 X[n − 1] − ... − ϕp X[n − p] = a[n] − θ1 a[n − 1] − ... − θq a[n − q] (4.81)

Dado que el ruido blanco a(t) es la entrada al ltro coloreador, y X(t) la salida de dicho sistema,
tenemos entonces que, el ltro MA es exactamente el sistema FIR descrito en el Capítulo 1,
y los AR y ARMA, sistemas IIR. De esta forma, el sistema MA siempre será estable y de
memoria nita y los AR y ARMA de memoria innita. Así mismo, el polinomio θi corresponde
a la respuesta al impulso del sistema,

h[n] = {1, −θ1 , −θ2 , ... , −θq } (4.82)

lo que muestra la utilidad de los ruidos blancos para la identicación de sistemas LTI.
Para determinar otras propiedades de dichos sistemas calculemos la transformada z de (4.81),
obteniendo entonces la siguiente función de transferencia:

X(z) 1 − θ1 z −1 − θ2 z −2 − ... − θq z −q
H(z) = = (4.83)
A(z) 1 − ϕ1 z −1 − ϕ2 z −2 − ... − ϕp z −p
CAPÍTULO 4. SEÑALES ALEATORIAS 159

Así que el polinomio formado por los coecientes θi son los ceros del sistema y las raíces
del polinomio ϕi los polos del sistema, por lo que un sistema MA es un sistema exclusivamente
solo ceros, el AR solo polos y el ARMA está regido por polos y ceros.
En estadística se dice que el sistema AR es estacionario si las raíces del polinomio θi están
2
dentro del círculo unitario , lo cual está ligado al hecho de que el sistema sea estable. Y para un
sistema MA se dice que es invertible si las raíces del polinomio ϕi están por dentro del círculo
unitario, esto garantiza que el ltro blanqueador (el cual es un AR) sea estable.

Ejemplo 4.14. A continuación se mostrará la utilidad de las funciones de auto-


correlación normalizada y autocorrelación parcial para la identicación del sistema
del ejemplo de la página 149. Si se desconoce la respuesta en frecuencia del sistema,
esta se puede estimar a partir de la densidad espectral de potencia cruzada, tal
como se mostró en el ejemplo. Sin embargo, si se quiere determinar el modelo que
rige la forma del ltro coloreador, que para dicho ejemplo es un ltro pasabanda, se
requiere determinar el orden p y q de un modelo ARMA. Esto se hace a través de
las funciones de autocorrelación normalizada ρk y autocorrelación parcial ϕkk . Para
la señal en cuestión ρk se calcula por medio de la función xcorr y ϕkk por medio de
(4.78), o alternativamente en Matlab por medio de la recursión de Levinson-Durbin.

%calcula la función de autocorrelación normalizada


maxlag = 30;
acor = xcorr(y,y,maxlag);
pk = ( acor(maxlag+1:2*maxlag+1) - mean(y)^2 ) / max(acor);
stem( 0:maxlag, pk );

%calcula la función de autocorrelación parcial usando la recur-


sión de Levinson-Durbin
phikk = levinson(pk, maxlag);
stem(phikk);

En la Figura 4.27 se muestran los resultados de dichas funciones. Nótese que


ρk muestra un patrón senoidal amortiguado aproximadamente después de k = 8, y
ϕkk un patrón exponencial decreciente para este mismo valor de k, lo que era de
esperarse, ya que el ltro original era un Butterworth pasabanda de orden 4, pero
por ser pasabanda el orden real del ltro se duplica.
Finalmente, en la Figura 4.28 se presenta la forma del espectro original del
sistema y del modelo estimado a partir del método de Yule-Walk, apreciándose un
gran parecido. El método de Yule-Walk se puede estimar en Matlab a través de la
instrucción yulewalk, así:

%estima la respuesta en frecuencia del sistema a partir


%de la densidad espectral de potencia cruzada
[Syx f] = csd(y,x,N,fs);
2 en los libros de estadística se dice que las raíces deben estar por fuera del círculo unitario, ya que en
estadística el polinomio analizado se da en términos del operador de resago B = z −1 , por lo que una raiz dentro
del círculo unitario en z equivale a una raiz por fuera del círculo en términos de B.
160 4.11. PROBLEMAS

1.5

0.5

ρk
0

−0.5

−1
−2 0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30
k
1

0.5
φkk

−0.5

−1
−2 0 2 4 6 8 10 12 14 16 18 20 22 24 26 28 30
k

Figura 4.27: Funciones de autocorrelación y autocorrelación parcial del ejemplo

%estima el modelo ARMA a través de la función yulewalk


[best,aest] = yulewalk(8,f/(fs/2),abs(Syx));

El método de Yule-walk solamente sirve para estimar modelos ARMA(q,q). Si se


quiere un orden p ̸= q se debe recurrir a otros algoritmos de estimación como el Box-
Jenkins, aunque existen reportados una gran cantidad de algoritmos de estimación
de parámetros para los procesos estocástico estacionarios.
Matlab incluye una función para estimar un modelo ARMA(p,q), se trata de la
función [B,A] = stmcb(hn,q,p), la cual retorna los coecientes del modelo correpon-
diente a los ceros (B) y los polos (A). Esta función debe recibir como argumento la
respuesta al impulso del sistema, la cual, como se vio en el ejemplo de la página 149
puede ser estimada a partir de la correlación cruzada entre la salida del sistema y
la señal de entrada que debe ser un ruido blanco.
Por otra parte, para la estimación de los parámetros de un ltro AR se puede
usar en Matlab la función aryule y para un MA, la función rls.

4.11. Problemas
1. Suponga que una señal ruido blanco, x(t), de media cero y varianza σx2 para a través de
un recticador de onda completa, es decir, y(t) = |x(t)|. Determine la función de densidad
de probabilidad del ruido de salida.

2. Suponga una señal aleatoria X(t) denida como X(t) = Xcos(ω0 t) + Y sen(ω0 t), donde
X y Y son dos variables aleatorias gausianas independientes de media cero y variable σ2 .
Determine:

a) La media de la señal, mX (t)


b) La función de autocorrelación de la señal RX (t, t + τ ). ¾Cómo clasica el sistema en
estacionario o cicloestacionario?
CAPÍTULO 4. SEÑALES ALEATORIAS 161

0 0

Φ(Horiginal(f)) (grados)
−50
−200

dB
(f)|
−100

original
−400
|H −150
−600
−200

−250 −800
0 200 400 600 800 1000 0 200 400 600 800 1000
Frecuencia (Hz) Frecuencia (Hz)

20 0

Φ(Hestimado(f)) (grados)
0
dB
(f)|

−200
−20
estimado

−40
−400
|H

−60

−80 −600
0 200 400 600 800 1000 0 200 400 600 800 1000
Frecuencia (Hz) Frecuencia (Hz)

Figura 4.28:

c) La densidad espectral de potencia SX (f ).


d) Responda las preguntas anteriores para el caso que σx2 ̸= σy2 .

3. Un proceso estacionario X(t) con función de autocorrelación Rx (τ ) = exp(−α |τ |) pasa a


través de un sistema LTI cuya salida es Y (t). Encuentre la función de autocorrelación de
la señal de salida y la correlación cruzada entre la entrada y la salida para:

a) Un sistema que retarda la señal ∆ unidades de tiempo, es decir, Y (t) = X(t − ∆).
b) Un sistema con respuesta al impulso h(t) = 1/t.
c) Un sistema descrito por la ecuación diferencial
d
dt Y (t) + Y (t) = d
dt X(t) − X(t)
∫ t+T
d) Un promediador dado por Y (t) = 1
2T t−T
X(τ )dτ , con T una constante.

−α|t|
4. Suponga que X(t)
es un proceso estacionario con RX (t) = e ,α > 0. Esta señal pasa
−βt
a través de un sistema LTI con h(t) = e u(t), β > 0. Determine la densidad espectral
de potencia de la señal de salida. Trate los casos α ̸= β y α=β por separado.

5. Una aplicación típica del análisis de sistemas usando señales aleatorias lo constituye el
diseño de sistemas adaptivos con los cuales es posible eliminar el ruido de fondo. Suponga
que una señal deseada X(t) está contaminada con ruido aditivo, N (t), es decir, la señal
que se captura esY (t) = X(t) + N (t). Si se conocen RX (τ ), RN (τ ) y RXN (τ ), es posible
diseñar un ltro que permita eliminar el ruido N (t) pasando la señal capturada Y (t)
por un ltro LTI de respuesta al impulso h(t), es decir, es posible obtener una versión
aproximada de X̂(t) por medio de X̂(t) = Y (t) ⋆ h(t).

a) Encuentre la correlación cruzada entre X̂(t) y X(t) en términos de h(τ ), RX (τ ),


RN (τ ) y RXN (τ ).
162 4.11. PROBLEMAS

{ }2
b) Muestre que el sistema LTI que minimiza E X(t) − X̂(t) tiene una función de

transferencia
SX (f ) + SXN (f )
H(f ) =
SX (f ) + SN (f ) + 2ℜe{SXN (f )}
c) Asuma que X(t) y N (t) son independientes, y que N (t) es un ruido blanco de media
cero con densidad espectral de potencia N0 /2. Encuentre el valor óptimo de H(f )
que permite reducir dicho ruido.
CAPÍTULO 5
REFERENCIAS

ALAN OPPENHEIM. Señales y sistemas. Prentice Hall. 1998.

ASHOK AMBARDAR. Procesamiento de señales analógicas y digitales. Thomson. 2002

EDWARD W. KAMEN. Fundamentals of signals and system: using matlab. Prentice-Hall.


2000.

J. G. PROAKIS y D. G. MANOLAKIS. Tratamiento Digital de Señales. Pretince-Hall.


1992

JOHN A. BORRIE. Stochastic Systems for Engineers. Pretince Hall. 1992

ROY D. YATES y DAVID J. GOODMAN. Probability and Stochastic Processes. John


Wiley & Sons. 2005

163
164
ÍNDICE ALFABÉTICO

aliasing, 19, 101 propiedad asociativa, 49


AR, 156 propiedad conmutativa, 49
ARMA, 156 propiedad distributiva, 49
asociativa rápida, 111
propiedades sistemas LTI, 49 sumatoria de, 43, 45
autocorrelación, 89, 138 correlación cruzada, 136, 146
promedio, 96, 142 covarianza, 136
autofunciones, 92 cuantización, 8
autoregresivo, 156 ruido, 9
autovalores, 59, 92
autovectores, 59 decimación en el tiempo, 113
delta
ciclo útil, 77 de Dirac, 22
coeciente de Kronecker, 58
de correlación, 136 propiedad de extracción, 24
condición densidad de probabilidad, 121
de Dirichlet, 64, 82 densidad espectral, 89, 94
de ortogonalidad de potencia, 138
en señales, 60 cruzada, 147
en vectores, 58 energía, 95
conmutativa potencia, 96
propiedades sistemas LTI, 49 desigualdad del triángulo, 58
conversor desviación estándard, 123
A/D, 7 DFT, 107
análogo-digital, 7 diagramas de bloques, 38
D/A, 9 distribución
digital-análogo, 9 de probabilidad, 121
convolución, 43 distributiva
circular, 111 propiedades sistemas LTI, 49
elemento neutro, 48 DTFT, 103
integral de, 43, 45
lineal, 111 ecuación

165
166 ÍNDICE ALFABÉTICO

de autovalores, 59 tiempo discreto, 103


diferencial, 35 frecuencia
diferencial lineal, 36 fundamental, 17
en diferencias, 36 muestreo, 7
no recursiva, 37 negativa, 18, 29
recursiva, 38 normalizada, 19, 103
ecuación de autovalores, 92 relativa, 117
efecto Gibbs, 78 función
eigenvalores, 59 de autocorrelación, 94
eigenvectores, 59 de transferencia, 92
elemento de retardo, 41 densidad de probabilidad, 121
elemento neutro conjunta, 135
propiedades sistemas LTI, 48 distribución de probabilidad acumulada,
energía 121

en el innito, 11 conjunta, 135

en el intervalo, 11 muestral, 138

ensamble
aleatorio, 138 gausiana multivariada, 146

espacio
histograma, 128
de señales, 59
muestral, 118
IIR
ortogonal, 60
ltro, 38
ortonormal, 60
impulso
vectorial, 57
respuesta al, 43
espectro
unitario, 22
de energía, 95
independencia
de potencia, 96
estadística, 119
discreto, 65
fase, 65
MA, 156
magnitud, 65
media móvil, 156
esperanza matemática, 123
momentos centrales, 124
eventos
muestreo
excluyentes, 119
frecuencia, 7
independientes, 119
período, 7
práctico, 102
FFT, 107, 112
teorema del, 19
decimación en el tiempo, 113
multiplicadores de frecuencia, 78
ltro
ARMA, 38 onditas, 62
autorregresivo, 38
media móvil, 37 Parseval
FIR relación de, 73, 88
ltro, 37 período
Fourier fundamental, 17
serie, 64 muestreo, 7
transformada de potencia
tiempo continuo, 80 en el innito, 12
ÍNDICE ALFABÉTICO 167

instantánea, 11 en frecuencia, 75, 91


promedio, 11 ruido blanco, 145
power spectral density, 97
primer momento, 123 señal

principio de incertidumbre, 89 aleatoria, 137

probabilidad, 117 aperiódica, 18


armónica impar, 72
condicional, 119
armónica par, 72
de masas, 122
continua, 6
proceso
denición, 5
cicloestacionario, 140
delta, 22
débilmente estacionario, 140
discreta, 6
ergódico, 141
escalón unitario, 22
estacionario, 140
exponencial compleja, 28
estacionario en el sentido amplio, 140
impar, 20
estocástico, 137
impulso, 22
estrictamente estacionario, 130
nivel de DC, 18
fuertemente estacionario, 140
par, 20
gausiano, 146
periódica, 17
ruido blanco, 145
pulso rectangular, 27
producto
rampa, 26
de probabilidades, 119
rectangular, 27
escalar, 58
senoidal, 29
interno, 58, 59
sinc, 30
punto, 58
tren de impulsos, 76
promedio estocástico, 138
tren de pulsos, 77
propiedad
segundo momento central, 124
de extracción de la delta de Dirac, 24
serie
invarianza, 32
discreta de Fourier, 106
lineal, 31
Fourier, 64
propiedades sistemas LTI
expansión trigonométrica, 70
asociativa, 49
sesgo, 124
conmutativa, 49
sistema, 30
distributiva, 49
causal, 34
elemento neutro, 48
determinístico, 35
PSD, 97
instantáneo, 34
invariante en el tiempo, 32
Rayleigh
lineal, 31
teorema de, 88
LTI, 33
realización
sin memoria, 34
del proceso aleatorio, 138
sistema de respuesta
relación
nita al impulso, 37
entrada-salida, 30 innita al impulso, 38
Parseval solución
en serie de Fourier, 73 homogénea, 35
en transformada de Fourier, 88 particular, 36
respuesta
al impulso, 43 teorema
168 ÍNDICE ALFABÉTICO

Bayes, 120
del muestreo, 8, 99
máxima transferencia de potencia, 97
muestreo, 101
Pitágoras, 58
probabilidad total, 120
Rayleigh, 88
Wiener-Khinchin, 142
transformada
discreta de Fourier, 107
Fourier
tiempo continuo, 80
tiempo discreto, 103
Laplace, 92
rápida de Fourier, 107, 112
wavelet, 62
Z, 104

valor
cuadrático medio, 123
medio, 123, 138
RMS, 80
variable aleatoria, 120
bernoulli, 124
binomial, 125
continua, 121
discreta, 121
gausiana, 125
mixta, 121
normal, 125
uniforme, 125
variables aleatorias
no correlacionadas, 136
ortogonales, 136
variables de estado, 40
varianza, 123

wavelet
madre, 62
transformada, 62

También podría gustarte