Está en la página 1de 424

Índice General

Introducción y Análisis General 1

1 Introducción 3
1.1 Presentación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3
1.2 Algunos ejemplos iniciales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7
1.3 Algunas ideas de partida. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 12
1.4 Problemas directos e inversos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5 Abreviaturas y lista de símbolos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 16

2 Espacios de Señales 19
2.1 Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
2.2 Resumen del álgebra de funciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
2.3 Algunos criterios para la clasi…cación de señales. . . . . . . . . . . . . . . . . . . . . . . . 21
2.3.1 Señales de variable continua y de variable discreta. . . . . . . . . . . . . . . . . . . 21
2.3.2 Señales escalares y vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3.3 Señales reales y complejas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.3.4 Señales unidimensionales y multidimensionales. . . . . . . . . . . . . . . . . . . . . 22
2.3.5 Señales continuas y discontinuas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.3.6 Dominio de de…nición. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.3.7 Señales periódicas y aperiódicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 24
2.4 Resumen algebraico general. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4.1 Espacios de dimensión …nita. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 25
2.4.2 Espacios de dimensión in…nita. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.5 Resumen algebraico aplicado a los espacios de señales. . . . . . . . . . . . . . . . . . . . . 28
2.5.1 Espacios de dimensión …nita. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28
2.5.2 Espacios de dimensión in…nita. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.5.3 Comentarios …nales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.6 Espacios de partida de señales de variable continua. . . . . . . . . . . . . . . . . . . . . . 33
2.6.1 Señales periódicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
2.6.2 Señales aperiódicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.7 Espacios de partida de señales de variable discreta. . . . . . . . . . . . . . . . . . . . . . . 37
2.7.1 Señales periódicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 37
2.7.2 Señales aperiódicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
2.8 Visualización de señales complejas de variable real. . . . . . . . . . . . . . . . . . . . . . . 40

i
2.8.1 Señales continuas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
2.8.2 Señales discretas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
2.9 Parámetros prácticos para la caracterización de señales. . . . . . . . . . . . . . . . . . . . 43
2.9.1 Valor medio. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
2.9.2 Potencia instantánea. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
2.9.3 Energía. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 47
2.9.4 Potencia media. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 48
2.10 Una clasi…cación adicional de señales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.10.1 Señales reales e imaginarias. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.10.2 Señales pares e impares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.10.3 Señales hermíticas y antihermíticas. . . . . . . . . . . . . . . . . . . . . . . . . . . 50
2.11 Operaciones básicas con señales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.11.1 Suma y producto. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.11.2 Producto por un escalar. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
2.11.3 Desplazamientos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.11.4 Abatimientos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.11.5 Cambios de escala. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.11.6 Combinaciones de operaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
2.12 Señales reales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.12.1 Álgebra de los espacios de señales. . . . . . . . . . . . . . . . . . . . . . . . . . . . 57
2.12.2 Propiedades de las señales reales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 58

3 Sistemas y Operadores 59
3.1 Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
3.2 Resumen algebraico de aplicaciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.2.1 Funcionales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
3.2.2 Formas bilineales y multilineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.2.3 Operadores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.3 Aplicaciones sobre los espacios de señales. . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3.1 Funcionales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.3.2 Formas bilineales y cuadráticas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.3.3 Operadores. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.4 Propiedades de los sistemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.4.1 Linealidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 68
3.4.2 Invarianza. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
3.4.3 Memoria. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 71
3.4.4 Invertibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 72
3.4.5 Causalidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 73
3.4.6 Estabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 75

ii c Emilio Gago-Ribas, 2002


°
3.5 Interconexiones básicas entre sistemas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 77
3.6 Operadores y familias de operadores básicos. . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.6.1 Operaciones básicas entre señales. . . . . . . . . . . . . . . . . . . . . . . . . . . . 78
3.6.2 Operadores en variable continua. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
3.6.3 Operadores en variable discreta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
3.6.4 Operadores integrales con núcleo K(¿ ; ¿ 0 ): . . . . . . . . . . . . . . . . . . . . . . . 80
3.6.5 Operadores en sumas con núcleo K(¿ ; ¿ 0 ): . . . . . . . . . . . . . . . . . . . . . . . 82
3.7 Operaciones de convolución. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.7.1 Integral de convolución en S(¡1; 1). . . . . . . . . . . . . . . . . . . . . . . . . . 84
3.7.2 Integral de convolución en P (X0 ). Convolución periódica. . . . . . . . . . . . . . . 86
3.7.3 Convolución discreta en D(¡1; 1). Suma de convolución. . . . . . . . . . . . . . 88
3.7.4 Convolución discreta en D(N0 ). Suma de convolución periódica. . . . . . . . . . . 89

4 Transformadas y Dominios Transformados 93


4.1 Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 93
4.1.1 Descripción general de una transformada. . . . . . . . . . . . . . . . . . . . . . . . 94
4.1.2 Importancia de los dominios transformados. . . . . . . . . . . . . . . . . . . . . . . 95
4.2 Espacios de señales de dimensión …nita. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 96
4.3 Espacios de señales de dimensión in…nita. . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
4.4 Análisis de un conjunto de señales como base de un espacio. . . . . . . . . . . . . . . . . . 102
4.5 Ejemplos de espacios de señales, funciones base y transformaciones. . . . . . . . . . . . . . 103
4.6 Otras transformadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104

Señales y Sistemas de Variable Continua 105

5 Señales de Partida Importantes 107


5.1 Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.2 Espacio de señales periódicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.2.1 Señales sinusoidales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.2.2 Exponenciales de exponente imaginario. . . . . . . . . . . . . . . . . . . . . . . . . 111
5.3 Espacio de señales aperiódicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
5.3.1 Exponenciales reales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 114
5.3.2 Exponenciales complejas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 116
5.4 Una familia importante de señales bidimensionales. . . . . . . . . . . . . . . . . . . . . . . 120
5.4.1 Señales sinusoidales de fase lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . . 120
5.4.2 Señales sinusoidales de fase arbitraria. . . . . . . . . . . . . . . . . . . . . . . . . . 122

c Emilio Gago-Ribas, 2002


° iii
6 Operadores y Sistemas Lineales. La Delta de Dirac 127
6.1 Sistemas y espacios de señales aperiódicas. Funciones localizadoras. . . . . . . . . . . . . . 127
6.1.1 Funciones localizadoras de tipo impulsivo. La distribución delta de Dirac. . . . . . 128
6.1.2 De…nición del objeto ±(x). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 131
6.1.3 De…nición del objeto ±(x ¡ x0 ). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 132
6.1.4 Conjunto de objetos f±(x ¡ x0 )g : . . . . . . . . . . . . . . . . . . . . . . . . . . . . 133
6.1.5 Representación de funciones en términos del conjunto f±(x ¡ x0 )g : . . . . . . . . . 133
6.1.6 Sistemas lineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 134
6.1.7 Sistemas lineales e invariantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 135
6.1.8 Nuevo espacio de señales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 137
6.2 Sistemas lineales e invariantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 138
6.2.1 Propiedades asociadas a la convolución. . . . . . . . . . . . . . . . . . . . . . . . . 138
6.2.2 Memoria. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 139
6.2.3 Invertibilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
6.2.4 Causalidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 140
6.2.5 Estabilidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 141

7 Distribuciones o Funciones Generalizadas 143


7.1 Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 143
7.2 De…nición general de una distribución. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
7.2.1 De…nición general. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 148
7.2.2 De…nición a partir de una sucesión de funciones. . . . . . . . . . . . . . . . . . . . 148
7.2.3 Distribuciones como respuestas al impulso de un operador lineal e invariante. . . . 148
7.2.4 Distribuciones como respuestas al impulso de un operador lineal. . . . . . . . . . . 149
7.3 La distribución delta de Dirac. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
7.3.1 De…nición a partir de una sucesión de funciones de buen comportamiento. . . . . . 150
7.3.2 De…nición general. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 150
7.3.3 La distribución delta de Dirac como respuesta al impulso. . . . . . . . . . . . . . . 150
7.3.4 Propiedades básicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 151
7.4 La primera derivada de la delta de Dirac. . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
7.4.1 De…nición a partir de una sucesión de funciones de buen comportamiento. . . . . . 152
7.4.2 De…nición general. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 152
7.4.3 La primera derivada de la delta de Dirac como respuesta al impulso. . . . . . . . . 153
7.4.4 Propiedades básicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 153
7.5 La segunda derivada de la delta de Dirac. . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
7.5.1 De…nición a partir de una sucesión de funciones de buen comportamiento. . . . . . 154
7.5.2 De…nición general. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 154
7.5.3 La segunda derivada de la delta de Dirac como respuesta al impulso. . . . . . . . . 155
7.5.4 Propiedades básicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 155

iv c Emilio Gago-Ribas, 2002


°
7.6 La distribución de Heaviside o escalón unidad. . . . . . . . . . . . . . . . . . . . . . . . . 156
7.6.1 De…nición a partir de una sucesión de funciones de buen comportamiento. . . . . . 156
7.6.2 De…nición general. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 156
7.6.3 La distribución de Heaviside como respuesta al impulso. . . . . . . . . . . . . . . . 156
7.6.4 Propiedades básicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 157
7.7 La distribución signo. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 158
7.7.1 De…nición a partir de una sucesión de funciones de buen comportamiento. . . . . . 158
7.7.2 De…nición general. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
7.7.3 La distribución signo como respuesta al impulso. . . . . . . . . . . . . . . . . . . . 159
7.8 Propiedades importantes de las distribuciones. . . . . . . . . . . . . . . . . . . . . . . . . 159
7.8.1 Producto por una función. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 159
7.8.2 Convolución de una función y una distribución. . . . . . . . . . . . . . . . . . . . . 160
7.8.3 Convolución de dos distribuciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . 161
7.9 Operadores, distribuciones y sucesiones de funciones. . . . . . . . . . . . . . . . . . . . . . 162

8 Desarrollos en Serie de Fourier 163


8.1 Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
8.2 Exponenciales imaginarias como funciones base. . . . . . . . . . . . . . . . . . . . . . . . . 163
8.2.1 Funciones de partida. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 163
8.2.2 Ortogonalidad del conjunto de funciones. . . . . . . . . . . . . . . . . . . . . . . . 165
8.2.3 Coe…cientes del desarrollo en serie de Fourier. . . . . . . . . . . . . . . . . . . . . . 165
8.2.4 De…nición del desarrollo en serie de Fourier. . . . . . . . . . . . . . . . . . . . . . . 166
8.2.5 Análisis del error en el desarrollo en serie de Fourier. . . . . . . . . . . . . . . . . . 167
8.3 Criterios de convergencia de los coe…cientes. . . . . . . . . . . . . . . . . . . . . . . . . . . 179
8.3.1 Señales de energía …nita. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 180
8.3.2 Condiciones de Dirichlet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 181
8.4 Propiedades del desarrollo en serie de Fourier. . . . . . . . . . . . . . . . . . . . . . . . . . 183
8.5 Desarrollo en serie de algunas señales continuas. . . . . . . . . . . . . . . . . . . . . . . . . 185
8.5.1 Armónico de pulsación » 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
8.5.2 Armónico de pulsación k» 0 . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
8.5.3 Función coseno. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
8.5.4 Función seno. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 185
8.5.5 Función constante. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 186
8.6 Desarrollo en serie de distribuciones de energía in…nita. . . . . . . . . . . . . . . . . . . . 186
8.6.1 Tren de deltas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 187
8.6.2 Tren de primeras derivadas de la delta. . . . . . . . . . . . . . . . . . . . . . . . . 187
8.6.3 Tren de segundas derivadas de la delta. . . . . . . . . . . . . . . . . . . . . . . . . 187
8.7 Desarrollo en serie de distribuciones de energía …nita. . . . . . . . . . . . . . . . . . . . . . 188
8.7.1 Tren de pulsos de amplitud unidad y anchura ¢x. . . . . . . . . . . . . . . . . . . 188

c Emilio Gago-Ribas, 2002


° v
8.7.2 Tren de triángulos de amplitud unidad y anchura ¢x: . . . . . . . . . . . . . . . . 189
8.8 Desarrollo en serie de señales reales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
8.8.1 Propiedades para señales reales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 190
8.8.2 Propiedades para señales reales y pares. . . . . . . . . . . . . . . . . . . . . . . . . 191
8.8.3 Propiedades para señales reales e impares. . . . . . . . . . . . . . . . . . . . . . . . 192
8.9 El desarrollo en serie de Fourier y los sistemas lineales e invariantes. . . . . . . . . . . . . 193
8.9.1 Funciones propias del sistema. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 193
8.9.2 Análisis de los coe…cientes H(m): . . . . . . . . . . . . . . . . . . . . . . . . . . . . 195

9 La Transformada de Fourier 201


9.1 Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 201
9.2 La transformada de Fourier a partir del desarrollo en serie. . . . . . . . . . . . . . . . . . 202
9.2.1 De…nición de la transformada de Fourier. . . . . . . . . . . . . . . . . . . . . . . . 204
9.2.2 Notaciones habituales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 205
9.2.3 Coe…cientes de la combinación lineal. . . . . . . . . . . . . . . . . . . . . . . . . . . 205
9.3 Criterios de convergencia de la transformada de Fourier. . . . . . . . . . . . . . . . . . . . 205
9.3.1 Señales de energía …nita. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
9.3.2 Condiciones de Dirichlet. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 206
9.4 Propiedades de la transformada de Fourier. . . . . . . . . . . . . . . . . . . . . . . . . . . 207
9.5 Transformadas de Fourier de algunas señales continuas. . . . . . . . . . . . . . . . . . . . 208
9.5.1 Gaussiana. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 208
9.5.2 Pseudo-Gaussiana. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 209
9.5.3 Pseudo-Gaussiana multiplicada por x. . . . . . . . . . . . . . . . . . . . . . . . . . 210
9.6 Transformadas de Fourier de distribuciones y señales de energía in…nita. . . . . . . . . . . 214
9.6.1 Distribución delta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 214
9.6.2 Distribución delta desplazada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 216
9.6.3 Distribución primera derivada de la delta. . . . . . . . . . . . . . . . . . . . . . . . 217
9.6.4 Distribución segunda derivada de la delta. . . . . . . . . . . . . . . . . . . . . . . . 219
9.6.5 Distribución de Heaviside o salto unidad. . . . . . . . . . . . . . . . . . . . . . . . 220
9.6.6 Otras distribuciones. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 222
9.6.7 Tabla resumen para señales de energía in…nita y distribuciones. . . . . . . . . . . . 223
9.7 Transformadas de Fourier de distribuciones y señales de energía …nita. . . . . . . . . . . . 229
9.7.1 Pulso unidad de ancho ¢x: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 229
9.7.2 Pulso unidad de ancho ¢»: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 231
9.7.3 Triángulo unidad de ancho ¢x: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 233
9.7.4 Función exponencial a derechas (distribución exponencial). . . . . . . . . . . . . . 235
9.8 Transformada de Fourier de señales periódicas. . . . . . . . . . . . . . . . . . . . . . . . . 245
9.8.1 Expresión de la transformada. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 245
9.8.2 Análisis espectral de los coe…cientes del desarrollo en serie. . . . . . . . . . . . . . 247

vi c Emilio Gago-Ribas, 2002


°
9.8.3 Otra expresión de la transformada. . . . . . . . . . . . . . . . . . . . . . . . . . . . 251
9.8.4 Transformada de señales periódicas importantes. . . . . . . . . . . . . . . . . . . . 251
9.8.5 Transformada de distribuciones periódicas importantes. . . . . . . . . . . . . . . . 252
9.9 Transformada de Fourier de señales reales. . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
9.9.1 Propiedades para señales reales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 254
9.9.2 Propiedades para señales reales y pares. . . . . . . . . . . . . . . . . . . . . . . . . 255
9.9.3 Propiedades para señales reales e impares. . . . . . . . . . . . . . . . . . . . . . . . 256
9.9.4 Tabla de señales reales importantes. . . . . . . . . . . . . . . . . . . . . . . . . . . 256
9.10 La transformada de Fourier y los sistemas lineales e invariantes. . . . . . . . . . . . . . . . 257
9.10.1 Transformación del conjunto de funciones base por un sistema lineal e invariante. . 257
9.10.2 Operadores transformados. Representación espectral de un sistema. . . . . . . . . 258
9.11 Algunas consideraciones algebraicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 260
9.11.1 Propiedades del conjunto de funciones base. . . . . . . . . . . . . . . . . . . . . . . 261
9.11.2 Ortogonalidad de las funciones base. . . . . . . . . . . . . . . . . . . . . . . . . . . 261
9.11.3 Expresión de los coe…cientes en términos del producto escalar. . . . . . . . . . . . 262
9.11.4 Análisis de la mejor aproximación posible. . . . . . . . . . . . . . . . . . . . . . . . 262
9.11.5 Señales de energía …nita. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 263

10 Análisis de Algunos Sistemas Básicos 265


10.1 Producto de señales en el dominio real. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 265
10.2 Modulación en amplitud. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 267
10.3 Ventaneado ideal en el dominio real. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 272
10.4 Producto de funciones en el dominio espectral. . . . . . . . . . . . . . . . . . . . . . . . . 282
10.5 Ventaneado ideal en el dominio espectral. . . . . . . . . . . . . . . . . . . . . . . . . . . . 283
10.6 Problema de recuperación de una señal. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 286
10.6.1 Ejemplos de recuperación ideal de señales. . . . . . . . . . . . . . . . . . . . . . . . 289
10.7 Ventaneados reales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
10.7.1 Funciones ventana habituales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 295
10.7.2 Ventaneados no ideales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 297

11 La Transformada de Laplace 299


11.1 Introducción. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 299
11.2 De…nición y propiedades básicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 300
11.2.1 De…nición de la transformada de Laplace. . . . . . . . . . . . . . . . . . . . . . . . 301
11.2.2 Análisis del conjunto de funciones base. . . . . . . . . . . . . . . . . . . . . . . . . 301
11.2.3 Visualización de la transformada de Laplace. . . . . . . . . . . . . . . . . . . . . . 302
11.2.4 La transformada de Laplace y la transformada de Fourier. . . . . . . . . . . . . . . 302
11.2.5 Notaciones habituales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 302
11.3 Región de convergencia de la transformada de Laplace. . . . . . . . . . . . . . . . . . . . . 305
11.3.1 Propiedades generales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 305

c Emilio Gago-Ribas, 2002


° vii
11.3.2 Propiedades particulares. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306
11.4 Transformada inversa de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 306
11.4.1 Análisis de la transformada inversa. . . . . . . . . . . . . . . . . . . . . . . . . . . 308
11.5 Propiedades de la transformada de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . 309
11.6 Transformadas de Laplace racionales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 309
11.7 Transformadas de Laplace de distribuciones y señales de energía in…nita. . . . . . . . . . . 311
11.7.1 Distribución delta de Dirac. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 311
11.7.2 Distribución delta de Dirac desplazada. . . . . . . . . . . . . . . . . . . . . . . . . 311
11.7.3 Distribución primera derivada de la delta. . . . . . . . . . . . . . . . . . . . . . . . 312
11.7.4 Distribución segunda derivada de la delta. . . . . . . . . . . . . . . . . . . . . . . . 312
11.7.5 Distribución Gamma o de Heaviside. . . . . . . . . . . . . . . . . . . . . . . . . . . 313
11.8 Transformadas de Laplace de otras distribuciones y señales importantes. . . . . . . . . . . 319
11.8.1 Pulso unidad de ancho ¢(x). . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319
11.8.2 Exponencial a derechas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 319
11.8.3 Coseno a derechas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 321
11.9 La transformada de Laplace y los sistemas lineales e invariantes. . . . . . . . . . . . . . . 328
11.9.1 Transformación del conjunto de funciones base por un sistema lineal e invariante. . 328
11.9.2 Operadores transformados. Representación espectral de un sistema. . . . . . . . . 329

Apéndices 333

A Diccionario Básico de Álgebra de Espacios 335


A.1 Espacios métricos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 335
A.2 Espacios vectoriales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 336
A.3 Espacios vectoriales normados. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 337
A.4 Espacios vectoriales con producto interno. . . . . . . . . . . . . . . . . . . . . . . . . . . . 338
A.4.1 Espacios vectoriales de dimensión …nita. . . . . . . . . . . . . . . . . . . . . . . . . 338
A.4.2 Extensión a espacios vectoriales de dimensión in…nita. . . . . . . . . . . . . . . . . 338
A.4.3 Espacios vectoriales con producto interno como espacios métricos. . . . . . . . . . 338
A.5 Espacios de Hilbert. Introducción al espacio L2 (a; b): . . . . . . . . . . . . . . . . . . . . . 339
A.6 Expansiones ortogonales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
A.6.1 Teoría de la mejor aproximación. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
A.6.2 Bases. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 340
A.6.3 Convergencia de la serie. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 341
A.6.4 Completitud de secuencias ortonormales. . . . . . . . . . . . . . . . . . . . . . . . 341
A.6.5 ¿Cómo probar que una secuencia particular es completa? . . . . . . . . . . . . . . 341

viii c Emilio Gago-Ribas, 2002


°
B Diccionario Básico de Álgebra de Operadores 343
B.1 Espacios duales (funciones escalares lineales). . . . . . . . . . . . . . . . . . . . . . . . . . 343
B.1.1 Espacios de dimensión in…nita. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343
B.2 Operadores lineales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 343
B.2.1 Operadores lineales en espacios de dimensión …nita. . . . . . . . . . . . . . . . . . 343
B.2.2 Introducción a los operadores lineales en espacios de dimensión in…nita. . . . . . . 344
B.2.3 El espacio de Banach L(AK ; BK ): . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345
B.2.4 Ecuaciones. Operadores inversos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 345
B.2.5 Operadores adjuntos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346
B.2.6 Operadores hermíticos (autoadjuntos). . . . . . . . . . . . . . . . . . . . . . . . . . 346
B.2.7 Espectro de un operador. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346
B.3 Operadores compactos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 346
B.3.1 Espectro de un operador compacto y hermítico. . . . . . . . . . . . . . . . . . . . . 347
B.3.2 Teorema espectral. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 347

C De…nición de Distribuciones Mediante Sucesiones 349


C.1 Distribución delta de Dirac. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349
C.1.1 Sucesión de funciones sinc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 349
C.1.2 Sucesión de funciones sinc cuadrado. . . . . . . . . . . . . . . . . . . . . . . . . . . 349
C.1.3 Sucesión a partir de la distribución de Heaviside. . . . . . . . . . . . . . . . . . . . 350
C.2 Primera derivada de la delta de Dirac. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
C.2.1 Sucesión de funciones sinc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 350
C.2.2 Sucesión de funciones sinc cuadrado. . . . . . . . . . . . . . . . . . . . . . . . . . . 351
C.2.3 Sucesión a partir de la distribución de Heaviside. . . . . . . . . . . . . . . . . . . . 352
C.3 Segunda derivada de la delta de Dirac. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352
C.3.1 Sucesión de funciones sinc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 352
C.3.2 Sucesión de funciones sinc cuadrado. . . . . . . . . . . . . . . . . . . . . . . . . . . 353
C.3.3 Sucesión a partir de la distribución de Heaviside. . . . . . . . . . . . . . . . . . . . 353
C.4 Distribución de Heaviside o salto unidad. . . . . . . . . . . . . . . . . . . . . . . . . . . . 357
C.4.1 Función de error. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 357
C.4.2 Funciones integrales sinosoidales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 358
C.4.3 Función integral de la función sinc cuadrado. . . . . . . . . . . . . . . . . . . . . . 358
C.5 Tabla resumen de distribuciones y sucesiones de funciones . . . . . . . . . . . . . . . . . . 360

D Propiedades de las Distribuciones 361


D.1 Escalado de la variable independiente. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
D.2 Unidades de ±(x): . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
D.3 Producto por una función. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 361
D.4 Convolución de una función y una distribución. . . . . . . . . . . . . . . . . . . . . . . . . 363

c Emilio Gago-Ribas, 2002


° ix
E Demostraciones y Desarrollos Matemáticos 365
E.1 Propiedades de algunos tipos de señales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 365
E.2 Propiedades de la convolución continua. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 366
E.3 Convolución periódica de señales continuas. . . . . . . . . . . . . . . . . . . . . . . . . . . 366
E.4 Propiedades de la convolución discreta. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 367
E.5 Convolución periódica de señales discretas. . . . . . . . . . . . . . . . . . . . . . . . . . . . 368
E.6 Señales de partida importantes. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369
E.6.1 Señales sinusoidales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369
E.6.2 Exponenciales de exponente imaginario. . . . . . . . . . . . . . . . . . . . . . . . . 369
E.6.3 Exponenciales reales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 369
E.6.4 Exponenciales complejas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370
E.7 Desarrollo en serie de Fourier. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 370
E.7.1 Coe…cientes que minimizan la energía del error. . . . . . . . . . . . . . . . . . . . . 370
E.7.2 Condición de señales de energía …nita. . . . . . . . . . . . . . . . . . . . . . . . . . 371
E.7.3 Propiedades del desarrollo en serie de Fourier. . . . . . . . . . . . . . . . . . . . . . 373
E.8 Transformada de Fourier. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 376
E.8.1 Coe…cientes que minimizan la energía del error. . . . . . . . . . . . . . . . . . . . . 376
E.8.2 Condición de señales de energía …nita. . . . . . . . . . . . . . . . . . . . . . . . . . 378
E.8.3 Propiedades de la transformada de Fourier. . . . . . . . . . . . . . . . . . . . . . . 379
E.9 Análisis de algunos sistemas básicos. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
E.9.1 Espectro de la ventana de Hanning. . . . . . . . . . . . . . . . . . . . . . . . . . . 383
E.9.2 Espectro de la ventana de Welch. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 383
E.10 Transformada de Laplace. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384
E.10.1 Propiedades asociadas a la ROC. . . . . . . . . . . . . . . . . . . . . . . . . . . . . 384

F Señales y Funciones de Referencia Importantes 389


F.1 Funciones y distribuciones periódicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 389
F.2 Funciones y distribuciones aperiódicas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 391
F.3 Análisis de la función Gaussiana. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395
F.4 Análisis de la función sinc. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 395
F.4.1 Análisis de tan(x) = x: . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 396
F.4.2 Análisis de tan(x) = 2x=(2 ¡ x2 ): . . . . . . . . . . . . . . . . . . . . . . . . . . . . 397
F.4.3 Propiedades asociadas. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 398
F.5 Funciones de error. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 400
F.6 Integrales exponenciales y sinusoidales. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 401
F.6.1 Integral de la función sinc cuadrado. . . . . . . . . . . . . . . . . . . . . . . . . . . 402
F.7 Transformada de Fourier de la ventana de Hanning. . . . . . . . . . . . . . . . . . . . . . 403
F.8 Transformada de Fourier de la ventana de Welch. . . . . . . . . . . . . . . . . . . . . . . . 404

x c Emilio Gago-Ribas, 2002


°
Introducción y Análisis General

1
1. Introducción

1.1 Presentación.
No resulta fácil realizar una introducción a los objetivos del presente texto con el que se inicia la serie
Teoría de Señal dentro de ese proyecto que hemos tenido a bien denominar Cuadernos de Electromagnetismo
y Teoría de Señal. Puede parecer pretencioso comenzar diciendo que este texto pretende establecer un
cierto nexo de unión entre la denominada Teoría de Señal1 (o cualquiera de sus acepciones más comunes2 ),
y la representación y forma de análisis habitual de los Problemas Físicos. Y sin embargo, es innegable que
ésta ha sido una de las principales motivaciones que han dado lugar a la creación del mismo, siendo el
autor plenamente consciente de que el resultado …nal, a buen seguro, acabará cumpliendo dicho objetivo
en una mínima parte, y habrá de ser revisado, modi…cado y completado en posteriores ediciones.
A pesar de ello, parece incuestionable el distanciamiento conceptual e incluso de lenguaje que ambas
áreas han ido sufriendo a lo largo del tiempo. Quizás sea en este punto donde el presente texto, además
de intentar servir como referencia básica para aquellos alumnos que cursen asignaturas de introducción
al tratamiento de la señal, pueda servir también para contribuir en lo posible a la uni…cación de ambos
ambitos del conocimiento, pudiéndose así acabar utilizando como guía básica y metodológica no sólo
para entender los conceptos expuestos en él, sino también para su posterior extensión a otro tipo de
técnicas matemáticas y su aplicación a problemas no abordadas en éste texto.

Figura 1.1. Representación esquemática de la idea general de partida para la con-


strucción de la teoría básica de señales y sistemas.

Es incuestionable la importancia que la Teoría de Señales y Sistemas ha alcanzado a lo largo de los


últimos años como modelo básico para representar y analizar problemas físicos de gran magnitud que,
por su complejidad, carecen de un modelo matemático sencillo y preciso. En este sentido, el poder
modelar cualquier problema físico como una caja negra capaz de realizar ciertas transformaciones sobre
las magnitudes del problema, modeladas en forma de señales, supone ciertamente un avance práctico
de gran importancia, sobre todo si nos atenemos a la complejidad de los problemas que es capaz de
representar. Sin embargo, esta forma de visualizar los problemas físicos ha hecho que, en muchos casos,
se llegue a perder la perspectiva física del problema en cuestión y, sobre todo, el origen de la matemática
asociada a su descripción. En esta introducción intentaremos clari…car poco a poco estas a…rmaciones
y al mismo tiempo, dejar entrever que resulta fundamental mantener la relación entre ambos tipos de
análisis.
Consideremos como punto de partida el esquema mostrado en la Fig. 1.1 y tengamos en mente, bien
alguno de los problemas habituales con los que el lector esté familiarizado, bien cualquiera de los ejemplos
que se mencionan en la Secc. 1.2. Sean cuales sean los problemas que nos planteemos inicialmente, todos
1 Lo cual ha llevado a la creación de áreas de conocimiento especí…cas en muchas universidades de todo el mundo.
2 Tratamiento de la Señal, Señales y Sistemas, Sistemas Lineales, etc.

3
ellos tendrán dos aspectos comunes: (i) un conjunto de magnitudes involucradas en el problema partic-
ular (tensiones y corrientes, presión sonora, campos eléctricos, campos magnéticos, fuerzas, velocidades,
etc.), y (ii) unas relaciones entre dichas magnitudes, habitualmente descritas en forma de ecuaciones,
descriptivas del comportamiento del problema en cuestión y, por lo tanto, pudiendose ver como trans-
formaciones de unas magnitudes en otras. Con esta imagen en mente, la pregunta de partida podría
formularse en los siguientes términos: ¿existe alguna metodología de análisis que permita representar y
abordar cualquier3 problema físico?
La respuesta a esta pregunta podría ser justamente el punto de vista ofrecido por la Teoría de Señales y
Sistemas, entendiendo ésta como una forma de representación de cualquier problema físico en términos
de una serie de señales de entrada y salida a un cierto sistema. Así, las señales involucradas se corre-
sponderán justamente con las magnitudes físicas del problema, y las relaciones o transformaciones que
se produzcan entres estas magnitudes vendrán representadas por el sistema que lo describe. De…niremos
inicialmente un problema de teoría de señal como cualquier proceso que intervenga en la transformación
de las señales que describen las magnitudes asociadas a un cierto problema físico, Fig. 1.2.

Figura 1.2. Representación de un problema físico en términos de señales y sistemas


descritos por funciones y operadores.

Con esta visión inicial en mente, deberíamos describir justamente los contenidos de la teoría de señales
y sistemas, esto es, el conjunto de técnicas matemáticas y de análisis que permiten modelar cualquier
problema físico en los términos citados. Quizás éste sea uno de los aspectos más problemático a la
hora de decidir cómo presentar dichos contenidos. Comentaremos a continuación aquellas ventajas e
inconvenientes que, a juicio del autor, están asociadas a las formas más habituales de presentación que
nos podemos encontrar en la bibliografía especializada y que son las que en gran parte han motivado la
realización de este texto.
La forma habitual de presentar dichas técnicas desde el punto de vista de los que podríamos denominar
como expertos en teoría de señal (véase, por ejemplo, la referencia ya tradicional en [10], o cualquiera de
la extensa bibliografía aparecida posteriormente cuyo esquema sigue unas pautas totalmente similares)
tiene el gran interés práctico de que, …nalizada su exposición, el lector tiene en mente un buen número
de herramientas matemáticas de gran interés para su aplicación práctica, así como un buen número
de señales básicas que le permiten identi…car propiedades de señales más complicadas en base a las
primeras. A pesar de su gran interés práctico, es opinión del autor que dicha forma de exposición lleva
a que buena parte de esos conocimientos acaben estando conceptualmente desvirtuados. Citaré algunos
ejemplos ilustrativos de esta idea: (i) es habitual que se acabe teniendo la noción de que las herramientas
matemáticas presentadas sólamente son aplicables en el dominio del tiempo; así por ejemplo, es habitual
acabar estableciendo una relación intrínseca entre el dominio del tiempo4 y el dominio de la frecuencia
de forma que hablar de un cierto dominio espectral es hablar del dominio de la frecuencia..... y no otro;
(ii) la teoría de distribuciones o funciones generalizadas suele obviarse en mayor o menor medida, lo que
lleva a introducir las señales de tipo impulsivo, por ejemplo, la delta de Dirac, en una forma poco clara5
y, lo que es más importante, sin tener una noción precisa de porqué es necesario introducir este tipo
de objetos matemáticos en nuestra teoría de señal, y menos aún, su relación conceptual con la teoría
de sistemas y operadores. En de…nitiva, y sin querer ahondar en otros ejemplos, la forma habitual de
presentación tiene el interés inherente de su aplicación práctica, pero hace que sea muy fácil perder los
3 Aunque la pregunta esté formulada en términos demasiado generales y la respuesta casi evidente sería ’no’, el lector

debe asumir que la expresión ’cualquier...’ ha de leerse como ’un buen número de...’ o ’el mayor número posible de...’.
4 En mi modesta experiencia como docente de este tipo de materias he podido constatar la gran di…cultad que se acaba

teniendo para traducir y, sobre todo, interpretar resultados obtenidos con este tipo de técnicas en otros dominios de
de…nición que no sean el tiempo o la frecuencia.
5 Véase el ejemplo típico de intoducir la delta de Dirac como el caso límite de una función pulso de ancho ¢ y altura

1=¢; caso que se ha obviado intencionadamente en el presente texto dado que el autor no considera demasiado riguroso
obtener una distribución, en este caso ±(x); a partir de una función, el pulso, cuyo comportamiento no podríamos cali…car
a priori de bueno para todo el dominio de de…nición y que, en realidad, debería de acabar estudiándose como una nueva
distribución.

4 c Emilio Gago-Ribas, 2002


°
conceptos de base que la sustentan y, por lo tanto, hace muy difícil su generalización a otros problemas
que no sean del tipo a los analizados en dichos textos.
Desde un punto de vista más analítico, y perdiendo en parte el concepto de generalidad asociado a la
teoría de señales y sistemas, podríamos citar aquellos textos que, independientemente de su mani…esta
calidad, están orientados o van dirigidos: (i) a la exposición de técnicas matemáticas con aplicación
directa en física (véanse, por ejemplo, las referencias [44]-[47] o similares); (ii) al análisis concreto de
ciertas técnicas matemáticas y su aplicación (véase, por ejemplo, la referencia [34] o similares); (iii) a su
aplicación a ciertos problemas muy concretos (véanse, por ejemplo, las referencias [48]-[49] y similares),
o (iv) …nalmente, las que son extremadamente matemáticas y, por lo tanto, difíciles de relacionar con
las aplicaciones prácticas habituales de la teoría de señal (por ejemplo, las referencias [17]-[33]).
En virtud de las consideraciones realizadas en los párrafos precedentes, el presente texto encuentra su
justi…cación en el objetivo concreto de logran un nexo de unión lo más general posible entre la forma
habitual de presentar la teoría de señal y los textos más matemáticos y/o especializados. Así, se intentará
no perder de vista la …nalidad de hacer de la teoría de señal una herramienta útil en la práctica, pero
intentando sentar unas bases matemáticas sólidas que permitan entender no sólo la teoría expuesta en este
texto, sino también cualquier otra técnica que pudiera surgir más allá de los presentes contenidos. Es en
este punto donde deberemos hacer uso del álgebra de los espacios de funciones y de operadores (véase el
esquema de la Fig. 1.1) como elementos representativos de las señales y de los sistemas, respectivamente.
Intentaremos obviar en lo posible los aspectos más difíciles del álgebra funcional centrándonos en los
aspectos que puedan ser más útiles para conformar la base algebraica de la teoría de señal. Esto dará
lugar a realizar una presentación de la teoría de señales y sistemas en términos constructivos, es decir,
asumiendo que somos nosostros los que, a medida que avanzamos en el texto, vamos construyendo dicha
teoría. Esto nos obligará a entender el porqué de ciertas demostraciones, el porqué hemos de aumentar
con nuevos elementos o restringir, en su caso, los diferentes espacios de señales, la relación existente
entre un sistema u operador y el tipo de desarrollo o transformación de señales elegido, etc.
El autor ha intentado que este proceso de construcción de la teoría de señales y sistemas quede re‡ejado
no sólo en los propios contenidos del texto, sino también en la estructuración del mismo cuyo resumen
queda recogido en el índice de contenidos. Así, en la primera parte del mismo, Introducción y Análi-
sis General, se intenta recoger la base algebraica mencionada previamente que nos permitirá construir
posteriormente la teoría de señales y sistemas y que deberíamos tener siempre presente. Así, en el Cap.
2 (Espacios de Señales) se realizarán las consideraciones más importantes asociadas al álgebra de los es-
pacios vectoriales y, en concreto, a los espacios vectoriales de funciones y/o señales. Se establecerán unos
espacios de señales de partida con los que comenzar a trabajar y se analizarán también algunos parámet-
ros importantes para la caracterización práctica de las señales cuya de…nición suele estar relacionada,
bien con el álgebra de…nido inicalmente, bien con los resultados habituales que aparecen en la resolución
de problemas físicos. En el Cap. 3 (Sistemas y Operadores) recordaremos los conceptos algebraicos más
importantes para el análisis de sistemas descritos en términos de operadores, y su aplicación a aquellos
operadores que actúan sobre los espacios de señales. De…niremos las propiedades más importantes que
permiten caracterizar el comportamiento de un sistema y realizaremos un resumen de los operadores
básicos que deberíamos tener en mente desde el comienzo. El último capítulo de esta primera parte,
Cap. 4 (Transformaciones y Dominios Transformados), está dedicado a un tipo de operadores de gran
importancia, que denominaremos en general transformaciones, sentando las bases generales que nos per-
mitirán entender tanto las transformaciones que presentaremos en este texto (el desarrollo en serie de
Fourier, la transformada de Fourier y la transformada de Laplace de señales de variable continua) como
aquellas transformaciones que puedan aparecer en otros textos o aplicaciones prácticas (el desarrollo
en serie de Fourier, la transformada de Fourier y la transformada Z de señales de variable discreta, la
transformada de Hartley para señales reales de variable continua, la transformada de Hankel para señales
complejas de variable continua, etc.).
En la segunda parte del texto, Señales y Sistemas de Variable Continua, nos centraremos en
construir la teoría de señales y sistemas cuando la variable de de…nición de las funciones descriptivas
de las señales es continua, esto es, f(x); x 2 R: Así, una vez analizadas algunas funciones básicas y su
comportamiento, Cap. 5 (Señales de Partida Importantes), abordaremos el problema de la posibilidad de
caracterizar cualquier sistema con una representación común a todos ellos, Cap. 6 (Operadores y Sistemas
Lineales. La Delta de Dirac). Este análisis nos llevará a introducir, de forma natural, alguna señal de tipo
localizador que nos permita seleccionar un valor de un continuo de valores. Con estas ideas en mente y el
álgebra de…nido incialmente sobre el espacio de señales, aparecerá de forma totalmente natural el objeto

c Emilio Gago-Ribas, 2002


° 5
matemático denominado delta de Dirac. Este objeto matemático, junto con ciertas propiedades de los
operadores (linealidad e invarianza) resultará esencial para poder lograr dicha caracterización común
en términos de lo que denominaremos respuesta al impulso del sistema, h(x) = F [±(x)] : Dadas las
particularidades, características y comportamiento particular de este objeto matemático, las sucesivas
transformaciones de este elemento por diferentes sistemas u operadores F sugiere que la respuesta al
impulso acabarán siendo nuevos objetos matemáticos también con comportamientos muy particulares,
así como una estrecha relación con el sistema u operador al que caracterizan. Esto dará pié a introducir
justamente la Teoría de Distribuciones o Funciones Generalizadas estudiada en el Cap. 7. El estudio
particular de estos objetos no será sólo importante por su estrecha relación con la teoría de operadores,
sino que permitirá conocer una serie de propiedades de estos nuevos objetos de gran importancia a la
hora de operar correctamente con ellos.
A partir de este momento, el texto estará dedicado a analizar en detalle las transformaciones básicas
más importantes que permiten otras caracterizaciones de las señales y de los sistemas. Estudiaremos
así la particularización de la teoría general expuesta en el Cap. 4 para diferentes espacios de señales, lo
que dará lugar a los Caps. 8 (Desarrollos en Serie de Fourier), 9 (La Transformada de Fourier), y 11 (La
Transformada de Laplace). El primer caso analizado, Cap. 8, nos ha de servir para enteder muchos de los
conceptos algebraicos generales expuestos en los Caps. 2 y 4 dado que los espacios de señales sobre los que
se aplica (espacios de señales periódicas) son de dimensión in…nita pero con bases numerables, esto es,
constituídos por funciones '(x; m): Esto servirá para entender de forma práctica la metodología habitual
de análisis asociada a conceptos algebraicos tales como ’mejor aproximación posible en términos de la
métrica’ elegida a priori, relación entre la tranformación elegida y el sistema u operador a representar,
etc. La extensión a espacios de señales arbitrarias (no periódicas) nos llevará a la transformada de Fourier
analizada en el Cap. 9. Dada su importancia práctica, se pondrá tanto énfasis en exponer conceptos
algebraicos fundamentales como sus propiedades, signi…cado y tranformadas importantes. Desde el punto
de vista algebraico surgirá la misma metodología expuesta el el capítulo anterior con la complicación
adicional de requerir de conjuntos base continuos, es decir, no numerables, esto es, '(x; »): Una vez
más, estos conceptos algebraicos determinan las condiciones de existencia o no de la tranformación,
analizándose posteriormente sobre señales concretas de importancia. Se analizará y discutirá también
el importante problema de las transformadas de señales de distribuciones y señales de energía in…nita,
poniéndose especial énfasis en su signi…cado. Una vez más aparecerá el papel fundamental que juegan
las distribuciones, sin las cuales sería imposible representar adecuadamente la transformada de ciertos
tipos de señales. Finalmente se estudiará también la importancia de poder generar representaciones
espectrales de los sistemas u operadores que los describen.
Dada la importancia de la transformada de Fourier, en el Cap. 10 se abordan algunos ejemplos ideales
del análisis de sistemas de gran importancia en la práctica dado que constituyen la base para la posterior
aplicación a casos reales. Los ejemplos expuestos (ventaneados ideales de señales en los dominios real
y espectral, ejemplos básicos de modulación, etc.) se analizarán tanto en el dominio real como en el
dominio transformado, pudiéndose entender así las ventajas y desventajas de cada uno de los análisis,
las consecuencias de realizar cierto tipo de operaciones en uno u otro dominio, etc. La segunda parte
de este texto …nalizará con la exposición de un caso particular de transformada analizado sólamente
en parte en este texto, dado que su análisis riguroso se sale de los objetivos del mismo por aparecer
funciones tranformadas de…nidas sobre una variable compleja, esto es, F (s); s 2 C: Este será el caso de la
tranformada de Laplace. A pesar de ello, se expondrá lo mejor posible su relación con la teoría algebraica
general del Cap. 4, su relación con la tranformada de Fourier, y las propiedades más importantes, todo
ello encaminado a su posible aplicación práctica, aunque su análisis completo quede en parte pendiente
para futuros textos que analicen la teoría de señales y sistemas de variable compleja.
El presente texto se completa con una serie de apéndices en los que se recogen resúmenes algebraicos de
interés, demostraciones importantes de muchos de los análisis realizados en el texto, estudios de ciertas
señales de importancia que aparecen de forma habitual en el análisis de sistemas, etc. Aunque la primera
parte del texto recoge la teoría general asociada también a señales y sistemas de variable discreta, señalar
que su particularización a ciertos casos de interés y su relación con la teoría de variable continua se ha
dejado para un segundo texto, Vol. ST-II de la serie, que aparecerá posteriormente.
Con esta visión general de los contenidos del texto, que pretende dar una idea del proceso de construcción
de la teoría mencionado al comienzo, pasaremos a continuación a clari…car un poco más estos aspectos
a través de una serie de ejemplos sencillos que iremos además utilizando a lo largo de todo el libro.
Conviene mencionar en cualquier caso que los conceptos resumidos anteriormente pueden desarrollarse

6 c Emilio Gago-Ribas, 2002


°
de múltiples formas, y la comentada aquí es sólamente una visión muy particular de las muchas que se
pueden encontrar, todas ellas de igual o mayor validez si cabe; tómese como ejemplo la introducción
realizada por Lacoume en [1], o cualquiera otra de las referencias especí…cas de textos versados en la
teoría de señales y sistemas, [2]-[16]. Con todas ellas en mente, el autor considera que el resumen realizado
anteriormente resulta su…ciente para presentar un modelo inicial de teoría de señales y sistemas asociado
a cualquier problema físico, algunos de estos bien conocidos ya por cualquier lector.

1.2 Algunos ejemplos iniciales.


² Ejemplo 1. El problema eléctrico de una resistencia R sometida a una diferencia de potencia v(t)
y recorrida por una corriente i(t); Fig. 1.3, podrá ser representado de la siguiente forma a partir de
la ecuación que modela el problema,

Figura 1.3. Problema eléctrico de una resistencia de valor R:

v(t) = R i(t): (1.1)

1. La variable que describe el problema será de naturaleza continua, esto es, la variable temporal,
x ´ t 2 R: A su vez, el problema será unidimensional en t:
2. Las señales que describen el problema vendrán descritas por las funciones reales de variable real
v(t) e i(t); identi…cando la primera como la señal de salida del sistema, y la segunda como la
señal de entrada al mismo. Así, frente a una cierta distribución temporal de corriente i(t); el
sistema responderá con una cierta tensión v(t) = R i(t):
3. El sistema en cuestión vendrá descrito por un operador que representará el escalado por una
cantidad R 2 R de la magnitud de entrada; denotaremos por R ¢ I a dicho operador, siendo I
el operador identidad,

F = R ¢ I : i(t) ! v(t) = F [i(t)] = fR ¢ Ig [i(t)] = R i(t): (1.2)

² Ejemplo 2. El problema eléctrico de una bobina de valor L sometida a una diferencia de potencial
v(t); recorrida por una corriente i(t); Fig. 1.4, y descrita por la ecuación

di(t)
v(t) = L ; (1.3)
dt
podrá visualizarse de la siguiente forma:

Figura 1.4. Problema eléctrico de una inductancia de valor L:

1. La variable que describe el problema será de naturaleza continua, esto es, la variable temporal,
x ´ t 2 R: A su vez, el problema será unidimensional en t:

c Emilio Gago-Ribas, 2002


° 7
2. Las señales que describen el problema vendrán descritas por las funciones reales de variable real
v(t) e i(t); identi…cando la primera con la señal de salida y la segunda con la señal de entrada
o función excitación del sistema. Así, frente a una cierta distribución temporal de corriente
i(t); el sistema responderá con una cierta tensión v(t) = L di(t)=dt:
3. El sistema en cuestión vendrá descrito por un operador que representará la primera derivada
de la señal de entrada; denotaremos por F = L d=dt a dicho operador,
d di(t)
F=L : i(t) ! v(t) = F [i(t)] = L : (1.4)
dt dt

² Ejemplo 3. Consideremos el mismo problema presentado en el ejemplo anterior pero analizado


ahora en el dominio de la frecuencia, esto es, asumiendo una variación temporal armónica en la
forma ej!t ; siendo ! = 2¼f: Es sabido que, en este caso, la ecuación que describe el sistema se
obtiene sin más que calcular la transformada de Fourier de la ecuación (1.3), obteniéndose la bien
conocida relación,

v~(!) = j!L ~{(!); (1.5)

donde ZL = j!L es conocida como la impedancia de la bobina. Esta descripción alternativa del
problema nos llevará a identi…car las siguientes magnitudes:
1. La variable que describe el problema será de naturaleza continua, esto es, la variable espectral
(pulsación), x ´ ! 2 R: A su vez, el problema será unidimensional en !:
2. Las señales que describen el problema vendrán ahora modeladas por funciones complejas de
variable real6 v~(!) e ~{(!); identi…cando la primera como la señal de salida del sistema, y la
segunda como la señal de entrada al sistema o función excitación del sistema.
3. El sistema vendrá descrito ahora por un operador que se podrá identi…car fácilmente con un
escalado por el factor ZL = j!L 2 C en la forma,

F = j!L ¢ I : ~{(!) ! v~(!) = F [~{(!)] = j!L ~{(!): (1.6)

² Ejemplo 4. Consideremos ahora un sistema que represente una cierta operación entre los contenidos
de diferentes posiciones de la memoria de un ordenador, por ejemplo el especi…cado por la siguiente
ecuación y esquematizado en la Fig. 1.5,

y(n) = x(n + 1) + x(n) + x(n ¡ 1): (1.7)

En este caso, resulta evidente que:


1. La variable que describe el problema será de naturaleza discreta, esto es x ´ n 2 N; donde n
representa la n-ésima posición de memoria. El problema será, obviamente, unidimensional.
2. Las señales involucradas serán las sucuencias complejas7 de variable entera x(n) e y(n), donde
tanto x(n) como y(n) podrán tomar valores en la forma,

x(n) = Refx(n)g + j Imfx(n)g = x0 (n) + jx00 (n);


(1.8)
y(n) = Refy(n)g + j Imfy(n)g = y 0 (n) + jy 00 (n):

3. El sistema en cuestión vendrá descrito por un operador discreto que podrá representarse por,

Fd = Id(+1) + Id + Id(¡1) : x(n) ! y(n) = Fd [x(n)] = x(n + 1) + x(n) + x(n ¡ 1); (1.9)

identi…cando por Id al operador identidad operando sobre un espacio de señales discretas, y


por Id(+1) e Id(¡1) a los operadores desplazamiento en §1 unidades.
6 Con la notación v
~(!) e ~{(!) identi…caremos lo que habitualmente denominamos fasores de las señales v(t) e i(t): En
general, dichas magnitudes aparecerán aplicando la transformada de Fourier de las señales v(t) e i(t); esto es, v~(!) =
TF [v(t)] e ~{(!) = TF [i(t)] : El análisis de esta transformación, así como su descripción fasorial, constituirán uno de los
objetivos fundamentales del presente texto.
7 Imaginemos, por ejemplo, que dichas posiciones de memoria contienen números complejos descriptivos de alguna

magnitud.

8 c Emilio Gago-Ribas, 2002


°
Figura 1.5. Ejemplo de un sistema discreto sencillo.

² Ejemplo 5. Consideremos un problema de propagación de señales como el mostrado en la Fig. 1.6.


El problema inicial, recuadrado en la …gura, consiste en analizar la recepción de una cierta señal
emitida f (t) que viaja por dos trayectos, uno directo (trayecto A), y el otro tras una re‡exión en
un cierto obstáculo (trayecto B). La señal recibida será, por tanto, la suma de la señal que viaja
por el trayecto A más la señal que viaja por el trayecto B, esto es,

g(t) = f(t) + Af(t ¡ t0 ); (1.10)

siendo A(< 1) y t0 (¸ 0) la amplitud y el retraso debidos a la diferencia de longitudes entre los


trayectos A y B.Asociado a este primer problema se puede de…nir un segundo problema consistente

Figura 1.6. Problema de emisión, recepción y recuperación de una señal analógica


mediante un receptor digital.

en diseñar un sistema caracterizado por F¡1 que sea capaz de recuperar la señal original f(t)
emitida. Finalmente, es posible determinar un tercer problema que consistiría en el diseño de
un sistema digital o discreto del sistema F¡1 ; esto es, F¡1
d ; de forma que dicho sistema pudiese
transformar una secuencia g(n) obtenida a partir de muestras de la señal continua g(t = nTs ) para
obtener a la salida una secuencia f (n) ´ f (nTs ) a partir de la cual pudiésemos recuperar f(t):
Analizando el problema en conjunto, podríamos identi…car en este caso las siguientes magnitudes y
operadores:
1. Las variables que describen los diferentes problema serán: (i) de naturaleza continua en los
problemas 1 y 2, esto es la variable temporal, x ´ t 2 R:; (ii) de naturaleza discreta en el

c Emilio Gago-Ribas, 2002


° 9
problema 3, esto es x ´ n 2 Z: En todos los casos, los problemas serán unidimensionales.
2. Las señales involucradas vendrán representadas por las funciones reales de variable real f(t)
y g(t) en los problemas 1 y 2, y por las funciones reales de variable entera f (n) y g(n) en el
problema 3.
3. Cada uno de los problemas vendrá descrito por un cierto sistema. Así:
(a) El problema 1 se podrá caracterizar por,

F = I + A ¢ I(t0 ) : f(t) ! g(t) = F [i(t)] = I [f(t)] + A ¢ I(t0 ) [f (t)] = f (t) + Af (t ¡ t0 );


(1.11)

denotando por I al operador identidad, y por I(t0 ) al operador desplazamiento en t:


(b) El problema 2 vendrá identi…cado por el operador inverso del primer sistema, esto es,
F¡1 : En este caso, el problema asociado consiste claramente en identi…car de alguna forma
la invertibilidad del operador F descrito por (1.11), esto es, determinar si existe sistema
inverso y, en su caso, caracterizarlo adecuadamente,

F ¡! ¿F¡1 = [I + A £ It0 ]¡1 ? (1.12)

(c) Finalmente, el problema 3 llevará implicito el análisis de los procesos de conversión de


señales continuas a discretas (conversor A/D), y viceversa (conversor D/A), así como el
estudio de la posibilidad de representar sistemas continuos mediante sistemas discretos, en
este caso aplicado al operador inverso F¡1 ¡! F¡1 d :

² Ejemplo 6. Volvamos ahora a la con…guración descrita en el ejemplo 2, pero considerando como


señal de entrada conocida la tensión, y como señal de salida incógnita la corriente. La descripción
del sistema seguirá estando de…nida por la ecuación (1.3). Sin embargo, el problema así descrito
pasaría por una representación como la mostrada en la Fig. 1.7. En este caso:

Figura 1.7. Representación general del problema eléctrico de una inductancia donde
la señal de excitación es v(t) y la respuesta es i(t): Las condiciones iniciales del
problema vienen dadas por i(0) = 0:

1. La variable que describe el problema será de naturaleza continua, esto es la variable temporal,
x ´ t 2 R: A su vez, el problema será unidimensional en t:
2. Las señales que describen el problema serán las funciones reales de variable real v(t) e i(t);
identi…cando la primera con la señal de entrada y la segunda con la señal de salida. Así,
frente a una cierta distribución temporal de tensión v(t); el sistema responderá con una cierta
corriente i(t) tal que la relación v(t) = L di(t)=dt se satisface.
3. Esto signi…ca que la ecuación que describe el sistema estará asociada inicialmente con el op-
erador F de…nido en el ejemplo 2. Sin embargo, resolver el problema en este caso conllevará

10 c Emilio Gago-Ribas, 2002


°
determinar el operador inverso, F¡1 ; de forma que,
¸¡1
¡1 d
F = L : v(t) ! i(t) = F¡1 [v(t)] : (1.13)
dt
Además, es bien sabido por la teoría de ecuaciones diferenciales que la resolución de este
problema pasa no sólo por encontrar el operador inverso citado (en este caso un operador
integral), sino que la solución a i(t) para una cierta v(t) dada podrá existir y ser única si la
señal de salida (función incógnita) satisface, por ejemplo, unas ciertas condiciones iniciales, tal
como i(t = 0) = 0: Esto signi…ca que el problema completo vendrá descrito entonces de la
siguiente froma: (i) ecuación que describe el comportamiento del problema directo en términos
del operador diferencia F; y obtención del operador inverso F¡1 ; y (ii) las condiciones iniciales
que ha de satisfacer la señal de salida o respuesta del sistema inverso.
² Ejemplo 7. Consideremos ahora el problema del potencial '(~r; ~r1 ) generado en un punto del espacio
(descrito por el vector de posición ~r) por una carga puntual de valor Q localizada en otro punto del
espacio (descrito por su vector de posición ~r1 ), Fig. 1.7. Es sabido que la ecuación que describe este
problema viene dada por,

r2 '(~r; ~r1 ) = ¡Q ±(~r ¡ ~r1 ); (1.14)

donde r2 representa el operador Laplaciana en el espacio8 , y ±(~r ¡ ~r1 ) la distribución delta de


Dirac9 de…nida en el punto especi…cado por ~r1 : El problema así descrito tiene como solución la bien
conocida ecuación en la forma,
Q
'(~r; ~r1 ) = K ; (1.16)
j~r ¡ ~r1 j
donde el valor de la constante K 2 R se obvia en este caso dado que no es el objetivo fundamental de
este texto tratar su signi…cado. El problema tendrá entonces una representación como la mostrada
en la Fig. 1.8. En este caso:
1. La variable que describe el problema será de naturaleza continua, esto es la variable espacial,
x ´ ~r 2 R3 : A su vez, el problema será claramente tridimensional, por ejemplo, en (x; y; z): Es
importante destacar en este ejemplo que, debido a la simetría esférica del problema en torno al
punto de excitación ~r1 ; el problema se puede tratar como si fuera unidimensional en términos
de la variable R = j~r ¡ ~r1 j que describe la distancia entre el punto de observación y la fuente.
Esto nos llevaría a una representación del problema en términos de x ´ R 2 R:
2. Las señales que describen el problema serán las funciones reales de variable real Q ±(~r ¡ ~r1 ) y
'(~r; ~r1 ); respectivamente, identi…cando la primera con la señal de salida y la segunda con la
señal de entrada del operador directo. Nótese que esta notación es la inversa a la utilizada
normalmente, donde una cierta distribución espacial de carga, fuente de potencial o excitación
del problema, en este caso localizada en un punto del espacio, Q ±(~r ¡ ~r1 ); dará lugar a una
cierta respuesta a dicha fuente en forma de distribución de potencial en el espacio '(~r; ~r1 ):
Ambas magnitudes estarán relacionadas por la ecuación diferencial en (1.14).
3. La ecuación que describe el sistema estará en este caso asociada con el operador F = r2 ¢.
Ocurre entonces, como en el ejemplo 6, que resolver el problema en este caso conlleva determinar
el operador inverso, F¡1 ; de forma que,
£ ¤¡1
F¡1 = r2 ¢ ¡! '(~r; ~r1 ) = F¡1 [Q ±(~r ¡ ~r1 )] : (1.17)

La solución de '(~r; ~r1 ) en (1.16) para una cierta carga Q podrá existir y ser única si la señal
de salida (función incógnita) satisface unas ciertas condiciones de contorno, en este caso, por
ejemplo, '(~r ! 1; ~r1 ) ! 0: Esto signi…ca que el problema completo se podrá describir entonces
8 Por ejemplo, en coordenadas cartesianas, su expresión viene dada por,
@2 @2 @2
r2 = + + : (1.15)
@x2 @y 2 @z 2
9 En posteriores capítulos se tratará extensamente la de…nición de la distribución delta de Dirac, así como las posibles

interpretaciones asociadas a este objeto matemático.

c Emilio Gago-Ribas, 2002


° 11
de la forma siguiente: (i) la ecuación que describe el comportamiento del problema directo en
términos del operador diferencial F; y obtención del operador inverso F¡1 ; y (ii) las condiciones
de contorno que ha de satisfacer la señal de salida o respuesta del sistema inverso, en este
ejemplo, el valor de la función potencial en un punto muy alejado del punto de excitación.

Figura 1.8. Representación general del problema del potencial generado por una
carga puntual de valor Q:

1.3 Algunas ideas de partida.


Resulta evidente que la cantidad de ejemplos que se podrían citar es demasiado grande para una intro-
ducción que, por de…nición, debería resultar sencilla e intuitiva; sin embargo, estos ejemplos nos servirán
como referencia para sacar una serie de conclusiones o ideas de partida que nos permitan justi…car los
contenidos que presentaremos posteriormente. Teniendo en mente el esquema mostrado en la Fig. 1.2,
intentaremos a continuación ordenar estas ideas de partida.
Relativas a las señales.
² Con f(x); g(x); x(n) e y(n) denotaremos unas funciones cualesquiera descriptivas de las señales
o magnitudes involucradas en el problema representado. Dependiendo de la naturaleza de dichas
magnitudes, las señales o funciones que las representen podrán ser magnitudes escalares o vectoriales,
unidimensionales o multidimensionales, etc. En este momento puede resultar conveniente referirse
a la Secc. 2.3 para una clasi…cación un poco más completa de los tipos de señales que podremos
encontrarnos habitualmente.
En este sentido, los conceptos de señal y función serán para nosostros totalmente equivalentes;
hasta el momento, el autor no ha sido capaz de encontrar diferencias sustanciales entre ambos
concepto, exceptuando las asociadas al hecho de que el término señal hace una referencia directa a
la distribución de una magnitud física a lo largo de una cierta variable en los problemas prácticos,
siendo la función el objeto matemático encargado de representar o modelar el comportamiento de
dicha señal. En este sentido parece claro el término de señales escalares que aparece en el título del
volumen haciendo una referencia directa al tipo de señales que trataremos en él.
² Resulta evidente que, en función del problema analizado, las magnitudes representadas serán difer-
entes, véanse v(t); i(t); f (n); x(n); '(~r; ~r1 ); etc. en los ejemplos citados anteriormente. Así, las
unidades asociadas a una cierta función dependerán de la magnitud que representen. Con carácter
general pensaremos que una señal representada por una función f (x) tendrá unas unidades asociadas
que denotaremos por ”Un(f )”: Resulta también evidente que la variable independiente representará
otra magnitud descriptiva del problema, por ejemplo, el tiempo t; un cierto espacio unidimensional
cuyos puntos se distinguen por el valor de una coordenada, z; un espacio tridimensional descrito
por ~r; etc. Con el mismo carácter de generalidad, diremos que la variable independiente asociada

12 c Emilio Gago-Ribas, 2002


°
a f(x) tendrá unas unidades10 que denotaremos por ”Un(x)”. En relación con este aspecto cabe
resaltar que:
1. El tipo de funciones que analizaremos será unidimensional, esto es, dependientes de una sola
variable independiente, como queda re‡ejado también en el título del volumen. La teoría de
señal en el caso multidimensional estará basada en los coceptos expuestos en este texto.
2. La variable independiente podría ser una magnitud compleja, esto es, f(z); z 2 C: Las notables
diferencias que aparecen en uno y otro caso hace que en este volumen nos centremos en el caso
de variables reales, hecho que también queda recogido en el título del libro.
² En la práctica, las magnitudes asociadas a un determinado problema serán magnitudes reales (véanse
los ejemplos 1, 2, 5, 6 y 7). Sin embargo, existen casos importantes donde las señales estarán rep-
resentadas por funciones complejas. Estos casos estarán normalmente asociados al concepto de
dominios transformados que analizaremos en el presente texto (véase el ejemplo 3 ) pero también
pueden aparecer de forma normal por la propia naturaleza del problema representado (ejemplo 4).
De esta forma, y con carácter de generalidad a lo largo de este texto, trataremos con funciones com-
plejas de variable real; resulta evidente que toda la teoría expuesta se reducirá al caso más habitual
de funciones reales de variable real realizando las particularizaciones correspondientes. Estas partic-
ularizaciones serán objeto de análisis y/o comentarios especí…cos a lo largo de todos los desarrollos
presentados.
² El hecho de representar cualquier señal a través de una función nos llevará directamente a considerar
siempre como punto de partida diferentes conjuntos o espacios de señales organizados en base a alguna
característica común (por ejemplo, todas aquellas funciones que sean continuas en su dominio de
de…nición). A su vez, estos espacios de señales quedarán perfectamente de…nidos una vez se dote de
cierta estructura algebraica a esos conjuntos de señales. Esta estructura algebraica determinará no
sólo las operaciones básicas entre elementos del espacio (suma de funciones y producto de funciones
por un escalar), sino también la forma de medir dichas señales, bien sea asignando una regla de medida
a cada uno de los elementos (norma del espacio), bien sea estableciendo reglas para diferenciar dos
elementos cualesquiera (métrica del espacio).
Los principales espacios de señales con los que trabajaremos a lo largo del presente texto, así como la
de…nición de una estructura algebraica sobre dichos espacios se expondrá en el Cap. 2. Esta teoría
básica se particularizará posteriormente al caso continuo. La particularización al caso discreto se
abordará en el Vol. ST-II de esta serie.
² Otro de los objetivos principales asociados a la estructura algebraica establecida sobre un cierto
espacio de señales será el de de…nir formas de representación de cualesquiera elementos del espacio,
en este caso funciones arbitrarias complicadas, en términos de funciones bien conocidas de dicho
espacio (bases, producto escalar, teoría de la mejor aproximación, etc).
Este objetivo …nal será, en realidad, el punto de partida para desarrollar y entender lo que denom-
inaremos como11 transformadas y dominios transformados. En el Cap. 4 se expondrán los conceptos
principales que permiten entender cualquier tipo de transformación, particularizándose posterior-
mente a las transformaciones que se analizarán en el presente texto: el desarrollos en serie de Fourier,
la transformada de Fourier y la Transformada de Laplace. Las principales transformaciones asoci-
adas a las señales complejas de variable discreta se abordarán también en el Vol. ST-II de esta
serie.

1 0 Algunas unidades habituales de la variable independiente serán:

x´t ! Un(t) ´ s (segundos)


x´z ! Un(z) ´ m (metros)
x´! ! Un(!) ´ rad/s (radianes/segundo) (1.18)
x´¯ ! Un(¯) ´ rad/m (radianes/metro)
x´- ! Un(-) ´ rad (radianes)

1 1 Partiremos de una cierta función f (x); denominando por el término dominio real al dominio de de…nición de dicha

función sobre la variable x; y obtendremos una representación unívoca de dicha función en un nuevo dominio »; esto es
F (»): Al nuevo dominio de de…nición sobre la variable » le denominaremos como dominio transformado o dominio espectral.

c Emilio Gago-Ribas, 2002


° 13
Relativas a los sistemas.
A la vista de los ejemplos expuestos, resulta evidente que el concepto de operador describiendo matemáti-
camente un sistema que, a su vez, representa un determinado problema, conlleva también una serie de
ideas iniciales que intentaremos resaltar aquí. En primer lugar,
² Con F estaremos denotando al operador que describe la transformación de señales que dicho proble-
ma lleva asociada. Una vez más, el concepto de sistema estará íntimamente ligado a la creación de
un modelo de un determinado problema, independientemente de la complejidad de éste; la repre-
sentación matemática de un sistema acabará estando descrita habitualmente en la forma de uno o
varios operadores que, con carácter de generalidad, modelen o describan las diferentes transforma-
ciones de señales involucradas en el problema.
² Dependiendo de la naturaleza continua o discreta de las señales involucradas en un cierto problema
modelado por un sistema, así el operador F asociado podrá ser continuo o discreto, respectivamente.
² En este sentido convendrá recordar los conceptos básicos del algebra asociado al análisis de los op-
eradores o espacios de operadores, Cap. 3, así como la diferencia con otras aplicaciones importantes
como es el caso de los funcionales y las formas bilineales, que también aparecerán continuamente a
lo largo de este texto. En este sentido será fundamental recordar las diferentes representaciones que
un operador puede tomar dependiendo de la base elegida en el espacio sobre el que actúa, lo que se
traducirá en lo que denominaremos como representaciones espectrales de un operador.
² De vital importancia resultará estudiar formas de caracterización comunes a conjuntos especí…cos
de operadores. En este sentido, todos los desarrollos realizados en el presente texto serán válidos
para todos aquellos operadores que sean lineales, o lineales y, además, invariantes.
² Finalmente, y a la vista de los ejemplos citados previamente, cabe destacar la importancia de
determinar a priori si el problema representado es un problema directo o inverso. En este sentido, y
dada su importancia, describiremos este aspecto en la siguiente sección para clari…car de antemano la
denominación utilizada tanto en este texto como en futuros volúmenes dedicados a otros problemas
de señal.

1.4 Problemas directos e inversos.


La distinción entre un problema directo e inverso resulta fundamental si pensamos en la coherencia de
los desarrollos que realizaremos dado que, desde el punto de vista físico-matemático, la denominación
habitual es en muchos casos la contraria. Como ya se ha citado, en el presente texto nos centraremos en
los problemas directos, exponiendo aquellas técnicas de análisis más importantes, en particular aquellas
basadas en los dominios o espacios transformados. Este tipo de técnicas se podrá aplicar posteriormente
al análisis y la resolución de problemas inversos, como se abordará en futuros volúmenes de esta serie.
Problemas directos.
Denominaremos como problema directo a cualquier problema descrito en forma de un sistema represen-
tado a su vez por un cierto operador F coonocido que es capaz de transformar una señal de entrada
también conocida, Fig. 1.2; el objetivo …nal de dicho problema podrá ser:
1. La caracterización de la señal de salida frente a cualquier señal de entrada (este sería el caso en los
ejemplos 1, 2, 3, 4 y 5).
2. La obtención del operador inverso F¡1 (este sería el caso en los ejemplos 3 y 5).
Con este punto de partida en mente, resultará fundamental realizar los siguientes análisis:
² Estudiar por un lado los posibles espacios de señales involucrados en el problema.
² Estudiar la forma de caracterizar los sistemas u operadores que actuarán sobre dichos espacios de
señales.
² Estudiar las posibles formas de analizar dichos sistemas.

14 c Emilio Gago-Ribas, 2002


°
Problemas inversos.
En general, un problema cualquier, y en particular un problema físico podrá esquematizarse de la sigu-
iente forma:
² Una serie de magnitudes descriptivas del problema en cuestión, lo que conllevará la de…nición de un
espacio de señales sobre el que operar.
² Una serie de operadores aplicados sobre dichas magnitudes y, por lo tanto, sobre los espacios de
señales considerados.
² Una serie de condiciones especí…cas que han de satisfacer dichas magnitudes, habitualmente denom-
inadas condiciones frontera asociadas a las señales involucradas y que determinarán la existencia o
no de solución al problema total.
Con estos conceptos en mente, podríamos describir estos problemas por la siguiente ecuación general,
8 9
< F [u] = v; =
; (1.19)
: Condiciones sobre u ;

siendo u y v las magnitudes particulares descriptivas del problema (la primera desconocida y la segunda
conocida), y F el operador que las relaciona para el problema concreto. Con esta notación general parece
evidente que tanto el tipo de magnitudes como el tipo de operadores y el tipo de condiciones impuestas
determinarán el análisis …nal del problema, esto es, si tiene o no solución, el tipo de la misma, etc. Este
será el caso de los ejemplos 6 y 7.
En el caso particular de problemas asociados a física e ingeniería, el planteamiento general de la ecuación
(1.19) se puede especi…car un poco más:
² Las magnitudes involucradas serán habitualmente funciones reales (o complejas) de variable real (o
compleja), escalares o vectoriales, que dependerán inicialmente del espacio12 , ~r; y del tiempo, t. De
esta forma podremos identi…car a las magnitudes genéricas u y v con u(t; ~r) y v(t; ~r):
² El operador F será habitualmente un operador diferencial, FD ; que describirá el comportamiento
físico del sistema bajo análisis. Desde este punto de vista, el término sistema describirá de forma
cualitativa un determinado problema físico, y estará directamente relacionado con el operador que
caracterize dicho problema. Los operadores diferenciales nos llevarán directamente al estudio de la
teoría de ecuaciones diferenciales, así como al estudio de la existencia o no del operador inverso F¡1 ;
habitualmente operadores integrales que determinen la existencia o no de soluciones al problema;
F [u(t; ~r)] = v(t; ~r) ! u(t; ~r) = F¡1 [v(t; ~r)] : (1.20)
Desde este punto de vista, la función v(t; ~r) suele representar la excitación o fuente de un determinado
problema, y la función u(t; ~r) suele ser la función incógnita o función respuesta a dicha excitación13
(véase el ejemplo 7).
² Finalmente, las condiciones frontera del problema determinarán la solución o soluciones especí…cas
del problema concreto, determinando cuál de las in…nitas soluciones de la ecuación diferencial es la
que satisface dichas condiciones, o en su caso, si ninguna de ellas la satisface, quedando el problema
sin solución. Desde este punto de vista, las condiciones de contorno están unidas tanto al espacio de
señales sobre el que operemos, como al operador concreto analizado. En general, estas condiciones
frontera suelen denominarse condiciones de contorno si se aplican en el espacio ~r; o bien condiciones
iniciales si se aplican en el dominio del tiempo t: En un problema arbitrario en el espacio y en el
tiempo, ambas condiciones deberán ser establecidas para el problema concreto.
Así, el sistema resultante asociado a este tipo de problemas vendrá determinado por: (i) el operador
inicial F, y (ii) las condiciones frontera sobre la señal respuesta u(t; ~r): La resolución de estos problemas
estará directamente relacionada con la teoría de las funciones de Green basada en buena parte en los
conceptos que expondremos en el presente texto para el problema directo. En posteriores volúmenes de
esta serie se abordará el problema en profundidad.
1 2 De…niremos las coordenadas de un punto del espacio por su vector de posición ~r:
1 3 Desde el punto de vista esquemático de la Fig. 1.2 puede resultar extraño que v sea la función excitación, cuando se
representa como la respuesta del sistema a la señal u: Esto es debido a que, habitualmente, las magnitudes asociadas a la
señal v en problemas físicos concretos, suele corresponderse justamente con la excitación o fuente de dicho problema.

c Emilio Gago-Ribas, 2002


° 15
1.5 Abreviaturas y lista de símbolos.
En el presente texto, utilizaremos la siguiente notación:

K Conjunto de número naturales, enteros, reales o complejos (N; Z; R ó C):


VK Espacio vectorial de…nido sobre un cierto cuerpo de escalares K (K = R; C):
~a; ~b Elementos genéricos de un espacio vectorial VK :
f~ai gM Conjunto de M elementos de un espacio vectorial VK :
f~ai g Conjunto de in…nitos elementos de un espacio vectorial VK :
Dim fVK g Dimensión de un espacio vectorial VK :
f~ei gN Base de un espacio vectorial VK de dimensión N:
f~ei g Base de un espacio vectorial VK de dimensión in…nita.

x Variable independiente x 2 R:
n Variable independiente discreta n 2 N:
t; z Notaciones particulares para el tiempo y un espacio unidimensional.
f(x) Función compleja de variable real.
f0 (x) Función compleja de variable real, periódica de período X0 :
x(n) Función compleja discreta (de variable entera).
x0 (n) Función compleja discreta y periódica, de período N0 :
f(x; y) Función de dos variables (x; y) 2 R2 :
f(x; y) Función de dos variables x e y funcionando ésta segunda como un parámetro descriptivo.
F [~a] Funcional sobre un elemento ~a de un espacio vectorial VK :
F [~a; ~b] Forma bilineal sobre dos elementos ~a y ~b de un espacio vectorial VK :

F [~a] Operador sobre un elemento ~a de un espacio vectorial VK :


E(VK ) Espacios (conjunto) de operadores operando sobre VK :
L(VK ) Espacio (conjunto) de operadores lineales operando sobre VK :
LI(VK ) Espacio (conjunto) de operadores lineales e invariantes operando sobre VK :
Dom fFg Dominio de actuación de un operador F:
Ran fFg Rango o imagen de un operador F:
Ker fFg Núcleo de un operador F:
Aut fFg Conjunto de vectores propios (autovectores) de un operador F:
f¸i gF Conjunto de valores propios (autovalores) de un operador F:
F [f(x)] Operador sobre un elemento de un espacio vectorial de funciones.

DSF¡1 Desarrollo en serie de Fourier de señales periódicas.


DSF Coe…cientes del desarrollo en serie de Fourier.
ff (x; n)gN Conjunto …nito y discreto de N funciones en la variable x descritas por el parámetro n 2 N:
ff (x; n)g Conjunto in…nito y discreto de funciones en la variable x descritas por el parámetro n 2 N:
TF¡1 Transformada inversa de Fourier de señales aperiódicas.
TF Transformada de Fourier de señales aperiódicas.
ff (x; »)g Conjunto continuo de funciones en la variable x descritas por el parámetro » 2 R:
TL¡1 Transformada inversa de Laplace de señales aperiódicas continuas.
TL Transformada de Laplace de señales aperiódicas continuas.
ff (x; s)g Conjunto continuo de funciones en la variable x descritas por el parámetro s 2 C:
TZ¡1 Transformada Z inversa de señales aperiódicas discretas.
TZ Transformada Z de señales aperiódicas discretas.
fx(n; z)g Conjunto continuo de funciones discretas descritas por el parámetro z 2 C:

16 c Emilio Gago-Ribas, 2002


°
Espacios vectoriales de señales continuas
P (X0 ) Señales continuas de buen comportamiento de período X0 .
P(X0 ) Distribuciones periódicas continuas de período X0 .
P~ (X0 ) P (X0 ) + P(X0 ):
P 2 (X0 ) Subespacio de P~ (X0 ) de señales cuadrado integrables o de energía …nita sobre un período.
P D (X0 ) Subespacio de P~ (X0 ) de señales que satisfacen las condiciones de Dirichlet sobre un período.
S(¡1; 1) Señales continuas aperiódicas de buen comportamiento de…nidas para todo valor de x:
S(¡1; 1) Distribuciones aperiódicas de…nidas para todo valor de x:
~
S(¡1; 1) S(¡1; 1) + S(¡1; 1):
2
L (¡1; 1) ~
Subespacio de S(¡1; 1) de señales cuadrado integrables o de energía …nita.
LD (¡1; 1) ~
Subespacio de S(¡1; 1) de señales que satisfacen las condiciones de Dirichlet.

Espacios vectoriales de señales discretas


D(N0 ) Señales periódicas de período N0 .
D2 (N0 ) Subespacio de D(N0 ) de señales cuadrado sumables o de energía …nita sobre un período.
DD (N0 ) Subespacio de D(N0 ) de señales absolutamente sumables sobre un período.
D(¡1; 1) Señales aperiódicas de…nidas para todo valor de n:
D2 (¡1; 1) Subespacio de D(¡1; 1) de señales cuadrado sumables o de energía …nita.
DD (¡1; 1) Subespacio de D(¡1; 1) de señales absolutamente sumables.

Distribuciones de energía in…nita


±(x) Delta de Dirac.
± 0 (x) Primera derivada de la delta de Dirac.
± 00 (x) Segunda derivada de la delta de Dirac.
¡(x) Distribución de Heaviside o salto unidad.
sgn(x) Distribución signo.
c+ (x) Coseno a derechas.
s+ (x) Seno a derechas.

Distribuciones de energía …nita


P¢x (x) Pulso centrado de ancho ¢x:
T¢x (x) Señal triangular de ancho ¢x:
e+ (x) Exponencial a derechas.

Distribuciones periódicas de período X0


± 0 (x) Tren de deltas de Dirac.
± 00 (x) Tren de primeras derivadas de la delta de Dirac.
± 000 (x) Tren de segundas derivadas de la delta de Dirac.
P0;¢x (x) Tren de pulsos centrados de ancho ¢x.
e+0 (x) Tren de exponenciales.

c Emilio Gago-Ribas, 2002


° 17
18 c Emilio Gago-Ribas, 2002
°
2. Espacios de Señales

2.1 Introducción.
Una posible forma de abordar la construcción de la teoría de señales y sistemas consiste en recordar las
bases algebraicas relacionadas con el análisis funcional y los espacios de funciones, asumiendo desde el
principio que estos objetos matemáticos serán los que nos servirán para representar señales descriptivas
a su vez de magnitudes físicas. Este resumen algebraico nos permitirá tener una base sólida sobre la que
sustentar la teoría de señal que particularizaremos posteriormente. Comencemos entonces recordando
la de…nición de una función para posteriormente hacer una breve descripción o clasi…cación del tipo de
señales que aparecen habitualmente en la práctica.
Como punto de partida, conviene recordar que el concepto de función no es algo trivial en absoluto;
baste para ello entresacar algunas de las de…niciones o acepciones que aparecen frecuentemente en la
literatura, por ejemplo, las realizadas por Spivak en [19]:
² Una ”regla” que asigna a cada uno de ciertos números otro numero. Desde este punto de vista baste
citar los siguientes ejemplos: (i) la asignación de un número real a otro número real sería el caso de
una función real continua de variable real (x 2 R ! f(x) 2 R); (ii) la asignación de un número real
a un número entero sería el caso de una función real discreta (n 2 Z ! x(n) 2 R): Esta primera
de…nición, por lo demás especialmente intuitiva, ha de completarse habitualmente con de…niciones
más rigurosas desde un punto de vista matemático.
² Una ”regla” cualquiera que hace corresponder números a ciertos otros números, no necesariamente
una regla que pueda ser expresada mediante una fórmula algebraica ni siquiera mediante una condición
uniforme aplicable a todo nñumero; ni es tampoco necesariamente una regla a la que sea posible encontrar
una aplicación en la práctica. Más aún, la regla puede prescindir de algunos números y puede incluso no
estar del todo claro a qué números se aplica la función.
² Una función se de…ne a veces como una ”asociación” entre números; por desgracia la palabra ”asociación”
escapa a las objeciones hechas contra ”regla” sólamente por el hecho de que es todavía más vaga.
² La de…nición que los matemáticos han aceptado …nalmente para ”funcion” es un hermoso ejemplo de los
medios que han permitido incorporar las ideas intuitivas a la materia rigurosa. Lo que de verdad importa
preguntar acerca de una función no es ”¿que es una regla?” o ”¿qué es una asociación?”, sino ”¿qué es
lo que hace falta saber acerca de una función para saber absolutamente todo lo referente a ella?”. Quizás
en esta última pregunta esté una de las claves de la teoría de señal y de las pequeñas intenciones del
presente texto, esto es, poder ser capaces de identi…car el mayor número de propiedades asociadas o
”encerradas” en una señal que a su vez está describiendo el comportamiento de una magnitud física.
² De…nición ¿rigurosa?: Una función es una colección de pares de números con la siguiente propiedad: si
(a; b) y (a; c) pertenecen ambos a la colección, entonces b = c; en otras palabras, la colección no debe
contener dos pares distintos con el mismo primer elemento.
Tomando como base estas acepciones, determinaremos de…nir una señal como la distribución de una cierta
magnitud física a lo largo de una cierta variable independiente y que, de esta forma, vendrá descrita
o modelada por una cierta función. En base a esta de…nición, no resulta tampoco fácil establecer una
clasi…cación de señales y/o funciones.
Convendrá entonces tener presente la teoría de números para así de…nir de forma algebráica una función
y construir, a partir de ella, conjuntos o espacios de funciones. Esto nos llevará a recordar también la
teoría algebraica de espacios vectoriales, en particular, aquellos formados por conjuntos de señales con
alguna característica común. Para analizar estas características, expondremos previamente algunos de
los criterios básicos de partida para la clasi…cación de señales, haciendo notar que existen otros muchos
criterios y posibilidades de clasi…cación, algunos de los cuales irán apareciendo a lo largo del presente
texto, obviándose en esta descripción inicial por estar intrinsecamente relacionados con ciertos operadores
de interés que serán analizados en el Cap. 3.

19
Todas estas consideraciones nos llevarán a poder de…nir algunos espacios de señales de partida de gran
interés práctico, con los que trabajaremos a lo largo del presente texto, así como el álgebra particular
asociada a dichos espacios. Para ello, diferenciaremos entre espacios de señales continuas (de…nidas sobre
una variable independiente real) y espacios de señales discretas (de…nidas sobre una variable independi-
ente entera). Una vez de…nidos estos espacios de trabajo, dedicaremos una sección a recordar las posibles
formas de visualizar y representar las señales que componen estos espacios, de especial importancia a la
hora de su aplicación práctica.
También dedicaremos una sección a recordar la de…nición de una serie de parámetros prácticos especial-
mente útiles para caracterizar el comportamiento de las señales (potencia instantánea, energía, etc.), su
particularización a los espacios de partida previamente de…nidos, y su relación con el álgebra del espacio.
Para concluir este capítulo, expondremos alguna clasi…cación adicional de señales, así como aquellas op-
eraciones básicas entre señales que deberemos manejar perfectamente para operar de una forma e…ciente
con las señales que posteriormente aparezcan en cualquier problema práctico.
² Notación general: dado que muchos de los aspectos comentados en esta primera parte del texto
serán comunes tanto para señales de variable continua como para señales de variable discreta,
determinaremos usar la siguiente notación general:
1. Denotaremos por ¿ a una variable independiente genérica que identi…cará tanto a variables de
naturaleza continua como discreta; por ejemplo, ¿ ´ x; ¿ ´ n; etc.
2. Así, una función cualquiera la denotaremos por a(¿ ); identi…cando con esta notación tanto a
señales de variable continua como de variable discreta.
3. Finalmente. utilizaremos la notación particular f(x) ó x(n) siempre que nos estemos re…riendo
a los casos especí…cos de funciones de variable continua o de variable discreta, respectivamente.

2.2 Resumen del álgebra de funciones.


Comenzaremos por recordar brevemente el álgebra de funciones para poder así de…nir espacios o con-
juntos de éstas. Para ello, deberemos tener en mente los conjuntos de números más habituales y que
denotaremos de forma genérica por K: Los habituales serán los números naturales, los enteros, los reales
y los complejos, denotados por N, Z; R y C; respectivamente, o culaquier subconjunto de estos. En [18]
y [19], por ejemplo, se puede encontrar una excelente exposición de la teoría de funciones, así como del
análisis funcional.
² Funciones. Desde el punto de vista algebraico, de…niremos una función como una asociación (referirse
al Cap. 3) de un conjunto de números K1 en otro conjunto de números K2 ;
( )
a : K1 ¡! K2
; ¿ 2 K1 ; ¿ 0 = a(¿ ) 2 K2 : (2.1)
¿ 0 = a(¿ )

Los tipos de funciones más habituales serán los siguientes:


1. Funciones complejas de variable real. El conjunto de partida es R y el de llegada C;
( )
f : R ¡! C
; x 2 R; z = f(x) 2 C: (2.2)
z = f (x)

Este será el tipo de funciones usadas para modelar las señales de variable continua.
2. Funciones reales de variable real. Los conjuntos de partida y de llegada son el conjunto de los
números reales,
( )
f : R ¡! R
; x 2 R; z = f(x) 2 R: (2.3)
z = f (x)

Dado que R es un subconjunto de C; el análisis de estas funciones (las más importantes desde
el punto de vista del modelado de la mayoría de las señales de variable continua que aparecen
en la práctica) se podrá realizar como un caso particular de las funciones complejas de variable
real.

20 c Emilio Gago-Ribas, 2002


°
3. Funciones complejas de variable entera. El conjunto de partida es Z y el de llegada C;
( )
x : Z ¡! C
; n 2 Z; z = x(n) 2 C: (2.4)
z = x(n)

A este tipo de funciones las denotaremos habitualmente por x(n) y serán las encargadas de
modelar las señales de variable discreta.
4. Funciones reales de variable entera. El conjunto de partida es Z y el de llegada R;
( )
x : Z ¡! R
; n 2 Z; z = x(n) 2 R: (2.5)
z = x(n)

Igual que en el caso continuo, su análisis se podrá realizar como un caso particular de las
funciones complejas de variable discreta de…nidas previamente.
5. Funciones complejas de variable compleja. Tanto el espacio de partida como el de llegada es el
conjunto de los números complejos,
( )
f : C ¡! C
; s 2 C; z = f (s) 2 C: (2.6)
z = f (s)

Nótese que esta de…nición algebraica es la que fundamenta el primer criterio de clasi…cación
indicado en la Secc. 2.3 y que justi…ca la estructuración del presente texto, centrado en el
análisis de señales complejas de variable continua. El análisis de las funciones y señales de
variable discreta se realizará en el Vol. ST-II. Las funciones complejas de variable compleja
y la teoría de señal asociada quedaán fuera de los objetivos del presente texto.
² Funciones lineales. Una función será lineal si satisface la propiedad en (3.17) respecto a un cuerpo
de escalares K;

a : K1 ¡! K2 es lineal sii a(®¿ 1 + ¯¿ 2 ) = ®a(¿ 1 ) + ¯a(¿ 2 );


(2.7)
(¿ 1 ; ¿ 2 ) 2 K1 ; (a(¿ 1 ); a(¿ 2 )) 2 K2 ; (®; ¯) 2 K:

Con el término ’sii’ denotaremos la a…rmación ’sí y sólo sí’. Habitualmente, los cuerpos de escalares
a considerar serán los conjuntos de números reales o el caso más general de números complejos, esto
es, K = R ó C:

2.3 Algunos criterios para la clasi…cación de señales.


2.3.1 Señales de variable continua y de variable discreta.
Este criterio de clasi…cación está relacionado con la naturaleza de la magnitud que describa, y servirá
como base para la estructuración del presente texto, Vol. ST-I, dedicado prioritariamente a espacios
de variable continua, y su continuación, Vol. ST-II, dedicado a los espacios de variable discreta y su
relación con los de variable continua. Si la magnitud depende de una variable continua (por ejemplo la
variable temporal x ´ t), estaremos pensando en señales como la dibujada en la Fig. 2.1(a); por ejemplo,
la distribución de presiones en un determinado problema en función del tiempo, p(t): Si la naturaleza de
la propia magnitud hace que ésta ocurra de forma discreta, la magnitud quedará de…nida entonces sobre
una variable independiente n 2 Z; sirva como ejemplo los valores de la bolsa en cada uno de los días del
año, b(n): Este tipo de magnitudes tendrá una representación como la mostrada en la Fig. 2.1(b).
Especialmente importante desde el punto de vista de la ciencia e ingeniería es el caso en que las señales
discretas se obtengan a partir de señales que inicialmente son continuas, esto es f (x) ! xf (n) =
f (nXs ) ! f(n): Este será el caso habitual en el análisis de problemas físicos mediante técnicas numéri-
cas, en las técnicas digitales de tratamiento de señal, etc. En estos casos, una determinada magnitud
esencialmente continua es discretizada adecuadamente para poder representar y operar con un número
…nito de muestras de dicha magnitud de partida, Fig. 2.1(a). La base fundamental de este tipo de
transformaciones vendrá dada por el teorema de muestreo estudiado en el Vol. ST-II de esta serie.
Desde este punto de vista, la notación que usaremos será la siguiente:

c Emilio Gago-Ribas, 2002


° 21
p(t)
4

3
Ts
2

0 (a)
-1

-2

-3

-4
-5
b(n)
-4 -3 -2 -1 0
t 1 2 3 4 5

1,0

0,5

0,0 (b)

-0,5

-1,0
-10 -9 -8 -7 -6 -5 -4 -3 -2 -1 0
n 1 2 3 4 5 6 7 8 9 10

Figura 2.1. (a) Señal de variable continua p(t) y señal de variable discreta xp (n) =
p(nTs ) obtenida a partir de la señal p(t) muestreada en ciertos valores t = nTs ; (b)
Señal de naturaleza discreta b(n):

1. Señales de variable continua: f (x); g(x); h(x); .....


2. Señales de variable discreta: x(n); y(n); h(n); .....
3. Señales de variable discreta obtenidas a partir de señales de variable continua: xf (n) = f (nXs );
xg (n) = g(nXs ); xh (n) = h(nXs ); .....

2.3.2 Señales escalares y vectoriales.


Clasi…cación en función de la magnitud que representan. Magnitudes escalares típicas serán la presión,
la temperatura, el voltaje y la corriente eléctricas, etc. todas ellas representadas por funciones f (x):
Magnitudes vectoriales típicas serán, por ejemplo, el campo eléctrico, el campo magnético, la velocidad,
etc. que denotaríamos por f~(x): En el presente texto trabajaremos con señales que asumiremos repre-
sentan magnitudes escalares. Las propiedades, análisis y teoría asociada a éstas ha de servir como base
para su generalización y aplicación posterior a magnitudes vectoriales cuando éstas aparezcan. Dado
que el carácter escalar o vectorial depende de la magnitud y no de la variable, el concepto será extensivo
a funciones que representen señales de variable discreta.

2.3.3 Señales reales y complejas.


Las señales a tener en cuenta podrán venir representadas por funciones reales (2.3) o complejas (2.2),
siendo las primeras un caso particular de las segundas. Así,

a(¿ ) = Refa(¿)g + j Imfa(¿ )g = a0 (¿) + ja00 (¿): (2.8)

En la Secc. 2.8 se presentarán las diferentes formas de visualización de este tipo de señales.

2.3.4 Señales unidimensionales y multidimensionales.


En función de la magnitud que represente la variable independiente. Una función unidimensional f (x)
será aquella en que la magnitud representada dependa solamente de una sola variable. Un caso muy
habitual es que dicha variable represente el tiempo, x ´ t; sin embargo, en problemas prácticos dicha
variable puede representar cualquier otra magnitud, por ejemplo, x ´ R (coordenada radial, véase el
ejemplo 7 del Cap. 1), x ´ ! (pulsación espectral), etc.
Las señales que aparecerán en los problemas físicos habituales serán normalmente señales multidimen-
sionales. El caso práctico más general será el de las señales de cuatro dimensiones (4D), f (t; ~r); esto es,
la magnitud descrita por la función dependerá de las tres coordenadas espaciales1 (x; y; z) representadas
1O su versión equivalente en cualquiera de los sistemas de coordenadas conocidos.

22 c Emilio Gago-Ribas, 2002


°
f (x)
3
2
1
0 (a)
-1
-2
-3
-4
-5 -4 -3 -2 -1 0 1 2 3 4 5

3
f (x) x

2
(b)
1

0
-5 -4 -3 -2 -1 0 1 2 3 4 5
f (x) x
40

30

20 (c)
10

0
-1,00 -0,75 -0,50 -0,25 0,00 0,25 0,50 0,75 1,00
x

Figura 2.2. Ejemplos de señales: (a) sin discontinuidades, (b) con una discon-
tinuidad …nita, y (c) con una discontinuidad in…nita.

de forma genérica por su vector de posición ~r; y la coordenada temporal, t: Algunos casos de gran interés
práctico serán aquellos en los que alguna de las coordenadas espaciales se pueda reducir en dimensión
debido a alguna simetría del problema en cuestión, o bien a que el problema no sea dependiente del
tiempo, dando lugar a casos 3D y 2D como los siguientes:
1. f (t; ~r2D ) ´ f(t; x; z) ´ f (t; r; '); etc. (tiempo, espacio 2D).
2. f (t; z) ´ f (t; r); etc. (tiempo, espacio 1D).
3. f (~r2D ) ´ f (x; z) ´ f (r; '); etc. (espacio 2D).
En el presente texto trabajaremos con señales 1D, abordándose el estudio de algún caso habitual de
señales 2D de especial importancia en el análisis de problemas físicos relacionados con la propagación de
señales, Secc. 5.4.
También en este caso resulta trivial extender el concepto de funciones multidimensionales al caso de
variable discreta, esto es, x(n1 ; .....; nN ):

2.3.5 Señales continuas y discontinuas.


En función de sus propiedades de continuidad. El punto de partida en nuestro caso serán las señales
continuas dadas sus propiedades de buen comportamiento. En el caso de las señales discontinuas, la
clasi…cación se podría ampliar desde el punto de vista del número de discontinuidades (en número …nito,
in…nito numerable o in…nito no numerable), así como del tipo de discontinuidad (discontinuidades de
salto …nito o in…nito), Fig. 2.2.
En el presente texto, las propiedades de discontinuidad de una función nos llevarán directamente al
concepto de función generalizada o distribución analizado con más detalle en el Cap. 7. Como veremos, esta
generalización del concepto de función vendrá motivada en gran parte por algunos de los operadores más
usuales que, de forma sistemática, se aplican sobre los espacios de señales; en particular, los operadores
diferenciales.
Resulta importante destacar anticipadamente que no sólo las funciones discontinuas estarán relacionadas
…nalmente con una distribución, sino otro tipo de funciones que, por sus propiedades, no sean, por ejemplo
derivables. Resulta también evidente que el concepto de continuidad o discontinuidad no es aplicable a
señales discretas. A pesar de ello, estudiaremos las señales discretas que juegan un papel dual al de las
distribuciones en variable continua.

c Emilio Gago-Ribas, 2002


° 23
2.3.6 Dominio de de…nición.
Un aspecto importante en la clasi…cación de señales será el dominio sobre el que está de…nida la función,
que determinará algunas propiedades respecto a ciertas transformaciones de dichas señales. Podremos
entonces distinguir entre:
1. Señales …nitas, de…nidas en un cierto intervalo [a; b] en el caso continuo, o un cierto intervalo [N1 ; N2 ]
en el caso discreto.
2. Señales a derechas, de…nidas en el intervalo [a; +1) en el caso continuo, o en el intervalo [N1 ; +1)
en el caso discreto.
3. Señales a izquierdas, de…nidas en el intervalo (¡1; b] en el caso continuo, o en el intervalo (¡1; N2 ]
en el caso discreto.
4. Señales inde…nidas, o de…nidas en el intervalo (¡1; 1) para los casos, continuo y discreto.
En este sentido, resulta importante destacar que, desde el punto de vista de teoría de la señal, cualquiera
de las señales descritas previamente se podrá tratar de forma genérica como una señal de…nida en
(¡1; 1) mediante la introducción de alguna señal que recorte el comportamiento de la función original
al dominio de de…nición original. En este sentido, adelantaremos una vez más el importante papel que
jugarán las distribuciones en este proceso, por ejemplo, la distribución de Heaviside2 , ¡(x): Un ejemplo
sencillo sería el siguiente,

f (x) = e¡x 6= 0 para todo x;


(
e¡x ; x > 0
g(x) = f (x)¡(x) = (2.9)
0; x<0

En relación con el dominio de de…nición, resulta importante destacar la diferencia conceptual existente
entre el hecho de que una señal pueda ser nula fuera de un cierto intervalo [a; b]; del hecho de que fuera de
dicho intervalo tan siquiera esté de…nida, por ejemplo, porque la variable independiente no esté de…nida
para un cierto rango de valores3 . En este sentido, puede ser conveniente revisar alguna de las referencias
habituales de cálculo in…nitesimal, por ejemplo, el Cap. 3 de [19].

2.3.7 Señales periódicas y aperiódicas.


En función de posibles propiedades de periodicidad que presente la señal. Si las propiedades de una
señal f0 (x) de variable continua se repiten cada cierto intervalo X0 , o si ocurre lo mismo para una señal
de variable discreta x0 (n) cada cierto intervalo N0 , diremos que dicho intervalo es el período fundamental
(período) de la señal. Se cumplirá entonces que

f0 (x) = f0 (x + X0 ); 8x; (2.10)

x0 (n) = x0 (n + N0 ); 8n: (2.11)

En otro caso diremos que la señal es aperiódica. En la Fig. 2.3 se presentan dos ejemplos de señales
periódicas.
Esta clasi…cación resultará fundamental desde un inicio para analizar y comprender las transformaciones
de señales, por ejemplo, el desarrollo en serie de Fourier de señales periódicas, la transformada de Fourier
de señales aperiódicas, etc. En base a estas propiedades básicas, será posible generar diferentes espacios
de señales de partida sobre los que de…nir un álgebra adecuado que permita construir la teoría de espacios
de señales y operadores que describiremos a lo largo del presente texto y en el Vol. ST-II.
2 De…niremos
la distribución de Heaviside como aquella señal que vale la unidad para todo x > 0; y cero para todo x < 0:
3 Nótese
por ejemplo el caso de la variable radial r en un sistema de coordenadas esférico. Es sabido que dicha magnitud,
por representar distancias, no puede tomar nunca valores negativos y, por lo tanto, su dominio de de…nición será siempre
r 2 [0; +1):

24 c Emilio Gago-Ribas, 2002


°
f0(x)
1,0

0,5

0,0

-0,5

-1,0
-1 x0(n) 0 x 1 2 3
1,0

0,5

0,0

-0,5

-1,0
0 6 n 12

Figura 2.3. Ejemplos de señales periódicas con X0 = 1 y N0 = 6:

2.4 Resumen algebraico general.


Realizaremos a continuación un resumen de aquellos aspectos algebraicos que nos permitirán de alguna
forma sentar las bases para establecer una teoría general de análisis que posteriormente aplicaremos
a conjuntos o espacios de señales. Nos centraremos principalmente en describir conceptualmente la
importancia de tener presentes dichos conceptos algebraicos. Gran parte de los detalles matemáticos
asociados al resumen que se presenta a continuación se pueden encontrar en el Ap. A, escrito en forma
de un diccionario algebraico básico.Un análisis mucho más riguroso, extenso y en profundidad de los
conceptos aquí expuestos se puede encontrar en [17]-[21], o de una forma más orientada al análisis de
señal en [1]- [3].

2.4.1 Espacios de dimensión …nita.


² Espacio de partida. En primer lugar, de…niremos un espacio de partida como un conjunto de ele-
mentos fa; b; ....g arbitrarios caracterizados por una serie de propiedades. Aprovecharemos alguna
de estas propiedades para estableces ese conjunto de elementos de partida que denotaremos por V:
En la Fig. 2.4 se muestra una representación esquemática cuando los elementos del conjunto son
funciones.
² Métrica. Una vez de…nido un conjunto de partida, deberemos establecer alguna regla que nos permita
diferenciar dos elementos del conjunto. Esta regla se denomina habitualmente métrica del espacio,
Ap. A.1, y nos permite medir diferencias o distancias entre los elementos del conjunto. Dicha
distancia será una aplicación que asocia a dos elementos del espacio un valor real y positivo, esto
es,
( )
d : V £ V ¡! R+ ;
; a; b 2 V y ® 2 R+ : (2.12)
® = d(a; b);

La de…nición de métrica que se imponga determinará totalmente la forma de medir diferencias entre
elementos, y por lo tanto, establecerá los criterios a seguir para determinar si dos elementos del
espacio son iguales o diferentes en virtud de dichos criterios.
² Espacio vectorial. El siguiente paso importante será dotar a dicho conjunto de una estructura de espa-
cio vectorial respecto a un cierto cuerpo K de escalares, lo que permitirá generalizar las propiedades
vectoriales del espacio Euclídeo a los elementos de dicho espacio. Esto signi…ca que los elementos
del espacio inicial fa; b; ....g podrán ser analizados como vectores f~a; ~b; ....g: El espacio resultante
será un espacio vectorial dobre un cuerpo K de escalares, VK : Las dos propiedades asociadas a un
espacio vectorial que será necesario de…nir adecuadamente serán las leyes de operación (i) interna,
y (ii) externa respecto a K, esto es:

c Emilio Gago-Ribas, 2002


° 25
(i) La suma de vectores: ~a + ~b = ~c:
(ii) El producto por un escalar: ®~a = ~b; con ® 2 K:
En relación con la estructura de espacio vectorial, cabe destacar los siguientes aspectos:
1. La de…nición adecuada de estas operaciones, Ap. A.2, asegura que el resultado de ambas dará
lugar a un nuevo elemento perteneciente al espacio vectorial VK de origen. Así, podremos
representar nuevos elementos del espacio a través de la combinación de las sos operaciones,

~c = ®~a + ¯~b 2 VK . (2.13)

2. El siguiente concepto asociado a espacios vectoriales de gran importancia es el de independencia


lineal de dos vectores. Así, diremos que dos vectores son linealmente independientes cuando la
igualdad ®~a + ¯~b = ~0 se satisface sólamente si ® = ¯ = 0:
3. De…nidas estas operaciones, será ya posible construir combinaciones lineales de cualesquiera M
vectores del espacio, esto es,
M
X
f~am gM ¡! ®m~am = ~b 2 VK ; (2.14)
m=1

y generalizar a esos M vectores el concepto de independencia lineal,


M
X
f~am gM linealmente independientes =) ®m~am = ~0 sii ®m = 0 8m: (2.15)
m=1

4. Los conceptos de combinación lineal e independencia lineal nos llevan directamente al concepto
de base del espacio vectorial, esto es, aquel conjunto de N elementos f~em gN del espacio VK
linealmente independientes tales que todas las combinaciones lineales posibles entre ellos dan
lugar a todo el espacio VK : El número de elementos N de dicho conjunto será la dimensión del
espacio vectorial,
N
X
f~em gN ! ~a = ®m~em ; 8~a 2 VK : (2.16)
m=1

Nótese que estamos asumiendo de antemano que la dimensión N del espacio es …nita. Co-
mentaremos posteriormente las diferencias que aparecen en el caso de espacios cuya dimensión
no sea …nita.
² Norma. Una vez generado un espacio vectorial, de…niremos una aplicación que permita medir el
tamaño de los elementos de dicho espacio. Esta aplicación se denomina norma, Ap. A.3, y dará
lugar a un espacio vectorial normado,
( )
k¢k : VK ¡! R+ ;
; ~a 2 VK y ® 2 R+ : (2.17)
® = k~ak

De…nida una norma válida, será posible seleccionar como métrica particular del espacio la denom-
inada métrica natural o métrica inducida por dicha norma (caso habitual en los espacios de señales
con los que trabajaremos), esto es,

d(~a; ~b) =k ~a ¡ ~b k : (2.18)

² Producto escalar. Finalmente, será muy importante de…nir una nueva aplicación sobre el espacio
vectorial considerado de…nida como producto escalar, h~a; ~bi; Ap. A.4,
( )
h¢; ¢i : VK ! C;
; ~a; ~b 2 VK y ® 2 C: (2.19)
® = h~a; ~bi

26 c Emilio Gago-Ribas, 2002


°
Esta operación permitirá introducir en dicho espacio todas aquellas ventajas inherentes a la op-
eración del producto escalar de vectores en el espacio Euclídeo, todas ellas asociadas al concepto de
proyección de un elemento sobre otro. Por otro lado, de…nido un producto escalar válido, es posible
asegurar que la siguiente de…nición de norma es también válida,
k~ak = h~a; ~ai1=2 : (2.20)
Diremos entonces que es la norma inducida por el producto escalar. Nótese que, usando la métrica
inducida por la norma, es posible de…nir una métrica válida a partir del producto escalar,
d(~a; ~b) =k ~a ¡ ~b k= h~a ¡ ~b; ~a ¡ ~bi1=2 : (2.21)
En virtud de estos resultados, podemos entresacar las siguientes conclusiones de especial importan-
cia:
1. El tamaño de la proyección de un vector ~a sobre otro ~b vendrá dado por su producto escalar.
2. Si el tamaño de dicha proyección es nulo, esto es, h~a; ~bi = 0; diremos que ambos vectores son
ortogonales, ~a ? ~b:
3. Esto permite seleccionar, de entre todas las posibles bases del espacio, aquellas cuyos elementos
sean ortogonales entre sí, dando lugar a una base ortogonal,
f~em gN ortogonal ! h~em ; ~en im6=n = 0; m; n = 1 ..... N: (2.22)
Si la base es ortogonal, y la norma de cada elemento es la unidad, k~ei k = 1; hablaremos de
bases ortonormales.
4. El concepto de ortogonalidad de una base es sumamente importante dado que asegura que los
coe…cientes de la combinación lineal que permite expresar cualquier elemento ~a del espacio,
esto es, las componentes del vector ~a; en términos de la base, se pueden expresar como la
proyección del elemento original sobre cada uno de los elementos de dicha base, o lo que es lo
mismo, como el producto escalar del elemento ~a sobre cada elemento ~em ;
N
X
f~em gN ortogonal ! ~a = ®m~em ; con ®m = h~a; ~em i ; m = 1; :::::; N: (2.23)
m=1

5. Nótese que seguimos considerando que el espacio es de dimensión …nita N: Esto signi…ca que la
igualdad anterior es una suma de un número …nito de términos, y por lo tanto convergente. La
evaluación de dicha igualdad deberá hacerse en términos de la métrica de…nida en el espacio.
Así, si los coe…cientes ®m se calculan como el producto escalar h~a; ~em i ; podemos asegurar que
dicha igualdad es cierta en términos de la métrica inducida por el producto escalar, esto es,
µ N ¶
P
d ~a; ®m~em = 0: (2.24)
m=1

Dicho en otras palabras, el conjunto de coe…cientes f®m gN = fh~a; ~em igN son exactamente las
componentes del vector ~a en la base f~em gN : Este concepto, trasladado a espacios de dimensión
in…nita, dará lugar al término mejor aproximación posible a, que analizaremos a continuación.

2.4.2 Espacios de dimensión in…nita.


Todo el esquema algebraico descrito anteriormente sigue siendo válido si la dimensión del espacio vectorial
bajo estudio es in…nita (caso habitual en todos los espacios de funciones de variable continua, como
estudiaremos a lo largo del presente texto), teniendo en cuenta las siguientes consideraciones:
² Que la dimensión sea in…nita signi…ca que el número de elementos de cualquier base necesarios para
representar el espacio original VK es in…nito, esto es, f~em gN ! f~em g:
² Así, y asumiendo que la base sea ortogonal, un elemento cualquiera del espacio debería expresarse
ahora en los siguientes términos,
1
X
f~em gortogonal ! ~a = ®m~em ; con ®m = h~a; ~em i ; para todo m 2 Z; (2.25)
m=¡1

sin más que considerar la forma más general de un sumatorio in…nito a partir de (2.23).

c Emilio Gago-Ribas, 2002


° 27
² Resulta evisdente que, en estos casos, el sumatorio, por ser de in…nitos términos, podría ser conver-
gente o podría no serlo. Esto signi…ca que deberemos estudiar la convergencia de dicha serie. Desde
el punto de vista algebraico, la convergencia de dicha serie viene asegurada por la teoría de la mejor
aproximación, Ap. A.6. Enunciada en forma sencilla diremos que dicha teoría asegura: (i) que si
los coe…cientes vienen dados por h~a; ~em i ; la serie es convergente, y (ii) que la mejor aproximación
posible al elemento ~a en términos de una cierta base f~em g es la que viene dada por los coe…cientes
expresados en la forma h~a; ~em i de forma que la distancia natural entre el elemento original y su rep-
resentación como una serie es la menor posible. Habitualmente ocurrirá también que dicha distancia
tiende a cero,
µ ¶
P1
d ~a; h~a; ~em i ~em ! 0; (2.26)
m=¡1

siendo d la métrica inducida por el producto escalar. Nótese que el análisis de (2.26) está, de alguna
manera, identi…cando el signi…cado de la igualdad en (2.25) en términos de la forma de medir que
establece la propia de…nición que hagamos del producto escalar.
² Citar por último que, en ciertos casos, la combinación lineal en (2.25) puede dejar de tomar la forma
de una serie, y convertirse en un operador más general. Este será el caso de los espacios de señales
de variable continua, por ejemplo. Podríamos describir matemáticamente este caso como,

f~em g ortogonal ! ~a = CL [h~a; ~em i ~em ] ; (2.27)

identi…cando por CL a un cierto operador que represente de alguna forma la combinación lineal de
todos los elementos de la base.
² Sea cual sea el espacio, a la combinación lineal representada en (2.25) se la denomina desarrollo en
serie de Fourier del elemento ~a.
² Asociado a todos estos conceptos, existe un concepto más general que es el de la completitud de un
espacio vectorial que asegura que todo lo dicho hasta el momento es válido para cualquier elemento
de dicho espacio. A un espacio vectorial con un producto escalar válido de…nido que es, además,
completo se le denomina espacio de Hilbert (Ap. A.5). Desde el punto de vista algebraico, la
obtención de espacios de Hilbert garantiza que todos los aspectos mencionados, en particular el
relativo a las series de Fourier, sean válidos. Uno de los objetivos del presente texto será lograr
espacios (de señales) que sean espacios de Hilbert, abordando el problema de la completitud de los
espacios en la forma más sencilla posible, esto es, a través del análisis de (2.26) en virtud de la
métrica de…nida en cada caso.

2.5 Resumen algebraico aplicado a los espacios de señales.


El análisis general de señales debería llevar implícito el tener siempre en mente la teoría algebraica de
espacios de funciones, aún cuando ésta pueda intentar obviarse desde un punto de vista más práctico. La
importancia de tener presente siempre este álgebra viene determinada porque es ésta la que determina la
forma de cuanti…car los tamaños de cada función, las diferencias entre unas y otras funciones, su forma
de representación en términos de funciones más sencillas, etc. En esta sección expondremos, a modo de
resumen, las propiedades algebraicas más importantes que no perderemos nunca de vista a la hora de
trabajar con espacios de señales y que servirán como base para los desarrollos expuestos a lo largo del
presente texto. Estos conceptos nos permitirán entender algunos de los espacios de señales más utilizados
en la práctica, por ejemplo, el espacio L2 (¡1; 1)4 en el caso de señales continuas, y su correspondiente
en el caso de variable discreta D2 (¡1; 1); a los que llegaremos a través de construcciones lo más sencillas
posibles, pero que siempre tendrán como base este resumen algebraico. Realizaremos a continuación un
análisis particular de los conceptos expuestos en la Secc. 2.4 aplicados a conjuntos de señales.

2.5.1 Espacios de dimensión …nita.


² De…niremos en primer lugar un espacio de partida como un conjunto de elementos F = fa(¿ ); b(¿);
c(¿ ) ....g caracterizados por una serie de propiedades comunes, por ejemplo, cualquiera de los criterios
de clasi…cación especi…cados en la Secc. 2.3 u otras propiedades que aparecerán con posterioridad5 .
4 En el caso de señales f (x) de…nidas sólamente sobre el intervalo x 2 [a; b] hablaremos del espacio L2 [a; b]:
5 Por ejemplo, propiedades asociadas a la derivabilidad de una función, a su energía, etc.

28 c Emilio Gago-Ribas, 2002


°
Figura 2.4. Representación esquemática de dos espacios de señales: (a) complejas
de variable real, y (b) complejas de variable discreta, de…nidas para todos los valores
de la variable independiente.

Recordamos que dichos elementos denotarán funciones de variable continua o de variable discreta
indistintamente. De esta forma, la notación a(¿ ); b(¿ ); etc. identi…cará cualquier función de…nida
en la forma descrita en la Secc. 2.2 independientemente de cuál sea el cuerpo de escalares K1 de
partida. A modo de ejemplo,
(a) En el caso de señales de variable continua, uno de los espacios que tomaremos como punto de
partida será el espacio S(¡1; 1) de…nido como el conjunto de funciones a(¿ ) ´ f(x) complejas
de variable real de…nidas en el intervalo (¡1; 1) y que son de buen comportamiento6 para
todo valor de x en dicho intervalo de de…nición, Fig. 2.4(a).
(b) En el caso de señales de variable discreta, uno de los espacios que tomaremos como punto
de partida será el espacio D(¡1; 1); es decir, funciones a(¿ ) ´ x(n) complejas discretas
(sucesiones de números complejos) de…nidas en el intervalo (¡1; 1); , Fig. 2.4(b). En este
caso, el concepto de sucesiones de buen comportamiento carece de sentido en sí mismo, dada
la naturaleza discreta de las señales.
² Una vez establecido un cierto espacio F de funciones de partida, de…niremos una métrica válida, Ap.
A.1, que permita medir diferencias o distancias entre los elementos del conjunto. Dicha distancia
será ahora una aplicación en la forma,
( )
d : F £ F ¡! R+ ;
; a(¿ ); b(¿) 2 F y ® 2 R+ ; (2.28)
® = d(a(¿ ); b(¿ ));

es decir, que asocia a dos elementos del espacio un valor real y positivo. En este caso, la métrica
determinará claramente los criterios que estableceremos para decir que dos funciones cualesquiera
a(¿) y b(¿ ) del espacio son iguales o diferentes. El resultado será un espacio métrico de funciones.
A modo de ejemplo:
(a) En el caso de señales de variable continua, la métrica medirá distancias entre dos funciones f (x)
y g(x) del espacio S(¡1; 1), considerando éste como el espacio de partida. Así, la distancia
será una aplicación en la forma, Fig. 2.4(a),

d(f(x); g(x)) ¡! R+ ; f(x); g(x) 2 S(¡1; 1): (2.29)

(b) En el caso de señales discretas, la métrica medirá distancias entre dos sucesiones x(n) e y(n) del
espacio D(¡1; 1) de partida. Así, la distancia será una aplicación en la forma, Fig. 2.4(b),

d(x(n); y(n)) ¡! R+ ; x(n); y(n) 2 S(¡1; 1): (2.30)


6 El concepto de funciones de buen comportamiento suele ser utilizado generalmente para identi…car que las funciones

bajo estudio satisfacen aquellas propiedades que más nos interesen en cada caso. Por ejemplo, si sobre el espacio de
funciones se va a aplicar un operador diferencial de primer orden, funciones de buen comportamiento serían aquellas que
tuvieran asegurada la existencia de su primera derivada para todo x del intervalo de de…nición.

c Emilio Gago-Ribas, 2002


° 29
² El siguiente paso será dotar a dicho conjunto de una estructura de espacio vectorial respecto a un
cierto cuerpo K de escalares, Ap. A.2. Los vectores correspondiente serán en este caso funciones del
conjunto F de…nido inicialmente: ~a ´ a(¿ ); ~b ´ b(¿ ). El espacio resultante será un espacio vectorial
de funciones que donotaremos por FK : Las leyes de operación interna y externa serán en este caso
de la forma:
(i) La suma de vectores: ~a + ~b ´ a(¿) + b(¿ ) = h(¿ ):
(ii) El producto por un escalar: ®~a ´ ®a(¿) = p(¿ ); con ® 2 K:
Asumiendo que se ha dotado al espacio de funciones FK de una estructura de espacio vectorial,
podremos destacar los siguientes aspectos:
1. La de…nición adecuada de ambas operaciones hará que los elementos resultantes h(¿ ) y p(¿)
pertenezcan también a FK :
2. Podremos así aplicar el concepto de independencia lineal de dos funciones. Diremos entonces
que dos funciones son linealmente independientes cuando la igualdad7 ®a(¿) + ¯b(¿) = 0 se
satisface sólamente si ® = ¯ = 0:
3. De…nidas estas operaciones, será ya posible construir combinaciones lineales de cualesquiera M
funciones del espacio, esto es
M
X
fam (¿ )gM ¡! ®m am (¿ ) = a(¿ ) 2 FK ; (2.31)
m=1

y generalizar a esas M funciones el concepto de independencia lineal,


M
X
fam (¿ )gM linealmente independientes ¡! ®m am (¿ ) = 0 sii ®m = 0 8m: (2.32)
m=1

4. Los conceptos de combinación lineal e independencia lineal nos llevan directamente al concepto
de base del espacio vectorial de funciones. Así, denotaremos en forma genérica una posible base
de un espacio vectorial de funciones por el conjunto fem (¿ )gN ; todas las posibles combinaciones
lineales de dichos elementos darán así lugar al espacio de funciones original,
N
X
fem (¿)gN ! a(¿ ) = ®m em (¿ ); 8a(¿ ) 2 FK : (2.33)
m=1

Estas consideraciones son rigurosamente ciertas cuando la dimensión del espacio vectorial con-
siderado N es …nita. Este será el caso de algunos espacios de señales de variable discreta
analizados en el Vol. ST-II.
² De…niremos a continuación una norma válida, Ap. A.3, que dará lugar a espacios vectoriales de
señales normados, y que nos permitirá identi…car el tamaño asociado a cualquier función del espacio,
8 9
< k¢k : FK ¡! R+ ; =
; a(¿ ) 2 FK y ® 2 R+ : (2.34)
: ® = ka(¿ )k ;

De…nida una norma válida, será posible seleccionar como métrica particular del espacio la métrica
natural o métrica inducida por dicha norma (caso habitual en los espacios de señales con los que
trabajaremos), esto es,
d(a(¿); b(¿ )) = ka(¿ ) ¡ b(¿ )k : (2.35)

² Finalmente, de…niremos un producto escalar de funciones, Ap. A.4, en la forma,


( )
h¢; ¢i : FK ! C;
; a(¿ ); b(¿) 2 FK y ® 2 C: (2.36)
® = ha(¿ ); b(¿ )i
Cabe destacar los siguientes comentarios:
7 En este caso, el elemento 0 a la derecha de la igualdad representaría la función nula, esto es, ~a = a(¿ ) = 0; 8¿ :

30 c Emilio Gago-Ribas, 2002


°
1. El valor complejo asignado a dos funciones cualesquiera a(¿ ) y b(¿ ) por dicha aplicación mide
la proyección de la primera sobre la segunda.
2. Si el valor de dicha proyección es nulo, diremos que las funciones son ortogonales: ha(¿ ); b(¿ )i =
0 ! a(¿ ) ? b(¿):
3. Podremos pues considerar bases ortogonales, fem (¿ )gN del espacio FK bajo análisis, es decir,
en las que el producto escalar de todos sus elementos entre si es nulo. Si la norma de los
elementos de la base es la unidad, hablaremos de una base ortonormal,

fem (¿)gN ortogonal ! hem (¿ ); en (¿ )im6=n = 0; m; n = 1 ..... N: (2.37)

4. Podremos entonces expresar cualquier elemento a(¿ ) 2 FK como una combinación lineal de los
elementos de la base. Las componentes de a(¿ ) en dicha base, lo que es lo mismo, los coe…cientes
de la combinación lineal, podrán expresarse como la proyección del elemento original a(¿) sobre
cada uno de los elementos em (¿) de dicha base; en términos del producto escalar,
8
> PN
< a(¿) = ®m em (¿);
fem (¿ )gN ortogonal ! m=1 (2.38)
>
:
®m = ha(¿ ); em (¿ )i ; m = 1; :::::; N:

5. Asumiendo una vez más que el espacio vectorial FK de funciones es de dimensión …nita, po-
dremos asegurar que la expresión anterior asegura que la distancia natual entre la función a(¿ )
y su expresión en términos de la combinación lineal de las funciones de la base sea nula,
µ ¶
P
N
d a(¿); ha(¿); em (¿)i em (¿ ) = 0: (2.39)
m=1

Esto será cierto en aquellos espacios de funciones cuya dimensión sea …nita, por ejemplo, en
los espacios de señales de variable discreta periódicas de período N0 : Sin embargo, la mayor
parte de espacios de funciones a considerar serán de dimensión in…nita. Deberemos entonces
hacer notar las diferencias que aparecerán en este caso.

2.5.2 Espacios de dimensión in…nita.


Ya se ha citado que en la mayoría de los casos relacionados con espacios de señales, estos serán de
dimensión in…nita. Esto signi…ca que se requerirán conjuntos de base formados por in…nitas funciones
para lograr representar cualquier función arbitraria del espacio. Veamos la particularización general de
los conceptos expuestos en la Secc. 2.4.2 para el caso de los espacios de funciones.
² Como ya hemos citado en el caso general, que la dimensión de un espacio vectorial FK sea in…nita
signi…ca que el número de elementos de cualquier base necesarios para representar dicho espacio es
in…nito, esto es, fem (¿ )gN ! fem (¿ )g:
² Bases compuestas de un conjunto in…nito y numerable de funciones.
1. Asumiendo que la base considerada sea ortogonal, un elemento cualquiera del espacio debería
expresarse ahora en los siguientes términos,
8 P
1
>
< a(¿ ) = ®m em (¿ );
fem (¿ )gortogonal ! m=¡1 (2.40)
>
:
®m = ha(¿ ); em (¿ )i ; para todo m 2 Z;

sin más que considerar en este caso la forma generalizada de un sumatorio in…nito a partir de
(2.38).
2. Deberemos, por lo tanto, estudiar la convergencia de dicha serie. Una vez más, la convergencia
de dicha serie viene viene asegurada por la teoría de la mejor aproximación, Ap. A.6. Así: (i)
si los coe…cientes vienen dados por ha(¿ ); em (¿ )i ; la serie es convergente, y (ii) que la mejor
aproximación posible a la función a(¿) en términos de una cierta base fem (¿ )g ortogonal es
la que viene dada por los coe…cientes expresados en la forma ha(¿); em (¿)i de forma que la

c Emilio Gago-Ribas, 2002


° 31
distancia natural entre el elemento original y su representación como una serie es la menor
posible y tiende a cero,
µ ¶
P
1
d a(¿); ha(¿); em (¿)i em (¿ ) ! 0; (2.41)
m=¡1

siendo la métrica utilizada la inducida por el producto escalar. Nótese que, en este caso, el
examen de esta propiedad está identi…cando una vez más el signi…cado de la igualdad en (2.25)
en términos de la forma de medir que establece la propia de…nición que hagamos del producto
escalar.
² Bases compuestas de un continuo de funciones.
1. Asumiendo que la base considerada sea ortogonal, puede ser que la combinación lineal en (2.38)
se transforme ahora, no en una suma in…nita como en (2.40), sino en un operador integral en
la forma,
Z
fe(¿; »)gortogonal ! a(¿ ) = ®(»)e(¿ ; ») d»; (2.42)
»

siendo

®(») = ha(¿ ); e(¿ ; »)i ; » 2 R: (2.43)

Nótese el papel que juegan las funciones de la base como núcleo del operador integral, Secc.
3.6.4.
R Así, dicho operador actuando sobre un elemento arbitrario, (¢); puede interpretarse como
»
(¢)e(¿ ; ») d»:
2. La justi…cación del paso de combinaciones lineales en la forma de (2.38) a combinaciones lineales
continuas en la forma de un operador integral8 como en (2.42) no es sencilla desde un punto de
vista riguroso, e intentaremos abordarla en la forma más sencilla posible a lo largo del presente
texto.
3. En este caso, el análisis de la convergencia de una serie pasará a ser el análisis de la convergencia
del operador integral en (2.42). El análisis de la mejor aproximación posible requerirá del
análisis de,
µ Z ¶
d a(¿ ); ®(»)e(¿ ; ») d» ; (2.44)
»

siendo la métrica utilizada la inducida por el producto escalar. El examen de esta propiedad
identi…cará una vez más el signi…cado de la igualdad en (2.42) en términos de la forma de
medir que establece la propia de…nición que hagamos del producto escalar.
² Nótese que el paso de la primera representación en términos de una serie de Fourier en (2.40) a
un operador integral en la forma de (2.42) conlleva en sí mismo el paso de conjuntos numerable a
conjuntos continuos de funciones, esto es,

fem (¿)g ! fe(¿ ; »)g ó bien fe(¿ ; m)g ! fe(¿ ; »)g : (2.45)

En cualquiera de los casos, el concepto existente detrás de estos desarrollos (representación de


cualquier señal en términos de un conjunto de señales conocidas) será la base para obtener y en-
tender los conceptos de transformadas de señales y dominios transformados abordado en el Cap. 4 en
su forma más general. La forma de generalizar este concepto será la de utilizar siempre la notación

fe(¿; ¿ 0 )g ; (2.46)

donde ¿ representará la variable de de…nición propia de las funciones (x ó n) y ¿ 0 representará una


variable actuando como un parámetro descriptivo de las funciones de un conjunto (m 2 ZN en el
caso de un conjunto …nito, m 2 Z si es un conjunto in…nito y numerable, y » 2 R si es un conjunto
continuo).
8 Nótese con anticipación que la integración no es más que una suma sobre una variable continua. En estos casos haremos

referencia a una suma continua como el equivalente a un operador integral.

32 c Emilio Gago-Ribas, 2002


°
² Todos estos análisis han de llevarnos de una forma relativamente sencilla al concepto de completitud
de un espacio vectorial de señales, y por lo tanto, al concepto de espacios de señales que son espacios de
Hilbert (Ap. A.5). Para ello, partiremos de una serie de espacios de…nidos a partir de propiedades
sencillas sobre los que iremos imponiendo restricciones de forma que ampliaremos o reduciremos
el número de elementos de dicho espacio. El espacio …nal resultante será un espacio de Hilbert,
por ejemplo, el espacio L2 (¡1; 1): Este proceso será el seguido en la parte dedicada al análisis de
señales de variable continua, Vol. ST-I, y posteriormente en el Vol. ST-II dedicado a las señales
y los sistemas de variable discreta.

2.5.3 Comentarios …nales.


Con estos conceptos en mente, será posible considerar dos propiedades básicas como punto de partida
para de…nir espacios de señales iniciales con los que trabajar: (i) señales de variable continua y de variable
discreta, y (ii) señales periódicas y aperiódicas. Como quedará claro a lo largo del presente texto, estas
dos propiedades se eligen como puntos de partida en relación con la dimensión de los espacios de señales
a que dan lugar y, consecuentemente, al concepto posterior de transformada de dichos espacios, Cap. 4.
Así, veremos como:
1. La dimensión de un espacio de señales de variable discreta puede ser …nita, esto es, se podrán elegir
bases de dicho espacio compuestas por un número …nito N de funciones. En este caso identi…caremos
la base genérica de funciones por,

fe(¿ ; ¿ 0 )gN ´ fÁ(n; m)gN ; m = 0; :::::; N ¡ 1: (2.47)

2. La dimensión de un espacio de señales de variable continua y periódicas de período …jo es in…nita y


numerable, esto es, se podrán elegir bases de dicho espacio compuestas por un número in…nito pero
numerable de funciones. Identi…caremos en este caso las funciones base por,

fe(¿; ¿ 0 )g ´ f'(x; m)g; m 2 Z: (2.48)

3. La dimensión de un espacio de señales aperiódicas de variable continua es in…nita y no numerable, esto


es, cualquier conjunto base de dicho espacio estará formado por un continuo (y por lo tanto en
número in…nito) de funciones identi…cadas por una variable »; esto es,

fe(¿ ; ¿ 0 )g ´ f'(x; »)g; » 2 R (C): (2.49)

Pasaremos a continuación a describir las características más importantes de dichos espacios de partida,
así como el álgebra particular que de…niremos sobre ellos y que usaremos de forma extensiva a lo largo
del presente texto. Aunque estas de…niciones algebraicas no son únicas, son las más utilizadas puesto
que están relacionadas directamente con la medida de ciertos parámetros físicos asociados a las señales
como se verá en la Secc. 2.9.

2.6 Espacios de partida de señales de variable continua.


Teniendo en cuenta la clasi…cación inicial de señales expuesta en la Secc. 2.3 y el resumen algebraico
expuesto en la Secc. 2.5, expondremos a continuación los principales espacios de señales continuas que
consideraremos como punto de partida para los desarrollos expuestos en el presente texto.

2.6.1 Señales periódicas.


Un caso muy importante de señales en la práctica son aquellas que se repiten de forma continuada cada
cierto valor de la variable independiente x: Al menor de dichos valores de repetición se le denomina período
fundamental9 de la señal, X0 . Una señal periódica se de…ne entonces como una señal f0 (x) de…nida en
el intervalo (¡1; 1) tal que se repite de forma inde…nida para todos los intervalos [kX0 ; (k + 1)X0 ]; es
decir,

f0 (x + X0 ) = f0 (x); 8x: (2.50)


9 Nótese que cualquier divisor entero X0 =m de dicho valor también será un período válido de la señal.

c Emilio Gago-Ribas, 2002


° 33
Re{f0 (x)}
1,5

1,0
P(X0)
0,5

0,0

-0,5
f0(x)
-1,0

-1,5
-1
Im{f0 (x)}
0 x 1 2 3

1,5

g0(x) 1,0

0,5

0,0

-0,5

-1,0

-1,5
-1 0 x 1 2 3

Figura 2.5. Representación genérica del espacio de señales continuas P (X0 ); así
como de un elemento arbitrario de dicho espacio.

² Álgebra del espacio.


De…niremos el espacio vectorial de señales P (X0 ) respecto al cuerpo de escalares C como el conjunto
de funciones, Fig. 2.5:
(a) Complejas10 de variable real, f0 : R ! C:
(b) De…nidas y continuas11 en el intervalo (¡1; 1); y de período fundamental X0 :
(c) Como elemento de un espacio vectorial, identi…caremos un vector genérico del espacio con la
función f0 (x); de forma que tanto la suma como el producto por un escalar del cuerpo C se
de…nen punto a punto.
(d) Un elemento genérico de dicho espacio de funciones vendrá descrito por f0 (x) = Re ff0 (x)g +
j Im ff0 (x)g = jf0 (x)j ej'f0 (x) ; Fig. 2.5.
En este caso, el producto escalar, la norma y la métrica se de…nen sobre un período arbitrario de la
señal, hX0 i ; de la siguiente forma,
Z
hf0 (x); g0 (x)i = f0 (x)g0¤ (x) dx 2 C; (2.51)
hX0 i

Z
kf0 (x)k2 = hf0 (x); f0 (x)i1=2 = jf0 (x)j2 dx 2 R+ ; (2.52)
hX0 i

Z
d2 (f0 (x); g0 (x)) = kd0 (x)k2 = hd0 (x); d0 (x)i1=2 = jd0 (x)j2 dx 2 R+ ;
hX0 i (2.53)
d0 (x) = f0 (x) ¡ g0 (x):

Nótese que tanto el producto escalar como la norma y la métrica inducidas se de…nen integrando en
cualquier intervalo de longitud X0 : Esta de…nición es debida a que si consideramos las expresiones
en (2.54), (2.55) y (2.56), sus valores no serán convergentes, esto es, tanto el producto escalar como
la norma y la métrica tienden a in…nito y, por lo tanto, no toman valores acotados. En virtud de las
10 El espacio P (X ) así de…nido también contiene a todas las funciones reales de variable real de período X que pueden
0 0
estudiarse como una particularización de las funciones complejas cuando la parte imaginaria de la función es nula. Lo
mismo ocurrirá para cualquier otro espacio de señales complejas.
11 La continuidad a lo largo de todo el intervalo exigida inicialmente en la de…nición del espacio determina el hecho de

que los valores de la función en los extremos de sus períodos sean iguales.

34 c Emilio Gago-Ribas, 2002


°
Re{f(x)}
3

0
S(-`,`) -1

f(x)
-2

-3
-2
Im{f(x)}
-1 0
x 1 2 3

g(x) 2

-1

-2

-3
-2 -1 0 x 1 2 3

Figura 2.6. Representación genérica del espacio de señales continuas S(¡1; 1);
así como de un elemento arbitrario de dicho espacio.

propiedades de repetición de las señales periódicas, parece evidente que la enterior de…nición resulta
razonable. De hecho, como se verá en la Secc. 2.9, el valor medio de una señal periódica se reduce
de forma natural a su valor medio en un período, por ejemplo.
² Notaciones habituales.
(a) En el caso particular en que x represente la variable temporal t; es decir, señales f0 (t); el
período fundamental se suele denotar por T0 :
(b) En el caso particular en que x represente una variable espacial, es decir, señales f0 (z); el
período fundamental se suele denotar por ¸0 : Esta notación adquiere todo su signi…cado en
señales sinusoidales que representan fenómenos de propagación en el tiempo t y en el espacio
z; siendo ¸0 la longitud de onda fundamental a lo largo del espacio, Secc. 5.4. Por extensión
de este caso, utilizaremos en general dicha notación.

2.6.2 Señales aperiódicas.


En los problemas prácticos, los espacios de señales más habituales son el espacio L2 (¡1; 1) o el espacio
L2 [a; b]: Dichos espacios, que resultan ser espacios de Hilbert, es decir, un espacio completo respecto a la
métrica inducida por el producto escalar de…nido sobre él, se han desarrollando históricamente a partir
de otros espacios de señales iniciales que luego han resultado ser espacios no completos (Ap. A.5).
En nuestro caso, trabajaremos con el espacio L2 (¡1; 1); es decir, el espacio de funciones de…nidas para
todo el intervalo de la variable x: Para construir este espacio, partiremos de un espacio de señales que
denominaremos S(¡1; 1):y que presentaremos seguidamente. Futuras restricciones y/o ampliaciones
de este espacio darán lugar al espacio L2 (¡1; 1):
² Álgebra del espacio.
De…niremos el espacio vectorial de partida S(¡1; 1) respecto al cuerpo C de escalares como el
conjunto de señales, Fig. 2.6,
(a) Complejas de variable real, f : R ! C:
(b) De…nidas y de buen comportamiento en el intervalo (¡1; 1); esto es, para todo x 2 R:
(c) Como elemento de un espacio vectorial, identi…caremos un vector cualquiera con la función
f (x); de forma que tanto la suma como el producto por un escalar se de…nen punto a punto.
(d) Un elemento genérico de dicho espacio de funciones será f (x) = Re ff (x)g + j Im ff(x)g =
jf (x)j ej'f (x) ; Fig. 2.6.

c Emilio Gago-Ribas, 2002


° 35
El producto escalar, la norma y la métrica vendrán de…nidos en este caso por,
Z 1
hf(x); g(x)i = f (x)g¤ (x) dx 2 C; (2.54)
¡1

Z 1
2
kf(x)k = hf(x); f (x)i = jf (x)j2 dx 2 R+ ; (2.55)
¡1

Z 1
2
2
d (f(x); g(x)) = kd(x)k = hd(x); d(x)i = jd(x)j2 dx 2 R+ ;
¡1 (2.56)
d(x) = f (x) ¡ g(x):

Nótese que la métrica, como medida de la diferencia existente entre dos elementos cualesquiera del
espacio de funciones de…nida a partir de este producto escalar, no es más que el error cuadrático
medio utilizado normalmente para analizar la diferencia entre dos funciones. El espacio así de…nido
resulta muy útil en el análisis de problemas físicos, en particular porque el producto escalar induce
una norma que está directamente relacionada con la energía de la señal, como se verá en la Secc.
2.9, es decir, de la integral o área bajo la curva del cuadrado del módulo de la función, y no de sus
valores punto a punto, lo que determinará ciertas características particulares desde el punto de vista
de distinguir dos señales o funciones diferentes dentro del espacio12 .
² Notaciones habituales.
(a) En el caso particular en que x represente la variable temporal, x ´ t; de forma que las señales
vendrán descritas por f(t):
(b) En el caso particular en que x represente una variable espacial 1D, utilizaremos la notación
x ´ z; es decir, que las señales vendrán descritas en nuestro caso por f(z):
(c) En el caso en que la variable independiente represente el espacio 3D ó 2D, las variable x debería
ser sustituída por el vector de posición ~r de cada punto del espacio, de forma que las señales
vendrán descritas en este caso por funciones f(~r):
² Otros espacios de partida. En general, se podrán considerar espacios de partida todos aquellos que
surgen de la generalización de los valores (¡1; 1) a diferentes situaciones de interés; los espacios
resultantes se podrán denotar por S[a; b]; S[a; 1) y S(¡1; b]: Las de…niciones del producto escalar,
norma y métrica serán las misma sin más que sustituir adecuadamente los límites de integración.
Con estas consideraciones en mente, generalizaremos la notación usada en (2.54), (2.55) y (2.56) de
la siguiente forma,
Z
hf (x); g(x)i = f (x)g¤ (x) dx 2 C; (2.57)
x

Z ¸1=2
kf (x)k = hf (x); f(x)i1=2 = jf (x)j2 dx 2 R+ ; (2.58)
x

Z ¸1=2
1=2 2
d(f(x); g(x)) = kd(x)k = hd(x); d(x)i = jd(x)j dx 2 R+ ;
x (2.59)
d(x) = f (x) ¡ g(x):
R
donde x (¢) dx denota los límites de integración adecuados en x respecto al dominio de de…nición
de las señales.
12 Resulta evidente que con la presente de…nición de métrica, dos señales f (x) y g(x) que di…eran sólamente en puntos

aislados, serán la misma señal desde el punto de vista de la métrica de…nida. Aunque esta condición requeriría que alguna
de las dos funciones fuese discontinua, y éstas no estan contempladas en nuestro espacio de funciones inicial, veremos que
en algún momento deberemos considerarlas dentro de dicho espacio, de forma que el comentario anterior tomará entonces
todo su signi…cado.

36 c Emilio Gago-Ribas, 2002


°
2.7 Espacios de partida de señales de variable discreta.
De forma similar a los espacios de señales continuas expuestos en la sección anterior, es decir, teniendo
en cuenta la clasi…cación inicial de señales expuesta en la Secc. 2.3 y el resumen algebraico expuesto
en la Secc. 2.5 que deberemos mantener siempre en mente, expondremos a continuación los principales
espacios de señales de variable discreta que consideraremos como punto de partida para los desarrollos
particulares expuestos en el Vol. ST-II.

Re{x(n)}
1,0
.
0,5
.
.
0,0 .

x'(-2)+jx''(-2)
-0,5
x'(-1)+jx''(-1)
-1,0 x'(0)+jx''(0)
-4 -2 0 2 4
n 6 8 10 12 14
x'(1)+jx''(1)
Im{x(n)}
1,0 x'(2)+jx''(2)
x'(3)+jx''(3)
0,5
x'(4)+jx''(4)
0,0 .
.
-0,5 .
.
-1,0
-4 -2 0 2 4
n 6 8 10 12 14

Figura 2.7. Ejemplo de una señal de variable discreta y su visualización como una
secuencia de valores ordenados por la variable independiente n:

En este caso, es importante destacar el hecho de que una señal discreta puede ser visualizada como una
sucesión de valores ordenados en términos de la variable entera n; dicha ordenación se podrá escribir
como un vector (…la o columna) que contiene a la sucesión de valores en cuestión, Fig. 2.7. Esta
representación será especialmente importante desde un punto de vista computacional, y también teórico
cuando las sucesiones sean …nitas, dado que podrán establecerse relaciones de tipo matricial dada su
naturaleza discreta. Resulta evidente que este tipo de representaciones no será posible en el caso de
señales de variable continua dado que en cualquier intervalo [a; b] de de…nición, el número de valores de
la señal en dicho intervalo será no numerable.

2.7.1 Señales periódicas.


De forma similar a como se realizó para señales periódicas de variable continua en la Secc. 2.6.1, diremos
que una señal de variable discreta es periódica si el comportamiento de dicha función se repite de forma
continuada cada cierto valor de la variable independiente n: Al menor de dichos valores de repetición le
denominaremos período fundamental de la señal, N0 . Una señal periódica se de…ne entonces como una
señal x0 (n) de…nida en el intervalo (¡1; 1) tal que se repite para todos los intervalos [kN0 ; (k + 1)N0 ];
es decir,

x0 (n + N0 ) = x0 (n); 8n: (2.60)

² Álgebra del espacio.


De…niremos el espacio vectorial de señales D(N0 ) sobre el cuerpo C de escalares como el conjunto
de funciones, Fig. 2.8:
(a) Complejas de variable entera, x0 : Z ! C:
(b) De…nidas en el intervalo (¡1; 1) y de período fundamental N0 :
(c) Como elemento de un espacio vectorial, identi…caremos un elemento genérico con la sucesión
x0 (n); de forma que tanto la suma como el producto por un escalar se de…nen punto a punto13 .
1 3 Para cada valor de la variable independiente n:

c Emilio Gago-Ribas, 2002


° 37
Re{x0(n)}
1,0

0,5

D(N0)
0,0

x0(n) -0,5

-1,0
-5
Im{x0(n)}
0 n 5 10 15

1,0
y0(n)
0,5

0,0

-0,5

-1,0
-5 0 n 5 10 15

Figura 2.8. Representación genérica del espacio de señales de variable discreta de


período N0; D(N0 ); así como de un elemento arbitrario de dicho espacio.

(d) Un elemento genérico de dicho espacio de funciones vendrá descrito por x0 (n) = Re fx0 (n)g +
j Im fx0 (n)g = jx0 (n)j ej'x0 (n) ; Fig. 2.8.
En este caso, el producto escalar, la norma y la métrica se de…ne sobre un período arbitrario, hN0 i ;
de la siguiente forma,
X
hx0 (n); y0 (n)i = x0 (n)y0¤ (n) 2 C; (2.61)
hN0 i

X
kx0 (n)k2 = hx0 (n); x0 (n)i = jx0 (n)j2 2 R+ ; (2.62)
hN0 i

P
d2 (x0 (n); y0 (n)) = kd0 (n)k2 = hd0 (n); d0 (n)i = jd0 (n)j2 2 R+ ;
hN0 i
(2.63)
d0 (n) = x0 (n) ¡ y0 (n):

Nótese que tanto el producto escalar como la norma y la métrica inducidas se de…nen integrando
en cualquier intervalo de longitud N0 : Esta de…nición es debida, igual que en el caso de señales
continuas, a que si consideramos las expresiones en (2.64), (2.65) y (2.66), los valores de las series
que de…nen dichos valores no tienen porqué ser convergentes en la mayoría de los casos, esto es,
tanto el producto escalar como la norma y la métrica tienden a in…nito (no toman valores acotados).
Como se verá en la Secc. 2.9, el valor medio de una señal periódica discreta se reducirá de forma
natural a su valor medio de…nido sobre un un período de la señal.
² Notaciones habituales. En este caso, la variable independiente n que indexa la sucesión discreta de
valores es adimensional, no existiendo por lo tanto diferencias de notación a especi…car.

2.7.2 Señales aperiódicas.


De forma similar a como se realizó para señales aperiódicas de variable continua en la Secc. 2.6.2, el
espacio de señales discretas a utilizar en la práctica resultará ser un espacio de Hilbert, es decir, un
espacio completo respecto a la métrica inducida por el producto escalar de…nido sobre él (ver Ap. A.5).
Para construir de forma progresiva este espacio, partiremos de un espacio de señales que denominaremos
D(¡1; 1):y que de…niremos a continuación. Futuras restricciones y/o ampliaciones del mismo darán
lugar al espacio D2 (¡1; 1):

38 c Emilio Gago-Ribas, 2002


°
Re{x(n)}
1,0

0,5

D(-`,`)
0,0

x(n)
-0,5

-1,0
-5
Im{x(n)}
0 n 5 10 15

1,0
y(n)

0,5

0,0

-0,5

-1,0
-5 0
n 5 10 15

Figura 2.9. Representación genérica del espacio de señales discretas D(¡1; 1), así
como de un elemento genérico de dicho espacio.

² Álgebra del espacio.


De…niremos el espacio vectorial D(¡1; 1) respecto al cuerpo C de escalares como el conjunto de
funciones, Fig. 2.9,
(a) Complejas de variable entera, x : Z ! C; y de…nidas en el intervalo n 2 (¡1; 1):
(b) Como elemento de un espacio vectorial, identi…caremos un elemento genérico con la sucesión
x(n); de forma que tanto la suma como el producto por un escalar se de…nen punto a punto.
(c) Un elemento genérico de dicho espacio de funciones será x(n) = Re fx(n)g + j Im fx(n)g =
jx(n)j ej'x (n) ; Fig. 2.9.
El producto escalar, la norma y la métrica vendrán de…nidas en este caso por,
1
X
hx(n); y(n)i = x(n)y ¤ (n) 2 C; (2.64)
n=¡1

1
X
kx(n)k2 = hx(n); y(n)i = jx(n)j2 2 R+ ; (2.65)
n=¡1

P
1
d2 (x(n); y(n)) = kd(n)k2 = hd(n); d(n)i = jd(n)j2 2 R+ ;
n=¡1 (2.66)
d(n) = x(n) ¡ y(n):

Nótese que la métrica, como medida de la diferencia existente entre dos elementos cualesquiera del
espacio de funciones, de…nida a partir de este producto escalar, no es más que el error cuadrático
medio utilizado normalmente para analizar la diferencia entre dos sucesiones discretas de valores.En
este caso, el producto escalar induce una norma que también está directamente relacionada con
la energía de una señal discreta, como se verá en la Secc. 2.9. Resulta evidente que la métrica
resultante es función de la energía de la señal, es decir, de la integral o área bajo la curva de la
función, y no de sus valores punto a punto, lo que determinará ciertas características particulares
desde el punto de vista de diferenciar dos señales o funciones diferentes dentro del espacio.
² Notaciones habituales. Igual que en el caso de señales discretas aperiódicas, la variable independiente
n que indexa la sucesión discreta de valores es adimensional, no existiendo por lo tanto diferencias
de notación a especi…car.

c Emilio Gago-Ribas, 2002


° 39
² Otros espacios de partida. En general, se podrán considerar espacios de partida todos aquellos que
surgen de la generalización de los valores (¡1; 1) a diferentes situaciones de especial interés; los
espacios resultantes se podrán denotar por D[N1 ; N2 ]; D[N1 ; 1) y D(¡1; N2 ]: Las de…niciones del
producto escalar, norma y métrica serán las misma sin más que sustituir adecuadamente los límites
de la serie. Con estas consideraciones en mente, podremos generalizar la notación usada en (2.64),
(2.65) y (2.66) de la siguiente forma,
X
hx(n); y(n)i = x(n)y ¤ (n) 2 C; (2.67)
n

X
kx(n)k2 = hx; xi = jx(n)j2 2 R+ ; (2.68)
n

P
d2 (x(n); y(n)) = kd(n)k2 = hd(n); d(n)i = jd(n)j2 2 R+ ;
n
(2.69)
d(n) = x(n) ¡ y(n):
P
donde n denota los límites de integración adecuados en n en función del dominio de de…nición de
las señales.

2.8 Visualización de señales complejas de variable real.


Antes de proseguir con el análisis de los espacios de señales especi…cados, será interesante recordar
las diferentes formas de visualizar o representar cualquiera de las señales perteneciente a alguno de
esos espacios. Estas formas de visualización vienen determinadas por el hecho de que cualquiera de
dichos espacios contiene funciones complejas de variable real14 , lo que determina diferentes modos de
visualización que pueden ser más o menos convenientes en función del tipo de propiedades a estudiar,
del tipo de operaciones a realizar, etc.

2.8.1 Señales continuas.


² Partes real e imaginaria. La primera forma de visualizar una función compleja de variable real vendrá
determinada por el tipo de variación que tenga dicha función en términos de su parte real y su parte
imaginaria, esto es, f (x) = Reff (x)g + j Imff(x)g = f 0 (x) + jf 00 (x): Así, en el espacio S(¡1; 1)
por ejemplo, la visualización de un elemento genérico será como la mostrada en la Fig. 2.10(a).
² Módulo y fase. Otra forma alternativa de visualización será la representación de la variación con
x tanto del módulo como de la fase de la función f (x) = jf(x)j ej'f (x) : Resulta evidente que, en
cualquier caso, la fase vendrá dada en sus unidades habituales (radianes, grados, o cualquier otra
medida angular válida). En la Fig. 2.10(b) se muestra un ejemplo de este tipo de representación.
² Representación compleja. Además de las representaciones comentadas previamente, existe una tercera
especialmente importante que consiste en representar la función f (x) en su plano complejo, esto es,
representando Re ff(x)g en el eje de abscisas y Im ff (x)g en el eje de ordenadas. En este caso, la
ecuación de la curva resultante sobre dicho plano será de la forma,

fRe ff (x)g ; Im ff (x)gg ¡! Ecuación paramétrica de parámetro x: (2.70)

La forma explicita de la curva se obtendrá fácilmente sin más que eliminar la variable x considerada
como parámetro, obteniéndose su ecuación en la forma

Im ff(x)g = F on [Re ff(x)g] : (2.71)

La misma representación se puede analizar en términos del módulo y la fase de f(x);


© ª
jf (x)j ; 'f (x) ¡! Ecuación paramétrica de parámetro x: (2.72)
14 En el caso de las señales discretas, la variable n 2 Z puede ser vista como un caso particular de variable real dado que
Z ½ R:

40 c Emilio Gago-Ribas, 2002


°
La forma explicita de f(x) se obtendrá una vez más eliminando el parámetro x; obteniéndose la
representación compleja en forma polar,
£ ¤
jf (x)j = F on 'f (x) : (2.73)

En la Fig. 2.11 se muestra la representación compleja correspondiente a las señales mostradas en la


Fig. 2.10.

Re{f (x)} |f (x)|


4 10

2
8
0

6
-2

-4
4

-6
2
-8

-10 0
-5,0 -2,5 0,0 2,5 5,0 7,5 10,0 -5,0 -2,5 0,0 2,5 5,0 7,5 10,0
x x
Im{f (x)} Fase{f (x)}
2
1,0π

1
0,5π

0 0,0π

-0,5π
-1

-1,0π
-2
-5,0 -2,5 0,0
x 2,5 5,0 7,5 10,0 -5,0 -2,5 0,0
x 2,5 5,0 7,5 10,0
(a) (b)

Figura 2.10. Señal compleja de variable real en términos de (a) su parte real y su
parte imaginaria, y (b) su módulo y su fase.

x =-1
1
x =0 x =-1
x =1
Im{f (x)}

x =-2
f '(x)
0

ϕf(x)
x =-3
|f (x)|
-1
x =-4
f ''(x)

x =-5
-2
-10,0 -7,5 -5,0 -2,5 0,0 2,5 5,0 7,5 10,0

Re{f (x)}

Figura 2.11. Señal compleja de variable continua representada en el plano complejo.

c Emilio Gago-Ribas, 2002


° 41
2.8.2 Señales discretas.
² Partes real e imaginaria. La primera forma de visualizar una función compleja de variable entera
(señal discreta) vendrá determinada por el tipo de variación que tenga dicha función en términos de
su parte real y su parte imaginaria, esto es, x(n) = Refx(n)g + j Imfx(n)g = x0 (n) + jx00 (n): Así,
en el espacio D(¡1; 1); por ejemplo, una visualización genérica será como la mostrada en la Fig.
2.12(a).
² Módulo y fase. Otra forma alternativa de visualización será la representación de la variación con n
tanto del módulo como de la fase de la función x(n) = jx(n)j ej'x (n) : La fase vendrá dada una vez
más en sus unidades habituales (radianes, grados, etc.). En la Fig. 2.12(b) se muestra un ejemplo
de este tipo de representación.
² Representación compleja. Además de las representaciones comentadas previamente, existe también
en este caso una tercera representación que consiste en representar la función discreta x(n) en su
plano complejo, esto es, representando Re fx(n)g en el eje de abscisas y Im fx(n)g en el eje de
ordenadas. En este caso, la ecuación de la curva resultante sobre dicho plano será de la forma,

fRe fx(n)g ; Im fx(n)gg Ecuación paramétrica de parámetro n: (2.74)

La forma explicita de la curva se obtendrá fácilmente sin más que eliminar la variable n considerada
como parámetro, obteniéndose su ecuación en la forma

Im fx(n)g = F on [Re fx(n)g] : (2.75)

La misma representación se puede analizar en términos del módulo y la fase de x(n);


© ª
jx(n)j ; 'f (n) Ecuación paramétrica de parámetro n: (2.76)

La forma explicita de x(n) se obtendrá una vez más eliminando el parámetro n; obteniéndose la
representación de la función en polares,
£ ¤
jx(n)j = F on 'f (n) : (2.77)

En la Fig. 2.13 se muestra la representación compleja correspondiente a las señales mostradas en la


Fig. 2.12. Nótese cómo en este caso, al eliminar el parámetro n; obtendríamos funciones continuas en
la forma dada por (2.75) ó (2.77), dado que x(n) 2 C y, por lo tanto, Refx(n)g 2 R y Imfx(n)g 2 R:
Lógicamente, los valores válidos sobre la curva continua obtenida serían los correspondientes a cada
uno de los valores de n; sin más que recuperar su expresión paramétrica en (2.74) ó (2.76).

Re{x(n)} |x(n)|
4 20
18
2
16
0 14
12
-2
10
-4
8

-6 6
4
-8
2
-10 0
-10 -8 -6 -4 -2 0 2 4 6 8 10 -10 -8 -6 -4 -2 0 2 4 6 8 10
Im{x(n)} n Fase{x(n)} n
2
1,0π

1
0,5π

0 0,0π

-0,5π
-1

-1,0π
-2
-10 -8 -6 -4 -2 0 2 4 6 8 10 -10 -8 -6 -4 -2 0 2 4 6 8 10
n n

Figura 2.12. Señal compleja de variable discreta en términos de (a) su parte real y
su parte imaginaria, y (b) su módulo y su fase.

42 c Emilio Gago-Ribas, 2002


°
2,0

1,5

n =0 n = -1
1,0

0,5
n=1

Im{ x (n)}
x'(n)
0,0

|x(n)| ϕx(n)
-0,5 n = -6

-1,0
x''(n)
-1,5

n= -10
-2,0
-10,0 -7,5 -5,0 -2,5 0,0 2,5 5,0
Re{x(n)}

Figura 2.13. Señal compleja de variable discreta representada en el plano complejo.

2.9 Parámetros prácticos para la caracterización de señales.


Describiremos a continuación algunos de los parámetros que más habitualmente se utilizan para carac-
terizar señales. Para su de…nición, consideraremos como espacios de partida los siguientes casos: S[a; b];
S(¡1; 1) y P (X0 ) en el caso de señales continuas, y D[N1 ; N2 ]; D(¡1; 1) y D(N0 ) en el caso de
señales discretas. Es importante destacar la relación que dichos parámetros, de…nidos como una general-
ización de las soluciones obtenidas en la resolución de problemas físicos concretos, presentan en relación
con el álgebra de señales previamente de…nido, Secc. 2.5. Comentaremos estos aspectos en cada uno de
los casos. Los parámetros que estudiaremos son:
1. Valor medio, ha(¿ )i:
2. Potencia instantánea, pa (¿ ):
3. Energía, E [a(¿ )] :
4. Potencia media, hpa (¿ )i:

2.9.1 Valor medio.


En general, el valor medio de un conjunto …nito de N valores viene dado por
v1 + v2 + ..... + vN
hvi i = : (2.78)
N
En base a esta sencilla de…nición podremos de…nir el valor medio tanto para señales discretas como para
señales continuas.
² Señales de variable discreta.
1. D[N1 ; N2 ] : la aplicación de (2.78) a este caso es muy sencilla, dado que las señales consideradas
tienen un número N de muestras …nito de forma que resulta sencillo escribir,
N2
1 X
hx(n)i = x(n) = Re fhx(n)ig + j Im fhx(n)ig 2 C: (2.79)
N
n=N1

2. D(¡1; 1) : dado que en este caso las sucesiones del espacio son de longitud in…nita, deberemos
de…nir el valor medio a partir del valor medio como si la sucesión fuese …nita, habitualmente
entre ¡N y N; lo que implica una sucesión de 2N + 1 valores, y obtener posteriormente el

c Emilio Gago-Ribas, 2002


° 43
límite cuando N ! 1; esto es,
N
X
1
hx(n)i = lim x(n) = Re fhx(n)ig + j Im fhx(n)ig 2 C: (2.80)
N!1 2N + 1
n=¡N

En la Fig. 2.14(a) se muestra la representación grá…ca asociada a este concepto.


3. D(N0 ) : en el caso de una sucesión periódica, de…niremos el valor medio sobre un período
cualquiera de la señal, dado que de…nido como una sucesión in…nita, el valor de (2.80) sería
divergente, Fig. 2.14(b); así,
1 X
hx0 (n)i = x0 (n) = Re fhx0 (n)ig + j Im fhx0 (n)ig 2 C: (2.81)
N0
hN0 i

² Señales de variable continua.


1. S[a; b] : en el caso de una señal continua de…nida en el intervalo [a; b]; el conjunto de valores
de la función será un conjunto continuo, y por lo tanto in…nito, de forma que consideraremos
N puntos discretos de la función equiespaciados un cierto valor ¢x y promediados respecto a
N ; para este conjunto de puntos será posible aplicar la expresión habitual del valor medio en
(2.79), Fig. 2.14(c). Finalmente, consideraremos el límite cuando N ! 1; de forma que el
intervalo ¢x ! 0: De esta forma, la suma de los N valores, en el límite, se convertirá en la
suma continua o integral de la función a lo largo del intervalo [a; b] de de…nición sin más que
multiplicar y dividir por ¢x la expresión del límite, esto es,
f (a) + f (a + ¢x) + f(a + 2¢x) + ..... ¢x
hf(x)i = lim ¢ =
N!1(¢x!0) N ¢x
f (a)¢x + f(a + ¢x)¢x + f(a + 2¢x)¢x + .....
= lim =
N!1(¢x!0) N ¢x
Z b
1
= f (x) dx = Re fhf (x)ig + j Im fhf(x)ig 2 C: (2.82)
b¡a a

2. S(¡1; 1) : si la señal es continua y de…nida para todo el rango de valores de la variable


independiente, será posible aplicar el concepto de valor medio en (2.82) considerando la señal
en un intervalo …nito, y calculando posteriormente el límite de ambos intervalos tendiendo a
in…nito. Dado que el intervalo [a; b] a considerar es arbitrario, es usual considerar un intervalo
simétrico entre [¡b; b] como en (2.80) y calcular el límite cuando b ! 1; Fig. 2.14(d),
Zb
1
hf(x)i = lim f (x) dx = Re fhf(x)ig + j Im fhf (x)ig 2 C: (2.83)
b!1 2b
¡b

3. P (X0 ) : …nalmente, en el caso de señales continuas periódicas, de…niremos su valor medio igual
que en (2.82) a lo largo de un período arbitrario por las mismas razones que en (2.81),
Z
1
hf0 (x)i = f0 (x) dx = Re fhf0 (x)ig + j Im fhf0 (x)ig 2 C: (2.84)
X0 hX0 i

² Algunos comentarios importantes.


(a) Para una señal compleja, su valor medio también es complejo, igual al valor medio de las partes
real e imaginaria, respectivamente.
(b) El valor medio se puede ver como la componente continua de una señal, de…nida ésta como
aquel valor que sumado a otra señal de valor medio nulo e igual forma de variación que la
original, nos da la señal original, Figs. 2.14(e) y 2.14(f),
f(x) = hf (x)i + f1 (x); hf1 (x)i = 0; (2.85)

x(n) = hx(n)i + x1 (n); hx1 (n)i = 0: (2.86)

44 c Emilio Gago-Ribas, 2002


°
x(n) -N N x0(n)
4 1,0

2
0,8
0

(a) -2
0,6 (b)
-4
0,4

-6
0,2
-8

-10 0,0
-10 -8 -6 -4 -2 0 2 4 6 8 10 -8 0 8 16 24
n n
f(x) a f(x) 2b
1,2
b 2
-b b

1,0
1
0,8

(c) (d)
0,6 0

0,4
-1
0,2

0,0 -2
-2,0 -1,5 -1,0 -0,5 0,0 0,5 1,0 1,5 2,0 2,5 3,0 -5 -4 -3 -2 -1 0 1 2 3 4 5
x x
Re{f(x)} Im{f(x)}
2,5 4

3
2,0

(e) 2
1,5 ( f)
1

1,0
0

0,5
-1

0,0 -2
-5 -4 -3 -2 -1 0 1 2 3 4 5 -5 -4 -3 -2 -1 0 1 2 3 4 5
x Re{f1(x)} x Im{f1(x)}

Figura 2.14. Algunos conceptos importantes asociados al valor medio de señales de


variable discreta y de variable continua.

2.9.2 Potencia instantánea.


La potencia instantánea15 se de…ne como el módulo de la señal al cuadrado,
P [a(¿ )] = ja(¿ )j2 = a(¿ ) a¤ (¿ ): (2.87)
Esta de…nición no es más que la generalización de resultados particulares que surgen del análisis de
diferentes problemas físicos donde la potencia viene asociada siempre, bien al cuadrado de la magnitud
correspondiente si es real, bien al producto de la magnitud por su complejo conjugado si es compleja16 .
En las Figs. 2.15 y 2.16 se muestran algunos ejemplos de la potencia instantánea para señales de variable
continua y discreta.
1 5 Nótese que utilizaremos la notación asociada a un operador dado que la potencia instantánea será un caso particular

de operador actuando sobre el mismo espacio, Secc. 3.3.3.


1 6 Uno de los problema físicos más sencillos donde aparece una potencia instantánea es el caso de una resistencia de valor

R; cuya tensión en bornas es v(t); y la corriente que la atraviesa, i(t): Es bien sabido que, en este caso, pi (t) = v(t) i(t) = R
i2 (t): En este caso, las magnitudes v(t) e i(t) son señales reales de variable real. Análisis más detallados y generales de este
tipo de términos se pueden encontrar asociados, por ejemplo, a la ecuación de balance de potencias dada por el Teorema de
Poynting, donde las magnitudes involucradas serán, bien señales vectoriales reales o señales vectoriales complejas de cuatro
r) y tres (~
(t; ~ r) variables, respectivamente.

c Emilio Gago-Ribas, 2002


° 45
X0
Re{f (x)} Re{f0(x)}
2 2

1
1
0
0
-1
-1
-2

-2 -3
-4 -3 -2 -1 0 1 2 3 4 -1 0 1 2
Im{f (x)} x Im{f0(x)} x
2 2

1
1

0
-1

-2 -1
-4 -3 -2 -1 0 1 2 3 4 -1 0 1 2
P[f(x)] x P[f0(x)] x
4 8

3 6

2 4

1 2

0 0
-4 -3 -2 -1 0 1 2 3 4 -1 0 1 2
x x

Figura 2.15. Potencia instantánea de dos señales de variable continua en los espa-
cios S(¡1; 1) y P (X0 ):

Re{x0(n)}
3
2
1
0
-1
-2
-8 0 n 8 16
Im{x0(n)}
3
2
1
0
-1
-2
-8 0 n 8 16
P[x0(n)]
5
4
3
2
1
0
-8 0 n 8 16

Figura 2.16. Potencia instantánea de una señal discreta en el espacio D(N0 ) con
N0 = 8:

² Algunos comentarios importantes.


(a) El término instantánea hace referencia al tiempo, y por lo tanto, a la distribución de potencia
a lo largo de dicha magnitud. Desde el punto de vista de una variable genérica x, haremos
referencia a que existe un valor de potencia para cada valor de x: Por ejemplo, si la variable x
representa una magnitud espacial, estaremos haciendo referencia a la distribución de potencia
a lo largo del espacio. Esta representación es perfectamente generalizable a una variable entera
n:
(b) Tanto si la señal es real como compleja, el valor de su potencia instantánea será siempre real y
positivo para todo valor de la variable independiente, en virtud de las propiedades del módulo
de una función.
(c) Resulta evidente que el dominio de de…nición de la potencia instantánea será el mismo que el
de las señales originales, de forma que la potencia instantánea será otra señal más del espacio
de partida. Por ejemplo, en el caso de considerar el espacio de señales periódicas P (X0 ); su
potencia instantánea será otra señal periódica perteneciente también a P (X0 ):

46 c Emilio Gago-Ribas, 2002


°
2.9.3 Energía.
La energía se puede de…nir como el valor acumulado de la potencia instantánea a lo largo de la variable
independiente: Desde este punto de vista, su origen está, una vez más, íntimamente ligado al análisis
de problemas físicos. En particular, podremos hacer el siguiente desarrollo en el dominio del tiempo
para luego extender el resultado a cualquier variable continua o discreta. Es bien sabido que la potencia
instantánea es la derivada de la energía instantánea respecto del tiempo, de forma que podremos escribir,
Z t Z 1
dE(t)
p(t) = ¡! E(t) = p(t0 ) dt0 ! E = pi (t) dt; (2.88)
dt ¡1 ¡1

expresión que se puede analizar grá…camente tal y como se muestra en la Fig. 2.17. En el caso de
considerar la energía total para todo instante de tiempo, t ! 1 y, por lo tanto, obtendremos la energía
acumulada por toda la señal. Generalizando este resultado:
² Espacio S(¡1; 1) de variable continua,
Z 1 Z 1
E [f (x)] = P [f (x)] dx = jf(x)j2 dx: (2.89)
¡1 ¡1

² Espacio D(¡1; 1) de variable discreta,


1
X 1
X
E [x(n)] = P [x(n)] = jx(n)j2 : (2.90)
n=¡1 n=¡1

Re{f (x)}
3,0

1,5

0,0

-1,5

-3,0
-4
Im{f (x)}
-3 -2 -1 0
x 1 2 3 4

3,0

1,5

0,0

-1,5

-3,0
-4
P[f(x)]
-3 -2 2
|f(x)|
-1 0
x 1 2 3 4

4
E[f(x)]
3

0
-4 -3 -2 -1 0
x 1 2 3 4

Figura 2.17. Potencia instantánea y energía de una señal de variable continua en


el espacio S(¡1; 1):

² Algunos comentarios importantes.


(a) En el caso de considerar espacios diferentes a S(¡1; 1) y D(¡1; 1); las expresiones de la
energía en (2.89) y (2.90) se pueden reescribir fácilmente sin más que modi…car adecuadamente
los límites de integración o de la serie ajustados a los dominios de de…nición correspondientes.
Así, para S[a; b] y D[N1 ; N2 ] obtendremos,
Z b Z b
2
E [f(x)] = P [f(x)] dx = jf (x)j dx; (2.91)
a a

N2
X N2
X
E [x(n)] = P [x(n)] = jx(n)j2 : (2.92)
n=N1 n=N1

c Emilio Gago-Ribas, 2002


° 47
Si el espacio fuese P (X0 ) ó D(N0 ); las expresiones anteriores se de…nirían sobre un período
arbitrario de forma similar a como se realizó para el valor medio. Así,
Z Z
E [f0 (x)] = P [x0 (n)] dx = jf0 (x)j2 dx; (2.93)
hX0 i hX0 i

X X
E [x0 (n)] = P [x0 (n)] = jx0 (n)j2 : (2.94)
n=hN0 i n=hN0 i

(b) Desde el punto de vista grá…co, nótese que la energía asociada a una señal continua no es más
que el área bajo la curva de P [f(x)] ; tal y como se muestra en la Fig. 2.17.
(c) A la vista de las expresiones anteriores es fácil darse cuenta que el valor de la energía de una
señal coincide justamente con el cuadrado de la norma de…nida sobre el espacio de señales
correspondiente; por ejemplo: (i) en el caso de señales periódicas, con (2.52) y (2.65); (ii) en el
caso de señales aperiódicas de…nidas para todo valor de la variable independiente, con (2.55)
y (2.65). Esto quiere decir que el tamaño de cada uno de los elementos de un cierto espacio de
señales se medirá en términos de la energía de dicho elemento, y por lo tanto, será una medida
que dependerá del comportamiento de la señal en todos los valores de la variable independiente
y no una medida local para cada uno de dichos valores. Este tipo de medición del tamaño de
los elementos determinará más adelante el concepto de señales cuadrado integrables o lo que es
lo mismo, de energía …nita, restricción que será necesario imponer a la hora de tratar con los
dominios transformados asociados a un cierto espacio de señales.
(d) En el caso de señales continuas, si la variable x representa el tiempo t; la energía representará
el valor acumulado de la potencia instantánea a lo largo del tiempo. Si la variable x representa
una coordenada espacial z, la energía representará el valor acumulado de la potencia a lo largo
del espacio representado por z:

2.9.4 Potencia media.

La potencia media tiene exactamente la misma interpretación que el valor medio de una señal, con-
siderando ahora como señal la potencia instantánea P [a(¿ )] : De esta forma, su valor vendrá dado por
las ecuaciones (2.79)-(2.81) aplicadas a la potencia instantánea cuando las señales sean discretas, y por
(2.82)-(2.84) aplicadas a la potencia instantánea cuando las señales sean continuas. Así,
² Señales de variable continua.
1. f(x) 2 S(¡1; 1) :
Z b Z b
1 1
hP [f(x)]i = lim P [f (x)] dx = lim jf (x)j2 dx: (2.95)
b!1 2b ¡b b!1 2b ¡b

2. f(x) 2 S[a; b] :
Z b Z b
1 1
hP [f (x)]i = P [f (x)] dx = jf(x)j2 dx: (2.96)
b¡a a b¡a a

3. f0 (x) 2 P (X0 ) :
Z Z
1 1
hP [f0 (x)]i = P [f0 (x)] dx = jf0 (x)j2 dx: (2.97)
X0 hX0 i X0 hX0 i

² Señales de variable discreta.


1. x(n) 2 D(¡1; 1) :
N
X N
X
1 1 2
hP [x(n)]i = lim P [x(n)] = lim jx(n)j : (2.98)
N!1 2N + 1 N!1 2N + 1
n=¡N n=¡N

48 c Emilio Gago-Ribas, 2002


°
Re{f (x)} Re{f (x)}
1,0 4

0,8
3
0,6
2
0,4
1
0,2

0,0 0
-6 -4 -2 0 2 4 6 -6 -4 -2 0 2 4 6
Im{f (x)} x Im{f (x)} x
1,0 1,0

0,5 0,5

0,0 0,0

-0,5 -0,5

-1,0 -1,0
-6 -4 -2 0 2 4 6 -6 -4 -2 0 2 4 6
P[f(x)] x P[f(x)] x E[f(x)]
1,5 20

15
1,0

10

0,5
5

0,0 0
-6 -4 -2 0 2 4 6 -6 -4 -2 0 2 4 6
x E[f(x)] x

Figura 2.18. Potencia instantánea de dos señal continuas en el espacio S(¡1; 1)


cuya energía es …nita en el primer caso e in…nita en el segundo.

2. x(n) 2 D[N1 ; N2 ] :
N2
X N2
X
1 1
hP [x(n)]i = P [x(n)] = jx(n)j2 : (2.99)
N N
n=¡N1 n=¡N1

3. x0 (n) 2 D(N0 ) :
1 X 1 X
hP [x0 (n)]i = P [x0 (n)] = jx0 (n)j2 : (2.100)
N0 N0
hN0 i hN0 i

² Algunos comentarios importantes.


(a) La interpretación de estas expresiones no es más que la suma continua o discreta de la potencia
instantánea en un cierto intervalo y promediada sobre dicho intervalo: La interpretación grá…ca
sería la misma que en la Fig. 2.14 considerando que la señal sobre la que se calcula el valor
medio es la potencia instantánea. Dado que la potencia instantánea es siempre real, la potencia
media también lo será.
(b) Desde el punto de vista de la energía, es fácil ver que tanto los términos integrales en señales
de variable continua como las series en señales de variable discreta, no son más que la energía
de la señal correspondinte a un cierto intervalo de forma que dicha cantidad, dividida por el
intervalo, representará una densidad de energía por unidad de la variable independiente. Así
por ejemplo, para señales en S(¡1; 1); podemos escribir,
1
hpf (x)i = lim E [f(x)]jb¡b : (2.101)
b!1 2b

De forma similar se podría hacer para el resto de los casos. Cuando x ´ t; la potencia media
representa la densidad de energía por unidad de tiempo; cuando x represente una coordenada
espacial z; tendremos una representación de la distribución de energía por unidad de espacio.
(c) En el caso de una señal f(x) 2 S(¡1; 1) cuya energía sea …nita, la potencia media será nula.
En la Fig. 2.18 se muestra un ejemplo de este caso. Para que la energía de esa señal tenga
un valor …nito ha de suceder que su potencia instantánea sea nula cuando x ! §1; es decir,

c Emilio Gago-Ribas, 2002


° 49
que P [f (x)] no puede ni crecer ni mantenerse constante (comportamiento asintótico) en §1:
Esto quiere decir que el límite en (2.95) será del tipo limb!1 E [f(x)] (…nita)=1 ! 0: Desde
un punto de vista grá…co, como P [f (x)] es siempre positiva, al realizar la suma continua y
promediada a todo el eje x; no existirán valores que puedan promediar la señal a un valor
diferente de cero.
Si f (x) es tal que E [f(x)] ! 1; entonces el valor medio de la potencia podrá ser diferente
de cero, dado que limb!1 E [f(x)] (in…nita)=1 = (1=1) y dicha indeterminación podrá con-
verger a un valor concreto, e incluso diverger tendiendo a in…nito, si el término de energía
tiende a in…nito más rápidamente que el término lineal 2b del denominador, Fig. 2.18.

2.10 Una clasi…cación adicional de señales.


2.10.1 Señales reales e imaginarias.
² Una señal ar (¿ ) que sea real satisface la siguiente igualdad: ar (¿ ) = a¤r (¿ ):
² Una señal ai (¿) que sea imaginaria satisface la siguiente igualdad: ai (¿ ) = ¡a¤i (¿):
² Toda señal a(¿) se puede expresar como la suma de una señal real ar (¿) y una señal imaginaria
ai (¿ ) en la forma,
8 9
< ar (¿ ) = 1 [a(¿) + a¤ (¿)] =
2
a(¿ ) = ar (¿ ) + ai (¿) ¡! : (2.102)
: a (¿ ) = 1 [a(¿) ¡ a¤ (¿ )] ;
i 2

La demostración de esta propiedad se puede encontrar en el Ap. E.1.

2.10.2 Señales pares e impares.


² Una señal ae (¿ ) se dice que es par si es simétrica respecto al eje de ordenadas: ae (¿ ) = ae (¡¿ ):
² Una señal ao (¿ ) se dice que es impar si es simétrica respecto al origen: ao (¿ ) = ¡ao (¡¿ ):
² Toda señal a(¿) se puede expresar como la suma de una señal par ae (¿ ) y una señal impar ao (¿ ) en
la forma,
8 9
< ae (¿) = 12 [a(¿) + a(¡¿)] =
a(¿ ) = ae (¿ ) + ao (¿) ¡! : (2.103)
: a (¿ ) = 1 [a(¿ ) ¡ a(¡¿ )] ;
o 2

La demostración de esta propiedad se puede encontrar en el Ap. E.1. En la Fig. 2.19 se muestra
un ejemplo de esta propiedad para dos señales, una real y otra compleja, respectivamente.

2.10.3 Señales hermíticas y antihermíticas.

² Una señal ah (¿ ) se dice que es hermítica si ah (¿ ) = a¤h (¡¿ ): A partir de esta expresión resulta
evidente que una señal hermítica será aquella en que su parte real es par, Refah (¿ )g = Refah (¡¿ )g;
y su parte imaginaria impar, Imfah (¿ )g = ¡ Imfah (¡¿ )g:
² Una señal aah (¿ ) se dice que es antihermítica si aah (¿) = ¡a¤ah (¡¿ ): Resulta también evidente
comprobar que una señal antihermítica será aquella en que su parte real es impar, Refaah (¿)g =
¡ Refaah (¡¿)g; y su parte imaginaria es par, Imfaah (¿ )g = Imfaah (¡¿ )g:
² Toda señal a(¿) se puede expresar como la suma de una señal hermítica ah (¿) y una señal antiher-
mítica aah (¿) en la forma,
8 9
< ah (¿ ) = 12 [a(¿ ) + a¤ (¡¿)] =
a(¿ ) = ah (¿) + aah (¿ ) ¡! : (2.104)
: a (¿) = 1 [a(¿ ) ¡ a¤ (¡¿)] ;
ah 2

La demostración de esta propiedad se puede encontrar en el Ap. E.1. En la Fig. 2.20 se muestra
un ejemplo de esta propiedad.

50 c Emilio Gago-Ribas, 2002


°
Re{f (x)} Im{f (x)}
3,0 3,0
1,5 1,5
0,0 0,0
-1,5 -1,5
-3,0 -3,0
-5 -4 -3 -2 -1 0 1 2 3 4 5 -5 -4 -3 -2 -1 0 1 2 3 4 5
Re{fe(x)} x Im{fe(x)} x
3,0 3,0
1,5 1,5
0,0 0,0
-1,5 -1,5
-3,0 -3,0
-5 -4 -3 -2 -1 0 1 2 3 4 5 -5 -4 -3 -2 -1 0 1 2 3 4 5
Re{fo(x)} x Im{fo(x)} x
3,0 3,0
1,5 1,5
0,0 0,0
-1,5 -1,5
-3,0 -3,0
-5 -4 -3 -2 -1 0 1 2 3 4 5 -5 -4 -3 -2 -1 0 1 2 3 4 5
Re{f (x)} x x
Im{f (x)}
3,0 3,0
1,5 1,5
0,0 0,0
-1,5 -1,5
-3,0 -3,0
-5 -4 -3 -2 -1 0
x 1 2 3 4 5 -5 -4
Im{fe(x)}
-3 -2 -1 0
x 1 2 3 4 5
Re{fe(x)}
2 2
1 1
0 0
-1 -1
-2 -2
-5 -4 -3 -2 -1 0 1 2 3 4 5 -5 -4 -3 -2 -1 0 1 2 3 4 5
Re{fo(x)} x Im{fo(x)} x
2 2
1 1
0 0
-1 -1
-2 -2
-5 -4 -3 -2 -1 0 1 2 3 4 5 -5 -4 -3 -2 -1 0 1 2 3 4 5
x x

Figura 2.19. Descomposición de dos señales de variable continua, la primera real y


la segunda compleja, en sus partes par e impar, fe (x) y fo (x):

Re{f (x)} Im{f (x)}


3 3
2 2
1 1
0 0
-1 -1
-2 -2
-3 -3
-5 -4 -3 -2 -1 0
x 1 2 3 4 5 -5 -4 -3 -2 -1 0 x 1 2 3 4 5
Re{fh(x)} Im{fh(x)}
3 3
2 2
1 1
0 0
-1 -1
-2 -2
-3 -3
-5 -4 -3 -2 -1 0 x 1 2 3 4 5 -5 -4 -3 -2 -1 0 x 1 2 3 4 5
Re{fah(x)} Im{fah(x)}
3 3
2 2
1 1
0 0
-1 -1
-2 -2
-3 -3
-5 -4 -3 -2 -1 0 x 1 2 3 4 5 -5 -4 -3 -2 -1 0 x 1 2 3 4 5

Figura 2.20. Señal compleja de variable continua descompuesta en su parte her-


mítica, fh (x); y en su parte antihermítica, fa h (x): Se pueden observar claramente las
propiedades de paridad e imparidad de sus partes reales e imaginarias.

c Emilio Gago-Ribas, 2002


° 51
2.11 Operaciones básicas con señales.
Describiremos a continuación algunas de las operaciones con señales más importantes a la hora de poder
trabajar con éstas de una forma e…ciente. Este tipo de operaciones, así como su interpretación, deberían
ser de uso continuado y rutinario para poder abordar más e…cazmente otro tipo de operaciones más
complicadas que irán apareciendo a lo largo del presente texto. Desde este punto de vista, su descripción
parece lógica en este capítulo; sin embargo, este tipo de operaciones deberán verse en general como
casos particulares de operadores, funcionales, formas bilineales o multilineales tal y como se describen
en el Cap. 3. Utilizaremos una vez más la notación general sobre la variable ¿ usada en la Secc. 2.5
para describir funciones de variable continua o de variable discreta indistintamente, siempre que las
operaciones sean similares. Distinguiremos aquellos casos concretos en los que las operaciones di…eran
en algún aspecto importante.

2.11.1 Suma y producto.


Las operaciones de suma y producto se realizan punto a punto,

s(¿ ) = a(¿ ) + b(¿); p(¿) = a(¿)b(¿): (2.105)

2.11.2 Producto por un escalar.


Esta operación se realiza también punto a punto,

a(¿ ) ¡! b(¿ ) = Aa(¿ ): (2.106)

² En el caso general, A 2 C, es decir, A = jAj ej'A : De esta forma,


8 9
< jb(¿ )j = jAj ja(¿ )j =
b(¿ ) = jAj ja(¿ )j ej['A +'a (¿ )] ¡! : (2.107)
: ' (¿ ) = ' (¿) + ' : ;
b a A

² En relación con el módulo de las señales, es fácil obtener las siguientes conclusiones,

jAj = 1 ! jb(¿ )j = ja(¿ )j ! El módulo se mantiene

jAj > 1 ! jb(¿ )j > ja(¿ )j ! Ampli…cación de la señal ¡! jAj ´ Ganancia :

jAj < 1 ! jb(¿ )j < ja(¿ )j ! Atenuación de la señal ¡! 1= jAj ´ Atenuación

Nótese que dichas condiciones se pueden representar en el plano complejo de la variable A como
circunferencias de radio igual, mayor o menor que la unidad, respectivamente, Fig. 2.21. En la Fig.
2.22 se muestra un ejemplo para los tres casos analizados.
² En relación con la fase de las señales, es posible identi…car cómo dependiendo del signo de 'A ; la
fase resultante se desplaza verticalmente la cantidad j'A j ;

'A = 0 ! 'b (¿ ) = 'a (¿) ! La fase se mantiene

'A > 0 ! 'b (¿ ) = 'a (¿) + j'A j ! La fase se desplaza verticalmente una cantidad j'A j :

'A < 0 ! 'b (¿ ) = 'a (¿) ¡ j'A j ! La fase se desplaza verticalmente una cantidad ¡ j'A j

Nótese que dichas condiciones se pueden representar en el plano complejo de la variable A como
rectas partiendo del origen y de ángulo 'A ; Fig. 2.21. En la Fig. 2.22 se muestra un ejemplo para
los tres casos analizados.
² Si A 2 R; es evidente que bien 'A = 0 (A > 0) bien 'A = ¼ (A < 0): En este segundo caso se dice
que se produce un cambio de polaridad, al cambiar el signo de la señal original.

52 c Emilio Gago-Ribas, 2002


°
Figura 2.21. Plano complejo del cuerpo de escalares representado por A:
|f (x)|, |g(x)| |A|=2
2,5
|A|=1 |A|=0.5
2,0

1,5

1,0

0,5

0,0
-5 -4 -3 -2 -1 0 x 1
ϕA=0
2 3 4 5
Fase{f (x), g(x)}
1,00π
ϕA=π/4
0,75π

0,50π

0,25π

0,00π

-0,25π

-0,50π

-0,75π
ϕA=-π/8
-1,00π
-5 -4 -3 -2 -1 0 x 1 2 3 4 5

Figura 2.22. Algunos ejemplos en variable continua de la operación producto por


un escalar para los casos con A = 1; A = 2ej¼=4 y A = 0:5e¡j¼=2 :

2.11.3 Desplazamientos.
Un desplazamiento de la señal a lo largo de la variable independiente se podrá representar de la siguiente
forma,
a(¿) ¡! b(¿) = a(¿ + ¿ 0 ) = a0 (¿ + ¿ 0 ) + ja00 (¿ + ¿ 0 ): (2.108)
² En el caso de señales de variable continua,
( )
x0 < 0 ! Desplazamiento a la derecha
f (x + x0 ) ¡! :
x0 > 0 ! Desplazamiento a la izquierda
Si la variable independiente representa el tiempo, x ´ t; los desplazamientos a derecha o izquierda
de la señal se identi…caran calaramente con retrasos o adelantos respecto de la señal de partida,
respectivamente. En la Fig. 2.23 se muestra un ejemplo de esta operación.
² En el caso de señales de variable discreta, el valor del desplazamiento n0 deberá ser entero, lo que
supondrá un desplazamiento de la sucesión de valores en la forma indicada en la Fig. 2.23.

2.11.4 Abatimientos.
Un abatimiento no es más que una simetría respecto al eje de ordenadas o respecto al origen.
² Simetría respecto al eje de ordenadas: a(¿ ) ¡! a(¡¿ ) = a0 (¡¿) + ja00 (¡¿ ):
² Simetría respecto al origen: a(¿ ) ¡! ¡a(¡¿ ) = ¡a0 (¡¿) ¡ ja00 (¡¿ ):
En la Fig. 2.24 se muestran ejemplos de ambas operaciones para señales de variable continua y discreta.

c Emilio Gago-Ribas, 2002


° 53
Re{f (x)}, Re{f (x+x0)} Im{f (x)}, Im{f (x+x0)}
1,0 1,0

0,5
x0 0,5

0,0 0,0
x0

-0,5 -0,5
-5 -4 -3 -2 -1 0 1 2 3 4 5 -5 -4 -3 -2 -1 0 1 2 3 4 5
x x
Re{x(n)}, Re{x(n+n0)} Im{x(n)}, Im{x(n+n0)}
2
n0
2
n0
1
1

0
0
-1

-1
-2

-2 -3
-10 -8 -6 -4 -2 0 n 2 4 6 8 10 -10 -8 -6 -4 -2 0
n 2 4 6 8 10

Figura 2.23. Desplazamientos de señales de variable continua y de variable discreta


con x0 = ¡2 y n0 = ¡5; respectivamente.

Re{f (-x)} Re{f (x)} Im{f (-x)} Im{f (x)}


0,75 0,75
0,50 0,50
0,25 0,25
0,00 0,00
-0,25 -0,25
-0,50 -0,50
-0,75 -0,75
-5 -4 -3 -2 -1 0 x 1 2 3 4 5 -5 -4 -3 -2 -1 0
x 1 2 3
Im{x(-n)}
4 5
Re{x(n)} Re{x(-n)} Im{x(n)}
3 3
2 2
1 1
0 0
-1 -1
-2 -2
-3 -3
-10 -8 -6
Re{f(x)}
-4 -2 0
n 2 4 6 8 10 -10 -8
-Im{f(-x)}
-6 -4 -2 0
n 2 4 6 8
Im{f(x)}
10
-Re{f(-x)}
1,0 1,0
0,5 0,5
0,0 0,0
-0,5 -0,5
-1,0 -1,0
-2,0 -1,5 -1,0 -0,5 0,0 x 0,5 1,0 1,5 2,0 -2,0 -1,5 -1,0 -0,5 0,0
x 0,5 1,0 1,5 2,0
Re{x(n)} -Re{x(-n)} Im{x(n)} -Im{x(-n)}
2 3,0

1 1,5

0 0,0

-1 -1,5

-2 -3,0
-10 -8 -6 -4 -2 0
n 2 4 6 8 10 -10 -8 -6 -4 -2 0
n 2 4 6 8 10

Figura 2.24. Ejemplos de abatimientos respecto al eje de ordenadas y respecto al


origen de señales de variable continua y discreta.

54 c Emilio Gago-Ribas, 2002


°
2.11.5 Cambios de escala.
Los cambios de escala se re…eren a cambios respecto a la variable independiente. Conviene distinguir
ahora entre el caso de señales de variable continua y discreta.
² Señales continuas.

f (x) ¡! f(ax); a 2 R (2.109)

Resulta evidente que el factor de escala a sólamente puede ser real para conservar la condición inicial
de la variable independiente. Resulta sencillo analizar los siguientes casos, Fig. 2.25:
(a) Si a > 0;
8 9
>
< a=1 ! Misma señal >
=
a > 1 ! 1=a < 1 ! Compresión : (2.110)
>
: >
;
a < 1 ! 1=a > 1 ! Expansión

(b) Si a < 0; ocurre lo mismo que para a > 0 pero con un abatimiento respecto al eje de ordenadas
añadido. En la Fig. 2.25 se muestran algunos ejemplos de este tipo de operación.

Re{f (x)} Im{f (x)}


1,0 1,0
0,5 0,5
0,0 0,0 a=1
-0,5 -0,5
-1,0 -1,0
-2,0 -1,5 -1,0 -0,5 0,0
x 0,5 1,0 1,5 2,0 -2,0 -1,5 -1,0 -0,5 0,0
x 0,5 1,0 1,5 2,0
Re{f (ax)} Im{f (ax)}
1,0 1,0
0,5 0,5
0,0 0,0 a=3
-0,5 -0,5
-1,0 -1,0
-2,0 -1,5 -1,0 -0,5 0,0
x 0,5 1,0 1,5 2,0 -2,0 -1,5 -1,0 -0,5 0,0
x 0,5 1,0 1,5 2,0
Re{f (ax)} Im{f (ax)}
1,0 1,0
0,5 0,5
0,0 0,0 a=0.4
-0,5 -0,5
-1,0 -1,0
-2,0 -1,5 -1,0 -0,5 0,0 0,5 1,0 1,5 2,0 -2,0 -1,5 -1,0 -0,5 0,0 0,5 1,0 1,5 2,0
x x
Re{f (ax)} Im{f (ax)}
1,0 1,0
0,5 0,5
0,0 0,0 a=-1
-0,5 -0,5
-1,0 -1,0
-2,0 -1,5 -1,0 -0,5 0,0
x 0,5 1,0 1,5 2,0 -2,0 -1,5 -1,0 -0,5 0,0
x 0,5 1,0 1,5 2,0
Re{f (ax)} Im{f (ax)}
1,0 1,0
0,5 0,5
0,0 0,0 a=-3
-0,5 -0,5
-1,0 -1,0
-2,0 -1,5 -1,0 -0,5 0,0
x 0,5 1,0 1,5 2,0 -2,0 -1,5 -1,0 -0,5 0,0
x 0,5 1,0 1,5 2,0
Re{f (ax)} Im{f (ax)}
1,0 1,0
0,5 0,5
0,0 0,0 a=-0.4
-0,5 -0,5
-1,0 -1,0
-2,0 -1,5 -1,0 -0,5 0,0 0,5 1,0 1,5 2,0 -2,0 -1,5 -1,0 -0,5 0,0 0,5 1,0 1,5 2,0
x x

Figura 2.25. Escalado de la variable independiente de una señal compleja continua


f (x); para los casos con a = 1; 3; 0:4; ¡1; ¡3 y ¡0:4:

² Señales discretas. En este caso, la variable sólamente puede ser escalada por un número entero, y de
forma genérica escribiremos,

x(n) ¡! x(nN ); N 2 Z (2.111)

Veamos los siguientes casos:


(a) N = 0 : Este caso es trivial, dando lugar a una sucesión constante de valor x(0):

c Emilio Gago-Ribas, 2002


° 55
Re{x(n)} Im{x(n)}
3 3
3
2 2
6 3 5
1 1
1 5 0 1 2 4
0 0
0 2 4
-1 -1
6
-2 -2

-3 -3
-10 -8 -6 -4 -2 0
n 2 4 6 8 10 -10 -8 -6 -4 -2 0
n 2 4 6 8 10

Re{x(Nn)}, N > 0 Im{x(Nn)}, N > 0


3 3
3
2 2
6 3
1 1
0
0 0
0
-1 -1
6
-2 -2

-3 -3
-10 -8 -6 -4 -2 0
n 2 4 6 8 10 -10 -8 -6 -4 -2 0
n 2 4 6 8 10

Re{x(n/N)}, N > 0 Im{x(n/N)}, N > 0


3 3
3
2 2
3
1
1
1
0 1 2
0 0
0 2
-1 -1

-2 -2

-3 -3
-10 -8 -6 -4 -2 0
n 2 4 6 8 10 -10 -8 -6 -4 -2 0
n 2 4 6 8 10

Figura 2.26. Escalada de la variable independiente de una señal compleja discreta


x(n) para los casos con N = 1; 3 y 1=N = 1=3:

(b) N > 0 :
( )
N =1 ! Misma señal
:
N > 1 ! 1=a < 1 ! Diezmado de la señal

El equivalente en señales de variable continua a un estrechamiento de la señal, e señales de


variable discreta se denomina diezmado de la señal. Es fácil comprobar que, en este caso, el
escalado de la variable independiente hace que se eliminen muestras de la señal original. Resulta
también evidente que, con la de…nición dada en (2.111) no es posible obtener un equivalente
en discreta al concepto de ensanchamiento. De…niremos entonces una nueva señal en la forma,
(
x(m) n = mN
x(n) ¡! x (n=N ) = (2.112)
0 n 6= mN

Resulta sencillo comprobar que la nueva señal producirá el equivalente a un ensanchamiento


de la señal original por el proceso de añadir ceros entre las muestras de esta última. El proceso
suele denominarse como adición de ceros a la señal. En la Fig. 2.26 se muestran algunos
ejemplos de este tipo de operaciones.
(c) Si N < 0; ocurre lo mismo que para N > 0 pero con un abatimiento adicional.

2.11.6 Combinaciones de operaciones.


Respecto a las combinaciones de operaciones, cabe destacar las relacionadas con los abatimientos y
desplazamientos, que tendrán especial importancia en los términos de convolución de la forma a(¿ ¡ ¿ 0 )
que aparecerán posteriormente. Es importante hacer notar cómo dos operaciones aplicadas en orden
inverso no tienen porqué dar el mismo resultado. Veamos un ejemplo en variable continua:
² Abatimiento + desplazamiento a derecha. Términos de convolución.

f(x) ¡! f1 (x) = f(¡x) ¡! f2 (x) = f(¡(x ¡ x0 )) = f (x0 ¡ x): (2.113)

56 c Emilio Gago-Ribas, 2002


°
Esta operación representa un abatimiento respecto al eje de ordenadas combinado con un desplaza-
miento a la derecha si x0 > 0 o un desplazamiento a la izquierda si x0 < 0: Este tipo de términos
se usarán extensivamente en las operaciones de convolución tal y como se presentan en las Seccs.
3.7.1 y 3.7.3 para los casos de variable continua y discreta, respectivamente.
² Desplazamiento a derecha + abatimiento.

f(x) ¡! f1 (x) = f (x ¡ x0 ) ¡! f2 (x) = f (¡x ¡ x0 ): (2.114)

Nótese que esta operación es equivalente a

f(¡x ¡ x0 ) = f(¡(x + x0 )) (2.115)

que representa un abatimiento combinado con un desplazamiento a la izquierda si x0 > 0 o un


desplazamiento a la derecha si x0 < 0: Resulta evidente que esta operación no es equivalente a la
anterior.

2.12 Señales reales.


En los problemas prácticos de la realidad, las magnitudes involucradas serán cantidades reales y, por lo
tanto, se trabajará habitualmente con funciones reales que modelen dichas señales, esto es, con subespa-
cios de los espacios de señales complejas de variable real mencionados previamente. Denotaremos por
SR (¡1; 1); PR (X0 ); DR (¡1; 1) y DR (N0 ) a los subepacios de S(¡1; 1); P (X0 ); D(¡1; 1) y D(N0 )
que contienen sólamente funciones reales de variable real o entera. En estos casos, tanto las de…niciones
algebraicas estudiadas en las Seccs. 2.6 y 2.7, como ciertas de las propiedades estudiadas previamente se
simpli…can notablemente. Veremos algunas de las particularizaciones que será conveniente tener siempre
presentes en estos casos.

2.12.1 Álgebra de los espacios de señales.

1. P R (X0 ) :
Z
hf0 (x); g0 (x)i = f0 (x)g0 (x) dx 2 C;
hX0 i
Z
kf0 (x)k2 = f02 (x) dx 2 R+ ; (2.116)
hX0 i
Z
d2 (f0 (x); g0 (x)) = [f0 (x) ¡ g0 (x)]2 dx 2 R+ :
hX0 i

2. S R (¡1; 1) :
Z
hf (x); g(x)i = f(x)g(x) dx 2 C;
x
Z
kf (x)k2 = f 2 (x) dx 2 R+ ; (2.117)
x
Z
d2 (f (x); g(x)) = [f (x) ¡ g(x)]2 dx 2 R+ :
x

3. DR (N0 ) :
P
hx0 (n); y0 (n)i = x0 (n)y0 (n) 2 C;
hN0 i
P
kx0 (n)k2 = x20 (n) 2 R+ ; (2.118)
hN0 i
P
d2 (x0 (n); y0 (n)) = [x0 (n) ¡ y0 (n)]2 2 R+ :
hN0 i

c Emilio Gago-Ribas, 2002


° 57
4. DR (¡1; 1) :
P
hx0 (n); y0 (n)i = x0 (n)y0 (n) 2 C;
n
P
kx0 (n)k2 = x20 (n) 2 R+ ; (2.119)
n
P
d2 (x0 (n); y0 (n)) = [x0 (n) ¡ y0 (n)]2 2 R+ :
n

2.12.2 Propiedades de las señales reales.


Las siguientes equivalencias serán válidas para señales reales y, a su vez, triviales de demostrar, dejando
este punto como ejercicio para el lector:

f (x) real ¡! f (x) = f ¤ (x)

Valor medio ¡! hf(x)i real

Potencia instantánea ¡! P [f (x)] = f(x)f ¤ (x) = f 2 (x) real

Señal par ´ Señal hermítica

x(n) real ¡! x(n) = x¤ (n)

Valor medio ¡! hx(n)i real

Potencia instantánea ¡! P [x(n)] = x(n)x¤ (n) = x2 (n) real

Señal par ´ Señal hermítica

58 c Emilio Gago-Ribas, 2002


°
3. Sistemas y Operadores

3.1 Introducción.
Resulta claro que la representación matemática de cualquier problema físico, tal cual se presentó en el
Cap. 1 de introducción al presente texto, pasará por analizar transformaciones de señales de diferente
naturaleza. El ejemplo más sencillo lo constituirán las operaciones básicas descritas en la Secc. 2.11,
aunque el lector ya puede imaginarse una gran cantidad de operaciones sobre diferentes señales sin
más que repasar mentalmente cualquiera de los problemas físicos que haya abordado hasta la fecha,
o bien tomar como referencia los ejemplos mencionados en la citada introducción. En este sentido,
intentaremos presentar a continuación una introducción al concepto de sistema, como forma más general
o práctica del concepto de operador aplicado sobre un espacio de señales. En este sentido, diremos que
un sistema es cualquier proceso que intervenga en la transformación de señales. Desde este punto de
vista, la transformación se verá como una caja negra de la cual nos importará analizar las entradas y
salidas, así como describir de alguna forma dicha transformación, Fig. 3.1. Con carácter de generalidad
a lo largo del presente texto, asumiremos entonces que un sistema como el mostrado en la Fig. 3.1 viene
descrito en términos de un cierto operador F; dando en este caso una equivalencia directa al concepto
de operador como transformación de cualquier señal. La notación general a(¿ ) identi…cará una vez más
tanto las señales de variable continua como discreta cuando los comentarios realizados sean comunes a
ambos casos.

Figura 3.1. Representación genérica de un sistema asumiendo que la transformación


de señales que produce viene descrita por un cierto operador F.

F : a(¿ ) ! b(¿ ) = F[a(¿ )]: (3.1)

Conviene mencionar que la notación F [a(¿ )] deberá leerse en este caso como F [a(¿ )] (¿ ); esto es, una
nueva función de…nida sobre la variable original, aunque esta última notación se reduzca a la primera
por simplicidad en las presentaciones. Nótese que seguiremos utilizando la notación sobre la variable ¿
introducida en el Cap. 2 para identi…car tanto la variable continua como la discreta. En los casos en los
que exista alguna diferencia particularizaremos la notación a x ó n según el caso.
La descripción entonces de cualquier transformación representada por un cierto sistema debería re-
alizarse en términos algebraicos de…niendo adecuadamente diferentes espacios de operadores y analizando
sus propiedades asociadas. Al igual que hicimos para los espacios de señales, intentaremos obviar en lo
posible los conceptos algebraicos más complejos o abstractos, pero manteniendo en consideración aque-
llos conceptos básicos relacionados con los espacios de operadores. Para ello, recordaremos incialmente
algunas de…niciones y conceptos importantes asociados con difrentes tipos de aplicaciones entre espacios,
como es el caso de los funcionales, formas bilineales y operadores, que nos permitirán distinguir en cada
caso la naturaleza de las operaciones que utilizemos a lo largo del texto. Posteriormente, de…niremos
una serie de propiedades básicas asociadas a los sistemas que nos permitirán evaluar su comportamien-
to y propiedades de una forma sencilla e intuitiva. Muchas de estas propiedades no son más que una
traducción práctica del concepto general de sistemas del álgebra de operadores, por ejemplo, la invert-
ibilidad, la estabilidad, etc. Un propiedad particularmente importante será la propiedad de linealidad
que, desde un punto de vista algebraico, se corresponderá con el análisis de la teoría de operadores
lineales. Estos sistemas constituirán el centro de atención en el presente texto; en particular, no sólo
nos centraremos en los sistemas lineales como tales, sino que habitualmente, además de la propiedad de
linealidad, asumiremos una segunda propiedad de gran importancia como es la propiedad de invarianza.

59
Al …nal del capítulo realizaremos una descripción de los funcionales y operadores matemáticos más im-
portantes que nos encontraremos habitualmente en los problemas de señal. Algunos de estos operadores
serán los responsables de extender o restringir los espacios de señales de partida que hemos descrito en
el Cap. 2.
En virtud de los conceptos expuestos en el capítulo anterior, resulta también evidente que deberemos
diferenciar entre los sistemas continuos y discretos en función de los espacios de señales sobre los que
opere la transformación bajo estudio. En este sentido, cabe destacar la relación que existirá entre ambos
tipos de sistemas estudiada en el Vol. ST-II de la presente serie, análisis que constituirá la base para
poder implementar sistemas continuos en términos de sistemas discretos equivalentes.
Nótese también que, a la hora de analizar un problema, será particularmente importante tener presente
la distinción realizada en el capítulo de Intoducción acerca de si el problema analizado es directo o inverso.
Como ya hemos dicho, en el presente texto abordaremos los aspectos de la teoría de señal que más nos
interesan desde el punto de vista de la resolución de problemas directos. De esta forma, lograremos
entender adecuadamente las técnicas descritas para poder ser usadas igualmente en la representación y
resolución de problemas inversos.
En el Ap. B se presenta un resumen algebraico más detallado de la teoría de operadores y operadores
lineales. Así mismo, las siguientes referencias conforman una buena base para el análisis riguroso de
ciertos aspectos de la teoría que expondremos a lo largo del presente texto: [2], [3], [20], [21], [22] y [24].

3.2 Resumen algebraico de aplicaciones.


Resulta fundamental saber identi…car a priori las diferencias existentes entre diferentes transformaciones
o aplicaciones entre conjuntos de elementos arbitrarios, algunas de las cuales pueden ser más o menos
coincidentes y/o confusas en la literatura especializada. Asumiremos que cualquier conjunto de elementos
ha sido dotado de una estructura de espacio vectorial válida respecto a un cuerpo de escalares K, Secc.
2.4. Con esta hipótesis de partida, realizaremos un breve repaso de las transformaciones algebraicas
más importantes para, posteriormente, identi…car con ellas algunas de las operaciones más importantes
con las que nos encontraremos a lo largo del texto cuando los conjuntos de elementos involucrados sean
espacios de señales, …jando también de esta forma la notación usada a posteriori.

3.2.1 Funcionales.

De…nimos un funcional como una aplicación que asigna a cada elemento de un espacio vectorial VK de
~
partida, un cierto número de un cuerpo de escalares K,
8 9
< F : VK ¡! K ~ =
~
; ~a 2 VK ; z 2 K: (3.2)
: z = F [~a] ;

~ será habitualmente el cuerpo de los números reales, R o, en el caso más general,


El cuerpo de escalares K
de los números complejos, C: En la Fig. 3.2(a) se muestra el esquema grá…co de un funcional operando
sobre un espacio vectorial arbitrario.
² Funcionales lineales. Una funcional como el de…nido en (3.2) será lineal si satisface la propiedad,
h i
F ®~a + ¯~b = ®F [~a] + ¯F [~b];
³ ´ (3.3)
(~a; ~b) 2 VK ; F [~a] ; F [~b] 2 K;
~ (®; ¯) 2 K:

² Ejemplos. Un ejemplo típico de funcional será la de…nición de la norma de un espacio vectorial,


(2.17) y Ap. A.3. En la Secc. 3.3 se presentarán los funcionales más importantes relacionados con
la teoría de señales y sistemas que utilizaremos en el presente texto.

60 c Emilio Gago-Ribas, 2002


°
3.2.2 Formas bilineales y multilineales.
Una forma bilineal es una aplicación que asigna a una pareja de elementos de dos espacios vectoriales de
partida VK1 y WK2 , un número de un cuerpo de escalares K; ~ siendo lineal en ambos argumentos, [20],
8 9
< F : VK1 £ WK2 ¡! K ~ =
; ~a 2 VK1 ; ~b 2 WK2 ; z 2 K:
~ (3.4)
: z = F [~a; ~b] ;

Conviene recordar aquí que el concepto de linealidad respecto a los dos argumentos tiene el siguiente
signi…cado,
8 9
>
< F [®~a1 + ¯~a2 ; ~b] = ®F [~a1 ; ~b] + ¯F [~a2 ; ~b]; >
=
³ ´ (3.5)
>
: (~a ; ~a ) 2 V ; (®; ¯) 2 K , ~b 2 W ; F [~a ; ~b]; F [~a ; ~b] 2 K; ~ >
;
1 2 K1 1 K2 1 2

8 9
>
< F [~a; ¹~b1 + ´~b2 ] = ¹F [~a; ~b1 ] + ´F [~a; ~b2 ]; >
=
³ ´ (3.6)
> ~ >
: ~a 2 V ; (~b ; ~b ) 2 W ; (¹; ´) 2 K ; F [~a; ~b ]; F [~a; ~b ] 2 K: ;
K1 1 2 K2 2 1 2

² Un caso habitual será aquel en el que los espacios vectoriales de partida son los mismos1 , esto es,
VK1 = WK2 = VK ,
8 9
< F : VK £ VK ¡! K ~ = ³ ´
; ~a; ~b 2 VK ; z 2 K:
~ (3.7)
: z = F [~a; ~b] ;

En la Fig. 3.2(b) se muestra el esquema grá…co de una forma bilineal operando sobre dos elementos
de un mismo espacio vectorial.
² Formas cuadráticas. Cuando los dos argumentos de una forma bilineal son iguales hablaremos de
una forma cuadrática.
² Formas multilineales. La generalización a M espacios vectoriales de una forma bilineal dará lugar a
una forma multilineal, esto es, una aplicación que asocia un número de un cuerpo de escalares K ~
a un conjunto de M vectores pertenecientes a unos ciertos espacios vectoriales de partida, siendo
lineal en todos sus argumentos, [20],
8 9
< F : V1K1 £ V2K2 £ ¢ ¢ ¢ ¢ ¢ £ VMKM ¡! K ~ =
~
; ~a1 2 V1K1 ; ~a2 2 V2K2 ; :::::; ~aM 2 VMKM ; z 2 K:
: z = F [~a1 ; ~a2 ; :::::; ~aM ] ;
(3.8)

² Ejemplos. La de…nición de un producto escalar válido sobre un espacio vectorial (Ap. A.4), consti-
tuye un ejemplo típico de forma bilineal. Así mismo, la métrica (Ap. A.4.3) inducida por el producto
escalar será también un ejemplo de forma bilineal. Nótese también cómo la norma inducida por un
producto escalar válido se puede ver como una forma cuadrática dado que k~ak = h~a; ~ai1=2 :

3.2.3 Operadores.
De…niremos un operador como una regla o aplicación mediante la cual, a los elementos de un determinado
espacio vectorial de partida VK1 les asignamos otros elementos de un cierto espacio vectorial de llegada
WK2 (Ap. B.2),
8 9
< F : VK1 ¡! WK2 =
; ~a 2 VK1 ; ~b 2 WK2 : (3.9)
: ~b = F [~a] ;

En la Fig. 3.2(c) se muestra el esquema grá…co de un operador relacionando dos espacios vectoriales
arbitrarios.
1 Nótese que si los espacios vectoriales son los mismos, el cuerpo de escalares asociado a cada espacio será también el

mismo.

c Emilio Gago-Ribas, 2002


° 61
² Algunos conceptos importantes.
1. Dominio del operador: Subconjunto de elementos de VK1 sobre los que actúa F; Fig. 3.2(c). Lo
denotaremos por Dom fFg ; de forma que

Dom fFg µ VK1 : (3.10)

2. Rango del operador: La transformación de todos los elementos del dominio de VK1 a través del
operador F dará lugar a un conjunto de elementos en WK2 que denominaremos imagen o rango
del operador, Fig. 3.2(c), y que denotaremos por Ran fFg; así,

Ran fFg µ WK2 : (3.11)

3. Operadores inyectivos: En general, un operador cualquiera podrá relacionar un elemento del


Dom fFg con uno o más elementos del Ran fFg ; los operadores del tipo uno-a-uno se denomi-
narán operadores inyectivos y serán fundamentales en diferentes aplicaciones, en particular, en
caso de tener que obtener el operador inverso de uno dado.
4. Operadores suprayectivos: Cuando el operador relaciona todo el espacio de partida con todo el
espacio de llegada, se dice que es un operador suprayectivo, esto es,

Dom fFg = VK1 y Ran fFg = WK2 ; (3.12)

5. Operadores biyectivos: Si el operador es inyectivo y suprayectivo, diremos que es un operador


biyectivo. En este sentido, dado un operador F; la existencia de F¡1 queda asegurada si F es
biyectivo.
6. Caso habitual: Un caso muy habitual en la práctica es aquel en que los espacios de partida
y de llegada del operador son los mismos, y además coinciden con el dominio y el rango del
operador, respectivamente. Este será un caso muy habitual cuando los espacios vectoriales
bajo consideración sean espacios de funciones,

VK1 = Dom fFg ; WK2 = Ran fFg ; y VK1 = WK2 = VK : (3.13)

² Subespacios importantes. De…nido un cierto operador sobre un espacio vectorial, será muy importante
tener presentes los siguientes subespacios:
1. Núcleo del operador: Es el subespacio de VK1 que se transforma en el elemento nulo (elemento
neutro respecto a la ley interna del espacio vectorial, ~0) de WK2 ; lo denotaremos por KerfFg;
n o
KerfFg = ~a 2 VK1 = F [~a] = ~0 2 WK2 : (3.14)

2. Vectores propios: El conjunto de vectores propios (o autovectores) de un operador, Aut fFg ; es


el subespacio de vectores que se transforman en ellos mismos multiplicados por un cierto valor
escalar ¸;

AutfFg = f~a 2 VK = F [~a] = ¸~a 2 VK y ¸ 2 Kg : (3.15)

Nótese en primer lugar que la de…nición del subespacio de vectores propios requiere de oper-
adores donde los espacios de salida y de llegada sean los mismos, esto es,
8 9
< F : VK ¡! VK =
; ~a; ¸~a 2 VK ; y ¸ 2 K: (3.16)
: F [~a] = ¸~a ;

Al conjunto de valores f¸g para los que existe solución a F [~a] = ¸~a serán los valores propios (o
autovalores) del espacio VK asociados al operador F: Nótese también que resolver un problema
de autovalores no es más que encontrar el subespacio de vectores propios y los valores propios
asociados para un cierto operador.

62 c Emilio Gago-Ribas, 2002


°
3. Bases: Aunque el concepto de una base está asociado intrínsecamente a la estructura de espacio
vectorial de…nida sobre un conjunto de elementos, también resulta de gran importancia a la
hora de analizar su relación con un cierto operador F; dado que éste adquiere representaciones
diferentes sependiendo de cuál sea la base del espacio elegida. Veremos cómo, cuando los
espacios vectoriales son espacios formados por señales, la elección de una determinada base del
espacio no sólo dependerá del propio espacio de señales, sino también del tipo de operadores
que vayan a operar sobre dicho espacio.
² Operadores lineales. En el caso en que el operador en (3.9) satisfaga las propiedades habituales de
linealidad (Ap. B), estaremos hablando de operadores lineales, esto es,

F : VK1 ¡! WK2 es lineal sii F(®~a + ¯~b) = ®F(~a) + ¯F(~b);


³ ´ (3.17)
(~a; ~b) 2 VK1 ; F(~a); F(~b) 2 WK2 ; (®; ¯) 2 K1 :

² Espacios de operadores. Hablaremos de espacios de operadores como aquellos conjuntos de operadores


reunidos en función de alguna característica común que los describa. Denotaremos por EVK a un
cierto conjunto de operadores aplicados sobre un cierto espacio vectorial VK : Las propiedades más
importante a considerar para generar espacios de operadores serán:
1. La linealidad descrita en (3.17), dando lugar al espacio de operadores lineales L(V K ).
2. La invarianza, dando lugar a los espacios de operadores lineales e invariantes, LI(V K ):
3. La invertibilidad. Las condiciones de invertibilidad de un operador dependerán también de la
dimensión de los espacios vectoriales sobre los que actúen los operadores, Ap. B.2.4.
² Ejemplos. En nuestro caso, los espacios vectoriales a considerar serán conjuntos de funciones com-
plejas o reales de variable real o entera como los descritos en el Cap. 2, esto es, P (X0 ); S(¡1; 1);
D(N0 ) y D(¡1; 1) o sucesivas modi…caciones de estos espacios. En estos casos hablaremos de
operadores aplicados sobre espacios de funciones. Ejemplos de operadores particulares serán los
analizados en la Secc. 3.3, así como otros operadores analizados a lo largo del presente texto.

Figura 3.2. Esquema de diferentes tipos de transformaciones: (a) funcional operan-


do entre un espacio vectorial VK y un cuerpo de escalares K; ~ (b) forma bilineal
operando sobre dos elementos de un mismo espacio vectorial VK y un cuerpo de
~ y (c) operador como transformación entre dos espacios vectoriales. En
escalares K;
este caso, DomfFg ½ VK1 y RanfFg ½ WK2 :

c Emilio Gago-Ribas, 2002


° 63
3.3 Aplicaciones sobre los espacios de señales.
El resumen algebraico descrito en la Secc. 3.2 nos permitirá ahora particularizar la clasi…cación allí
descrita cuando los espacios sobre los que se opera son espacios vectoriales de señales FK como los
descritos en el Cap. 2. Partiendo del concepto de función expuesto en la Secc. 2.2, deberemos tener
siempre en mente las siguientes equivalencias:

K ´ C (R) ~ ´ C (R)
K
FK ¿ ~a = a(¿ ) ~b = b(¿ )
FK ´ P (X0 ) x ~a = f0 (x) ~b = g0 (x)
FK ´ S(¡1; 1) x ~a = f (x) ~b = g(x)
FK ´ D(N0 ) n ~a = x0 (n) ~b = y0 (n)
FK ´ D(¡1; 1) n ~a = x(n) ~b = y(n)

3.3.1 Funcionales.
A partir del resumen presentado en la Secc. 3.2.1, es posible particularizar el concepto de funcional
~ será el de los
a cualquiera de los espacios de señales de interés. En general, el cuerpo de escalares K
números complejos, el caso particular del cuerpo de los reales, o algún subconjunto de estos últimos.
Podremos entonces escribir,
8 9
< F : FK ¡! K ~ =
~
; a(¿) 2 FK ; z 2 K: (3.18)
: z = F [a(¿ )] ;

En la Fig. 3.3(a) se muestra el esquema grá…co de un funcional cuando FK ´ FC ´ S(¡1; 1); en este
caso, a(¿) ´ f (x):
² Funcionales lineales. En base a la de…nición dada en (3.3), es posible identi…car si un cierto funcional
de…nido sobre un espacio de funciones es lineal o no,

F [®a(¿ ) + ¯b(¿ )] = ®F [a(¿ )] + ¯F [b(¿ )];


(3.19)
~ (®; ¯) 2 K:
(a(¿ ); b(¿ )) 2 FK ; (F [a(¿ )] ; F [b(¿ )]) 2 K;

² Algunos ejemplos.
(a) Las normas de…nidas en (2.52), (2.55), (2.62) y (2.65) a partir de los correspondientes productos
escalares constituyen un caso particular de funcional sobre el cuerpo de los números reales
(positivos incluyendo el cero), Fig. 3.4. Nótese que, claramente, dichas normas son funcionales
no lineales.
(b) El valor medio, la energía y la potencia media de…nidos en la Secc. 2.9 son casos particulares
de funcionales sobre el cuerpo de los números complejos en el primer caso, y sobre el cuerpo
de los números reales en el resto (positivos incluyendo el cero), Fig. 3.4.

h¢i : FK ! C a(¿ ) ! ha(¿ )i 2 C;

E [¢] : FK ! R a(¿ ) ! E [a(¿ )] 2 R; (3.20)

h¢i : FK ! R pa (¿ ) ! hpa (¿ )i 2 R:

(c) Un ejemplo de gran importancia en el caso de variable continua será el de las distribuciones
o funciones generalizadas analizadas en el Cap. 7. Tómense aquí como ejemplos particulares
algunos de los casos basados en la distribución delta de Dirac,
Z
±(x) : f (x) ¡! f(x)±(x) dx = f (0) 2 C; (3.21)
x

Z
±(x ¡ x0 ) : f(x) ¡! f (x)±(x ¡ x0 ) dx = f(x0 ) 2 C; (3.22)
x

64 c Emilio Gago-Ribas, 2002


°
Fig. 3.4. Nótese como, por simplicidad, al funcional se le denota como si fuera una nueva
función, ±(x) en el ejemplo, cuando en realidad deberíamos escribir ± [f (x)] ; esto es, el fun-
cional ± operando sobre una función f (x): El hecho de que el operador que describe este tipo
de funcionales suela ser un operador integral viene determinado una vez más por el álgebra
asociada al espacio de señales, en este caso la de…nida en la Secc. 2.6.2. Por ejemplo,
Z
±(x) = ± [f (x)] ´ (¢)±(x) dx = h(¢); ±(x)i ; (3.23)
x

adelantando el hecho de que el objeto ±(x) será siempre un funcional real. Todos estos aspectos
deberán quedar más claros en el Cap. 6, donde se introduce el concepto de la distribución
delta como señal localizadora impulsiva por excelencia, y en el Cap. 7 donde se generalizará el
concepto de distribución y se analizarán otras distribuciones importantes.
Los funcionales en (3.21) y (3.22), son, claramente, funcionales lineales.

3.3.2 Formas bilineales y cuadráticas.


A partir del resumen presentado en la Secc. 3.2.2, es posible particularizar el concepto de forma bilineal
a cualquiera de los espacios de señales de interés. Como es habitual, el cuerpo de escalares K~ será el de
los números complejos, o el caso particular del cuerpo de los reales. Así,
8 9
< F : FK1 £ GK2 ¡! K ~ =
~
; a(¿) 2 FK1 ; b(¿ ) 2 GK2 ; z 2 K: (3.24)
: z = F [a(¿); b(¿ )] ;

En la Fig. 3.3(b) se muestra el esquema grá…co de una forma bilineal cuando FK1 = GK2 = FK ´ FC ´
S(¡1; 1); en este caso, a(¿) ´ f (x) y b(¿ ) ´ g(x):
² Algunos ejemplos.
(a) Los productos escalares de…nidos en (2.51), (2.61), (2.54) y (2.64) serán casos particulares de
formas bilineales sobre el cuerpo de los números complejos, Fig. 3.4.
(b) Las métricas de…nidas en (2.53), (2.63), (2.56) y (2.66) inducidas por los productos escalares
anteriores serán casos particulares de formas bilineales sobre el cuerpo de los números reales
(positivos incluyendo el cero), Fig. 3.4.

3.3.3 Operadores.
A partir del resumen presentado en la Secc. 3.2.3, es posible particularizar el concepto de operador a
cualquiera de los espacios de señales de interés. Como es habitual, el cuerpo de escalares K ~ será el de
los números complejos, o el caso particular del cuerpo de los reales. Escribiremos enconces,
8 9
< F : FK1 ¡! GK1 =
; a(¿ ) 2 FK1 ; b(¿ 0 ) 2 GK2 : (3.25)
: b(¿ 0 ) = F [a(¿)] ;

En la Fig. 3.3(c) se muestra el esquema grá…co de un operador cuando FK1 = GK2 = FK ´ FC ´


S(¡1; 1); en este caso, a(¿) ´ f (x) y b(¿ 0 ) ´ g(x):
² Núcleo del operador. El núcleo del operador estará constituído por todas aquellas funciones que se
transformen en la función nula, esto es,

Ker fFg = fa(¿ ) 2 FK1 = F [a(¿)] = 0g ; 0 2 GK2 : (3.26)

² Espacio de funciones propias. Los espacios de funciones propias o autofunciones, Aut fFg ; serán en
este caso subespacios de los espacios de señales de partida que satisfacen la siguiente propiedad,

Aut fFg = fa(¿ ) 2 FK = F [a(¿ )] = ¸a(¿ ) 2 FK ; ¸ 2 Kg : (3.27)

² Espacios de operadores. Teniendo en cuenta las propiedades más importantes asociadas a los oper-
adores, podremos destacar los siguientes espacios de operadores:

c Emilio Gago-Ribas, 2002


° 65
1. La linealidad, dando lugar a los espacios de operadores lineales L(F K ); Secc. 3.4.1.
2. La invarianza, Secc. 3.4.2, dando lugar a los espacios de operadores lineales e invariantes
LI(F K ):
3. La invertibilidad. Como ya adelantamos, las condiciones de invertibilidad de un operador
dependerán no sólo del tipo de operador analizado sino también de la dimensión de los espacios
vectoriales sobre los que actúen los operadores, caso de especial importancia cuando estos sean
espacios de señales.
En la Secc. 3.4 se analizarán las propiedades de los sistemas, todas ellas provenientes del análisis
algebraico de los operadores aplicados sobre espacios de señales como modelos matemáticos
para describir transformaciones de señales.
² Algunos ejemplos.
1. El primer ejemplo sencillo que cabe citar será el caso de la potencia instantánea analizado en
la Secc. 2.9, donde los espacios de partida y de llegada coinciden; así, una señal a(¿ ) 2 FK se
tranformará en otra señal P [a(¿ )] 2 FK a través del operador F ´j ¢ j2 ; Fig. 3.4.
2. Otros ejemplos sencillos de operadores serán algunas de las operaciones básicas entre señales
estudiadas en la Secc. 2.11, esto es, los desplazamientos, los abatimientos y los cambios de
escala, analizadas como un operador aplicado sobre una cierta función, Secc. 3.6.
3. Ejemplos muy importantes de operadores aplicados a espacios de señales serán las operaciones
de convolución y de correlación, tanto para señales de variable continua como de variable disc-
reta, así como sus versiones para los espacios de señales periódicas. En la Secc. 3.7 se analizará
la primera de ellas en detalle.
4. También de suma importancia serán los operadores diferenciales y en diferencias, y los oper-
adores integrales y en sumas. Los más importantes se recogen en la Secc. 3.6.
5. Finalmente, cabe citar una clase de operadores de gran importancia en el análisis de señales,
y objetivo prioritario de estudio en este libro; estos operadores serán lo que denominaremos
transformadas de una señal. En este volumen estudiaremos en detalle el desarrollo en serie
de Fourier, Cap. 8, la transformada de Fourier, Cap. 9 y la transformada de Laplace, Cap.
11. Las versiones respectivas de estas transformaciones para señales de variable discreta (los
desarrollos en serie y la transformada de Fourier, así como la transformada Z) serán tratados
en detalle en el Vol. ST-II. Citémos dos de estas transformaciones a modo de ejemplo2 ;3 ,
8 9
>
< DSF : P 2 (X0 ) ¡! D(¡1; 1) >
=
Z ; f0 (x) 2 P 2 (X0 ) y a(m) 2 D(¡1; 1):
1 2¼
>
: DSF [f0 (x)] = a(m) = f0 (x)e¡m X0 x dx >
;
X0 hX0 i
(3.28)

8 9
>
> TF : D2 (¡1; 1) ¡! P (2¼) >
>
< =
1
X ; x(n) 2 D2 (¡1; 1) y X(-) 2 P (2¼): (3.29)
>
> x(n)e¡j-n >
: TF [x(n)] = X(-) = >
;
n=¡1

Nótese cómo en estas transformaciones, los espacios de partida y de llegada no tienen porqué
ser los mismos. Así por ejemplo, la Transformada de Fourier citada en el segundo caso opera
entre un espacio de señales de variable discreta aperiódicas y un espacio de señales periódicas
de variable continua de período 2¼: Como veremos al analizar cada una de ellas, los espacios de
aplicación tampoco tendrán porqué ser los espacios de partida que hemos considerado hasta el
momento. En el segundo ejemplo, el espacio de partida será el espacio D2 (¡1; 1); esto es, el
subespacio de D(¡1; 1) de secuencias cuadrado sumables. El análisis general de este tipo de
operadores en forma de transformadas de un cierto espacio se abordará de forma independiente
en el Cap. 4.
2 El espacio P 2 (X ) será el espacio de señales complejas de variable real, continua y discontinuas (vistas como distribu-
0
ciones) que son cuadrado integrables sobre cualquier intervalo de longitud el período.
3 El espacio P (2¼) no es más que un caso particular del espacio P (X ) cuando X = 2¼:
0 0

66 c Emilio Gago-Ribas, 2002


°
Figura 3.3. Esquema de diferentes tipos de transformaciones aplicadas sobre espa-
cios de señales: (a) funcional operando entre el espacio vectorial S(¡1; 1) y un
~ (b) forma bilineal operando sobre dos elementos del espacio
cuerpo de escalares K;
~ y (c) operador como transformación
vectorial S(¡1; 1) y un cuerpo de escalares K;
del espacio vectorial S(¡1; 1) sobre él mismo.

Figura 3.4. Representación esquemática de algunos funcionales (distribución delta,


valor medio, norma y energía), formas bilineales (distancia y producto escalar), y op-
eradores (potencia instantánea, j ¢ j2 ) actuando sobre un espacio de señales complejas
R
FK : Denotamos por FK al subespacio de señales reales.

c Emilio Gago-Ribas, 2002


° 67
3.4 Propiedades de los sistemas.
Analizaremos a continuación las siguientes propiedades asociadas a un sistema como el de…nido en la
Fig. 3.1, aplicables tanto para sistemas operando sobre señales de variable continua como discreta:
1. Linealidad.
2. Invarianza.
3. Memoria.
4. Invertibilidad.
5. Causalidad.
6. Estabilidad.

3.4.1 Linealidad.
Un sistema descrito por un cierto operador será lineal cuando una combinación lineal de señales a la
entrada produce una combinación lineal de señales a la salida con los mismos coe…cientes, es decir,
9
F : a1 (¿ ) ¡! b1 (¿ ) = F [a1 (¿ )] =
=)
F : a2 (¿ ) ¡! b2 (¿ ) = F [a2 (¿ )] ; (3.30)

F : ®a1 (¿) + ¯a2 (¿ ) ¡! ®b1 (¿ ) + ¯b2 (¿ ) = ®F [a1 (¿ )] + ¯F [a2 (¿ )] :

En esta de…nición estamos asumiendo que hemos de…nido a su vez la suma y el producto por un escalar
de funciones, lo cuál en nuestro caso se ha realizado ya convenientemente en el Cap. 2. Desde este punto
de vista, un sistema lineal se dice que es aditivo y homogéneo. La expresión anterior se podría generalizar
a una combinación lineal de N elementos de la siguiente forma,
N
X N
X
F: ®m am (¿ ) ¡! ®m F[am (¿ )]: (3.31)
m=1 m=1

En relación con esta última interpretación es importante hacer notar el hecho de que pueden existir
sistemas particulares que sean lineales ante la suma de un número N …nito de señales de entrada, pero
que no lo sean si el número de señales de entrada es in…nito. Si el sistema es lineal en este último caso,
se dice que es un sistema liso. A lo largo del presente texto, asumiremos que un sistema lineal es liso, de
forma que se satisfará siempre la siguiente condición,
1
X 1
X
F: ®m a(¿; m) ¡! ®m F[a(¿ ; m)]: (3.32)
m=¡1 m=¡1

Esta propiedad será extremadamente importante cuando consideremos desarrollos de la señal de entrada
en la forma descrita en (2.40), por ejemplo. En este caso, estaremos suponiendo siempre que el sistema
es lineal para la combinación de in…nitas señales que representen a la señal de entrada,
1
X 1
X
F : a(¿ ) = ®m e(¿ ; m) ¡! b(¿ ) = ®m F [e(¿ ; m)] : (3.33)
m=¡1 m=¡1

De forma paralela, mantendremos en mente que si el sistema es lineal para una combinación lineal
de in…nitos elementos, también lo es para la versión continua de dicha combinación de elementos, por
ejemplo, cuando las señales de entrada venga desarrolladas en la forma descrita por (2.42),
Z Z
F : a(¿ ) = ®(»)e(¿; ») d» ¡! b(¿ ) = ®(»)F [e(¿ ; »)] d»: (3.34)
» »

68 c Emilio Gago-Ribas, 2002


°
3.4.2 Invarianza.
Diremos que un sistema es invariante cuando un desplazamiento sobre la variable independiente de la
señal de entrada produce el mismo desplazamiento sobre la señal a la salida. Matemáticamente,

a(¿ ) ¡! b(¿) = F[a(¿)] =) a(¿ ¡ ¿ 0 ) ¡! b(¿ ¡ ¿ 0 ): (3.35)

² Otra de…nición matemática.

8 ¿ 0 : f[8¿ : a2 (¿ ) = a1 (¿ ¡ ¿ 0 )] =) [8¿ : b2 (¿) = b1 (¿ ¡ ¿ 0 )]g : (3.36)

² Comentarios importantes para sistemas de variable continua.


(a) Dominio temporal (x ´ t): en este caso diremos que un adelanto/retraso en la señal de entrada
produce el mismo adelanto/retraso en la señal de salida. En la Fig. 3.5 se muestra un ejemplo
de invarianza en el dominio temporal.

Re{f (t)} Re{g(t)}


3 3
2 2
1 1
0 0
-1 -1
-2 -2
-3 -3
-2 0 2 4 6 8 -2 0 2 4 6 8
Im{f (t)} t t
Im{g(t)}
3 3
2 2
1 1
0 0
-1 -1
-2 -2
-3
-2 0 2
t 4 6 8 F -3
-2 0 2
t 4 6 8
Re{f (t - t0)} Re{g(t - t0)}
3 3
2 2
1 1
0 0
-1 -1
-2 -2
-3 -3
-2 0 2
t 4 6 8 -2 0 2
t 4 6 8
Im{f (t - t0)} Im{g(t - t0)}
3 3
2 2
1 1
0 0
-1 -1
-2 -2
-3 -3
-2 0 2
t 4 6 8 -2 0 2 t 4 6 8

Figura 3.5. Ejemplo de transformación de una señal de entrada f (t) en una señal
g(t) mediante un sistema invariante modelado por el operador F:

(b) Dominio espacial (x ´ z): el concepto de invarianza es particularmente importante en el caso


de aquellos sistemas que representan problemas físicos con variación en una cierta coordenada
espacial, por ejemplo z en el caso unidimensional. Consideremos para ello el problema mostrado
en la Fig. 3.6. Imaginemos un caso ideal que claramente permite simpli…car el análisis de esta
propiedad; este es el caso de considerar que la función f(z) de entrada al sistema fuese una
señal localizadora4 en el espacio situada en el origen, es decir, una función que es nula fuera de
un entorno ¢z ! 0 alrededor del origen; imaginemos también que la respuesta a dicha señal
en un punto z viene representada por la función g(z): Diremos que el sistema es invariante si
4 Este es el primer ejemplo en el que introduciremos el concepto de una señal de carácter localizador. A través de

ejemplos como éste iremos introduciendo la necesidad de generar funciones localizadoras dentro de los espacios de fun-
ciones de…nidos inicialmente. Dichas funciones localizadoras darán lugar posteriormente a su formalización en términos
de funciones generalizadas o distribuciones. Para introducir su conveniencia desde un punto de vista intuitivo imaginemos
que somos capaces de generar una función que va a representar una fuente de una cierta magnitud descrita en este caso
por g(z); y muy localizada en el espacio, por ejemplo, de valor no nulo en un cierto ¢z alrededor del origen. Con una
función f (z) de este tipo podríamos pensar que la fuente está situada en dicho punto cuando ¢z ! 0; de forma que fuera
de dicho punto es nula. La primera razón para pensar en términos de funciones como ésta viene propiciada por el hecho de
que, a través de ellas, podríamos identi…car de una forma clara la propia fuente, f (z) = 0 fuera del origen, de su respuesta
g(z) con una supuesta variación arbitraria. La generalización matemática de dicha función dará lugar posteriormente al
concepto de la distribución delta de Dirac, señal de carácter localizador por excelencia.

c Emilio Gago-Ribas, 2002


° 69
Figura 3.6. Ejemplo de un sistema que describe un problema espacial unidimen-
sional utilizando una señal de entrada f (z) de tipo localizador, así como la respuesta
del sistema g(z) a dicha señal. Se representa el concepto de invarianza espacial para
este caso.

Re{f (t)} Re{g(t)}


1,0 2
1
0,5 0
-1
0,0 -2
-2 -1 0 1 2 3 4 5 6 -2 -1 0 1 2 3 4 5 6
Im{f (t)} t Im{g(t)} t
1 2
1
0 0
-1

F
-1 -2
-2 -1 0 1 2 3 4 5 6 -2 -1 0 1 2 3 4 5 6
t Re{g(t - t0)} t
Re{f (t - t0)}
1,0 2
1
0,5 0
-1
0,0 -2
-2 -1 0 1
t 2 3 4 5 6 -2 -1 0 1
t 2 3 4 5 6
Im{f (t - t0)} Im{g(t - t0)}
1 2
1
0 0
-1
-1 -2
-2 -1 0 1
t 2 3 4 5 6 -2 -1 0 1
t 2 3 4 5 6

Figura 3.7. Ejemplo de la transformación de una señal de entrada f (t) de tipo


localizador real en una señal g(t) mediante un sistema invariante modelado por un
operador F.

un desplazamiento en la posición de la señal localizadora (por ejemplo, del origen a un cierto


z 0 ) hace que la respuesta g(z; z 0 ) no dependa del punto de observación, z; ni del punto donde
se localiza la señal, z 0 ; por separado sino de su diferencia, g(z ¡ z 0 ):
(c) Generalización práctica: la propiedad de invarianza aplicada a sistemas que describen proble-
mas físicos tanto en el espacio como en el tiempo se podría entonces leer como que las señales
descriptivas de las magnitudes involucradas en el problema, no dependen del origen de coor-
denadas elegido para su representación.
(d) Así mismo, el concepto de señal impulsiva introducido previamente a través de un ejemplo
en el dominio espacial, parece también muy útil en el dominio temporal. Así, el concepto de
localización temporal permitiría pensar en términos de excitar sistemas con señales de entrada
de muy corta duración, de forma que la respuesta a esa excitación pudiera compararse muy bien
con el instante de tiempo en que se generó la excitación impulsiva, permitiéndo más fácilmente
determinar si el sistema es o no invariante, o cualquier otra propiedad de las que analizaremos
posteriormente. En la Fig. 3.7 se muestra un ejemplo de esta idea en el dominio temporal.
Estos conceptos intuitivos quedarán corroborados con los análisis realizados en el Cap. 7.

70 c Emilio Gago-Ribas, 2002


°
² Algunos ejemplos.
(a) El sistema de variable continua identi…cado por la ecuación g(x) = f (x) ¡ f(x ¡ x0 ) es,
claramente, un sistema invariante. Así, si la entrada f (x) se desplaza a x1; la salida vendrá
dada por g1 (x) = f(x ¡ x1 ) ¡ f(x ¡ x1 ¡ x0 ) = g(x ¡ x1 ):
(b) El potencial Á(~r; ~r1 ) en un punto de observación ~r generado en el vacío por una carga puntual de
valor Q localizada en un punto identi…cado por el vector de posición ~r1 es un sistema invariante
respecto a la variable espacial,
1 Q
Á(~r; ~r1 ) = : (3.37)
4¼²0 j~r ¡ ~r1 j

En este caso, las funciones involucradas son funciones escalares, Q y Á; dependientes de tres
variables espaciales descritas por el vector de posición ~r = (x; y; z); en lugar de unidimen-
sionales; en cualquier caso, el concepto de invarianza será el mismo, independientemente de la
naturaleza de dichas magnitudes. Nótese que el concepto matemático de carga puntual de valor
Q está directamente relacionado con el concepto de señal localizadora, esto es, una excitación
de valor Q que está idealmente concentrada en un punto del espacio.
(c) El concepto de invarianza en un sistema de variable discreta es el mismo; por ejemplo, dado
un sistema identi…cado por la ecuación y(n) = x(n ¡ 3); que identi…caría un desplazamiento de
tres unidades de la sucesión x(n) de entrada, es claramente un sistema invariante puesto que
cualquier desplazamiento de la secuencia de entrada x(n ¡ n0 ) daría lugar a una salida con el
mismo desplazamiento, esto es, x(n ¡ n0 ¡ 3) = y(n ¡ n0 ):

3.4.3 Memoria.
Diremos que un sistema es sin memoria cuando la salida en cada valor de la variable independiente sólo
dependa de la entrada en dicho valor: En otro caso, diremos que el sistema es con memoria. Matemáti-
camente,

dado un valor ¿ 0 ; b(¿ 0 ) = F[a(¿ 0 )]; 8¿ 0 : (3.38)

² Otra de…nición matemática.

8¿ 0 : [a1 (¿ 0 ) = a2 (¿ 0 ) =) b1 (¿ 0 ) = b2 (¿ 0 )] : (3.39)

² Algunos ejemplos.
(a) El problema de una resistencia R en cuyos extremos hay una diferencia de potencial v(t) y que
es recorrida por una corriente i(t) es un ejemplo sencillo de sistema caracterizado por5 F ´ IR
sin memoria, Fig. 3.8.

Figura 3.8. El problema eléctrico de una resistencia con una tensión en sus bornas
v(t) y recorrida por una corriente i(t) es un ejemplo típico de un sistema sin memoria.

5 Denotaremos por I al operador identidad. En el ejemplo citado en el texto, el operador I se sobreentiende aplicado a

una función de variable continua.

c Emilio Gago-Ribas, 2002


° 71
Re{f(x)} Re{g(x)}
8 8
4 4
0 0
-4 -4
-8 -8
-2 -1 0 1 2 3 4 5 6 -2 -1 0 1 2 3 4 5 6
Im{f(x)}
x SIN MEMORIA Im{g(x)} x
8 8
4 4
0 0
-4 -4
-8
(a) -8
-2 -1
Re{f(x)}
0 1
x 2 3 4 5 6 -2 -1
Re{g(x)}
0 1
x 2 3 4 5 6
3,0 18
1,5
12
0,0
6
-1,5
-3,0 0
-2 -1 0 1 2 3 4 5 6 -2 -1 0 1 2 3 4 5 6
Im{f(x)} x CON MEMORIA Im{g(x)} x
3,0 18
1,5
12
0,0
6
-1,5
-3,0
(b) 0
-2 -1 0 1 2 3 4 5 6 -2 -1 0 1 2 3 4 5 6
x x

Figura 3.9. Transformación de una señal f (x) mediante: (a) un sistema sin memoria
caracterizado por g(x) = 3f (x); y (b) un sistema con memoria. En este último caso
se muestra un ejemplo del valor de la señal de salida en x = 3; g(3); que depende de
todos los valores de la señal de entrada en el intervalor [¡2; 3]:

(b) En cambio, un sistema de variable continua tan sencillo como el caracterizado por g(x) =
f(x) + f (x ¡ xa ) constituye un ejemplo de sistema con memoria, dado que en un cierto x0 ;
la señal de salida g(x0 ) no sólo depende de la señal de entrada en x = x0 ; sino también de la
señal de entrada en x = x0 ¡ xa :
(c) Otro sistema de variable continua claramente con memoria sería aquel caracterizado por,
s¯Z ¯ s¯Z ¯
¯ x ¯ ¯ x ¯
g(x) = ¯¯ Re ff(x0 )g dx0 ¯¯ + j ¯¯ Im ff(x0 )g dx0 ¯¯: (3.40)
¡2 ¡2

En la Fig. 3.9 se muestra el análisis grá…co de este ejemplo para una señal de entrada arbitraria.

3.4.4 Invertibilidad.
Diremos que un sistema es invertible si existe otro sistema tal que, aplicado a la señal de salida del
primero, nos devuelve la señal original de entrada a dicho sistema inicial. Matemáticamente,

F es invertible si 9 F¡1 tal que F¡1 [F [a(¿ )]] = a(¿ ); 8a(¿) 2 Dom fFg : (3.41)

En la Fig. 3.10 se muestra una descripción grá…ca de este concepto para ambos casos.
² Otras de…niciones matemáticas.

[9¿ 0 : a1 (¿ 0 ) 6= a2 (¿ 0 )] =) [9 ¿ 00 : b1 (¿ 00 ) = b2 (¿ 00 )] ; (3.42)

[8¿ : b1 (¿ ) = b2 (¿)] =) [8¿ : a1 (¿ ) = a2 (¿ )] : (3.43)

72 c Emilio Gago-Ribas, 2002


°
Figura 3.10. Representación esquemática de la propiedad de invertibilidad desde
el punto de vista de los sistemas.

Figura 3.11. Ejemplo de un operador continuo en relación varios a uno. En este


caso, no existirá operador inverso, dado que un mismo elemento g(x) podría tran-
formarse en tres elementos diferentes del espacio de partida.

² Algunos ejemplos.
p p
(a) Sea un sistema de variable continua caracterizado por F ´ (¢); es decir g(x) = f (x);
de…nida sólamente para f (x) ¸ 0 en el rango de x: En este caso, es fácil ver que g2 (x) =
hp i2
f (x) = f (x); de forma que el operador F será invertible, siendo F¡1 ´ [(¢)]2 :

(b) En el caso en que F ´ [(¢)]2 ; es decir, g(x) = [f (x)]2 ; no existe operador inverso, dado que el
operador raiz cuadrada nos devolvería dos soluciones, +f (x) y ¡f(x); diferentes. En este caso,
diremos que el operador F no es invertible.
² Algunos comentarios importantes.
(a) Para un sistema arbitrario cualquiera, no tiene en general porqué existir un sistema inverso.
(b) En caso de que el sistema esté descrito por un operador analítico, la condición de invertibili-
dad o no de dicho operador estará directamente relacionada con las condiciones de existencia
del operador inverso: Este último concepto estará intimamente ligado con el hecho de que el
operador sea una aplicación del tipo ”uno a uno” o ”varios a uno”, en cuyo caso no existiría el
operador inverso, Fig. 3.11. El operador deberá ser …nalmente biyectivo para que tenga oper-
ador inverso. En el Ap. B se pueden encontrar algunas consideraciones algebraicas importantes
acerca de la invertibilidad de los operadores lineales.
(c) En operadores ligados a la descripción de problemas físicos, por ejemplo, los operadores diferen-
ciales, la existencia del operador inverso está íntimamente relacionada con la teoría de funciones
de Green y la resolución de problemas inversos descritos en la Introducción del presente texto.
La descripción de esta teoría queda pendiente para futuros textos.

3.4.5 Causalidad.
La propiedad de causalidad, aunque de…nida de forma general para una variable arbitraria continua o
discreta, está directamente relacionada desde un punto de vista práctico con la variable temporal, t y es
en este dominio donde toma su principal signi…cado. Diremos que un sistema es causal cuando el valor
de la salida en un cierto valor de la variable independiente depende del valor de la entrada en valores
anteriores o iguales a dicho valor. Matemáticamente,

Dado un valor ¿ 0 ; b(¿ 0 ) = F[a(¿ ¿ 0 )]; 8¿ 0 =) Causal. (3.44)

c Emilio Gago-Ribas, 2002


° 73
Re{f(x)} Re{g(x)}
3,0 30
1,5 15
0,0 0
-1,5 -15
-3,0 -30
-3 -2 -1 0 1 2 3 4 5 6 7 -2 -1 0 1 2 3 4 5 6
Im{f(x)}
x CAUSAL
Im{g(x)} x
3,0 30
1,5 15
0,0 (a) 0
-1,5 -15
-3,0 -30
-3 -2 -1 0 1 2 3 4 5 6 7 -2 -1 0 1 2 3 4 5 6
Re{f(x)}
x x
3,0 30
Re{g(x)}

1,5 15
0,0 0
-1,5 -15
-3,0 -30
-3 -2 -1 0 1 2 3 4 5 6 7 -2 -1 0 1 2 3 4 5 6
Im{f(x)} x ANTICAUSAL x
Im{g(x)}
3,0 30
1,5 15
0,0 (b) 0
-1,5 -15
-3,0 -30
-3 -2 -1 0 1 2 3 4 5 6 7 -2 -1 0 1 2 3 4 5 6
x x
Rx
Figura 3.12. Dos ejemplos de sistemas: (a) causal caracterizado por F ´ ¡1 (¢)
R x+1
dx0 ; y (b) anticausal caracterizado por F ´ x¡1 (¢) dx0 : En ambos casos se muestra
un ejemplo del valor de la señal de salida en x = 2:

En otro caso, diremos que el sistema es no causal o anticausal.


² Otra de…nición matemática.

8¿ 0 : f[8¿ ¿ 0 : a1 (¿ ) = a2 (¿ )] =) [8¿ ¿ 0 : b1 (¿ ) = b2 (¿ )]g : (3.45)

² Algunos ejemplos.
Rx
(a) Un sistema continuo caracterizado por el operador F ´ ¡1 (¢) dx0 ; esto es
Z x
F : f(x) ! g(x) = f(x0 ) dx0 ; (3.46)
¡1

será un sistema causal dado que la señal de salida en cualquier x depende de la señal de entrada
en valores anteriores o iguales a dicho x: Su interpretación grá…ca se muestra en la Fig. 3.12(a).
R x+a
(b) Un sistema continuo caracterizado por el operador F ´ x¡a (¢) dx0 ; esto es
Z x+a
F : f(x) ! g(x) = f (x0 ) dx0 ; (3.47)
x¡a

será un sistema anticausal, dado que la señal de salida en cualquier valor de x dependerá de
la señal de entrada en valores anteriores y posteriores a dicho x: Su interpretación grá…ca se
muestra en la Fig. 3.12(b).
(c) Los sistemas discretos equivalentes a los anteriores vendrían descritos por los siguientes oper-
adores,
n
X n
X
F´ (¢) : x(n) ! y(n) = x(m); (3.48)
m=¡1 m=¡1

74 c Emilio Gago-Ribas, 2002


°
Re{f (t)} Re{g(t)} Im{g(t)}
2 2 2

1 1 1

F causal
0 0 0

t0>0
-1 -1 -1

-2 -2 -2
-2 0
t 2 4 6 -2 0
t 2 4 6 -2 0
t 2 4 6

Re{f (z)} Re{g(z)} Im{g(z)}


2,0 2,0 2,0

1,5 1,5 1,5

F
1,0 1,0 1,0
no causal
0,5 0,5 0,5

0,0 0,0 0,0


-4 -2 0 2 4 -4 -2 0 2 4 -4 -2 0 2 4
z z<0 z z>0 z<0 z z>0

Figura 3.13. Ejemplos de la propiedad de causalidad en el tiempo y en el espacio


representada en términos de excitaciones localizadoras de tipo impulsivo.

n+N
X n+N
X
F´ (¢) : x(n) ! y(n) = x(m): (3.49)
m=n¡N m=n¡N

² Algunos comentarios importantes para sistemas de variable continua.


(a) Dominio temporal (x ´ t): desde el punto de vista de la variable temporal, la propiedad de
causalidad es muy importante y es una de las condiciones habituales que deben imponerse en
cualquier problema físico, dado que su signi…cado se puede interpretar fácilmente en términos
de que no es posible que exista respuesta de un sistema g(t0 ) antes que excitación f (t > t0 ): Una
vez más, este es un ejemplo intuitivo claro de cómo, para analizar la propiedad de causalidad de
un sistema, las funciones localizadoras introducidas previamente podrían ser de gran valor, dado
que su carácter de localización de excitaciones en intervalos de tiempo muy pequeños alrededor
de un instante dado, podría facilitar el análisis de la respuesta a ese tipo de excitaciones, Fig.
3.13.
(b) Dominio espacial (x ´ z): en problemas de…nidos en el espacio, esta propiedad es mucho menos
importante dado que el hecho de existir respuesta ”antes” o ”después” de un determinado
valor de la variable independiente donde existe una cierta excitación, no representa más que
la existencia de respuesta a la derecha o a la izquierda de la localización de la fuente, lo cuál,
lógicamente, sucederá de forma habitual. A pesar de ello, sigue resultando intuitivo entender
esta propiedad en términos de funciones localizadoras y, una vez más, anticipar la posible
importancia de este tipo de señales, tal y como se muestra en la Fig. 3.13.

3.4.6 Estabilidad.
La condición de estabilidad de un sistema reviste gran importancia desde el punto de vista práctico de su
diseño y del análisis de su comportamiento. Su descripción inicial podría leerse en la siguiente forma: Un
sistema es estable cuando pequeñas variaciones sobre la señal de entrada producen pequeñas variaciones
sobre la señal de salida. Desde un punto de vista matemático, diremos que un sistema (continuo o
discreto) es estable si para toda señal de entrada acotada la señal de salida también está acotada,

ja(¿ )j A ¡! jb(¿ )j B; con A; B 2 R: (3.50)

c Emilio Gago-Ribas, 2002


° 75
f (x) g(x)
1,5 800

1,0 F 600

no estable
0,5 400

0,0 200

-0,5 0
-2 -1 0 1 2
x 3 4 5 6 -2 -1 0 1 2
x 3 4 5 6

Figura
R x 3.14. Ejemplo de un sistema inestable caracterizado por el operador integral
F ´ ¡1 (¢) dx0 : En este ejemplo la señal f (x) de entrada es real y nula para x 0:

Re{f(x)}
3,0
1,5 F
0,0
|f(x)|
-1,5 10

-3,0
-2 -1 0 1 x 2 3 4 5 6
Im{f(x)} 5
3,0
1,5
0
0,0 -2 -1 0 1 x 2 3 4 5 6

-1,5
-3,0
-2 -1 0 1 x 2 3 4 5 6
Re{g(x)} G
8
4
0 |g(x)|
10
-4
-8
-2 -1 0 1 x 2 3 4 5 6
5
Im{g(x)}
8
4
0
-2 -1 0 1 x 2 3 4 5 6
0
-4
-8
-2 -1 0 1 x 2 3 4 5 6

Figura 3.15. Ejemplo del comportamiento de un sistema estable caracterizado por


g(x) = [f (x)]2 frente a una señal acotada.

² Algunos ejemplos.
Rx
(a) Sea un sistema tal que F ´ ¡1
(¢) dx0 ; es decir,
Z x
F : f (x) ! g(x) = f(x0 ) dx0 : (3.51)
¡1

Resulta fácil comprobar que este sistema no es estable, dado que existen gran cantidad de
señales de entrada acotadas que dan lugar a señales de salida no acotadas. En la Fig. 3.14 se
muestra un ejemplo de este caso, junto con la interpretación grá…ca del operador.
(b) Sea un sistema continuo caracterizado por el operador F ´ [(¢)]2 ; es decir,

F : f (x) ! g(x) = [f (x)]2 : (3.52)

Resulta trivial comprobar que, para cualquier señal de entrada acotada por un cierto valor F;
su cuadrado también será una señal acotada tal que G = F 2 : En este caso el sistema será, por
lo tanto, estable. En la Fig. 3.15 se muestra un ejemplo de este caso.

76 c Emilio Gago-Ribas, 2002


°
3.5 Interconexiones básicas entre sistemas.
Desde un punto de vista algebraico, la interconexión de sistemas está directamente relacionada con la
composición de operadores. Matemáticamente, estas interconexiones adoptan las siguientes expresiones:
² Serie.

c(¿) = F2 [b(¿)] = F2 [F1 [a(¿ )]] : (3.53)

² Paralelo.

c(¿ ) = F1 [a(¿ )] + F2 [a(¿ )] : (3.54)

² Realimentados.

b(¿ ) = F1 [a(¿ ) + F2 [b(¿)]] : (3.55)

En la Fig. 3.16 se muestran los esquemas correspondientes a los tres tipos de interconexión descritos.

Figura 3.16. Esquema de las tres con…guraciones básicas de interconexión de sis-


temas: (a) en serie; (b) en paralelo, y (c) realimentados. En todos los casos se ha
utilizado la notación general, identi…cando por a(¿ ) ´ f (x) ó x(n); b(¿ ) ´ g(x) ó
y(n) y c(¿ ) ´ h(x) ó h(n); para los casos de variable continua y discreta, respecti-
vamente. En cada caso, los operadores F1 y F2 identi…carán sistemas continuos o
discretos.

c Emilio Gago-Ribas, 2002


° 77
3.6 Operadores y familias de operadores básicos.
Presentaremos a continuación algunos de los operadores más importantes que aparecerán en los proble-
mas físico-matemáticos y que es conveniente tener siempre presentes, no sólo por su uso habitual, sino
porque pueden modi…car de alguna forma los espacios de señales de partida que hemos de…nido en el
Cap. 2. Su clasi…cación se detalla a continuación, realizándose posteriormente su descripción general.
² Operaciones básicas entre señales: descritas en la Secc. 2.11: destacaremos entre ellas las familias
de operadores de desplazamiento y escalado. El operador identidad será un caso particular de esta
última familia, de especial relevancia como elemento neutro de los espacios de operadores, así como
por su relación con la distribución delta de Dirac en el caso de variable continua.
² Operadores en variable continua.
1. Operadores diferenciales: de especial importancia dado su amplio uso en el modelado analítico
de problemas físicos, así como por las propiedades adicionales que generan sobre los espacios
de señales (señales derivables en todos los puntos, señales no derivables en puntos aislados,
etc.). En este caso hablaremos siempre de operadores en derivadas sobre una variable, dn =dxn ,
manteniendo en mente las posibles versiones de los operadores diferenciales que aparecen en
problemas multidimensionales.
2. Operadores integrales:
(a) Integrales inde…nidas
(b) Integrales de…nidas.
² Operadores en variable discreta.
1. Operadores en diferencias: de especial importancia dada su relación con los operadores difer-
enciales en variable continua; en particular, cuando se trata de modelar problemas de…nidos
originalmente en variable continua mediantes señales y sistemas discretos.
2. Operadores en sumas:
(a) Series …nitas.
(b) Series in…nitas.
² Operadores integrales con núcleo K(¿ ; ¿ 0 ):
² Operadores en sumas con núcleo K(¿ ; ¿ 0 ):

3.6.1 Operaciones básicas entre señales.


² Operador identidad: este operador, aunque trivial en su de…nición, resulta fundamental desde un
punto de vista algebraico y, como veremos, también por su relación con la señal localizadora de tipo
impulsivo básica, ±(x); en el caso de variable continua, o su dual en el caso de variable discreta,
±(n);

F ´ I : a(¿) ! b(¿) = I [a(¿)] = a(¿ ): (3.56)

² Operadores desplazamiento: en virtud de que la señal transformada por el operador es la misma que
la señal obtenida, escribiremos esta familia de operadores en la forma,
© ª
fFg ´ D(¿ 0 ) : a(¿ ) ¡! b(¿) = D(¿ 0 ) [a(¿ )] = a(¿ + ¿ 0 ): (3.57)

El valor del desplazamiento ¿ 0 (x0 ó n0 ) ha de ser visto como un parámetro descriptivo de la familia
de operadores. Fijado un valor de ¿ 0 ; seleccionaremos un operador desplazamiento concreto.
² Operadores escalado: el escalado de una señal por un cierto valor K 2 C queda de…nido dentro del
álgebra de los espacios de señales (espacios vectoriales), recogiéndose aquí por ser otra familia de
operadores básicos en ciertos problemas físicos. Su de…nición está basada en el operador identidad
y descrita por el valor escalar K como parámetro descriptivo de la familia; así,

fFg ´ fKIg : a(¿) ¡! b(¿) = (KI) [a(¿ )] = Ka(¿ ): (3.58)

78 c Emilio Gago-Ribas, 2002


°
3.6.2 Operadores en variable continua.
² Operador primera derivada: operador básico para la caracterización matemática de problemas físi-
cos. Actuará punto a punto sobre una determinada señal de entrada f (x): Su generalización tanto
en orden como en dimensiones será la base de los problemas descritos en términos de ecuaciones
diferenciales,
d df (x)
F´ : f (x) ¡! g(x) = = f 0 (x) = f (1) (x): (3.59)
dx dx

Conviene recordar algunas de las de…niciones asociadas a este operador,


¯
df (x) ¯¯ f (x0 + ¢x) ¡ f(x0 ) f(x0 ) ¡ f (x0 ¡ ¢x)
= lim = lim ; (3.60)
dx ¯x0 ¢x!0 ¢x ¢x!0 ¢x
¯
df (x) ¯¯ f(x0 + ¢x=2) ¡ f (x0 ¡ ¢x=2)
= lim : (3.61)
dx ¯x0 ¢x!0 ¢x
En el límite, todas las de…niciones son equivalentes asumiendo que f (x) tenga derivada en x0 ; esto
es, que las derivadas por la izquierda y por la derecha de x0 existan y coincidan en valor. Este
aspecto es sumamente importante por su relación con las distribuciones o funciones generalizadas
que analizaremos en el Cap. 7. Justamente una de las razones que dan lugar a de…nir dichos
objetos matemáticos y analizar ciertas ’funciones’ como si fueran distribuciones (véase por ejemplo
la distribución de Heaviside, Secc. 7.6) es el de asegurar la existencia de la derivada (primera o de
orden superior) para todo el rango de de…nición de la función original6 . Desde el punto de vista
práctico, un sistema caracterizado por el operador diferencial de primer orden suele denominarse
derivador.
² Operador derivada n-ésima: partiendo del operador primera derivada, podremos de…nir derivadas de
ordenes superiores,
µ ¶
d2 d2 f(x) d df(x)
F ´ 2 : f(x) ¡! g(x) = = = f 00 (x) = f (2) (x); (3.62)
dx dx2 dx dx
µ ¶
d3 d3 f(x) d2 df (x)
F´ : f (x) ¡! g(x) = = = f 000 (x) = f (3) (x); (3.63)
dx3 dx3 dx2 dx
y, en general,
µ ¶
dn dn f (x) dn¡1 df (x)
F´ n
: f(x) ¡! g(x) = n
= n¡1 = f (n) (x): (3.64)
dx dx dx dx

² Operador integral inde…nida: los operadores integrales estarán relacionados con el operador derivada
y, de…nidos adecuadamente, tendrán que ver con el operador inverso del operador derivada. En este
caso, el operador es punto a punto, operando sobre una función en la forma,
Z Z
F ´ (¢) dx ¡! g(x) = f (x) dx: (3.65)

Nótese que para cada f (x) existen in…nitas g(x) que di…eren entre sí por una constante arbitraria.
² Operador integral de…nida: En el caso de la integral de…nida, ésta dependerá del dominio de de…nición
correspondiente; así por ejemplo,
Z x Z x
0
F´ (¢) dx ¡! g(x) = f (x0 ) dx0 : (3.66)
a a

Un caso de especial importancia en el espacio S(¡1; 1) será el operador,


Z x Z x
F´ (¢) dx0 ¡! g(x) = f(x0 ) dx0 : (3.67)
¡1 ¡1
6 En el caso de la distribución ¡(x); vista como ’función’ no tendría de…nida su derivada en el punto donde se encuentra

localizada la discontinuidad, pero sí podría de…nirse su derivada en dicho punto si se analiza como una distribución. En
este caso, su derivada vendrá expresada para todo x en términos de otra distribución, la delta de Dirac. Diremos por tanto
que d¡(x)=dx = ±(x); para todo x:

c Emilio Gago-Ribas, 2002


° 79
3.6.3 Operadores en variable discreta.
² Operador primera diferencia: el operador primera diferencia será el equivalente al operador primera
derivada en señales de variable continua. Dada la naturaleza de estas señales, podremos de…nir las
siguientes operaciones importantes,
F ´ D(1) ¡ I : x(n) ! y(n) = x(n + 1) ¡ x(n); (3.68)

F ´ I ¡ D(¡1) : x(n) ! y(n) = x(n) ¡ x(n ¡ 1): (3.69)

² Operadores en diferencias: a partir del operador primera diferencia, se pueden de…nir operadores en
diferencias de ’ordenes’ superiores, equivalentes a los operadores en derivadas de orden superior a
la unidad. Así por ejemplo,
F ´ D(1) ¡ 2I + D(¡1) : x(n) ! y(n) = x(n + 1) ¡ 2x(n) + x(n + 1); (3.70)
o cualquier otra combinación de la señal original pesada y desplazada adecuadamente.
² Operadores en sumas: los operadores en sumas serán el equivalente en espacios de señales de variable
discreta a los operadores integrales, dependiendo también en este caso del dominio de de…nición; así
por ejemplo,
n
X n
X
F´ (¢) : x(n) ! y(n) = x(m); (3.71)
m=N m=N

o el caso particular de especial importancia en el espacio D(¡1; 1);


n
X n
X
F´ (¢) : x(n) ¡! y(n) = x(m): (3.72)
m=¡1 m=¡1

En la Fig. 3.17 se muestra la representación de algunos de estos operadores básicos en su forma


práctica de sistemas.

3.6.4 Operadores integrales con núcleo K(¿; ¿ 0 ):

Una familia de operadores integrales de particular importancia en el análisis de problemas físico-


matemáticos es aquella descrita en la forma general,

F : f(¿ (0) ) ! g(¿ (0) ) = F [f (¿ )]


Z (3.73)
F´ (¢) K(¿; ¿ 0 ) d¿ (0) ;
¿ (0)

donde la notación ¿ (0) representa cualquiera de las dos variables ¿ y ¿ 0 : El conjunto continuo de fun-
ciones fK(¿ ; ¿ 0 )g se denomina núcleo de la integral. Dependiendo del problema representado y de la
interpretación buscada, tanto ¿ como ¿ 0 podrán jugar el papel de parámetro descriptivo del conjunto
de funciones, esto es, ¿ podrá describir un conjunto de funciones sobre ¿ 0 ; o viceversa. La forma de las
funciones representadas por K así como las variables ¿ y ¿ 0 serán las encargadas de describir diferentes
familias de operadores. Algunos de los casos más importantes son los siguientes:
² Integrales de convolución en variable continua. En este caso, (¿ ; ¿ 0 ) ´ (x; x0 ): La ecuación (3.73)
tomará la siguiente forma particular,

F : f (x) ¡! g(x) = F [f (x)] ;


Z (3.74)
F´ (¢) K(x ¡ x0 ) dx0 :
x0

En este caso, ambas variables harán referencia al mismo dominio de de…nición7 . En las Seccs. 3.7.1
y 3.7.2 se presenta una descripción detallada de esta operación así como su formulación en términos
de un operador integral donde la variable x identi…cará cada una de las funciones del núcleo.
7 Por ejemplo, si la variable x representa el dominio temporal, la variable x0 también describirá dicho dominio, x ´ t y

x0 ´ t0 :

80 c Emilio Gago-Ribas, 2002


°
Figura 3.17. Representación en forma de sistema de los operadores básicos para los
casos de variable continua y discreta: (a) operador identidad; (b) operador desplaza-
miento; (c) operador escalado; (d) operador primera derivada y primera diferencia,
y (e) integrador y sumador.

² Representación de un sistema lineal en variable continua. En este caso, (¿ ; ¿ 0 ) ´ (x; x0 ): El conjunto


de funciones núcleo recibirán el nombre de respuestas al impulso del sistema y habitualmente se
denotarán por fh(x; x0 )g ó fG(x; x0 )g ; esta última asociada a la teoría de funciones de Green rela-
cionada con problemas inversos y mencionada ya en la Secc. 3.4.4. La ecuación (3.73) tomará la
siguiente forma particular,
2 3 2 3
F : f (x) ¡! g(x) = F [f (x)] ; F : f (x) ¡! g(x) = F [f (x)] ;
6 Z 7 6 Z 7
4 5 ó 4 5 (3.75)
0 0 0 0
F´ (¢) h(x; x ) dx : F´ (¢) G(x; x ) dx :
x0 x0
En el Cap. 6 se abordará ampliamente este problema para los problemas directos. Una vez más,
ambas variables harán referencia al mismo dominio de de…nición, siendo la variable x0 la encargada
de jugar el papel de parámetro descriptivo del conjunto de funciones respuesta al impulso.
² Representación de un sistema lineal e invariante en variable continua. Este es un caso particular del
anterior cuando el sistema es, además, invariante. En este caso, el conjunto de funciones núcleo se
podrá representar a partir de una única función h(x) ó G(x); de forma que fh(x; x0 )g = fh(x ¡ x0 )g
ó fG(x; x0 )g = fG(x ¡ x0 )g : La ecuación (3.73) tomará la siguiente forma particular,
2 3 2 3
F : f (x) ¡! g(x) = F [f (x)] ; F : f (x) ¡! g(x) = F [f (x)] ;
6 Z 7 6 Z 7
4 5 ó 4 5 (3.76)
0 0 0 0
F´ (¢) h(x ¡ x ) dx : F´ (¢) G(x ¡ x ) dx :
x0 x0
En el Cap. 6 se abordará ampliamente este problema particular para problemas directos.
² Transformadas en variable continua. En este caso, (¿ ; ¿ 0 ) ´ (x; ¿ 0 ): La variable ¿ 0 será habitualmente
la encargada de describir al conjunto de funciones fK(x; ¿ 0 )g ; pudiendo identi…car tanto valores
discretos, ¿ 0 ´ m 2 Z; como continuos, dependiendo de que dicho conjunto de funciones sea nu-
merable o continuo, respectivamente. La variable ¿ 0 se identi…cará habitualmente como la ’variable
espectral’, siendo x la ’variable real’. En este caso, las variables identi…carán dominios de de…nición
de diferente naturaleza8 . Dependiendo de cuál sea el conjunto de funciones fK(x; ¿ 0 )g obtendremos
una transformación o familia de operadores diferentes. Cabe destacar los siguientes ejemplos:
8 En el caso de la tranformada de Fourier, por ejemplo, si x representa un dominio espacial (denotado en la práctica

c Emilio Gago-Ribas, 2002


° 81
1. En el caso de las transformadas directas, el operador integral en (3.73) se particularizará de la
siguiente forma,

F : f(x) ¡! F (¿ 0 ) = F [f (x)] ;
Z (3.77)
F ´ (¢) K(x; ¿ 0 ) dx:
x

Este será el caso de: (i) los coe…cientes del desarrollo en serie de Fourier, DSF; de señales per-
iódicas de variable continua con un núcleo integral numerable, Cap. 8, y (ii) las transformadas
de Fourier y de Laplace, TF y TL; con un núcleo integral continuo9 , Caps. 9 y 11.
2. En el caso de las transformadas inversas, la variable ¿ 0 identi…cará siempre a una variable
continua, esto es, ¿ 0 ´ »; el operador integral en (3.73) se particularizará como sigue,

F¡1 : F (») ¡! f(x) = F¡1 [F (»)] ;


Z (3.78)
F¡1 ´ (¢) K(x; ») d»:
»

Este será el caso de las transformadas inversas de Fourier y de Laplace, TF¡1 y TL¡1 ; con un
núcleo integral continuo, Caps. 9 y 11.
² Transformadas en variable discreta. En este caso, (¿ ; ¿ 0 ) ´ (n; ¿ 0 ): La interpretación de la variable
¿ 0 es totalmente similar a la realizada en el punto anterior para el caso de variable continua. Cabe
destacar el siguiente caso:
1. En el caso de las transformadas inversas, la variable ¿ 0 identi…cará siempre a una variable
continua, esto es, ¿ 0 ´ -; el operador integral en (3.73) se particularizará como sigue,

F¡1 : X(-) ¡! x(n) = F¡1 [X(-)] ;


Z (3.79)
F¡1 ´ (¢) K(n; -) d-:
-

Este será el caso de las transformadas inversas de Fourier y Z de señales discretas, TF¡1 y
TZ¡1 ; con un núcleo integral continuo10 . Estos casos se analizarán en el Vol. ST-II.

3.6.5 Operadores en sumas con núcleo K(¿; ¿ 0 ):


El equivalente en variable discreta a los operadores integrales de núcleo K(¿ ; ¿ 0 ) serán los operadores en
sumas descritos en su forma más general por,
£ ¤
F : x(¿ (0) )) ¡! y(¿ (0) ) = F x(¿ (0) ) ;
X (3.80)
F´ (¢) K(¿ ; ¿ 0 );
¿ (0)

representando por ¿ (0) a cualquiera de las dos variables ¿ y ¿ 0 : Nótese que esta representación general
indica que la variable sobre la que se realiza el sumatorio ha de ser siempre discreta. El conjunto
de funciones fK(¿ ; ¿ 0 )g será ahora el núcleo del sumatorio. Una vez más, dependiendo del problema
representado y de la interpretación buscada, cualquiera de las dos variables ¿ y ¿ 0 podrá jugar el papel
de parámetro descriptivo del conjunto de funciones. Los principales casos a destacar son:
² Sumas de convolución en variable discreta. En este caso, (¿; ¿ 0 ) ´ (n; m): La ecuación (3.80) tomará
la siguiente forma particular,

F : x(n) ¡! y(n) = F [x(n)] ;


X (3.81)
F´ (¢) K(n ¡ m):
m

por z), ¿0 representará el dominio del número de onda (representado habitualmente por ¯): Así, tendremos un conjunto
de funciones núcleo descrito …nalmente por fK(z; ¯)g :
9 En el caso de la transformada de Laplace, la variable ¿ 0 ´ s 2 C:
10 En el caso de la transformada Z, la variable ¿ 0 ´ z 2 C:

82 c Emilio Gago-Ribas, 2002


°
En las Seccs. 3.7.3 y 3.7.4 se realiza una descripción detallada de esta operación así como su
interpretación analizada como un operador en sumas donde la variable n acabará identi…cando a
cada una de las funciones del núcleo.
² Representación de un sistema lineal en variable discreta. En este caso, (¿; ¿ 0 ) ´ (n; m): El conjunto
de funciones núcleo recibirán el nombre de respuestas al impulso del sistema y habitualmente se
denotarán por fh(n; m)g : La ecuación (3.80) tomará la siguiente forma particular,

F : x(n) ¡! y(n) = F [x(n)] ;


X (3.82)
F´ (¢) h(n; m);
m

siendo ahora m la variable encargada de describir dicho conjunto de funciones. Estos aspectos serán
analizados en el Vol. ST-II correspondiente a señales y sistemas de variable discreta.
² Representación de un sistema lineal e invariante en variable discreta. Este es un caso particular del
anterior cuando el sistema es, además, invariante. En este caso, el conjunto de funciones núcleo se
podrá representar a partir de una única función h(n) de forma que fh(n; m)g = fh(n ¡ m)g : La
ecuación (3.80) tomará la siguiente forma particular,

F : x(n) ¡! y(n) = F [x(n)] ;


X (3.83)
F´ (¢) h(n ¡ m):
m

Estas representaciones serán analizadas en el Vol. ST-II correspondiente a señales y sistemas de


variable discreta.
² Transformadas en variable discreta. En este caso, (¿; ¿ 0 ) ´ (n; ¿ 0 ): La variable ¿ 0 será la encargada de
describir al conjunto de funciones fK(n; ¿ 0 )g, pudiendo identi…car a una variable discreta o continua,
dependiendo de que dicho conjunto de funciones sea numerable o continuo, respectivamente. La
variable ¿ 0 se identi…cará habitualmente como la ’variable espectral’, siendo en este caso n la ’variable
real’. Cabe destacar los siguientes ejemplos:
1. En el caso de las transformadas directas, el operador en (3.80) se particularizará de la siguiente
forma,

F : x(n) ¡! X(¿ 0 ) = F [x(n)] ;


X (3.84)
F´ (¢) K(n; ¿ 0 ):
n

Este será el caso de: (i) los coe…cientes del desarrollo en serie de Fourier, DSF; de señales
discretas periódicas con un núcleo integral numerable, y (ii) las transformadas de Fourier y Z,
TF y TZ; de señales de variable discreta con un núcleo integral continuo11 . Todos estos casos
quedarán recogidos en el Vol. ST-II.
2. En el caso de las transformadas inversas, el operador en (3.80) se particularizará como sigue,

F¡1 : X(k) ¡! x(n) = F¡1 [X(k)] ;


X (3.85)
F¡1 ´ (¢) K(x; k):
k

Nótese que en este caso es obligado que la variable espectral ¿ 0 ´ k 2 Z: Este será el caso
del desarrollo en serie de Fourier, DSF¡1 ; de señales discretas periódicas analizado en el Vol.
ST-II.
² Transformadas en variable continua. En este caso, (¿ ; ¿ 0 ) ´ (x; m): La interpretación de la variable
m es totalmente similar a la realizada en el punto anterior para el caso de variable discreta. Cabe
destacar el siguiente caso:
1 1 En el caso de la transformada Z, la variable ¿ 0 ´ z 2 C:

c Emilio Gago-Ribas, 2002


° 83
1. En el caso de las transformadas inversas, el operador integral en (3.80) se particularizará como
sigue,

F¡1 : F (m) ¡! f(x) = F¡1 [F (m)] ;


X (3.86)
F¡1 ´ (¢) K(x; m):
m

Este será el caso del desarrollo en serie de Fourier, DSF¡1 ; de señales periodicas de variable
continua con un núcleo numerable de funciones, Cap. 8.

3.7 Operaciones de convolución.


En esta sección analizaremos en detalle las operaciones de convolución para los casos de variable continua
y discreta. Esta forma de organización es debida a la importancia que en su momento jugarán estas
operaciones en la representación tanto de sistemas de variable continua, analizados en este texto, como
de variable discreta, analizados en el Vol. ST-II. Presentaremos aquí su análisis matemático detallado,
su interpretación como un operador integral y sus propiedades más importantes.

3.7.1 Integral de convolución en S(¡1; 1).


La convolución de dos señales f (x) y g(x) se de…ne en términos de un operador integral en la forma,
Z 1
c(x) = f(x) ¤ g(x) = f (x0 )g(x ¡ x0 ) dx0 : (3.87)
¡1

Como se verá en los Caps. 6 y 7, este operador aparece de forma natural al de…nir señales localizadoras
de tipo impulsivo que permiten caracterizar de forma general un sistema. La aparición de este tipo de
operadores será debida, una vez más, a la métrica de…nida sobre el espacio de señales, dependiente del
producto escalar de…nido en (2.54) como una forma bilineal integral. Dada su importancia, estudiaremos
a continuación sus propiedades más importantes, así como su análisis e interpretación.
² Propiedades.
1. Conmutativa:

f (x) ¤ g(x) = g(x) ¤ f(x); (3.88)

Z 1 Z 1
0 0 0
f(x )g(x ¡ x ) dx = f(x ¡ x0 )g(x0 ) dx0 : (3.89)
¡1 ¡1

2. Asociativa:

f(x) ¤ [g(x) ¤ h(x)] = [f(x) ¤ g(x)] ¤ h(x): (3.90)

3. Distributiva:

f(x) ¤ [g(x) + h(x)] = f(x) ¤ g(x) + f(x) ¤ h(x): (3.91)

Las demostraciones correspondientes a estas propiedades pueden resultar interesantes desde el punto
de vista de obtener práctica en el manejo de este tipo de operaciones, y se pueden encontrar en el
Ap. E.2.
² Análisis. Nótese que ésta operación pasa por entender las siguientes operaciones:
1. Asumiendo un valor de x = x1 …jo donde queremos conocer el valor de la convolución de ambas
funciones:
(a) De…nir ambas funciones sobre una variable intermedia x0 y mantener una de las funciones
tal cuál ha sido especi…cada, por ejemplo f(x0 ):

84 c Emilio Gago-Ribas, 2002


°
(b) Re‡ejar la otra función, por ejemplo g(x0 ) ! g(¡x0 ); respecto al eje de ordenadas, y
desplazar posteriormente dicha función una cierta cantidad especi…cada por el valor de x1 ;
obteniéndose g(x1 ¡ x0 ):
(c) Finalmente, deberemos integrar en x0 la función resultante de multiplicar punto a punto y
para todo x0 las funciones f (x0 ) y g(x1 ¡x0 ): Esta operación de multiplicación, dependiendo
del valor de x1 ; será la que en muchos casos determine los valores adecuados para los límites
de integración en función del dominio de de…nición resultante de dicho producto.
(d) La operación de convolución …nal, de…nida para todo x; se obtendrá sin más que repetir
el proceso anterior para todos los valores de x del dominio de de…nición de las funciones.
El resultado …nal será, por supuesto, una nueva función en la variable original x:
2. Si las señales involucradas en la convolución son reales, esto es, Im ff(x)g = 0 e Im fg(x)g = 0;
la convolución de ambas será también una señal real en la forma,
Z 1
c(x) = Re fc(x)g = f (x0 )g(x ¡ x0 ) dx0 ; (3.92)
¡1

de forma que la interpretación de la convolución resulta especialmente sencilla, tal y como se


muestra en el ejemplo de la Fig. 3.18.
3. En el caso más general de señales complejas, el análisis de la convolución pasa por considerar
el producto f(x0 )g(x ¡ x0 ) en sus partes real e imaginaria,
8 Z 1
>
> 0
c (x) = [f 0 (x0 )g 0 (x ¡ x0 ) ¡ f 00 (x0 )g 00 (x ¡ x0 )] dx0 ;
>
>
< ¡1
c(x) ! Z 1 (3.93)
>
>
>
>
: c00 (x) = [f 0 (x0 )g 00 (x ¡ x0 ) + f 00 (x0 )g 0 (x ¡ x0 )] dx0 ;
¡1

tal y como se muestra en el ejemplo de la Fig. 3.19.


² Expresión general. La de…nición anterior la expresaremos habitualmente de la siguiente forma,
Z
c(x) = f (x) ¤ g(x) = f(x0 )g(x ¡ x0 ) dx0 : (3.94)
x0

Con esta de…nición asumiremos, en general, que los límites de integración, denotados de forma
genérica por x0 ; han de ser los adecuados en función del rango de valores de la variable independiente
donde las funciones sean no nulas. En este sentido, la interpretación grá…ca de esta operación
resultará de gran importancia a la hora de determinar los límites de integración adecuados en el
proceso de cálculo de la misma.
² Interpretación como un operador integral. Consideremos R en primer lugar el análisis de la operación de
convolución para un cierto valor x1 ; esto es, c(x1 ) = x0 f(x0 )g(x1 ¡ x0 ) dx0 : Resulta sencillo asociar
esta operación con un funcional F; Secc. 3.3.1, en la forma,

F : f(x) ! c(x1 ) 2 C;
Z (3.95)
F ´ (¢)g(x1 ¡ x0 ) dx0
x0

Esta representación identi…caría a un funcional F como aquel que a una función f (x) le asocia un
cierto valor complejo c(x1 ): Nótese que el funcional contiene en su propia de…nición a la función
g(x1 ¡ x0 ): Diferentes funciones g(x) darían lugar a diferentes funcionales, describiendo así cualquier
operación de convolución para el valor x1 especi…cado.
Extendiendo este resultado para todo valor de x; esto es x1 ! x 2 R; podremos claramente identi-
…car la convolución con un operador integral en la forma,

F : f (x) ! c(x);
Z (3.96)
F´ (¢)g(x ¡ x0 ) dx0
x0

c Emilio Gago-Ribas, 2002


° 85
donde la función g(x ¡ x0 ) juega el papel de núcleo del operador integral. Nótese también que para
cada valor de x; la función g(x ¡ x0 ) es una diferente, de forma que el núcleo será en realidad una
familia de funciones fg(x ¡ x0 )g identi…cadas en este caso por la varibale x original del problema.
En la Fig. 3.18 se pueden ver tres ejemplos correspondientes a las funciones g(x1 ¡ x0 ); g(x2 ¡ x0 )
y g(x3 ¡ x0 ) para el caso de funciones reales.

f(x') g(x') g(-x')


3,0 3,0 3,0

1,5 1,5 1,5

0,0 0,0 0,0

-1,5 -1,5 -1,5

-3,0 -3,0 -3,0


-5 -4 -3 -2 -1 0 1 2 3 4 5 -4 -3 -2 -1 0 1 2 3 4 -4 -3 -2 -1 0 1 2 3 4
g(x1-x') x' g(x2-x') x' g(x3-x') x'
3,0 3,0 3,0

1,5 1,5 1,5

0,0 0,0 0,0

-1,5 -1,5 -1,5

-3,0 -3,0 -3,0


-5 -4 -3 -2 -1 0 1 2 3 -4 -3 -2 -1 0 1 2 3 4 -3 -2 -1 0 1 2 3 4 5
f(x')g(x1-x') x' f(x')g(x2-x') x' f(x')g(x3-x') x'
3,0 3,0 3,0

1,5 1,5 1,5

0,0 0,0 0,0

-1,5 -1,5 -1,5

-3,0 -3,0 -3,0


-5 -4 -3 -2 -1 0 1 2 3 -4 -3 -2 -1 0 1 2 3 4 -3 -2 -1 0 1 2 3 4 5
x' x' c(x2) x'
3,0
c(x)
1,5

0,0 c(x3)
c(x1)
-1,5

-3,0
-5 -4 -3 -2 -1 0 1 2 3 4 5
x

Figura 3.18. Ejemplo del proceso involucrado en la convolución de dos señales reales
de variable continua. Los valores de c(x) mostrados son c(x1 ) = c(¡1); c(x2 ) = c(0)
y c(x3 ) = c(1):

3.7.2 Integral de convolución en P (X0 ). Convolución periódica.


Dado que en el espacio de señales periódicas de período X0 ; la integral de convolucion en (3.87) resultaría
divergente, de…niremos una operación equivalente de…nida sobre un período cualquiera de la señal. Esta
operación será la convolución periódica, y quedará de…nida por,
Z
c0 (x) = f0 (x) ¤ g0 (x) = f0 (x0 )g0 (x ¡ x0 ) dx0 : (3.97)
hX0 i

Resulta trivial demostrar que, tanto las propiedades como su interpretación grá…ca, son las mismas que
para la convolución continua de señales no periódicas. Es también sencillo demostrar que el resultado
de la convolución de dos señales periódicas de período X0 es otra señal periódica del mismo período, es
decir, que el resultado tambien pertencece a P (X0 ): En el Ap. E.3 se puede encontrar una demostración
de esta propiedad.

86 c Emilio Gago-Ribas, 2002


°
Re{f (x')} Im{f (x')}
3,0 3,0

1,5 1,5

0,0 0,0

-1,5 -1,5

-3,0 -3,0
-2 -1 0 1 2 3 4 5 -2 -1 0 1 2 3 4 5
x' x'
Re{g(x')} Im{g(x')}
3,0 3,0

1,5 1,5

0,0 0,0

-1,5 -1,5

-3,0 -3,0
-4 -3 -2 -1 0 1 2 3 4 -4 -3 -2 -1 0 1 2 3 4
x' x'
Re{g(-x')} Im{g(-x')}
3,0 3,0

1,5 1,5

0,0 0,0

-1,5 -1,5

-3,0 -3,0
-4 -3 -2 -1 0 1 2 3 4 -4 -3 -2 -1 0 1 2 3 4
x' x'
Re{g(x-x')} Im{g(x-x')}
3,0 3,0

1,5 1,5

0,0 0,0

-1,5 -1,5

-3,0 -3,0
-2 -1 0 1 2 3 4 5 -2 -1 0 1 2 3 4 5
x' x'
f '(x')g'(x-x')-f ''(x')g''(x-x') f '(x')g''(x-x')+f ''(x')g'(x-x')
3,0 3,0

1,5 1,5

0,0 0,0

-1,5 -1,5

-3,0 -3,0
-2 -1 0 1 2 3 4 5 -2 -1 0 1 2 3 4 5
x' x'
Re{c(1.5)} Im{c(1.5)}
Re{c(x)} Im{c(x)}
3,0 3,0

1,5 1,5

0,0 0,0

-1,5 -1,5

-3,0 -3,0
-2 -1 0 1 2 3 4 5 -2 -1 0 1 2 3 4 5
x x

Figura 3.19. Ejemplo del proceso involucrado en la convolución de dos señales


complejas de variable continua. El valor de c(x) indicado es el de c(x = 1:5):

c Emilio Gago-Ribas, 2002


° 87
3.7.3 Convolución discreta en D(¡1; 1). Suma de convolución.
La convolución de dos señales de variable discreta se de…ne de la forma siguiente,
1
X
c(n) = x(n) ¤ y(n) = x(m)g(n ¡ m); (3.98)
m=¡1

donde se ha supuesto que las señales x(n) e y(n) están de…nidas en todo el intervalo de la variable
independiente n:
² Propiedades.
1. Conmutativa:

x(n) ¤ y(n) = y(n) ¤ x(n); (3.99)

1
X 1
X
x(m)y(n ¡ m) = x(n ¡ m)y(m): (3.100)
m=¡1 m=¡1

2. Asociativa:

x(n) ¤ [y(n) ¤ h(n)] = [x(n) ¤ y(n)] ¤ h(n): (3.101)

3. Distributiva:

x(n) ¤ [y(n) + h(n)] = x(n) ¤ y(n) + x(n) ¤ h(n): (3.102)

Las demostraciones correspondientes a estas propiedades se pueden encontrar en el Ap. E.4.


² Análisis. De forma similar a como ocurría para señales de variable continua, ésta operación pasa por
entender las siguientes operaciones:
1. Asumiendo un valor de n = n1 …jo donde queremos conocer el valor de la convolución de ambas
funciones:
(a) De…nir ambas funciones sobre una variable intermedia m y mantener una de las secuencias
en la forma especi…cada, por ejemplo x(m):
(b) Re‡ejar la otra secuencia, por ejemplo y(m) ! y(¡m); respecto al eje de ordenadas, y
desplazar posteriormente dicha función una cierta cantidad especi…cada por el valor de n1 ;
obteniéndose y(n1 ¡ m):
(c) Finalmente, deberemos sumar para todo m la función resultante de multiplicar punto a
punto (para todo m) las funciones x(m) e y(n1 ¡ m): Esta operación de multiplicación,
dependiendo del valor de n1 ; será la que determine los valores adecuados para los límites
del sumatorio en función del dominio de de…nición resultante de ese producto.
(d) La operación de convolución …nal, de…nida para todo n; se obtendrá sin más que repetir
el proceso anterior para todos los valores de n del dominio de de…nición de las funciones.
El resultado …nal será, por supuesto, una nueva secuencia en la variable original n:
2. En la Fig. 3.20 se muestra un resumen grá…co de la interpretación de esta operación en el caso
general de señales complejas. Nótese que las siguientes expresiones son equivalentes sin más
que desarrollar el producto x(m)y(n ¡ m) en su parte real e imaginaria,
8 1
>
> X
>
> c0
(n) = [x0 (m)y 0 (n ¡ m) ¡ x00 (m)y 00 (n ¡ m)]
>
< m=¡1
c(n) ! (3.103)
>
> X1
>
> 00 0 00 00 0
[x (m)y (n ¡ m) + x (m)y (n ¡ m)]
: c (n) =
>
m=¡1

88 c Emilio Gago-Ribas, 2002


°
3. Si las secuencias involucradas en la convolución son reales, esto es, x00 (n) = 0 e y 00 (n) = 0; la
convolución de ambas será también una señal real en la forma,
1
X
c(n) = c0 (n) = x(m)y(n ¡ m): (3.104)
m=¡1

En la Fig. 3.21 se muestra un ejemplo grá…co de la interpretación de esta operación para el


caso más sencillo de dos señales reales.
² Expresión general. En el caso en que el espacio de señales esté de…nido sobre un intervalo diferente a
(¡1; 1) la de…nición es la misma sin más que restringir adecuadamente los límites del sumatorio.
En general, denotaremos una operación de convolución de señales de variable discreta de la siguiente
forma,
X
c(n) = x(n) ¤ y(n) = x(m)y(n ¡ m); (3.105)
m

donde se asume que los límites del sumatorio denotados de forma genérica por m han de ser los
adecuados en función de las señales involucradas. En este sentido, la interpretación grá…ca de esta
operación resulta de gran importancia a la hora de determinar dichos límites cuando se pretende
realizar su cálculo.
² Interpretación como un operador en sumas. Consideremos Pen primer lugar el análisis de la operación
de convolución para un cierto valor n1 ; esto es, c(n1 ) = m x(n1 )y(n1 ¡ m): Resulta sencillo asociar
esta operación con un funcional F; Secc. 3.3.1, en la forma,
X
F ´ (¢)y(n1 ¡ m) : x(n) ! c(n1 ) 2 C: (3.106)
m

Esta representación identi…caría a un funcional F como aquel que a una función discreta x(n) le
asocia un cierto valor complejo c(n1 ): Nótese que el funcional contiene en su propia de…nición a la
función y(n1 ¡ m): Diferentes funciones y(n) darán lugar a diferentes funcionales, describiendo así
cualquier operación de convolución para el valor n1 especi…cado.
Extendiendo este resultado para todo valor de n; esto es n1 ! n 2 Z; podremos claramente identi-
…car la suma de convolución con un operador en la forma,
X
F´ (¢)y(n ¡ m) : x(n) ! c(n); (3.107)
m

donde la función y(n ¡ m) juega el papel de núcleo del operador en sumas. Nótese también que para
cada valor de n; la función y(n ¡ m) es una diferente, de forma que el núcleo será en realidad una
familia de funciones fy(n ¡ m)g identi…cadas en este caso por la varibale n original del problema.

3.7.4 Convolución discreta en D(N0 ). Suma de convolución periódica.


Dado que en el espacio de señales periódicas de período N0 ; la suma de convolucion en (3.98) resultaría
divergente, de…niremos una operación equivalente de…nida sobre un período cualquiera de la señal. Esta
operación será la suma de convolución periódica, y quedará de…nida por,
X
c0 (n) = x0 (n) ¤ y0 (n) = x0 (m)y0 (n ¡ m): (3.108)
hN0 i

Resulta evidente que tanto las propiedades como su interpretación grá…ca, son las mismas que para la
convolución discreta de señales no periódicas. Resulta sencillo demostrar también que el resultado de la
convolución de dos señales periódicas de variable discreta de período N0 es otra señal periódica discreta
del mismo período, es decir, que el resultado tambien pertencece a D(N0 ); Ap. E.5.

c Emilio Gago-Ribas, 2002


° 89
Re{x(m)} Im{x(m)}
3,0 3,0

1,5 1,5

0,0 0,0

-1,5 -1,5

-3,0 -3,0
-10 -8 -6 -4 -2 0 2 4 6 8 10 12 -10 -8 -6 -4 -2 0 2 4 6 8 10 12
m m
Re{y(m)} Im{y(m)}
3,0 3,0

1,5 1,5

0,0 0,0

-1,5 -1,5

-3,0 -3,0
-8 -6 -4 -2 0 2 4 6 8 10 12 14 16 -8 -6 -4 -2 0 2 4 6 8 10 12 14 16
m m
Re{y(-m)} Im{y(-m)}
3,0 3,0

1,5 1,5

0,0 0,0

-1,5 -1,5

-3,0 -3,0
-16 -14 -12 -10 -8 -6 -4 -2 0 2 4 6 8 -16 -14 -12 -10 -8 -6 -4 -2 0 2 4 6 8
m m
Re{y(n-m)} Im{y(n-m)}
3,0 3,0

1,5 1,5

0,0 0,0

-1,5 -1,5

-3,0 -3,0
-10 -8 -6 -4 -2 0 2 4 6 8 10 12 -10 -8 -6 -4 -2 0 2 4 6 8 10 12
m m
x'(m)y'(n-m)-x''(m)y''(n-m) x'(m)y''(n-m)+x''(m')y'(n-m)
4 4

2 2

0 0

-2 -2

-4 -4
-10 -8 -6 -4 -2 0 2 4 6 8 10 12 -10 -8 -6 -4 -2 0 2 4 6 8 10 12
m m Im{c(5)}=Sum(m)
Re{c(n)} Re{c(5)}=Sum(m) Im{c(n)}
3,0 3,0

1,5 1,5

0,0 0,0

-1,5 -1,5

-3,0 -3,0
-10 -8 -6 -4 -2 0 2 4 6 8 10 12 -10 -8 -6 -4 -2 0 2 4 6 8 10 12
n n

Figura 3.20. Ejemplo del proceso involucrado en la suma de convolución de dos


señales de variable discreta. El valor de c(n) indicado es c(n = 5): Las sucesiones de
valores se han unido con rectas para facilitar su lectura e interpretación.

90 c Emilio Gago-Ribas, 2002


°
3,0
x(m) 3,0
y(m) 3,0
y(-m)

1,5 1,5 1,5

0,0 0,0 0,0

-1,5 -1,5 -1,5

-3,0 -3,0 -3,0


-18 -15 -12 -9 -6 -3 0 3 6 9 -3 0 3 6 9 12 15 -15 -12 -9 -6 -3 0 3
m m m
3,0
y(n1-m) 3,0
y(n2-m) 3,0
y(n3-m)

1,5 1,5 1,5

0,0 0,0 0,0

-1,5 -1,5 -1,5

-3,0 -3,0 -3,0


-18 -16 -14 -12 -10 -8 -6 -4 -2 0 2 -15 -12 -9 -6 -3 0 3 -9 -6 -3 0 3 6 9
m m m
x(m) y(n1-m) x(m) y(n2-m) x(m) y(n3-m)

2 2 2

0 0 0

-2 -2 -2

-4 -4 -4
-18 -15 -12 -9 -6 -3 0 3 -15 -12 -9 -6 -3 0 3 -9 -6 -3 0 3 6 9
m m m
c(n2)=Sum(m)
3,0

c(n)=x(n) * y(n)
1,5

c(n1)=Sum(m)
c(n3)=Sum(m)
0,0

-1,5

-3,0
-18 -15 -12 -9 -6 -3 0 3 6 9
n

Figura 3.21. Ejemplo del proceso involucrado en la suma de convolución de dos


señales reales de variable discreta. Los valores de c(n) mostrados son c(n1 ) = c(¡3);
c(n2 ) = c(0) y c(n3 ) = c(4): Las sucesiones de valores se han unido mediante rectas
para facilitar su lectura e interpretación.

c Emilio Gago-Ribas, 2002


° 91
92 c Emilio Gago-Ribas, 2002
°
4. Transformadas y Dominios Transformados

4.1 Introducción.
En el presente capítulo estudiaremos una familia muy concreta de operadores, llamados transformadas,
de gran importancia tanto desde el punto de vista teórico como en la práctica, así como el concepto de
dominios transformados asociados a ellas de forma natural. Los principios que describiremos a contin-
uación deberían servir no sólo para entender las transformaciones más habituales, como el desarrollo en
serie de Fourier y la transformada de Fourier, sino también para poder generalizar estos conceptos a otras
transformaciones menos habituales pero no por ello menos importantes1 . Así mismo, la introducción
aquí expuesta será válida también, dado su carácter general, para espacios de señales discretas y sus
correspondientes transformaciones (desarrollo en serie de Fourier, transformada de Fourier y transfor-
mada Z), casos que se abordarán en detalle en el Vol. ST-II. Desde este punto de vista, habremos de
recurrir una vez más al álgebra de señales expuesto en el Cap. 2 como base fundamental para entender
dichas transformaciones. También será necesario tener presente el álgebra de operadores expuesto en el
Cap. 3 dado que estas transformaciones no son más que un tipo concreto de operador integral del tipo
a los descritos en (3.73) ó (3.80). Recordaremos para ello los conceptos más importantes asociados a los
espacios de dimensión …nita para generalizar posteriormente dichos resultados a espacios de dimensión
in…nita, caso habitual en los espacios de señales continuas.
Consideremos inicialmente un espacio de señales FK1 indicando con a(¿ ) un elemento cualquiera de
dicho espacio (ya sea de variable continua o discreta), y pensemos en un tipo de operador especí…co que
denotaremos por T y que denominaremos como transformación del espacio original de señales FK1 en un
nuevo espacio transformado de señales que denominaremos F~K1 , Fig. 4.1; así,
8 9
< T : FK1 ¡! F~K1 =
; a(¿ ) 2 FK1 ; A(¿ 0 ) 2 F~K1 : (4.1)
: A(¿ 0 ) = T [a(¿ )] ;

Figura 4.1. Representación en forma de sistema de un problema de transformación


de señales a través de un operador transformada T y su transformación inversa T¡1 :
El espacio de señales de partida se representa por FK1 ; denotando por F~K1 al espacio
transformado. Asumimos que la transformación relaciona de forma univoca a las
funciones a(¿ ) 2 FK1 y A(¿ 0 ) 2 F~K1 :

Con este esquema inicial presente, diremos que un dominio transformado2 será aquel que provenga de
transformar o convertir la variable original del problema (domino real, ¿)3 en una nueva variable genérica
¿ 0 que utilizaremos para describir dicho dominio transformado. En posteriores capítulos, esta variable
1 Este será el caso, por ejemplo, de la transformada de Laplace abordado en este libro.
2 También denominaremos a un cierto dominio transformado como dominio espectral.
3 Las variables x ó n en los casos de variable continua y discreta, respectivamente.

93
tomará denominaciones diferentes dependiendo de la transformación particular analizada y del proceso
físico de interés. Algunos ejemplos de las notaciones más habituales pueden encontrarse en el esquema
presentado en la Secc. 4.5. La aparición de esta nueva variable y, por lo tanto, el concepto asociado de
un dominio transformado, será lo que intentaremos analizar en este capítulo de forma general, particu-
larizándose en capítulos posteriores a algunas de las transformadas más importantes. La interpretación
y el signi…cado que pueda tener la nueva variable estarán sujetos tanto al tipo de transformación conc-
reta, como al tipo de problema analizado, de la misma forma que la variable real x podrá representar
variaciones temporales, espaciales, etc. siendo diferente su interpretación en cada caso.
Nótese que la transformación como tal no solamente cambiará el dominio de de…nición de las señales,
sino que asociará a una cierta señal a(¿ ) otra señal A(¿ 0 ) de forma unívoca, lo que garantiza además la
existencia de transformada inversa. La relación existente entre la señal en el dominio real y su asociada en
el dominio espectral dependerá de los criterios generales descritos en este capítulo, así como de criterios
particulares en función de cual sea la transformada en cuestión.

4.1.1 Descripción general de una transformada.


A partir de las consideraciones realizadas, y en virtud de los conceptos algebraicos expuestos en los Caps.
2 y 3, podremos resumir las bases algebraicas para la de…nición de transformaciones y obtención de sus
correspondientes dominios transformados en los siguientes términos generales:
² Bases.
Dado un cierto espacio vectorial de señales FK1 , analizar posibles conjuntos de vectores (funciones)
fe(¿; ¿ 0 )g 2 FK1 linealmente independientes que constituyan una base de dicho espacio. De esta
forma, cualquier elemento a(¿ ) 2 FK1 podrá escribirse en función de los elementos de dicha base.
Esto se realizará en la forma habitual de generar combinaciones lineales de los elementos de la base
que den lugar al elemento a representar. Veremos cómo la forma que tomen estas combinaciones
lineales dependerá de que los espacios representados sean de dimensión …nita o in…nita, así como de
la base considerada; ambos aspectos determinarán la transformación T¡1 ;
8 9
< T¡1 : F~K1 ¡! FK1 =
; a(¿ ) 2 FK1 ; A(¿ 0 ) 2 F~K1 ; (4.2)
: a(¿ ) = T¡1 [A(¿ 0 )] ;

y, consecuentemente, la transformación T en (4.1). Nótese que la transformación T¡1 indica


cualquier forma que pueda tomar la combinación lineal.
² Adecuación de la base.
Además, de todas las posibles bases que pudiéramos considerar en el espacio de partida FK1 , nos
centraremos en aquellas que sean adecuadas desde el punto de vista de los sistemas o espacio de
operadores F que actuarán sobre dicho espacio de señales, Fig. 4.2. En nuestro caso, una base
adecuada estará formada normalmente por vectores propios de dichos operadores, esto es,

F : fe(¿ ; ¿ 0 )g ! F [e(¿ ; ¿ 0 )] = ¸(¿ 0 ) fe(¿ ; ¿ 0 )g : (4.3)

La notación ¸(¿ 0 ) indica una vez más el carácter de la variable ¿ 0 como parámetro que describe a
las función del conjunto continuo; así, una función fe(¿ ; ¿ 0i )g tendrá asociado un valor propio ¸(¿ 0i ):
Esto quiere decir que el conjunto de elementos fe(¿; ¿ 0 )g será un subespacio de vectores propios de
F (Secc. 3.2.3),

fe(¿ ; ¿ 0 )g 2 Aut fFg : (4.4)

Esta característica será fundamental para todos aquellos sistemas que sean lineales, y en concreto
para los que además sean invariantes, esto es, modelados por operadores pertenecientes al espa-
cio L(FK1 ) o al subespacio de éste último LI(FK1 ): Veremos también cómo existirá una versión
transformada del operador F respecto a la transformación T que denotaremos por F¿ 0 :
² Conviene mencionar que el concepto de base de un espacio que usaremos a lo largo del presente
texto es un concepto relativamente relajado respecto a su de…nición algebraica rigurosa. Con esto
queremos decir que el proceso algebraico seguido para demostrar la completitud de una cierta base
y, por lo tanto, de un cierto espacio, será sustituido por un proceso inverso en el que, partiendo de

94 c Emilio Gago-Ribas, 2002


°
un cierto conjunto de elementos de un cierto espacio, demostremos que dicho conjunto es una base
bien del espacio original, bien de nuevos espacios que puedan de…nirse a partir del espacio inicial
tras sucesivas restricciones o ampliaciones4 . Este proceso, menos riguroso que el estrictamente
algebraico, resulta ser muy importante en la práctica dada la gran variedad de señales con las que
podemos encontrarnos. En la Secc. 4.4 se recojerá el proceso de análisis seguido en este texto.

4.1.2 Importancia de los dominios transformados.


Las razones principales que avalan la importancia de los dominios transformados se podrían resumir de
la siguiente forma:
² Desde el punto de vista de los espacios de señales involucrados en un cierto problema físico, Fig.
4.2(a), podríamos destacar dos razones:
(a) Poder representar señales de comportamiento complicado en términos de señales más sencil-
las cuyo comportamiento es bien conocido. Esta razón nos llevará directamente a intentar
encontrar bases de los espacios de funciones con unas características determinadas.
(b) El hecho de que un buen número de propiedades de la señal original de…nida sobre el dominio
real se podrá analizar más fácilmente a través de su representación espectral. Por ejemplo, la
energía de una señal f(x) puede no ser sencilla de analizar en el dominio real x, pero sí en el
dominio espectral a través de la energía de su correspondiente transformada que denominaremos
por F (»): En general, conocida la relación o trasformación entre ambos dominios, será posible
traducir las propiedades de una señal de un dominio a otro.
² Desde el punto de vista de los sistemas, la razón fundamental estará ligada al hecho de que el
análisis de los mismos se puede ver facilitado en gran medida si en lugar de analizar el problema
en el dominio real, lo analizamos sobre la nueva variable espectral. Este hecho viene directamente
ligado al concepto de las diferentes representaciones que un operador toma en función de la base
elegida en el espacio vectorial sobre el que va a operar. En la Fig. 4.2 se muestra un esquema de
este concepto. Un ejemplo sencillo de esta propiedad se puede encontrar en los ejemplos 2 y 3 del
Cap. 1.

Figura 4.2. (a) Visualización algebraica general de un problema de señal donde se


muestran tanto las relaciones entre los espacios correspondientes a los dominios real
y espectral, FK1 Ã! F~K1 y GK2 Ã! G~K2 ; como la relación entre FK1 y GK2 para
un cierto sistema descrito por el operador F. (b) Esquema general de análisis de un
sistema caracterizado por el operador F a través de su versión espectral F¿ 0 : Nótese
que la transformación del dominio real al dominio espectral no es más que un caso
particular de operador T: El operador inverso de dicha transformación, T¡1 ; será el
encargado de describir realmente el signi…cado propio de la transformación.

4 Tómense como referencia, por ejemplo, los diferentes criterios de convergencia de la transformada de Fourier, que

determinan diferentes restricciones sobre el espacio de señales de partida, Secc. 9.3.

c Emilio Gago-Ribas, 2002


° 95
4.2 Espacios de señales de dimensión …nita.
Asumiremos en primer lugar que el espacio de señales FK1 analizado es un espacio vectorial de dimensión
…nita sobre el que se ha de…nido un producto escalar válido. Denotaremos por a(¿ ) a cualquier señal
perteneciente a dichos espacios, esto es,
a(¿) 2 FK1 ; Dim fFK1 g = N 2 Z+ : (4.5)
² Si el espacio es de dimensión …nita signi…ca que cualquier base estará compuesta de N funciones
linealmente independientes, siendo N la dimensión del espacio. Consideraremos entonces una base
arbitraria descrita por fe(¿; m)gN ´ fem (¿ )gN ; m = 1; :::::; N:
² Diremos que cualquier elemento a(¿) del espacio original de funciones puede representarse en la
forma descrita por (2.33),
N
X
a(¿ ) = A(m)e(¿ ; m); (4.6)
m=1

esto es, por una combinación lineal de los elementos de la base. Denotaremos al conjunto de
coe…cientes Am por A(m) de forma que quede explicitamente indicada la naturaleza de señal de
variable discreta que posee dicho conjunto de coe…cientes. Por coveniencia en posteriores desarrollos,
denotaremos al conjunto fem (¿ )gN por fe(¿ ; m)gN : Nótese cómo la variable m ha de ser tomada
como un parámetro que identi…ca a cada una de las funciones que componen el conjunto de base.
Esta notación quedará más clara cuando extendamos estos resultados a los espacios de dimensión
in…nita.
² Teoría de la mejor aproximación. Si la base es, además, ortogonal respecto al producto escalar de…nido
en el espacio, diremos que cuando los coe…cientes A(m) son justamente la proyección del elemento
a(¿ ) sobre cada uno de los elementos de la base, entonces la combinación lineal de…nida previamente
es la mejor aproximación posible a a(¿ ) en términos de fe(¿ ; m)gN : Matemáticamente,
A(m) = ha(¿ ); e(¿ ; m)i : (4.7)
A dicha combinación lineal se la suele denominar desarrollo en serie de Fourier de a(¿ ); independien-
temente del conjunto de funciones base elegido. Históricamente, el desarrollo de Fourier presupone
el uso de una base de funciones seno y coseno.
El análisis de que la expresión en (4.6) junto con (4.7) es la mejor aproximación posible puede
resumirse en los siguientes pasos:
(i) Que la serie en (4.6) sea convergente. Este paso es trivial en espacios de dimensión …nita dado
que la serie tiene N términos y por lo tanto, será siempre convergente. Una forma especialmente
conveniente de visualizar dicha ecuación será expresarla en forma matricial; podremos entonces
escribir,
2 3 2 32 3
a(1) e(1; 1) e(1; 2) ¢ ¢ ¢ e(1; N ) A(1)
6 7 6 76 7
6 a(2) 7 6 e(2; 1) e(2; 2) ¢ ¢ ¢ e(2; N ) 7 6 A(2) 7
6 7 6 76 7
6 ¢ 7=6 ¢ ¢ ¢ ¢ ¢ ¢ 76 ¢ 7 (4.8)
6 7 6 76 7
6 7 6 76 7
4 ¢ 5 4 ¢ ¢ ¢ ¢ ¢ ¢ 54 ¢ 5
a(N ) e(N; 1) e(N ; 2) ¢ ¢ ¢ e(N; N ) A(N)
Nótese que en esta representación hemos anticipado de alguna forma que la combinación lineal
en (4.6) ha de ser equivalente a un sistema de N ecuaciones con N incógnitas, siendo N la
dimensión del espacio, de forma que el sistema pueda tener solución, hecho equivalente a que la
serie en (4.6) sea convergente. Esto sugiere que la variable genérica ¿ ha de ser obligatoriamente
una variable entera n, hecho que se ha expresado haciendo ¿ ´ n: Podemos así adelantar que los
únicos espacios de señales que podrán ser de dimensión …nita serán aquellos cuyos elementos
sean funciones de variable discreta5 . Es fácil comprobar que la independencia lineal de los
elementos de la base aseguran que el determinante de dicho sistema sea nulo y, por lo tanto,
que tenga solución única.
5 Este será el caso, por ejemplo, cuando F
K1 ´ D(N0 ); esto es, el espacio de señales periódicas de variable discreta de
período N0 que estudiaremos en el Vol. ST-II.

96 c Emilio Gago-Ribas, 2002


°
(ii) Que la serie en (4.6) represente al elemento a(¿ ) ´ a(n) y no a otro. Este hecho queda asegurado
cuando los valores de A(m) se obtienen justamente a través del producto escalar de…nido en
(4.7). El término ’mejor aproximación posible’ ha de interpretarse en este caso como que la
igualdad en (4.6) es exacta en términos de la métrica inducida por el producto escalar, esto es,
µ ¶
P
N
d a(n); A(m)e(n; m) = her(n); er(n)i1=2 = 0; (4.9)
m=1

denotando por er(n) a la función resultante de la diferencia entre la fución original a(n) y su
expresión en términos de la combinación lineal en (4.6),
N
X
er(n) = a(n) ¡ A(m)e(n; m); (4.10)
m=1

y A(m) los valores dados por (4.7).


² Diremos entonces que el desarrollo en serie de Fourier de a(¿ ) ´ a(n) en (4.6) se corresponderá con
el operador transformada inversa T¡1 que representa la señal a(n) a partir de una señal discreta
A(m) de longitud N perteneciente al espacio D(N): El operador T vendrá expresado en este caso
por la ecuación de obtención de los coe…cientes en (4.7). El esquema mostrado en la Fig. 4.1 se
podrá particularizar a este caso en la forma mostrada en la Fig. 4.4. La particularización de las
expresiones (4.2) y (4.1) quedará como sigue (nótese que, en este caso, la variable espectral ¿ 0 ´ m),
8 ¡1
9
< T : A(m) ¡! a(n) >
> =
P
N ; a(n); e f(n; m)gN 2 FK1 ; A(m) 2 D(N ); (4.11)
>
: T¡1 (¢) = (¢)e(n; m) >
;
m=1

8 9
< T : a(n) ¡! A(m) =
; a(a); fe(a; m)gN 2 FK1 ; A(m) 2 D(N ): (4.12)
: T(¢) ´ h(¢); e(n; m)i ;

Nótese que el espacio genérico FK1 sería también un espacio de señales discretas de dimensión
N; esto es, D(N ); aunque se ha conservado la notación original para mantener la generalidad del
desarrollo.
² Finalmente, como el conjunto de funciones fe(n; m)gN es una base, deberá ser un conjunto completo,
esto es, todo el espacio original de funciones FK1 podrá generarse a partir de dicha base. En la
práctica, y dependiendo de cuál sea el conjunto de funciones base, el espacio de señales original FK1
podrá restringirse, aumentarse o mantenerse igual de forma que se cumpla esta propiedad. Este
tipo de restricciones vendrá asociado habitualmente al análisis de (4.9). Estas consideraciones será
de especial importancia en el caso de espacios de dimensión in…nita. En el caso de dimensión …nita,
la completitud de la base viene asegurada por la igualdad en (4.9).

4.3 Espacios de señales de dimensión in…nita.


Cuando la dimensión del espacio vectorial bajo análisis FK1 es in…nita, es decir,

a(¿ ) 2 FK1 ; Dim fFK1 g ! 1; (4.13)

el esquema anterior se mantiene teniendo en cuenta una serie de consideraciones importantes. Este
será, por ejemplo, el caso de los espacios P (X0 ); S(¡1; 1) y D(¡1; 1); este último con una serie de
matizaciones adicionales que se analizarán en el Vol. ST-II.
² Bases.
Considerando ahora un conjunto de base compuesto por un número in…nito de elementos. Podremos
pensar entonces en dos tipos de bases:
1. Un conjunto numerable de in…nitas funciones que denotaremos por fe(¿; m)g ; donde la variable
discreta ¿ 0 ´ m vuelve a jugar el papel de un parámetro que determina cada una de las
funciones del conjunto.

c Emilio Gago-Ribas, 2002


° 97
rango de valores de la variable m
e(τ;m)
como parámetro descriptivo 8

del conjunto {e(τ;m)} m = 2(2ξ0)


6
m = 1(ξ0)
4
m=0
2

-2
-3(ξ0) -2(ξ0) -1(ξ0) 0(ξ0) 1(ξ0) 2(ξ0) 3(ξ0)
m (mξ0) -4
-4 -2 0
τ 2 4
e(τ;ξ)
8
ξ=2 ξ = 1.3
6
ξ=1
ξ = 0.5
4
ξ=0
2
-3 -2 -1 0 1 2 3
ξ 0

rango de valores de la variable ξ


-2
como parámetro descriptivo
del conjunto {e(τ;ξ)} -4
-4 -2 0
τ 2 4

Figura 4.3. Algunos ejemplos de conjuntos in…nitos y numerables, fe(¿ ; m)g ; y


continuos, fe(¿ ; »)g de funciones. En el primer caso se han representado ejemplos de
las funciones e(¿ ; 0); e(¿ ; 1) y e(¿ ; 2): En el segundo caso se han representado cinco
funciones correspondientes a los valores » = 0; 0:5» 0 ; »0 ; 1:3» 0 y 2» 0 ; siendo » 0 un
valor de referencia asociado habitualmente a la forma de las funciones e(¿ ; »):

2. Un conjunto continuo de funciones que denotaremos por fe(¿ ; »)g : El continuo de funciones
vendrá descrito justamente por la variable contiua ¿ 0 ´ » funcionando, desde este punto de
vista, como el parámetro que identi…ca a cada una de las funciones del conjunto continuo. En
la Fig. 4.3 se muestran algunos ejemplos de estas representaciones.
² Combinaciones lineales. La combinación lineal en (4.6) se convierte ahora en uno de los siguientes
casos:
1. Una combinación lineal in…nita y discreta,
1
X
a(¿ ) = A(m)e(¿ ; m): (4.14)
m=¡1

2. Una combinación lineal continua,


Z 1
a(¿ ) = A(»)e(¿ ; ») d»: (4.15)
»=¡1

² Coe…cientes.
Si la base es, además, ortogonal respecto al producto escalar de…nido en el espacio de partida FK1 ;
el valor de los coe…cientes de dichas combinaciones lineales podrá escribirse en términos de dicho
producto escalar para lograr así obtener la mejor aproximación posible al elemento original. Diremos
entonces que,
1. En el primer caso, los coe…cientes A(m) serán un conjunto in…nito y numerable y, por lo tanto,
discreto dado por,

A(m) = ha(¿); e(¿; m)i : (4.16)

98 c Emilio Gago-Ribas, 2002


°
Así, el espacio de llegada F~K1 de la transformación será el espacio de señales discretas
D(¡1; 1):
2. En el segundo caso, el conjunto de coe…cientes A(») será un conjunto continuo dado por,
A(») = ha(¿ ); e(¿ ; »)i : (4.17)
En este último caso, la lista continua de coe…cientes respresentará una nueva función compleja
en términos del parámetro » considerando a éste como una nueva variable, y que denominaremos
normalmente como transformada de a(¿): El espacio de llegada F~K1 de la transformación será
ahora un espacio de señales de variable continua, por ejemplo, S(¡1; 1). La transformada
A(») puede ser vista entonces como6 el conjunto de coe…cientes necesarios para representar
a(¿ ) en términos de la base continua de funciones fe(¿ ; »)g :
² Pares de transformaciones.
1. Combinación lineal in…nita y discreta (la variable espectral ¿ 0 ´ m): A la combinación lineal
discreta in…nita en (4.14) junto con el valor de los coe…cientes dado por (4.16) le seguiremos
denominando desarrollo en serie de Fourier de la señal a(¿) independientemente de cuál sea el
conjunto de funciones fe(¿; m)g : Diremos entonces que el desarrollo en serie de a(¿) en (4.14)
se corresponde con el operador T¡1 que nos provée de la representación de a(¿ ) a partir de una
señal discreta in…nita A(m) 2 D(¡1; 1): El operador transformada directa, o transformada
simplemente, T; vendrá dado por la ecuación de obtención de los coe…cientes en (4.16). El
esquema mostrado en la Fig. 4.1 se podría particularizar a este caso en la forma mostrada en
la Fig. 4.5. Las expresiones generales en (4.2) y (4.1) quedarán particularizadas de la siguiente
forma,
8 ¡1 9
>
> T : D(¡1; 1) ¡! FK1 > >
>
< >
=
¡1
a(¿) = T [A(m)] ; a(¿); fe(¿; m)g 2 FK1 ; A(m) 2 D(¡1; 1): (4.18)
>
> P
1 >
>
> ¡1
: T (¢) = >
(¢)e(¿ ; m) ;
m=¡1

8 9
>
> T : FK1 ¡! D(¡1; 1) >
>
< =
A(m) = T [a(¿ )] ; a(¿ ); fe(¿ ; m)g 2 FK1 ; A(m) 2 D(¡1; 1): (4.19)
>
> >
>
: ;
T(¢) ´ h(¢); e(¿ ; m)i

2. Combinación lineal continua (la variable espectral ¿ 0 ´ »): A la pareja formada por la señal
original, a(¿ ); expresada en términos de la combinación lineal continua en (4.15), junto con
el valor de los coe…cientes en (4.17), representados por la función A(»); formarán el par trans-
formado de a(¿): Diremos entonces que su expresión en (4.15) se corresponde con el operador
transformada inverso T¡1 que nos provée de la representación del elemento original a(¿ ) a
partir de una señal continua A(») 2 F~K1 : El operador transformada, T; vendrá dado por la
ecuación de obtención de los coe…cientes en (4.17). El esquema mostrado en la Fig. 4.1 se
podría particularizar a este caso en la forma mostrada en la Fig. 4.6, quedando las expresiones
(4.2) y (4.1) particularizadas de la siguiente forma,
8 9
>
> T¡1 : F~K1 ¡! FK1 >
>
>
< >
=
a(¿ ) =ZT¡1 [A(»)] ; a(¿ ); fe(¿ ; »)g 2 FK1 ; A(») 2 F~K1 : (4.20)
>
> >
>
> ¡1
: T (¢) = >
(¢)e(¿ ; ») d» ;
»

8 9
>
> T : FK1 ¡! F~K1 >
>
< =
A(») = T [a(¿ )] ; a(¿); fe(¿ ; »)g 2 FK1 ; A(») 2 F~K1 : (4.21)
>
> >
>
: ;
T(¢) ´ h(¢); e(¿ ; »)i
6 Nótese que, dependiendo de cual sea el conjunto continuo de funciones fe(¿ ; »)g así tendremos un conjunto de coe…-

cientes A(»); asumiendo que la señal a(¿ ) es …ja.

c Emilio Gago-Ribas, 2002


° 99
² Análisis de la mejor aproximación.
El análisis de la mejor aproximación pasará en este caso por:
(i) Analizar la convergencia de la serie en (4.14) o del operador integral en (4.15); nótese cómo en
estos casos ya no es posible representar el operador T¡1 como un sistema de ecuaciones, como
ocurría en los espacios de dimensión …nita.
(ii) Analizar la convergencia de (4.14) ó de (4.15) al elemento a(¿ ) original.
En estos casos, la teoría de la mejor aproximación asegura que:
1. Las combinaciones lineales en (4.14) y (4.15) son convergentes si la base es ortogonal.
2. Si los coe…cientes vienen dados por el producto escalar, (4.16) ó (4.17), las expresiones (4.14)
y (4.15) constituyen la mejor aproximación posible al elemento original en virtud de la métrica
inducida por dicho producto escalar. Habitualmente, esta condición llevará a las siguientes
a…rmaciones:
(a) En el caso de combinaciones lineales discretas,
µ ¶
P
1
d a(¿); A(m)e(¿ ; m) = her(¿); er(¿ )i ! 0: (4.22)
m=¡1

(b) En el caso de combinaciones lineales continuas,


µ Z 1 ¶
d a(¿ ); A(»)e(¿; ») d» = her(¿); er(¿ )i ! 0: (4.23)
¡1

En ambos casos denotamos como er(¿ ) a las funciones resultantes de la diferencia entre la
función original a(¿ ) y su expresión en términos, bien de la combinación lineal en (4.14), bien
del operador integral en (4.15),
1
X
er(¿ ) = a(¿ ) ¡ A(m)e(¿ ; m); (4.24)
m=¡1

Z 1
er(¿ ) = a(¿ ) ¡ A(»)e(¿; ») d»: (4.25)
¡1

² Completitud.
Este paso resulta especialmente complicado cuando los espacios de señales son de dimensión in…nita.
Su análisis pasará por el estudio de la métrica natural representada en (4.22) ó (4.23); el resultado
habitual de dicho estudio será la rede…nición del espacio de partida FK1 para que dicha propiedad
se satisfaga. Esto será así en virtud de la forma habitual de abordar el problema que describiremos
en la Secc. 4.4.
² Comentarios.
Resulta importante mencionar que el paso de la variable discreta m a la variable continua » estará
normalmente relacionado con algún valor de referencia » 0 asociado habitualmente a la forma que
tomen las funciones de la base elegida de forma que la relación entre ambos conjuntos de funciones
se podrá ver como fe(¿ ; m)g = fe(¿ ; m» 0 )g y, por lo tanto, A(m) ´ A(m» 0 ); por ejemplo. Este
aspecto quedará más claro al analizar transformaciones especí…cas como las estudiadas en el presente
texto y constituirá la base para entender el paso de una variable in…nita y numerable a una variable
continua.

100 c Emilio Gago-Ribas, 2002


°
Figura 4.4. Representación en forma de sistema de un problema de transformación
de señales a través de un operador transformada T: El espacio FK1 ; de dimensión
…nita, tiene conjuntos base …nitos y, por lo tanto, numerables, siendo el espacio
transformado el espacio de señales discretas D(N ) de longitud N = Dim hFK1 i cuyos
elementos son los coe…cientes A(m) de la transformación descritos en forma de fun-
ciones sobre la variable discreta m:

Figura 4.5. Representación en forma de sistema de un problema de transformación


de señales a través de un operador transformada T: El espacio FK1 ; de dimensión
in…nita, tiene conjuntos base numerables, siendo el espacio transformado el espa-
cio de señales discretas D(¡1; 1) cuyos elementos son los coe…cientes A(m) de la
transformación descritos en forma de funciones sobre la variable discreta m:

Figura 4.6. Representación en forma de sistema de un problema de transformación


de señales a través de un operador transformada T: El espacio FK1 ; de dimensión
in…nita, tiene conjuntos base continuos, siendo el espacio transformado un nuevo
espacio de señales F~K1 cuyos elementos son los coe…cientes A(») de la transformación
descritos en forma de funciones sobre la variable continua »:

c Emilio Gago-Ribas, 2002


° 101
4.4 Análisis de un conjunto de señales como base de un espacio.
Con los conceptos descritos en las Seccs. 4.2 y 4.3, el problema habitual será, una vez más, el comprobar
si un subconjunto de funciones de un espacio de funciones dado constituye una base adecuada de dicho
espacio. El proceso a seguir generalizará de alguna manera los conceptos asociados tanto a espacios de
dimensión …nita como in…nita y se basará en el siguiente esquema general.
² Ortogonalidad.
Comprobaremos que el conjunto de in…nitas funciones es ortogonal respecto al producto escalar
de…nido sobre el espacio vectorial de partida.
² Cálculo de los coe…cientes.
Comprobaremos que a partir de las combinaciones lineales en (4.6), (4.14) ó (4.15) existe una
expresión de los coe…cientes en términos del producto escalar de…nido en el espacio.
² Mejor aproximación.
Comprobaremos que para cualquier elemento a(¿ ) del espacio, su representación en términos de la
combinación lineal de los elementos de la base en la forma dada por (4.6), (4.14) ó (4.15) cuando
los coe…cientes se obtienen a través del producto escalar, (4.7), (4.16) ó (4.17), constituye la mejor
aproximación posible de dicho elemento. Esto lo haremos a través de la métrica de…nida en el
espacio de funciones, es decir, a través de la distancia existente entre entre el elemento original a(¿)
a representar, y su transformacion inversa T¡1 ;
¡ ¢
d a(¿ ); T¡1 [A(¿ 0 )] : (4.26)

Estas ’medidas’ nos permitirán entender el sentido de las igualdades en (4.6), (4.14) ó (4.15). Dicho
en otras palabras, cómo hay que entender la igualdad entre el elemento original a(¿ ) y su rep-
resentación en términos de un conjunto de funciones fe(¿ ; ¿ 0 )g en términos de la métrica natual
de…nida en el espacio de partida correspondiente.
² Completitud.
La forma habitual de abordar el problema de la completitud de la base será a través de la de…nición de
los criterior de convergencia de T¡1 [A(m)] en (4.14) ó T¡1 [A(»)] en (4.15). Estos criterios de con-
vergencia serán una consecuencia del análisis de (4.26). Obtendremos así una serie de restricciones
adicionales sobre los espacios de partida que darán lugar a nuevos espacios donde aseguraremos que
las combinaciones lineales discreta o continua son convergentes, y por lo tanto, que el conjunto de
funciones elegido sí es completo respecto a los nuevos espacios de señales obtenidos.
² Funciones propias.
Comprobaremos que el conjunto de funciones fe(¿ ; m)g ó fe(¿ ; »)g seleccionado en FK1 es el adecua-
do respecto al operador F o espacios de operadores bajo análisis, por ejemplo, L(F K1 ) ó LI(F K1 );
Fig. 4.2. Una vez más, este hecho se traducirá habitualmente en probar la condición general de
funciones propias expresada en (4.4).

102 c Emilio Gago-Ribas, 2002


°
4.5 Ejemplos de espacios de señales, funciones base y transformaciones.

D(N0 ) Espacio de señales complejas de variable discreta de período N0 :


D(¡1; 1) Espacio se señales complejas de variable discreta de…nidas para todo n:
D2 (¡1; 1) Subespacio de D(¡1; 1) de aquellas señales que son cuadrado sumables.
P (X0 ); P (2¼) Espacio de señales complejas de variable real y de período X0 (2¼):
P~ (X0 ) Espacio de señales complejas (funciones y distribuciones) de variable real y de período X0 :
P~ 2 (X0 ) Subespacio de P~ (X0 ) de aquellas señales que son cuadrado integrables.
~
S(¡1; 1) Espacio de señales complejas (funciones y distribuciones) de variable real de…nidas para todo x:
2
L (¡1; 1) ~
Subespacio de S(¡1; 1) de aquellas señales que son cuadrado integrables.
C(ROC) Espacios de funciones complejas de variable compleja para los cuales la transformación
T¡1 correspondiente es convergente (región de convergencia, ROC).

-m = m-0 ; -0 = 2¼=N0 ; » m = m» 0 ; » 0 = 2¼=X0 ; » = 2¼=X; s0 = Refsg

FK1 $ F~K1 Transformaciones:


N 0
D. Real (¿ ) $ D. Esp. (¿ ) T : a(¿ ) ! A(¿ 0 )
Dim fFK1 g
Funciones base: fe(¿ ; ¿ 0 )gN T¡1 : A(¿ 0 ) ! a(¿ )
Desarrollo en serie de Fourier (señales de variable discreta)
D(N0 ) $ D(N0 ) a0 (m) = DSF [x0 (n)] = hx0 (n); Á0 (n; m)i
N0 n2Z $ m2Z P
© jm- n ª x0 (n) = DSF¡1 [a0 (m)] = a0 (m)Á0 (n; m)
fÁ0 (n; m)g = e 0
m=hN0 i

Transformada de Fourier (señales de variable discreta)


D2 (¡1; 1) $ P (2¼) X(-) = TF [x(n)] = hx(n); Á(n; -)i
1 n2Z $ -2R R
© ª x(n) = TF¡1 [X(-)] = 2¼
1
X(-)Á(n; -)d-
fÁ(n; -)g = ej-n <2¼>

Transformada Z (señales de variable discreta)


X x(n)
D2 (¡1; 1) $ C(ROC) X(z) = TZ [x(n)] =
n
Á(n; z)
1 n2Z $ z2C H X(z)
fÁ(n; z)g = fz n g x(n) = TZ¡1 [X(z)] = 2¼j
1
z Á(n; z)dz
jzj=cte

Desarrollo en serie de Fourier (señales de variable continua)


P 2 (X0 ) $ D(¡1; 1) a(m) = DSF [f0 (x)] = hf0 (x); '0 (x; m)i
1 x2R $ m2Z P
© j» x ª f0 (x) = DSF¡1 [a(m)] = a(m)'0 (x; m)
f'0 (x; m)g = e 0 m

Transformada de Fourier (señales de variable continua)


L (¡1; 1) $ L2 (¡1; 1)
2
F (») = TF [f (x)] = hf (x); '(x; »)i
1 x2R $ »2R R
© ª f(x) = TF¡1 [F (»)] = 2¼ 1
F (»)'(x; »)d»
f'(x; »)g = ej»x »

Transformada de Laplace (señales de variable continua)


~ R f (x)
S(¡1; 1) $ C(ROC) F (s) = TL [f(x)] = x '(x;s) dx
1 x2R $ s2C R
f (x) = TL¡1 [F (s)] = 2¼j1
F (s)'(x; s)ds
f'(x; s)g = fesx g s0 =cte

c Emilio Gago-Ribas, 2002


° 103
4.6 Otras transformadas.
Enumeraremos a continuación otras transformadas de gran importancia en la práctica. Su análisis
detallado se deja para futuros textos. En [34] se puede encontrar una buena introducción a algunas de
las transformadas citadas a continuación.
² Transformada de Fourier en coseno y en seno.
² Transformada de Hartley.
² Transformada de Bessel.
² Transformada de Hankel.
² Transformada de Mellin.
² Transformada de Abel.
² Transformada de Hilbert.
² Transformada de Gabor.
² Transformada Wavelet.
² Transformada de Gel’fand-Levitan-Marchenco.

104 c Emilio Gago-Ribas, 2002


°
Señales y Sistemas de Variable
Continua

105
5. Señales de Partida Importantes

5.1 Introducción.
Comenzaremos la parte correspondiente a las señales y los sistemas continuos describiendo el compor-
tamiento de algunas de las señales de partida de mayor importancia a lo largo del presente texto. Estas
señales pertenecerán a los espacios P (X0 ) y S(¡1; 1) descritos en el Cap. 2. El álgebra de…nida sobre
dichos espacios se puede encontrar en las Seccs. 2.6.1 y 2.6.2, y será de aplicación sobre las señales
estudiadas en el presente capítulo, así como los parámetros de señal descritos en la Secc. 2.9.
Las señales aquí analizadas serán la base de posteriores desarrollos en el estudio de los dominios trans-
formados, en particular, el Desarrollo en Serie de Fourier, la Transformada de Fourier, y la Transformada
de Laplace de señales unidimensionales, Caps 8, 9 y 11, respectivamente.
Aunque fuera del contexto de este libro, se presentará también a modo de ejemplo un caso de señal
bidimensional de gran importancia a la hora de analizar problemas …sico-matemáticos relacionados con
la propagación de señales. A su vez, el estudio de estas señales debería servir como introducción a la
teoría de señales multidimensionales, teoría que surge como una extensión de la abordada en este libro.

5.2 Espacio de señales periódicas.


5.2.1 Señales sinusoidales.

² Dominio temporal.
1. Consideremos inicialmente que la variable independiente representa el tiempo t; una señal
senoidal de período T0 vendrá de…nida por,
( )µ ¶ ( ) ( )
sin 2¼ sin sin
f0 (t) = A t =A (! 0 t) = A ('t ): (5.1)
cos T0 cos cos

Resulta evidente que el factor de escala ! 0 = 2¼=T0 se introduce para que el argumento total
de la función 't sea un ángulo (medido habitualmente en radianes). De esta forma logramos
que para todo valor t = mT0 ; el argumento recorra una vuelta completa entre 0 y 2¼ rad.
logrando así una señal senoidal como la representada en la Fig. 5.1(a). Al factor de escala ! 0
se le denomina pulsación de la señal (rad/s); denominando f0 = 1=T0 (Hz=s-1 ) a la frecuencia
de la señal, las siguientes relaciones resultan evidentes,

!0 = = 2¼f0 : (5.2)
T0
Ambos parámetros miden la rapidez de ‡uctuación de la señal sinusoidal en el tiempo. Si ! 0
ó f0 aumentan, T0 disminuye, o viceversa, y la señal varía en t más rápidamente; de forma
similar, si !0 ó f0 disminuyen, T0 aumenta, o viceversa, y la señal variará en t más lentamente.
Finalmente, el factor A representará la amplitud de dicha señal senoidal. Resulta evidente que
existe, por lo tanto, una relación intrínseca entre el ángulo 't y los valores temporales, relación
que es lineal en la forma 't = ! 0 t: La linealidad en el tiempo de dicha relación nos permite
identi…car rápidamente la siguiente tabla,

't (rad) ¡2¼ ¡3¼=2 ¡¼ ¡¼=2 0 ¼=2 ¼ 3¼=2 2¼


(5.3)
t (s) ¡T0 ¡3T0 =4 ¡T0 =2 ¡T0 =4 0 T0 =4 T0 =2 3T0 =4 T0

2. Consideremos ahora un desplazamiento de dicha señal en el tiempo en la forma,


( ) ( ) µ ¶¸ ( )
sin sin '0 sin
f0 (t + t0 ) = A (! 0 t + '0 ) = A !0 t + =A !0 (t + t0 ):
cos cos !0 cos
(5.4)

107
sin(ω0t) cos(ω0t)
2 2

1 1

0 0 (a)

-1 -1

-2 -2
-1 0 1 2 3 -1 0 1 2 3
t cos(ω0t + ϕ0) t
sin(ω0t + ϕ0)
2 2

1 1

0 0 (b)

-1 -1

-2 -2
-1 0 1 2 3 -1 0 1 2 3
t t

Figura 5.1. Ejemplos de señales sinusoidales en el dominio del tiempo de período


T0 = 1 s. y amplitud A = 1: (a) señales de referencia de fase '0 = 0; y (b) señales
retrasadas T0 = 3=4 s. es decir, con una fase '0 = ¡3¼=2 rad. En ambas …guras se
ha destacado en negrita un período de referencia.

Si t0 > 0; la señal estará adelantada un tiempo t0 respecto a (5.1), mientras que si t0 < 0;
la señal estará retrasada un tiempo igual a jt0 j respecto a (5.1). La relación entre '0 y t0
es, evidentemente, la misma que entre 't y t; de forma que la tabla anterior es válida para
medir retrasos o adelantos de una señal de fase '0 respecto a una señal de fase nula '0 = 0
considerada ésta como señal de referencia. Así, para la expresión (5.4),
' '
t0 = 0 = 0 T0 (s) (5.5)
!0 2¼
Nótese que los desfases temporales vienen expresados en términos del período T0 de la señal. El
signo de t0 será el que indique adelanto o retraso de la señal respecto a una señal de referencia
de fase nula. Así por ejemplo, un desfase '0 = ¼ (rad) producirá un adelanto temporal de
valor t0 = T0 =2: En la Fig. 5.1(b) se muestra un ejemplo de señales sinusoidales desplazadas.
3. Todas estas consideraciones, aunque en principio son bien conocidas, se detallan aquí dada
su importancia a la hora de analizar e interpretar resultados de problemas …sico-matemáticos
analizados bajo variación armónica y/o régimen sinusoidal permanente (RSP). En general,
bajo RSP, una cierta magnitud vendrá representada por un fasor complejo F = jF j ej'F ; de
forma que la variación temporal vendrá dada por F ej!0 t a una cierta pulsación ! 0 : Como se
verá, la información de la amplitud senoidal vendrá dada por el módulo del fasor, jF j ´ A;
mientras que la información de la fase vendrá dada por 'F ´ '0 (referirse a la Secc.. 5.2.2). La
interpretación de la fase en el tiempo resulta evidente sin más que obtener el desfase temporal
dado por t0 ; (5.5), determinando así los posibles adelantos o retrasos de dicha magnitud frente
a una señal de referencia pre…jada de fase nula.
² Generalización a una variable arbitraria. Siguiendo la notación del presente texto, podremos generalizar
las consideraciones realizadas previamente para una cierta variable x en la forma,
( )µ ¶ ( ) ( )
sin 2¼ sin sin
f0 (x) = A x =A (» 0 x) = A ('x ); (5.6)
cos X0 cos cos
para una señal de fase nula, y
( ) ( ) µ ¶¸ ( )
sin sin '0 sin
f0 (x) = A (» 0 x + '0 ) = A »0 x + =A [» 0 (x + x0 )] ; (5.7)
cos cos »0 cos

108 c Emilio Gago-Ribas, 2002


°
para una señal de fase '0 6= 0: Con esta notación general diremos que:
1. » 0 es la pulsación asociada a la variable x (rad/Un(x)):
2. X0 es el período de la señal (Un(x)), que identi…ca al período del espacio de señales P (X0 ):
3. x0 será el desplazamiento en x asociado al desfase '0 de la señal.
4. Las sigueintes relaciones seguirán siendo válidas,
'0 '
x0 = = 0 X0 ; (5.8)
»0 2¼

donde según sea x0 > 0 ó x0 < 0; la señal estará desplazada hacia la izquierda o hacia la
derecha respecto a una señal de referencia de fase nula.
² Notaciones habituales. Con carácter de generalidad, a lo largor del presente texto usaremos la variable
x para identi…car cualquier variable física. En este sentido, las notaciones más habituales serán las
correspondientes a los casos cuando x ´ t y cuando x ´ z; representando en este último caso una
variable espacial genérica. La notación para el tiempo ya fue introducida previamente, repitiéndose
aquí sólamente por homogeneidad en el texto.
1. x ´ t :
Notación habitual Denominación habitual Unidades
Período (X0 ) T0 Período s
Pulsación (» 0 ) !0 Pulsación rad/s
Frecuencia f0 Frecuencia Hz=s-1

f0 (t) = A sin(!0 t + '0 ); g0 (t) = A cos(! 0 t + '0 ):


2. x ´ z :
Notación habitual Denominación habitual Unidades
Período (X0 ) ¸0 Longitud de onda m
Pulsación (» 0 ) k0 ; ¯ 0 Número de onda rad/m
Frecuencia m-1

f0 (z) = A sin(¯ 0 z + '0 ); g0 (z) = A cos(¯ 0 z + '0 ):


Longitud de onda, número de onda1 y frecuencia espacial.

² Representación en partes real-imaginaria y módulo-fase. A pesar de la sencillez de estas señales,


conviene analizar sus posibles representaciones dado que, en general, trabajaremos con funciones
complejas de variable real, de forma que éstas, siendo reales, serán un caso particular del espacio de
señales general. Resulta evidente en este caso que,
8 9
< Re ff0 (x)g = A sin(» 0 x + '0 ) =
f0 (x) = A sin(» 0 x + '0 ) ¡! (5.9)
: Im ff (x)g = 0 ;
0

8 9
>
> jf0 (x)j = A jsin(» 0 x + '0 )j >
>
< ( ) =
f0 (x) = A sin(» 0 x + '0 ) ¡! 0; sgn ff0 (x)g > 0 (5.10)
> >
: Fase ff0 (x)g =
> >
;
¼; sgn ff0 (x)g < 0

En la Fig. 5.2 se muestra un ejemplo de la representación de estas señales para la función seno. La
representación para la función coseno es totalmente similar.
1 La notación empleada en este caso adquiere todo su sentido cuando se analizan señales sinusoidales que

representan fenómenos propagativos, esto es, señales de la forma f (t; z) = sin(!0 t ¨ ¯ 0 z): Este caso particular
de señales 2D será analizado en la Secc. 5.4. Por otro lado, citar que no es habitual trabajar con frecuencias
espaciales, aunque se podría hacer sin más que identi…car la frecuencia espacial con el inverso de la longitud de
onda.

c Emilio Gago-Ribas, 2002


° 109
Re{sin(ξ0x + ϕ0)} |sin(ξ0x + ϕ0)|
2 2,0

1 1,5

0 1,0

-1 0,5

-2 0,0
-1,0 -0,5 0,0 0,5 1,0 1,5 2,0 -1,0 -0,5 0,0 0,5 1,0 1,5 2,0
Im{sin(ξ0x + ϕ0)} x Fase{sin(ξ0x + ϕ0)} x
2
1,0π

1
0,5π

0 0,0π

-0,5π
-1

-1,0π
-2
-1,0 -0,5 0,0 0,5 1,0 1,5 2,0 -1,0 -0,5 0,0 0,5 1,0 1,5 2,0
x x

Figura 5.2. Señal senoidal de amplitud A = 1; período X0 = 1; y fase '0 = ¼ rad.


representada en sus partes real e imaginaria, y en módulo y fase.

² Propiedades.
1. sin » 0 x : real, impar y antihermítica.
2. cos » 0 x : real, par y hermítica.
² Parámetros característicos. En base a las de…niciones realizadas en la Secc. 2.9, podremos de…nir
los parámetros característicos de señales sinusoidales. En la Fig. 5.3 se muestra la interpretación
grá…ca de estos valores.
1. Valor medio: el valor medio de cualquier señal sinusoidal de período X0 ; de amplitud A; y de
fase '0 , (5.7), es nulo. En otras palabras, su componente continua es siempre cero, (Ap. E.6),

hf0 (x)i = 0: (5.11)

2. Potencia instantánea: como estas señales son reales, jf0 (x)j2 = f02 (x); de forma que
( )
2 sin2 A2 A2
P [f0 (x)] = A (» 0 x + '0 ) = ¨ cos(2» 0 x + 2'0 ): (5.12)
cos2 2 2

A la vista de estas señales se puede deducir rápidamente que su valor medio o componente
continua es A2 =2; coincidiendo con el valor que se obtendrá en (5.14). Además, la potencia
instantánea será una nueva señal periódica de pulsación 2» 0 ; esto es, de período X0 =2: Lógica-
mente, dado que el período fundamental es la mitad del período original, las señales P [f0 (x)]
pertenecerán también al espacio original P (X0 ): Finalmente, la fase original vendrá multipli-
cada por dos, de forma que el desfase asociado a la variable independiente se mantendrá sin
2
cambios (i) respecto a la señal de referencia A2 cos(2» 0 x) para el caso del coseno, y (ii) respecto
2
a la señal de referencia ¡ A2 cos(2» 0 x) para el caso del seno, x0 = 2'0 =2» 0 = '0 =» 0 :
3. Energía: según lo dicho en relación con (2.93) la energía de una señal sinusoidal de…nida sobre
un período tomará el valor, (Ap. E.6),

A2
E [f0 (x)] = X0 : (5.13)
2

110 c Emilio Gago-Ribas, 2002


°
sin(ξ0x + ϕ0) <f0(x)> cos(ξ0x + ϕ0) <f0(x)>
4 4

2 2

0 0

-2 -2

(a) (b)
-4 -4
-1,0 -0,5 0,0 0,5 1,0 1,5 2,0 -1,0 -0,5 0,0 0,5 1,0 1,5 2,0
P1[f0(x)] x <P[f0(x)]> X0 E[f0(x)] P1[f0(x)] x <P[f (x)]> X0 E[f0(x)]
0
4 4

2 2

0 0

-2 -2

(c) (d)
-4 -4
-1,0 -0,5 0,0 x0 0,5 1,0 1,5 2,0 -1,0 -0,5 0,0 x0 0,5 1,0 1,5 2,0
Pref[f0(x)] x Pref[f0(x)] x

Figura 5.3. Parámetros característicos de dos señales sinusoidales de amplitud,


período y fase A = 2; X0 = 1 y '0 = 3¼=2 rad: (a) Señal seno y valor medio;
(b) Señal coseno y valor medio; (c) Para la señal en (a): potencia instantánea, media
y energía, y (d) Mismos parámetros para la señal en (b). Se han incluído también las
siguientes representaciones: (i) las señales de referencia para la potencia instantánea,
Pre f [f0 (x)] ; y (ii) la potencia instantánea sin su valor medio, P1 [f0 (x)] :

4. Potencia media: el valor medio de la potencia, hP [f0 (x)]i ; será el valor medio de las funciones
en (5.12). Resulta evidente que dicho valor, promediado a un período, será el valor de la energía
dividido por X0 ; esto es, el valor al cuadrado de su amplitud dividido por dos,

hP [f0 (x)]i = A2 =2: (5.14)

Como ya habiamos adelantado, la potencia media representa una densidad de energía por
unidad de x, en este caso, la distribución de energía en un período.

5.2.2 Exponenciales de exponente imaginario.


La descripción de estas funciones resulta de especial importancia en los desarrollos de este libro. En
particular, si el período de la señal es …jo, X0 ; el subespacio de señales generado a partir de considerar
este tipo de señales de períodos X0m = X0 =m; actuará como base del espacio de señales periódicas de
período X0 , dando lugar al desarrollo en serie de Fourier tratado en el Cap. 8. Realizando una extensión
analítica de X0m = X0 =m ! X; esto es, haciendo que el período deje de ser un múltiplo divisor de
X0 y se convierta en una variable o parámetro continuo descriptivo de un nuevo subespacio de señales,
las mismas funciones actuarán como base del espacio de señales aperiódicas de…nidas para todo x en la
transformada de Fourier analizada en el Cap. 9.
Describiremos inicialmente este tipo de señales asumiendo que pertenecen al espacio P (X0 ) donde el
período X0 o cualquier múltiplo divisor de éste se supone de valor …jo.

c Emilio Gago-Ribas, 2002


° 111
² Representación inicial. Consideraremos una representación inicial de una exponencial de exponente
imaginario como una combinación lineal compleja de funciones coseno y seno de pulsación » 0 = 2¼=X0
en la forma,

f0 (x) = ej»0 x = cos » 0 x + j sin » 0 x: (5.15)

Obviamente, la señal compleja resultante de dicha combinación lineal también será una señal per-
iódica de período X0 : Resulta evidente que su descripción en partes real e imaginaria vendrá dada
por,

Re ff0 (x)g = cos » 0 x; (5.16)

Im ff0 (x)g = sin » 0 x: (5.17)

De forma similar, su representación en módulo y fase vendrá dada por,

jf0 (x)j = 1; (5.18)

'f0 (x) = » 0 x: (5.19)

Resulta trivial generalizar dicha representación cuando las exponenciales tengan una amplitud difer-
ente de la unidad y una fase diferente de cero.
² Representación en partes real-imaginaria y en módulo-fase. Fasores. Consideremos una exponencial en
la forma,

f0 (x) = Aej(»0 x+'0 ) = A cos(» 0 x + '0 ) + jA sin(» 0 x + '0 ); A 2 R: (5.20)

Su análisis se reducirá al realizado en el apartado anterior para señales sinusiodales considerando


que la función coseno representa la parte real de la señal y que la función seno representa su parte
imaginaria. Desde el punto de vista de su análisis en módulo y fase, resultan evidentes las siguientes
relaciones,

jf0 (x)j = A; (5.21)

'f0 (x) = » 0 x + '0 : (5.22)

En base a esta representación, y teniendo en cuenta que

f0 (x) = Aej(»0 x+'0 ) = Aej»0 x ej'0 ; (5.23)

podremos de…nir un número complejo F~ = Aej'0 que describa la amplitud y fase de la exponencial.
A dicho número se le denominará habitualmente por el término de fasor, esto es, dado un cierto
fasor F~ descriptivo de una determinada magnitud, se asume que la variación de dicha magnitud
respecto a una cierta variable x es de la forma,

f0 (x) = F~ ej»0 x ; (5.24)

de forma que: (i) el módulo de F~ determina la amplitud de la exponencial, y por lo tanto de las
señales ceseno y seno, y (ii) la fase de F~ determina la fase de la exponencial, y por lo tanto, de las
señales sinusoidales que la forman,
8 9
< Re ff0 (x)g =j F~ j cos(» 0 x + 'F~ ) =
f0 (x) = F~ ej»0 x ¡! ; (5.25)
: Im ff (x)g =j F~ j sin(» x + ' ) ;
0 0 ~
F

8 9
< jf0 (x)j =j F~ j =
f0 (x) = F~ ej»0 x ¡! : (5.26)
: Fase ff (x)g = » x + ' ;
0 0 F~

En la Fig. 5.4 se muestra un ejemplo de estas señales y su relación con F~ en sus representaciones
real-imaginaria y módulo-fase.

112 c Emilio Gago-Ribas, 2002


°
Re{f0(x)} x0 |f0(x)|
3 2,5

2
2,0

1
1,5
0
1,0
-1

0,5
-2

-3 0,0
-1,0 -0,5 0,0 x 0,5 1,0 1,5 2,0 -1,0 -0,5 0,0 x 0,5 1,0 1,5 2,0
x0 x0
Im{f0(x)} Fase{f0(x)}
3
1,00π
2

0,50π
1

0 0,00π

-1
-0,50π

-2
-1,00π
-3
-1,0 -0,5 0,0 x 0,5 1,0 1,5 2,0 -1,0 -0,5 0,0 x 0,5 1,0 1,5 2,0

Figura 5.4. Exponenencial de exponente imaginaria de período X0 = 1 descritas


por los fasores F~ = 1 (j F~ j= 1; 'F~ = 0); y F~ = 2ej¼=2 (j F~ j= 2; 'F~ = ¼=2): En
este segundo caso, el desfase de ¼=2 rad. representa un desplazamiento de la señal a
la izquierda de valor jx0 j = X0 =4: En ambas …guras se ha destacado un período de
referencia.

² Notaciones habituales. Las notaciones habituales serán las mismas que en el caso de las señales
sinusoidales.
1. x ´ t : f0 (x) = F~ ej!0 t :
2. x ´ z : f0 (x) = F~ e¡j¯ 0 z : La justi…cación de este cambio de signo se puede encontrar en la
Secc. 5.4.
² Propiedades. f0 (x) = ej»0 x :
¡ ¢¤
1. Compleja y hermítica, dado que f0¤ (¡x) = e¡j»0 x = ej»0 x = f0 (x):
2. Su parte real es par y hermítica y su parte imaginaria impar y antihermítica.
3. Su módulo es constante, y por lo tanto par. Su fase es lineal con x; siendo » 0 el valor de su
pendiente.
² Parámetros característicos. Dado que este tipo de exponenciales son una combinación lienal de
señales sinusoidales, los parámetros característicos estarán directamente relacionados con los de
estas últimas. En la Fig. 5.5 se muestra una descripción grá…ca de estos valores.
1. Valor medio: el valor medio de cualquier señal exponencial de fasor F~ ; (5.24), es nulo en base
a (5.11), esto es, su componente continua es siempre cero,
hf0 (x)i = hf00 (x)i + j hf000 (x)i = 0 + j0: (5.27)

2. Potencia instantánea: la potencia instantánea vendrá dada por jf0 (x)j2 ; de forma que para una
señal en la forma descrita por (5.20) ó (5.24), la potencia instantánea será constante con x y
de valor igual al cuadrado de la amplitud de las señales sinusoidales, esto es,
P[f0 (x)] =j F~ j2 = A2 : (5.28)

c Emilio Gago-Ribas, 2002


° 113
Re{f0(x)} <f0'(x)>
3

1 E[f0(x)]
0
P[f0(x)] X0
-1 5

-2
4

-3
-2 -1 0 1
<f0''(x)>
2
x 3 4 3
Im{f0(x)}
3
X0 2
2
1
1

0
0 -2 -1 0 1 2
x 3 4

-1

-2

-3
-2 -1 0
x0
1 2
x 3 4

Figura 5.5. Parámetros característicos de una exponenencial de exponente imagi-


naria de período X0 = 2 descrita por el fasor F~ = 2e¡j¼=2 ; j F~ j= 2; y 'F~ = ¡¼=2
rad: En este caso, el desfase de ¡¼=2 rad. representa un desplazamiento de la señal
a la derecha de valor jx0 j = X0 =4: La potencia instantánea en este ejemplo es igual
a 4; siendo la energía igual a 8:

Nótese que una función de valor constante2 también pertenece al espacio de señales P (X0 ) si
se considera como una señal periódica de período X0 :
3. Energía: la energía de una señal de exponente imaginario vendrá dada por la amplitud al
cuadrado multiplicada por el período, (Ap. E.6),

E [f0 (x)] = X0 j F~ j2 = X0 A2 : (5.30)

4. Potencia media: el valor medio de la señal constante en (5.28) será, lógicamente, igual al valor
de la constante. Visto de otra forma, la energía promediada sobre un período será igual a,
1
hP[f0 (x)]i = E [f0 (x)] =j F~ j2 = A2 : (5.31)
X0

5.3 Espacio de señales aperiódicas.


5.3.1 Exponenciales reales.
Estas funciones son de gran interés práctico dado que se utilizan para modelar muchos procesos físi-
cos bien en el espacio o en el tiempo. Estas funciones están de…nidas para todo valor de la variable
independiente, perteneciendo así al espacio S(¡1; 1):
² De…nición. Una exponencial real vendrá caracterizada por,

f (x) = A eax ; A; a 2 R: (5.32)

Como el parámetro a es real, se podrán distinguir tres comportamientos:


2 La función f0 (x) = 1 considerada como una función de período X0 será el elemento neutro del espacio P (X0 ) respecto
al producto punto a punto de funciones periódicas,
g0 (x) ¢ 1 = g0 (x): (5.29)

114 c Emilio Gago-Ribas, 2002


°
1. a > 0 : la exponencial es creciente en el sentido de crecimiento de x:
2. a = 0 : la exponencial toma el valor constante A; de forma que f (x) = A para todo x: Nótese
que, en este caso, la función constante también pertenece al espacio de señales S(¡1; 1) vista
como una señal de período X0 ! 1: Si A = 1; f (x) = 1 representará el elemento neutro de
S(¡1; 1) respecto del producto de funciones.
3. a < 0 : la exponencial es decreciente en el sentido de crecimiento de x:
Para cualquiera de los casos anteriores, el valor del parámetro A claramente representa el valor
en el origen de la exponencial, esto es, f (0) = A: En la Fig. 5.6 se presentan algunos ejemplos
de este tipo de señales reales.

f (x)=exp(a x)
8

6
a>0
5
a<0
4

1
a=0

0
-2 -1 0 x 1 2

Figura 5.6. Exponenciales reales con A = 1; y a = 1; 0 y ¡1:

² Representación en partes real-imaginaria y módulo-fase. Dado que la exponencial es real y siempre


positiva para todo x;
8 9
< Re ff (x)g = eax =
f(x) = eax ¡! ; (5.33)
: Im ff (x)g = 0 ;

8 9
< jf (x)j = eax =
f (x) = eax ¡! : (5.34)
: Fase ff(x)g = 0 ;

² Propiedades. f (x) = eax :


1. Función real decreciente o creciente si a 6= 0. No es ni par ni impar, ni hermítica ni antiher-
mítica.
2. Función real constante si a = 0; esto es par y hermítica.
3. Su fase es nula para todo x:
² Parámetros característicos. En base a las de…niciones realizadas en la Secc. 2.9, podremos de…nir los
parámetros característicos de una señal exponencial real en la forma eax , a 2 R :
1. Valor medio: el valor medio de una exponencial real de exponente a arbitrario es divergente,
(Ap. E.6),

hf(x)i ! 1: (5.35)

Este resultado es sencillo de adivinar a la vista del comportamiento mostrado en la Fig. 5.6.
En el caso particular en que el exponente a = 0; la señal es la constante unidad, de forma que
su valor medio coincide con el valor de dicha constante, esto es, la unidad.

c Emilio Gago-Ribas, 2002


° 115
2. Potencia instantánea: vendrá dada por

P [f (x)] = f 2 (x) = e2ax ; (5.36)

esto es, otra exponencial real de exponente el doble del valor de a: Esto permite anticipar que
su valor medio será también divergente, (5.38). Si a = 0; la potencia instantánea será la función
constante unidad, y su valor medio será la unidad.
3. Energía: estas señales son también de energía in…nita como se puede deducir fácilmente de las
grá…cas de su comportamiento para todo valor del parámetro a;
Z 1 ¯1
eax ¯¯
E [f (x)] = eax dx = ! 1: (5.37)
¡1 a ¯¡1

4. Potencia media: el valor medio de la potencia será el valor medio de la función en (5.36). Resulta
evidente que dicho valor, promediado a lo largo de todo el rango de la variable independiente
será divergente, (Ap. E.6),

hP [f(x)]i ! 1: (5.38)

En el caso en que a = 0; la potencia instantanea será la unidad, y su valor medio o componente


continua coincidirá con dicho valor.

5.3.2 Exponenciales complejas.

La descripción de estas funciones resultará de especial importancia en los desarrollos de este libro, dado
que estas funciones actuarán como base del espacio S(¡1; 1) de señales aperiódicas de…nidas para todo
x; dando lugar a la transformada de Laplace analizada en el Cap. 11.
² De…nición.
Una exponencial compleja se podrá escribir de la siguiente forma,

f(x) = F es0 x ; F = jF j ej'F y s0 = s00 + js000 2 C: (5.39)

Desarrollando esta expresión,


0 00 0 00
f(x) = jF j es0 x ejs0 x ej'F = jF j es0 x ej(s0 x+'F ) ; (5.40)

expresión en la que claramente se puede identi…car una variación en la amplitud de tipo exponencial
como la descrita en la Secc. 5.3.1, y una variación exponencial de exponente imaginario como la
descrita en la Secc. 5.2.2. La combinación de ambas dará lugar a una señal compleja cuyas partes
real e imaginaria varían como el coseno y el seno, respectivamente, pero de amplitudes creciendo o
decayendo exponencialmente. En las Figs. 5.8 y 5.9 se muestran algunos ejemplos de este tipo de
señales. En la Fig. 5.10 se muestra un ejemplo de su representación compleja. El conjunto completo
de este tipo de funciones en términos del parámetro s puede ser descrito fácilmente sin más que
identi…car todos los posibles valores de s en su plano complejo, Fig. 5.7.

Figura 5.7. Plano complejo del parámetro s0 :

116 c Emilio Gago-Ribas, 2002


°
Re{f(x)} | f (x) |
1 5
4
4
2
2
3
3
0
2
-2
1
-4
0
-2,0 -1,5 -1,0 -0,5 0,0
x 0,5 1,0 1,5 2,0 -2,0 -1,5 -1,0 -0,5 0,0
x 0,5 1,0 1,5 2,0
Im{f(x)} Fase{f(x)}
4 1,0π

2 0,5π

0
3 0,0π
1 2
-2 -0,5π

-4 -1,0π

-2,0 -1,5 -1,0 -0,5 0,0


x 0,5 1,0 1,5 2,0 -2,0 -1,5 -1,0 -0,5 0,0
x 0,5 1,0 1,5 2,0

Figura 5.8. Exponencial compleja con jF j = 1; 'F = 0 rad, s00 = ¡0:75; y s000 = 2¼
rad: es decir, con s0 situado en el segundo cuadrante. El período de las señales
sinusoidales que la componen vendrá dado por 2¼=s000 = 1:

Re{f(x)} x0 | f (x) |
5
4
4
2
3
0
2
3
-2
2 1
-4
1 0
-2,0 -1,5 -1,0 -0,5 0,0 0,5 1,0 1,5 2,0 -2,0 -1,5 -1,0 -0,5 0,0 0,5 1,0 1,5 2,0
x0 x x
Im{f(x)} Fase{f(x)}
4 1,0π

2 0,5π

0
1 2 3 0,0π

-2 -0,5π

-4 -1,0π

-2,0 -1,5 -1,0 -0,5 0,0 0,5


x 1,0 1,5 2,0 -2,0 -1,5 -1,0 -0,5 0,0 0,5
x 1,0 1,5 2,0

Figura 5.9. Exponencial compleja con jF j = 1; 'F = ¡¼ rad, s00 = ¡0:75; y


s000 = 2¼ rad: es decir, con s0 situado en el segundo cuadrante. El período de las
señales sinusoidales que la componen vendrá dado por 2¼=s000 = 1: El factor de fase
'F produce un desplazamiento a la derecha de la mitad del período, esto es, x0 = 0:5:

c Emilio Gago-Ribas, 2002


° 117
Así:
1. Si s0 en el primer cuadrante (s00 > 0; s000 > 0), obtendremos señales de parte real coseno y de
parte imaginaria seno, de pulsación s000 creciendo exponencialmente.
2. Si s0 en el segundo cuadrante (s00 < 0; s000 > 0); obtendremos señales de parte real coseno y de
parte imaginaria seno, de pulsación s000 decreciendo exponencialmente.
3. Si s0 en el tercer cuadrante (s00 < 0; s000 < 0), obtendremos señales de parte real coseno y de
parte imaginaria -seno, de pulsación js000 j ; decreciendo exponencialmente.
4. Si s0 en el cuarto cuadrante (s00 > 0; s000 < 0); obtendremos señales de parte real coseno y de
parte imaginaria -seno, de pulsación js000 j ; creciendo exponencialmente.
5. Si s000 = 0; estaremos en el caso descrito en la Secc. 5.3.1, esto es, exponenciales reales.
6. Si s00 = 0; estaremos en el caso descrito en la Secc. 5.2.2, esto es, exponenciales de exponente
imaginario. En este caso, las señales serán periódicas de período 2¼=s000 :
7. Nótese que el papel de la pulsación viene descrito ahora por s000 = Imfs0 g:
² Representación en partes real-imaginaria y módulo-fase.

8 9
< Re ff(x)g = jF j es00 x cos(s000 x + 'F ) =
f (x) = F es0 x = = (5.41)
: Im ff (x)g = jF j es00 x sin(s00 x + ' ) ;
0 F
8 0
9
< jf (x)j = jF j es0 x =
= :
: Fase ff(x)g = s00 x + ' ;
0 F

1: x = -2 1: x = -2
2: x = -1 2: x = -1
Im{f(x)} 3: x = 0 Im{f(x)} 3: x = 0
6 6
5 5
4 4
3 3
2 2
1 1
3 2 1 2 3
0 0
1 -1
-1
-2 -2
-3 -3
-4 -4
-5 -5
-6 -6
-6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6 -6 -5 -4 -3 -2 -1 0 1 2 3 4 5 6
Re{f(x)} Re{f(x)}

Figura 5.10. Representación en el plano compljeo de las exponenciales analizadas


en las Figs. 5.8 y 5.9.

118 c Emilio Gago-Ribas, 2002


°
² Notaciones habituales.
1. x ´ t :
Notación habitual Denominación habitual Unidades
Período (X0 ) T0 = 2¼=! 0 Período s
Variable compleja (s0 ) ¾ 0 + j! 0 Pulsación compleja (s¡1 ;rad/s)
Frecuencia f0 = !0 =2¼ Frecuencia Hz=s-1

f (t) = e§s0 t = F e§(®0 +j!0 )t :


2. x ´ z :
Notación habitual Denominación habitual Unidades
Período (X0 ) ¸0 = 2¼=¯ 0 Longitud de onda m
k0 = k00 + jk000
Variable compleja (s0 ) Número de onda complejo (m¡1 ;rad/m)
° 0 = ®0 + j¯ 0

f (z) = F e§° 0 z = F e§(®0 +j¯ 0 )z :


² Propiedades.
1. es0 x ; s0 2 C : compleja, no es par ni impar, ni hermítica ni antihermítica.
2. s00 = 0 : propiedades descritas en la Secc. 5.2.2.
3. s000 = 0 : propiedades descritas en la Secc. 5.3.1.
² Parámetros característicos.
En base a las de…niciones realizadas en la Secc. 2.9, podremos de…nir los parámetros característicos
de una señal exponencial de exponente complejo en la forma es0 x , s0 2 C :
1. Valor medio: el valor medio de una exponencial compleja de exponente s0 arbitrario es diver-
gente, (Ap. E.6),

hes0 x i ! 1: (5.42)

Este resultado es sencillo de adivinar a la vista del comportamiento mostrado en las Figs. 5.8
y 5.9. Si s00 = 0; la exponencial será imaginaria y su valor medio será el obtenido en la Secc.
5.2.2. Si s000 = 0; la exponencial será real y su valor medio será el obtenido en la Secc. 5.3.1.
2. Potencia instantánea: vendrá dada por
2 0
P [es0 x ] = jes0 x j = e2s0 x ; (5.43)

esto es, una exponencial real de exponente el doble del valor de s0 = Refsg: Esto permite
anticipar que su valor medio será divergente, (5.45). Si s00 = 0; la potencia instantánea será la
función constante unidad, de…nida en el espacio S(¡1; 1); y su valor medio será la unidad.
3. Energía: para un valor arbitrario de s; estas señales son de energía in…nita, (Ap. E.6),

E [f(x)] ! 1: (5.44)

Si s0 = 0; la exponencial será imaginaria y su energía será la obtenida en la Secc. 5.2.2. Si


s00 = 0; la exponencial será real y su energía será la obtenido en la Secc. 5.3.1.
4. Potencia media: el valor medio de la potencia será el valor medio de la función en (5.43). Resulta
evidente que dicho valor, promediado a lo largo de todo el rango de la variable independiente
será divergente,

hP [es0 x ]i ! 1: (5.45)

Si s00 = 0; su valor medio será la unidad. Si s000 = 0; la exponencial será real y su energía será
la obtenido en la Secc. 5.3.1.

c Emilio Gago-Ribas, 2002


° 119
5.4 Una familia importante de señales bidimensionales.
A pesar de que los contenidos del presente texto están encaminados al análisis de señales unidimension-
ales, el autor considera importante analizar cierto tipo de señales de gran interés práctico a la hora de
describir fenómenos de propagación de señales. A su vez, estas señales serán la base de la transformada
de Fourier analizada en el Cap. 9 pero aplicada a aquellos problemas donde se describen los citados
fenómenos de propagacion. Para ello, expondremos aquí aquellas señales que son la base de dicha de-
scripción. El caso más sencillo de todos consistirá en considerar un espacio de señales bidimensionales,
donde las variables descriptivas de dicho espacio serán el tiempo, t; y una cierta coordenada espacial, z;
que describa un espacio físico unidimensional3 . Estas señales serán de la forma f(t; z): La representación
común en la práctica a un espacio de cuatro dimensiones, esto es, el tiempo, y el espacio físico 3D, de
este tipo de fenómenos estará basado en la generalización de estas señales, f (t; ~r):

5.4.1 Señales sinusoidales de fase lineal.


² De…nición y análisis. Basándonos en todas las consideraciones realizadas en la Secc. 5.2.1 del presente
capítulo, consideraremos inicialmente señales de la forma4 ,
f(t; z) = sin(!0 t ¡ ¯ 0 z): (5.46)
Resulta evidente que dichas señales describen variaciones periódicas en la variable t de pulsación
temporal ! 0 ; esto es, de período T0 = 2¼=! 0 ; y variaciones periódicas en la variable z de pulsación
espacial (número de onda) ¯ 0 ; esto es, de período espacial o longitud de onda ¸0 = 2¼=! 0 : Como
cualquier señal bidimensional, su análisis se podrá realizar …jando una de las coordenas y variando la
otra; por ejemplo, …jado un cierto punto z del espacio, analizar la variación temporal, o bien, …jado
un cierto instante de tiempo, analizar la instantánea de la señal a lo largo de la coordenada z: De
esta forma, podremos visualizar inicialmente los parámetros que la describen, esto es, pulsaciones
y períodos asociados a cada variable. En la Fig. 5.11 se presentan dos ejemplos de este tipo de
señales, donde la interpretación en cada variable será similar a la realizada en la Secc. 5.2.1 para
señales sinusoidales unidimensionales.Así, …jando un cierto punto z = z1 > 0 del espacio, la señal
sinusoidal en t estará retrasada respecto a la señal de referencia en z = 0 un cierto valor t0 dado
por,
µ ¶
¯ ¯ T0 z1
f(t; z1 ) = sin ! 0 t ¡ 0 z1 ¡! t0 = 0 z1 = z1 = T0 : (5.47)
!0 !0 ¸0 ¸0
Nótese que este retraso de la señal respecto a lo que ocurría en z = 0 está representando un fenomeno
de propagación de la señal f (t; z) a lo largo de la coordenada espacial z: La última expresión, aunque
evidente, nos muestra que el retraso viene expresado en una fracción del período T0 ; dada por el
cociente entre el punto z1 de observación y el período espacial, ¸0 : Generalizando este resultado
para cualquier valor de z; podremos asociar dicho retraso de la señal con una cierta velocidad de
propagación de la señal que denominaremos velocidad de fase en la forma,
z !0 ¸0
t0 = ¡! vf = = (m/s). (5.48)
vf ¯0 T0
Nótese que la velocidad de fase asociada a la señal senoidal es constante y viene dada por la relación
entre el período espacial y el período de repetición temporal, lo que signi…ca que sea cual sea el
punto de observación z; la velocidad de fase de la onda es la misma. Leído de otra forma, aparece
la de…nición habitual de la longitud de onda como el espacio recorrido por una señal con variación
sinusoidal de período T0 durante un tiempo igual al período de la señal T0 a la velocidad de fase
vf : Habitualmente, esta velocidad de fase será un parámetro característico, y por tanto conocido,
asociado al problema descrito por la señal f(t; z):
De forma similar, podremos analizar la variación a lo largo de z para diferentes instantes de tiempo, lo
que permite visualizar claramente el proceso de propagación de la señal a lo largo de z: Consideremos
como señal de referencia en este caso la señal en z para un cierto instante t = 0;
f (t = 0; z) = ¡ sin ¯ 0 z: (5.49)
3 La de…nición de estas variables particulares, y no dos variables generales x y x ; se debe al interés práctico de las
1 2
primeras. Un análisis bidimensional genérico consideraría señales genéricas en la forma f (x1 ; x2 ); igual que en el caso
unidimensional, la notación general utilizada es la de f (x):
4 El análisis de la variación cosenoidal será totalmente paralelo al expuesto a continuación.

120 c Emilio Gago-Ribas, 2002


°
f (t, z) t0 z=0 z = z1 T0
2

0
A

-1

-2
-2,0 -1,5 -1,0 -0,5 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0
f (t, z) t = 0 t = t1 z0 t (s) λ0
2

-1

-2
-2,0 -1,5 -1,0 -0,5 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0
z (m)

Figura 5.11. Ejemplo de una señal senoidal bidimensional de período T0 = 1 s. y


de longitud de onda ¸0 = 2 m: (a) variando t para z1 = 0:5 m. y (b) a lo largo de
z para t1 = 0:25 s. En ambos casos se representan las señales de referencia en z = 0
y t = 0; respectivamente. En el primer caso, la señal estará retrasada un tiempo
t0 = z1 T0 =¸0 = 1=4 = 0:25 s. respecto a la señal de referencia; en el segundo caso,
la señal estará desplazada a la derecha una distancia z0 = ¸0 t1 =T0 = 1=2 = 0:5 m.

Si analizamos la instantánea de la señal en un cierto instante t1 > 0; la señal en z vendrá dada por,
µ ¶
!0
f(t1 ; z) = sin(! 0 t1 ¡ ¯ 0 z) = ¡ sin ¯ 0 z ¡ t1 ; (5.50)
¯0

lo que signi…ca un desplazamiento de la señal en el sentido positivo de z respecto a la señal en t = 0


un cierto valor z0 dado por,
!0 ¸0 t1
z0 = t1 = t1 = ¸0 : (5.51)
¯0 T0 T0

En este caso, el desplazamiento espacial viene expresado en fracciones t1 =T0 del período espacial
¸0 : Generalizando este resultado para cualquier instante de tiempo t; vemos que la velocidad aso-
ciada al proceso de…nida como espacio dividido por el tiempo transcurrido coincide con la obtenida
previamente,
!0 ¸0 ¸0
z0 = t= t ¡! vf = (m/s): (5.52)
¯0 T0 T0

En la Fig. 5.12 se muestran varias instantáneas de la señal a lo largo de z, esto es, para diferentes
instantes de tiempo, visualizándose sobre ella el proceso de propagación a lo largo de z descrito
por la señal. Nótese que, sea cual sea el análisis realizado, la propagación de la señal la estamos
midiendo considerando el movimiento de un punto de fase constante5 , de ahí el nombre de velocidad
de fase.

5 Por ejemplo, en el caso de la señal seno, tomaremos como referencia el punto de fase nula, esto es cuando t = 0 s. y

z = 0 m. lo que es lo mismo, el comienzo de un período de la señal senoidal cuando ésta es creciente, punto A en la Fig.
5.11.

c Emilio Gago-Ribas, 2002


° 121
f (t, z)=sin(ω0t - β0z)
2
t = 0s t = 0.5s t = 1.25s

0 A A A

-1
z01
z02
-2
-2 -1 0 1 z (m) 2 3 4

Figura 5.12. Instantáneas de la señal senoidal de período T1 = 1 s. y de longitud


de onda ¸0 = 2 m. para los instantes t0 = 0 s. (señal de referencia de fase ¼
rad. indicada por el punto A), t1 = 0:5 s. y t2 = 1:25 s. Los desplazamientos de
la fase serán z01 = ¸0 t1 =T0 = 0:5¸0 = 1 m. y z02 = ¸0 t2 =T0 = 1:25¸0 = 2:5 m.
respectivamente.

² Generalización. Velocidad de fase. Consideremos la señal

f(t; z) = sin(!0 t ¨ ¯ 0 z): (5.53)

Fijando un punto de referencia de fase constante y diferenciando la expresión, obtendremos la


velocidad de fase en la forma,
dz !0 ¸0
!0 t ¨ ¯ 0 z = cte ¡! ! 0 dt ¨ ¯ 0 dz = 0 ¡! vf = =§ =§ (m/s): (5.54)
dt ¯0 T0

Nótese que el signo § indicará en este caso velocidades positivas si la propagación de la señal se
produce en el sentido positivo de z; y velocidades negativas si la propagación se produce en el sentido
negativo de z:
Con esta interpretación en mente se pueden analizar señales más generales de gran interés práctico
dado que representan señales propagativas con velocidades de fase no constantes. Pasaremos a
analizar estas señales y algunos ejemplos importantes.

5.4.2 Señales sinusoidales de fase arbitraria.

² Análisis general. Consideremos una señal como la representada por (5.53) pero considerando un
término de fase dependiente de z en la forma,

f (t; z) = sin [! 0 t ¡ '0 (z)] ; (5.55)

esto es, con un término de fase '0 (z) dependiente de z en forma arbitraria. Como ya es habitual,
dicho término de fase representará, respecto de la variable t; un cierto adelanto o retraso de la señal
para cada valor de z y, por lo tanto, estará representando fenómenos propagativos. Fijando entonces
un punto de referencia de fase constante y diferenciando la expresión, obtendremos una expresión
general para la velocidad de fase asociada a dicha señal en la forma,
dz !0
! 0 t ¡ '0 (z) = cte ¡! ! 0 dt ¡ '00 (z)dz = 0 ¡! vf (z) = = 0 (m/s); (5.56)
dt '0 (z)

denotando por '00 (z) a la primera derivada de la función de fase '0 (z) respecto de z; esto es,
d'0 (z)=dz: Nótese que esta expresión indica que, para una función de fase genérica, la velocidad de
fase asociada a la señal será otra función de z; es decir, que en cada punto z del espacio, la señal
tendrá una velocidad de fase diferente. La interpretación grá…ca de este resultado se puede entender

122 c Emilio Gago-Ribas, 2002


°
bien si pensamos en una cierta función de fase '0 (z) de forma que, en cada punto z; la pendiente
de la tangente será la derivada de la función; el valor inverso de dicha magnitud escalado por la
pulsación ! 0 nos dará la velocidad de fase en cada punto. Así, si la pendiente en un cierto punto
z es positiva, la velocidad de fase será también positiva, lo que representará propagación local en
el sentido positivo; si la pendiente en un cierto z es negativa, la velocidad de fase lo será también,
representando propagación local de la señal en el sentido negativo. Veamos a continuación algunos
ejemplos importantes.
² Fase lineal. Consideremos una señal senoidal de fase lineal en la forma,
'0 (z) = §¯ 0 z; (5.57)
donde ¯ 0 indica la pendiente de la recta. Resulta evidente que este caso se reduce al estudiado en
primer lugar, obtenéndose el resultado ya conocido obtenido en (5.54),
!0 ¸0
'00 (z) = §¯ 0 ¡! vf = § =§ (m/s): (5.58)
¯0 T0
En este caso, la primera derivada de la función de fase es constante e igual a §¯ 0 ; obteniéndose una
velocidad de fase constante para todo z: En la Fig. 5.13 se muestra una descripción completa de
este caso. Una forma alternativa de representación es la mostrada en la Fig. 5.14, donde se muestra
la señal en el tiempo para diferentes puntos del espacio.
² Fase lineal y sinusoidal. Consideremos la señal
f (t; z) = sin [! 0 t ¡ '0 (z)] ! '0 (z) = ¯ 0 z + sin(2¯ 0 z); ¯ 0 = 2¼=¸0 : (5.59)
En este caso, la función de fase tiene un término lineal y un termino sinusoidal (función seno en
este caso), ambos dependientes de z: Su representación será como la mostrada en la Fig. 5.15. La
velocidad de fase vendrá dada entonces por,
¸0 =T0
'00 (z) = ¯ 0 + 2¯ 0 cos(2¯ 0 z) ! vf (z) = : (5.60)
1 + 2 cos(2¯ 0 z)
Nótese cómo tanto '00 (z) como vf (z) son periódicas de período ¼=¯ 0 = ¸0 =2: A las vista de la
representación de vf (z) en la Fig. 5.15, es posible entresacar las siguientes propiedades importantes:
1. Existen tramos en z en los que la velocidad de fase es positiva, lo que signi…ca que la señal, en
esos puntos, tenderá a avanzar en la dirección positiva de z:
2. Existen otros tramos en z en los que la velocidad de fase es negativa; en dichos puntos, la señal
tenderá a avanzar en sentido negativo de z (propagación en la dirección opuesta).
3. Por último, existen puntos z especí…cos donde la pendiente de '0 (z) es nula; en dichos puntos, la
velocidad de fase tiende a in…nito, lo que es lo mismo, los efectos propagativos son despreciables
dado que la propagación sería instantánea.
Estas diferencias de velocidad en cada punto del espacio dan lugar a que la señal sufra deformaciones
a lo largo de z como las que se muestran en la columna derecha de la Fig. 5.15, donde se muestra
la distribución de la magnitud f (t; z) para diferentes instantes de tiempo. Estos efectos serán los
habituales para funciones de fase arbitrarias. En la Fig. 5.16 se muestra una representación z ¡ t
de la señal en (5.59) representada en la Fig. 5.15 para diferentes puntos del espacio identi…cados
por zi : En cada caso, será posible de…nir el adelanto o retraso de la señal respecto a la señal de
referencia en z = 0 sin más que aplicar la relación (5.47) para la señal de fase arbitraria, esto es,
µ ¶
' (zi ) ' (zi ) ' (zi )
f(t; zi ) = sin ! 0 t ¡ 0 ! t0i = 0 = 0 T0 : (5.61)
!0 !0 2¼
La siguiente tabla muestra los valores de t0i correspondientes a los casos presentados en la Fig. 5.16.

z0i (m) '0 (zi ) t0i =T0


0 0 0
0.2 1.5794 0.2514
Tabla 5. I
0.4 1.8444 0.2935
0.6 1.2972 0.2065
0.8 1.5622 0.2486

c Emilio Gago-Ribas, 2002


° 123
ϕ0(z) sin[-ϕ0(z)]
15 2
12
9 1
6
3 0
0
-3 β0 -1
-6
-9 -2
-2
ϕ'0(z)
-1 0 1
z 2 3 4 -2 -1
sin[ω0t1 - ϕ0(z)]
0 1
z 2 3 4

4 2
β0
3 1

2 0

1 -1
z01
0 -2
-2
vf (z)
-1 0 1
z
2 3 4 -2 -1
sin[ω0t2 - ϕ0(z)]
0 1
z 2 3 4

3 2

1
2

1
-1
z02
0 -2
-2 -1 0 1 2 3 4 -2 -1 0 1 2 3 4
z z

Figura 5.13. Función senoidal f (t; z) de período T0 = 1 s. y con una función de


fase lineal '0 (z) = ¯ 0 z rad, ¯ 0 = 2¼ rad/m. La velocidad de fase es constante e
igual a !0 =¯ 0 m/s. Se muestran tres instantaneas de la señal para t = 0; t = 0; 75T0 ;
y t = 1:25T0 :

t z = 3λ0/8 z = 7λ0/8
3T0

2T0

1T0

vf=λ0/T0

0T0
0,000λ0 0,125λ0 0,250λ0 0,375λ0 0,500λ0 0,625λ0 0,750λ0 0,875λ0 1,000λ0
z

Figura 5.14. Diagrama z ¡ t de la función representada en la Fig. 5.13. Se repre-


sentan las señales en función de t para los valores z = 0; z = 3¸0 =8; y z = 7¸0 =8:

124 c Emilio Gago-Ribas, 2002


°
A: Puntos de pendiente nula
ϕ0(z) B: Tramos de pendiente negativa sin[-ϕ0(z)]
15
A 1,0
A
12
0,5
A B
9
A 0,0
6
B

3
B -0,5

0 B -1,0
0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0
ϕ'0(z) z sin[ω0t1 - ϕ0(z)] z
10 1,0

0,5
5

0,0

0
-0,5

-5 -1,0
0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0
vf (z) z sin[ω0t2 - ϕ0(z)] z
10 1,0

5 0,5

0 0,0

-5 -0,5

-10 -1,0
0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0 0,0 0,5 1,0 1,5 2,0 2,5 3,0 3,5 4,0
z z

Figura 5.15. Función senoidal f (t; z) de período T0 = 1 s. con una función de fase
'0 (z) = ¯ 0 z + sin(2¯ 0 z) rad, ¯ 0 = ¼ rad/m. Se muestran tres instantáneas de la
señal a lo largo de z para t = 0; t1 = 0; 15T0 ; y t2 = 0:25T0 : En las grá…cas de la
función y de la velocidad de fase están indicados los valores de z que se presentan en
la Fig. 5.16.

t z1 z2 z3 z4
3T0

2T0

1T0

t01 t02 t03 t04


0T0
0,0 0,2 0,4 0,6 0,8
z

Figura 5.16. Diagrama z ¡t de la función representada en la Fig. 5.15. Se muestran


las variaciones en t para ciertos valores zi = 0; 0:2; 0:4; 0:6; y 0:8 m. Los valores de
'0 (zi ) y vf (zi ) son los indicados la Fig. 5.15; los retrasos t0i respecto a la señal en
z = 0 son los mostrados en la tabla 5. I.

c Emilio Gago-Ribas, 2002


° 125
126 c Emilio Gago-Ribas, 2002
°
6. Operadores y Sistemas Lineales. La Delta de Dirac

6.1 Sistemas y espacios de señales aperiódicas. Funciones localizadoras.


Consideremos un sistema cualquiera caracterizado en la forma habitual por,

g(x) = F[f (x)]: (6.1)

Como ya hemos anticipado en algunos ejemplos citados en la sección anterior, una forma intuitivamente
clara de visulizar el problema directo sería la de considerar que la señal de entrada f (x) es la señal de
excitación o fuente del problema descrito por dicho sistema, siendo la señal g(x) la respuesta a dicha
excitación. Con estas ideas básicas en mente, intentamos ver si existe alguna manera de caracterizar
o describir un sistema de forma única, entendiendose por este término que cualquier sistema se pueda
representar en alguna forma común, sea quien sea el operador F que lo describe. En el caso más general,
pensaremos incluso que dicho operador pueda no tener una representación analítica conocida.
Una primera forma de caracterizar dicho sistema consistiría en disponer de un conjunto de funciones
de entrada muy grande en número tal que, analizando la salida a cada una de esas señales, pudieramos
de alguna forma identi…car el sistema, Fig. 6.1. Parece claro que este proceso, así descrito, resultaría
inviable o inexacto: ¿cuántas señales serían necesarias?, ¿aseguramos así la correcta identi…cación del
sistema y su correcto comportamiento frente a cualquier otra señal arbitraria?, etc.

Figura 6.1. Identi…cación de un sistema usando múltiples señales fuente y respuesta.

Una segunda forma de abordar el problema consistiría en pensar en aprovechar alguna propiedad gen-
eral que conociéramos del sistema; por ejemplo, si supiéramos que el sistema es causal, intentaríamos
restringir de alguna forma su posible descripción en virtud de dicha propiedad. Desde este punto de
vista, las propiedades más importantes que utilizaremos para intentar obtener dicha caracterización son
las propiedades de linealidad e invarianza, como veremos a lo largo del presente texto.
A pesar de adelantar ya la importancia que estas dos propiedades presentarán en la caracterización de
un sistema, queda un tercer aspecto importante por afrontar, esto es, el problema de qué tipo de señales
deberemos utilizar para lograr su caracterización. En este sentido, el álgebra de señales y de operadores
nos facilita la labor a través del concepto de bases de un espacio. Así, supuesto un cierto espacio de
señales de partida, y asumiendo que hemos encontrado una base para representar dicho espacio, Secc.
2.5, el sistema quedará caracterizado a través de la transformación de los elementos de la base, esto es,

F : f'(x; m)g ¡! F [f'(x; m)g] = fF ['(x; m)]g : (6.2)

De esta forma lograríamos predecir el comportamiento del sistema para cualquier señal del espacio de
partida. Sin embargo, este concepto no aclara qué conjunto de funciones deberíamos de elegir como base
para poder caracterizar el sistema dado que, como ya se citó en el Cap. 4, la elección de una base viene
determinada no sólo por el espacio a representar sino también por los operadores que van a actuar sobre
dicho espacio. Este aspecto será uno de los puntos de partida para introducir el concepto de funciones

127
localizadoras y de…nir, a partir de él, una función que acabará siendo un objeto matemático1 denominado
delta de Dirac, ±(x); con una serie de propiedades importantes asociadas, entre ellas, la de servir como
conjunto base ideal para representar cualquier espacio de señales y, por lo tanto, permitir la caracterización
de un sistema con alguna de las propiedades citadas anteriormente.
Este objeto matemático ideal servirá como punto de partida para generar nuevos objetos de carácter
localizador, lo que dará lugar posteriormente a las Distribuciones o Funciones Generalizadas introducidas
en el Cap. 7.

6.1.1 Funciones localizadoras de tipo impulsivo. La distribución delta de Dirac.


Habíamos visto en la sección anterior cómo para describir o ejempli…car ciertas propiedades generales de
los sistemas, podía ser conveniente pensar en términos de algún tipo de función que se caracterizase por
estar de…nida2 en un intervalo de la variable independiente ¢x muy pequeño. Este tipo de funciones
constituirán el punto de partida para pensar a su vez en funciones con un comportamiento localizador
ideal justamente cuando dicho intervalo tienda a cero, ¢x ! 0: Desde un punto de vista práctico, este
tipo de objetos servirían, por ejemplo, para:
² Representar variaciones instantáneas en el tiempo, es decir, representar magnitudes muy localizadas
en un determinado instante de tiempo, Fig. 6.2(a).
² Representar magnitudes muy localizadas en torno a un punto del espacio, Fig. 6.2(b).

Figura 6.2. Representación genérica de dos señales de tipo impulsivo localizadas en


torno al origen (a) de tiempos, y (b) de una coordenada espacial.

² Desde el punto de vista de las propiedades de un sistema, parece que este tipo de señales serían
especialmente adecuadas para su caracterización de forma que, en lugar de usar funciones arbitrarias
para lograr dicho objetivo, intentaremos usar señales de entrada con este comportamiento.
Generalizando estos conceptos a señales de…nidas sobre una variable cualquiera intentaremos generar
un objeto matemático de partida que se ajuste al comportamiento descrito; así, estaríamos hablando de
funciones i¢x (x) que podríamos caracterizar inicialmente de la siguiente forma, Fig. 6.3(a):
1. De…nidas en (¡1; 1); esto es, pertenecientes al espacio S(¡1; 1):
2. Continuas y de buen comportamiento en torno al punto de de…nición (inicialmente el origen del
sistema de coordenadas).
3. Reales de variable real, lo que facilitará su de…nición inicial.
4. Pares (esta propiedad se puede imponer a priori si pensamos que el comportamiento de la función
en torno al punto de de…nición nos es indiferente una vez que el comportamiento de estas funciones
se haya llevado al límite cuando ¢x ! 0):
5. Desde el punto de vista analítico impondremos: (i) que sean señales nulas para cualquier valor de
x fuera del intervalo de longitud ¢x; (ii) dentro de dicho intervalo, su forma de variación y valores
son desconocidos y arbitrarios, exceptuando las características citadas en los puntos 2 y 4.
1 Este objeto matemático resultante será un funcional que operará sobre una función de buen comportamiento, Seccs.

3.2.1 y 3.3.1.
2 En este sentido, el término estar de…nida se usa como sinónimo de tomar valores no nulos en un cierto intervalo. Por

supuesto, el espacio de señales sobre el que estamos trabajando inicialmente es S(¡1; 1) y, por lo tanto, cualquier señal
estará de…nida para todo el rango de la variable independiente.

128 c Emilio Gago-Ribas, 2002


°
i∆x(x)
1,5

∆x
1,0

(a)
0,5

0,0
-4 -3 -2 -1 0 1 2 3 4
δ(x) x ∆x 0
1,5

1,0

(b)
0,5

0,0
-4 -3 -2 -1 0 1 2 3 4
x

Figura 6.3. Obtención de la distribución ±(x) a partir de una señal i¢x (x) arbitraria
de…nida en un cierto intervalo ¢x cuando ¢x ! 0:

Nótese cómo con esta de…nición inicial, el caracter impulsivo de dichas señales aparece claramente,
independientemente de la forma de variación que tengan en el intervalo donde dichas funciones no se
anulan. A partir de ellas, el comportamiento impulsivo ideal quedaría de…nido cuando ¢x ! 0: De
forma intuitiva, parece evidente que, en el límite, lo que obtenemos no es una función usual sino un
nuevo objeto que podríamos de…nir inicialmente de la siguiente forma, Fig. 6.3(b):
1. De…nido en (¡1; 1):
2. En el límite, la continuidad se pierde, de forma que este nuevo objeto presenta un comportamiento
discontinuo justo en el origen. Este comportamiento ya nos da pie a pensar que el nuevo objeto
pertenecerá, bien a un espacio de señales diferente al de partida., bien a ampliar nuestro espacio de
funciones con funciones discontinuas.
3. Real de variable real.
4. El comportamiento de este objeto es claramente par, propiedad que previamente se ha usado al
de…nir las funciones i¢x (x) iniciales.
5. Analíticamente, este objeto quedaría descrito de la siguiente forma:
(a) De valor nulo para todo x 6= 0:
(b) No de…nido en x = 0:
A este nuevo objeto le llamaremos delta de Dirac, y lo denotaremos por ±(x): Su representación grá…ca
será como la mostrada en la Fig. 6.3(b).
El proceso de de…nición que hemos seguido ha consistido en partir de una función i¢x (x) de buen
comportamiento y ver qué objeto se obtendría al hacer tender el intervalo de de…nición de dicha función
a cero, ¢x ! 0: Este hecho sugiere que un proceso más riguroso consistiría en de…nir una sucesión de
funciones dn (x) de buen comportamiento tales que el límite de la sucesión diese lugar a ±(x): Este será
el método habitual seguido en el Cap. 7 para introducir las distribuciones o funciones generalizadas en su
forma más general.
Es importante destacar también que el hecho de que ±(x) no esté de…nida en el origen supone un grado
de libertad inicial que nos tomamos en la de…nición de un objeto de estas características. De hecho, esta
inde…nición vendría intuitivamente promovida por haber considerado funciones de partida i¢x (x) cuya
forma de variación no hemos de…nido en el intervalo ¢x:

c Emilio Gago-Ribas, 2002


° 129
Figura 6.4. Representación de una transformación operando entre dos espacios de
señales por un sistema arbitrario asumiendo que dichos espacios puedieran contener
objetos matemáticos de tipo localizador.

Con estas ideas en mente, el objetivo …nal será estudiar si estos objetos facilitan la obtención de alguna
de…nición característica de un sistema, Fig. 6.4. Desde el punto de vista algebraico, esto será equivalente
a obtener alguna representación alternativa del operador F que describe el comportamiento del sistema.
Este proceso pasará por ver si este tipo de objetos pueden ser usados como base del espacio de señales,
analizando así la transformación de dicha base citada previamente.
Para ello intentaremos basarnos una vez más en aquellas propiedades especiales que poseen objetos lo-
calizadores como la ±(x): Así, parece lógico imaginar que cualquier función localizadora i¢x (x) podría
servir también para representar funciones de entrada al sistema f(x) arbitrarias dado que su compor-
tamiento nulo fuera del intervalo de de…nicion en torno al origen nos permitirá seleccionar un intervalo
de f (x) de ancho ¢x en torno a x = 0: Si posteriormente desplazamos de forma continua la función
i¢x (x) a otros puntos, i¢x (x ¡ xi ), iremos seleccionando nuevos intervalos de f(x) centrados en xi hasta
conseguir así seleccionar la función completa. Si este proceso lo intentamos visualizar cuando ¢x ! 0;
estaríamos obteniendo, si esto es posible, la representación de una función f(x) arbitraria en términos
de ±(x ¡ xi ); concepto equivalente a pensar en los objetos ±(x ¡ xi ) como elementos de una base del
espacio de funciones. En la Fig. 6.5 se esquematizan estos conceptos.

i∆x(x - xi) f (x)


1

0 (a)
∆x

-1
-6 -4 -2 0 2 4 6
δ(x - xi) x f (x) ∆x 0
1

0 (b)

-1
-6 -4 -2 0 2 4 6
x

Figura 6.5. Proceso de ’muestreo’ de una señal mediante el desplazamiento de fun-


ciones localizadoras i¢x (x¡ xi ): En el límite cuando ¢x ! 0; dichas funciones serían
objetos en la forma ±(x ¡ xi ): Se representan los casos con xi = ¡3; xi = 0 y xi = 2:

130 c Emilio Gago-Ribas, 2002


°
Figura 6.6. Visualización del concepto de proyección de un elemento f (x) del es-
pacio S(¡1; 1) sobre el objeto ±(x):

Este proceso de construcción, aparentemente razonable, nos llevará rápidamente a la de…nición rigurosa
del objeto ±(x): Como se analizará en el Cap. 7, a partir de la de…nición de este objeto, se podrán
construir nuevos objetos de carácter localizador, ya sean impulsivos o no. Lo que parece evidente a estas
alturas del proceso es que la forma inicial de seleccionar pequeños trocitos de una función arbitraria
f (x) mediante i¢x (x) sería multiplicando ambas funciones. Fuera cual fuera el resultado en el intervalo
¢x; resulta evidente también que fuera de dicho intervalo, el producto siempre será nulo, y la función
producto resultante estaría directamente relacionada con f(x) dentro del intervalo ¢x;
8 8
< 0 = (¡ ¢x
x2 ¢x < 0 x 6= 0
2 ; 2 )
f (x)i¢x (x) = ¡! [¢x ! 0] ¡! f (x)±(x) = (6.3)
: no def. x 2 (¡ ¢x ; ¢x ) : no def. x = 0
2 2

6.1.2 De…nición del objeto ±(x).

Nótese en primer lugar que el producto de f (x) por ±(x) sigue siendo un objeto no de…nido en el origen,
así que dicha operación no parece su…ciente para conseguir la representación …nal de f (x) buscada. Es
por esto que, una vez más, deberíamos de recurrir a la métrica de…nida sobre nuestro espacio de funciones
para ver si, a través de ella, podemos lograr alguna medida concreta. En concreto, buscando representar
f (x) en términos de una base formada por objetos del tipo ±(x); deberíamos intentar representar los
coe…cientes de dicha combinación lineal en términos del producto escalar de…nido en (2.54) donde la
segunda función en este caso sería el objeto ±(x); pensando entonces en ’muestrear’ la función f (x) en
la coordenada donde se encuentra el objeto localizador, podríamos realizar la siguiente asignación,
Z 1
hf (x); ±(x)i = f (x)±(x) dx = f(0): (6.4)
¡1

En esta expresión, hemos usado el hecho de que ±(x) sea un objeto real. Justamente el valor asignado
a este producto escalar será el de la función f (x) en el origen, es decir, f(0): De esta forma estaremos
logrando, a través de dicha operación, obtener el carácter de objeto muestreador continuo de ±(x) que
estábamos buscando, usando además el grado de libertad del que todavía disponíamos respecto a su
de…nición en torno al origen. Aquí aparece precisamente el carácter de funcional mencionado en la Secc.
3.3.1 del objeto delta de Dirac, dado que su de…nición en el origen no pasa por asignarle un valor concreto
sino que pasa por actuar sobre otra función de buen comportamiento. Podríamos entonces describir el
funcional ±(x) de la siguiente forma,

±(x) : S(¡1; 1) ¡! C;
Z 1 (6.5)
±(x) : f(x) ¡! f (0) = f(x)±(x) dx 2 C:
¡1

Es decir, el objeto ±(x) es en realidad un funcional, Secc. 3.3.1 y Fig. 3.4 que se aplica sobre una función
f (x) en el espacio vectorial de funciones S(¡1; 1), devolviéndonos un valor complejo igual al valor de
la función en el origen, f (0): Esta de…nición se puede leer de otras formas también importantes:
² Desde el punto de vista algebraico, esa de…nición se podría interpretar como la proyección de una
función f(x) de buen comportamiento sobre un nuevo objeto matemático ±(x) introducido en el
espacio de señales. Dicho objeto se de…niría entonces como aquel elemento tal que la proyección de
una función arbitraria sobre él es exactamente igual al valor de la función en el origen, Fig. 6.6.

c Emilio Gago-Ribas, 2002


° 131
i∆x(x) f (x)
2

-1

-2
-6 -4 -2 0 2 4 6
f(0) x f (x) i∆x(x)
2

0
∆x
-1

-2
-6 -4 -2 0 2 4 6
f(0) x f (x) ∆x 0
2

-1

-2
-6 -4 -2 0 2 4 6
x

Figura 6.7. Interpretación grá…ca de la de…nición integral del funcional ±(x) aplica-
do a una función f (x) de buen comportamiento partiendo de una función localizadora
i¢x (x) cuando ¢x ! 0:

² Desde el punto de vista de las funciones localizadoras i¢x (x); la interpretación se podría realizar en
términos del esquema mostrado en la Fig. 6.7, donde la integral del producto f(x)i¢x (x) se obliga
a que sea justamente f (0) cuando ¢x ! 0; y no otro valor.
Nótese cómo, a partir de la de…nición dada en (6.4), es posible obtener una propiedad también básica
del objeto ±(x); particularizando dicha expresión cuando f (x) = 1; es decir, la función constante unidad,
Z 1
h1; ±(x)i = ±(x) dx = f (0) = 1; (6.6)
¡1

es decir, que el objeto, o funcional ±(x); integrado en cualquier intervalo tal que contenga a la posición
donde se localiza el objeto (el origen en este caso), será siempre igual a la unidad. De esta propiedad
se desprende claramente que el comportamiento en el origen de la delta debería ser singular (! 1) de
forma que el área bajo este objeto localizador impulsivo dé lugar a una indeterminación 0 ¢ 1 tal que su
valor sea justamente la unidad.
Una vez de…nido el carácter muestreador de ese objeto impulsivo en el origen, bastará desplazarlo a
valores fuera del origen para generalizar el concepto de muestreo de ±(x) en cualquier valor de la variable
independiente, generando así un conjunto de funciones base de tipo localizador que permite representar
cualquier elemento f(x) 2 S(¡1; 1):

6.1.3 De…nición del objeto ±(x ¡ x0 ).

La de…nición de la delta de Dirac fuera del origen se obtiene sin más que generalizar la expresión (6.4)
a un punto cualquiera x0 ; obteniéndose directamente
Z 1
hf (x); ±(x ¡ x0 )i = f (x)±(x ¡ x0 ) dx = f (x0 ): (6.7)
¡1

La representación grá…ca sería como la mostrada en la Fig. 6.5 con x0 6= 0: Diremos entonces que el objeto
±(x ¡ x0 ) localizado en x0 y de…nido para todo x; aplicado sobre una función de buen comportamiento
f (x); nos devuelve el valor de dicha función en el punto x0 : Como funcional podremos entonces escribir

132 c Emilio Gago-Ribas, 2002


°
la siguiente expresión,
±(x ¡ x0 ) : S(¡1; 1) ¡! C;
Z 1 (6.8)
±(x ¡ x0 ) : f(x) ¡! f (x0 ) = f (x)±(x ¡ x0 ) dx 2 C:
¡1

Tanto las interpretaciones como las formas de visualización serán totalmente similares a las expuestas
para el objeto ±(x) descrito previamente.

6.1.4 Conjunto de objetos f±(x ¡ x0 )g :


Consideremos a continuación que el punto de localización x0 pueda tomar cualquier valor en el inter-
valo de de…nición de la variable independiente de forma que pueda ser considerado como un parámetro
descriptivo de diferentes objetos impulsivos de tipo delta localizados en diferentes posiciones. Denotare-
mos por x0 al desplazamiento considerado como un parámetro variable del problema, de forma que la
expresión (6.7) se podrá escribir en la forma siguiente,
Z 1
0
hf(x); ±(x ¡ x )i = f (x)±(x ¡ x0 ) dx = f (x0 ); (6.9)
¡1
0
es decir, la distribución delta localizada en x nos devuelve el valor de la función sobre la que se aplica
en dicho valor. Nótese que en esta última ecuación, x0 denota el continuo de valores a lo largo de
los cuales iremos localizando objetos de tipo ±(x); en otras palabras, x0 es una variable que describe
la posición donde se localiza la fuente impulsiva, denominada habitualmente como coordenada o punto
fuente. Si consideramos el continuo de posibles valores del parámetro x0 ; estaremos describiendo una
familia continua de objetos localizadores de tipo impulsivo en la forma,
fi(x; x0 )g = f±(x ¡ x0 )g : (6.10)
Nótese que todos estos objetos son discontinuos, de forma que estaremos ampliando el espacio de fun-
ciones original S(¡1; 1) con este conjunto de elementos impulsivos y discontinuos. También es posible
intuir el hecho de que, aplicando diferentes operadores sobre una distribución delta de Dirac, obten-
dremos nuevas señales de tipo localizador con nuevas propiedades asociadas. Al conjunto de funciones
localizadoras fD(x)g que denominaremos como distribuciones y que analizaremos en el Cap. 7 lo deno-
taremos por D(¡1; 1): Así, el conjunto de distribuciones en (6.10) será un subconjunto de D(¡1; 1):

6.1.5 Representación de funciones en términos del conjunto f±(x ¡ x0 )g :

Hemos visto previamente cómo el conjunto in…nito y continuo de distribuciones fi(x; x0 )g = f±(x ¡ x0 )g
descrito por el parámetro x0 permite muestrear de forma continua una función f (x) de buen compor-
tamiento sobre la que actúa dicho conjunto. Siguiendo entonces el esquema general presentado en (2.42)
junto con (2.43), o bien su versión más detallada presentada en el Cap. 4, ecuaciones (4.20)-(4.21)3 ,
podremos intentar escribir f (x) en términos de una combinación lineal continua de los elementos del
conjunto fi(x; x0 )g en (6.10),
Z Z
0 0 0
f (x) = A(x )i(x; x ) dx = A(x0 )±(x ¡ x0 ) dx0 ; (6.11)
x0 x0

siendo los coe…cientes A(x0 ) los dados por el producto escalar,


Z
A(x0 ) = hf(x); ±(x ¡ x0 )i = f (x)±(x ¡ x0 ) dx = f (x0 ): (6.12)
x

En la última igualdad se ha utilizado la de…nición en (6.9) ya conocida. Esto quiere decir que los
coe…cientes de la combinación lineal son justamente la misma función sobre la que actúa el conjunto
f±(x ¡ x0 )g de…nida sobre la variable x0 que describe la posición de cada una de las deltas, esto es,
Z
f(x) = f (x0 )±(x ¡ x0 ) dx0 : (6.13)
x0

Podemos entonces resumir el proceso en los siguientes puntos:


3 Nótese que lo que allí denominábamos variable espectral » es, en este caso, otra variable en el dominio real, x0 : Así,

el conjunto de coe…cientes A(») ´ A(x0 ); siendo a(¿ ) ´ f (x): El conjunto de funciones base denotado allí por e(¿ ; ») será
ahora i(x; x¶):

c Emilio Gago-Ribas, 2002


° 133
² La variable x original del problema describe la forma de variación de cualquier función f(x); pudién-
dose denominar como la coordenada o punto de observación de una cierta magnitud representada por
f (x) y descrita por dicha variable.
² La nueva variable x0 describe el conjunto de funciones f±(x ¡ x0 )g identi…cando la posición donde
se localiza cada una de las señales impulsivas. Asumiendo que ésta sea la fuente original para
caracterizar el sistema, denotaremos a dicha variable como la coordenada o punto fuente. Veremos
en las siguientes secciones cómo estos objetos matemáticos permiten caracteriza un sistema, objetivo
…nal del presente desarrollo.
² La expresión de la combinación lineal continua en (6.13) en términos de la nueva variable x0 se
puede reescribir usando la expresión de la convolución en (3.87) sobre dicha variable,
Z
f(x) = f (x0 )±(x ¡ x0 ) dx0 = f(x) ¤ ±(x); (6.14)
x0

expresión sobre la variable x que identi…ca las siguientes propiedades:


1. El objeto ±(x) de…nido es capaz de muestrear de forma ideal cualquier función continua, esto
es, permite seleccionar un valor de un conjunto continuo de valores. En este caso, el conjunto
continuo de valores será cualquier función f (x) de buen comportamiento. Si la delta se localiza
en el origen, selecciona el valor f (0); fuera del origen, la delta selecciona el valor de la función
en dicho punto.
2. En virtud de la propiedad anterior, el conjunto continuo f±(x ¡ x0 )g es capaz de represen-
tar a través de una combinación lineal continua sobre x0 a cualquier función f(x) de buen
comportamiento para todo valor de x; (6.14).
3. Esta combinación lineal continua puede escribirse en la forma de una convolución de dos señales,
f(x) 2 S(¡1; 1) y ±(x) 2 D(¡1; 1): Se satisfacen entonces todas las propiedades asociadas
a la convolución descritas en la Secc. 3.7.1; así por ejemplo, podremos escribir,

f(x) = f (x) ¤ ±(x) = ±(x) ¤ f (x); (6.15)

lo que equivale a,
Z Z
f(x) = f (x0 )±(x ¡ x0 ) dx0 = f(x ¡ x0 )±(x0 ) dx0 : (6.16)
x0 x0

² Nótese cómo el carácter de funcional del objeto ±(x) en la expresión (6.14) se mantiene sin más
que interpretar adecuadamente la operación de convolución. Consideremos para ello a f (x) como
un conjunto de in…nitos elementos descrito por la variable x considerada ésta como parámetro
descriptivo del conjunto ff (x)g : Así, para cada valor de x = xi obtendremos un valor complejo
f (xi );
Z
f(xi ) = f (x0 )±(xi ¡ x0 ) dx0 2 C: (6.17)
x0

El carácter de funcional descrito en (6.5) y (6.8) se mantiene entonces4 para todo valor de xi ; esto
es, para todo valor de la variable original x:

6.1.6 Sistemas lineales.


En virtud de los objetos localizadores de…nidos así como de las propiedades que presentan, retomaremos
ahora el problema inicial de intentar caracterizar un sistema con ayuda de estos nuevos objetos fun-
cionales, Fig. 6.4. Parece evidente que, para un sistema genérico descrito por un operador F arbitrario,
el hecho de haber introducido estas nuevas señales no facilita, a priori, la caracterización del mismo, a
menos que seamos capaces de extraer dicha caracterización de alguna propiedad importante. Así,
Z ¸
0 0 0
F : f(x) = f (x) ¤ ±(x) ! g(x) = F [f (x)] = F f(x )±(x ¡ x ) dx : (6.18)
x0
4 Nótese que la operación de convolución analizada respecto a x0 conlleva una re‡exión y un desplazamiento que no

afecta al carácter de funcional descrito.

134 c Emilio Gago-Ribas, 2002


°
Figura 6.8. Representación esquemática del concepto asociado al conjunto continuo
de funciones respuesta al impulso fh(x; x0 )g descriptivas de un sistema caracterizado
por un operador F lineal.

Si sobre esta expresión general consideramos la propiedad de linealidad descrita en (3.4.1) la expresión
anterior podrá ser desarrollada como en (3.34), identi…cando una vez más la variable » que allí aparece
con x0 ; y los coe…cientes de la combinación lineal A(») con los valores f(x0 ) en (6.12) Así,
Z
F : f (x) = f(x) ¤ ±(x) ¡! g(x) = F [f (x)] = f(x0 )F [±(x ¡ x0 )] dx0 : (6.19)
x0

En esta última ecuación aparece ya la conveniencia de las funciones impulsivas del tipo ±(x) para la
caracterización de un sistema, dado que la combinación lineal que representa la señal de salida está
escrita en términos de F [±(x ¡ x0 )] ; es decir, del sistema operando sobre deltas. De esta forma, podremos
concluir que:
² Sea quien sea el operador F que describe el sistema, si es lineal, lo único que deberemos conocer para
obtener la respuesta a cualquier señal de entrada f (x) es la respuesta a señales impulsivas del tipo
delta de Dirac localizadas a lo largo de todo el dominio de de…nición de la variable independiente,
Fig. 6.8, esto es,

h(x; x0 ) = F [±(x ¡ x0 )] : (6.20)

Estas funciones constituirán un conjunto de in…nitas funciones fh(x; x0 )g descritas por el parámetro
x0 y que denominaremos conjunto de respuestas del sistema al impulso. Denotaremos a su vez
por L(S; D) al espacio o conjunto de operadores que son lineales sobre los espacios S(¡1; 1)
y D(¡1; 1):
² Conocido el conjunto de funciones fh(x; x0 )g ; cualquier operador o sistema que sea lineal tendrá
siempre una representación alternativa única en términos de un operador integral cuyo núcleo, Secc.
3.6.4, ecuación (3.73), es dicho conjunto de funciones en la forma,
Z
Para todo F 2 L(S; D) ! F(¢) ´ (¢)h(x; x0 ) dx0 : (6.21)
x0

Nótese que esta integral no es, en general, una integral de convolución como la de…nida en (3.87).
² La colección de funciones fh(x; x0 )g ; por ser consecuencia de una cierta transformación (lineal) del
conjunto de distribuciones f±(x ¡ x0 )g ; será un subconjunto de D(¡1; 1); esto es, un conjunto
in…nito de nuevas distribuciones, Fig. 6.11. En la Fig. 6.9 se muestra un ejemplo sencillo de varias
funciones respuesta al impulso arbitrarias. Estas consideraciones contribuyen también al hecho de
estudiar este tipo de funciones con un poco más de detalle, lo que se abordará en el Cap. 7.

6.1.7 Sistemas lineales e invariantes.


A partir de la representación de un sistema lineal obtenida previamente, es posible dar un paso más en
su caracterización si, además, el sistema presenta la propiedad de invarianza, Secc. 3.4.2. En base a dicha
propiedad resulta evidente que si la excitación impulsiva se localiza en un cierto x0 6= 0; la respuesta a
dicha excitación será la misma que la correspondiente a una excitación impulsiva localizada en el origen
pero con un desplazamiento de valor x0 ; es decir,
8
< ±(x) ¡! h(x) = F [±(x)]
(6.22)
: ±(x ¡ x0 ) ¡! h(x; x0 ) = F [±(x ¡ x0 )] = h(x ¡ x0 )

c Emilio Gago-Ribas, 2002


° 135
δ(x - x')
2,0

1,5

1,0
x' =0 x' =4 x' =8

0,5

0,0
-10 -8 -6 -4 -2 0
x 2 4 6 8 10

1,0
h(x;x')
h(x;0) h(x;8)
h(x;4)
0,5

0,0

-0,5

-1,0
-3 -2 -1 0 1
x 2 3 4 5 6

Figura 6.9. Algunos ejemplos de distribuciones pertenecientes al conjunto fh(x; x0 )g


para diferentes localizaciones de ±(x ¡ x0 ):

La representación correspondiente a una señal de entrada arbitraria f(x) vendrá dada sin más que
aplicar este resultado a la forma integral del sistema obtenida en (6.21). Así pues, para un sistema lineal
e invariante,
Z
F : f(x) = f (x) ¤ ±(x) ¡! g(x) = F [f (x)] = f(x0 )h(x ¡ x0 ) dx0 = f (x) ¤ h(x): (6.23)
x0

En base a este resultado podemos entresacar las siguientes conclusiones:


² Sea quien sea F; si es lineal e invariante, sólo necesitaremos conocer una única función respuesta
al impulso h(x) a una delta localizada en el origen, ±(x); para lograr su caracterización en forma
integral. Dicha función describirá el conjunto de in…nitas funciones fh(x ¡ x0 )g ; núcleo del operador
integral que representa al sistema,
h(x) = F [±(x)] ; (6.24)
Z
F(¢) ´ (¢)h(x ¡ x0 ) dx0 : (6.25)
x0

² Denominaremos por LI(S; D) al conjunto de operadores que son lineales e invariantes sobre los
espacios vectoriales S(¡1; 1) y D(¡1; 1):
² La respuesta del sistema a una señal arbitraria f (x) se podrá obtener, por tanto, en base a dicha
representación integral que, además, se reduce a una integral de convolución como la de…nida en
(3.87), en este caso de la función de entrada con la respuesta al impulso del sistema,
Z
F : f (x) ¡! g(x) = f (x0 )h(x ¡ x0 ) dx0 = f(x) ¤ h(x): (6.26)
x0

² Las propiedades de esta representacion integral serán entonces las descritas en la Secc. 3.7.1.
² De especial relevancia resulta interpretar el papel que juega en este caso la respuesta al impulso
dentro de la operación de convolución; para ello, bastará con trasladar la interpretación grá…ca de
la convolución a este caso. Asumiendo que los términos subintegrales fuesen como los mostrados en
la Fig. 6.10, es fácil notar que la respuesta al impulso juega en este caso el papel de aquella función
que determina el rango de valores de la señal de entrada que in‡uye o aporta valores a la integral, y por
lo tanto, a la señal de salida para cada valor de x: Esta característica será fundamental a la hora de
trasladar las propiedades de los sistemas al caso de los sistemas lineales e invariantes, como veremos
en la Secc. 6.2.

136 c Emilio Gago-Ribas, 2002


°
Figura 6.10. Representación esquemática del papel de ’selección’ que juega la re-
spuesta al impulso h(x) asociada a un sistema lineal e invariante frente a la señal de
entrada.

6.1.8 Nuevo espacio de señales.


En virtud de las consideraciones realizadas en las secciones anteriores, podremos considerar un nuevo
~
espacio de señales ampliado que denotaremos por S(¡1; 1): Este espacio contendrá tanto al espacio
inicial S(¡1; 1) de funciones continuas de buen comportamiento, como al espacio D(¡1; 1) de las
distribuciones. Así, a partir de ahora mantendremos en mente el esquema mostrado en la Fig. 6.11.

Figura 6.11. Representación esquemática de un sistema descrito por un cierto op-


erador F actuando inicialmente sobre el espacio de funciones S(¡1; 1): Al espacio
de distribuciones fD(x)g generado aplicando diferentes transformaciones al objeto
impulsivo inicial ±(x) lo denominaremos por D(¡1; 1): El conjunto de funciones
f±(x ¡ x0 )g así como su transformado fh(x; x0 )g a través de un operador F serán
~
subconjuntos de este último espacio. Denominaremos por S(¡1; 1) al espacio com-
pleto que contiene tanto a las funciones continuas en S(¡1; 1) como a las funciones
~
discontinuas que serán analizadas como distribuciones, D(¡1; 1); Cap. 7.

c Emilio Gago-Ribas, 2002


° 137
6.2 Sistemas lineales e invariantes.
Hemos visto cómo la de…nición de una función impulsiva básica nos ha permitido lograr una caracteri-
zación de cualquier sistema que sea lineal en términos de un operador integral de núcleo el conjunto de
respuestas al impulso fh(x; x0 )g ; (6.21). Si el sistema es, además, invariante, la caracterización se realiza
a través de una única función respuesta al impulso h(x); (6.24)-(6.25). Como resultado de esto, conviene
analizar y describir el resto de las propiedades de un sistema de…nidas en la Secc. 3.4 en términos de
la respuesta al impulso del sistema para el conjunto de sistemas lineales e invariantes (SLI) identi…cado
por el espacio de operadores LI(S): ~

6.2.1 Propiedades asociadas a la convolución.


En base a las propiedades de la operación de convolución descritas en la Secc. 3.7.1, podemos identi…car
las siguientes propiedades trasladadas a uno o varios sistemas lineales e invariantes:
² Conmutatividad: f(x) ¤ h(x) = h(x) ¤ f(x):
Esta propiedad, básica a priori, proporciona una lectura adicional muy importante, y es que un
problema descrito en términos de un SLI caracterizado por h(x) y alimentado por una señal f (x)
se puede analizar como un problema diferente en el que el SLI que lo describe tiene una respuesta
al impulso f(x); siendo h(x) la señal a la entrada. En la Fig. 6.12 se representa grá…camente esta
propiedad.

Figura 6.12. Propiedad conmutativa de la convolución transladada a un sistema


lineal e invariante. Los dos problemas, caracterizados por sistemas diferentes, darían
la misma respuesta g(x).

² Asociatividad: f (x) ¤ [h1 (x) ¤ h2 (x)] = [f(x) ¤ h1 (x)] ¤ h2 (x):


Esta propiedad está directamente relacionada con la asociación de sistemas en serie descrita en la
Secc. 3.5. Nótese cómo el término a la derecha de la igualdad representa la salida de un primer SLI
de respuesta al impulso h1 (x) que, a su vez, pasa por un segundo SLI de respuesta al impulso h2 (x):
El término a la izquierda identi…ca el hecho de que la asociación en serie de dos SLI’s se pude ver
como un único SLI cuya respuesta al impulso hs (x) es la convolución de las respuestas al impulso
de los sistemas iniciales, Fig. 6.13,

hs (x) = h1 (x) ¤ h2 (x): (6.27)

Figura 6.13. Propiedad asociativa de la convolución trasladada a dos sistemas lin-


eales e invariantes caracterizados por sus respuestas al impulso h1 (x) y h2 (x):

138 c Emilio Gago-Ribas, 2002


°
² Distributividad: f (x) ¤ [h1 (x) + h2 (x)] = f (x) ¤ h1 (x) + f(x) ¤ h2 (x):
Esta propiedad está directamente relacionada con la asociación de sistemas en paralelo descrita en
la Secc. 3.5. Nótese cómo el término a la derecha de la igualdad representa la suma de las salidas de
dos SLI’s de respuestas al impulso h1 (x) y h2 (x) alimentados por la misma señal de entrada f (x):
El término a la izquierda identi…ca el hecho de que la asociación en paralelo de dos SLI’s se pude ver
como un único SLI cuya respuesta al impulso hp (x) es la suma de las respuestas al impulso de los
sistemas iniciales, Fig. 6.14,

hp (x) = h1 (x) + h2 (x): (6.28)

Figura 6.14. Propiedad distributiva de la convolución trasladada a dos sistemas


lineales e invariantes caracterizados por sus respuestas al impulso h1 (x) y h2 (x):

6.2.2 Memoria.

En base a la de…nición de memoria dada en la Secc. 3.4.3 y teniendo en cuenta el papel que juega la
función respuesta al impulso dentro de la integral de convolución descrita en la sección anterior, parece
evidente que un sistema como el descrito en la Fig. 6.10 sería un sistema con memoria, dado que la
señal de salida en cualquier x dependerá de la señal de entrada en valores diferentes a ese x; tal y
como se muestra en dicha …gura. Así, podremos hacer la pregunta al revés: ¿qué respuesta al impulso
caracterizaría a un sistema sin memoria? La respuesta es sencilla, dado que, hasta el momento, sólamente
conocemos un tipo de señal que seleccione un único punto de la función de entrada f(x); que es la delta
de Dirac. En base a esto, el caso de un sistema lineal e invariante sin memoria sería como el representado
en la Fig. 6.15, esto es,

h(x ¡ x0 ) = ±(x ¡ x0 ) =) h(x) = ±(x) =) F ´ I; (6.29)

es decir, la respuesta al impulso del operador identidad5 . Nótese que en este análisis, h(x) se obtendrá
después de deshacer el desplazamiento y la re‡exión respecto al eje vertical (término a la derecha de la
ecuación anterior).
Este hecho sólo es factible gracias a la propiedad asociada a la familia de distribuciones f±(x ¡ x0 )g
obtenida en (6.16) que resulta ser justamente la respuesta del sistema identidad para cualquier señal
arbitraria,
Z
g(x) = I [f (x)] = f (x) = f(x0 )±(x ¡ x0 ) dx0 : (6.30)
x0
5 Resulta trivial comprobar que si h(x) = ±(x); el operador que describe el sistema será el operador identidad, F ´ I:

c Emilio Gago-Ribas, 2002


° 139
Figura 6.15. Visualización del concepto asociado a un sistema sin memoria en
relación con su respuesta al impulso.

Resulta también evidente generalizar dicho resultado para cualquier operador en la forma,
F = K ¢ I ¡! g(x) = Kf (x) ¡! h(x) = K±(x); (6.31)
es decir, los únicos sistemas lineales e invariantes que son sin memoria son el identidad y la familia de
operadores de escalado por una constante K 2 C: Nótese que el problema de una resistencia de valor R
recorrida por una corriente i(t) puesto como ejemplo de sistema sin memoria en la Secc. 3.4.3 no es más
que un caso particular del operador escalado cuando K = R:

6.2.3 Invertibilidad.
En la Secc. 3.4.4 de…nimos el operador inverso como aquel operador F¡1 que satisface la relación,

F¡1 fF [f (x)]g = f (x); (6.32)

equivalente a la asociación en serie de dos sistemas descritos por F y F¡1 ; respectivamente, donde las
señales de entrada y de salida serían f (x): Esto signi…ca que la composición de ambos operadores, en
caso de existir F¡1 ; debería ser igual al operador identidad,

F¡1 fF(¢)g = I: (6.33)

Asumiendo que ambos operadores, F y F¡1 ; son lineales e invariantes, cada uno de ellos estaría carac-
terizado por su respuesta al impulso h(x) y h¡1 (x); respectivamente, de forma que el operador completo
vendría caracterizado por la convolución de ambas respuestas al impulso (Secc. 6.2.1). Como el operador
identidad tiene por respuesta al impulso a ±(x); fácilmente podremos escribir la siguiente relación,
h(x) ¤ G(x) = ±(x); (6.34)
denotando6 por G(x) a la respuesta al impulso de F¡1 : Diremos entonces que un SLI caracterizado por
h(x) tiene operador inverso si existe otro SLI caracterizado por G(x) tal que satisface la relación (6.34).
Nótese que la posible existencia de operador inverso de un SLI no implica a priori que el inverso sea
tambien lineal e invariante,
~ ; F¡1 2LI(S):
F 2LI(S) ~ (6.35)

6.2.4 Causalidad.
En base a la de…nición dada en la Secc. 3.4.5, y teniendo en cuenta el papel que la respuesta al impulso
juega como determinante de qué parte de la señal de entrada in‡uye en la integral de convolución
que caracteriza la señal de salida, resulta evidente describir la propiedad de causalidad en términos de
h(x ¡ x0 ): Si h(x ¡ x0 ) toma valores diferentes de cero para puntos fuente x0 mayores que el punto de
observación x; entonces el sistema será anticausal, dado que estaremos seleccionando valores de f(x0 ) a
la derecha del valor x analizado. Este es el caso descrito, por ejemplo, en la Fig. 6.10. Analizado a la
inversa, diremos que un SLI es causal si

h(x ¡ x0 ) = 0 para todo x0 > x; (6.36)


6 La notación G(x) hace referencia a lo que habitualmente se conoce como función de Green de un operador.

140 c Emilio Gago-Ribas, 2002


°
tal y como se muestra en la Fig. 6.16. Deshaciendo una vez más el desplazamiento a x y la re‡exión
respecto al eje vertical, diremos que el sistema es causal si

h(x) = 0 para todo x < 0; (6.37)

es decir, que la respuesta al impulso de un SLI sólo podría tomar valores diferentes de cero para x ¸ 0:
En la Fig. 6.17 se muestra un ejemplo de respuesta al impulso para un SLI causal. Nótese cómo, con
este ejemplo, se está anticipando una vez más que la respuesta a una ±(x) podrá ser, en general, otra
señal de carácter localizador (impulsiva o no), en este caso una señal discontinua con una discontinuidad
de valor …nito unidad. El paso de cero a uno se localiza en el origen produciéndose dicho salto de forma
instantánea.

Figura 6.16. Visualización de la propiedad de causalidad de un sistema lineal e


invariante en relación con su respuesta al impulso.

Figura 6.17. Ejemplo de la respuesta al impulso h(x) asociada a un sistema causal.

6.2.5 Estabilidad.
La propiedad de estabilidad de…nida en la Secc. 3.4.6 se puede trasladar directamente a la respuesta
al impulso sin más que imponer la condición de valor acotado a la integral de convolución que de…ne la
señal de salida, esto es,

jf (x)j F ¡! jg(x)j G; (6.38)

¯Z ¯ ¯Z ¯
¯ ¯ ¯ ¯
¯ 0 0 0¯ ¯ 0 0 0¯
jg(x)j = ¯ f (x )h(x ¡ x ) dx ¯ = ¯ f (x ¡ x )h(x ) dx ¯
0 x0
Zx
jf(x ¡ x0 )j jh(x0 )j dx0
x0
Z
F jh(x0 )j dx0 = G: (6.39)
x0

En este desarrollo se han tenido en cuenta las siguientes propiedades: (i) en la segunda igualdad se ha
aplicado la propiedad conmutativa de la convolución; (ii) en la segunda desigualdad se ha tenido en
cuenta que una re‡exión y un desplazamiento de la señal de entrada no modi…can la cota superior F que

c Emilio Gago-Ribas, 2002


° 141
esta función peseía inicialmente y, por lo tanto, el valor del módulo de f (x ¡ x0 ) siempre será menor o
igual que F; y (iii) que el valor …nal obtenido podría igualarse a la cota de g(x): De esta forma, podemos
concluir que siendo F una cantidad …nita, para que la cota G lo sea también ha de satisfacerse que,
Z 1
jh(x)j dx < 1; (6.40)
¡1

o lo que es lo mismo, que la respuesta al impulso del sistema h(x) sea absolutamente integrable.

142 c Emilio Gago-Ribas, 2002


°
7. Distribuciones o Funciones Generalizadas

7.1 Introducción.
Hemos estudiado hasta el momento los conceptos más básicos relativos a los espacios de señales de
variable continua así como a la caracterización general de los sistemas operando sobre dichos espacios.
En forma de resumen, podríamos hacer un esquema general de las principales ideas que deberíamos tener
en mente en estos momentos:
² En relación con los espacios de señales, hemos considerado como punto de partida los espacios
S(¡1; 1) y P (X0 ); compuestos de funciones complejas de variable real, aperiódicas o periódicas
de período X0 ; continuas y de buen comportamiento. Una vez dotados dichos espacios de una
estructura de espacio vectorial, hemos de…nido también un producto escalar válido, que dota al
espacio de una norma y una métrica naturales, lo que nos permite medir distancias entre señales,
medidas de la propia señal, proyecciones de unas señales sobre otras, y representaciones de elementos
en teérminos de conjuntos de base, Caps. 2, 4 y 5.

Figura 7.1. Representación general de un problema descrito mediante los espacios


de señales de partida S(¡1; 1) ó P (X0 ); y un sistema descrito por un operador
F 2 L(S); L(P ); LI(S) ó LI(P ):

² Desde el punto de vista de los sistemas, es conveniente recordar dos hechos especialmente impor-
tantes:
1. Hemos introducido unos objetos matemáticos nuevos caracterizados por ser señales básicas
localizadoras de tipo impulsivo. De forma totalmente intuitiva hemos llegado a obtener la
de…nición de cómo sería uno de estos objetos, obteniéndose así: (i) el objeto conocido como
delta de Dirac, ±(x); señal impulsiva que tomaremos como punto de partida; (ii) el mismo objeto
desplazado fuera del origen, ±(x ¡ x0 ); y (iii) la colección de objetos f±(x ¡ x0 )g descritos por
el parámetro x0 que describe todas las posibles localizaciones en forma continua, Cap. 6.
2. El punto anterior, junto con ciertas propiedades de los sistemas, nos ha permitido caracterizar
cualquier sistema en términos de un operador integral cuya función núcleo es la así llamada
respuesta al impulso. Si el sistema es lineal, la respuesta al impulso es un conjunto in…nito y
continuo de funciones denotado por fh(x; x0 )g ; si el sistema es lineal e invariante, el sistema
queda caracterizado por una única función respuesta a una delta localizada en el origen, h(x):
El conjunto de funciones fh(x ¡ x0 )g queda, por lo tanto, descrito por una única función, Seccs.
6.1.6 y 6.1.7.

143
Figura 7.2. Representación general de las respuestas al impulso de un sistema lineal
y de un sistema lineal e invariante. En el primer caso, la respuesta al impulso es un
conjunto in…nito y continuo de funciones fh(x; x0 )g descritas por la variable x0 ; en
el segundo caso, una única función h(x) identi…ca al conjunto fh(x ¡ x0 )g y, por lo
tanto, el comportamiento del sistema. En todos los casos es previsible que dichas
respuestas al impulso sean nuevas distribuciones D(x; x0 ) ó D(x):

3. Como consecuencia de ello, para un sistema lineal, el operador integral que de…ne el sistema
puede ser escrito en términos de una integral de tipo convolutivo en la forma,
Z
g(x) = f (x0 )h(x; x0 ) dx0 : (7.1)
x0

Para un sistema lineal e invariante, el operador integral de tipo convolutivo que de…ne el sistema
se reduce a la operación de convolución estudiada en la Secc. 3.7.1, esto es, la salida g(x) se
puede expresar en términos de la entrada f (x) en la forma
Z
g(x) = f (x) ¤ h(x) = f (x0 )h(x ¡ x0 ) dx0 : (7.2)
x0

Nótese que esta de…nición es aplicable también a señales pertenecientes a P (X0 ) a menos que
el sistema venga caracterizado por una respuesta al impulso periódica de perído X0 ; en cuyo
caso la convolución será de tipo periódico tal y como se estudió en la Secc. 3.7.2.
² En base a este esquema general, hemos anticipado también que, una vez introducida una primera
señal localizadora en el espacio de señales (la delta de Dirac), es natural anticipar el hecho de
que aparezcan nuevas señales de carácter localizador sin más que aplicar diferentes operadores F
sobre dicha señal de partida. Es decir, h(x) = F [±(x)] será, previsiblemente, una nueva función de
carácter localizador (de tipo impulsivo o no), Fig. 7.2. Esto sugiere que deberíamos ampliar nuestros
espacios de señales con objetos de este tipo. Estos objetos, tratados en forma general, serán lo
que denominaremos distribuciones o funciones generalizadas, que denotaremos por D(x) dado, como
veremos, su carácter de funcional.Así, hemos anticipado ya la ampliación de los espacios de señales
de partida mediante la inclusión de D(¡1; 1) y P(X0 ); objeto de análisis del presente capítulo.
~
Dicha ampliación dio lugar a los espacios S(¡1; 1) y P~ (X0 ); Secc. 6.1.8.
² La obtención de distribuciones, y por lo tanto, de los espacios D(¡1; 1) y P(X0 ) se puede enten-
der bien si tenemos en mente el concepto de generar nuevos objetos localizadores a partir de aplicar
diferentes operadores sobre el objeto inicialmente de…nido, ±(x): De esta forma, las nuevas distribu-
ciones se podrán interpretar como las respuestas al impulso de los diferentes operadores aplicados
sobre ±(x); Fig. 7.2. Es más, como probaremos más adelante, y como se puede intuir fácilmente,
la distribución ±(x) podrá ser considerada como la respuesta al impulso del operador identidad,
F ´ I, operador básico dentro del espacio de operadores lineales e invariantes. Matemáticamente,
podríamos expresar estos conceptos de la siguiente forma,

I : ±(x) ¡! h(x) = I [±(x)] ´ D(x) = ±(x);


(7.3)
F : ±(x) ¡! h(x) = F [±(x)] ´ D(x):

² Parece lógico pensar entonces que, dado el carácter que cualquier distribución D(x) va a presentar
como respuesta al impulso asociada a un determinado operador F lineal, o lineal e invariante, su
de…nición como funcional pasa por el concepto de ser la función núcleo del operador integral de tipo
convolutivo en (7.1), o la integral de convolución en (7.2), esto es,
Z
g(x) = F [f(x)] = f (x0 )D(x; x0 ) dx0 ; (7.4)
x0

144 c Emilio Gago-Ribas, 2002


°
Figura 7.3. Ejemplo del modelado macroscópico de un problema en el tiempo me-
diante distribuciones. La señal de entrada será la distribución delta de Dirac de
peso V0 , esto es, V0 ±(t); siendo la señal de salida (respuesta al impulso del sistema)
la carga en el condensador Q(t) = F [V0 ±(t)] = CV0 ¡(t); descrita en términos de
la distribución de Heaviside. El operador que describe Rt el sistema será un operador
integral en la forma F = C ¡1 (¢) dt0 :

Z
g(x) = F [f(x)] = f (x) ¤ D(x) = f (x0 )D(x ¡ x0 ) dx0 : (7.5)
x0

Sólamente con estas razones de partida sería más que necesario intentar generalizar el concepto de
funciones localizadoras. Sin embargo, podemos acudir a ejemplos de problemas físicos típicos para obtener
más razones que avalen la ampliación de nuestros espacios de señales. Veamos algunos de estos ejemplos.
~
1. Ejemplo en S(¡1; 1) siendo x ´ t:
Consideremos un sistema como el mostrado en la Fig. 7.3 constituído por un generador de tensión
continua de valor V0 V. que se conecta a un condensador en el instante t = 0: Resulta evidente que
existe un proceso transitorio de carga del condensador en instantes muy próximos a t = 0 que hace
que no se produzca un salto instantáneo de carga en el mismo desde 0 hasta Q = C ¢ V0 Coulomb;
sin embargo, dicho proceso transitorio se produce en instantes de tiempo extremadamente cortos,
lo que hace que desde un punto de vista temporal macroscópico resulte muy útil modelar tanto la
tensión como la carga por funciones escalón como las mostradas en la Fig. 7.3.
Nótese cómo estas funciones escalón, en principio, no serían tales dado que en el origen, t = 0; no
tienen porqué estar de…nidas, y de hecho, sin describir el proceso transitorio, no lo están. Sólamente
tendrían de…nido su valor a la derecha e izquierda del origen, de forma similar a la ±(x); mientras
que justamente en el origen, lo que describen es un cambio instantáneo (localizado) de la señal, por
lo cuál deberíamos considerarlas como un nuevo objeto localizador1 .
~
2. Ejemplo en S(¡1; 1) siendo x ´ r:
Un ejemplo típico de discontinuidad espacial sería el problema del potencial creado por una carga
puntual en el espacio de valor Q (Coulomb) a una distancia r de dicha carga2 , tal y como se muestra
en la Fig. 7.4. Es bien sabido que el potencial varía inversamente proporcional a la distancia r; esto
es, '(r) / 1=r; tal y como se muestra también en la Fig. 7.4. Este resultado es fruto de asumir toda
la carga Q concentrada o localizada en un punto ideal del espacio de tamaño despreciable, aunque
resulta evidente que desde el punto de vista físico, dicha carga ocupará una cierta región del espacio
por muy pequeña que sea. Así mismo, la respuesta a dicho sistema resulta ser una función no
de…nida en el origen (en este caso, además, es singular), es decir, justamente en el punto donde está
localizada la fuente; desde este punto de vista, la función representa perfectamente lo que ocurre
fuera de la carga; es más, si asumimos que la variable r fuese continua en (¡1; 1); la respuesta a
esa carga podría pertenecer al espacio S(¡1; 1) de forma que, justamente en r = 0; tendríamos
1 Como veremos, una función escalón de salto unidad vista como una distribución será justamente la que denominaremos

como distribución de Heaviside o distribución escalón.


2 Nótese que este problema es una versión unidimensional de un problema tridimensional donde r denota la coordenada

esférica de…nida sólamente en el intervalo [0; 1):

c Emilio Gago-Ribas, 2002


° 145
Figura 7.4. Ejemplo del modelado macroscópico de un problema en el espacio me-
diante distribuciones. La señal de entrada será la distribución delta de Dirac de peso
Q, esto es, Q±(r); siendo la señal de salida el potencial generado por dicha carga
puntual '(r) = F [Q±(r)] = K Q=r; expresión que podríamos describir en térmi-
nos de la distribución de Heaviside en la forma '(r) = [K Q=r] ¡(r). En este caso,
'(r) ´ h(r); es decir, la respuesta al impulso del sistema. Nótese la singularidad en
el origen de esta función, que da lugar a una discontinuidad in…nita.

una vez más un salto de tipo impulsivo (en este caso particular, en torno a r = 0; el salto sería entre
0 e in…nito, dada la singularidad de la función 1=r).
3. Ejemplo en P~ (X0 ) siendo x ´ t:
Otro ejemplo de interés práctico es considerar un sistema en el tiempo cuya señal de entrada es un
tren de pulsos como el mostrado en la Fig. 7.5. Nos interesará en este caso analizar la respuesta del
sistema frente a señales de variación instantánea de cero (apagado) a un cierto valor (encendido),
y de un cierto valor a cero, de forma que, además, ese proceso se repita cada cierto tiempo T0
de forma inde…nida. Estaríamos hablando de nuevos objetos que describen un número in…nito y
numerable de variaciones instantáneas localizadas3 de la señal. En este caso, el sistema estará
operando sobre señales del espacio P (T0 ) discontinuas con saltos localizados en ciertos valores de la
variable independiente. El resultado será entonces una distribución periódica de período T0 :

Figura 7.5. Ejemplo de un sistema operando sobre el espacio de señales P (T0 ): La


señal de entrada f (t) será un tren de pulsos de amplitud unidad que consideraremos
como una distribución periódica.

3O …nito, si nos centramos en el análisis de un solo período de la señal.

146 c Emilio Gago-Ribas, 2002


°
Figura 7.6. Ejemplo práctico de recorte de una señal de buen comportamiento en un
cierto intervalo. Desde el punto de vista matemático debería verse como el producto
de una función de buen comportamiento f (x) y una distribución D(x); resultando
de dicha operación una nueva distribución T (x) = f (x)D(x):

Nótese cómo en todos estos ejemplos, no sólo aparece el concepto ya mencionado de transformación de
una señal localizadora que da lugar a nuevas señales localizadoras, sino que intrínsecamente aparecen
nuevas señales localizadoras de gran interés práctico.
Por otro lado, analizando cuidadosamente este tipo de objetos, podemos observar que tienen en común
una propiedad muy importante, y es que en todos ellos aparecen funciones discontinuas. Esto signi…ca
que con el análisis de estos objetos, estaremos incorporando de forma implicita a nuestros espacios de
señales las señales discontinuas, o lo que es equivalente, las señales de…nidas a tramos. En cualquier
caso, como funciones discontinuas que son, estaremos de alguna forma deshaciendo el concepto inicial
de señales de buen comportamiento, dado que, por ejemplo, estas funciones, presentan la cualidad de no
ser derivables en los puntos de discontinuidad. Nótese que las operaciones diferenciales (d=dx; d2 =dx2 ;
etc.) son operaciones básicas desde dos puntos de vista: (i) introducen propiedades adicionales para
la descripción del comportamiento de una función de forma local en cada punto (i.e. pendiente de la
tangente para la primera derivada), y (ii) constituyen la base de todos aquellos sistemas descritos en
términos de ecuaciones diferenciales, de especial importancia en la resolución de problemas prácticos.
En este sentido, el incluir distribuciones o funciones generalizadas será también sumamente importante,
dado que permitirán dar sentido a este tipo de operaciones para todo el dominio de de…nición de la variable
independiente. Matemáticamente, sea f(x) una función discontinua en un punto x0 y de buen compor-
tamiento a ambos lados de dicho punto; en este caso, df (x)=dx estaría de…nida para todo x excepto en
x0 : Considerando f (x) como una distribución o función generalizada f(x) ´ F (x), la dF (x)=dx estará
de…nida para todo x; incluído x0 : Este aspecto será tambien fundamental como razón para establecer la
teoría de distribuciones y representar funciones en términos de ellas.
Es importante hacer notar también que, en virtud de los conceptos expuestos anteriormente, las fun-
ciones discontinuas vistas como distribuciones, nos permitirán representar funciones a tramos a partir
de funciones de buen comportamiento, tal y como se muestra en el ejemplo de la Fig. 7.6, conservando
así las propiedades diferenciales para todo el dominio de de…nición de la nueva función, dado que el
resultado del producto de una función f(x) de buen comportamiento por una distribución D(x) será,
como veremos, una nueva distribución T (x) = f (x)D(x).
Citar …nalmente que en las referencias [28]-[33] se puede encontrar una información mucho más detallada,
exhaustiva y rigurosa acerca de la teoría algebraica de espacios de funciones generalizadas o espacios de
distribuciones.

c Emilio Gago-Ribas, 2002


° 147
7.2 De…nición general de una distribución.
7.2.1 De…nición general.
Una distribución es un funcional lineal sobre un espacio su…cientemente amplio de funciones de buen
comportamiento actuando sobre éstas a través del producto escalar de…nido en dicho espacio de funciones,
Z 1
D : f(x) ¡! hf (x); D(x)i = f(x)D(x)dx 2 C:
¡1
(7.6)

Si la función f (x) = 1; obtendremos una de…nición propia de la distribución en la forma,


Z 1
h1; D(x)i : 1 ¡! D(x) dx 2 R ½ C: (7.7)
¡1

Nótese que justamente esta propiedad es la que se usó en el caso de ±(x) para su de…nición inicial, (6.4).
La de…nición en términos del producto escalar y su traducción en términos de un operador integral de
núcleo la distribución D(x) no es arbitraria sino que viene motivada por todo lo expuesto en el Cap. 6
en relación con la distribución delta y la posterior representación de cualquier operador en términos de
la respuesta al impulso.

7.2.2 De…nición a partir de una sucesión de funciones.


En base al desarrollo realizado para ±(x) en la Secc. 6.1.1 partiendo de funciones continuas, podremos
generalizar este resultado diciendo que cualquier distribución se podrá construir como el límite de una
sucesión de funciones de buen comportamiento. Esta de…nición será especialmente útil para visualizar
algunas de las propiedades asociadas a las distribuciones. En general, de…niremos dicha sucesión de
funciones en la forma,

fd¢ (x)g tal que lim d¢ (x) = D(x): (7.8)


n!0

Veremos algunos ejemplos de este tipo de sucesiones al estudiar las distribuciones que analizaremos en
el presente capítulo.

7.2.3 Distribuciones como respuestas al impulso de un operador lineal e invariante.


Teniendo en cuenta los conceptos expuestos anteriormente y recalcándo el hecho de que un sistema (o el
operador que lo identi…ca) que sea lineal e invariante, basa su caracterización general en términos de una
función localizadora e impulsiva a su entrada (la delta de Dirac) y de la operación de convolución ya
de…nida (7.5), podremos generalizar este resultado a cualquier función localizadora de la forma siguiente:
² Consideremos el esquema mostrado en la Fig. 7.2 donde cualquiera de los operadores F que actúen
sobre la señal de entrada sean lineales e invariantes. La respuesta al impulso se corresponderá con
una nueva distribución de…nida a través de dicho operador en la forma,
8 9
>
< F : ±(x) ¡! h(x) = D(x) = F [±(x)] > =
=)
>
: F : f (x) ¡! g(x) = F [f (x)] >
;

Z
=) F [f (x)] = f(x0 )D(x ¡ x0 ) dx0 : (7.9)
x0

² Esta última expresión se puede generalizar de la siguiente forma,

F [f (x)] = f (x) ¤ D(x); (7.10)

expresión que representará la forma de actuación de D(x) sobre una función f(x) para todo valor
de x:

148 c Emilio Gago-Ribas, 2002


°
² Dehaciendo las dos operaciones básicas asociadas a la operación de convolución, esto es: (a) el
desplazamiento sobre D(x ¡ x0 ); por ejemplo, calculando la función de salida en el origen, g(0);
Z
g(0) = f (x)D(¡x) dx; (7.11)
x

y (b) la re‡exión D(¡x); podremos relacionar la de…nición de una distribución con la siguiente
de…nición: Una distribución D(x) es un funcional real (Seccs. 3.2.1 y 3.3.1) tal que a una función f (x)
de buen comportamiento le asocia un número complejo (o real como caso particular), esto es,

D : FK ¡! C;
Z (7.12)
D : f(x) ¡! f (x)D(x) dx 2 C;
x

denotando por el subíndice x de la integral el dominio de de…nición adecuado de la función4 . En


virtud de las propiedades que tenga la distribución D(x) bajo análisis, así será la relación entre
ambas expresiones.
² De…nición propia: considerando la función f(x) = 1 en (7.12) obtendremos la que denominamos
previamente como de…nición propia de la distribución,

D : FC ¡! R ½ C;
Z (7.13)
D : 1 ¡! D(x) dx 2 R ½ C:
x

Esta de…nición hará normalmente referencia a alguna propiedad particular de la distribución; por
ejemplo, en el caso en que D(x) ´ ±(x); la de…nición propia vendrá dada por (6.6).
² En las siguientes secciones del presente capítulo analizaremos algunas de las distribuciones asociadas
a algunos de los operadores lineales e invariantes más importantes, en particular los relativos a
operadores diferenciales e integrales. Los desarrollos allí expuestos nos permitirán visualizar mejor
las di…niciones previamente analizadas. En la tabla de la Secc. 7.9 se recogen en forma de resumen
los casos que analizaremos en las siguientes secciones.

7.2.4 Distribuciones como respuestas al impulso de un operador lineal.

Si el sistema (o el operador que lo identi…ca) es lineal sólamente, su caracterización vendrá dada en


términos de una función localizadora e impulsiva a su entrada (la delta de Dirac) y de la operación
de tipo convolutivo de…nida en (7.4). Podremos entonces generalizar este resultado a cualquier función
localizadora de la forma siguiente:
² Consideremos el esquema mostrado en la Fig. 7.2 donde cualquiera de los operadores F que actúen
sobre la señal de entrada sean lineales. El conjunto de respuestas al impulso fh(x; x0 )g se corre-
sponderá con un conjunto de nuevas distribuciones fD(x; x0 )g de…nidas a través de dicho operador
en la forma,
8 9
< F : ±(x ¡ x0 ) ¡! h(x; x0 ) = D(x; x0 ) = F [±(x ¡ x0 )] =
=)
: F : f(x) ¡! g(x) = F [f(x)] ;

Z
=) F [f (x)] = f (x0 )D(x; x0 ) dx0 : (7.14)
x0

² En este caso la de…nición de la distribución no se puede reducir a una única distribución, obteniendo
una de…nición para todo el conjunto de distribuciones descritas por D(x; x0 ) a través de la relación
en (7.14).

4 Valores de x donde la función no es nula.

c Emilio Gago-Ribas, 2002


° 149
7.3 La distribución delta de Dirac.
Dado que la función impulsiva ±(x) ya se obtuvo en el Cap. 6, realizaremos aquí un análisis de dicha
distribución a modo de repaso en base a las de…niciones generales dadas anteriormente.

7.3.1 De…nición a partir de una sucesión de funciones de buen comportamiento.


Consideremos la siguiente sucesión de funciones de buen comportamiento5 ,
1 2 2
d¢ (x) = p e¡x =¢ : (7.15)
¢ ¼
Dicha sucesión de funciones, controlada por el parámetro ¢; se ha de…nido de forma que su integral a
lo largo de su intervalo de de…nición (¡1; 1) sea la unidad, esto es,
Z 1
d¢ (x) dx = 1: (7.16)
¡1

Nótese que esto se hace pensando en la condición previamente exigida de que la integral de ±(x) a lo largo
de todo el eje x es siempre la unidad. La representación de algunas de esas funciones para diferentes
valores de ¢ se muestra en la Fig. 7.7(a), Secc. 7.9. A medida que ¢ disminuye, las funciones tienden
a hacerse cada vez más estrechas y de amplitud cada vez mayor, pero conservado la propiedad de que el
área bajo la curva es siempre la unidad.
En el límite cuando ¢ ! 0 obtendremos una señal de tipo localizador e impulsivo de…nida ésta como
aquella de ancho nulo y de amplitud in…nita tal que su integral es siempre la unidad. Dicha señal de
tipo impulsivo será la delta de Dirac, ±(x);
¸ Z 1
1 2 2
±(x) = lim d¢ (x) = lim p e¡x =¢ ; tal que ±(x) dx = 1: (7.17)
¢!0 ¢!0 ¢ ¼ ¡1

Como siempre, esta visión nos da una idea intuitiva del comportamiento de la distribución. Veamos
ahora su de…nición más rigurosa.

7.3.2 De…nición general.

La de…nición general dada en (7.6) se particularizará ahora de la siguiente forma,


Z 1
± : f(x) ¡! hf(x); ±(x)i = f(x)±(x) dx = f (0):
¡1
(7.18)

7.3.3 La distribución delta de Dirac como respuesta al impulso.


² Reproduciendo el esquema de la Secc. 7.2.3, resulta trivial identi…car a ±(x) como la respuesta al
impulso del operador identidad; así,
8 9
< I : ±(x) ¡! D(x) = I [±(x)] = ±(x) = Z
=) f(x) = f (x0 )±(x ¡ x0 ) dx0 ; (7.19)
: I : f(x) ¡! g(x) = I [f(x)] = f(x) ; x0

Z
f(0) = f(x)±(¡x) dx; (7.20)
x

Z
f(0) = f (x)±(x) dx: (7.21)
x
5 En este caso consideraremos funciones de tipo Gaussiano aunque se pueden utilizar otro tipo de funciones para su

de…nición, algunas de las cuales se estudian en el Ap. C. En el Ap. F.3 se presenta un análisis detallado de las funciones
usadas en este capítulo.

150 c Emilio Gago-Ribas, 2002


°
En la última relación se ha utilizado la propiedad de paridad de ±(x) para deshacer la re‡exión.
Diremos entonces que ±(x) es un funcional tal que,
± : FC ¡! C;
Z 1
± : f (x) ¡! f (x)±(x) dx = f (0); (7.22)
¡1

expresión totalmente equivalente a la dada por (7.18).


² Su de…nición propia vendrá dada por,
Z 1
± : 1 ¡! h1; ±(x)i = ±(x) dx = 1: (7.23)
¡1

² Nótese que estas de…niciones vendrían complementadas con la propiedad trivial,


±(x) = 0 para todo x 6= 0; (7.24)
mientras que en x = 0 la distribución no está de…nida.

7.3.4 Propiedades básicas.


Describiremos a continuación algunas propiedades importantes de la delta de Dirac.
² La distribución ±(x) es real y par:
±(x ¡ y) = ±(y ¡ x): (7.25)
Un caso particular de esta propiedad resulta cuando el desplazamiento es nulo, de forma que
±(¡x) = ±(x): (7.26)

² Resulta también trivial demostrar la siguiente propiedad:


Z 1 Z 1
f (0) = f(x)±(x) dx = f(x)±(¡x) dx: (7.27)
¡1 ¡1

² Escalado de la variable independiente: sea a un número real no nulo; la siguiente propiedad de escalado
se satisface siempre,
1
±(ax) = ±(x); (7.28)
jaj
La demostración de esta propiedad se puede encontrar en el Ap. D. Nótese que la expresión anterior
debe interpretarse como,
Z 1
1 1
±(x)f (x) dx = f(0): (7.29)
¡1 jaj jaj

² Unidades de ±(x): A partir de la de…nición básica puede observarse que las unidades de ±(x) han de
ser el inverso de las unidades de la magnitud que represente la variable independiente, por ejemplo,
s-1 en el caso del tiempo, o m-1 en el caso de representar una magnitud espacial unidimensional.
Nótese que desde un punto de vista físico, la relación
f (x)±(x) = f(0)±(x); (7.30)
(véase la Secc. 7.8) representa una densidad de la magnitud f(x) en el origen respecto de la magnitud
representada por la variable independiente. Veamos algunos ejemplos sencillos:
1. La densidad de corriente impulsiva en el tiempo J (Amp/s) correspondiente a una corriente I
(Amp) se puede representar de la siguiente forma,
Z 1 Z 1
J(t) = I±(t) ¡! J(t) dt = I±(t) dt = I (Amp): (7.31)
¡1 ¡1

c Emilio Gago-Ribas, 2002


° 151
2. La representación de una densidad de carga impulsiva en un espacio-1D ½(r) (Coulomb/m)
correspondiente a una carga total Q (Coulomb) se puede realizar de la siguiente forma,
Z 1 Z 1
½(r) = Q±(r) ¡! ½(r)dr = Q±(r)dr = Q (Coulomb): (7.32)
0 ¡1

Es por esta razón que la distribución delta se usa de forma extensiva para representar densidades de
fuentes en modelos matemáticos de diferentes problemas físicos tales como problemas de radiación
y propagación de ondas electromagnéticas y acústicas, etc.
² Nótese de la ecuación (7.19) que la convolución de una función f(x) con la distribución ±(x) da
lugar al muestreo de la función f(x);

f(x) ¤ ±(x) = f (x): (7.33)

7.4 La primera derivada de la delta de Dirac.


Consideremos ahora el esquema mostrado en la Fig. 7.2 cuando el operador F = d=dx: En este caso, la
respuesta al impulso será un nuevo objeto matemático que identi…caremos con ± 0 (x):

7.4.1 De…nición a partir de una sucesión de funciones de buen comportamiento.


Para obtener la primera derivada de ±(x) bastará con considerar la sucesión de funciones de buen com-
portamiento obtenida a partir de derivar la sucesión de funciones para la delta en (7.15), obteniéndose
fácilmente la siguiente expresión6 ,
¡2 2 2
d0¢ (x) = 3
p xe¡x =¢ : (7.34)
¢ ¼

Resulta fácil comprobar a través de su representación grá…ca que la integral de dicha función es nula,
esto es,
Z 1
d0¢ (x) dx = 0: (7.35)
¡1

La representación de algunas de esas funciones para diferentes valores de ¢ se muestra en la Fig. 7.7(b),
Secc. 7.9. A medida que ¢ disminuye, las funciones tienden a hacerse cada vez más estrechas a izquierda
y derecha del origen y, en ambos casos, de amplitud mayor, pero conservado la propiedad de que el área
bajo la curva es siempre cero.
En el límite cuando ¢ ! 0 obtendremos un nuevo objeto de tipo localizador e impulsivo que puede
ser representado, a tenor del comportamiento de la sucesión de funciones en el límite, por dos deltas
localizadas en x = 0¨ : Denotaremos a este nuevo objeto impulsivo por ± 0 (x);
¸ Z 1
0 ¡2 ¡x2 =¢2
0
± (x) = lim d¢ (x) = lim p xe ; tal que ± 0 (x) dx = 0: (7.36)
¢!0 ¢!0 ¢3 ¼ ¡1

En el Ap. C se muestran otras posibles sucesiones de buen comportamiento igualmente válidas para su
caracterización.

7.4.2 De…nición general.

La de…nición general dada en (7.6) se particularizará ahora de la siguiente forma,


Z 1
- ®
± 0 : f (x) ¡! f (x); ± 0 (x) = f (x)± 0 (x) dx = ¡f 0 (0): (7.37)
¡1

Veremos a continuación la demostración de esta de…nición.


6 En el Ap. F.3 se presenta un análisis detallado de esta función.

152 c Emilio Gago-Ribas, 2002


°
7.4.3 La primera derivada de la delta de Dirac como respuesta al impulso.
² Como respuesta al impulso, ± 0 (x) identi…ca al operador primera derivada, F ´ d=dx; operador que
es lineal e invariante. Así,
8 9
>
> d±(x) >
< F : ±(x) ¡! D(x) = = ± 0 (x) >
= Z
dx
=) f 0 (x) = f (x0 )± 0 (x ¡ x0 ) dx0 ; (7.38)
> >
: F : f (x) ¡! g(x) = df(x) = f 0 (x)
> >
; x0
dx

Z
f 0 (0) = f (x)± 0 (¡x) dx; (7.39)
x

Z
¡f 0 (0) = f(x)± 0 (x) dx: (7.40)
x

Nótese que en este caso se ha utilizado la propiedad de imparidad de ± 0 (x) para deshacer la re‡exión,
propiedad que resulta evidente a partir del comportamiento de la sucesión de funciones en (7.34). La
demostración de la última igualdad se podría también analizar sin más que aplicar una integración
por partes7 . Diremos entonces que ± 0 (x) es un funcional tal que,

± 0 : FC ¡! C;
Z 1
± 0 : f (x) ¡! f(x)± 0 (x) dx = ¡f 0 (0); (7.41)
¡1

expresión que se corresponde exactamente con (7.37).


² Su de…nición propia vendrá dada por,
Z 1
- ®
± (x) : 1 ¡! 1; ± 0 (x) =
0
± 0 (x) dx = 0: (7.42)
¡1

² La distribución primera derivada de la delta se de…ne entonces como aquella distribución que,
aplicada sobre una función de buen comportamiento, nos devuelve el valor de la derivada de dicha
función en el origen cambiada de signo. Nótese que estas de…niciones vendrían complementadas con
la propiedad trivial,

± 0 (x) = 0 para todo x 6= 0; (7.43)

mientras que en x = 0 la distribución no está de…nida y presenta un comportamiento impulsivo


como el indicado previamente.

7.4.4 Propiedades básicas.


Describiremos a continuación algunas propiedades importantes de la primera derivada de la delta de
Dirac.
² La distribución ± 0 (x) es real e impar:

± 0 (x ¡ y) = ¡± 0 (y ¡ x): (7.44)

Un caso particular de esta propiedad resulta cuando el desplazamiento es nulo, de forma que

± 0 (¡x) = ¡± 0 (x): (7.45)


7 Consideremos
R
u(x) = f (x) y v(x) = ± 0 (x) dx = ±(x): De esta forma,
R1 0 1 R1 0 0
¡1 f (x)± (x) dx = [f (x)±(x)]¡1 ¡ ¡1 f (x)±(x) dx = ¡f (0):

c Emilio Gago-Ribas, 2002


° 153
² Resulta trivial demostrar la siguiente propiedad a partir de la de…nición en (7.41) y la ecuación
(7.45),
Z Z
f 0 (0) = f(x)± 0 (¡x) dx = ¡ f (x)± 0 (x) dx: (7.46)
x x

² Nótese de la ecuación (7.38) que la convolución de una función f(x) con la distribución ± 0 (x) da
lugar al muestreo de la primera derivada de la función f(x);

f (x) ¤ ± 0 (x) = f 0 (x): (7.47)

7.5 La segunda derivada de la delta de Dirac.


Consideremos el esquema mostrado en la Fig. 7.2 cuando el operador F = d2 =dx2 : En este caso, la
respuesta al impulso será un nuevo objeto matemático que identi…caremos por ± 00 (x):

7.5.1 De…nición a partir de una sucesión de funciones de buen comportamiento.


Para obtener la segunda derivada de ±(x) bastará con considerar la sucesión de funciones de buen
comportamiento obtenida a partir derivar nuevamente la primera derivada de la sucesión de funciones
para la delta en (7.34), obteniéndose fácilmente la siguiente expresión8 ,
¸
2 x2 2 2
00
d¢ (x) = 3 p 2 2 ¡ 1 e¡x =¢ : (7.48)
¢ ¼ ¢

Resulta fácil comprobar a través de su representación grá…ca que la integral de dicha función será nula
como en el caso de la primera derivada, esto es,
Z 1
d00¢ (x) dx = 0: (7.49)
¡1

La representación de algunas de esas funciones para diferentes valores de ¢ se muestra en la Fig. 7.7(c),
Secc. 7.9. A medida que ¢ disminuye, las funciones tienden a hacerse cada vez más estrechas a la
izquierda, a la derecha y en el mismo origen y, en ambos casos, de amplitud mayor, pero conservado la
propiedad de que el área bajo la curva sea siempre cero.
En el límite cuando ¢ ! 0 obtendremos un nuevo objeto de tipo localizador e impulsivo que puede
ser representado, a tenor del comportamiento de la sucesión de funciones en el límite, por dos deltas
localizadas en x = 0¨ y otra delta de amplitud doble y signo negativo en x = 0: Denotaremos a este
nuevo objeto impulsivo por ± 00 (x);
¸ ¸
2 x2 ¡x2 =¢2
± 00 (x) = lim d00¢ (x) = lim p 2 ¡ 1 e ; (7.50)
¢!0 ¢!0 ¢3 ¼ ¢2
Z 1
tal que ± 00 (x) dx = 0:
¡1

En el Ap. C se muestran otras posibles sucesiones de buen comportamiento igualmente válidas.

7.5.2 De…nición general.


La de…nición general dada en (7.6) se particularizará ahora de la siguiente forma,
Z 1
- ®
± 00 : f (x) ¡! f (x); ± 00 (x) = f(x)± 00 (x) dx = f 00 (0): (7.51)
¡1

Veremos a continuación la demostración de esta de…nición.


8 En el Ap. F.3 se presenta un análisis detallado de esta función.

154 c Emilio Gago-Ribas, 2002


°
7.5.3 La segunda derivada de la delta de Dirac como respuesta al impulso.
² Como respuesta al impulso, ± 00 (x) identi…ca al operador segunda derivada, F ´ d2 =dx2 ; operador
que es lineal e invariante. Así,
8 9
>
> d2 ±(x) >
< F : ±(x) ¡! D(x) =
00
= ± (x) > = Z
dx2 00
=) f (x) = f(x0 )± 00 (x ¡ x0 ) dx0 ; (7.52)
>
> d2
f (x) >
> x0
: F : f (x) ¡! g(x) = = f 00
(x) ;
dx2
Z
f 00 (0) = f (x)± 00 (¡x) dx; (7.53)
x
Z
f 00 (0) = f (x)± 00 (x) dx: (7.54)
x

Nótese que en este caso se ha utilizado la propiedad de paridad de ± 00 (x) para deshacer la re‡exión.
Esta propiedad es evidente sin más que recurrir a su representación en términos de la sucesión de
funciones previamente analizada. Diremos entonces que ± 00 (x) es un funcional tal que,
± 00 : f (x) ¡! C;
Z 1
± 00 : f(x) ¡! f (x)± 00 (x) dx = f 00 (0); (7.55)
¡1

expresión que se corresponde exactamente con (7.51).


² Su de…nición propia vendrá dada por,
Z 1
00
- ® 00
± (x) : 1 ¡! 1; ± (x) = ± 00 (x) dx = 0: (7.56)
¡1

² La distribución delta segunda se de…ne entonces como aquella distribución que, aplicada sobre una
función de buen comportamiento, nos devuelve el valor de la segunda derivada de dicha función en
el origen. Nótese que, una vez más, estas de…niciones vendrían complementadas con la de…nición
trivial,
± 00 (x) = 0 para todo x 6= 0; (7.57)
asumiendo con dicha de…nición que en x = 0 la distribución no está de…nida y tiene el compor-
tamiento indicado previamente.

7.5.4 Propiedades básicas.

Describiremos a continuación algunas propiedades importantes asociadas a la segunda derivada de la


delta de Dirac.
² La distribución ± 00 (x) es real y par:
± 00 (x ¡ y) = ± 00 (y ¡ x): (7.58)
Un caso particular de esta propiedad resulta cuando el desplazamiento es nulo, de forma que
± 00 (¡x) = ± 00 (x): (7.59)

² Resulta trivial demostrar la siguiente propiedad en virtud de la de…nición en (7.55) junto con la
propiedad de paridad,
Z Z
f (0) = f(x)± (x) dx = f (x)± 00 (¡x) dx:
00 00
(7.60)
x x

² Nótese de la ecuación (7.52) que la convolución de una función f(x) con la distribución ± 00 (x) da
lugar al muestreo de la segunda derivada de la función f (x);
f(x) ¤ ± 00 (x) = f 00 (x): (7.61)

c Emilio Gago-Ribas, 2002


° 155
7.6 La distribución de Heaviside o escalón unidad.
La función de Heaviside o distribución escalón unidad se de…ne como,
8 9
< 0 si x < 0 =
¡(x) = : (7.62)
: 1 si x > 0 ;

Nótese en primer lugar que dicha función es discontinua y no está de…nida en x = 0; de forma que,
por ejemplo, vista como función usual, tanto la primera derivada como las derivadas sucesivas no están
de…nidas en el origen. Esto hace que esta función deba de ser analizada también como una distribución,
dado su caracter localizador en el origen (salto de 0 a 1 en un ¢x ! 0):

7.6.1 De…nición a partir de una sucesión de funciones de buen comportamiento.


Para obtener la distribución de Heaviside ¡(x) bastará con considerar alguna sucesión de funciones de
buen comportamiento que, en el límite, represente el comportamiento descrito en (7.62), por ejemplo,
1 1 ³x´
d¢ (x) = + tan¡1 : (7.63)
2 ¼ ¢
Resulta fácil comprobar a través de su representación grá…ca que la integral de dicha función será
divergente, esto es,
Z 1
d¢ (x) dx ! 1: (7.64)
¡1

La representación de algunas de esas funciones para diferentes valores de ¢ se muestra en la Fig. 7.7(d),
Secc. 7.9. A medida que ¢ disminuye, las funciones tienden al valor nulo para valores negativos de la
variable independiente, y al valor unidad para valores positivos. En el límite cuando ¢ ! 0 obtendremos
una nueva señal de tipo localizador que coincide en comportamiento con la función de Heaviside, con la
excepción de que, en el origen, la sucesión de funciones tiende al valor de 1=2;
8 9
³ ´¸ >
< 0 si x < 0 >
=
1 1 x
¡(x) = lim d¢ (x) = lim + tan¡1 =) ¡(x) = 1=2 si x = 0 : (7.65)
¢!0 ¢!0 2 ¼ ¢ >
: >
;
1 si x > 0
Nótese que esta nueva de…nición no tiene mayor trascendencia desde el punto de vista algebraico dado
que la de…nición de 1=2 en el origen no modi…ca en nada la métrica del espacio de señales, de…nida
en términos integrales. En el Ap. C se muestran otras posibles sucesiones de buen comportamiento
igualmente válidas.

7.6.2 De…nición general.


La de…nición general dada en (7.6) se particularizará ahora de la siguiente forma,
Z 1
R1
¡ : f (x) ¡! hf(x); ¡(x)i = f(x)¡(x) dx = 0 f(x) dx: (7.66)
¡1

Veremos a continuación la demostración de esta de…nición. Nótese que en este caso la de…nición particular
no identi…ca ninguna propiedad de la distribución,
Z 1
h1; ¡(x)i : 1 ¡! ¡(x) dx ! 1: (7.67)
¡1

7.6.3 La distribución de Heaviside como respuesta al impulso.


Rx
² Como respuesta al impulso, ¡(x) identi…ca al operador integral F ´ ¡1 dy; operador que es lineal
e invariante. Así,
8 Z x 9
>
> F : ±(x) ¡! D(x) = ±(y) dy = ¡(x) >
>
>
< >
= Z x Z
¡1
Z x =) f (y) dy = f(x0 )¡(x ¡ x0 ) dx0 ; (7.68)
>
> >
> ¡1 x0
>
: F : f (x) ¡! g(x) = f(y) dy >
;
¡1

156 c Emilio Gago-Ribas, 2002


°
Z 0 Z
f(y) dy = f(x)¡(¡x) dx; (7.69)
¡1 x

Z Z 1
f (x)¡(x) dx = f (x) dx: (7.70)
x 0

Nótese como, en este caso, la distribución ¡(x) no es par ni impar, de forma que la re‡exión se
deshace en base a la de…nición obtenida a partir de su representación en términos de la sucesión de
funciones previamente analizada. Diremos entonces que ¡(x) es un funcional tal que,

¡ : f (x) ¡! C;
Z 1 Z 1 (7.71)
¡ : f(x) ¡! f (x)¡(x) dx = f (x) dx;
0 0

expresión que se corresponde exactamente con (7.66).


² La distribución de Heaviside se de…ne entonces como aquella distribución que, aplicada sobre una
función de buen comportamiento, nos devuelve el valor de la integral desde 0 a in…nito de dicha
función. Nótese que, en este caso, el hecho de que la de…nición propia sea divergente no plantea
ningún problema dado que en este caso, el comportamiento localizador no es impulsivo sino …nito y,
por lo tanto, perfectamente de…nido entre cero y uno, a diferencia de las distribuciones ±(x); ± 0 (x)
y ± 00 (x); que en todos los casos son señales impulsivas divergentes en torno al origen, en cuyo caso
sí que la de…nición propia es necesaria.

7.6.4 Propiedades básicas.


Describiremos a continuación algunas propiedades importantes de la distribución de Heaviside:
² Resulta trivial comprobar la siguiente propiedad,
Z Z 0
f (x)¡(¡x) dx = f(x) dx: (7.72)
x ¡1

² Esta distribución se puede representar y expresar en términos de la distribución delta de la forma


siguiente (nótese que ±(x) tampoco está de…nida en x = 0),
Z x
¡(x) = ±(y) dy: (7.73)
¡1

A partir de ella se puede inferir rápidamente la siguiente propiedad importante,


d¡(x)
±(x) = : (7.74)
dx
La interpretación grá…ca de esta última relación se puede ver grá…camente comparando las Figs.
7.7(a) y 7.7(d).
² En virtud de la propiedad anterior es importante hacer notar cómo a través de la de…nición de las
distribuciones es posible extender la operación derivada a todo el rango de la variable independiente
para funciones sobre las que inicialmente dicha operación no estaba de…nida sobre todos sus puntos.
En particular, para cualquier función que tenga una discontinuidad …nita en un cierto punto x0 ; su
derivada en dicho punto será una delta sin más que escribir inicialmente dicha discontinuidad en
términos de ¡(x):
² La propiedad descrita en (7.74) es claramente extensible a las sucesiones de funciones asociadas a
cada una de las distribuciones; por ejemplo, si consideramos la sucesión d¢ (x) en (7.63) de…nida
para obtener ¡(x); su primera derivada, d0¢ (x) deberá darnos una sucesión válida para ±(x): Así,

1 1 ³x´ ¢=¼
d¢ (x) = + tan¡1 ¡! d0¢ (x) = 2 ; (7.75)
2 ¼ ¢ x + ¢2
obteniéndose una sucesión perfectamente válida para de…nir ±(x); Ap. C.

c Emilio Gago-Ribas, 2002


° 157
² Desde el punto de vista de describir (7.74) y (7.73) en términos de los operadores asociados a cada
distribución, es posible obtener la siguiente propiedad,
8 ¸ 9
>
> d >
>
< ¡(x) ¡! F = dx ¡! ±(x) >
> =
¸ =) ¡(x) ¤ ± 0 (x) = ±(x); (7.76)
>
> d >
>
>
: ±(x) ¡! F = 0 >
¡! ± (x) ;
dx
o lo que es lo mismo, en base a la propiedad (6.34), diremos que el operador derivada es el inverso
del operador integral entre ¡1 y x; o viceversa,
Z x
d
F= =) F¡1 = dy: (7.77)
dx ¡1

² Nótese de la ecuación (7.68) que la convolución de una función f(x) con la distribución ¡(x) da
lugar a la integral de f(x) entre ¡1 y x para todo valor de x;
Z x
f(x) ¤ ¡(x) = f(y) dy: (7.78)
¡1

7.7 La distribución signo.


La función signo se de…ne como,
8 9
< ¡1 si x < 0 =
sgn(x) = : (7.79)
: 1 si x > 0 ;

Esta función se puede relacionar directamente con la función de Heaviside analizada previamente. Para
ello, sólamente es necesario analizar el valor medio de ¡(x) que resulta ser 1=2; podremos escribir
entonces,
1
¡1 (x) = ¡(x) ¡ ; (7.80)
2
directamente relacionada con la función signo,
1
¡1 (x) = sgn(x): (7.81)
2
Una vez más, la distribución sgn(x) es discontinua y no está de…nida en x = 0; de forma que analizada
como función usual, tanto la primera derivada como sus derivadas sucesivas no están de…nidas en el
origen. Esto hace que esta función deba de ser también analizada como una distribución, dado su
caracter localizador en el origen (salto de ¡1 a 1 en un ¢x ! 0):

7.7.1 De…nición a partir de una sucesión de funciones de buen comportamiento.


Resulta evidente que la distribución de funciones de buen comportamiento para de…nir ¡1 (x) será la
misma que para la distribución de Heaviside en (7.63) sin más que restarle su valor medio, y multiplicando
por dos para el caso de la distribución sgn(x);
1 ³x´
d¢ (x) = tan¡1 ¡! [¢ ! 0] ¡! ¡1 (x); (7.82)
¼ ¢

2 ³x´
d¢ (x) = tan¡1 ¡! [¢ ! 0] ¡! sgn(x): (7.83)
¼ ¢
Resulta fácil comprobar a través de su representación grá…ca que la integral de dicha función será nula,
esto es,
Z 1
d¢ (x) dx = 0: (7.84)
¡1

La representación de algunas de esas funciones para diferentes valores de ¢ se muestra en la Fig. 7.7.
Su análisis será similar al realizado para la distribución de Heaviside.

158 c Emilio Gago-Ribas, 2002


°
7.7.2 De…nición general.
La de…nición general dada en (7.6) se particularizará ahora de la siguiente forma,
Z 1 Z 1 Z 0
sgn : f(x) ¡! hf (x); sgn(x)i = f (x) sgn(x) dx = f (x) dx ¡ f (x) dx: (7.85)
¡1 0 ¡1

Veremos a continuación la demostración de esta de…nición.

7.7.3 La distribución signo como respuesta al impulso.


Rx R1
² Como respuesta al impulso, sgn(x) identi…ca al operador integral F ´ ¡1 dy ¡ x dy; operador
que es lineal e invariante. Así,
8 Z x Z 1 9
>
> F : ±(x) ¡! D(x) = ±(y) dy ¡ ±(y) dy = sgn(x) >
>
>
< >
=
¡1 x
Z x Z 1 =)
>
> >
>
>
: F : f (x) ¡! g(x) = f (y) dy ¡ f (y) dy >
;
¡1 x
Z x Z 1 Z
=) f (y) dy ¡ f (y) dy = f (x0 ) sgn(x ¡ x0 ) dx0 ; (7.86)
¡1 x x0

Z 0 Z 1 Z
f (y) dy ¡ f (y) dy = f (x) sgn(¡x) dx; (7.87)
¡1 0 x

Z Z 1 Z 0
f (x) sgn(x) dx = f (x) dx ¡ f (x) dx: (7.88)
x 0 ¡1

Diremos entonces que sgn(x) es un funcional tal que,

sgn : FC ¡! C;
Z 1 Z 1 Z 0 (7.89)
sgn : f (x) ¡! f(x) sgn(x) dx = f(x) dx ¡ f(x) dx;
0 0 ¡1

expresión que se corresponde exactamente con (7.85).


² Su de…nición propia vendrá dada por,
Z 1
sgn : 1 ¡! h1; sgn(x)i = sgn(x) dx = 0: (7.90)
¡1

7.8 Propiedades importantes de las distribuciones.


Describiremos a continuación algunas propiedades especialmente importantes a la hora de operar con
funciones y distribuciones. La demostración de estas propiedades se puede encontrar en el Ap. D.

7.8.1 Producto por una función.


En general, el producto de una función f (x) por una distribución D(x) da lugar a una nueva distribución,
T (x);

T (x) = f (x)D(x): (7.91)

La nueva distribución T (x) actua sobre cualquier función g(x) de buen comportamiento en la forma
esperada,
Z 1
T : f (x) ! hg(x); T (x)i = g(x) [f (x)D(x)] dx: (7.92)
¡1

La de…nición sólo tiene sentido si f (x) es de buen comportamiento. En la siguiente tabla see recogen
algunos casos particulares de especial interés.

c Emilio Gago-Ribas, 2002


° 159
±(x) f(x)±(x ¡ x0 ) = f (x0 )±(x ¡ x0 )

f(x)±(x) = f (0)±(x)

x±(x) = 0±(x)

± 0 (x) f(x)± 0 (x ¡ x0 ) = ¡f 0 (x0 )±(x ¡ x0 )

f(x)± 0 (x) = ¡f 0 (0)±(x)

x± 0 (x) = ¡±(x)

± 00 (x) f(x)± 00 (x ¡ x0 ) = f 00 (x0 )±(x ¡ x0 )

f(x)± 00 (x) = f 00 (0)±(x)

x2 ± 00 (x) = 2±(x)

¡(x) f(x)¡(x ¡ x0 ) = F (x ¡ x0 )9

f(x)¡(x) = F (x)

f(x)¡(¡x) = F1 (x)10

Producto de algunas distribuciones por funciones


de buen comportamiento.

7.8.2 Convolución de una función y una distribución.


La convolución de una función f(x) con una distribución D(x) será una nueva función g(x);

g(x) = f (x) ¤ D(x): (7.95)

Nótese que esta propiedad de…ne directamente la salida g(x) de un sistema lineal e invariante cuya
respuesta al impulso sea D(x) frente a una entrada f(x) arbitraria. En la siguiente tabla se recogen
algunos casos particulares.

±(x) f(x) ¤ ±(x ¡ x0 ) = f(x ¡ x0 )

f(x) ¤ ±(x) = f(x)

± 0 (x) f(x) ¤ ± 0 (x ¡ x0 ) = f 0 (x ¡ x0 )

f(x) ¤ ± 0 (x) = f 0 (x)

± 00 (x) f(x) ¤ ± 00 (x ¡ x0 ) = f 00 (x ¡ x0 )

f(x) ¤ ± 00 (x) = f 00 (x)


R x¡x
¡(x) f(x) ¤ ¡(x ¡ x0 ) = ¡1 0 f(y) dy
Rx
f(x) ¤ ¡(x) = ¡1 f(y) dy

Convolución de algunas distribuciones con funciones


de buen comportamiento.
9 La distribución F (x ¡ x0 ) se puede describir como,
8
< f (x) si x > x0
F (x ¡ x0 ) = (7.93)
: 0 si x < x0

10 La distribución F1 (x) se puede describir como,


8
< f (x) si x<0
F1 (x) = (7.94)
: 0 si x>0

160 c Emilio Gago-Ribas, 2002


°
Las propiedades descritas en la tabla anterior se pueden describir de la siguiente forma:
² La salida a un sistema caracterizado por el operador identidad I será la misma señal. Su repre-
sentación integral vendrá expresada en términos de la respuesta al impulso ±(x);

I : f (x) ! I [f (x)] = f (x) ¤ ±(x) = f (x): (7.96)

El objeto ±(x) permite, como ya hemos mencionado anteriormente, representar una señal f (x) de
buen comportamiento seleccionando cada uno de sus valores de forma continua mediante el conjunto
f±(x ¡ x0 )g para todo valor de x0 :
² La salida a un sistema caracterizado por el operador primera derivada F = d=dx será la primera
derivada de la señal de entrada f (x): Su representación integral vendrá expresada en términos de la
respuesta al impulso ± 0 (x);

d
F´ : f (x) ! F [f (x)] = f(x) ¤ ± 0 (x) = f 0 (x): (7.97)
dx
El objeto ± 0 (x) permite representar la señal f 0 (x) = df (x)=dx de buen
© comportamiento
ª seleccionando
cada uno de sus valores de forma continua mediante el conjunto ± 0 (x ¡ x0 ) para todo valor de x0 :
² La salida a un sistema caracterizado por el operador segunda derivada F = d2 =dx2 será la segunda
derivada de la señal de entrada f (x): Su representación integral vendrá expresada en términos de la
respuesta al impulso ± 00 (x);

d2
F´ : f (x) ! F [f(x)] = f (x) ¤ ± 00 (x) = f 00 (x): (7.98)
dx2
El objeto ± 00 (x) permite, por tanto, representar la señal f 00 (x) = d2 f(x)=dx2 de buen
© comportamien-
ª
to seleccionando cada uno de sus valores de forma continua mediante el conjunto ± 00 (x ¡ x0 ) para
todo valor de x0 :
Rx
² La salida a un sistema caracterizado por el operador integral F = ¡1 dy será justamente la integral
de la señal de entrada desde ¡1 hasta x; para todo valor de x: Su representación integral vendrá
expresada en términos de la respuesta al impulso ¡(x);
Z x Z x
F´ dy : f(x) ! F [f (x)] = f(x) ¤ ¡(x) = f (y) dy: (7.99)
¡1 ¡1
Rx
El objeto ¡(x) permite así representar la señal ¡1 f (y) dy; de buen comportamiento, seleccionando
cada uno de sus valores en x de forma continua mediante el conjunto f¡(x ¡ x0 )g descrito por la
variable x0 :
Este tipo de interpretación será de gran importancia a la hora de abordar y generalizar el problema
inverso de un sistema caracterizado en su forma directa por operadores diferenciales, conformando la
base de la teoría de funciones de Green tan importante en la representación y resolución de problemas
físicos.

7.8.3 Convolución de dos distribuciones.


La convolución de dos distribuciones D(x) y T (x) será una nueva distribución H(x);

H(x) = D(x) ¤ T (x): (7.100)

En la siguiente tabla se recogen algunos casos particulares.

± 0 (x) ¤ ¡(x) = ±(x)

±(x) ¤ ¡(x) = ¡(x)

±(x) ¤ ± 0 (x) = ± 0 (x)

Convolución de algunas distribuciones.

c Emilio Gago-Ribas, 2002


° 161
7.9 Operadores, distribuciones y sucesiones de funciones.
Z x Z x Z 1
d d2
Operador: F I dy dy ¡ dy
dx dx2 ¡1 ¡1 x

Distribución: D(x) ±(x) ± 0 (x) ± 00 (x) ¡(x) sgn(x)


Z 1 Z 1 Z 1 Z 0
De…nición: f(x)D(x) dx f (0) ¡f 0 (0) f 00 (0) f(x) dx f (x) dx ¡ f (x) dx
¡1 0 0 ¡1
Z 1
Def. Propia: D(x) dx 1 0 0 1 0
¡1

d∆(x) δ(x)
1,5 2,0

1,5
1,0

1,0

0,5
0,5

0,0 0,0
-4 -3 -2 -1 0 1 2 3 4 -4 -3 -2 -1 0 1 2 3 4

d∆(x) x x
2,0 1,0
δ'(x)
1,5
1,0 0,5
0,5
0,0 0,0
-0,5
-1,0 -0,5
-1,5
-2,0 -1,0
-4 -3 -2 -1 0 1 2 3 4 -4 -3 -2 -1 0 1 2 3 4

d∆(x) x x
6 1,0
δ''(x)
4
2 0,5
0
-2 0,0
-4
-6 -0,5
-8
-10 -1,0
-4 -3 -2 -1 0 1 2 3 4 -4 -3 -2 -1 0 1 2 3 4

d∆(x) x x
Γ(x)
1,5 1,5

1,0 1,0

0,5 0,5

0,0 0,0
-10 -8 -6 -4 -2 0 2 4 6 8 10 -10 -8 -6 -4 -2 0 2 4 6 8 10

d∆(x) x x
1,5 1,5
sgn(x)
1,0 1,0

0,5 0,5

0,0 0,0

-0,5 -0,5

-1,0 -1,0

-1,5 -1,5
-10 -8 -6 -4 -2 0 2 4 6 8 10 -10 -8 -6 -4 -2 0 2 4 6 8 10
x x

Figura 7.7. Ejemplos de sucesiones de funciones de buen comportamiento d¢ (x)


asociadas a la de…nición de las distribuciones ±(x); ± 0 (x); ± 00 (x); ¡(x) y sgn(x):

162 c Emilio Gago-Ribas, 2002


°
8. Desarrollos en Serie de Fourier

8.1 Introducción.
Comenzaremos en este capítulo por analizar el caso más sencillo en relación con los dominios transfor-
mados. En este caso, el espacio de señales de partida será1 P~ (X0 ) El conjunto de funciones base bajo
estudio serán en este caso exponenciales complejas de pulsación múltiplo de la fundamental asociada al
período del espacio, » 0 = 2¼=X0 : A partir del análisis de este conjunto de funciones base veremos cómo
el espacio P~ (X0 ) es de dimensión in…nita y numerable, dando lugar a una representación en términos
de una combinación lineal in…nita como la descrita en (4.14). Recordaremos a continuación el álgebra
(producto escalar, norma y distancia) de…nida sobre este espacio de señales (Secc. 2.6.1), dado que
determinará la métrica a utilizar a lo largo de todo el capítulo:

Z
hf0 (x); g0 (x)i = f0 (x)g0¤ (x) dx; (8.1)
hX0 i

"Z #1=2
1=2 2
kf0 (x)k = hf0 (x); f0 (x)i = jf0 (x)j dx ; (8.2)
hX0 i

"Z #1=2
2
d(f0 (x); g0 (x)) = kf0 (x) ¡ g0 (x)k = jf0 (x) ¡ g0 (x)j dx : (8.3)
hX0 i

8.2 Exponenciales imaginarias como funciones base.


Seguiremos a continuación todas las consideraciones realizadas en los Caps. 2 y 4 para un caso particular
de funciones base. Seguiremos así mismo la notación introducida entonces.

8.2.1 Funciones de partida.

Consideremos una señal periódica arbitraria f0 (x) 2 P~ (X0 ); un ejemplo de una señal de este espacio
podría ser como la mostrada en la Fig.8.1.

f0 (x)
1,25

1,00

0,75

0,50

0,25

0,00
-1,0 -0,5 0,0 0,5 1,0 1,5 2,0 2,5 3,0
x / X0

Figura 8.1. Ejemplo de una señal periódica arbitraria perteneciente al espacio de


señales P~ (X0 ):
1 Recordamos que el nuevo espacio de señales P~ (X0 ) obtenido a partir de P (X0 ) será el espacio que contiene a las
señales complejas de variable real, que son continuas y/o discontinuas en un número …nito o in…nito pero numerable de
discontinuidades, tratadas éstas como distribuciones, y que son periódicas de período X0 :

163
Re{ϕ(x;m)}
1,5
m=0 m=1 m=4
1,0

0,5

0,0

-0,5

-1,0

-1,5
0 1
x /X0 2 3 4
Im{ϕ(x;m)}
1,5
m=0 m=1 m=4
1,0

0,5

0,0

-0,5

-1,0

-1,5
0 1
x /X0 2 3 4

Figura 8.2. Algunos ejemplos de funciones pertenecientes al conjunto f'(x; m)g =


© jm» x ª
e 0 de período X0 =m, y pulsación » 0 = m2¼=X0 .

Un subconjunto de P~ (X0 ) lo constituyen las exponenciales imaginarias periódicas de período X0 =m o


pulsación » 0 = m2¼=X0 analizadas a partir de las exponenciales descritas en la Secc. 5.2.2. Resulta
evidente que una señal de período X0 =m; también tiene como período a X0 ; y por lo tanto, pertenece
al espacio P~ (X0 ): El conjunto total de dichas señales f'(x; m)g que resulta ser in…nito y numerable, se
puede describir de la forma siguiente,
½ ¾
© ª jm

x
f'(x; m)g = ejm»0 x = e X0 = fcos(m» 0 x) + j sin(m» 0 x)g : (8.4)

Recordamos que para un cierto armónico m; la pulsación será m» 0 y el período mínimo de la señal será
X0 =m: Así mismo, si m = 0; '(x; 0) = 1+j0; es decir, la función constante unidad2 vista como una señal
periódica de período X0 : En la Fig. 8.2 se muestran algunas de estos armónicos a modo de ejemplo.
Consideremos ahora una combinación lineal de dichas funciones para el caso más general de coe…cientes
complejos,
1
X 1
X
a(m)'(x; m) = a(m)ejm»0 x = (8.5)
m=¡1 m=¡1

= ::::::::: + a¡2 e¡j2»0 x + a¡1 e¡j»0 x + a0 + a1 ej»0 x + a2 ej2»0 x + :::::::::


Nótese que dicha ecuación contiene un término constante a0 que aportará un nivel de continua complejo
a la señal total, dos términos en §» 0 que dan como resultado una señal periódica de período X0 ; dos
términos en §2» 0 que dan como resultado una señal periódica de período X0 =2; y así sucesivamente.
Destacar el hecho de que las pulsaciones negativas están asociadas con el conjugado de la función, esto es,
parte real cosenoidal y parte real senoidal cambiada de signo. Resulta evidente también que el resultado
…nal de la suma completa será una señal arbitraria pero de pulsación » 0 o período X0 : Es decir, que la
combinación lineal de las in…nitas funciones '(x; m) dará como resultado otra señal periódica f0 (x) de
período X0 ;
1
X
f0 (x) = a(m)ejm»0 x 2 P~ (X0 ): (8.6)
m=¡1
2 En general, cualquier funcion constante pertenecerá a cualquier espacio de señales arbitrarias o de señales periódicas

de período arbitrario, exceptuando el caso de período nulo. Nótese que tanto la función constante unidad como la función
constante nula son los elementos neutros de cualquier espacio de señales respecto al producto y a la suma, respectivamente.

164 c Emilio Gago-Ribas, 2002


°
La función f0 (x) resultante dependerá, sin duda, del valor que tomen cada uno de los coe…cientes fa(m)g
de la serie. Nótese que dichos coe…cientes modi…can las señales coseno y seno del armónico m-ésimo
tanto en módulo como en fase,

Refa(m)'(x; m)g = ja(m)j cos(mW0 x + 'a(m) ); (8.7)

Imfa(m)'(x; m)g = ja(m)j sin(mW0 x + 'a(m) ); (8.8)

es decir, desplazando las señales sinusoidales un valor igual a,


'a(m) 'a(m) 'a(m) X0
x0 = = = X0m ; X0m = : (8.9)
m» 0 » 0m 2¼ m

Visto al revés, si una combinación lineal de exponenciales complejas periódicas es capaz de generar
funciones periódicas arbitrarias, podríamos pensar en representar cualquier elemento del espacio f0 (x) 2
P~ (X0 ) como una combinación lineal de dichas exponenciales, lo que signi…caría que ese conjunto de
funciones son una base del espacio vectorial de partida. Para analizar este aspecto, seguiremos el proceso
general expuesto en la Secc. 4.3.

8.2.2 Ortogonalidad del conjunto de funciones.


Comprobaremos en primer lugar que el conjunto de funciones de…nido en (8.4) es un conjunto ortogonal.
Para ello, no tendremos más que considerar el producto escalar de…nido sobre el espacio de funciones,
(8.1), aplicado a dos funciones cualesquiera '(x; m) y '(x; n) del conjunto. Dicho producto escalar podrá
desarrollarse fácilmente de la siguiente forma3 ,
Z Z
h'(x; m); '(x; n)i = '(x; m)'¤ (x; n) dx = ej(m¡n)»0 x dx =
hX0 i hX0 i
8
1 ³ ´ < 0 si m 6= n
= ej(m¡n)2¼ ¡ 1 = : (8.10)
j(m ¡ n)» 0 : X si m = n
0

De este resultado se deduce rápidamente que:


² El conjunto de funciones f'(x; m)g es ortogonal por ser el producto escalar nulo para cualesquiera
dos funciones diferentes.
² La norma de todas las funciones es la misma e igual a
p
k'(x; m)k = X0 : (8.11)

² Para trabajar con un conjunto ortonormal, deberíamos de…nir el conjunto de funciones de la siguiente
forma,
1
'(x; m) = p ejm»0 x : (8.12)
X0

8.2.3 Coe…cientes del desarrollo en serie de Fourier.

El siguiente paso consistiría en comprobar si es posible escribir los coe…cientes de la combinación lineal
en términos del producto escalar, esto es, en términos de las proyecciones del elemento original sobre
cada uno de los elementos de la base. Asumiendo entonces que un elemento arbitrario f0 (x) del espacio
se puede escribir en la forma (8.6), y multiplicando ambos miembros de la ecuación por el conjugado de
un elemento arbitrario, '¤ (x; n) = e¡jn»0 x ; de la supuesta base,
1
X
f0 (x)e¡jn»0 x = a(m)ej(m¡n)»0 x : (8.13)
m=¡1

3 La expresión que sigue se ha simpli…cado para englobar las dos situaciones que se producen. Nótese que, en realidad,

cuando m = n; el resultado de la integral no está


R de…nido. El valor de X0 en este caso se obtiene sin más que volver a la
integral inicial e imponer m = n; de forma que hX i dx = X0 :
0

c Emilio Gago-Ribas, 2002


° 165
Integrando ambos miembros en un período (por ejemplo, el fundamental [0; X0 ]);
Z X0 1
X Z X0
f0 (x)e¡jn»0 x dx = a(m) ej(m¡n)»0 x dx: (8.14)
0 m=¡1 0

Nótese que la integral en el término de la derecha no es más que el producto escalar de…nido sobre el
espacio vectorial de funciones periódicas de período X0 ;
Z X0 1
X
f0 (x)e¡jn»0 x dx = a(m) h'(x; m); '(x; n)i ; (8.15)
0 m=¡1

de forma que todos los sumandos del sumatorio serán nulos exceptuando el término especí…co m = n; es
decir,
Z X0
f0 (x)e¡jm»0 x dx = a(m)X0 : (8.16)
0

Despejando a(m) de la última expresión obtendremos el valor de los coe…cientes del desarrollo en serie de
Fourier de la señal f0 (x);
Z X0
1 1
a(m) = f0 (x)e¡jm»0 x dx = hf0 (x); '(x; m)i ; (8.17)
X0 0 X0

expresión que queda escrita de forma general en términos del producto escalar (compárese con la expre-
sión general en 4.16).

8.2.4 De…nición del desarrollo en serie de Fourier.


Al par de ecuaciones (8.6)-(8.17) se le denomina desarrollo en serie de Fourier de la señal periódica f0 (x);
1
X 2¼
f0 (x) = a(m)'(x; m); '(x; m) = ejm»0 x y » 0 = ; (8.18)
m=¡1
X0

Z
1 1
a(m) = hf0 (x); '(x; m)i = f0 (x)e¡jm»0 x dx: (8.19)
X0 X0 hX0 i

La primera ecuación se suele denominar ecuación de análisis, siendo la segunda la ecuación de síntesis.
Queda en cualquier caso pendiente de demostrar la validez o no de dichos desarrollos para cualquier señal
del espacio, esto es, la demostración de que dicho desarrollo es la mejor aproximación posible a f0 (x) en
términos de la métrica de…nida en el espacio, así como la completitud o no de la base bajo estudio.
Utilizando la notación algebraica introducida en el Cap. 4, ecuaciones (4.18) y (4.19), podremos escribir,
8 9 8 9
>
> DSF¡1 : D(¡1; 1) ¡! P~ (X0 ) >
> > DSF : P~ (X0 ) ¡! D(¡1; 1) >
>
> >
> >
> >
>
< = < =
f0 (x) = DSF¡1 [a(m)] y a(m) = DSF [f0 (x)] ; (8.20)
>
> >
> >
> >
>
>
> P
1 >
> >
: >
;
: DSF¡1 (¢) = (¢)'(x; m) ; DSF(¢) = X10 h(¢); '(x; m)i
m=¡1

© ª
f0 (x); f'(x; m)g = ejm»0 x 2 P~ (X0 ) y a(m) 2 D(¡1; 1):

recordando que D(¡1; 1) es le espacio de funciones complejas de variable entera de…nidas para todo
valor de la variable independiente. En la Fig. 8.3 se muestra el esquema de estas transformaciones.

166 c Emilio Gago-Ribas, 2002


°
Figura 8.3. Representación en forma de sistema de las transformaciones asociadas
al desarrollo en serie de Fourier.

8.2.5 Análisis del error en el desarrollo en serie de Fourier.


Como ya anticipamos en el Cap. 4, la combinación lineal de…nida en (8.18) será la mejor aproximación
posible a f0 (x) siempre que los coe…cientes en (8.19) sean los adecuados para garantizar que no existe
otro conjunto de valores fb(m)g que proporcionen una aproximación mejor bajo la métrica de…nida en
el espacio. Desde este punto de vista, asumiremos en esta sección que los coe…cientes de la combinación
lineal son desconocidos, e intentaremos medir la diferencia entre el elemento original f0 (x) y el resultado
de la combinación lineal, que denominaremos4 DSF¡1 [a(m)];
1
X
DSF¡1 [a(m)] = a(m)'(x; m); (8.21)
m=¡1

de forma que el desarrollo en serie de Fourier se podría escribir ahora como

f0 (x) = DSF¡1 [a(m)] : (8.22)

Nótese que estudiar la validez de esta última expresión es equivalente a identi…car el signi…cado del signo
igual entre ambas funciones; dicho de otra forma, intentaremos dar un signi…cado propio a esa igualdad,
que podríamos imaginar escrita como f0 (x) ¼ DSF¡1 [a(m)] : Para estudiar dicha aproximación recur-
riremos a la métrica propia del espacio de señales en (8.3), partiendo inicialmente de una combinación
lineal …nita de 2N + 1 términos, y estudiando posteriormente el límite cuando N ! 1: Llamemos
entonces DSF¡1N [a(m)] al desarrollo en serie truncado en la forma,

N
X
DSF¡1
N [a(m)] = a(m)'(x; m): (8.23)
m=¡N

Para medir la diferencia existente entre el elemento original f0 (x) y la función DSF¡1
N [a(m)] aplicaremos
el concepto de distancia de…nido en este espacio de señales,
¡ ¢ ° °2
d2 f0 ; DSF¡1N [a(m)] = °f0 (x) ¡ DSF¡1 N [a(m)]
° =
Z
¯ ¯
= ¯f0 (x) ¡ DSF¡1 [a(m)]¯2 dx; (8.24)
N
hX0 i

obteniéndose la expresión habitual del error cuadrático medio entre ambas funciones. Nótese que la
función diferencia, de…nida punto a punto y, por lo tanto, también periódica y perteneciente al espacio
P~ (X0 ); se podrá denominar función de error para la serie truncada a 2N + 1 términos,

e0N (x) = f0 (x) ¡ DSF¡1


N [a(m)] ; (8.25)

de forma que la expresión del cuadrado de la distancia entre ambos elementos no es más que la energía
del error,
Z Z ¯ ¯
E [e0N (x)] =
2
je0N (x)j dx = ¯f0 (x) ¡ DSF¡1 [a(m)]¯2 dx: (8.26)
N
hX0 i hX0 i
4 Seguiremos en este caso la notación general correspondiente a una transformación T introducida en el Cap. 4 vista

como un tipo particular de operador. Así, la ecuación de análisis debería leerse como DSF¡1 [a(m)] (x); esto es, una
función en el dominio x:

c Emilio Gago-Ribas, 2002


° 167
Figura 8.4. Esquema de la interpretación del error asociado al desarrollo en serie de
Fourier truncado de una señal periódica. La distancia entre el elemento original f0 (x)
y su aproximación DSF¡1 N [a(m)] se mide en términos de la energía de la diferencia
punto a punto entre las dos señales sobre un período cualquiera.

En otras palabras, la distancia o diferencia entre dos señales del espacio se realiza no punto a punto
sino en términos de la energía del error. Lógicamente, la función je0N (x)j2 no es más que la potencia
instantánea asociada a la función e0N (x): La interpretación de la distancia entre ambos elementos se
muestra en la Fig. 8.4.
Con estos conceptos en mente, diremos entonces que la mejor aproximación posible de f0 (x) a través de un
desarrollo truncado DSF¡1
N [a(m)] se producirá para aquellos coe…cientes que hagan mínima la energía
del error,

dE [e0N (x)] 1
= 0 ¡! a(m) = hf0 (x); '(x; m)i : (8.27)
da(m) X0

La demostración de este resultado se puede encontrar en el Ap. E.7.1. Esto quiere decir que los
coe…cientes a(m) obtenidos a través de la proyección de f0 (x) sobre cada elemento de la base '(x; m) nos
proporcionan justamente la mejor aproximación posible a f0 (x) a través del desarrollo en serie truncado.
Este primer resultado nos asegura claramente que: (i) el valor de los coe…cientes que minimizan la
energía del error deberá ser el obtenido en (8.19), y (ii) el valor de dichos coe…cientes es independiente
del número de términos N elegido. Así, su valor para dos valores de truncamiento N1 y N2 diferentes será
el mismo para los términos comunes. Esto será extensible, lógicamente, cuando N ! 1. Además, es
fácil demostrar que cuando N ! 1; es decir, considerando los in…nitos elementos de la base, la energía
del error tiende a cero, esto es

e0N (x) ! e0 (x) (8.28)

lim E [e0N (x)] = E [e0 (x)] ! 0; (8.29)


N!1

es decir, que el desarrollo en serie de Fourier en (8.18)-(8.19) no sólo es la mejor aproximación posible a
f0 (x) sino que el error tiende a cero en términos de su energía. La igualdad en (8.18) no es, por lo tanto,
una igualdad punto a punto, sino una igualdad en términos de que la energía del error tiende a anularse.
En otras palabras, la función original f0 (x) y su desarrollo en serie de Fourier DSF¡1 [a(m)] no tienen
porqué coincidir punto a punto, pudiendo diferir incluso en un número grande de puntos aislados. Una
vez más, este hecho no es más que una consecuencia de la de…nición de la métrica del espacio, de…nida
en términos integrales y no punto a punto. Por ejemplo, un cambio en la de…nición de la métrica del
espacio podría hacer que el desarrollo en serie de Fourier así de…nido ya no fuera la mejor aproximación
posible a la función original.

168 c Emilio Gago-Ribas, 2002


°
² Algunos ejemplos.
1. En las Figs. 8.5 y 8.8 se muestran dos ejemplos en los que las señales periódicas, en este caso
distribuciones, son trenes de pulsos de ancho ¢x y período X0 en la forma,
8 9
>
< 1 jx + kX0 j < ¢x=2 >
=
P0;¢x (x) = ; k 2 Z: (8.30)
>
: 0 >
¢x=2 < jx + kX0 j < X0 =2 ;

Los dos ejemplos mostrados se corresponden con ¢x = 0:5 y ¢x = 0:75; siendo X0 = 1


en ambos casos. El análisis de la función de error e0N (x) así como su potencia instantánea,
je0N (x)j2 ; para cada una de las aproximaciones mostradas previamente en función de N se
muestra en las Figs. 8.6 y 8.9. En ellas se representa también la energía E [e0N (x)] como el
área bajo la curva de la potencia instantánea en un período. Nótese como, a medida que N
crece, la energía del error va decreciendo. En el límite N ! 1; la energía del error será nula.
En las Figs. 8.7 y 8.10 se muestran en primer lugar, las partes real e imaginaria de los
coe…cientes a(m) de los desarrollos en serie de las señales representadas. A continuación se
muestra el valor que toma el desarrollo en serie de Fourier truncado a 2N + 1 términos en
cada uno de los puntos de discontinuidad de la función original, esto es DSF¡1 N [a(m)] (0) =
DSF¡1N [a(m)] (X0 ) = etc. Nótese cómo dicho valor tiende al valor medio de la discontinuidad
a medida que el número de términos aumenta; en estos ejemplos,

lim DSF¡1
N [a(m)] (0) = (1 + 0)=2 = 0:5;
N!1

en ambos casos. Estos valores se muestran también en las grá…cas de las Figs. 8.5 y 8.8.
Finalmente se muestra la energía del error en función de N para cada uno de los ejemplos
analizados. Nótese como el resultado en (8.29) se satisface en ambos casos.
2. Un análisis similar al del tren de pulsos se presenta en las Figs. 8.10, 8.11 y 8.12 para un tren
de exponenciales reales en la forma,

e0;¢x (x) = e¡ax=X0 ;


(8.31)
0 x + kX0 < X0 ; k 2 Z; a 2 R+ :

El ejemplo mostrado se corresponde con el caso a = 1 y X0 = 1: En la Figs. 8.11 se muestran


diferentes aproximaciones de las señales originales en función del número de términos N con-
siderado en su desarrollo en serie truncado. En la Fig. 8.12 se muestran tanto el error e0N (x)
como su potencia instantánea, je0N (x)j2 ; para cada una de las aproximaciones mostradas pre-
viamente en función de N: También se representa la energía del error E [e0N (x)] como el área
bajo la curva de la potencia instantánea. Nótese como, una vez más, a medida que N se hace
mayor, la energía del error va decreciendo. Finalmente, en la Fig. 8.13 se muestran:
(a) Las partes real e imaginaria de los coe…cientes a(m) de los desarrollos en serie de las señales
representadas.
(b) El valor de transición en cada discontinuidad del desarrollo en serie de Fourier trucado
a 2N + 1 términos, esto es DSF¡1 ¡1
N [a(m)] (0) = DSFN [a(m)] (X0 ) = etc. Dicho valor
tiende al valor medio de la discontinuidad a medida que el número de términos aumenta,
en este caso,

lim DSF¡1
N [a(m)] (0) = (1 + e
¡1
)=2 = 0:6839:
N!1

Estos valores se muestran también en las grá…cas de la Fig. 8.11.


(c) La energía del error en función de N para cada uno de los casos analizados, veri…cándose
una vez más el resultado en (8.29).

c Emilio Gago-Ribas, 2002


° 169
8
< 1 jx + kX0 j < ¢x=2
f0 (x) = P0;¢x (x) = ; k2N ¢x = 0:5; X0 = 1
: 0 ¢x=2 < jx + kX0 j < X0 =2

-1 -1
N=0: DSFN [a(m)](disc.)=0.5 (A) N=1: DSFN [a(m)](disc.)=0.5 (B)
1,50 1,50
f0(x) -1
DSFN [a(m)] f0(x) -1
DSFN [a(m)]
1,25 1,25
A
1,00 1,00

B
0,75 0,75

0,50 0,50

0,25 0,25

0,00 0,00

-0,25 -0,25

-0,50 -0,50
0 1
x /X0
2 0 1
x /X0 2
-1 -1
N=3: DSFN [a(m)](disc.)=0.5 (C) N=5: DSFN [a(m)](disc.)=0.5 (D)
1,50 1,50
f0(x) -1
DSFN [a(m)] f0(x) -1
DSFN [a(m)]
1,25 1,25

1,00 1,00
C D
0,75 0,75

0,50 0,50

0,25 0,25

0,00 0,00

-0,25 -0,25

-0,50 -0,50
0 1 2 0 1 2
-1
x /X0 x /X0
N=10: DSFN [a(m)](disc.)=0.5 (E) -1
N=50: DSFN [a(m)](disc.)=0.5 (F)
1,50 1,50
f0(x) -1
DSFN [a(m)] f0(x) -1
1,25 1,25 DSFN [a(m)]

1,00 1,00
E F
0,75 0,75

0,50 0,50

0,25 0,25

0,00 0,00

-0,25 -0,25

-0,50 -0,50
0 1 2 0 1 2
x /X0 x /X0
-1
DSF [a(m)](disc.)=0.5

Figura 8.5.

P
N sin(m¼¢x=X0 )
DSF¡1
N [a(m)] = a(m)ejm»0 x a(m) = X0
m=¡N m¼

170 c Emilio Gago-Ribas, 2002


°
8
< 1 jx + kX0 j < ¢x=2
f0 (x) = P0;¢x (x) = ; k2N ¢x = 0:5; X0 = 1
: 0 ¢x=2 < jx + kX0 j < X0 =2

e0N (x) N =0 e0N (x) N =1


0,75 0,75
0,50 0,50
0,25 0,25
0,00 0,00
-0,25 -0,25
-0,50 -0,50
-0,75 -0,75
0 1 2 0 1 2
x /X0 x /X0
2 E[e0N (x)] (a) 2 E[e0N (x)] (b)
|e0N (x)| |e0N (x)|
0,3 0,3

0,2 0,2

0,1 0,1

0,0 0,0
0 1 2 0 1 2
x /X0 x /X0
e0N (x) N =3 e0N (x) N =5
0,75 0,75
0,50 0,50
0,25 0,25
0,00 0,00
-0,25 -0,25
-0,50 -0,50
-0,75 -0,75
0 1 2 0 1 2
x /X0 x /X0
|e0N (x)|
2
E[e0N (x)] (c) |e0N (x)|
2 E[e0N (x)] (d)
0,3 0,3

0,2 0,2

0,1 0,1

0,0 0,0
0 1 2 0 1 2
x /X0 x /X0
e0N (x) N =10 e0N (x) N =50
0,75 0,75
0,50 0,50
0,25 0,25
0,00 0,00
-0,25 -0,25
-0,50 -0,50
-0,75 -0,75
0 1 2 0 1 2
x /X0 x /X0
|e0N (x)|
2 E[e0N (x)] (e) |e0N (x)|
2 E[e0N (x)] (f)
0,3 0,3

0,2 0,2

0,1 0,1

0,0 0,0
0 1 2 0 1 2
x /X0 x /X0

Figura 8.6.

Z
2
e0N (x) = f0 (x) ¡ DSF¡1
N [a(m)] E [e0N (x)] = je0N (x)j dx
hX0 i

c Emilio Gago-Ribas, 2002


° 171
8
< 1 jx + kX0 j < ¢x=2
f0 (x) = P0;¢x (x) = ; k2N ¢x = 0:5; X0 = 1
: 0 ¢x=2 < jx + kX0 j < X0 =2

Re{a(m)} Im{a(m)}
0,6 0,6

0,5 0,5

0,4 0,4

0,3 0,3

0,2 0,2

0,1 0,1

0,0 0,0

-0,1 -0,1

-0,2 -0,2
-20 -15 -10 -5 0 5 10 15 20 -20 -15 -10 -5 0 5 10 15 20
m m
|a(m) | Fase{a(m)}
0,6
1,0π
0,5

0,5π
0,4

0,3 0,0π

0,2
-0,5π

0,1
-1,0π
0,0
-20 -15 -10 -5 0 5 10 15 20 -20 -15 -10 -5 0 5 10 15 20
m m
-1
DSFN [a(m)](disc.) E[e0N(x))]
1,00 0,30

0,25 a
A
0,75
C E F 0,20

0,50 0,15
b
D 0,10
B c d
0,25 e f
0,05

0,00 0,00
0 5 10 15 20 25 30 35 40 45 50 0 5 10 15 20 25 30 35 40 45 50
N -1
N
DSF [a(m)](disc.)=0.5

Figura 8.7. (a) y (b) Partes real e imaginaria de los coe…cientes am del desarrollo
en serie de Fourier; (c) y (d) Módulo y fase de los coe…cientes am del desarrollo
en serie de Fourier; (e) y (f) Convergencia del valor del desarrollo en serie en las
discontinuidades y de la energía del error en función de N:

P
N P
1
DSF¡1
N [a(m)] = a(m)ejm»0 x DSF¡1 [a(m)] = a(m)ejm»0 x
m=¡N m=¡1

sin(m¼¢x=X0 )
a(m) = X0 lim DSF¡1
N [a(m)] (0) = DSF
¡1
[a(m)] (0)
m¼ N!1

Z
E [e0N (x)] = je0N (x)j2 dx lim E [e0N (x)] = E [e0 (x)] ! 0
hX0 i N!1

172 c Emilio Gago-Ribas, 2002


°
8
< 1 jx + kX0 j < ¢x=2
f0 (x) = P0;¢x (x) = ; k2N ¢x = 0:75; X0 = 1
: 0 ¢x=2 < jx + kX0 j < X0 =2

-1
N=1: DSFN [a(m)](disc.)=0.432 (B)
-1
N=0: DSFN [a(m)](disc.)=0.75 (A)
1,50 1,50
f0(x) A -1
DSFN [a(m)] f0(x) B -1
1,25 1,25
DSFN [a(m)]

1,00 1,00

0,75 0,75

0,50 0,50

0,25 0,25

0,00 0,00

-0,25 -0,25

-0,50 -0,50
0 1
x /X0 2 0 1 2
x /X0
-1 -1
N=3: DSFN [a(m)](disc.)=0.538 (C) N=5: DSFN [a(m)](disc.)=0.474 (D)
1,50 1,50
f0(x) C -1 f0(x) -1
DSFN [a(m)]
DSFN [a(m)]
1,25 1,25
D
1,00 1,00

0,75 0,75

0,50 0,50

0,25 0,25

0,00 0,00

-0,25 -0,25

-0,50 -0,50
0
-1
1
x /X0
2 0
-1
1
x /X0
2

N=10: DSFN [a(m)](disc.)=0.484 (E) N=50: DSFN [a(m)](disc.)=0.497 (F)


1,50 1,50
f0(x) -1 f0(x) -1
E DSFN [a(m)] DSFN [a(m)]
1,25 1,25
F
1,00 1,00

0,75 0,75

0,50 0,50

0,25 0,25

0,00 0,00

-0,25 -0,25

-0,50 -0,50
0 1 2
x /X0 0 1 2
x /X0
-1
DSF [a(m)](disc.)=0.5

Figura 8.8.

P
N sin(m¼¢x=X0 )
DSF¡1
N [a(m)] = a(m)ejm»0 x a(m) = X0
m=¡N m¼

c Emilio Gago-Ribas, 2002


° 173
8
< 1 jx + kX0 j < ¢x=2
f0 (x) = P0;¢x (x) = ; k2N ¢x = 0:75; X0 = 1
: 0 ¢x=2 < jx + kX0 j < X0 =2

e0N (x) N =0 e0N (x) N =1


0,6 0,6
0,4 0,4
0,2 0,2
0,0 0,0
-0,2 -0,2
-0,4 -0,4
-0,6 -0,6
-0,8 -0,8
0 1 2 x /X0 0 1 2 x /X0
|e0N (x)|
2 E[e0N (x)] (a) |e0N (x)|
2
E[e0N (x)] (b)
0,6 0,6
0,5 0,5
0,4 0,4
0,3 0,3
0,2 0,2
0,1 0,1
0,0 0,0
0 1 2
x /X0 0 1 2 x /X0
e0N (x) N =3 e0N (x) N =5
0,6 0,6
0,4 0,4
0,2 0,2
0,0 0,0
-0,2 -0,2
-0,4 -0,4
-0,6 -0,6
-0,8 -0,8
0 1 2 x /X0 0 1 2 x /X0
|e0N (x)|
2
E[e0N (x)] (c) 2 E[e0N (x)] (d)
|e0N (x)|
0,6 0,6
0,5 0,5
0,4 0,4
0,3 0,3
0,2 0,2
0,1 0,1
0,0 0,0
0 1 2 x /X0 0 1 2 x /X0
e0N (x) N =10 e0N (x) N =50
0,6 0,6
0,4 0,4
0,2 0,2
0,0 0,0
-0,2 -0,2
-0,4 -0,4
-0,6 -0,6
-0,8 -0,8
0 1 2 0 1 2
x /X0 x /X0
|e0N (x)|
2 E[e0N (x)] (e) |e0N (x)|
2 E[e0N (x)] (f)
0,6 0,6
0,5 0,5
0,4 0,4
0,3 0,3
0,2 0,2
0,1 0,1
0,0 0,0
0 1 2 0 1 2 x /X0
x /X0

Figura 8.9.

Z
e0N (x) = f0 (x) ¡ DSF¡1
N [a(m)] E [e0N (x)] = je0N (x)j2 dx
hX0 i

174 c Emilio Gago-Ribas, 2002


°
8
< 1 jx + kX0 j < ¢x=2
f0 (x) = P0;¢x (x) = ; k2N ¢x = 0:75; X0 = 1
: 0 ¢x=2 < jx + kX0 j < X0 =2

Re{a(m)} Im{a(m)}
0,8 0,8
0,7
0,6 0,6
0,5
0,4 0,4
0,3
0,2 0,2
0,1
0,0 0,0
-0,1
-0,2 -0,2
-20 -15 -10 -5 0 5 10 15 20 -20 -15 -10 -5 0 5 10 15 20
m m
|a(m) | Fase{a(m)}
0,8
1,0π

0,6
0,5π

0,4 0,0π

-0,5π
0,2

-1,0π
0,0
-20 -15 -10 -5 0 5 10 15 20 -20 -15 -10 -5 0 5 10 15 20
m m
-1
DSFN [a(m)](disc.) E[e0N (x)]
1,00 0,5
A a
C 0,4
0,75
F
0,3
0,50 b
E 0,2
c
D d f
0,25 e
B 0,1

0,00 0,0
0 5 10 15 20 25 30 35 40 45 50 0 5 10 15 20 25 30 35 40 45 50
N -1
N
DSF [a(m)](disc.)=0.5

Figura 8.10. (a) y (b) Partes real e imaginaria de los coe…cientes a(m) del desarrollo
en serie de Fourier; (c) y (d) Módulo y fase de los coe…cientes a(m) del desarrollo
en serie de Fourier; (e) y (f) Convergencia del valor del desarrollo en serie en las
discontinuidades y de la energía del error en función de N:

P
N P
1
DSF¡1
N [a(m)] = a(m)ejm»0 x DSF¡1 [a(m)] = a(m)ejm»0 x
m=¡N m=¡1

sin(m¼¢x=X0 )
a(m) = X0 lim DSF¡1
N [a(m)] (0) = DSF
¡1
[a(m)] (0)
m¼ N!1

Z
E [e0N (n)] = je0N (x)j2 dx lim E [e0N (n)] = E [eN (n)] ! 0
hX0 i N!1

c Emilio Gago-Ribas, 2002


° 175
f0 (x) = e0 (x) = e¡ax=X0 ; x 2 [0; X0 ) a = 1; X0 = 1

-1 -1
N=0: DSFN [a(m)](disc.)=0.632 (A) N=1: DSFN [a(m)](disc.)=0.663 (B)
1,00 1,00

A B

0,75 0,75

0,50 0,50

0,25 0,25

f0(x) -1 f0(x) -1
DSFN [a(m)]
DSFN [a(m)]
0,00 0,00
0 1 2 3 0 1 2 3
-1
x /X0 -1
x /X0
N=3: DSFN [a(m)](disc.)=0.675 (C) N=5: DSFN [a(m)](disc.)=0.678 (D)
1,00 1,00

C D

0,75 0,75

0,50 0,50

0,25 0,25

f0(x) -1
DSFN [a(m)] f0(x) -1
DSFN [a(m)]
0,00 0,00
0 1 2 3 0 1 2 3
-1
x /X0 -1
x /X0
N=10: DSFN [a(m)](disc.)=0.681 (E) N=50: DSFN [a(m)](disc.)=0.683 (F)
1,00 1,00

E F

0,75 0,75

0,50 0,50

0,25 0,25

f0(x) f0(x)
-1
-1
DSFN [a(m)] DSFN [a(m)]
0,00 0,00
0 1 2
x /X0 3 0 1 2
x /X0 3
-1
DSF [a(m)](disc.)=0.6839

Figura 8.11.

P
N 1 ¡ e¡(a+j2¼m)
DSF¡1
N [a(m)] = a(m)ejm»0 x a(m) =
m=¡N a + j2¼m

176 c Emilio Gago-Ribas, 2002


°
f0 (x) = e0 (x) = e¡ax=X0 ; x 2 [0; X0 ) a = 1; X0 = 1

e0N (x) N =0 e0N (x) N =1


0,4 0,4
0,3 0,3
0,2 0,2
0,1 0,1
0,0 0,0
-0,1 -0,1
-0,2 -0,2
-0,3 -0,3
-0,4 -0,4
0 1 2
x /X0 3 0 1 2
x /X0 3
|e0N (x)|
2 E[e0N(x)] (a) |e0N (x)|
2 E[e0N(x)] (b)
0,15 0,15

0,10 0,10

0,05 0,05

0,00 0,00
0 1 2 3 0 1 2 3
x /X0 x /X0
e0N (x) N =3 e0N (x) N =5
0,4 0,4
0,3 0,3
0,2 0,2
0,1 0,1
0,0 0,0
-0,1 -0,1
-0,2 -0,2
-0,3 -0,3
-0,4 -0,4
0 1 2 x /X0 3 0 1 2 x /X0 3
|e0N (x)|
2 E[e0N(x)] (c) |eN (x)|
2 E[e0N(x)] (d)
0,15 0,15

0,10 0,10

0,05 0,05

0,00 0,00
0 1 2 3 0 1 2 3
x /X0 x /X0
e0N (x) N =10 e0N (x) N =50
0,4 0,4
0,3 0,3
0,2 0,2
0,1 0,1
0,0 0,0
-0,1 -0,1
-0,2 -0,2
-0,3 -0,3
-0,4 -0,4
0 1 2
x /X0 3 0 1 2
x /X0
3
2 E[e0N(x)] (e) 2 E[e0N(x)] (f)
|e0N (x)| |e0N (x)|
0,15 0,15

0,10 0,10

0,05 0,05

0,00 0,00
0 1 2 3 0 1 2 3
x /X0 x /X0

Figura 8.12.

Z
e0N (x) = f0 (x) ¡ DSF¡1
N [a(m)] E [e0N (x)] = je0N (x)j2 dx
hX0 i

c Emilio Gago-Ribas, 2002


° 177
f0 (x) = e0 (x) = e¡ax=X0 ; x 2 [0; X0 ) a = 1; X0 = 1

0,7
Re{a(m)} 0,2
Im{a(m)} 0,2

0,6

0,5 0,1 0,1

0,4

0,3 0,0 0,0

0,2

0,1 -0,1 -0,1

0,0

-0,1 -0,2 -0,2


-20 -15 -10 -5 0 5 10 15 20 -20 -15 -10 -5 0 5 10 15 20
m m
|a(m) | Fase{a(m)}
0,7
1,0π
0,6

0,5 0,5π

0,4
0,0π
0,3

0,2 -0,5π

0,1
-1,0π
0,0
-20 -15 -10 -5 0 5 10 15 20 -20 -15 -10 -5 0 5 10 15 20
m m
-1
DSFN [a(m)](disc.) E[e0N (x)]
0,70 0,035
F a
0,030
0,65
0,025
A C D E b
B 0,020
0,60
0,015
c
d
0,010
0,55 e f
0,005

0,50 0,000
0 5 10 15 20 25 30 35 40 45 50 0 10 20 30 40 50
N -1 N
DSF [a(m)]=0.6839

Figura 8.13. (a) y (b) Partes real e imaginaria de los coe…cientes a(m) del desarrollo
en serie de Fourier; (c) y (d) Módulo y fase de los coe…cientes a(m) del desarrollo
en serie de Fourier; (e) y (f) Convergencia del valor del desarrollo en serie en las
discontinuidades y de la energía del error en función de N:

P
N P
1
DSF¡1
N [a(m)] = a(m)ejm»0 x DSF[a(m)] = a(m)ejm»0 x
m=¡N m=¡1

1 ¡ e¡(a+j2¼m)
a(m) = lim DSF¡1 ¡1
N [a(m)](0) = DSF [a(m)](0)
a + j2¼m N!1

Z
E [e0N (x)] = je0N (x)j2 dx lim E [e0N (x)] = E [eN (x)] ! 0
hX0 i N!1

178 c Emilio Gago-Ribas, 2002


°
8.3 Criterios de convergencia de los coe…cientes.
Los aspectos comentados
© jm» x ªhasta el momento garantizan que el conjunto de funciones bajo análi-
sis, f'(x;
n m)g
o = e 0 ; resulta ser un conjunto: (i) in…nito de funciones, lo que signi…ca que
Dim P~ (X0 ) = 1; (ii) numerable, pudiéndose establecer una relación uno-a-uno entre cada uno de
los elementos de la base y el conjunto de los números enteros Z; (iii) ortogonal, y (iv) que, asociado
al conjunto de coe…cientes fa(m)g dado por (8.19), hacen que el desarrollo en serie en (8.18) sea la
mejor aproximación posible a un elemento f0 (x) 2 P~ (X0 ) bajo la métrica de…nida en el espacio por
(8.3). Para asegurar que dicho conjunto es una base, faltaría por estudiar la completitud o no de ese
conjunto de funciones base en el espacio P~ (X0 ); lo que es lo mismo, responder a las siguientes preguntas
equivalentes: ¿todo elemento del espacio de señales considerado puede ser representado en términos de
un desarrollo en serie en la forma (8.18)-(8.19)?, ó ¿existe un conjunto válido de coe…cientes en la forma
descrita por (8.19) para toda f0 (x) 2 P~ (X0 )? Este problema, nada sencillo desde el punto de vista
algebraico, se puede abordar de una forma intuitiva y aproximadamente válida siguiendo el siguiente
proceso alternativo:
² Partiendo del espacio considerado, en este caso P~ (X0 ); consideraremos que la validez del desarrollo
en serie en (8.18), esto es, su convergencia, viene directamente asociada a la existencia de los
coe…cientes para cualquier señal del espacio, lo que nos lleva directamente al problema de analizar
los criterios de convergencia de los coe…cientes, esto es, los criterior de convergencia de la ecuación
(8.19).
² La imposición de estos criterios de convergencia determinará el considerar ciertos subespacios dentro
del espacio de señales de partida en los cuales podremos asegurar que el par de ecuaciones (8.18)-
(8.19) resultarán ser válidas para todo elem