Tercera Edición Edición Digital

PRINCIPIOS DE LAS COMUNICACIONES

José E. Briceño M., Dr. Ing. Profesor Titular, ULA

Mérida, Abril 2005

ii

PUBLICACIONES DE LA FACULTAD DE INGENIERIA ESCUELA DE INGENIERIA ELECTRICA

La primera edición de este libro fué recomendada para su edición y publicación por el Departamento de Electrónica y Comunicaciones de la Escuela de Ingeniería Eléctrica de la Facultad de Ingeniería de la Universidad de los Andes, en su Reunión Ordinaria realizada el 14 de Diciembre de 1989.

Está prohibida la reproducción total o parcial de este libro sin previa autorización del autor. Ediciones: 1990, 1993, 1998, 2004, Digital 2005 Código:

Impreso en Mérida Taller de Publicaciones de la Facultad de Ingeniería, Universidad de Los Andes

iii

INDICE DE MATERIAS
PREFACIO A LA EDICIÓN DIGITAL PREFACIO CAPITULO I REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES 1.1. INTRODUCCION 1.2. MODELOS DE SEÑALES 1.2.1. Señales Determinísticas y Aleatorias 5 1.2.2. Señales Periódicas y no Periódicas 5 1.2.3. Señales de Energía y de Potencia 6 1.2.4. Señales Singulares 9 La Rampa Unitaria 10 El Escalón Unitario 10 La Función Signo 11 El Impulso Unitario Delta Dirac 12 1.2.5. Señales Ortogonales 14 1.3. EL DOMINIO DE LA FRECUENCIA 1.3.1. Representación Espectral 15 1.4. SERIES Y ESPECTROS DE FOURIER 1.4.1. Señales Periódicas 18 Definición 18 1.4.2. Series de Fourier 20 Definición 20 La Serie Trigonométrica de Fourier 20 La Serie Exponencial de Fourier 22 1.4.3. El Espectro Discreto 24 Propiedades del Espectro Discreto 27 1.4.4. Espectro de Potencia de Señales Periódicas. Teorema de Parseval 1.5. LA TRANSFORMADA DE FOURIER 1.5.1. Introducción 31 1.5.2. El Espectro Continuo 33 1.5.3. Propiedades de la Transformada de Fourier de Señales Reales 1.7. TEOREMAS DE LA TRANSFORMADA DE FOURIER 1.7.1. Teorema de la Superposición o Linealidad 40 1.7.2. Teorema de la Traslación o Desplazamiento en el Tiempo 41 1.7.3. Teorema del Cambio de Escala 42 1.7.4. Teorema de la Dualidad o Simetría 42 1.7.5. Teorema de la Traslación o Desplazamiento en Frecuencia 44 Teorema de la Modulación 44 1.7.6. Teorema de la Diferenciación e Integración en el Tiempo 47 1.7.7. Teorema de la Diferenciación e Integración en Frecuencia 49 xiii xiv 1 1 1 5

15 18

28 31

35 38 40

1.6. DENSIDAD ESPECTRAL DE ENERGIA. TEOREMA DE RALEIGH

iv

1.8. TRANSFORMADA DE FOURIER DE SEÑALES PERIÓDICAS 1.9. DENSIDAD ESPECTRAL DE POTENCIA 1.9.1. Introducción 54 Definición 54 1.9.2. Teorema de la Modulación para Señales de Potencia 1.11. FUNCIONES DE CORRELACION 1.11.1. Introducción 61 1.11.2. Autocorrelación 62 Definición 62 Propiedades de la Función de Autocorrelación 64 1.11.3. Teorema de Wiener-Kintchine 67 1.11.4. Teorema de la Modulación para Señales de Potencia 1.11.5. Intercorrelación 69 Propiedades de la Función de Intercorrelación 70 1.11.6. Detección de una Señal en presencia de Ruido 71 1.12. RESUMEN PROBLEMAS DE APLICACIÓN CAPITULO II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS 2.1. INTRODUCCIÓN 87 2.2. CARACTERIZACION DE SISTEMAS 87 2.2.1. Concepto de Sistema 87 2.2.2. Clasificación de Sistemas 88 2.2.3. Caracterización de Sistemas Lineales en el Dominio del Tiempo 89 Respuesta Impulsional 89 Sistemas Lineales Invariantes y Variantes en el Tiempo 90 Causalidad y Estabilidad en Sistemas Lineales 94 2.2.4. Caracterización de Sistemas Lineales en el Dominio de la Frecuencia 95 Función de Transferencia 95 Criterio de Paley-Wiener 97 Propiedades de la Función de Transferencia 97 2.3. LA INTEGRAL DE CONVOLUCION 2.3.1. Aplicaciones en el Análisis de Señales y Sistemas 2.3.2. Interpretación Gráfica de la Convolución 106 2.4. DISTORSION EN LAS SEÑALES 2.4.1. Transmisión sin Distorsión 108 Sistemas de Fase Lineal 112 2.4.2. Tipos de Distorsión 113 Distorsión de Amplitud 113 Distorsión de Fase 113 Distorsión no Lineal 116 Compansión 118

51 54

56 61

1.10. RELACION ENTRE EL ANCHO DE BANDA Y LA DURACION DE UNA SEÑAL 59

68

72 73 87 87

100 100 108

v

2.5. INTERCONEXION DE SISTEMAS 2.6. FILTROS 2.6.1. Introducción 120 2.6.2. Filtros Ideales 121 Filtro Ideal Pasabajo 122 Filtro Ideal Pasabanda 121 Filtro Ideal Pasaalto 122 Filtro Ideal Eliminador de Banda 2.6.3. Ancho de Banda en Filtros Reales

119 120

123 127 132

2.7. SEÑALES Y SISTEMAS PASABANDA 2.7.1. La Transformada de Hilbert 132 2.7.2. La Señal Analítica 136 2.7.3. Señales Pasabanda 137 2.7.4. Señales Moduladas y Bandas Laterales 144 Modulación en Doble Banda Lateral 144 Modulación en Banda Lateral Unica 146 2.7.5. Señales Pasabanda de Potencia 148 2.7.6. Sistemas Pasabanda 149 2.8. FUNCIONES DE CORRELACION EN SISTEMAS LINEALES 2.8.1. Autocorrelación Entrada/Salida 152 2.8.2. Intercorrelación Entrada/Salida 154 2.9. RUIDO EN SISTEMAS 2.9.1. Introducción 156 2.9.2. Ruido Interno 156 Ruido de Disparo 156 Ruido Térmico 156 Circuitos Equivalentes del Ruido 158 Potencia de Ruido Disponible 159 2.9.3. Ruido Blanco 160 Ruido Blanco Pasabanda de Banda Angosta 162 2.9.4. Ancho de Banda Equivalente del Ruido 165 2.9.5. Caracterización del Ruido en Sistemas 167 Relaciones Señal/Ruido en Sistemas de Comunicación 167 Relaciones Señal/Ruido en un Receptor con Detección Coherente Ganancia de Conversión o de Detección, 169 Cifra de Ruido 171 Cifra de Ruido en Sistemas en Cascada 174 Cifra de Ruido en Redes Atenuadoras 175 Medida del Ruido 179 2.10. RESUMEN PROBLEMAS DE APLICACIÓN

152

156

167

181 182

vi

CAPITULO III VARIABLES Y PROCESOS ALEATORIOS 3.1. INTRODUCCIÓN 3.2. NOCIONES DE LA PROBABILIDAD 3.2.1. Definición de la Probabilidad 195 Definición Empírica de la Probabilidad 195 Sucesos Mutuamente Excluyentes o Disjuntos 196 Definición Axiomática de la Probabilidad 196 3.2.2. Probabilidad Conjunta. Probabilidad Condicional. Independencia Probabilidad Conjunta 197 Probabilidad Condicional 197 Independencia Estadística 198 Probabilidad Total 199 Teorema de Bayes 199 Modelo Probabilístico de un Canal de Comunicaciones 200 3.3. VARIABLES ALEATORIAS. FUNCIONES DE PROBABILIDAD 3.3.1. Variables Aleatorias Discretas 203 3.3.2. Variables Aleatorias Continuas 205 3.3.3. Distribuciones Conjuntas 208 Distribución Condicional 209 3.4. FUNCIONES DE PROBABILIDAD ESPECIALES 3.4.1. Distribución Normal o Gaussiana 211 3.4.2. Distribución de Poisson 213 3.4.3. Distribución Binomial 214 3.4.4. Distribución Uniforme 214 3.5.5. Distribución de Laplace 215 3.4.6. Distribución de Cauchy 215 3.4.7. Distribución de Raleigh 216 3.4.8. Distribución de Maxwell 217 3.5. FUNCIONES DE VARIABLES ALEATORIAS Teorema Fundamental 218 3.6. PROMEDIOS ESTADÍSTICOS 3.6.1. Definición 219 3.6.2. Valor Promedio de Funciones de Variables Aleatorias 220 Valor Promedio de una Función de una Variable Aleatoria 220 Valor Promedio de una Función de Variables Aleatorias 220 Valor Promedio de Variables Aleatorias Estadísticamente Independientes 3.6.3. Momentos 221 Momentos Centrales 223 3.7. FUNCION CARACTERÍSTICA 3.8. PROCESOS ALEATORIOS O ESTOCASTICOS 3.8.1. Introducción 228 Estadísticas de Primer Orden 230 Estadísticas de Segundo Orden 230

195 195 195 195

197

203

211

217 219

221

225 228

vii

3.8.2. Estacionaridad y Ergodicidad 232 Estacionaridad en el Sentido Estricto 232 Estacionaridad en el Sentido Amplio 232 Ergodicidad 232 3.8.3. Función de Autocorrelación y Densidad Espectral de Potencia Función de Autocorrelación 234 Densidad Espectral de Potencia 235

234

3.9. PROCESOS ALEATORIOS DISCRETOS 3.9.1. Secuencias Aleatorias Discretas 236 3.9.2. Densidad Espectral y Función de Autocorrelación de Secuencias PCM 3.9.3. Secuencias Binarias Seudoaleatorias 247 Características Espectro-Temporales 247 Dispersión del Espectro (Spread Spectrum) 249 Generación de Secuencias Binarias Seudoaleatorias 251 3.10. RESUMEN PROBLEMAS DE APLICACIÓN CAPITULO IV PRINCIPIOS DE LA TRANSMISION DE INFORMACIÓN 4.1. INTRODUCCIÓN 4.2. MODELO DE UN SISTEMA DE TRANSMISION DE INFORMACION Fuente de Información 262 Transductor de Entrada 262 Transmisor 262 Canal 262 Receptor 263 Ruido 263 Ancho de Banda y Potencia de Transmisión 263 4.3. CONCEPTO Y MEDIDA DE LA INFORMACION 4.4. CARACTERIZACION DE LA INFORMACION 4.4.1. Entropía 266 4.4.2. Velocidad de Información 268 4.4.3. Codificación de Canal 269 4.4.4. Velocidad de Modulación 271 4.4.5. Redundancia Agregada 271 4.5. CARACTERIZACION DEL CANAL 4.5.1. Ancho de Banda del Canal 273 4.5.2. Capacidad del Canal 276 Definición 276 Canal sin Ruido 277 Canal con Ruido 278

236 242

253 254 261 261 261 261

264 266

273

viii

4.6. EL SISTEMA IDEAL DE TRANSMISION DE INFORMACIÓN 4.6.1.Introducción 280 4.6.2. El Receptor Ideal 280 Relación de Expansión del Ancho de Banda, 4.7. RESUMEN PROBLEMAS DE APLICACION CAPITULO V MODULACION Y TRANSMISION DE IMPULSOS 5.1. INTRODUCCIÓN 5.2. TEORIA DEL MUESTREO UNIFORME DE SEÑALES 5.2.1. Introducción 296 5.2.2. Teoremas del Muestreo Uniforme de Señales 296 Teorema No 1. Teorema del Muestreo de Shannon 296 Teorema No 2. Recuperación o Interpolación de la Señal 298 Teorema de Parseval para Señales Muestreadas 300 Teorema No 3. Muestreo de Señales Pasabanda 301 Muestreo en el Dominio de la Frecuencia 303 Teorema No 4 303 5.2.3. Muestreo Práctico de Señales Pasabajo 307 Muestreo Natural 308 Muestreo con Retención 310 5.2.4. Distorsión Producida por el Muestreo 314 Distorsión de Solapamiento (Aliasing) 315 Distorsión de Interpolación 315 Distorsión por Efecto de Apertura 316 5.3. SISTEMAS DE MODULACION ANALOGICA DE IMPULSOS 5.3.1. Introducción 317 5.3.2. Modulación de Amplitud de Impulsos (PAM) 318 Ancho de Banda y Relaciones S/N en Sistemas PAM 318 5.3.3. Modulación de la Duración de Impulsos (PDM) 321 Ancho de Banda en Sistemas PDM 324 5.3.4. Modulación por Posición de Impulsos (PPM) 325 Ancho de Banda y Relaciones S/N en PPM y PDM 328 5.3.5. Comparación entre las Ganancias de Conversión en PAM, PDM y PPM

280

281 283 283 295 295 295 296

317

332

5.4. SISTEMAS DE MODULACION DIGITAL DE IMPULSOS 334 5.4.1. Introducción 334 5.4.2. Modulación de Impulsos Codificados (PCM) 334 Cuantificación y Codificación 335 Demodulación de Señales PCM 338 Ancho de Banda y Relaciones S/N en Sistemas PCM 340 5.4.3. Modulación Diferencial de Impulsos Codificados (DPCM) 346 5.4.4. Modulación Delta Lineal (DM) 348 Ancho de Banda y Relaciones S/N en Sistemas de Modulación Delta Lineal 351

ix

5.5. TRANSMISION DE IMPULSOS EN BANDA DE BASE 5.5.1. Introducción 355 5.5.2. Técnicas de Multicanalización o Multiplicidad 356 Técnicas de Multiplicidad por División de Tiempo (TDM) 5.5.3. Interferencia Intersímbolo 358 5.5.4. Códigos de Línea 361 5.6. RECEPCION DE IMPULSOS EN BANDA DE BASE 5.6.1. Introducción 366 5.6.2. El Filtro Acoplado 367

355

356

366

5.7. TRANSMISION Y RECEPCION DE SEÑALES BINARIAS MEDIANTE PORTADORA MODULADA 5.7.1. Introducción 371 5.7.2. Demodulación y Sicronización de Señales Binarias Moduladas 373 Métodos de Demodulación 373 Sincronización de Portadora y Temporización 374 5.7.3. Modulación Binaria de Amplitud (ASK) 3676 Ancho de Banda y Relaciones S/N en Sistemas ASK 377 Rendimiento de Transmisión 378 Demodulación Coherente de Señales ASK 379 Demodulación no Coherente de Señales ASK 382 5.7.4. Modulación Binaria de Frecuencia (FSK) 384 Ancho de Banda y Relaciones S/N en Sistemas FSK 384 Principio de Ortogonalidad en Señales FSK 385 Ancho de Banda en FSK 387 Relaciones S/N en FSK 388 Demodulación Coherente de Señales FSK 388 Demodulación no Coherente de Señales FSK 389 5.7.5. Modulación Binaria de Fase (PSK) 394 Demodulación de Señales PSK 394 Modulación Binaria Diferencial de Fase (DPSK) 395 Ancho de Banda y Relaciones S/N en Sistemas PSK y DPSK 398 5.7.6. Comparación entre los Sistemas de Modulación Binaria 402 5.8. MODULACION DIGITAL M-aria MEDIANTE PORTADORA MODULADA 5.8.1. Introducción 404 5.8.2. Modulación PSK M-aria 405 5.8.3. Modulación DPSK M-aria 408 5.8.4. Modulación FSK M-aria de Banda Ancha 411 Ortogonalidad de Señales FSK M-aria 412 5.8.5. Acceso Múltiple por División de Tiempo (TDMA) 414 5.9. TRANSMISION DE SEÑALES DIGITALES MEDIANTE DISPERSION DEL ESPECTRO (SPREAD SPECTRUM) 5.9.1. Introducción 415 5.9.2. Sistemas SS de Secuencia Directa (DSSS) 416 Acceso Múltiple por División de Código (CDMA) 420 5.9.3. Dispersión del Espectro mediante Conmutación de Frecuencias (FHSS) 422 5.9.4. Consideraciones Finales 425

371

404

415

x

5.10. RESUMEN PROBLEMAS DE APLICACIÓN CAPITULO VI MODULACION Y TRANSMISION DE SEÑALES CONTINUAS 6.1. INTRODUCCIÓN 6.1.1. Esquemas de Modulación Analógica de Ondas Continuas 446

426 427 445 445 445 448

6.2. MODULACION LINEAL DE SEÑALES CONTINUAS 6.2.1. Introducción 448 6.2.2. Modulación de Amplitud en Doble Banda Lateral con Portadora Suprimida (DSB) 448 Ancho de Banda y Relaciones S/N en Modulación DSB 450 6.2.3. Modulación de Amplitud con Portadora de gran Potencia (AM) 451 Potencia y Rendimiento de Transmisión en AM 454 Moduladores y Transmisores AM 459 Ancho de Banda y Relaciones S/N en Modulación AM 461 Efecto Umbral en Sistemas AM 463 6.2.4. Modulación en Banda Lateral Unica (SSB) 465 Generación de Señales SSB 466 Demodulación de Señales SSB 467 Ancho de Banda y Relaciones S/N en Modulación SSB 468 6.2.5. Modulación en Banda Lateral Residual (VSB) 473 6.2.6. Comparación entre los Sistemas de Modulación Lineal 479 6.3. TECNICAS DE TRASLACION DE FRECUENCIAS 6.3.1. Conversión de Frecuencias 482 Frecuencias Imagen 483 El Receptor Superheterodino 483 6.3.2. Multiplicidad por División de Frecuencia (FDM) 486 Ancho de Banda de la Banda de Base Multicanal 487 Multicanalización en Sistema Telefónicos 488 Acceso Múltiple por División de Frecuencia (FDMA) 488 6.4. MODULACION ANGULAR O EXPONENCIAL DE SEÑALES CONTINUAS 6.4.1. Introducción 490 Esquemas de Modulación Angular de Señales Continuas 491 Efecto de una Componente Continua en Modulación Angular 495 6.4.2. Modulación Angular de Banda Angosta 496 6.4.3. Modulación Angular de Banda Ancha 498 Modulación Sinusoidal Compuesta 503 6.4.4. Potencia y Ancho de Banda en Modulación Angular de Banda Ancha 505 Potencia en Modulación Angular 505 Ancho de Banda en Modulación Angular 505 6.4.5. Generación y Detección de Señales Moduladas en Angulo 511 Generación Directa de Señales Moduladas en Frecuencia 511 Generación Indirecta de Señales Moduladas en Frecuencia 514 Demodulación de Señales Moduladas en Angulo 515 6.4.6. Interferencia y Relaciones S/N en Modulación Angular 521

482

490

2. Código ASCII o Alfabeto Internacional N 5 de la UIT-T B. Características Generales de los Sistemas de Modulación de Ondas Continuas 536 6.2.5.3.3.2. Criterios de Comparación 531 6.1.1. La Transformada de Fourier Discreta (DFT) A. Teoremas de la Transformada de Fourier C. Cálculo Numérico de los Coeficientes de Fourier A. Bandas de Televisión (NTSC.5.7. CATV) en UHF o B. Otros Teoremas de Interés 571 569 . La Transformada de Fourier Rápida (FFT) APENDICE B MISCELÁNEOS B. Comparación entre los Sistemas de Modulación Angular 530 6.4.5. Pares de Transformadas de Hilbert C. El Espectro Electromagnético 567 567 568 569 570 570 570 570 571 568 B. CATV) y FM en VHF B. Designación de las Bandas de Microondas 557 560 561 561 567 567 555 537 538 555 555 Cálculo Directo de la Transformada de Fourier Discreta Algoritmo FFT por Decimación en el Tiempo B. Comparación entre los Sistemas de Modulación Angular vs Modulación Lineal 532 6.4. COMPARACION ENTRE LOS SISTEMAS DE MODULACION DE SEÑALES CONTINUAS 531 6.6.2. Bandas de Televisión (NTSC.3.6.5. RESUMEN PROBLEMAS DE APLICACIÓN APENDICE A CALCULO NUMERICO DE LAS SERIES Y TRANSFORMADAS DE FOURIER A. Pares de Transformadas de Fourier C.xi Interferencia 521 Relaciones S/N en Modulación de Frecuencia 523 Efecto Umbral en Modulación de Frecuencia 526 Relaciones S/N en Modulación de Fase 529 6.4.5.1.4 Comparación entre los Sistemas de Banda Ancha 534 6.5.5. Código Baudot APENDICE C TRANSFORMADAS C.5.3.1. Intercambio “Ancho de Banda-Relación S/N” en Sistemas de Banda Ancha 532 6.

xii APENDICE D FORMULAS MATEMÁTICAS D.4.1. Integrales Definidas D. La Función Error BIBLIOGRAFÍA 574 573 573 572 572 572 575 . Identidades Trigonométricas D.2. Integrales Indefinidas D.3.

José E. Como una ayuda y colaboración para mis colegas profesores. de trabajos de investigación y de libros de texto completos. mis estimados colegas. La Biblioteca Digital de la Universidad de Los Andes es una colección de artículos. Ing. briceros@hotmail. Con esta finalidad. lo pueden obtener dirigiéndose a mí directamente por correo electrónico.. almacenamiento. he puesto a disposición de la comunidad hispanoamericana los libros Transmisión de Datos y el presente libro Principios de las Comunicaciones. Abril 2005 . de las Telecomunicaciones. administración y acceso de los datos. Esta Biblioteca Digital permitirá la difusión a nivel mundial de la inmensa cantidad de obras producidas por el personal académico docente y de investigación de la Universidad. como una contribución a la enseñanza. Profesor Titular. Briceño M. pongo también a su disposición el Problemario de Comunicaciones que contiene la solución completa de todos los problemas planteados en el libro Principios de las Comunicaciones. Espero que este texto les sea de utilidad en su diaria enseñanza. mi dirección electrónica es: briceros@hotmail. ULA. tanto teórica como práctica. esto ha permitido que la demanda de información vaya en aumento y por lo tanto se tenga que hacer uso de sistemas más sofisticados para lograr la generación. con la finalidad de contribuir a las actividades académicas y de investigación de cualquier disciplina.com Mérida. Edición Digital. Este Problemario. disponibles a través de la Web.xiii PREFACIO A LA EDICION DIGITAL Actualmente en Venezuela y en muchas partes del mundo se está observando la gran importancia que tiene la información en la vida cotidiana. Esto me permitirá el establecimiento de contactos más personales con los potenciales usuarios del libro.com. Dr.

xiv PREFACIO A LA TERCERA EDICION El presente texto es el resultado de casi cuatro décadas de enseñanza de las comunicaciones en la Escuela de Ingeniería Eléctrica de la Universidad de Los Andes (ULA) y es una reedición corregida y aumentada del texto del mismo nombre editado por el Consejo de Publicaciones de la Universidad de los Andes y utilizado en los cursos del Pregrado de Ingeniería Eléctrica. No está contemplada la deducción o explicación de los principios matemáticos básicos utilizados. a la metodología a seguir en el análisis. hasta donde es posible. en su mayor parte con respuesta. álgebra lineal. El procedimiento seguido se ha planteado principalmente desde el punto de vista determinístico. pues los dispositivos. Nuestra intención es la de proporcionar al estudiante conocimientos sólidos de los fundamentos teóricos como introducción. el tercer capítulo es una introducción a la teoría de la probabilidad. diseño y evaluación de sistemas de comunicación. . tanto analítica como intuitiva. se cubre cómodamente en dos semestres o tres trimestres. es decir. Los interesados en este Manual se pueden dirigir directamente al autor. de sistemas de comunicación prácticos. trigonometría. el material se complementa con una bibliografía suficiente y con numerosos ejemplos resueltos y problemas al final de cada capítulo. convolución y nociones de circuitos eléctricos y electrónica. a todo lo largo del texto se hace continuas referencias a señales aleatorias. y los capítulos quinto y sexto son aplicaciones en sistemas de comunicación prácticos. planificación. Los requisitos necesarios para entender el material son conocimientos elementales de la teoría de las probabilidades y variables aleatorias. y como una primera fase en el estudio de la Teoría Estadística de la Comunicación y Sistemas Avanzados de Comunicación. Para profesores de la materia hay disponible un Manual del Instructor con la solución completa de todos los problemas propuestos en el texto. A fin de facilitar el estudio no dirigido. en el Capítulo III se presenta una breve introducción a las variables y procesos aleatorios. Los dos primeros capítulos comprenden los principios básicos teóricos. y para el lector poco familiarizado con estos conceptos. El texto está dividido en cinco capítulos y cuatro apéndices. El material. Este libro ha sido concebido para servir como introducción a los principios básicos de la teoría moderna de la comunicación y a los sistemas de comunicación desde el punto de vista del análisis de sistemas. cálculo diferencial e integral. en el cuarto capítulo se presentan los principios de la transmisión de información. sin embargo. incluyendo los Apéndices. En particular. organización y presentación son consecuencia de nuestra experiencia en la enseñanza de esta materia. variables y procesos aleatorios. La selección de tópicos. circuitos y componentes pueden cambiar con la tecnología y son más del dominio de la electrónica que de las comunicaciones. El método seguido consiste en la presentación de los principios matemáticos aplicados a los modelos físicos de los sistemas con ejemplos. se hace énfasis en los principios y conceptos de los sistemas y de las aplicaciones más bien que en la instrumentación práctica. conocimientos a nivel de sexto o séptimo semestre de Ingeniería Eléctrica o Electrónica.

El concepto de información. El Capítulo V está dedicado a la modulación y transmisión de impulsos. En el Capítulo IV se presentan las ideas básicas de la Teoría de la Información más desde un punto de vista intuitivo que mediante desarrollos matemáticos avanzados. El material presentado en este capítulo es solamente una introducción. Por ejemplo. tanto en su forma discreta como en su forma continua. En el Capítulo III se desarrollan algunos modelos probabilísticos de las variables y procesos aleatorios. En los Capítulos I y II se presentan las técnicas y modelos matemáticos necesarios para la representación de señales y sistemas. El CapítuloII concluye con un breve estudio del ruido en sistemas de comunicación y su caracterización como Relación Señal/Ruido. de las siglas. Se definen. Particularmente. encontradas en cuatro textos diferentes. tanto en el dominio del tiempo como en el dominio de la frecuencia. bases de las técnicas del procesamiento digital de señales y de la transmisión de datos. En el Capítulo II se presenta un breve estudio de los sistemas lineales y su caracterización espectro-temporal. y cada traductor interpreta o traduce libremente y luego define unas siglas correspondientes a su traducción. utilizando las técnicas y conceptos estudiados en los Capítulos I y II. La Transformada de Hilbert se define en términos muy sencillos y mediante el concepto de función analítica. En este texto utilizaremos las siglas correspondientes al idioma inglés. tal vez abusivo. o más bien un repaso. práctica y diseño de sistemas comunicación digital y se presenta el concepto de dispersión del espectro (Spread Spectrum). Por último. aún para los iniciados. El lector interesado en profundizar sus conocimientos en este campo puede consultar la bibliografía especializada. de la teoría de la probabilidad y procesos aleatorios. Temperatura de Ruido. y se presenta un desarrollo unificado de la densidad espectral de potencia y de las funciones de correlación. El muestreo y la recuperación de señales se tratan tanto desde un punto de vista teórico como . para la “Modulación Diferencial de Impulsos Codificados” utilizaremos la sigla en inglés DPCM y no MDIC o MCID o MCPD o MICD. la velocidad de modulación. El capítulo comienza con una breve revisión de los conceptos elementales más importantes de la teoría de la probabilidad y a continuación se introduce el concepto de variable aleatoria. pues la mayoría de la información pertinente se encuentra en este idioma. expresarse rápidamente y sin ambigüedades acerca de un tópico dado. se estudian algunos modelos que representan secuencias aleatorias binarias de gran utilización en la teoría.xv Quizás en la Ingeniería de las Comunicaciones es donde se hace empleo muy extenso. El resultado son textos completamente ilegibles. el ancho de banda de un canal y la capacidad de Shannon se presentan haciéndose énfasis en la codificación digital de señales y en las características de los canales reales. La mayor parte de los libros de comunicaciones en idioma español son traducciones de otros idiomas. tanto en el dominio del tiempo como en el dominio de la frecuencia. El concepto de proceso aleatorio se presenta como un modelo para describir una colección de funciones del tiempo y se estudian las propiedades de los procesos estacionarios y ergódicos en relación con la función de autocorrelación y la densidad espectral de potencia. la entropía. Vamos a describir sumariamente el contenido de los capítulos que conforman el texto. asimismo. Esta “codificación” es necesaria por cuanto permite. se hace énfasis especial en los métodos clásicos para el análisis espectral de señales: las Series y la Transformada de Fourier. y no se pretende que sea un curso completo en sí mismo. así como la descripción. de la transmisión de señales a través de filtros y canales lineales. la velocidad de información. a los iniciados. los parámetros básicos de un sistema ideal de transmisión de información. Se comienza con la Teoría del Muestreo de Señales. se obtiene la descripción de señales pasabanda de banda angosta y el concepto de bandas laterales en señales moduladas. Cifra de Ruido y Medida del Ruido.

. en lo posible. tanto en el dominio de la frecuencia como en el dominio del tiempo. y se señalan algunas de sus aplicaciones en el campo de la transmisión de información. etc. FFT). En este capítulo se estudia también la transmisión de impulsos binarios mediante portadora modulada y se describen los sistemas usuales para la transmisión de datos en presencia del ruido con aplicaciones a sistemas reales. Asimismo. Queremos dejar constancia de nuestro agradecimiento a los Profesores Ermanno Pietrosemoli y Néstor Angulo Reina (+).com> Mérida. se presentan algunas de sus aplicaciones. Se estudian los diferentes sistemas de modulación analógica (PAM. José E. sin profundizar demasiado en desarrollos matemáticos innecesarios. sin olvidar la complejidad en la instrumentación práctica. En los Apéndices siguientes se da información adicional acerca del Espectro Electromagnético. de gran aplicación en el Análisis Espectral de Señales. y se desarrollan las descripciones de los diferentes sistemas particulares. Dr. < briceros@hotmail. música o video. radiodifusión y transmisión por satélites. tales como voz.xvi práctico. así como fórmulas matemáticas. Briceño M. por el apoyo que siempre me ha dado y por la paciencia que ha demostrado por el tiempo robado a su compañía y dedicado a la elaboración de este texto. se hace una breve introducción a la transmisión de señales digitales mediante dispersión del espectro (Spread Spectrum) y algunas de sus aplicaciones. mi esposa. se utilizan o citan las Recomendaciones del UIT-T (Unión Internacional de Telecomunicaciones-Sector de Telecomunicaciones) y del UIT-R (Unión Internacional de Telecomunicaciones-Sector de Radiocomunicación). que son de amplia utilización en el texto. En el Apéndice A se presenta una breve introducción al cálculo numérico de los Coeficientes y Transformada de Fourier. Agosto 2004 . especialmente la Transformada de Fourier Rápida (Fast Fourier Transform. Particular énfasis se da al comportamiento de los sistemas desde el punto de vista de la potencia (Relaciones S/N) como del ancho de banda. En el Capítulo VI se estudia la modulación y transmisión de señales continuas. y se dan algunos ejemplos de su aplicación en telefonía. y se hace énfasis de su importancia en los sistemas de modulación de impulsos. e intentando. El capítulo concluye con una comparación de todos los sistemas estudiados.. PDM y PPM) y digital (PCM. las Bandas de Frecuencia en FM. Se ha hecho un esfuerzo considerable para presentar el material de tal manera que haya una progresión coherente desde los principios y conceptos hasta las consideraciones de diseño. tablas de transformadas. tanto de impulsos como de ondas continuas. quiero dedicar este libro a Margot. Se definen los dos tipos de modulación de ondas continuas: lineal (Modulación de Amplitud) y exponencial (Modulación Angular). así como su materialización física (dispositivos y circuitos). DPCM y DM) de impulsos y se comparan sus características en el caso de transmisión y recepción en banda de base. cuyas valiosas sugerencias han contribuido a mejorar considerablemente la exactitud y claridad del texto Finalmente. En particular se estudia la Transformada de Fourier Discreta. Se desarrolla el concepto de multicanalización o multiplex. de la Cátedra de Comunicaciones de la Escuela de Ingeniería Eléctrica de la Universidad de los Andes. Ing. Donde es aplicable. VHF y UHF. interpretar en forma intuitiva los conceptos y resultados.

corriente. En 1832. que básicamente son impulsos.1(b). INTRODUCCION El propósito de un sistema de comunicación es el de transmitir información. pero encontró ciertas dificultades que más tarde afectaron a los cables submarinos aún más severamente. Como estaremos hablando continuamente de comunicación. el código Morse de telegrafía consta de puntos y rayas cuyas combinaciones se asignan a los símbolos del alfabeto (letras y números). Hay un gran número de aplicaciones en las cuales la palabra “comunicación” se emplea indistintamente. como se indica en la Fig. Las dificultades que Morse encontró. Este es un error muy frecuente aún en personas técnicamente calificadas. se recibe en el extremo alejado del circuito un impulso de corriente mucho más largo. estos puntos y rayas. Sin embargo. desde una estación remota hasta el puesto de control es comunicación. no pueden diferenciarse en el extremo receptor. Samuel Morse (1791-1877) logró la primera forma eficiente del telégrafo eléctrico. un cable coaxial. Si se transmite puntos y rayas demasiado a prisa por cable subterráneo. la palabra o palabras más apropiadas que describen el proceso son las de “transmisión de información”. En efecto. la transmisión de datos a través de un cable coaxial en un sistema de automatización industrial es también comunicación. muy disperso. cuando se transmite una señal clara y distinta. La palabra “comunicación” parece privativa del ingeniero de comunicaciones o de los medios de comunicación de masas. no son necesariamente adecuados para una comunicación eléctrica en donde las corrientes son esencialmente variables. Un sistema de comunicación comprende un transmisor. En 1843. 1. cuando se transmite un corto impulso de corriente. desde el punto de vista que nos ocupa. La transmisión de medidas de voltaje. puede suceder que se reciba una señal difícil de interpretar. y un receptor para recoger la información.1. frecuencia.1(a). . La transmisión se efectuaba mediante conductores sobre postes y no había demasiados problemas en lo que se refería a la reproducción de la señal recibida en el extremo alejado. y siendo la comunicación tan diversa y tan importante. 1. una guía de ondas o el espacio libre. una fibra óptica. siguen siendo todavía un problema importante. La transmisión de un programa de opinión por un medio de transmisión de masas también es comunicación.CAPITULO I REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES 1. Asimismo. con su cable subterráneo. Como se indica en la Fig. etc.. La teoría moderna de la comunicación tuvo su origen en el estudio de las comunicaciones eléctricas y algunas de las ideas más importantes se originaron en los primeros intentos para establecer comunicaciones rápidas a larga distancia. sería interesante conocer algo de sus orígenes históricos y de los hombres que han sobresalido en su estudio y desarrollo. un canal sobre el cual la información se transmite. El canal de transmisión puede ser un simple par de conductores. circuitos diferentes que conduzcan igualmente una corriente continua. Como todos sabemos. Morse emprendió la tarea de construir una línea con cable subterráneo.

Heaviside (1850-1925). son los más eminentes de ellos. Estas señales espurias. aparecían señales extrañas que hacían aún más difícil la interpretación. llamadas en general “ruido”. Pupin (1858-1935). los cuales habían sido aplicados al estudio de las vibraciones y que se utilizan para analizar el comportamiento de señales eléctricas que varían de modo complicado en función del tiempo. si los impulsos son lo suficientemente largos. pero la velocidad de transmisión habrá disminuido apreciablemente. Formas de Onda Transmitidas y Recibidas. sobre todo. En 1885. t Impulso Transmitido t (a) Impulso Recibido t Señal Transmitida (b) Señal Recibida Fig. Desde muy pronto se aplicaron técnicas matemáticas a la solución de estos problemas. en 1876. En la telefonía las señales varían brusca y rápidamente en un amplio margen de amplitudes. pero hace falta algo más que un conocimiento intuitivo: se necesita un análisis matemático de estos fenómenos. Estos hombres usaron los métodos matemáticos establecidos por el físico francés Joseph Fourier (1768-1830). entonces. la interpretación en el extremo receptor será completa. Este es el principal objetivo de este texto. porque provee las técnicas matemáticas con las cuales el ingeniero puede describir señales y sistemas no solamente en el dominio del tiempo sino también en el dominio de la frecuencia. calculó en forma exacta la corriente recibida en un cable submarino cuando se transmitía impulsos (puntos y rayas). esto complicó aún más la recepción de la señales. están siempre presentes en los circuitos y dificultan la interpretación de la información contenida en un mensaje.1. Los telegrafistas de aquella época tenían un conocimiento.2 I. t Pero no solamente eran las limitaciones del canal las que hacían difícil la interpretación. Un ataque más poderoso a tales problemas siguió a la invención del teléfono por Alexander Graham Bell (1847-1922). . conocido como Lord Kelvin. Es evidente. Muchos hombres ayudaron al establecimiento del tratamiento matemático de la telefonía. El Análisis de Fourier es de absoluta necesidad en el estudio de las comunicaciones eléctricas. Los primeros telegrafistas estaban conscientes de esta limitación. que hay una velocidad de transmisión límite asociada de algún modo con un circuito o canal dado. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES Naturalmente. aunque el cuerpo completo de la teoría sólo se ha logrado en las últimas décadas. 1. y en sus esfuerzos para superarla se sentaron los primeros cimientos de la teoría de la comunicación. Hombres como Poincaré (1854-1912). con una rapidez mucho mayor que en la telegrafía manual. William Thompson (1824-1907). de las limitaciones de los sistemas físicos. Baudot (18451903). Durante las tormentas. que podríamos llamar intuitivo.

éste es el enunciado del teorema de superposición. Los primeros resultados de su trabajo los publicó en 1924 en el artículo “Ciertos Factores que afectan a la Velocidad Telegráfica” [Nyquist. las señales telefónicas o de transmisión de imágenes. Un circuito eléctrico posee parámetros (R. La linealidad significa. Nyquist demostró que se podía transmitir varios mensajes simultáneamente por un mismo canal si los anchos de banda de las señales mensaje no se solapaban. que la cantidad de información que puede ser transmitida es proporcional al ancho de banda del canal multiplicado por el tiempo de transmisión. 1924]. 1928]. Hartley sugirió también un modo de aplicar tales consideraciones a las señales continuas. científicos e ingenieros para estudiar y desarrollar muchos aspectos de la ciencia y de la tecnología. Este trabajo. hace posible estudiar las propiedades de transmisión de un circuito lineal para todas las señales en términos de la atenuación y desfasaje que les son impuestas a su paso por el circuito. podemos calcular la señal de salida total simplemente sumando las señales de salida individuales. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES El Análisis de Fourier se basa en la representación de una función complicada como una suma de funciones sinusoidales. R. y juntos abarcan mucho material importante que hoy está incorporado en la Teoría de la Comunicación. y su utilidad depende de dos hechos físicos importantes: la invariancia en el tiempo y la linealidad. Hartley. Nyquist continuó sus trabajos sobre los problemas de la telegrafía y en 1928 publicó un segundo e importante artículo: “Ciertos Tópicos en la Teoría de la Transmisión Telegráfica” [Nyquist. por ejemplo. El análisis de Fourier de las señales en función de sus componentes frecuenciales. en todo momento. no tenía utilidad y podía ser añadida en el receptor. En este artículo Nyquist trata varios problemas relacionados con la telegrafía y. Vemos la importancia que en la velocidad de transmisión tiene una codificación adecuada. es el primer cimiento de la moderna teoría de la información. que. En 1928. Finalmente. aclara la relación entre la velocidad telegráfica y el número de valores o impulsos de corriente que pueden ser transmitidos y correctamente interpretados. de los Estados Unidos. Hartley atacó el problema de la codificación de los símbolos primarios (por ejemplo. que si conocemos las señales de salida correspondientes a cualquier número de entradas enviadas separadamente. una componente continua de amplitud constante. en nuestra opinión. consumiendo parte de la potencia transmitida. publicó el artículo “Transmisión de Información” [Hartley. L y C) que no varían en el tiempo (por lo menos a corto plazo). y proporciona a los ingenieros una asombrosa variedad de resultados que no pueden ser obtenidos de otro modo. los gobiernos beligerantes establecieron equipos de matemáticos. de la American Telephone and Telegraph Company. el inventor del conocido “Oscilador Hartley”. las . las letras del alfabeto o caracteres alfanuméricos) en términos de símbolos secundarios (por ejemplo. en particular. Hartley estableció. Harry Nyquist. de acuerdo con Nyquist. empezó a atacar los problemas de la telegrafía con métodos matemáticos más poderosos y secundado por una gran intuición y claridad de conceptos. Acicateados por las obligaciones de la defensa. la ecuación diferencial que representa al circuito es una ecuación cuyos coeficientes (los parámetros del circuito) son constantes. puntos o rayas del código Morse o secuencias de impulsos) y observó que las longitudes de los símbolos secundarios deberían depender de la frecuencia de ocurrencia de los símbolos primarios si se desea transmitir los mensajes con más rapidez. sencillamente. Demostró que una señal contenía. Después de los trabajos de Nyquist y Hartley no se publicó ningún trabajo de importancia hasta el advenimiento de la Segunda Guerra Mundial. en términos más formales. 1928]. Este segundo artículo fue más cuantitativo y exacto que el primero. Observó. asimismo. que la velocidad de transmisión era proporcional al ancho de banda del circuito y que podía aumentarse mediante una codificacion apropiada de la señal. El radar. En 1917. lo mismo que si hubiera sido transmitida por el circuito.V.3 I.

1984] de la Bibliografía. En este capítulo se desarrollarán las técnicas matemáticas para la descripción de señales en el dominio de la frecuencia y de la correspondencia Tiempo ⇔ Frecuencia. por Norbert Wiener (1894-1964). 1948]. en Rusia. que no es posible transmitir sin error si los códigos utilizados no tienen redundancia. que es otro de los pilares de la moderna Teoría de la Comunicación. Estas técnicas no son sino modelos matemáticos. Después de la guerra otro matemático. Aunque se puede elegir diferentes modelos para un problema particular. descripciones idealizadas de señales reales. fueron los frutos de este esfuerzo combinado. Los elementos funcionales de un sistema son los circuitos eléctricos. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES microondas. se interesó en los problemas de las comunicaciones en presencia de ruido y en 1948 publicó en dos partes su artículo “Una Teoría Matemática de la Comunicación” [Shannon. En el análisis y estudio de los sistemas de comunicación a menudo es necesario y conveniente describir o representar las señales y sistemas en el domino de la frecuencia. el lector interesado encontrará un nutrido material sobre la historia de las telecomunicaciones en los últimos 100 años.4 I. El problema no es. el problema de la codificación y la redundancia. asimismo. la selección del modelo más apropiado estará basada en el conocimiento más o menos completo de los fenómenos físicos a modelar y en las limitaciones de los diferentes modelos. En el problema tratado por Shannon se permite elegir cómo representar el mensaje por medio de una señal eléctrica. En la conjunción entre la Electrónica. pero tanto los circuitos eléctricos (sistemas) como las señales se pueden representar en el “dominio del tiempo” si la variable independiente es el tiempo (t). es decir. pues. las Comunicaciones por Satélite y las Comunicaciones Opticas son los dominios en los cuales el crecimiento ha sido y seguirá siendo espectacular. en general. Problemas como la detección y estimación de señales en presencia de ruido fueron resueltos por A. cuántos valores de la corriente se pueden permitir y cuántos se transmitirían por segundo. Shannon demostró. se representarán con la notación x(t). La Teoría de la Comunicación trata de los modelos y técnicas matemáticas que se pueden utilizar en el estudio y análisis de los sistemas de comunicación. Los sistemas de comunicación consisten en un conjunto de bloques funcionales interconectados que transfieren información entre dos puntos mediante una serie secuencial de operaciones o procesamiento de señales. La representación espectro-temporal de señales y sistemas es posible mediante el Análisis Espectral de Fourier: Series y Transformadas. En las últimas décadas el desarrollo de las telecomunicaciones ha sido extraordinario pero más que todo desde el punto de vista de la tecnología: fueron las técnicas de integración de dispositivos de estado sólido las que iniciaron esta nueva era de las comunicaciones. cómo tratar una señal contaminada con ruido para obtener una mejor estimación de ella. Claude E. En los sistemas de comunicación las señales son magnitudes que varían en el tiempo. .N. hábilmente dirigido y con ilimitados medios económicos. lo cual conlleva a los conceptos de “espectro” y de “ancho de banda”. En la Referencia [IEEE. o en el “dominio de la frecuencia” si la variable independiente es la frecuencia (f). El Procesamiento y Transmisión de Datos. sino qué clase de señal enviar para transportar mejor los mensajes de un tipo dado sobre un canal particular o circuito ruidoso. las Telecomunicaciones y la Informática estará la base de este desarrollo. y en Estados Unidos. Shannon (19162001). tales como voltajes y corrientes que. Kolmogoroff (1903-1987). la televisión y muchos desarrollos más. es decir. independientemente.

REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES 1. una señal sinusoidal de la forma x(t) = Acos(2πfct) para todo t. Las señales determinísticas tienen propiedades bien conocidas además de que son más fáciles de generar y utilizar. Como veremos en Capítulo IV.2. hay que considerar siempre una u otra representación. Sin embargo. Esto es verdad desde un punto de vista muy amplio y. En términos más formales. una señal no periódica es aquella para la cual no existe un T finito que satisfaga la expresión (1. diseño. es decir. Al intervalo de un período se le denomina también un “ciclo” de la señal. x(t ) = x(t + T) para todo t (1. Una señal no periódica o aperiódica se puede considerar como el límite de una señal periódica cuanto el período T tiende a infinito. puesto que las señales determinísticas pueden ser totalmente conocidas de antemano.5 I. podemos argumentar que una señal aparentemente periódica deje de serlo después de un tiempo lo suficientemente grande. Por ejemplo. una señal aleatoria es aquella en la cual existe un mayor o menor grado de incertidumbre en cuanto a un valor instantáneo futuro. El punto a resaltar es que el valor exacto de una señal determinística se puede predecir o calcular por adelantado. donde T es el período de repetición de la señal.1) T es una constante positiva y es el valor más pequeño que satisface la expresión (1. . por supuesto. Aunque el valor exacto en un instante dado no se conoce. aunque la palabra “ciclo” se utiliza principalmente en señales sinusoidales. todas las señales procesadas en un sistema de comunicación son de naturaleza aleatoria. Pudiera pensarse que dentro de un intervalo finito una señal no periódica puede repetirse después de un período bastante grande y ser en realidad una señal periódica. 1. En el Capítulo III se presentan algunos fundamentos de las variables y procesos aleatorios. En su definición más sencilla.1).2. Señales Determinísticas y Aleatorias En los sistemas de comunicación se encuentran dos clases amplias de señales. Son también señales determinísticas aquellas que no poseen una ecuación que las describa pero que están representadas mediante gráficos. MODELOS DE LAS SEÑALES 1.2. por lo menos en lo que se refiere al destinatario. desde el punto de vista del análisis. es una señal determinística. Las señales determinísticas se pueden representar mediante expresiones matemáticas explícitas del tiempo. conocidas como “señales determinísticas” y “señales aleatorias”.1. muchas de las señales aleatorias que se encuentran en los sistemas de comunicación tienen ciertas características en su comportamiento que permiten describirlas en términos estadísticos o probabilísticos. Igualmente.2. no solamente es deseable sino también necesario utilizar señales determinísticas para analizar el sistema y predecir su comportamiento. puede decirse que solamente las señales aleatorias proporcionan verdaderamente información. Desde un punto de vista práctico estos argumentos no producen ninguna dificultad. Señales Periódicas y no Periódicas Una señal periódica es aquella que se repite en una forma predecible cada T segundos. pero en los intervalos usuales de trabajo y para efectos de análisis. prueba y operación de sistemas.1).

se mide en vatios (W). REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES 1. P= 1 T ∫ T/ 2 − T/ 2 x 2 (t )dt si x(t) es real (1. una definición más general de la energía es E = lim donde x(t ) 2 T →∞ − T / 2 ∫ T/ 2 x(t ) dt 2 (1. que es la más utilizada en la caracterización de señales reales de aplicación práctica. E es la energía normalizada para una resistencia de 1 Ohm. sin embargo. daremos preferencia a la notación < x 2 (t ) > para representar la potencia promedio normalizada de una señal x(t). asimismo. Como x(t) puede. Para simplificar la notación. es decir.2) a (1. o a la potencia si la señal es de potencia. T/2) es P= E T = lim T →∞ ∫ T 1 T/ 2 −T/ 2 x( t ) dt 2 (1. que corresponderá a la energía si la señal es de energía. y se expresa en joules. Este es un operador lineal.5) Si la señal es periódica. en general.3.6 I. en este texto utilizaremos continuamente el llamado “operador 1 T/ 2 [⋅⋅] dt o la expresión promedio tiempo” definido mediante la expresión general < [⋅⋅] >= lim T →∞ T − T / 2 1 T/ 2 particular < [⋅⋅] >= [⋅⋅] dt . según el caso. la potencia promedio de la señal en el intervalo (-T/2. Señales de Energía y de Potencia La energía total de una señal x(t) en el dominio del tiempo se define en la forma E = lim T →∞ − T / 2 ∫ T/ 2 x 2 (t )dt (1. Si x(t) es real e independiente de T.3) = x (t )x * (t ) . por lo tanto. la energía se puede definir en la forma siguiente. E= ∫ ∞ −∞ x 2 (t )dt (1.2. < x ( t ) > representará el valor promedio (componente continua) de una señal x(t). T − T/ 2 ∫ ∫ Algunas veces se define también la denominada “intensidad normalizada de una señal” como la potencia o la energía normalizadas.2) La señal x(t) puede ser un voltaje o una corriente. ser compleja.6) Esta es la potencia normalizada para una resistencia de 1 ohm.6) se puede establecer lo siguiente: (a) Se dice que una señal x(t) es de energía si y sólo si . no es necesario tomar el límite y la integración se efectúa dentro de un período T. De las definiciones (1. En este texto representaremos la intensidad normalizada de una señal con la notación < x 2 (t ) > .4) La potencia promedio de una señal x(t) en el dominio del tiempo se define como la energía por unidad de tiempo.

1. 0 Fig. a ♣ x(t) A Determinar si la señal x(t) de la Fig. aunque tales señales sean no periódicas o tengan un comportamiento de carácter aleatorio. En efecto.4). no es obvio si es o nó de energía. donde A y a son constantes y a > 0. todas las señales periódicas son necesariamente señales de potencia.1. es de potencia o de energía. A x(t) 0 t Fig. por lo tanto no es una señal de energía. ♣ Ejemplo 1. 1. no todas las señales de potencia son periódicas. En este tipo de señales hay que utilizar la ecuación (1. La señal no es periódica pero puede ser de potencia.7 I.2 A2 < ∞ . REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES 0< ∫ ∞ −∞ x 2 (t )dt < ∞ lim (1. En efecto. Vamos a verificar esto aplicando la expresión (1. 1.2. Fig.2 ∫ ∞ −∞ A exp(−2a| t|)dt = 2A 2 2 ∫ ∞ 0 A2 exp(−2at )dt = a joules Se verifica que E = ♣ Ejemplo 1. Se trata de determinar si la señal x(t ) = A exp(− a| t|) . por lo tanto x(t ) = A exp(− a| t | ) es una señal de energía. Sin embargo.5) para su definición. Evidentemente. de potencia o ninguna de las dos.3 es de energía.5) a la señal de la Fig. Las señales de potencia finita tienen una energía infinita. aplicando (1. pero como la curva se extiende hasta el infinito. 1. hay muchas señales que tienen una potencia límite dada cuando T → ∞.3. (b) Se dice que x(t) es una señal de potencia si y sólo si 0 < lim T →∞ ∫ T 1 T/ 2 −T/ 2 x( t ) dt < ∞ 2 (1.3 t T →∞ lim 1 T ∫ T/ 2 A 2 dt = A2 2 W 0 .8) lo cual implica que la energía de una señal de potencia es infinita (E = ∞). Por inspección. El área bajo la señal es infinita.7) lo cual implica que T →∞ ∫ T 1 T/ 2 −T/2 x( t ) dt = 0 2 Las señales de energía finita tienen potencia cero. 1. x(t) no es periódica.

3.8 I. Potencia de una Señal Sinusoidal Se verifica entonces que < x 2 (t ) >= Sea la señal sinusoidal x(t ) = A cos(2πf c t + φ ) . 1. Esto es válido para cualquiera señal. donde A.6).4(b).4(a). el período T de x(t) es T=1/fc. representada por ⎧1− | t | para |t| ≤ 1 Triang(t) = Λ (t) = ⎨ para |t|>1 ⎩0 A x(t) 1 Λ(t ) −τ 0 τ t -1 0 1 t (a) Señal Fig. La potencia promedio de una señal sinusoidal será entonces 2 A2 ⎡ A ⎤ < x (t ) >= =⎢ ⎥ 2 ⎣ 2⎦ 2 (1.9) donde A / 2 es el “valor eficaz” de la señal sinusoidal. Fig. por lo que se ha definido la “función triángulo”. 1. 1. 2 Podemos decir también que una señal continua de amplitud A para todo t es una señal de potencia cuya potencia es A2. De (1. Por inspección. Energía de una Señal Triangular ⎧ | t| ⎪A (1 − ) para | t| ≤ τ τ Sea la señal triangular mostrada en la Fig. x( t ) = AΛ ( ) .4 (b) Función Triángulo t En consecuencia. donde x( t ) = ⎨ ⎪0 para | t| > τ ⎩ Esta forma de señal es de uso muy frecuente. La energía de x(t) será: E = 2 τ ∫A τ 0 2 t 2 (1 − ) 2 dt = A 2 τ joules τ 3 ♣ . sea o nó sinusoidal. ♣ ♣ Ejemplo 1. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES A2 < ∞. resultado ya obtenido en los cursos de Circuitos Eléctricos. por lo tanto. Nótese que la información de fase (valor de φ) no interviene para nada en el cálculo de la potencia.4. fc A 2 ⎧ ⎨ < x (t ) >= f c A cos (2 πf c t + φ )dt = 2 ⎩ −1/ 2 fc 2 ∫ 1/ 2 fc 2 2 ∫ 1/ 2 fc −1/ 2 fc dt + ∫ ⎫ cos(4 πf c t + φ )dt ⎬ −1/ 2 f c ⎭ 1/ 2 f c La segunda integral de la derecha es cero pues la integración cubre dos períodos completos de la función por integrar. fc y φ son constantes reales. ♣ ♣ Ejemplo 1. x(t) es una señal de potencia.

En segundo lugar. Fig.5. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES ♣ Ejemplo 1. 1. generalmente se las denomina “señales o funciones singulares”.2. la señal signo y el impulso unitario Delta Dirac. el escalón unitario. estas señales pueden simularse en el laboratorio con mucha facilidad y aproximación.5(a). Potencia Promedio de una Señal Periódica Rectangular Sea la señal periódica rectangular mostrada en la Fig. de modo que puede determinarse experimentalmente si un sistema se comporta en la forma predicha por un análisis matemático previo. muchas señales complicadas pueden representarse como combinaciones de estas señales elementales. T ♣ Hay una clase de señales elementales cuyos miembros tienen formas matemáticas muy simples pero que son discontinuas o tienen derivadas discontinuas. 1. Además. Aunque este tipo de señales no son sino idealizaciones matemáticas y no ocurren naturalmente en un sistema físico.4. no por eso menos importante.9 I. Señales Singulares τ se la denomina “ciclo o relación de trabajo”. 1. su forma matemática más simple permite efectuar cuantitativamente el análisis de un sistema con mucha más facilidad que si se emplearan señales más complicadas. Las señales singulares más comunes en el análisis de señales y sistemas son la rampa. .5(b). ellas sirven para varios propósitos de gran utilidad en el análisis de señales y sistemas. Por último. x(t) A oooo oooo t -1/2 0 1/2 (b) Función Rectángulo Π(t ) 1 t −τ / 2 0 τ / 2 -T T (a) Señal Periódica Rectangular Fig. Esta forma de señal también es de uso muy frecuente.5. Debido a que estas señales no tienen derivadas finitas de ningún orden. En primer lugar. sirven como aproximación de señales que verdaderamente ocurren en los sistemas cuando se efectúan operaciones de tipo conmutativo. habiéndose definido la “función rectángulo”. representada por ⎧ 1 ⎪1 para |t| ≤ 2 Re ct (t ) = Π(t ) = ⎨ ⎪ 0 para |t|> 1 ⎩ 2 Por consiguiente. τ A 2 dt = τ 2 A T La potencia promedio de la señal periódica ∫ τ/ 2 0 En la literatura técnica a la relación R T = 1. rectangular x(t) será < x 2 (t ) >= 2 T t x(t ) = AΠ( ) en T .

En la Fig. En la Fig. es decir. excepto t = 0. Si se desea que la pendiente sea distinta de la unidad. 1. 1.7.11) Fig. r (t ) = u ( t ' ) dt ' −∞ ∫ t (1. en cuyo punto no existe una derivada. por lo tanto. Formas diferentes de la Rampa.7 se representa diferentes formas de la rampa. 1. El Escalón Unitario u(t) 1 t 0 El escalón unitario. 1. Una forma matemática para cambiar la pendiente es mediante un cambio de escala en el eje t. . su valor debe ser la unidad siempre que su argumento sea la unidad. u ( at ) = u ( t ). Para un cambio de escala en el eje t. u(t). El Escalón Unitario. d u(t ) = r (t ) (1. 1.8 y se define en la forma ⎧1 para 0 ≤ t u(t ) = ⎨ ⎩ 0 para t < 0 (1.8. br(t) y r(bt) representan rampas cuyas pendientes son iguales a b. En efecto. por lo tanto. como la pendiente de r(t) es la unidad.10) Fig. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES La Rampa Unitaria r(t) 1 0 1 t La rampa unitaria. pero u(at .12) Esta expresión es válida para todo t. 1. 1. se muestra en la Fig.6 y se define en la forma siguiente: ⎧t r (t ) = ⎨ ⎩0 para para 0≤t t<0 (1.9 se muestran diferentes representaciones del escalón unitario. bastará multiplicar por una constante.10 I.13) dt De las definiciones de rampa y escalón unitario. Ar(t-a) A 0 a 1+a t -a 0 (b/a)r(-t) b t r(-t+1) 1 t 0 1 Fig. se puede decir que r (t ) = t u(t) . La Rampa Unitaria.6. es decir. r(t).t o ) = u ( t − to a ) Puede observarse que la rampa es la integral del escalón unitario. br(t) es una rampa de pendiente b. se muestra en la Fig.

14) 1 0 sgn(t) t -1 Fig. 1. Usando combinaciones de las funciones rampa. 1.10. escalón y signo. 1. es aquella que cambia de signo cuando su argumento pasa por cero. Formas del Escalón Unitario.t o ) = sgn(t − La función signo es una función impar de t. es posible representar otros tipos de señal. La Función Signo La función signo. se representa en la Fig.15) En la Fig. El lector puede verificar que las señales x(t) y z(t) de la Fig.10 y la vamos a definir en la forma siguiente: ⎧1 para 0 ≤ t sgn(t ) = ⎨ ⎩ -1 para t < 0 (1. . pero sgn(at . Función Signo Para un cambio de escala en el eje t.12 se pueden representar en la forma x ( t ) = Π( t 1 ) = u(t + τ ) − u(t − τ ) = u(t + τ )u(− t + τ ) = [sgn(t + τ ) − sgn(t − τ )] 2τ 2 z (t ) = − r (t + 1) + 2r (t ) − r (t − 2) − u (t − 3) . REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES Au (t − t o ) A 0 u(− t + t o ) 1 t 0 −t o 0 t -A − Au(t + t o ) t to to Fig. to ).11. Formas de la Función Signo. − A sgn(t + t o ) = A sgn(− t − t o ) −t o 0 t sgn( t − t o ) 1 0 to -1 t Fig.11 se muestran algunas representaciones de la función signo.u(-t) (1. sgn(t). 1.9. 1.11 I. a El escalón unitario y la función signo se relacionan mediante las siguientes expresiones: u( t ) = 1 [1 + sgn( t )] 2 o sgn(t) = u(t) . sgn(at ) = sgn(t ).1.

Señales Compuestas.17). 1.16) donde x(t) es una función cualquiera continua en t = 0. se verifica que 1 δ( t ) t 0 ∫ ∞ −∞ x(t )δ(t − t o )dt = x (t o ) Fig. Pertenece a una clase especial de funciones conocida como “funciones generalizadas” o “distribuciones”.12 I. Otras propiedades del impulso unitario son: (a) δ(t ) = 0 para t≠0 t ≠t o (b) δ(t − t o ) = 0 para (c) ∫ t2 t1 δ(t − t o )dt = 1 para t 1 < t o < t 2 Esta última expresión establece que el “área” de un impulso unitario es la unidad. El Impulso Unitario Delta Dirac (1. expresión (1. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES x(t) 1 z(t) t -1 0 1 2 -1 3 1 t −τ 0 τ Fig. el impulso unitario δ(t) no tiene ningún significado matemático o físico a menos que aparezca bajo el signo de integración. Por definición. El impulso unitario Delta Dirac se representa en la forma mostrada en la Fig.12.13. Mediante un cambio de variables en la definición (1. 1. El impulso unitario Delta Dirac se define entonces mediante la integral ∫ ∞ −∞ x(t)δ (t)dt = x(t)|t =0 = x( 0) (1. no es una función en el sentido matemático usual.to) tiene área unitaria concentrada en el punto discreto to y área cero en cualquiera otra parte. El Impulso Unitario Delta Dirac El Impulso Unitario Delta Dirac. 1. representado en la forma δ(t). En efecto. Aún así es conveniente establecer algunas relaciones sin integrales como simplificaciones que pueden hacerse antes de la integración.13. Se pueden interpretar diciendo que δ(t . es de mucha aplicación en el análisis de señales y sistemas y la estaremos utilizando continuamente. y se define mediante un proceso o regla de asignación en vez de una ecuación.16). ya que . Quiere decir también que los coeficientes constantes que afecten el impulso unitario representan el “área” del mismo. si x(t) es continua en t = to. Estas propiedades se han utilizado también para definir el impulso unitario.17) La propiedad de muestreo del impulso unitario. se puede demostrar la conocida “Propiedad de Muestreo o Cernido” del impulso unitario Delta Dirac.

estas expresiones establecen también que la derivada en una discontinuidad es un impulso unitario de área igual al valor absoluto de la discontinuidad. y de la Fig. sin demostrarlas. por otro lado. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES ellas son consistentes con lo que sucede después de la integración. la derivada de la función signo es d dt sgn(t ) = 2δ(t ) . Por ejemplo. Se puede relacionar δ( t ) con el escalón unitario u(t). En efecto.20b) no son definiciones de δ(t) sino una consecuencia de la regla de asignación (1.16).21b) (1.20a) y (1. Cambio de escala en el eje t: pero δ( at − t o ) = 1 δ( t − (1.20a) (1. Por ejemplo: t Π( ) = δ( t ) τ τ→0 τ lim ε → 0 πt 1 (1.13 I. ∫ δ(t ' )dt ' = u(t ) t −∞ (1. 1.16).11. 4. Las expresiones (1. d dt sgn( − t − t o ) = −2δ( t + t o ) Esta propiedad es particularmente útil en la diferenciación de señales discretas. Pero. Aunque el impulso unitario no existe físicamente. algunas de esas relaciones.19) y diferenciando ambos miembros de (2. hay numerosas funciones de tipo convencional que tienen las propiedades del impulso unitario δ(t) cuando algunos de sus parámetros tiende a cero o a infinito. x( t )δ ( t ) = x( 0)δ ( t ). define la “propiedad de simetría par” del impulso unitario: δ( t ) = δ( − t ) 3. δ(at) es un impulso unitario de área 1/|a|.19) δ( t ) = d dt u(t ) δ( t − t o ) = d dt u(t − t o ) (1.21a) (1. x( t )δ ( t − t o ) = x( t o )δ ( t − t o ) 2. 1.20b) y en general. A continuación damos.18) δ( at ) = to 1 | a| δ( t ) para a ≠ 0 ) a | a| En relación con la variable independiente t. el signo dependerá de si la discontinuidad es montante o bajante. de (1.21c) lim ε sen( πt ε ) = δ( t ) 1 t lim exp[ −π ( ) 2 ] = δ(t ) ε ε→0 ε . El caso especial cuando a = −1.

Esta derivada. comúnmente denominada “doblete”.21d) 5. t2). Como se verá más adelante. en efecto. se puede utilizar para determinar la salida del sistema para cualquiera otra señal de entrada. Si el doblete se designa como δ‘(t). se puede tratar δ(t) como una función ordinaria siempre que todas las conclusiones sean basadas en la regla de asignación (1.22b) donde el asterisco indica “conjugado de”. las condiciones que debe satisfacer son: (a) δ' ( t − t o ) = 0 (b) (c) t≠0 ∫ t2 t1 ∞ δ' ( t − t o ) dt = 0 t1 < t o < t 2 ∫ −∞ x ( t )δ' ( t − t o )dt = − x' (t o ). Señales Ortogonales Se dice que dos señales x1(t) y x2(t) son ortogonales en un intervalo (t1. se puede definir axiomáticamente especificando un conjunto de condiciones las cuales debe satisfacer. él es de gran aplicación en el análisis de sistemas lineales.23) Un grupo de funciones ortogonales que son de gran importancia en el análisis de señales son las funciones sinusoidales de la forma cos(2πnf o t ) y sen (2πmf o t ) en el intervalo .14 I. ∞ ∫ −∞ x ( t ) y( t )dt = 0 donde x ( t ) ≠ y( t ) (1. La ortogonalidad se puede extender a todo el eje t. porque permite relacionar la entrada con la salida. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES B→∞ − B lim ∫ B exp(± j2πtf ) df = ∫ ∞ −∞ exp(± j2πtf ) df = δ( t ) (1. Esto lo veremos detalladamente más adelante.2. para dos señales x(t) e y(t). además del empleo del impulso unitario en la representación de señales. si ellas verifican la integral (llamada “producto interno”) ∫ t2 t1 x1 (t)x 2 (t)dt = 0 para x1 ( t ) ≠ x 2 ( t ) (1.5. aunque en un sentido estricto la derivada no existe. cuando la entrada es un impulso unitario.22a) Si las señales x1(t) y x2(t) son complejas. Derivada del Impulso Unitario Es posible definir una función que se puede interpretar como la “derivada” de un impulso. ∫ ∞ -∞ x(t)δ[n] ( t − t o ) dt = (−1) n x [ n ] (t o ) (d) x ( t )δ' (t − t o ) = − x ' ( t o )δ(t − t o ) + x ( t o )δ' ( t − t o ) En general. Esto proviene del hecho de que la respuesta de un sistema lineal. 1. la respuesta de un sistema a un impulso unitario se puede considerar como otro modelo matemático del sistema.16). entonces la condición de ortogonalidad es ∫ t2 t1 ∗ x1 ( t ) x ∗ ( t )dt = ∫ x1 ( t ) x 2 ( t )dt = 0 2 t1 t2 (1. En consecuencia.

fo Estas señales las encontraremos más adelante al estudiar las Series de Fourier. con ⎣ ⎦ m y n eneros distintos de cero.14(a). que se puede escribir en la forma x ( t ) = Re{A exp[ j(ω o t + φ )]} = Re{A exp( jφ ) exp( jω o t )} donde ω o = 2πf o (1. para f = f o . como se muestra en la Fig. Los tres parámetros necesarios para especificar un fasor son entonces la amplitud A. 1. denominado el “espectro” de la señal.3. puede decirse que ella está formada por un conjunto de componentes en el dominio de la frecuencia. Amplitud A Imag A fo 0 (ω o t + φ ) 0 A cos(ω o t + φ ) (a) Fasor Real Fase fo φ f f fo 0 (b) Espectro de Líneas Unilateral Fig. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES ⎡ T T⎤ ⎢− 2 . El fasor de longitud A gira en el sentido contrario a las agujas del reloj a una velocidad de fo revoluciones por segundo. En consecuencia. 1. generalmente señales sinusoidales.3. Pero en el análisis de sistemas de comunicación es imperativo describir las señales en el dominio de la frecuencia donde la variable independiente es f.14. ωo = 2πf o es la velocidad angular en radianes por segundo. se puede asociar tanto la amplitud A como la fase φ con este valor particular de f en la forma mostrada en la Fig. consideremos la señal sinusoidal x ( t ) = A cos(2πf o t + φ ) . con una amplitud. fase y frecuencia dadas. 2 ⎥ . Este espectro consta de dos gráficos: uno de Amplitud vs .1. la fase φ y la frecuencia rotacional o cíclica fo. El ángulo φ es la fase o desfase con respecto al eje real o con respecto a t = 0 en el eje t. por ejemplo. Asimismo. 1. En el dominio de la frecuencia el fasor está definido para un valor particular de la frecuencia.14(b). Esto quiere decir que una señal temporal se puede considerar como constituida por un número de componentes de frecuencia. Por consiguiente.24) Esta es la “representación fasorial” porque el término dentro de las llaves se puede ver como un vector rotatorio (fasor) en un plano complejo cuyos ejes son las partes real e imaginaria. EL DOMINIO DE LA FRECUENCIA Las señales eléctricas utilizadas en los sistemas de comunicación están representadas generalmente en el dominio del tiempo donde la variable independiente es t. aunque una señal existe físicamente en el dominio del tiempo. que se denomina “espectro de líneas”. Fasor y Espectro de Líneas Unilateral. 1.15 I. Representación Espectral Para introducir la noción de dominio de la frecuencia o espectro. 1. m ≠ n y T= 1 .

que veremos en el Capítulo VI.15(b). 1. (b) Los ángulos de fase se expresarán en radianes o en grados. tiene muchas ventajas respecto al espectro unilateral y por ello lo utilizaremos exclusivamente.14(b) está definido solamente para frecuencias positivas y por ello se le llama “espectro de líneas unilateral”. mientras que la Fase tiene simetría impar. Fig. Ima fo A/2 A/2 Amplitud A/2 f (ω o t + φ ) Real 0 −f o −f o 0 Fase fo φ f A cos(ω o t + φ ) − (ω o t + φ ) A/2 0 −φ fo fo (a) Fasores Conjugados Fig. A partir de la ecuación de Euler. 1. puesto que incluye frecuencias negativas. La representación correspondiente se muestra en la Fig.15.16 I. como se verá al avanzar en el texto. Las señales seno deberán convertirse en cosenos mediante la identidad sen(ωt ) = cos(ωt − π / 2 ) . respecto al eje real positivo del diagrama fasorial. Nótese que la Amplitud tiene simetría par.15(a): dos fasores de amplitud A/2 que giran en sentidos opuestos a velocidades de fo revoluciones por segundo. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES Frecuencia y el otro de Fase vs Frecuencia. El espectro bilateral. se muestra en la Fig.25) que es la representación en “fasores conjugados” puesto que los dos términos de x(t) son conjugados entre sí. Pero esta representación se puede extender a todo el eje f de la manera siguiente. se puede escribir 2 exp( jφ ) exp( jω o t ) + A 2 exp(− jφ ) exp(− jω o t ) (1. cos(θ) = x ( t ) = A cos(ω o t + φ ) = A 2 1 [exp( jθ) + exp( − jθ)] . Esto es consecuencia directa de la representación en fasores conjugados. (b) Espectro de Líneas Bilateral El correspondiente espectro de líneas bilateral. 1. es decir. 1.15(a). . según la aplicación. 1. siendo ambos necesarios para representar sin ambigüedades en el dominio de la frecuencia un fasor definido en el dominio del tiempo. En este texto la tendencia será la de expresar los ángulos siempre en radianes. El espectro de líneas de la Fig. excepto en el caso particular al analizar los sistemas de modulación angular. En la representación espectral de señales se utilizarán algunas convenciones y notación que se pueden resumir en lo siguiente: (a) Los ángulos de fase se medirán respecto al coseno.

1. El espectro de amplitudes muestra el “contenido espectral o frecuencial” de una señal. éstos deberán ser absorbidos en la fase. cuando aparezcan signos negativos. es más importante que el “espectro de fase”. en el dominio de la frecuencia un filtro se puede representar mediante un gráfico Ganancia vs Frecuencia. entonces x(t) = A. Por ejemplo. que es un dispositivo que deja pasar solamente aquellas señales cuyo contenido espectral está dentro de su banda de paso. como se muestra en la Fig. Esta es una descripción en el dominio de la frecuencia y por lo tanto se puede asociar con la noción de espectro. En general. formando una línea con el doble de amplitud. − A cos(ωt ) = A cos(ωt ± π ). que en lo sucesivo llamaremos “espectro de amplitudes”. las líneas del espectro se acercan al origen. (d) En general. En efecto. Filtro Amplitud A4 Ganancia k f -B 0 B (a) Filtro Pasabajo −f 4 −f 3 −f 2 −f1 0 f1 f 2 f 3 (b) Espectro a la entrada del filtro kA 1 Amplitud kA 1 kA kA 2 2 2 kA o 2 2 2 −f 2 −f1 0 f1 f 2 f (c) Espectro a la salida del filtro Fig.16 2 A3 A2 2 2 A1 2 A1 2 Ao A2 2 A3 2 A4 2 f4 f . es indiferente que se tome el signo (+) o el signo (− ) . Una componente continua puede describirse también en el dominio de la frecuencia. una componente continua ±A se representa en el dominio de la frecuencia como una línea de amplitud ±A a la frecuencia f = 0 (en el origen). La “fase” de una componente continua será entonces. sino también en qué proporción. El espectro de amplitudes no solamente muestra qué componentes de frecuencia están presentes. 1.17 I.16(a) para un filtro pasabajo de ganancia (o atenuación) k en la gama de frecuencias | f | ≤ B . La cantidad B es la llamada “frecuencia de corte” o “ancho de banda” de este filtro ideal. El lector está familiarizado con el concepto de filtro. En efecto. aunque podemos decir que el gráfico Amplitud vs Frecuencia. mientras que la fase será una función impar de f. Esto significa que cuando f → 0. el módulo del espectro de una señal x(t) será una función par y positiva de f. en este aspecto se puede considerar como una función de distribución en el dominio de la frecuencia. Esto lo justificaremos posteriormente. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES (c) La amplitud de las componentes de frecuencia o de las líneas espectrales se considerará siempre como una magnitud positiva. En consecuencia. sea x ( t ) = A cos(ω o t ) . pues el coseno es una función par. cero. por definición. si f o = 0. los gráficos de Amplitud y Fase son necesarios para describir completamente una señal sinusoidal.

16(b). Por ejemplo.16(a) se aplica una combinación lineal de señales sinusoidales de la forma x ( t ) = A o + A 1 cos(ω1 t ) + A 2 cos(ω 2 t ) + A 3 cos(ω 3 t ) + A 4 cos(ω 4 t ) . por ejemplo? La solución a este problema no es tan evidente y se puede decir que es muy difícil de obtener con los métodos usuales en el dominio del tiempo. De (1.5 es una señal de este tipo. Este es el objetivo del Análisis de Fourier. son mucho más complicadas que las simples señales sinusoidales. aunque periódicas. una señal periódica está definida mediante la expresión x T ( t) = x T ( t + T) donde T es el período de la señal. Definición En la expresión (1.17. se puede calcular fácilmente su salida. como se muestra en la Fig.4. así designado en honor del físico francés Jean Baptiste Fourier. La señal x T (t ) puede considerarse como la repetición periódica de una señal x(t). 1.26) se sigue que para un entero k cualquiera (1.6 A la entrada del filtro de la Fig. La correspondiente salida del filtro será y ( t ) = kx (t ) y(t) = 0 para |f| ≤ B (Banda de paso del filtro) para |f|> B (Fuera de la banda de paso del filtro) Cada componente de x(t) comprendida dentro de la banda de paso sale multiplicada por la ganancia (o atenuación) del filtro.4. ¿cómo podría calcularse la potencia de salida del mismo filtro cuando se le aplica una señal periódica rectangular. 1. 1. Cuando se aplican señales sinusoidales puras a un filtro cualquiera. en especial la potencia de salida. para todo t real y para un T positivo.1.18 I. la señal periódica rectangular del Ejemplo 1. Las componentes fuera de banda son rechazadas.26) . Sin embargo. SERIES Y ESPECTROS DE FOURIER Hemos visto cómo las señales sinusoidales puras se pueden representar en el dominio de la frecuencia. 1. algunas veces llamada “señal generatriz o generadora” de x T ( t ). tales como el seno o el coseno. Pero. en muchos casos se tiene señales que. Por ejemplo. como se muestra en la Fig.1) se dió la definición de señal periódica que repetiremos aquí con un ligero cambio en la notación. en el caso donde f 2 <| B| < f 3 . la salida del filtro será y ( t ) = kA o + kA 1 cos(ω1 t ) + kA 2 cos(ω 2 t ) cuyo espectro se muestra en la Fig. La correspondiente potencia será < y 2 ( t ) >= k 2 A 2 + k 2 o 2 A1 2 + k2 A2 2 2 ♣ Estos conceptos se generalizarán más adelante. Entonces.16(c). en cualquier intervalo de duración T. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES ♣ Ejemplo 1. Señales Periódicas Las señales periódicas son de gran aplicación en el análisis de sistemas de comunicación y sería deseable poder representarlas en términos de señales periódicas elementales. 1. 1.

Por ejemplo. entonces.17 . Generación de una señal periódica En particular.27) Aún más. De aquí.7 Verificar si las señales siguientes son periódicas. ♣ . ω1 ω2 = 10 10 + π ⇒ fracción irracional La fracción es irracional. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES x T ( t ) = x T ( t + kT) = n =−∞ ∑ x( t − nT) ∞ (1. si x T (t ) y g T (t ) tienen el mismo período T. ♣ Ejemplo 1. f 2 = 1 / 8π La fracción es racional. t t (a) y(t ) = cos( ) + cos( ) . El valor más pequeño de m o n determina el período T. entonces T = n / f2 . con a y b dos constantes reales. f 1 = 1 / 6π . entonces debe ser posible encontrar dos números enteros m y n tales que ω1 T = 2 πf1 T = 2πm⎫ ω1 f1 m ⎬ = = m y n enteros ω 2 T = 2πf 2 T = 2πn⎭ ω 2 f 2 n La fracción m/n o ω1 / ω 2 debe ser una fracción racional irreducible para que x T (t ) sea periódica.19 I. x T (t ) ooo -T 0 T ooo t 0 x(t) t (a) Señal Periódica (b) Señal Generatriz Fig. y T (t ) = ax T (t ) + bg T (t ) será también periódica de período T. 3 4 ω1 4 = ⇒ ω2 3 m = 4. si la señal x T (t ) = cos(ω1 t ) + cos(ω 2 t ) es periódica de período T. n = 3 3 f2 = 24 π. la señal y(t) es periódica de período T = (b) y ( t ) = cos(10t ) + cos[(10 + π ) t ]. en cuyo caso determinar el período. 1. por lo tanto la señal y(t) no es periódica. si m > n.

20 I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

1.4.2. Series de Fourier

En la ingeniería de las comunicaciones, además de las conocidas señales periódicas seno y coseno, se emplea una gran cantidad de formas de onda periódicas para simular señales físicas, tales como señales rectangulares, diente de sierra, señales rectificadas, señales moduladas, etc., que se pueden representar en el dominio de la frecuencia mediante los métodos que se verán a continuación. Si una señal xT(t) es periódica y satisface ciertas condiciones, se puede representar en el dominio de la frecuencia mediante un número infinito de componentes sinusoidales relacionadas armónicamente (múltiplos de) con la frecuencia fundamental. La amplitud y la fase relativas de cada una de estas componentes están especificadas en el desarrollo en serie de Fourier de xT(t).
Definición

Cualquiera señal periódica xT(t), definida en el intervalo (-T/2, T/2), donde T es su período y que satisface las siguientes condiciones suficientes, se puede desarrollar en Serie de Fourier: 1. xT(t) es periódica, es decir, x T ( t ) = x T ( t + T) 2. xT(t) tiene un número finito de discontinuidades en el intervalo (-T/2, T/2). 3. xT(t) es de módulo integrable en un período, es decir,

T/ 2

− T/ 2

| x T (t )| dt < ∞

(1.28)

Las condiciones 2 y 3 implican que xT(t) es una función acotada en el intervalo (-T/2, T/2). Estas condiciones se conocen con el nombre de “Condiciones de Dirichlet”. La demostración de estas condiciones está fuera de los objetivos de este texto.
La Serie Trigonométrica de Fourier

El desarrollo de xT(t) en Serie Trigonométrica de Fourier tiene la forma

x T (t ) = a o + 2

∑[ a
n =1

n

cos(2 πnf o t ) + b n sen( 2 πnf o t )

]

(1.29)

donde fo = 1/T es la frecuencia fundamental. También, ao = an = bn =

∫ T
1 1

T/ 2

− T/ 2 T/ 2

x T ( t ) dt =< x T (t ) > x T ( t ) cos(2 πnf o t ) dt x T ( t ) sen( 2 πnf o t ) dt

Componente Continua

(1.30) (1.31) (1.32)

∫ T

− T/ 2 T/ 2

∫ T
1

− T/ 2

Las expresiones (1.30), (1.31) y (1.32), conocidas con el nombre de “Fórmulas de Euler”, son los coeficientes del desarrollo en serie trigonométrica de Fourier de (1.29). La deducción de estas fórmulas está fuera de los objetivos de este texto. La expresión (1.29) se puede escribir en la forma polar,

21 I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

x T (t ) = a o + 2


n =1

a 2 + b 2 cos( 2 πnf o t − arctg n n a 2 + b 2 =| X n | n n y

bn an

) bn

(1.33)

(1.34) an | X n | es la Amplitud Relativa de las diferentes componentes de frecuencia, y φ n su correspondiente fase. La expresión (1.33) queda entonces en la forma donde podemos definir x T (t ) = a o + 2

φ n = − arctg

∑| X
n =1

n |cos( 2 πnf o t

+ φn )

(1.35)

En las expresiones anteriores se puede observar lo siguiente: 1. ao es la componente continua o valor promedio de xT(t) y puede ser una magnitud positiva, negativa o cero. 2. Si xT(t) es real, entonces a n y b n son reales. En este caso: (a) Si xT(t) es par, es decir, si x T (t ) = x T (− t ) , entonces b n = 0; |X n | = a n ; φ n = 0, y x T (t ) = a o + 2

∑a
n =1

n

cos(2πnf o t )

(1.36)

El desarrollo de Fourier será una serie de cosenos de la forma x T (t ) = a o + 2 a 1 cos(ω o t ) + 2 a 2 cos(2ω o t ) + 2 a 3 cos(3ω o t )+........ 2π donde ω o = 2πf o = T (b) Si xT(t) es impar, es decir, si x T ( t ) = − x T (− t ), entonces a o = 0; a n = 0; π X n = bn ; φ n = − ; y 2 (1.37)

x T (t ) = 2

∑b
n =1

n

sen( 2 πnf o t )

(1.38)

El desarrollo de Fourier será una serie de senos de la forma
x T (t ) = 2 b 1 sen(ω o t ) + 2 b 2 sen(2ω o t ) + 2 b 3 sen(3ω o t )+..........

(1.39)

(c) Si xT(t) no es par ni impar, el desarrollo de Fourier es simplemente el desarrollo directo de (1.29) o (1.35): x T (t ) = a o + 2 a1 cos(ωo t ) + 2 a 2 cos(2ωo t )+ ......+2 b1 sen(ωo t ) + 2 b 2 sen( 2ωo t )+..... x T (t ) = a o + 2| X1 |cos(ω o t + φ 1 ) + 2| X 2 |cos(2ω o t + φ 2 )+............ (1.40)

Estos resultados tienen mucha importancia porque permiten expresar cualquiera señal periódica como una serie de señales sinusoidales, las cuales son mucho más fáciles de manipular por cuanto la derivada y la integral de una señal sinusoidal es otra señal sinusoidal de la misma frecuencia. Además, las distintas componentes de una señal periódica que se obtienen a partir del análisis de Fourier son algo más que un simple artificio matemático: ellas son tan reales como la señal xT(t) misma. Ya volveremos sobre este aspecto al tratar el espectro discreto.

22 I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

Como lo que más interesa es la amplitud relativa X n de las diferentes componentes de frecuencia y no los valores individuales de a n y b n , sería mucho más sencillo obtener dicha característica directamente de xT(t). En efecto, esto puede hacerse empleando la forma exponencial de la Serie de Fourier que se verá a continuación.
La Serie Exponencial de Fourier

La Serie Exponencial de Fourier tiene la forma x T (t ) =

n =−∞

∑X
T/ 2

n

exp( j2πnf o t );

fo =

1 T

(1.41)

El coeficiente de Fourier X n , llamado también “Espectro Complejo de Fourier”, viene dado por la expresión Xn =

∫ T
1 1

− T/ 2

x T (t ) exp( − j2 πnf o t ) dt

(1.42)

Se puede desarrollar (1.42) en la forma Xn =

∫ T

T/ 2

− T/ 2

x T ( t ) cos( 2 πnf o t )dt − j

∫ T
1

T/ 2

− T/ 2

x T (t ) sen( 2 πnf o t )dt = a n − jb n

(1.43)

X n es, en general, una cantidad compleja; por lo tanto,
X n =| X n |exp( jφ n )

donde φ n = arg[X n ] y φ n = − arctg( bn an

(1.44) ) , expresiones iguales a la (1.34), donde

y de (1.43),

|Xn |= a 2 + b2 n n

| X n | es la “Característica de Amplitud del Espectro” y

φ n la “Característica de Fase del Espectro”. La expresión (1.41) se puede expresar en la forma dada por (1.35). En efecto, Xo =

∫ T
1

T/ 2

− T/ 2

x T (t ) dt = a o

es la componente continua

(1.45)

Para valores negativos de n, | X − n | =| X ∗ | = a 2 + b 2 n n n y

X − n =| X − n |exp( − jφ − n ) = a n + jb n = X ∗ ; entonces, n φ -n = arctg bn an

Esto implica que X n tiene simetría hermítica [en honor del matemático francés Charles Hermite (1822-1901)], es decir, que | X n | = | X − n | =| X ∗ | n

y

φ n = −φ − n

(1.46)

La expresión (1.41) se puede escribir entonces en la forma x T (t ) = X o +

∑{| X |exp(− jφ
n n =1

n ) exp( − j2 πnf o t ) + | X n |exp( jφ n ) exp( j2 πnf o t )

}

23 I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

de donde, o también,

x T (t ) = X o + 2

∑| X |cos(2πnf t + φ
n o n =1

n)

(1.47a) (1.47b)

x T ( t ) = X o + 2| X1 |cos(ω o t + φ 1 ) + 2| X 2 |cos(2ω o t + φ 2 )+...........

Esta expresión permite el desarrollo en serie de una señal periódica xT(t) , tal como se hizo para las expresiones (1.35), (1.36) y (1.38). Su interpretación en el dominio de la frecuencia se ofrecerá en la siguiente sección. ♣ Ejemplo 1.8. Desarrollo en Serie de Fourier de una Señal Rectificada de Onda Completa Sea la señal rectificada de onda completa de la Fig. 1.18 donde

x T ( t ) = 110 2 cos( 2 π60t ) en T
El período T se obtiene a partir de T cos( 2 π60 ) = 0 , de donde 2 120π T= 1 120 T 2 = π 2 . De aquí,

x T (t )

A

-T -T/2 0

t T/2 T

Fig. 1.18. Señal Rectificada de Onda Completa.

; f o = 120 Hz; A = 110 2 x T ( t ) = 110 2 cos(120πt ) para Xn = a n y 1 240 <t≤ 1 240

Entonces,

x T ( t ) es par;
Xn =

φ n = 0. De (1.43),

2A 1/ 240 cos(120πt) cos(240πnt)dt T ∫0

Integrando y reemplazando valores numéricos

Xn = Xo =

220 2 (−1) n +1 para todo n ; φn = 0 π(4n 2 − 1) 220 2

= 99,035. El desarrollo en serie de Fourier de la señal rectificada de onda π completa será, de (1.47), 2 2 2 ⎡ ⎤ x T ( t ) = 99,035⎢1 + cos( 240πt ) − cos(480πt ) + cos(720πt )−.........⎥ ⎣ ⎦ 35 15 3 ♣

En general, la resolución de la integral de X n , expresión (1.42), es una operación laboriosa. Sin embargo, mediante la utilización de computadoras digitales se puede calcular rápida y eficientemente los coeficientes de Fourier (En este texto utilizaremos el programa MATHCAD para todos los cálculos numéricos). En el APENDICE A el lector encontrará una breve introducción al cálculo numérico de estos coeficientes.

24 I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

1.4.3. El Espectro Discreto

El desarrollo en serie de Fourier se puede utilizar para dos clases de señales: (a) Para representar una señal aperiódica x(t) en un intervalo finito, por ejemplo (0, T); en este caso la serie de Fourier converge para una extensión de una señal x(t) fuera del intervalo (0, T), por ejemplo, para x ( t ) = x (t + nT) con n = ±1, ± 2, .... (b) Se puede emplear también el desarrollo en serie de Fourier para representar una señal periódica x T (t ) en cualquier intervalo de interés. Este es el tipo de aplicación de las Series de Fourier de más utilización en ingeniería eléctrica. Pero la interpretación que más nos interesa del desarrollo en serie de Fourier de una señal periódica es que se está descomponiendo la señal en términos de sus armónicas, es decir, sus diferentes componentes frecuenciales. Si x T (t ) es una señal periódica de período T, entonces, de acuerdo con (1.35) o (1.47), ella contiene componentes de frecuencia a las frecuencias armónicas nf o , con n = ±1, ± 2, ....... donde fo = 1/T. El conjunto o colección de estas componentes de frecuencia que conforman x T ( t ) se denomina “Espectro de Frecuencias de x T ( t )” o simplemente “Espectro de x T (t ) ”. En el caso de una señal periódica este espectro es discreto, es decir, es cero para n ≠ nf o , con n = ±1, ± 2,...... El espectro discreto es la representación de una señal periódica x T ( t ) en el dominio de la frecuencia, y, dado el espectro, se puede especificar x T ( t ). Se dispone ahora de dos formas para especificar una señal periódica x T ( t ) : definir x T ( t ) en el dominio del tiempo mediante la descripción (gráfica o analítica) de su forma de onda, o especificar x T ( t ) en el dominio de la frecuencia mediante el espectro de frecuencias. El espectro discreto se representa gráficamente mediante el llamado “Espectro de Amplitudes o de Líneas”, en el cual la amplitud de cada armónica o componente frecuencial se representa con una línea vertical de longitud proporcional a la amplitud de la armónica, y localizada en el eje de frecuencia a las frecuencias ± f o , ± 2f o , ±....... ; es la gráfica | X n | vs nf o para todo n entero. Si x T (t ) contiene una componente continua, ésta se localiza como una línea de amplitud Xo a la frecuencia cero (origen); el espectro de líneas se muestra en la Fig. 1.19(a).
|X1| |Xn | |X o |
0

| X5 |
-5 f o

|X 4 |

| X3 |

|X2 |

|X1|

|X2 | 2f o

| X3 | 3f o

|X4 | 4f o

| X5 |
5f o f

−4fo φ4 −4fo

−3fo −2fo

−f o

fo φn

φ5

(a) Espectro de Amplitudes o de Líneas.
φ3 −3fo

φ2
−2fo

φ1 −f o
0

fo φ1

2f o

3f o φ3

4f o φ4

5f o f

-5 f o

φ2

(b) Espectro de Fase Fig. 1.19. El Espectro Discreto.

φ5

El espectro de líneas es entonces un gráfico de líneas igualmente espaciadas con longitudes proporcionales a las amplitudes de las diferentes componentes de frecuencia contenidas en x T (t ) ,

25 I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

como se muestra en la Fig. 1.19(a). Obsérvese también que la fase de cada armónica se puede representar en la misma forma; en este caso se tiene el “Espectro de Fase” que es la gráfica φ n vs nf o para todo n entero, como se muestra en la Fig. 1.19(b). En estas figuras se hace | X − n | =| X n | y φ − n = −φ n . ♣ Ejemplo 1.9. Espectro de una Señal Periódica Rectangular Sea la señal periódica rectangular de la Fig. 1.20(a).

x T (t ) = A

n =−∞

∑Π( t −τnT ) ;
Xn =

T > τ; x T ( t ) es par; X n = a n es real ;
τ/ 2

φ n = 0.

De (1.43),

∫ T
2

0

A cos( 2 πnf o t )dt =

Aτ sen(πnf o τ ) T πnf o τ

Para simplificar la notación, vamos a introducir la llamada “Función Sinc(x)”, Fig.1.20(b), definida en la forma sinc(x ) = sen(πx ) πx (1.48)

La función sinc(..) tiene las siguientes propiedades: 1. 2.

∫ T
1

T/ 2

− T/ 2

exp( ± j2 πft )dt =

∫ cos(2πft )dt = sinc(Tf ) T
2
T/ 2 0

(1.49) (1.50a)

−∞

sinc(ax )dx =

−∞

sinc 2 (ax )dx =
2

1 a

3.

n =−∞

∑sinc(an) = ∑sinc
n =−∞

( an ) =

1 a

(1.50b)

4. sinc(0) = 1;

sinc(m) = 0 para todo m entero ≠ 0

Nótese que los ceros de sinc(x/a) ocurren en los puntos x = na, con n entero ≠ 0 . En algunos textos se utiliza la función Sa (x ) definida en la forma Sa ( x ) = sen( x ) x ; por lo tanto, sinc(x ) = Sa ( πx )

26 I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

Utilizando la función sinc(..), el resultado del presente ejemplo se puede expresar en la forma X n = Aτf o sinc( nf o τ ) = También, τ sinc(n ) T T τ τ X o = Aτf o = A ; es el ciclo de trabajo. T T Aτ (1.51)

En la Fig. 1.21(a) se muestra el espectro Xn cuando la señal periódica es cuadrada ( τ = T / 2) , y en (b) y (c) se muestra el espectro de amplitudes Xn para algunos valores del ciclo de f trabajo. Nótese que la envolvente de Xn en (a) es X o sin c( ) . 2f o

τ / T = 0,25

τ / T = 0,25

0

f

0

f

τ / T = 0,167
0 f 0

τ / T = 0,125
f

τ / T = 0,083
0 f 0

τ / T = 0,083
f

( b) T variable, τ fijo

(c) T fijo, τ variable

Fig. 1.21. Espectros de una Señal Periódica Rectangular para diferentes valores de T y τ

En la Fig. 1.21(b) se observa que a medida que T aumenta, manteniendo τ fijo, dos características del espectro cambian también: la separación entre las diferentes componentes discretas de frecuencia y la amplitud de las mismas. El espectro se hace más denso pero de menor

27 I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

amplitud a medida que T aumenta. Nótese, sin embargo, que el perfil o “envolvente” del espectro no cambia puesto que él depende de la duración del impulso. Por el contrario, si T es fijo y τ varía, la amplitud del espectro aumenta proporcionalmente a τ y la distancia al primer cero de la envolvente se hace cada vez menor, como se muestra en la Fig. 1.21(c). Nótese que si T/τ es un número entero, a las frecuencias n/τ las componentes serán cero; pero si T/τ es fraccionario, las componentes en n/τ serán distintas de cero. Obsérvese la relación inversa entre el primer cero del espectro o “extensión espectral” y el valor de τ; cuando τ disminuye, la extensión espectral aumenta y viceversa. Obsérvese también que cuando τ = T, el tren de impulsos rectangulares degenera en una constante A. En este caso el espectro constará de una sola línea de amplitud A a la frecuencia cero. ♣ Propiedades del Espectro Discreto Hemos dicho que el espectro discreto posee ciertas propiedades que son muy útiles en la representación espectral de señales periódicas. Esta propiedades son: 1. Las líneas espectrales están igualmente espaciadas en fo, puesto que todas las frecuencias están relacionadas armónicamente con la frecuencia fundamental fo. 2. La componente continua corresponde a la frecuencia cero y es el valor promedio de la señal. En efecto, para n = 0, Xo =

∫ T
1

T/ 2

− T/ 2

x T (t ) dt =< x T (t ) >

(1.52)

Xo puede ser positiva, negativa o cero. 3. Si x T ( t ) es real, el espectro de amplitudes es simétrico (par en nfo) y el espectro de fase es antisimétrico (impar en nfo), es decir, | X n | =| X − n | y φ n = −φ − n (Simetría hermítica) (1.53)

como se muestra en la Fig. 1.19. X n viene dado por (1.42). (a) Si x T ( t ) es real y par, el espectro de amplitudes será enteramente real y la fase será 0 ó ± π. Entonces, de (1.43), Xn = 1 T

T/ 2

−T/ 2

x T ( t ) cos( 2πnf o t )dt =

2 T

∫x
0

T/ 2

T ( t ) cos( 2πnf o t ) dt

(1.54)

(b) Si x T ( t ) es real e impar, el espectro de amplitudes es enteramente imaginario y la π fase será ± . Entonces, de (1.43), 2 1 T/ 2 2 T/ 2 (1.55) Xn = − j x T ( t ) sen( 2πnf o t )dt = − j x T ( t ) sen( 2πnf o t )dt T −T/ 2 T 0

4. Si x T ( t ) tiene un desarrollo en serie de Fourier dado por (1.40) o (1.47), entonces el desarrollo en serie de Fourier de x T ( t ± t o ) será xT (t ± t o ) =

n =−∞

∑X

n

exp[ j2 πnf o ( t ± t o )] =

n =−∞

~ ∑X

n

exp( j2 πf o t )

(1.56)

28 I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

~ ~ donde X n = X n exp( ± j2πnf o t o ) ; y de (1.44), X n =| X n |exp[ j( φ n ± 2 πnf o t o )] ~ ~ Por consiguiente, | X n | =| X n | y φ n = φ n ± 2 πnf o t o (1.57) ~ Estas relaciones indican que el espectro de amplitudes | X n | de x T ( t ± t o ) es idéntico al espectro de amplitudes | X n | de x T ( t ). Las frecuencias armónicas son también idénticas, como puede apreciarse en (1.56). Sin embargo, el espectro de fase ha cambiado; en efecto, el desplazamiento en el tiempo de ± to segundos, produce un desfase de ±2πnf o t o radianes en la armónica n-ésima. Un desplazamiento en el tiempo no afecta al espectro de amplitudes, pero sí al espectro de fase en un ángulo o desfase dado.
1.4.4. Espectro de Potencia de Señales Periódicas. Teorema de Parseval

Al desarrollar el espectro discreto de Fourier, se ha demostrado que los espectros de fase y amplitud se relacionan con las fases y amplitudes de las componentes frecuenciales de la señal, formando un conjunto discreto de sinusoides complejas que representan la señal original. La noción de espectro discreto de una señal puede plantearse en una forma más intuitiva si se considera la distribución de la potencia en función de la frecuencia. La relación requerida se encuentra expresando la potencia en el dominio del tiempo y escribiendo luego una expresión equivalente en el dominio de la frecuencia. Puesto que la potencia es un invariante, ella será siempre la misma cualquiera que sea el dominio en que esté representada. De las expresiones (1.5) y (1.6), la potencia normalizada de una señal periódica en el dominio del tiempo es < x 2 ( t ) >= T 1 T

T/2

−T/ 2

| x T ( t )|2 dt =

1 T

T/ 2

−T/ 2

x T ( t ) x ∗ ( t ) dt T

(1.58)

Se puede expresar también la potencia promedio de x T ( t ) en el dominio de la frecuencia calculando la potencia asociada con cada componente de frecuencia. Esto conlleva a la idea de un “Espectro de Potencia de x T ( t )” en el cual se pueda representar la potencia promedio asociada con cada armónica de x T ( t ) ; es la distribución de la potencia en el dominio de la frecuencia. El conjugado x ∗ ( t ) de x T ( t ) es T Reemplazando (1.59) en (1.58), < x 2 (t ) T ⎡ ∞ ⎤ * ⎢ >= x T (t ) X n exp(− j2 πnf o t ) ⎥dt T − T/ 2 ⎢ n =−∞ ⎥ ⎣ ⎦ 1 x* (t) = T
n =−∞

∑X

* n

exp( − j2πnf o t )

(1.59)

T/ 2

=

∞ T/ 2 ⎤ *⎡1 Xn ⎢ x ( t ) exp( − j2 πnf o t ) dt ⎥ = X n X* n ⎦ ⎣ T − T/ 2 T n =−∞ n =−∞

=

n =−∞

∑| X

n|

2

Entonces,

< x 2 ( t ) >= T

∫ T
1

T/ 2

− T/ 2

| x T ( t )|2 dt =

n =−∞

∑| X |
n

2

(1.60)

Esta expresión se conoce con el nombre de “Teorema de Parseval” y establece que la potencia promedio de una señal periódica se puede determinar en el dominio de la frecuencia elevando al cuadrado y sumando las amplitudes de las líneas espectrales. La representación

29 I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

| X n |2 vs nf o se conoce con el nombre de “Espectro de Potencia de x T ( t )”. La forma de este espectro es igual a la mostrada en la Fig. 1.19(a) con la diferencia de que las componentes están elevadas al cuadrado. Nótese que no existe el correspondiente espectro de fase. El Teorema de Parseval permite calcular tanto la potencia total de una señal como la distribución de esta potencia en las distintas frecuencias. Obsérvese que el teorema requiere solamente del conocimiento de la característica de amplitud | X n |; la fase no interviene. La importancia del Teorema de Parseval en el análisis de señales y sistemas es que permite determinar la potencia dentro de una gama de frecuencias como, por ejemplo, cuando se quiere determinar la potencia a la salida de un filtro dado. El desarrollo en serie de Fourier expande x T ( t ) en una suma de fasores de la forma X n exp( j2 πnf o t ) y la potencia promedio de cada fasor será | X n |2 , de modo que la potencia promedio total es la suma de las potencias promedio de los fasores componentes, como se puede ver en (1.60). En general, la potencia compuesta de n señales es igual a la suma de las potencias individuales de las señales, siempre y cuando no coincidan las frecuencias de algunas componentes. En este último caso hay que tomar en cuenta los factores de fase correspondientes, pues al sumarse las componentes puede ocurrir interferencia destructiva. Puesto que | X n | =| X − n |, la expresión (1.60) se puede escribir en la forma
2 < x T ( t ) >=

∞ 1 T/2 | x T ( t ) |2 dt = X 2 + 2∑ | X n |2 o T ∫−T / 2 n =1

(1.61)

♣ Ejemplo 1.10.
La señal rectificada de onda completa del Ejemplo 1.8 se aplica a un filtro pasabajo de ganancia unitaria y ancho de banda de 400 Hz. Calcular las potencias de entrada y salida del filtro. Solución Suponiendo que el rectificador no tiene pérdidas, la potencia de la señal rectificada es la misma que la potencia de la señal sin rectificar. Entonces, de (1.9), la potencia a la entrada del filtro es < x 2 ( t ) >= 110 2 = 12100 W T El filtro tiene un ancho de banda de 400 Hz, y como las componentes discretas están separadas en 120 Hz, solamente saldrán las componentes a las frecuencias de 120 Hz, 240 Hz y 360 Hz, es decir, n = 3 componentes más la componente continua. Del teorema de Parseval, la potencia de salida del filtro será < y 2 ( t ) >= X 2 + 2| X 1 |2 +2| X 2 |2 +2| X 3 |2 . Pero, del Ejemplo 1.8, o

|Xn | =
2

220 2 (4 n 2 − 1)π

2

, de donde

< y 2 ( t ) >= 9807,89 + 2179,73 + 87,87 + 16,01 = 12090,62 W El 99,92% de la potencia total de la señal está contenida en las tres primeras componentes más la componente continua. ♣

30 I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES

♣ Ejemplo 1.11. Distorsión Armónica En general, el comportamiento de un dispositivo se puede caracterizar mediante la Distorsión Armónica, que se define en la forma

Distorsión Armónica % =

Potencia Espuria Potencia Util

∑| X |
n

2

100 =

n= 2

| X 1 |2

100

La potencia útil es la correspondiente a la frecuencia fundamental ( n = 1 ). Por ejemplo, el rizado en un rectificador es una forma de distorsión armónica, pero la expresión que lo define es 2 Factor de Rizado %=

∑| X |
N n n=2

2

X2 o

100

donde N ≥ 2 es un número entero que depende del filtro utilizado y que debe ser lo más pequeño posible. Vamos a calcular el factor de rizado de la señal rectificada del Ejemplo 1.8, si el filtro deja pasar solamente las dos primeras componentes, afectadas, cada una, en un factor 1/n. Del Ejemplo 1.8: X o = 99,03; X1 = 33,01; X 2 = 6,60 Las salidas correspondientes del filtro serán: Yo = X o = 99,03; Y1 = X1 1 = 33,01; Y2 = X2 2 = 3,3 2 (33,01) 2 + 2 (3,3) 2 99,03 100 = 44,37% ♣ En general, la serie de Fourier proporciona un método para descomponer una señal en términos de una suma de señales elementales de la forma exp( j2πnf o t ) . Esta descomposición es de gran importancia en el análisis de sistemas lineales complicados excitados por señales arbitrarias puesto que la respuesta de estos sistemas a señales exponenciales o sinusoidales es fácil de calcular o medir. Hay que recordar que el desarrollo en Serie de Fourier se aplica a señales que son: 1. Periódicas, es decir, que x T ( t ) = x T ( t + T), en cuyo caso la representación es válida para todo t (−∞ < t < ∞) . 2. Aperiódicas, en cuyo caso la representación es válida en un intervalo finito (a, b). La extensión periódica de x(t) se obtiene fuera del intervalo (a, b).

El Factor de Rizado (FR %) será:

FR % =

como se muestra en la Fig. LA TRANSFORMADA DE FOURIER 1. es decir.22(b). REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES ♣ Ejemplo 1.62) . entonces fo = ½ y Xn = ∫ 2 1 t 1 exp( − t ) exp( − j2 πn )dt = −1 2 2 1 ∫ 1 −1 exp[− (1 + jπn ) t ]dt Integrando.22. es decir.5. La representación se efectúa entonces en términos de la llamada Transformada de Fourier que se considera a continuación. 1. x(t) es la señal generatriz de x T ( t ) . 1) será entonces x(t ) = n =−∞ ∑ ∞ ( −1) n senh(1) 1 + jπn exp( jπnt ) ♣ 1. en el intervalo (-∞. ∞) en términos de un continuo de señales exponenciales. Para desarrollar una representación de x(t). 1. 1. (b) Señal Periódica x T ( t ) es una señal periódica de período T y como tal podrá representarse mediante un desarrollo en serie de Fourier. el intervalo de representación se hace más grande y cuando T es infinito la señal periódica se habrá convertido en aperiódica. 1) mediante la serie exponencial de Fourier.1. Fig. T →∞ lim x T ( t ) = x ( t ) (1.22(a). 1 + jπn ⎣ 2 ⎦ 1 + jπn El desarrollo de x(t) en el intervalo (-1. Un tipo de descomposición bastante útil es aquella en la cual se representa x(t) mediante un continuo de sinusoides complejas de la forma exp( j2πft ) . de donde 2(1 + jπn ) ( −1) n ⎡ e − e −1 ⎤ ( −1) n senh(1) ⎢ ⎥= Xn = . Como el período es T = 2. Xn = e exp( jπn ) − e −1 exp( ± jπn ) . vamos a postular que x(t) define un ciclo de una señal periódica x T ( t ) . x(t) x T (t ) ooo t ooo t -T 0 T 0 (a) Señal Generatriz Fig.5. A medida que T aumenta.12 Considérese el desarrollo de la señal x ( t ) = exp(− t ) en el intervalo (-1.31 I. hay que utilizar otro tipo de descomposición para x(t). pero exp( ± jπn ) = (−1) n . Introducción Si se desea extender la clase de funciones transformables a fin de incluir señales aperiódicas representadas para todo t.

y x T (t ) → x ( t ) . las expresiones (1. en x( t ) = y X( f ) = ∫ X(f ) exp( j2πtf )df ∞ −∞ ∞ (1.32 I.67) y (1. Por lo tanto. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES La serie de Fourier que representa a x T ( t ) representará también a x(t) en el límite cuando T → ∞ .66) Cuando T → ∞. en el límite.69) y simbólicamente mediante la correspondencia x ( t ) ⇔ X( f ) Las expresiones (1. nf o = f n entonces (1. En general. ∫ ∞ −∞ exp(− j2πtf ) df = δ( t ) y de la propiedad de muestreo del impulso unitario.67) (1. siendo x(t) su correspondiente transformada inversa.64) quedan en la forma lim x T ( t ) = lim T →∞ T →∞ n =−∞ ∑ X( f ∞ n ) exp( j2πf n t ) ∆f = x(t ) (1. de (1. En efecto. X( f n ) → X( f ).64) .68) en el cual se utilizan las propiedades del impulso unitario Delta Dirac.68) ∫ −∞ x ( t ) exp( − j2πft ) dt La cantidad X(f) se conoce como la “Transformada de Fourier de x(t)”.63) donde Si se define: ∫ T 1 x T (t ) exp( − j2 πnf o t ) dt y X(nf o ) = X( f n ) = TX n (1.21d).63) y (1. lim x T ( t ) = lim Xn = ∆f = 1 T T →∞ T →∞ n =−∞ ∑X T/ 2 − T/ 2 ∞ n exp( j2πnf o t ) = x ( t ) (1. respectivamente.65) y (1. f n = nf o → f . el límite de la sumatoria cuando la variable se hace continua es una integral.66) se convierten. expresión (1.41).67) y (1. x(t ) = ∫ ∞ −∞ x (τ )δ(τ − t ) dτ = ∫ ⎡ x (τ )⎢ ⎣ −∞ ∞ ∫ ⎤ exp[ − j2 π (τ − t )f ]df ⎥dτ ⎦ −∞ ∞ . Hay otro procedimiento para obtener el par de transformadas (1. y las correspondientes letras mayúsculas para sus transformadas. de (1. Por esta razón.65) y X( f n ) = ∫ T/ 2 − T/ 2 x T (t ) exp( − j2 πf n t ) dt (1. se utilizarán letras minúsculas para las señales en el dominio del tiempo. se sigue que: ∆f → df .17).68) reciben también el nombre de “Par de Trasformadas de Fourier”. Estas operaciones se representan generalmente en la forma X( f ) = { x (t )} o X(f) = TF{x ( t )} y x(t ) = −1 { X(f )} o x ( t ) = TF −1 {X(f )} (1.

De todas maneras. La cantidad X(f) hace el mismo papel que X n en la representación en Serie de Fourier. de todas las componentes de frecuencia que existen para −∞ < t < ∞ . y con el cambio de variables τ = t. el creciente uso de métodos digitales como ayudas computacionales y para aplicaciones en el procesamiento digital de señales.67) −∞ x( t ) = ∫ X( f ) exp( j2πtf )df ∞ −∞ Esta segunda forma de deducción del par de Transformadas de Fourier nos parece más artificiosa que la primera forma.33 I. cuya magnitud viene dada por X( f ) df . son. El espectro continuo X(f) de x(t) se puede interpretar como la distribución. MAPLE y otros. ha llevado a la definición de una versión discreta de la Transformada de Fourier. la suma de las cuales debe ser cero excepto en el intervalo de existencia de x(t). queda x ( t ) exp(− j2πft ) dt (1. de difícil resolución en forma analítica. y X(f)df es el “coeficiente” asociado con la función básica elemental exp(j2πft). Puede también utilizarse programas matemáticos como MATHCAD. 1. En general.5. La cantidad X(f) es entonces el “Espectro Continuo de x(t)”. en amplitud y fase.70) donde |X(f)| es el “Espectro Continuo de Amplitudes de x(t)” y φ(f) el “Espectro Continuo de Fase de x(t)”. la demostración rigurosa de estas expresiones está fuera de los objetivos de este texto. x(t ) = ∫ ⎡⎢⎣ ∫ ∞ −∞ ⎤ x (τ ) exp(− j2 πfτ )dτ ⎥ exp( j2 πtf ) df ⎦ −∞ ∞ Definiendo la integral dentro de los corchetes en la forma X( f ) = X( f ) = y también ∫ ∫ ∞ −∞ ∞ x (τ ) exp( − j2 πfτ ) dτ . en la cual se considera a las Integrales de Fourier como el límite de la Serie de Fourier cuando el período tiende a infinito. Las integrales (1. salvo para algunas formas sencillas de x(t) y X(f). En el APENDICE A se trata en forma breve algunos métodos para el cálculo numérico de la Transformada de Fourier: la Transformada de Fourier Discreta (DFT) y la Transformada de Fourier Rápida (FFT). . aunque nosotros utilizaremos siempre MATHCAD.2. enfoque que creemos es más significativo. MATLAB.68). X(f) es una función compleja de una variable real f y se puede expresar en la forma X( f ) =| X( f )|exp[ jφ ( f )] (1. Sin embargo.68) (1. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES Intercambiando el orden de integración. en general. El Espectro Continuo La expresión (1.67) y (1.67) se puede interpretar como una descomposición de x(t) en términos del continuo de funciones elementales { exp( j2πft )} .

habrá sólo y solamente una función del tiempo correspondiente. Se puede determinar la Transformada de Fourier de estas señales mediante la teoría de las distribuciones y el empleo de impulsos unitarios Delta Dirac en las transformadas.72) implica también que ∫ ∞ −∞ | x(t )|2 dt < ∞ (1.71) En la Fig. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES ♣ Ejemplo 1.72) Puesto que x(t) es una señal acotada.23(b) se muestra la forma de este espectro. dada una función del tiempo. Sin embargo. 2 πf t f AΠ( ) ⇔ Aτsinc (τf ) = Aτsinc( ) 1/ τ τ ∞ ∫ t x ( t ) = AΠ ( ).68). ♣ Nótese que no todas las señales se pueden desarrollar en un continuo de exponenciales { exp( j2πft )} . Transformada de un Impulso Rectangular Sea el impulso rectangular mostrado en la Fig. en consecuencia. como la función escalón por ejemplo. Las condiciones necesarias para la existencia de la Transformada de Fourier son las mismas que las dadas para la Serie de Fourier (Condiciones de Diritchlet). excepto que no es necesario que x(t) sea periódica.34 I. ∫ ∞ −∞ | x (t )| dt < ∞ (1.23(a). cuya energía no es finita (no es de cuadrado integrable) pero que posee una transformada de Fourier. es decir. 1. Sin embargo. En particular. Puede observarse que X( f ) = τ/2 t 2A sen( 2 πft ) AΠ ( ) exp(− j2 πft ) dt = 2A cos( 2 πft ) dt = −∞ 0 τ 2 πf τ sen(2 πf ) 2 X ( f ) = 2A = Aτsinc (τf ) . inversamente. la expresión (1. 1. las señales de energía poseen una transformada de Fourier.72) Estas condiciones incluyen también todas las señales de energía. la condición suficiente para que x(t) posea una transformada de Fourier es que x(t) sea de módulo integrable. En efecto. τ reemplazando x(t) en (1. si una señal x(t) tiene una transformada de Fourier. entonces esta transformada y su inversa son unívocas. es decir. . τ/2 0 ∫ (1.13. hay un cierto número de señales de gran importancia. dada una transformada de Fourier. hay sólo y solamente una transformada de Fourier de esa función.

es decir.68). entonces X( − f ) = ∫ ∞ −∞ x( t ) exp( j2πft ) dt = X ∗ ( f ) X(f ) = X∗ (−f ) (1. La amplitud. Si x(t) es impar. 2 3. Propiedades de la Transformada de Fourier de Señales Reales La Transformada de Fourier es. por lo cual el espectro de señales aperiódicas a veces se denomina “espectro de densidad de amplitudes”.74a) (1.35 I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES 1. entonces X(f ) = 2 x(t ) cos(2 πft )dt 0 ∞ ∫ ∞ (1.67).79) La cantidad X(0) representa el área neta bajo la señal x(t). entonces X( f ) = − j2 x( t ) sen(2 πft )dt 0 ∫ (1. se tiene X(0) = x (t )dt −∞ ∫ ∞ (1. La Transformada de Fourier tiene las siguientes propiedades: 1.75b) Similarmente. Si x(t) es real. de donde x ( − t ) ⇔ X( − f ) (1.78) π En este caso X(f) será enteramente imaginario y la fase será ± .77) X(f) será enteramente real y la fase será 0 ó ±π. si se sustituye f por -f en (1. son de gran utilidad en ingeniería porque a menudo una descripción es más fácil de utilizar en una aplicación particular. puesto que las ordenadas representan la amplitud relativa de una determinada componente de frecuencia.3.68). o una descripción puede ser más intuitiva en un problema dado. que | X( f )| =| X( − f )| =| X∗ (f)| y φ ( f ) = − φ( − f ) (1.5. como ya hemos señalado. mientras que el espectro de fase es antisimétrico (impar en f). Las dos descripciones. entonces {x(− t )} = X(− f ) . Haciendo f = 0 en la expresión (1. una forma alterna y equivalente de representación de una señal x(t). por ejemplo volts/Hz. en volts por ejemplo. Nótese que las dimensiones de X(f) son las de x(t) por unidad de ancho de banda. correspondiente a una . una en el tiempo y la otra en la frecuencia. si se sustituye t por -t en (1.74b) o también esto implica que X(f) tiene simetría hermítica.75a) El espectro de amplitudes de una señal real x(t) es simétrico (par en f). Desarrollando X(f) en la forma X( f ) = ∫ ∞ −∞ x (t ) cos(2 πft )dt − j x (t ) sen(2πft )dt −∞ ∫ ∞ Si x(t) es par. Nótese también que si x(t) es compleja.76) 2. la transformada de su conjugado será entonces {x (t)} = X (−f ) * * (1.

⎧ | t| ⎪A(1 − ) para | t| ≤ τ t Del Ejemplo 1.80) ♣ t f AΛ( ) ⇔ Aτsinc 2 (τf ) = Aτsinc 2 ( ) 1/ τ τ El espectro X(f) se muestra en la Fig. ∫ de donde ∞ −∞ exp(− jωt )δ(t ± t o )dt = exp(± jωt o ).15. ♣ Ejemplo 1. ♣ Ejemplo 1.17). Transformada de una Señal Triangular Sea la señal triangular de la Fig. expresión (1.14. como veremos en el Capítulo II.4.36 I. Transformada del Impulso Unitario Delta Dirac Considérese la función exp(− jωt ) a la cual se le aplica la propiedad de muestreo del impulso unitario. pero Aδ( t ± t o ) ⇔ A exp(± j2πt o f ) Aδ(t ) ⇔ A ∫ ∞ -∞ exp(-jωt)δ(t ± t o )dt = {δ(t ± t o )} (1. 1. x( t ) = AΛ ( ) = ⎨ τ τ ⎪0 para | t| > τ ⎩ X( f ) = 2 A ∫ (1 − τt ) cos(2πft )dt = 2A∫ cos(2πft )dt − 2τA ∫ t cos(2πft )dt τ τ τ 0 0 τ 0 ⎡ sen(2πft ) 2 A cos(2πft ) t sen(2πft ) ⎤ − [ + ]⎥ X( f ) = ⎢ 2 A 2πf 2 πf τ (2 πf ) 2 ⎦0 ⎣ Reemplazando límites y rearreglando. . REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES cierta frecuencia es infinitesimal y sólo es finita el área de la curva de X(f) comprendida dentro un intervalo de frecuencias dado. de donde (1. 1.81) (1.82) y para to = 0. se obtiene finalmente X( f ) = Aτ sen 2 (πτf ) (πτf ) 2 = Aτsinc 2 ( τf ) . El impulso unitario tiene un espectro de amplitud constante para todo f y una variación de fase lineal en f.24(a). 1.24(b). como se muestra en la Fig. Estas propiedades del impulso unitario son de especial importancia en el análisis de sistemas lineales.25(b) y (c).

considérese la función [ exp(− at )u (t ) − exp(at )u (− t )] .26. a + j2πf A A exp(−at )u ( t ) ⇔ a + j2πf A 2πf | X(f )| = y φ (f) = -arctg( ) También. 1. de donde Efectuando la integración.83) |X(f)| A x(t) = Aexp(-at)u(t) A/a φ(f ) π 2 0 t 0 (a) (b) f 0 f − π 2 (c) Fig. Transformada de un Impulso Exponencial Decreciente Sea el impulso exponencial decreciente de la Fig. 1.25. 1.37 I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES x ( t ) = Aδ ( t − t o ) φ(f ) A |X(f)| A 0 pendiente = −2πt o f 0 (a) to t f 0 (b) (c) Fig. 1. En efecto. Transformadas del Impulso Unitario Delta Dirac. De la Fig. Transformadas de la Señal x(t) = Aexp(-at)u(t) ♣ ♣ Ejemplo 1.27.26(a). Fig. Transformada de la Función Signo Esta función no cumple con la condición de integrabilidad absoluta pero su transformada de Fourier se puede determinar mediante límites.16. 1. a a 2 + 4π 2 f 2 que se muestran en la Fig. (1.27. a→ 0 lim [ exp(− at )u (t ) − exp(at )u (− t )] = sgn(t ) {sgn(t )} = lim {exp(− at )u(t ) − exp(at )u(− t )} a →0 .26(b) y (c).17. cuya transformada se calculó en el Ejemplo anterior. 1. x( t ) = A exp( − at ) u( t ) ⇔ X( f ) = ♣ ∫ A exp(−at) u( t) exp(− j2πft)dt −∞ ∞ A X( f ) = . ♣ Ejemplo 1.

a →0 ⎡ 1 jπf − j4 πf a →0⎣ a + − ⎤ ⎥ a − j2 πf ⎦ 1 = 1 jπf (1.85) u(t) 1 |U(f)| 1/2 t 0 0 f Fig. E= ⎡ ∞ ⎤ X ( f )⎢ x * (t ) exp( j2 πft )dt ⎥df = ⎣ −∞ ⎦ −∞ ∞ ∫ ∫ ∞ −∞ X (f )X * ( f )df = ∫ | X(f )| ∞ −∞ 2 df . TEOREMA DE RALEIGH Hemos demostrado que la potencia total de una señal periódica se puede asociar con la suma de las potencias contenidas en cada componente de frecuencia (Teorema de Parseval). ♣ 1. Para señales de energía.38 I. es la caracterización más apropiada para señales que poseen una transformada de Fourier. La energía de una señal x(t) es. de (1. E= ∫ ∫ ∞ −∞ | x ( t )|2 dt = ∫ ⎡ ∞ ⎤ x * (t )⎢ X ( f ) exp( j2πtf )df ⎥dt ⎣ −∞ ⎦ −∞ ∞ ∫ Intercambiando el orden de integración.16 y de (1.4).76).6.28. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES Del Ejemplo 1. 2⎣ jπf ⎦ (1. Por consiguiente. {sgn(t )} = lim⎢ {sgn(t )} = lim de donde. mientras que su potencia es cero. Transformada del Escalón Unitario 1 De (1. Au ( t ) ⇔ δ( f ) + 2 j2 πf ♣ {u(t )} = 1⎡ 1 ⎤ ⎢ δ( f ) + ⎥.84) -exp(at)u(-t) 1 exp(-at)u(t) t 0 -1 a 2 + 4π 2 f 2 A jπf A sgn( t ) ⇔ Fig. el espectro de energía. En la Fig. Transformadas del Escalón Unitario.17.18. 1. u ( t ) = [ 1 + sgn(t )] .15). . 2 A A Entonces. La misma clase de resultado es de esperar en el caso de señales no periódicas representadas por sus transformadas de Fourier. 1. 1. la energía en el intervalo (−∞ < t < ∞) es finita. DENSIDAD ESPECTRAL DE ENERGIA. más bien que el espectro de potencia.27 ♣ Ejemplo 1.28 se muestra el par de transformadas del escalón unitario. y del Ejemplo 1. por lo tanto.

que es el que nos interesa directamente. la Transformación de Fourier es una transformación lineal isométrica.29. t AΠ( ) ⇔ X(f ) = Aτsinc(τf ) τ La energía total del impulso rectangular se puede calcular con más facilidad en el dominio del tiempo. este espectro se muestra en la Fig. ∞). Del Ejemplo 1. Sea G x ( f ) la densidad espectral de energía de x(t) G x (f ) =| X( f )|2 (1.19. entonces G x ( f ) es par en f y positiva para todo f [G x ( f ) > 0]. La energía es un invariante y es la misma así se tenga una representación temporal o una representación espectral de la señal. también es conocido con el nombre de “Teorema de Plancherel”.88). de (1. 0 La energía contenida en el intervalo de frecuencias | f | ≤ . −∞ ∫ | X(f ) | 2 df (1.13. es decir. |X(f)|2.86) Este resultado se conoce con el nombre de “Teorema de Raleigh”. La cantidad |X(f)|2 se denomina “Espectro de Energía” o “Densidad Espectral de Energía” de la señal x(t). Puesto que la energía es una magnitud positiva.87) E = ∫ G x (f )df = −∞ ∞ ∞ La energía total de x(t) será entonces.86). Estrictamente hablando. que conserva la norma.39 I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES E= ∫ ∞ −∞ | x (t )|2 dt = ∫ | X(f )| ∞ −∞ 2 df (1. En el sentido físico. Ex = 2 ∫ τ/2 A 2 dt = A 2 τ joules 1 τ es. y de acuerdo con (1. Las dimensiones de |X(f)|2 son joules/Hz. es decir. El lóbulo principal se muestra sombreado. Energía de un Impulso Rectangular Se quiere determinar el porcentaje de la energía total contenido dentro del lóbulo principal de la transformada de un impulso rectangular de amplitud A y duración τ. el Teorema de Raleigh traduce el hecho de que la energía de una señal no depende del modo de representación de la señal. Este teorema establece que la energía contenida en una señal x(t) es igual al área bajo el cuadrado del módulo de la transformada de x(t). |X(f)|2df es la energía contenida en un ancho de banda infinitesimal df.88) G x (f ) es la distribución de la energía de x(t) en el dominio de la frecuencia. 1. En efecto. el Teorema de Raleigh dice que en el espacio L2 de las funciones de módulo cuadrado integrable sobre (-∞. ♣ Ejemplo 1.

89) . para cualesquiera constantes a y b. y si B = 3/2τ. En general.67) y (1.7. En la Fig. ♣ 1. 2.5% de la energía a la entrada. Esto equivale a decir que si se aplica el impulso rectangular a un filtro pasabajo de ganancia unitaria y ancho de banda B = 1/τ. En la práctica es de gran utilidad estudiar el efecto en un dominio causado por una operación en el otro.67) y (1. TEOREMAS DE LA TRANSFORMADA DE FOURIER El par de transformadas de Fourier permite la representación de señales tanto en el dominio del tiempo como en el dominio de la frecuencia. El lector puede verificar en la misma forma que si B = 1/2τ. que demandarían laboriosas operaciones si se hicieran a través de las expresiones (1.68) puede hacerse más fácil. criterio que se utiliza en la transmisión de datos en donde se necesita detectar una “presencia” y no una “forma”. si se aplican algunas propiedades y teoremas que simplifican enormemente las operaciones matemáticas. 1. casi por inspección.26(b) se muestra la forma de onda de la salida. Estos distintos valores de B corresponden a diferentes definiciones del ancho de banda de una señal. se verifica que ax 1 (t ) + bx 2 ( t ) ⇔ aX 1 ( f ) + bX 2 ( f ) (1. 0 ∫ 1/ τ sen 2 ( πτf ) (πτf ) 2 df 0 y con el cambio de variables pero 2 π EB= 2A 2 τ π ∫ π 0 sen 2 ( x ) 2 dx = A 2 τ 2 π x ∫ π 0 sen 2 ( x ) dx x2 ∫ π 0 sen ( x ) dx = 0. el lector debe estar atento entonces a la forma como se define el ancho de banda de una señal o de un sistema. Estas y muchas otras preguntas. pero como E B = 0.7. a la salida del filtro se tendrá el 77.903A 2 τ E x = A 2 τ. y de los teoremas que se estudiarán en esta sección. pero a menudo es necesario pasar de un dominio a otro dominio y la resolución de las integrales (1. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES E B = 2A 2 τ 2 ∫ 1/ τ sinc 2 ( τf )df = 2 A 2 τ 2 πτf = x. o cuál es el espectro resultante de una señal que ha sido multiplicada por una señal sinusoidal. se tendrá el 93%.40 I. pues permite encontrar algunas relaciones y visualizar algunos aspectos físicos de las señales y sistemas que no son percibidos a simple vista. la definición del ancho de banda de una señal es una cuestión de convención. Por ejemplo. la salida es parecida a la entrada. como veremos más adelante.903E x La energía contenida en el lóbulo principal de la transformada de un impulso rectangular constituye el 90% de su energía total. a la salida del filtro se tendrá el 90% de la energía a su entrada.903 x2 2 De donde. y cada definición puede ser más apropiada para una determinada aplicación.1. entonces E B = 0.68). uno puede preguntarse qué sucede en el dominio de la frecuencia cuando una señal pasa por un integrador. Teorema de la Superposición o Linealidad Sea x 1 (t ) ⇔ X 1 (f ) y x 2 (t ) ⇔ X 2 (f ) entonces. pueden responderse muy fácilmente mediante la aplicación de las propiedades de la Transformada de Fourier ya vistas.

para Aτ = 1.13 y 1. en la Fig. Solución: x(t) se puede expresar en la forma De los Ejemplos 1.41 I.30(a).7. 1. 1. t t x( t ) = AΠ( ) − 2AΛ ( ) τ τ/2 τf X( f ) = Aτsinc( τf ) − Aτsinc2 ( ) 2 Este espectro se muestra. La señal x(t − t o ) es una versión de x(t) retardada en to segundos.30(b).90) { x(t − t o )} = ∫−∞ x(t − t o ) exp(− j2πft )dt ∞ ∞ Con el cambio de variables t’ = t . entonces x(t ± t o ) ⇔ X(f ) exp(± j2πt o f ) (1. y determinar la transformada total como la suma de las transformadas de las señales individuales. En general. . REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES La demostración de este teorema es directa pues la integración es una operación lineal. Este retardo no afecta al espectro de amplitudes original. ♣ Ejemplo 1.to. pero sí lo hace experimentar un desfase de (-2πtof) radianes.2.20 Calcular y dibujar la transformada de Fourier de la señal de la Fig. un desplazamiento en el dominio del tiempo corresponde a un desfase en el dominio de la frecuencia. Este teorema establece entonces que el espectro de la señal retardada en un tiempo to es igual al producto del espectro de la señal original por exp(-j2πtof). Demostración: Por definición. 1.14. {x(t + t o )} = X(f ) exp( j2πt o f ) y de la misma forma. Teorema de la Traslación o Desplazamiento en el Tiempo Si x(t ) ⇔ X(f ). Este teorema es muy útil pues permite la descomposición de una señal cualquiera en una combinación lineal de señales cuyas transformadas se conocen o son fáciles de calcular. {x(t − t o )} = ∫ x(t ' ) exp(− j2πft ' ) exp(− j2πt o f )dt ' −∞ {x(t − t o )} = exp(− j2πt o f )∫ x(t ' ) exp(− j2πft ' )dt ' −∞ ∞ {x(t − t o )} = X(f ) exp(− j2πt o f ).

4. Demostración: Como x ( t ) = entonces X( t ) ⇔ x ( − f ) X( t ) ⇔ x ( f ) (1.92a) (1. entonces x(-t) = ∫ ∞ -∞ X(f' )exp(-j2 πtf' )df' . entonces para una constante real a. y viceversa. Una compresión en el dominio del tiempo a corresponde entonces a una expansión en el dominio de la frecuencia. de donde a a Este teorema. 1. porque es ya un clásico). entonces x(at) es la señal x(t) con una escala de tiempo t f comprimida en un factor |a|. entonces Si x(f) es par.91) {x(at )} = ∫ {x(at )} = ∞ −∞ x (at ) exp( − j2πft ) dt . El factor de escala 1/|a| asegura que la energía no varía al comprimir o expandir las señales. Teorema de la Dualidad o Simetría Sea x ( t ) ⇔ X(f ) .7. la invariancia de la energía debe mantenerse siempre. Demostración: Supóngase que a > 0.7. algunas veces denominado “Propiedad Escalar de la Transformada de Fourier”. Con el cambio de variables t’ = at ∞ ∫ a 1 −∞ x (t ' ) exp(− j2 π f a t ' ) dt ' = f X( ) a a 1 Si a < 0. En forma similar. en los cuales para obtener respuestas a frecuencias elevadas (expansión en frecuencia) se utiliza altas velocidades de cinta (tiempos más cortos o compresión en el tiempo).3. pero seguimos manteniendo este ejemplo. Esta propiedad permite decir que una señal que es limitada en el tiempo (existe sólo en un intervalo dado) es ilimitada en frecuencia (existe para todo f). se puede demostrar en forma similar que x ( at ) ⇔ f X( ) | a| a 1 {x(at )} = −1 f X( ) . Otro ejemplo se tiene en los grabadores de cinta magnética. y X( )es una compresión de X(f)]. Teorema del Cambio de Escala Sea x ( t ) ⇔ X(f ) . entonces x(at) es una f expansión de x(t). Un ejemplo muy elocuente de esta propiedad se observa cuando se toca un disco de 33 rpm en un tocadiscos de 45 rpm (las nuevas generaciones no saben lo que es un disco de 33 o 45 rpm. cuantifica la relación “duración-ancho de banda” entre una función del tiempo y su correspondiente transformada.42 I. La voz se escucha muy aguda (expansión en frecuencia) pues la pieza se está tocando en menos tiempo (compresión en el tiempo). y viceversa. La transformada de x(at) es x ( at ) ⇔ f X( ) | a| a 1 (1.92b) ∫ ∞ −∞ X( f ) exp( j2πtf )df . X( ) representa la función X(f) con una escala de a frecuencia f expandida o dilatada en un factor |a| [Nótese que si |a| < 1. Si |a| >1. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES 1.

22. es A exp(± j2πf c t ) ⇔ Aδ ( f ∓ f c ) Asimismo. X( t ) = 2 (2 π )π (2π ) 2 + 4 π 2 t 2 ⇔ x (− f ) = π exp(−2 π|− f |) = π exp(−2 π| f |) Como x(-f) es una función par. Ejemplo 1.43 I. si x ( f ) = x ( − f ) . ♣ Ejemplo 1. el dual de la expresión (1. Entonces. finalmente queda x(t ) = 1 1+ t 2 ⇔ X(f ) = π exp(−2 π| f |) ♣ ♣ Ejemplo 1. X( t ) = 1 4π 2 2(2π)π = 2 = 2 2 2 1+ t 4 π + 4π t (2π) 2 + 4π 2 t 2 que tiene la misma forma de la transformada del par conocido.15. {A cos(2πf c t )} = 2 [ δ(f + f c ) + δ(f − f c )] A En consecuencia. A cos( 2 πf c t ) = A 2 exp( j2 πf c t ) + A 2 exp(− j2 πf c t ) Tomando la transformada de Fourier del coseno. obtenido en el Problema de Aplicación 1. Transformada de una Señal Sinusoidal El Teorema de Dualidad permite determinar en forma muy sencilla la transformada de Fourier de una señal sinusoidal. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES Si se reemplaza t por f en la segunda integral. entonces la expresión (1. se puede reemplazar f’ por t. es decir. o sea que X(t) ⇔ x(-f) Si x(f) es una función par. x(− f ) = ∫ ∞ −∞ X( f ' ) exp(− j2πff ' ) df ' A fin de obtener una forma reconocible.81). .92) se reduce a {X(t )} = x(f ) ó X(t) ⇔ x(f) La utilidad de este teorema es que permite la generación de un nuevo par de transformadas de Fourier a partir de un par conocido.21 Se desea determinar la transformada de Fourier de la señal x ( t ) = Se conoce el par x ( t ) = A exp( − a| t |) ⇔ X(f ) = 2 aA a + 4π 2 f 2 2 1 1+ t 2 . En efecto. Del teorema de dualidad o simetría.23(b). es decir. x(− f ) = ∫ ∞ −∞ X( t ) exp(− j2πft )dt .

es decir. En los sistemas de comunicación esta condición se cumple siempre.96) . la frecuencia fc la “frecuencia de portadora” y el producto x ( t )A cos( 2πf c t ) la “señal modulada”. Se tiene entonces que {x(t )A cos(2πf c t )} = y de (1. ∫ x(t) exp[− j2π(f ∓ f )t]dt = X(f ∓ f ) −∞ c c ∞ x( t ) exp( ± j2πf c t ) ⇔ X( f ∓ f c ) Teorema de la Modulación La multiplicación de una señal x(t) por el factor exp(j2πfct) equivale a desplazar su transformada de Fourier en la dirección positiva de f en una cantidad fc.94). Se puede demostrar en forma similar que A x ( t )A sen( 2 πf c t ) ⇔ j X( f + f c ) − X( f − f c ) 2 [ ] (1. la sinusoide A cos( 2πf c t ) la “portadora”. pues generalmente f c >> f m .93b) A sen( 2 πf c t ) ⇔ j [ δ(f + f c ) − δ(f − f c )] El espectro de una señal sinusoidal pura de amplitud A y frecuencia fc está formado por dos impulsos de Dirac de área A/2 y centrados en las frecuencias ±f c . para una constante real fc x ( t ) exp( ± j2πf c t ) ⇔ X( f ∓ f c ) (1.95) Este resultado. A 2 [ δ(f + f c ) + δ(f − f c )] A 2 (1.5 Teorema de la Traslación o Desplazamiento en Frecuencia Si x ( t ) ⇔ X(f ) entonces. la señal x(t) se denomina “señal modulante. No obstante. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES A cos( 2 πf c t ) ⇔ y de la misma forma.94) Demostración: {x( t ) exp( ± j2πf c t )} = ∫ x( t ) exp( ± j2πf c t ) exp( − j2πft )dt −∞ ∞ = Por lo tanto. de capital importancia en los sistemas de comunicación. Estrictamente hablando. el factor exp( j2πf c t ) no es real y por lo tanto no puede ocurrir en un sistema de comunicación. ⎧A ⎫ ⎨ [ x( t ) exp( j2πf c t ) + x( t ) exp( − j2πf c t )] ⎬ ⎩2 ⎭ A x ( t ) A cos(2 πf c t ) ⇔ X( f + f c ) + X( f − f c ) 2 [ ] (1. En efecto. por razones de tipo práctico que veremos más adelante. En este contexto. sin embargo. debe cumplirse que f c ≥ f m . un desfase en el dominio del tiempo corresponde a un desplazamiento en el dominio de la frecuencia. se conoce con el nombre de “Teorema de la Modulación”.93a) (1. este teorema proporciona la base matemática para deducir el principio de la modulación de señales.7. Sin embargo. consideremos la multiplicación de una señal x(t) por una señal sinusoidal de la forma A cos( 2πf c t ) . moduladora o modulatriz”. el teorema de la modulación es válido para cualquiera señal x(t) y cualquier valor de fc . si la señal x(t) tiene una frecuencia máxima f m y posee información a transmitir.44 I. ♣ 1.

86). Energía de una Señal Modulada Sea x(t) una señal de energía. Fig. la expresión anterior se puede escribir en la forma Ec = A2 4 ∫−∞ [ | X(f + f c )|2 +| X(f − f c )|2 ] df = A4 ∫−∞ | X(f + f c )|2 df + A4 ∫−∞ | X(f − f c)|2 df ∞ 2 ∞ 2 ∞ pero cada una de las integrales de la derecha es igual a la energía E x de x(t). de frecuencia máxima f m . Ec = A 2 4 [ X(f + f c ) + X(f − f c )] ∫ ∞ −∞ | X c ( f )| df = 2 A2 ∫ ∞ −∞ | X( f + f c ) + X( f − f c )|2 df Si f c ≥ f m . Fig. el cual está concentrado alrededor de las frecuencias ±f c . es una señal cuyo espectro X(f) está concentrado alrededor del origen y cuya frecuencia máxima es f m .23. La energía de la señal modulada será entonces Ec = A2 2 Ex ♣ donde E x es la energía de la señal modulante x(t). y se desea determinar la energía de la señal modulada x c ( t ) = x ( t ) A cos( 2 πf c t ) ⇔ X c (f ) = De (1. Esta clase de señales se tratará extensamente más adelante.31. x(t) t 0 X(f) 1 x c ( t ) = x( t ) A cos(ω c t ) t 0 −f m 0 X c ( f ) A/2 fm f −f c (a) Dominio del Tiempo 0 fc 2f m f (b) Dominio de la Frecuencia Fig.31 Teorema de la Modulación. se denominan “señales pasabanda” y su ancho de banda es B = 2 f m . En la práctica generalmente se cumple que f c >> f m o f c >> B . ♣ Ejemplo 1. En este caso x(t) es una “señal pasabajo”.31(b). 1. . 1. 1.31(b). 1. es decir. El ancho de banda de esta señal es B = f m .45 I. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES El teorema de la modulación se ilustra en la Fig. Señales cuyo espectro tiene la forma de X c ( f ) .

τ pero t AΠ ( ) ⇔ Aτ sin c( τf ) τ y por el teorema de la modulación. Fig. de gran utilización en sistemas de radar y en sistemas de transmisión de impulsos mediante portadora modulada.32(b) (frecuencias positivas solamente). REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES ♣ Ejemplo 1. Z(f ) = f + fc f − fc ⎤ Aτ ⎡ ) + sinc( )⎥ ⎢ sinc( 2 ⎣ 1/ τ 1/ τ ⎦ Este espectro se muestra en la Fig. 1.22. Transformadas de Impulsos Sinusoidales (a) Transformada de un Impulso de Radiofrecuencia Considérese el impulso sinusoidal de duración τ. X(f ) = 1 πf f cos( )Π ( ) B 2B 2B Su correspondiente antitransformada será: x(t) = ∫ 1 πf 2 B πf cos( ) exp( j2πtf )df = ∫ cos( ) cos(2πtf )df 0 −B B 2B B 2B B . 1.21b). 1. En efecto. τ →∞ lim Z(f ) = lim En consecuencia.32(c). 1. Fig. f + fc f − fc ⎤ A Aτ ⎡ ⎢ sinc( 1 / τ ) + sinc( 1 / τ )⎥ = 2 [ δ(f + f c ) + δ(f − f c )] ⎦ τ →∞ 2 ⎣ A A cos(2πf c t ) ⇔ [ δ(f + f c ) + δ(f − f c )] 2 resultado ya obtenido en el Ejemplo 1. El impulso de RF.32(a). De la Fig.32(c). 1. (b) Antitransformada de un Espectro Cosenoidal Consideremos el espectro cosenoidal mostrado en la Fig. se puede describir en la forma t z ( t ) = AΠ ( ) cos(2πf c t ).32(a). Obsérvese que si la sinusoide fuera de duración infinita ( τ → ∞). de (1.46 I.24. el espectro sería discreto con componentes de frecuencia en ±f c . conocido con el nombre de Impulso de Radiofrecuencia (RF).

6. 1. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES Resolviendo esta integral.98a) (1.97b) si X(0) = 0 X(0) ≠ 0 (1. entonces (1. las transformadas de las señales que son diferenciadas o integradas son importantes.98b) d x(t ) ⇔ ( j2πf )X(f ) dt dn dt n x (t ) ⇔ ( j2πf ) n X(f ) x(t ' )dt ' ⇔ x (t ' )dt ' ⇔ ∫ ∫ t −∞ t 1 X( f ) j2πf −∞ 1 1 X(f ) + X(0)δ(f ) si j2 πf 2 Demostración: x(t ) = ∫ ∞ −∞ X(f ) exp( j2 πtf )df . En esta aplicación particular. En este caso se tiene que .7. obtenemos h(t) = 4 cos(2πBt) que se muestra en la Fig.47 I.20) ♣ 1. Teorema de la Diferenciación e Integración en el Tiempo La Transformada de Fourier se puede emplear para resolver ecuaciones diferenciales lineales.32(d) π(1 − 16B2 t 2 ) Estas transformadas se utilizan para definir filtros de mucha aplicación en la práctica (Ver Ejemplo 2. d x (t ) = dt ∫ ∞ −∞ X(f )( j2 πf ) exp( j2 πtf )df lo cual implica que d x (t ) ⇔ ( j2πf )X(f ) dt Este resultado se puede extender para la derivada n-ésima mediante diferenciaciones sucesivas dentro del signo integral.97a) (1. Si x(t ) ⇔ X(f ).

. es decir. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES dn dt n x(t ) ⇔ ( j2πf ) n X(f ) En cuanto a la integración en t. es que t →∞ lim g (t ) = 0. considérese una función g(t) definida por g (t ) = x (t ' )dt ' ⇔ G (f ) −∞ ∫ t d g (t ) = x(t ). es necesario.48 I. la señal x(t). En efecto. para que g(t) tenga una transformada de Fourier G(f). ∞ −∞ lo cual equivale a X(0) = 0. ∫ x(t )dt = 0. Más adelante demostraremos que la transformada de Fourier G(f) del producto de convolución x( t ) ∗ u( t ) es consecuencia. entonces g(t) ya no es una señal de energía y la transformada de g(t) incluirá impulsos unitarios de Dirac. Si X(0) ≠ 0 . ∫ t x(t')dt' ⇔ 0 1 X( f ) . Mediante diferenciaciones sucesivas se expresa la señal como suma de señales cuyas transformadas son fáciles de evaluar y luego se aplica el teorema. por supuesto. expresión (1. sobre todo de tipo gráfico. quizás algo más restrictiva que la integrabilidad absoluta. por diferenciación sucesiva. dt ( j2πf )G (f ) = X(f ). j2 πf Sin embargo. que se pueda aproximar en una forma lineal por tramos. ⎡ δ( f ) 1 ⎤ 1 1 G (f ) = X(f )⎢ + ⎥ = 2 X(0)δ(f ) + j2 πf X(f ) j2 πf ⎦ ⎣ 2 { x( t )} ⋅ { u (t )} En de donde ∫ t −∞ x (t ' )dt ' ⇔ 1 1 X(f ) + X(0)δ(f ) para X(0) ≠ 0. o sea t →∞ 0 lim x(t ' )dt ' = 0 ∫ t Esto significa que el área bajo x(t) es cero. se transforma en una suma lineal de impulsos unitarios y la transformada X(f) se obtiene directamente aplicando las propiedades y teoremas apropiados al caso. Asimismo. Una condición. integración en el dominio del tiempo corresponde a división por (j2πf) en el dominio de la frecuencia. como se ilustra en el siguiente ejemplo. j2 πf 2 La diferenciación en el dominio del tiempo corresponde a multiplicación por (j2πf) en el dominio de la frecuencia. de donde Es evidente que G( f ) = 1 X( f ) o ( j2πf ) y por el teorema de diferenciación en el tiempo. que G(f) exista. Este teorema permite determinar la transformada de Fourier de una señal cualquiera.72). Generalmente. g(t) se puede escribir en la forma g( t ) = ∫ t −∞ x( t ' ) dt ' = ∫ x( t' ) u( t − t' )dt' = x( t) ∗ u( t) ∞ −∞ donde el asterisco denota un producto de convolución.

101) ⇔ − j2π ∫ f −∞ X( f ' ) df ' Demostración: X( f ) = ∫ ∞ −∞ x (t ) exp( − j2 πft ) dt . resultado idéntico al del Ejemplo 1. 1.25 Verificar la transformada de Fourier de la señal triangular del Ejemplo 1. En la Fig. x'(t) A A τ [ exp( j2πτf ) + exp(− j2πτf )] − 2 [ cos(2πτf ) − 1] = − 4A τ A τ 2A sen 2 ( πτf ) x(t) x''(t) A τ −τ −τ 0 τ t τ −τ t 0 τ −2 A τ A τ t 0 (a) Señal Triangular (a) Primera − A τ Derivada (c) Segunda Derivada Fig.14.14. entonces t x(t) ⇔ 1 d (-j2 π ) df 1 X( f ) dn (1. 1. d df X( f ) = ∫ ∞ −∞ x ( t )(− j2 πt ) exp(− j2 πft ) dt .7. 1. mediante el teorema de diferenciación en el dominio del tiempo.99) t n x(t) ⇔ x (t ) t (-j2 π ) n df n X(f ) para t ≠ 0 (1. d2 dt 2 x (t ) = A τ [ δ(t + τ ) + δ(t − τ )] − 2 A τ τ A τ δ( t ) Tomando la transformada de ambos miembros ( j2 πf ) 2 X( f ) = ( j2 πf ) 2 X( f ) = de donde X( f ) = Aτsinc 2 (τf ).33(b) y (c) se muestran las dos primeras derivadas de la señal triangular de la Fig.7. ♣ 1. De la Fig.49 I.33(a). Teorema de la Diferenciación e Integración en Frecuencia Si x ( t ) ⇔ X(f ).33. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES ♣ Ejemplo 1.33(c). 1.100) (1.

⎦ 2 dt ⎣ x( 2t − 4 ⎡ 2( t − 2 ) ⎤ ) = x⎢ = x( t − 2) = 2sinc[2( t − 2)] 2 ⎣ 2 ⎥ ⎦ Y ( f ) = ( j2 πf ) 2 { x(t − 2) exp( j8πt )} = ( j2πf ) 2 { x(t − 2 )} f → f − 4 Y ( f ) = −4 π 2 f 2 X( f − 4 ) exp[ − j4 π ( f − 4 )] X(f . REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES Por lo tanto. ⇔ ( − j2π ) ∫ f −∞ X( f ' ) df ' para t ≠ 0. de donde t x(t) ⇔ 1 d (-j2 π ) df X( f ) Por diferenciación sucesiva dentro del signo integral.4) = Π ( f -4 ) 2 pero { x(t − 2 )} f → f − 4 = [ X(f ) exp(− j4πf )] f → f − 4 = X(f − 4) exp[ − j4 π (f − 4 )] f x ( t ) = 2 sin c( 2 t ) ⇔ X (f ) = Π ( ) y 2 por consiguiente.26. ⎧ −4 π 2 f 2 exp[ − j4 π (f − 4 )] de donde Y ( f ) = ⎨ en el resto ⎩0 (b) Dada X( f ) = AΛ ( x(t ) = [ 1⎧ para 3≤ f ≤ 5 f + fc B ) exp( − j2πt o f ). d 2 ⎡ 2t − 4 ⎤ (a) Dada y ( t ) = 2 ⎢ x ( ) exp( j8πt ) ⎥ determinar Y(f) cuando x ( t ) = 2 sinc( 2 t ) . se puede aplicar el teorema de dualidad a la expresión (1. ⎤ f ⎫ ⎨ AΛ( ) ⎬ exp( − j2πf c t ) ⎥ ⎩ ⎦ t→t−t B ⎭ o pero −1 ⎧ f ⎫ ⎨ AΛ( ) ⎬ = ABsinc 2 ( Bt ) ⎩ B ⎭ x ( t ) = ABsinc 2 ( Bt ) exp(− j2πf c t ) [ ] t →t −t . obteniéndose x(t ) j2πt x(t ) t ⇔ − X(− f ' ) df ' −∞ ∫ −f y mediante un cambio de variables en la integral. También. Aplicaciones de los Teoremas de la Transformada de Fourier En los siguientes ejemplos se utilizan las Tablas de Transformadas del APENDICE C. d df X( f ) = ( − j2π ) { t x(t)} . de donde o x ( t ) = ABsinc 2 [ B( t − t o )] exp[ − j2πf c ( t − t o )] .98a). se obtiene t x(t) ⇔ n 1 d [n] (-j2π ) n df [ n ] X( f ) En cuanto a la integración en frecuencia.50 I. determinar x(t). ♣ Ejemplo 1.

Y(f) se puede escribir en la forma ⎡d y (t ) = ⎢ ⎣ dt −1 ⎡ ⎤ 1 Y (f ) = ( j2 πf )⎢ ⎥ exp( − j2 πt o f ) ⎣ a + j2 πf ⎦ ⎧ ⎫⎤ 1 ⎨ ⎬⎥ . es conveniente extender el uso de la Transformada de Fourier a señales periódicas. (1. Para las señales periódicas dicha información se obtuvo a partir del desarrollo en Serie de Fourier. x T (t ) = {exp( j2πnf o t )} = δ(f − nf o ) . . poseerá un espectro continuo en el que existirán componentes discretas superpuestas sobre él. TRANSFORMADA DE FOURIER DE SEÑALES PERIODICAS La Transformada de Fourier surgió de la necesidad de conocer el espectro de una señal no periódica. Sea x T ( t ) una señal periódica que se representará mediante su desarrollo en Serie de Fourier x T (t ) = n =−∞ ∑X ∞ ∞ n exp( j2πnf o t ). fo = ∞ 1 T Su transformada será X T (f ) = ⎤ ⎡ ∞ ⎢ X T (f ) = X n exp( j2 πnf o t ) ⎥ exp(− j2 πft ) dt −∞ ⎢ ⎥ ⎦ ⎣ n =−∞ ∫ ∑ n =−∞ ∑ ∫ Xn ∞ ∞ −∞ exp( j2 πnf o t ) exp( − j2 πft ) dt = n =−∞ ∑X ∞ n {exp( j2πnf o t )} por lo tanto. una señal que contenga una parte periódica y una parte aperiódica.51 I. donde X n . ⎩ a + j2 πf ⎭⎦ t → t − t o pero −1 ⎧ ⎫ 1 ⎨ ⎬ = exp( − at )u (t ) ⎩ a + j2 πf ⎭ d dt [ exp(− at )u (t )] = δ(t ) − a exp(− at )u (t ).72)).68). para unificar el análisis.8. mediante un proceso de límites se puede representar una señal periódica en términos de la Transformada de Fourier siempre que a esta transformada se le permita incluir impulsos Delta Dirac. espaciados en fo y cada uno de área X n . expresión (1. Aún más. determinar y(t) . No obstante. se definió en (1. Es evidente que el espectro de una señal periódica seguirá siendo discreto aún cuando se calcule a partir de la Transformada de Fourier.42).102) pero del teorema de traslación en frecuencia. Es evidente que si se desea obtener la transformada de una señal periódica a partir de la definición. el resultado sería infinito pues las señales periódicas no son de módulo integrable (no cumplen con la condición (1. n =−∞ n =−∞ ∑X n exp( j2πnf o t ) ⇔ X T ( f ) = ∑X δ(f − nf n ∞ o) La Transformada de Fourier de una señal periódica es un tren infinito de impulsos unitarios Delta Dirac. Sin embargo. el coeficiente de Fourier. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES (c) Dada Y (f ) = j2 πf exp( − j2 πt o f ) a + j2 πf . de donde ♣ y ( t ) = δ( t − t o ) − a exp[ − a ( t − t o )]u ( t − t o ) 1.

La “envolvente” de la serie infinita de impulsos es igual a fo|X(f)|. y(t) 2A A -2T -T τ A t T 2T −τ / 2 0 τ / 2 Fig. pues esta transformada puede ser obtenida con más facilidad pues se dispone de extensas tablas de transformadas de Fourier.52 I.105) Es evidente que la transformada de Fourier de una señal periódica es una serie infinita de impulsos de Dirac separados en fo y ponderados por el factor foX(nfo). para una señal periódica xT(t). Sin embargo. En resumen. 1.27 Calcular y dibujar el espectro de la señal de la Fig. 1.102) puede escribirse ahora en la forma x T (t ) = ∞ ∞ n =−∞ ∑ ∞ x(t − nT ) = 1 T ∑ X( T ) exp( j2πn T ) n t n =∞ (1. La expresión (1. x T (t ) = n =−∞ ∑ 1 x(t − nT ) = T n =−∞ ∑ ∞ n t X ( ) exp( j2πn ) ⇔ X T (f ) = f o T T n =−∞ ∑ X(nf ∞ o )δ (f − nf o ) (1. donde . En efecto.103) X n = f o X( nf o ) = n X( ) = f o X( f )| f = nfo T T donde X(nfo) es la transformada de x(t) evaluada a las frecuencias discretas nfo . sea x(t) la función generatriz de una señal periódica x T ( t ). ♣ Ejemplo 1. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES El cálculo de los coeficientes de Fourier se puede simplificar mucho cuando se efectúa a través de la Transformada de Fourier.103) permite calcular los coeficientes de Fourier del espectro discreto de x T ( t ) a través de la transformada de Fourier de x(t). hay que verificar siempre que x(t) esté acotada en T. donde X(f) es la transformada de Fourier de la señal generatriz.34. Entonces X n se puede escribir en la siguiente forma Xn = o también ∫ T 1 ∞ −∞ x ( t ) exp(− j2 πnf o t )dt = 1 1 T X(nf o ) (1.34 La señal y(t) se puede expresar en la forma y( t ) = x( t ) + x T ( t ) . La expresión (1.104) Esta expresión es una forma de la llamada “Fórmula de la Suma de Poisson”.

1. y de ∞ (1. es una serie de gran aplicación en el análisis de señales y sistemas. 1. o o) Y( f ) = Aτsinc( τf ) + Aτf o n =−∞ ∑ sinc( nf τ)δ( f − nf El espectro Y(f) se muestra en la Fig. .28. Transformada de un Tren de Impulsos Delta Dirac El tren de impulsos unitarios.35. Fig.103): Xn = fo = 1 T pues X(nf o ) = 1 para todo n La transformada de Fourier del tren de impulsos de Dirac será. ♣ ♣ Ejemplo 1.36 (b) Transformada del Tren de Impulsos Unitarios. 1.36(a). de (1.105).105).53 I. De (1. Esta serie periódica se representa en la forma δ T (t ) = n =−∞ ∑δ(t − nT) ∆ o (f ) δT ( t ) fo ∞ La función generatriz de δ T (t ) es x(t ) = δ(t ) ⇔ X(f ) = 1 para todo f 1 ooo -3T -2T -T 0 T 2T ooo ooo t −2fo 3T ooo −fo 0 fo 2fo f (a) Tren de Impulsos Fig. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES x ( t ) = AΠ ( ) ⇔ X(f ) = Aτsinc (τf ) y x T ( t ) = τ t n =−∞ ∑ AΠ( ∞ t − nT ) ⇔ XT (f ) τ Y (f ) = X (f ) + X T (f ).

como se muestra en la Fig. pero como x(t) no posee una transformada de Fourier X(f). ∞ ⎡ ⎤ ⎢1 + 2 δ T (t ) = f o exp( j2 πnf o t ) = f o cos(2πnf o t )⎥ ⎢ ⎥ ⎣ ⎦ n =−∞ n =1 ∑ ∞ ∑ (1. entonces x T (t ) ⇔ X T (f ) .105).36(b). δ T (t ) = ∑ δ (t − nT) ⇔ ∆ (f ) = f ∑ δ (f − nf ) = f δ o o o n =−∞ o fo (f ) (1. Esta transformada X T ( f ) se utilizará para relacionar x(t) con S x ( f ).37(b) (No confundir esta x T ( t ) con una señal periódica de período T). es decir. S x (f ) será una función par y positiva de f para todo f. Puesto que la potencia es una magnitud positiva.54 I. es decir. determinística o aleatoria. no puede utilizarse una transformada para determinar S x (f ) . ∞ Entonces.107) La densidad espectral de potencia S x (f ) representa simplemente la distribución de la potencia en el dominio de la frecuencia y sus dimensiones son W/Hz. La señal x T (t ) . de (1. 1.37(b). . < x 2 (t ) >= ∫ ∞ −∞ S x (f )df (1.9. T / 2) cumple con las condiciones de existencia de la Transformada de Fourier. es decir. S x ( f ) = S x (− f ) y Sx (f ) ≥ 0 para todo f. sea x(t) una señal de potencia y sea x T (t ) una parte de x(t) comprendida dentro de un intervalo (-T/2. 1. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES ∆ o (f ) = f o n =−∞ ∞ ∑ δ (f − nf n =−∞ ∞ o) = f o δ fo (f ) . se puede definir un espectro de densidad de potencia para señales cuya energía no está definida. ♣ 1. 1. tiene como transformada de Fourier otro tren de impulsos de Dirac de período fo y área fo . En efecto.106a) También. se puede utilizar el concepto conocido como el “criterio de la señal truncada”. representada por S x (f ). T/2). DENSIDAD ESPECTRAL DE POTENCIA 1. se puede definir partiendo de la premisa de que su integral debe ser la potencia promedio de x(t). Definición El espectro de densidad de potencia de una señal x(t). mediante un enfoque determinístico. El problema ahora es conseguir una expresión explícita que relacione x(t) con S x (f ).106b) Un tren de impulsos de Dirac de período T y área unitaria.5). Sin embargo.9. Fig. Introducción De manera análoga al concepto de espectro de densidad de energía. se denomina “señal truncada de x(t)”. que no poseen una transformada de Fourier y que fueron definidas mediante la expresión (1. Muchas señales determinísticas y todas las señales aleatorias pertenecen a esta clase.1. A la función δ T (t ) se la conoce también con el nombre de “función peine de Dirac”. y si en el intervalo (− T / 2. la cual se muestra en la Fig.

pudiera determinarse S x ( f ) pero no así lo contrario. entonces se puede escribir < x 2 (t ) >= lim pero x T (t ) = T →∞ −∞ ∫ ∞ x T (t ) x ∗ (t )dt T entonces ∫ ∞ −∞ X T (f ) exp( j2πtf )df . < x 2 (t ) >= lim 1 T →∞ T ∫ T/ 2 − T/ 2 | x (t )|2 dt = lim 1 T/ 2 x(t ) x∗ (t)dt T →∞ T − T / 2 ∫ Como x T (t ) = x(t ) en el intervalo (− T / 2 . 1.107).109) La cantidad S x (f ) es entonces la “Densidad Espectral de Potencia” de una señal x(t). de donde ∞ ⎡ | X T ( f )|2 ⎤ 1 ∞ ⎢ lim ⎥df < x 2 ( t ) >= lim X T ( f ) X ∗ ( f ) df = T −∞ ⎣ T →∞ T T →∞ T −∞ ⎦ < x 2 ( t ) >= lim 1⎧ ⎪ ⎨ T→∞ T ⎪ ⎩ ∫ ⎡ X T (f )⎢ −∞ ⎣ ∞ ∫ ∞ ∫ ∫ (1. se concluye que S x (f ) = lim | X T (f )|2 T T →∞ siempre que el límite exista (1. vamos a representar la relación entre la señal x(t) y su densidad espectral S x (f ) en la forma x(t) ⇒ Sx(f). Por consiguiente. . T / 2).108) Comparando (1. la cual simplemente expresa que x(t) posee una densidad espectral S x (f ) dada y que. < x 2 (t ) >= lim 1 T →∞ T ∫ ⎡ x ∗ (t )⎢ T ⎣ −∞ ∞ ∫ ⎤ X T (f ) exp( j2πtf )df ⎥dt ⎦ −∞ ∞ ⎤ ⎫ ⎪ x ∗ ( t ) exp( j2 πft )dt ⎥df ⎬ T −∞ ⎦ ⎪ ⎭ ∗ La integral dentro de los corchetes es igual a X T (f ) . REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES x(t) x T (t ) t t -T/2 0 T/2 -T/2 0 T/2 (a) Señal de Potencia Fig.37 (b) Señal Truncada La potencia promedio de x(t) es. de (1.108) con la definición de densidad espectral dada en (1. Para simplificar la notación. mientras que la misma densidad espectral S x ( f ) corresponde teóricamente a un número infinito de señales que difieren entre sí solamente en fase.55 I. Obsérvese que el espectro de densidad de potencia de una señal retiene solamente la información de amplitud perdiéndose la información de fase. conocida x(t). para una señal dada existe un solo espectro de densidad de potencia S x (f ).5). Las unidades de S x (f ) son W/Hz respecto a una resistencia R = 1 Ohm.

3). Teorema de la Modulación para Señales de Potencia Consideremos ahora una señal modulada determinar. En resumen. Esto ocurre debido a que. es decir. x c (t ) cuya densidad espectral se quiere x c ( t ) = x( t ) A cos(2 πf c t ) donde x(t) ⇒ S x ( f ) . En la Fig. Si x(t) es una señal de potencia. al estudiar las funciones de correlación. entonces x c (t ) será también una señal de potencia. 1. Sin embargo. de frecuencia máxima f m . 1. para señales que poseen una transformada de Fourier. siendo x(t) una señal real pasabajo.2. X T (f + f c )X T (− f + f c ) = X T (f − f c )X T (− f − f c ) = 0 de donde X T (f + f c )X T (− f − f c ) =| X T (f + f c )|2 y X T (f − f c )X T (− f + f c ) =| X T (f − f c )|2 . la integral de la expresión (1. la densidad espectral S x (f ) se hace cero. de (1. S xc (f ) = lim | X cT (f )|2 A2 = lim | X T (f + f c ) + X T (f − f c )|2 T T →∞ T →∞ 4 T T→∞ (1. sobre todo de tipo aleatorio. en la práctica nos encontramos con una gran cantidad de señales. de acuerdo con (1. Sea entonces. Más adelante. donde f c ≥ f m . x c (t ) ⇒ S xc (f ) Sea también x T (t ) la señal truncada de x(t).110a) S xc ( f ) = lim S xc (f ) = lim A2 [ X T ( f + f c ) + X T ( f − f c )][ X T ( − f + f c ) + X T ( − f − f c )] 4T A2 [ X T ( f + f c )X T (− f + f c ) + X T ( f + f c )X T (− f − f c ) + T →∞ 4 T + X T (f − f c )X T (− f + f c ) + X T (f − f c )X T (− f − f c )] Supongamos que x T (t ) es pasabajo.109). REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES Obsérvese que en la formulación de la expresión (1. cuando T → ∞. Hagamos entonces x cT (t ) = x T (t )A cos(2πf c t ) cuya transformada es X cT (f ) = A [ X (f + fc ) + X T (f − fc )] 2 T La densidad espectral de potencia S xc ( f ) será. la potencia promedio es cero.109) si X T (f ) es independiente de T. es simplemente la energía de la señal.9. que no poseen transformadas de Fourier y para las cuales el concepto de espectro de potencia sí es aplicable. volveremos sobre este tema. y sea la Fig. es decir.38 donde se muestra el espectro XT(f) de x T ( t ) y sus formas desplazadas X T ( f + fc ) y X T ( f − fc ) . el concepto de espectro de potencia no tiene significado cuando x(t) posee una transformada de Fourier específica.108) tiende a un valor límite.56 I. en consecuencia.38 se puede observar que los productos cruzados se anulan pues sus términos ocupan bandas de frecuencia diferentes. donde x T (t ) ⇔ X T ( f ) . 1. el cual.

111) La expresión (1. que se estudiará en la Sección 1. determinística o aleatoria.112) Este teorema. y de frecuencia máxima f m .11. en el desarrollo de (1.38 Por lo tanto. Si x(t) es una señal de potencia pasabanda.110b) La densidad espectral de potencia de la señal modulada será. Sxc (f ) = lim A 2 ⎡ | X T (f + f c ) |2 | X T (f − f c ) |2 ⎤ + ⎢ ⎥ T →∞ 4 T T ⎣ ⎦ (1. y la expresión (1.110a) aparecerá un producto cruzado de la forma 2X T (f + f c )X T (f − f c ) que será distinto de cero. (1. pues los productos cruzados se anulan.57 I. de (1. el producto cruzado será siempre cero debido a las propiedades de incoherencia de las señales aleatorias. 1. Las propiedades de incoherencia de las señales aleatorias las veremos en el Capítulo III. se verifica que ⎧ x (t )A cos(2πf c t ) ⎫ A2 ⎬ ⇒ S xc (f ) = x c (t ) = ⎨ [ S x (f + fc ) + S x (f − fc )] 4 ⎩ x (t )A sen(2πf c t )⎭ donde S x (f ) es la densidad espectral de potencia de x(t). si x(t) es una señal pasabanda aleatoria (ruido. mediante aplicación de las propiedades de las funciones de correlación. se puede demostrar con más facilidad utilizando el Teorema de Wiener-Kintchine. la expresión (1.39. 1. por ejemplo). o una señal aleatoria pasabanda de ancho de banda 2f m y centrada en ± f c . con f c ≥ f m . A2 S xc (f ) = [ S x (f + fc ) + S x (f − fc )] 4 (1. Sin embargo. El “Teorema de la Modulación para Señales de Potencia” se puede enunciar entonces en la forma siguiente: Si x(t) es una señal de potencia pasabajo. ilustrado en la Fig.3.111) se podrá aplicar entonces a este tipo de señales.111) no será entonces válida para señales pasabanda. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES X T (f + f c ) X T (− f − f c ) X T (f ) X T (f − f c ) X T (−f + f c ) f −fc −fm 0 fm fc Fig.111) es válida para cualquiera señal x(t) pasabajo de potencia.109). .

x ( t ) ⇒ S x ( f ) y x c (t ) = x ( t ) cos( 2πf c t ) ⇒ S c (f ) . donde 1 S c (f ) = S x (f + f c ) + S x (f − f c ) . < x 2 ( t ) >= c ∫ ∞ −∞ S c (f ) df = ∫ [S 4 1 ∞ −∞ x (f + f c ) + S x ( f − f c ) df ] Pero cada una de las integrales de la derecha es la potencia < x 2 ( t ) > de x(t). Entonces. que modula una señal sinusoidal de amplitud unitaria y frecuencia fc . La expresión (1. En general. de (1. válida para señales tanto determinísticas como aleatorias. entonces A2 2 < x 2 (t ) c >= < x 2 (t ) > (1.113) Nótese que la información de fase no interviene en el cálculo de la potencia.113).107).58 I.29. puesto que el seno y el coseno difieren solamente en un factor de fase y por lo tanto tendrán el mismo espectro de densidad de potencia. f c ≥ f m 4 [ ] La potencia de la señal modulada es. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES La expresión (1. de donde. será utilizada continuamente a lo largo de todo el texto. Potencia de una Señal Modulada Sea x(t) una señal pasabajo de potencia. si x c ( t ) = x ( t ) A cos( 2 πf c t + φ ) . Este teorema es de gran aplicación en los sistemas de comunicación para el cálculo de la potencia de señales moduladas y en especial en el cálculo de las relaciones Señal/Ruido (S/N). con una frecuencia máxima f m . ♣ Ejemplo 1. 1 < x 2 ( t ) >= < x 2 ( t ) > c 2 La potencia de una señal modulada es la mitad de la potencia de la señal moduladora. ♣ .112) es válida aunque la modulación se realice con un seno.

.10. El ancho de banda B se puede definir entonces a partir de la expresión ∫ B −B | X( f )|2 df = ∫ 100 p ∞ −∞ | X( f )|2 df (1. por el ruido que siempre está presente. desde un punto de vista práctico. limitada en banda y limitada en el tiempo. Una manera conveniente de relacionar B y τ en forma explícita. si el valor de una señal decrece más allá de cierto límite. Todo depende de la aplicación particular considerada y conviene entonces definir la duración de la señal y su ancho de banda de la manera más apropiada a la aplicación en cuestión. y lo mismo se puede decir de su ancho de banda. Este límite está determinado. una señal de duración infinita (existe para todo t) tiene un espectro contenido dentro de una banda de frecuencias B. una señal cuyo espectro se extiende hasta el infinito (existe para todo f).114b) El ancho de banda y la duración definidos así tienen poco valor práctico pues B y τ no aparecen en forma explícita y es necesario resolver las integrales. En algunos casos se puede definir el ancho de banda B de una señal x(t) como la gama de frecuencias en la cual está contenido un p% de la energía total de la señal. consiste en definir la duración τ de una señal como el tiempo que duraría un impulso rectangular que tuviera la misma amplitud máxima y la misma área bajo el módulo de la señal. es decir. ella debe ser tomada en cuenta. es un caso particular del “principio de incertidumbre” entre una señal y su correspondiente transformada de Fourier (Una discusión de este principio está fuera de los objetivos de este texto). aún si la señal está inmersa en ruido. x ( t ) = 0 para t < t 1 y t > t2 En este caso se dice que x(t) es una señal “limitada en el tiempo”. a la vez. τ τ De la misma manera.19 cuando demostramos que el ancho de 1 t banda B = de un impulso rectangular Π( ) contenía el 90% de la energía total del impulso.59 I. para dos constantes t 1 < t 2 . es decir. Una señal no puede ser. La imposibilidad de que una señal sea limitada simultáneamente en frecuencia y en el tiempo. mientras que en otros casos. RELACION ENTRE EL ANCHO DE BANDA Y LA DURACION DE UNA SEÑAL De acuerdo con la propiedad escalar de la Transformada de Fourier. En forma similar. {x(t )} = 0 para B < |f| En este caso se dice que x(t) es una señal de “banda limitada B”. se puede decir que la señal es despreciable. El problema de la duración de una señal es finalmente una cuestión de convención. en general. Sin embargo. Algunas veces se puede considerar que la señal es despreciable aún antes de alcanzar el umbral del ruido.114a) Esta definición la utilizamos en el Ejemplo 1. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES 1. la duración τ de una señal x(t) se puede definir a partir de la expresión ∫ τ/ 2 −τ/ 2 x 2 ( t ) dt = ∫ 100 p ∞ −∞ x 2 (t )dt (1. tiene la propiedad de que.

115) y (1. el correspondiente ancho de banda se define como el doble del ancho de banda en pasabajo.30. |x(t)| x(0) |X(f)| X(0) t f -B 0 (b) −τ / 2 0 τ / 2 (a) B Fig. 2 BX(0) = ∫ ∞ −∞ | X( f )| df ≥ X(f )df = x ( 0) −∞ ∫ ∞ (1. 1.116) se obtiene el par de desigualdades de donde y en general.117) (1.117) es la relación “duración-ancho de banda” para señales pasabajo. B≥ 1 2τ x(0) x( 0 ) 1 ≥ y 2B ≥ X(0) X( 0 ) τ (1.40 De (1.41(a). REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES τ x(0) = ∫ ∞ -∞ |x(t)|dt ≥ x(t)dt = X(0) -∞ ∫ ∞ (1. Ancho de Banda de un Impulso en Coseno Elevado Sea el impulso en coseno elevado mostrado en la Fig. . En el caso de señales pasabanda.118) = x (0) 2 X( 0) Bτ ≥ 1 1 o B≥ 2 2τ La expresión (1. para el ancho de banda B.116) Estas definiciones se ilustran en la Fig.40 (a) y (b). Esto es así puesto que el espectro aparece centrado en las frecuencias ± f c y se puede considerar como una traslación del espectro pasabajo hacia las frecuencias ± f c . ♣ Ejemplo 1.60 I. 1. 1. respectivamente. Esto lo justificaremos más adelante al estudiar el concepto de señal analítica.115) Igualmente.

como veremos en el Capítulo V. ♣ 1. Por ejemplo. Las funciones de correlación.117). el ancho de banda B del impulso en coseno elevado es B≥ x (0) 2 X(0) = A 2 Aτ / 2 = 1 τ El impulso en coseno elevado es de gran aplicación en la transmisión de impulsos en banda de base. la cual se puede utilizar para detectar una señal repetitiva inmersa en ruido.1. X( f ) = Aτ sinc( τf ) 2 1− τ 2 f 2 De (1.11. pero aplicado a un sistema (Filtros de Nyquist). τ 2 2 1/ τ Aτ 2 sinc(τf ) + Aτ ⎡ f + 1/ τ f − 1/ τ ⎤ ) + sinc( )⎥ ⎢ sinc( 2 ⎣ 1/ τ 1/ τ ⎦ X( f ) = X (f ) = Aτ sen(πτf ) Aτ ⎡ sen(πτf + π) sen(πτf − π) ⎤ + + 2 πτf 4 ⎢ πτf + π πτf − π ⎥ ⎣ ⎦ Desarrollando y simplificando se obtiene finalmente X(f) se muestra en la Fig. Esta forma de análisis es muy importante en dos grandes áreas de aplicación: (1) en la “Autocorrelación”. y esto se puede lograr mediante las llamadas “Funciones de Correlación”.11. surgidas de la teoría moderna de la información. . y del teorema de la modulación. o para medir una banda particular de frecuencias de una señal. FUNCIONES DE CORRELACION 1. 1. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES x(t ) = pero A A⎡ t ⎤ t A t A t t ⎢1 + cos( 2 π ) ⎥Π( ) = Π( ) + Π( ) cos( 2 π ) ⎣ ⎦ τ 2 2 2 τ τ τ τ t Aτ f sinc( Π( ) ⇔ ) . Introducción En muchas aplicaciones en ingeniería no es suficiente decir que dos señales son similares. son muy útiles en el análisis de señales reales tanto determinísticas como aleatorias. que se utiliza para comparar dos señales (que pueden estar perturbadas por ruido) a fin de determinar algún tipo o grado de similaridad entre ellas.41(b). y (2) en la “Intercorrelación”. si un proceso físico produce diferentes señales del tiempo.61 I. Es deseable entonces disponer de una cifra o un conjunto de cifras que nos permitan comparar y cuantificar el grado de similaridad o semejanza entre diferentes clases de señales. una descripción completa de ellas se puede obtener mediante un análisis correlativo. En el Capítulo V se tratará este mismo ejercicio. en general uno desea saber cuán similares son esas señales.

y luego se suman estos productos a fin de obtener una cifra que es una medida de la similaridad entre x 1 ( t ) y x 2 (t ) .42. Vamos a investigar el grado de similaridad que hay entre ellas. ordenada por ordenada.42. 1. El proceso de autocorrelación proporciona una medida de la similitud. Consideremos ahora las señales x 3 (t ) y x 4 ( t ) .2. de manera que cada producto contribuye con un término positivo a la sumatoria y la suma será grande. vemos que habrá productos positivos y negativos que tenderán a cancelarse y el valor de la sumatoria será menor puesto que las señales no son idénticas. se multiplican las ordenadas a1 por b1 . Por ejemplo. 1. Fig. el proceso denominado “autocorrelación”. Autocorrelación Consideremos el conjunto de señales mostrado en la Fig. Pero si efectuamos el mismo proceso entre las señales x 1 ( t ) y x 3 ( t ) . Un estudio más avanzado de las funciones de correlación está fuera de los objetivos del presente texto. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES 1.42. para estimar la similaridad entre las señales x 1 ( t ) y x 2 (t ) . Ellas son idénticas en forma pero x 4 (t ) está desplazada en un tiempo τ1 respecto a x3(t). puede esperarse que la sumatoria resultante tenga valores cada vez más pequeños para valores crecientes del desplazamiento τ. El valor máximo de la similaridad se tendrá cuando τ = 0.11. cuando las señales están superpuestas. x 1 ( t ) y x 2 (t ) son idénticas. semejanza o coherencia entre una señal dada y una réplica de ella desplazada en un tiempo τ variable. t t Un buen método para medir la similaridad entre dos señales es multiplicarlas entre sí. x 1 (t ) a1 a2 t x 2 (t ) b1 b2 t x 3 (t ) x 4 (t ) c1 τ1 d1 Fig. es decir. 1. a2 por b2 y así sucesivamente. en esencia. y luego sumar los productos durante la duración de las señales. Si se efectúa el proceso de multiplicación de ordenadas (de las cuales c 1 y d 1 son un ejemplo) vemos de nuevo que productos positivos tienden a ser cancelados por productos negativos y la suma será pequeña. En la Fig. 1. El valor de la sumatoria es entonces una medida o estimación de la similaridad o semejanza entre dos señales. . La función de autocorrelación es utilizada ampliamente en la detección y reconocimiento de señales que están inmersas en ruido.62 I. Si se tuviera que estimar la similaridad entre una señal x(t) y una versión desplazada de ella x(t+τ).42. Este es.

121) En estas definiciones. en cuyo caso. . característica ésta propia de las señales aleatorias como. esta transformada estará relacionada en alguna medida con el contenido espectral de x(t). En (c) se muestra la función de autocorrelación de una señal constante en el tiempo. R x ( τ ) =< x ( t )x ∗ (t + τ ) >=< x ∗ ( t )x (t + τ ) > (1. Esto nos induce a pensar que si la función de autocorrelación posee una transformada de Fourier. 1. La forma mostrada en (b) representa una señal que no tiene ninguna relación entre dos puntos infinitamente cercanos. R x (τ ) R x (τ ) τ Fig. R x (τ ) = ∫ ∞ −∞ x (t ) x ( t + τ ) dt = x ( t − τ ) x ( t )dt −∞ ∫ ∞ (1. La función de autocorrelación se puede definir también para señales de energía. para x(t) real. 1. el ruido blanco que estudiaremos en el Capítulo II.120) En general. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES Definición En términos más formales. la variable τ juega el papel de un parámetro de exploración o búsqueda. si x(t) es compleja. En la Fig.43 se muestra la función de autocorrelación de tres señales de potencia diferentes. R x (τ ) τ (c) 0 (a) 0 (b) τ 0 La Fig. por ejemplo. R x ( τ) = 1 T ∫ T/ 2 −T/ 2 x( t ) x( t + τ) dt (1. 1. esta correlación no tiene sentido físico.43.119) Si x(t) es periódica de período T. Un examen más atento del proceso de correlación nos muestra que la función de autocorrelación R x ( τ ) es una medida de la rapidez de variación de una señal x(t). la función de autocorrelación está comprimida en el dominio de τ si x(t) tiene componentes de alta frecuencia.122) Esta integral se conoce con el nombre de “Integral de Correlación de x(t)”. la “Función de Autocorrelación” de una señal real x(t) de potencia se define en la forma R x ( τ) = lim 1 T→∞ T ∫ T/ 2 −T/ 2 x( t ) x( t + τ )dt =< x( t ) x( t + τ) > (1.43(a) representa la función de autocorrelación típica de una señal.63 I. y extendida en el dominio de τ si x(t) contiene solamente componentes de baja frecuencia. En efecto.

64 I. Esto se sigue a partir de la desigualdad [válida para x(t) real]. En el Capítulo III. La función de autocorrelación es una función par de τ. En efecto. R x ( 0) = lim T →∞ ∫ T 1 T/ 2 − T/ 2 x 2 ( t ) dt =< x 2 ( t ) > (1. En efecto. La función de autocorrelación de x(t) será . T/2).126) 5. Si el valor promedio (componente continua) de x(t) es distinto de cero. se sigue que R x (τ ) = R x (− τ ) (1. La función de autocorrelación es máxima en el origen. Si x(t) es periódica de período T. La potencia promedio de x(t) es igual a R x (0) . para τ = 0. En efecto. entonces R x ( τ ) será también periódica con el mismo período. entonces se puede escribir x(t) en la forma x ( t ) = b o + x o ( t ) . 2 de donde ± 2x(t)x(t + τ ) ≤ x 2 ( t ) + x 2 (t + τ ) Integrando ambos miembros en un intervalo (-T/2. y < x o ( t ) >= 0. dividiendo por T y tomando el límite T→ ∞. si x(t) es periódica de período T. Propiedades de la Función de Autocorrelación 1. donde b o =< x (t ) > es la componente continua de x(t). sino en la densidad espectral de potencia S x ( f ) de x(t). de donde R x ( τ ) = R x ( τ + T) = R x (τ + nT) (1. entonces x ( t ) = x ( t + T) = x (t + nT) donde n es un entero ≥ 1 R x ( τ ) =< x ( t )x (t + τ ) >=< x ( t + T )x (t + T + τ ) >=< x ( t + nT )x (t + nT + τ ) > . de donde R x ( 0) ≥ R x (τ ) (1.123) El valor de la función de autocorrelación en el origen es igual a la potencia promedio de la señal x(t). En efecto. 0 ≤ [ x ( t ) ± x(t + τ )] = x 2 (t ) ± 2x(t)x(t + τ ) + x 2 ( t + τ ) . ± lim T →∞ ∫ T 1 T/ 2 − T/ 2 2 x (t ) x ( t + τ ) dt ≤ lim 1⎡ ⎢ T →∞ T ⎣ ∫ T/ 2 − T/ 2 x 2 ( t ) dt + ∫ ⎤ x 2 ( t + τ ) dt ⎥ ⎦ − T/ 2 T/ 2 ± 2R x ( τ ) ≤ 2 R x ( 0).125) 4. se calculan algunas funciones de autocorrelación que se utilizan en la caracterización de algunas de las señales digitales que veremos en el Capítulo V. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES Demostraremos más adelante que esa relación no está basada en la transformada de Fourier de x(t) pues x(t) no posee una.124) 3. R x ( τ ) =< x ( t )x (t + τ ) > para 0< τ y R x ( τ ) =< x ( t − τ ) x ( t ) > para τ < 0 Como es indiferente que los desplazamientos sean en el sentido positivo o negativo de t. entonces R x ( τ ) poseerá una componente continua de valor igual al cuadrado del valor promedio de x(t). si < x (t ) >≠ 0. 2.

de (1. . y R x ( τ ) es la transformada de Hilbert de R x ( τ ) . En efecto. Si x(t) contiene componentes periódicas. si < x ( t ) >= 0. |τ |→∞ lim R x ( τ ) = lim [ b 2 + R xo ( τ )] = b 2 + lim R xo ( τ ) o o |τ |→∞ |τ |→∞ pero.128) y (1. entonces R z ( τ ) / 2 es la señal analítica de R x ( τ ) . las señales x ( t ) y x(t + τ ) son tan disímiles que ellas pierden toda relación y ya no hay correlación entre ellas. entonces cuando | τ | → ∞. R x (τ ) exhibirá un comportamiento periódico. entonces |τ |→∞ lim R x ( τ ) = 0 cuando < x ( t ) >= 0 (1. Si < x ( t ) >= b o ≠ 0.130) donde R z ( τ ) es la función de autocorrelación de z( t ) = x( t ) + jx( t ). REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES R x ( τ ) =< [ b o + x o ( t )][ b o + x o ( t + τ )] > R x ( τ ) =< b 2 + b o x o (t + τ ) + b o x o ( t ) + x o ( t ) x o (t + τ ) > o R x (τ ) =< b 2 > + b o < x o (t ) > + b o < x o (t + τ ) > + < x o ( t )x o ( t + τ ) > o pero < b 2 >= b 2 . entonces o o 2 R x (τ ) = b o + R xo (τ ) cuando < x ( t ) >= b o (1. Si R x ( τ ) =< x ( t )x (t + τ ) > y R x (τ ) =< x ( t ) x ( t + τ ) > .129) |τ |→∞ lim R x ( τ ) = b 2 o cuando Las expresiones (1. de acuerdo con la Propiedad 4. Por lo tanto. |τ |→∞ lim R xo ( τ ) = 0 .129) son válidas siempre que x(t) no contenga componentes periódicas.128). aún cuando | τ | → ∞.27) que R x (τ ) = R x (τ ) y R z ( τ ) = 2[ R x ( τ ) + jR x ( τ )] se puede demostrar (Ver (1.128) Esto es así porque cuando | τ | → ∞ . de donde < x(t) >= b o ≠ 0 (1. R xo ( τ ) =< x o ( t ) x o (t + τ ) > . Obsérvese que si z(t) es la señal analítica de x(t).65 I. Todas estas propiedades se aplican tanto a señales determinísticas como aleatorias. Problema de Aplicación 2. para altos valores de τ.127). es decir. < x o (t ) >=< x o ( t + τ ) >= 0.127) Esta expresión nos permite investigar el comportamiento de R x (τ ) cuando |τ|→ ∞. R x ( τ ) → 0 cuando | τ | → ∞ . entonces. y de la expresión (1. 6. la transformada de Fourier de R z ( τ ) (que demostraremos más adelante que es su densidad espectral de potencia) deberá tener un espectro idénticamente nulo para f < 0.

Entonces. Función de Autocorrelación de una Señal Periódica Rectangular Vamos a determinar la función de autocorrelación de la señal periódica de la Fig. Sea R x ( τ ) = R x − (τ ) para En consecuencia. R x − (τ ) = T 2 . combinando estos dos términos se obtiene la señal generatriz R gx (τ ) de R x ( τ ). Entonces.32. R x (τ ) = R x (τ ) = R x (τ ) = A2 T A2 2T A2 2T A2 2 ∫ T/2 −T/ 2 T/ 2 {cos(ωc t + φ ) ⋅ cos[ωc ( t + τ ) + φ]}dt ∫ − T/ 2 { cos[2(ωc t + φ ) + ω c τ ] + cos(ω c τ )}dt cos(ω c τ ) ∫ T/ 2 − T/ 2 dt + A2 ∫ 2T T/ 2 − T/ 2 cos[2 (ω c t +φ ) + ω c τ ]dt pero la segunda integral es cero debido a la periodicidad del integrando. R x (τ ) = cos(ω c τ ) = A2 cos(2πf c τ) 2 El resultado sería el mismo para x ( t ) = A sen(ω c t + φ ) . De la Propiedad 2: x(t) A ooo -T -T/4 0 T/4 T ooo t -T -T/2 0 T/2 T oo τ<0 y R x (τ ) = R x + ( τ ) para 0≤τ R x ( τ ) = R x − ( τ ) + R x + (τ ) para todo τ .44 (b) Función de Autocorrelación de x(t) Por consiguiente. donde φ es un desfase constante.66 I. ♣ ♣ Ejemplo 1. 1. Autocorrelación de una Señal Sinusoidal Sea x( t ) = A cos(ω c t + φ ) . τ → − τ en R x − (τ ) . . y para 0 ≤ τ se hace para − T 2 < τ < 0. Puesto que x(t) es periódica. o también R x + ( τ ) = R x − (− τ ) R x (τ ) A2 / 2 ooo τ (a) Señal x(t) Fig.1. Entonces.44(a).31. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES ♣ Ejemplo 1. R x ( τ ) = R x (− τ ). Solamente se calcula R x− ( τ ) . ∫ T 1 τ − T/ 2 A dt = 2 A2 T (1 − (τ + τ T 2 )= A2 2 (1 + τ T/ 2 ) para 0 ≤ τ < R x + (τ ) = R x − (− τ ) = A2 2 T/ 2 ). R x (τ ) = R x− (τ ) + R x− (− τ ) . Nótese que la información de fase se pierde en la función de autocorrelación.

es igual al área de su densidad espectral de potencia. igual a Rx (0).131) En la expresión (1.44(b). x ( t ) ⇒ S x (f ) = lim | X T ( f )|2 T T →∞ donde X T (f ) es el espectro de la señal truncada de x(t). 1. X T (f ) = Rearreglando.nT) = A2 2 n=-∞ ∑Λ⎡⎢⎣ τT-/nT ⎤⎥⎦ 2 ♣ la cual tendrá la forma mostrada en la Fig. Consideremos entonces la densidad espectral de potencia de una señal de potencia. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES R gx (τ ) = A2 ⎡ | τ| ⎤ A 2 τ 1− Λ( ) ⎢ ⎥= 2 ⎣ T / 2⎦ 2 T/ 2 ∞ ∞ La función de autocorrelación de la señal periódica rectangular x(t) será también periódica: R x ( τ ) = R gx ( τ ) ∗ n=-∞ ∑δ(τ . Esto nos induce a pensar que entre la función de autocorrelación y la densidad espectral existe una relación muy estrecha que vamos a tratar de determinar. Por transformada de Fourier inversa 1 {S x (f )} = ∫−∞ lim ∞ | X T ( f )|2 T T →∞ exp( j2πτf ) df (1. la función de autocorrelación. 1 ∫ T/ 2 −T/ 2 x T ( t ' ) exp(− j2 πft ' )dt ' ⎧ y X ∗ ( f ) = X T (− f ) = T ∞ ∫ T/ 2 −T/ 2 x T ( t ) exp( j2 πft )dt ⎫ {S x (f )} = Tlim T ∫− T/ 2 x T (t )⎨∫− T/ 2 x T (t ' )⎡ ∫−∞ exp[ j2π (t − t '+ τ )f ]df ⎤dt '⎬dt ⎢ ⎥ ⎣ ⎦ ⎭ ⎩ →∞ 1 T/ 2 T/ 2 . 1 {S x ( f )} = Tlim T ∫ →∞ 1 ∞ −∞ X T ( f ) X ∗ ( f ) exp( j2πτf )df T Como x(t) es real. verifica la relación (de la Propiedad 1) R x ( 0) =< x 2 ( t ) >= ∫ ∞ −∞ S x ( f ) df Esta expresión nos dice que la potencia promedio de una señal de potencia.131) se ha elegido una nueva variable τ pues la variable t está ya implícita en la definición de X T ( f ) .11. es decir. Intercambiando el orden de las operaciones. además de ser una medida de la semejanza entre una señal x(t) y una réplica de ella desplazada en un tiempo τ . 1. entonces.67 I. Teorema de Wiener-Kintchine Hemos visto que las señales de potencia se pueden caracterizar mediante la densidad espectral de potencia y sería muy conveniente averiguar si hay alguna operación que utilizando las funciones de correlación permita relacionarlas con la densidad espectral de potencia. En efecto.3.

2 se demostró el Teorema de la Modulación para Señales de Potencia. de (1.9. aplicando las técnicas del cálculo numérico de la transformada de Fourier que se dan en el APENDICE A. 1. y por transformación de Fourier de R x ( τ ) se obtiene S x ( f ) . la densidad espectral de potencia de x(t).132b) La deducción rigurosa del Teorema de Wiener-Kintchine está fuera de los límites que nos hemos impuesto. Esta equivalencia tiempo ⇔ frecuencia es aplicable tanto a señales determinísticas como aleatorias. Este teorema lo podemos demostrar también utilizando el Teorema de Wiener-Kintchine. y la importancia práctica del Teorema de Wiener-Kintchine es que las operaciones de cálculo se pueden efectuar en forma muy eficiente y rápida mediante cálculo numérico en computadoras digitales. Sea x(t) una señal pasabajo de potencia.132a) Este resultado. la función de autocorrelación no depende de la forma de la señal en el dominio del tiempo (pues ha perdido la información de fase) sino de su contenido espectral. La mayoría de las señales en las comunicaciones y en muchas otras áreas de la ingeniería eléctrica son señales de potencia cuyo contenido espectral debe ser bien conocido. y de la propiedad de muestreo del impulso unitario se obtiene finalmente 1 {S x ( f )} = Tlim ∫ →∞ T/ 2 − T/ 2 x T ( t )x T ( t + τ )dt Como x T ( t ) = x ( t ) en el intervalo (-T/2. primero se determina la función de autocorrelación R x ( τ ) de x(t). Las relaciones de Wiener-Kintchine demuestran que la función de autocorrelación de una señal contiene solamente aquellas componentes de frecuencia presentes en la señal misma. de banda limitada B. y sea la señal modulada x c ( t ) = x ( t ) A cos(ω c t ) con f c ≥ B .68 I. R x (τ ) = ∫ ∞ −∞ S x ( f ) exp( j2 πτf )df ⇔ S x ( f ) = ∫ ∞ −∞ R x (τ ) exp(− j2 πfτ ) dτ (1. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES La integral dentro de los corchetes es. es decir. entonces 1 T/ 2 1 {S ( f )} = lim x ( t )x (t + τ )dt =< x (t ) x ( t + τ ) >= R x ( τ ) . T/2). R x ( 0) = ∫ ∞ −∞ x 2 ( t ) dt = E x energía de x(t) (1.11. Teorema de la Modulación para Señales de Potencia En la Sección 1. Si las señales son de energía. es decir.133) G x ( f ) =| X( f )|2 = X( f ) ⋅ X( − f ) ⇔ R x ( τ ) = x( t ) ∗ x(-t) El Teorema de Wiener-Kintchine proporciona un método práctico para la determinación de la densidad espectral de potencia de una señal x(t) cualquiera. En efecto. se conoce con el nombre de “Teorema de Wiener-Kintchine” o “Relaciones de Wiener-Kintchine”. se verifica que x( t ) ⇔ X( f ). de donde x T→∞ T − T / 2 ∫ S x (f ) ⇔ R x (τ ) (1. de gran importancia en el análisis espectral de señales.4. donde . igual a δ( t − t '+ τ ) .21d). Este teorema establece que la función de autocorrelación y la densidad espectral de potencia forman un par de transformadas de Fourier.

llamada también “correlación cruzada” o “correlación mutua”. se dice entonces que las señales son ortogonales. Cuando las señales son tan disímiles que aún para τ = 0 la intercorrelación es cero.69 I. La intercorrelación entre dos señales x(t) e y(t) se define en la forma R xy (τ ) = lim T →∞ ∫ T 1 T/ 2 −T/ 2 x ( t )y (t + τ )dt =< x ( t )y (t + τ ) > (1. La función de intercorrelación contiene información respecto a las frecuencias comunes a ambas señales y a la diferencia de fase entre ellas. como vimos en la Sección 1. la condición de ortogonalidad total entre dos señales x(t) e y(t) se expresa mediante la integral ∫ ∞ −∞ x ( t )y (t ) dt = 0 (1. En general. es decir. 1. permite la comparación entre dos señales diferentes pero coherentes. es decir. de donde R xc (τ) = A2 R x (τ) cos(2πf c τ) 2 (1.112).134b) resultado ya obtenido anteriormente.135) Puede observarse que si entre las señales x(t) e y(t) existe algún grado de semejanza.5. expresión (1. Mediante el Teorema de Wiener-Kintchine. la integral correspondiente es cero. la transformada de Fourier de R xc ( τ ) es S xc ( f ) = A2 4 [ S x (f + f c ) + S x (f − f c )] (1.136a) entonces x(t) e y(t) son ortogonales y no habrá ninguna correlación entre ellas. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES x(t ) ⇒ S x (f ) ⇔ R x (τ ) y x c ( t ) ⇒ S xc (f ) ⇔ R xc (τ ) R xc ( τ ) =< x c ( t )x c ( t + τ ) >= A 2 < x (t ) cos(ω c t ) ⋅ x (t + τ ) cos[ω c ( t + τ )] > R xc ( τ ) = R xc (τ) = A2 2 < x ( t ) x (t + τ )[ cos[ωc ( 2 t + τ )] + cos(ωc τ )] > A2 A2 cos(ωc τ) < x ( t ) x ( t + τ) > + < x ( t ) x ( t + τ) cos[ωc (2 t + τ)] > 2 2 Debido a la periodicidad del segundo término.5.11. < x ( t ) x ( t + τ ) cos[ω c ( 2 t + τ )] >= 0 . si R xy ( τ ) = lim T →∞ ∫ T 1 T/ 2 − T/ 2 x ( t )y (t + τ )dt = 0 para todo τ (1. Intercorrelación La intercorrelación. entonces la función de intercorrelación existirá en un cierto rango de τ .2. proporcionando así una medida cuantitativa del grado de similitud o coherencia entre ellas.134a) donde R x ( τ ) =< x( t ) x( t + τ ) > es la función de autocorrelación de x(t) y R x (τ) ⇔ S x (f ) . y que es el Teorema de la Modulación para Señales de Potencia.136b) .

y sus funciones generatrices son x g ( t ) ⇔ X g ( f ) e y g (t ) ⇔ Yg ( f ) .141) (b) [R x ( 0) + R y ( 0) ] ≥| R xy ( τ )| 3.138) La densidad interespectral de potencia suministra. Asimismo. es decir. la “densidad interespectral de potencia” o “densidad espectral mutua” o “densidad espectral cruzada” de dos señales. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES Si x(t) e y(t) son periódicas de período T. Si dos señales x(t) e y(t) no están correlacionadas y sus valores promedio son distintos de cero. es decir. en el dominio de la frecuencia.143) Nótese que si x(t) o y(t) no poseen una componente continua. R xy ( τ ) = R yx (− τ ) 2.139) R x ( 0) ⋅ R y ( 0) ≥| R xy ( τ )| 1 2 (1. 4. pero no correlación no necesariamente implica ortogonalidad.137) Se puede demostrar que la función de intercorrelación resultante es también periódica de períodoT.140) (1. sin demostrarlas. entonces (1. ortogonalidad implica no correlación. Si < x (t ) >≠ 0 y < y(t) > ≠ 0. la misma información acerca de las señales que la que suministra la función de intercorrelación. La ortogonalidad es una condición mucho más estricta que la no correlación. como puede apreciarse en la expresión (1.144) .142) R xy ( τ ) =< x ( t )y (t + τ ) >=< x ( t ) > ⋅ < y ( t ) > pero si < x ( t ) > ó < y(t) > o ambos son cero. (a) (1. es decir. se cumple que su función de intercorrelación es igual al producto de sus valores promedio. En cuanto al dominio de la frecuencia. la función de intercorrelación será R xy ( τ ) = ∫ T 1 T/ 2 − T/ 2 x ( t )y (t + τ )dt (1. algunas propiedades de la función de intercorrelación. Sin embargo. entonces R xy ( τ ) = 0 si x(t) y y(t) son ortogonales (1. entonces la ortogonalidad implica no correlación. S xy ( f ) ⇔ R xy ( τ ) (1.136b). La función de intercorrelación no es conmutativa. si x(t) e y(t) son ortogonales. en general. se verifica que R xy (τ ) ⇔ S xy ( f ) = 2 fo n=-∞ ∑X ∞ g ( nf o ) Yg ( nf o )δ ( f − nf o ) (1. entonces R xy ( τ ) = 0. 1. se define como la transformada de Fourier de su función de intercorrelación. Propiedades de la Función de Intercorrelación A continuación damos.70 I. Si x(t) e y(t) son periódicas de período T=1/fo .

es decir. como.128).71 I. R x (τ ) = R p (τ ) + R n (τ ) Tomemos el límite | τ | → ∞ de esta expresión: |τ |→∞ lim R x ( τ ) = lim R p (τ ) + lim R n ( τ ) |τ |→∞ |τ |→∞ Puesto que p(t) es periódica de período T. y suponemos que sus valores promedio son cero. Su habilidad para medir cuantitativamente el grado de semejanza o coherencia entre dos señales. R x (τ ) =< x ( t )x ( t + τ ) >=< [ p ( t ) + n ( t )][ p ( t + τ ) + n ( t + τ )] > R x ( τ ) = R p ( τ ) + R n ( τ ) + R pn (τ ) + R np (τ ) Pero de la Propiedad 3 de la función de intercorrelación. . por ejemplo. En general.6. En estos casos las técnicas de correlación tienen una gran importancia. como < n( t ) >= 0. R pn ( τ ) = R np ( τ ) = 0 puesto que < p(t) >=< n(t) >= 0 . en la detección de señales de radar o de periodicidades en encefalogramas. por lo tanto |τ|→∞ lim R x ( τ) = R p ( τ + kT) + lim R n ( τ ) |τ|→∞ |τ |→∞ pero de (1. su función de autocorrelación también será periódica de período T para todo τ . Sea una señal x(t) que contiene una componente periódica de período T más una señal aleatoria (ruido) que enmascara completamente la componente periódica. si la función de autocorrelación de una señal x(t) cualquiera muestra un comportamiento periódico de período T. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES La intercorrelación es muy útil en la descripción del grado de conformidad entre dos señales diferentes en función de su desplazamiento mutuo. < p (t ) >=< n ( t ) >= 0. es porque la señal x(t) contiene una componente periódica con el mismo período. en el estudio de vibraciones y en muchas otras aplicaciones del Análisis Espectral de Señales. Entonces. No hay correlación entre p(t) y n(t). pero aquí sólo trataremos la detección de una componente periódica en presencia de ruido.145) La importancia de esta expresión es que para valores altos de τ la función de autocorrelación de la señal x(t) exhibe un comportamiento periódico del mismo período de p(t). Finalmente. La señal x(t) se puede expresar en la forma x(t ) = p (t ) + n(t ) donde p(t) es una componente periódica de período T y n(t) es una señal aleatoria. entonces lim R n ( τ ) = 0 . en la transmisión de señales digitales. 1.11. permite visualizar con más profundidad los fenómenos investigados que si se analizara cada señal por separado. Detección de una Señal Periódica en presencia de Ruido En muchas ocasiones es necesario detectar periodicidades escondidas dentro de otras señales. en especial señales contaminadas con ruido. |τ|→∞ lim R x ( τ ) = R p ( τ + kT) (1. Entonces.

una señal periódica rectangular es a la vez una señal de potencia y es determinística. Otras técnicas matemáticas. de densidad espectral de potencia y energía. El estudio sistemático de los modelos de señales se inicia mediante el establecimiento de una primera clasificación que se corresponda con los fenómenos físicos o señales reales que se observan en la práctica. sino que también revela la forma o perfil de dicha componente. Esto quiere decir que este método no sólo detecta la presencia de una componente periódica. de ancho de banda. se establecen modelos para señales periódicas y no periódicas.72 I. R pq ( τ ) tendrá también una componente del mismo período. A partir del Análisis de Fourier. El análisis espectral de señales es esencial para comprender muchos fenómenos no perceptibles en el dominio del tiempo. por ejemplo. pues éstas son señales de mucha aplicación en el campo de la ingeniería eléctrica y particularmente en las telecomunicaciones. R xq ( τ) exhibirá un comportamiento periódico del mismo período que q(t).). REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES En una forma alterna. la componente periódica de x(t). Wiener-Kintchine. comprendemos los conceptos de espectro. Este análisis lo enfocamos desde el punto de vista de las Series y Transformadas de Fourier. de sus propiedades y teoremas derivados (Parseval. se han definido y aplicado en el análisis espectro-temporal de señales. Dado el carácter introductorio de este texto. Asimismo. 1968] que R xq ( τ) reproduce q( τ) . RESUMEN < n( t ) >= 0 . 1.12. R xq ( τ) =< x( t ) ⋅ q ( t + τ) >=< [p( t ) + n( t )] ⋅ q ( t + τ ) >=< p( t ) ⋅ q ( t + τ) > + < n( t ) ⋅ q( t + τ) > Como n(t) y q(t) no están correlacionados y además < n( t ) q ( t + τ) >= 0 . etc. que nos proveen de las herramientas analíticas necesarias para emprender el estudio de las señales y sistemas en el dominio de la frecuencia. y es el modelo de una señal de temporización (reloj). del mismo período que p(t). Un estudio más avanzado de estas técnicas está fuera de los objetivos de este texto. Raleigh. Esta primera clasificación comprende las señales determinísticas y aleatorias por un lado. entonces El objetivo principal de este capítulo es la representación en los dominios del tiempo y de la frecuencia de señales con énfasis en sus aplicaciones en el área de las comunicaciones. de donde R xq ( τ) =< p( t ) ⋅ q( t + τ) >= R pq ( τ) Puesto que los procesos p(t) y q(t) tienen componentes de igual período. y por el otro comprende las señales de energía y de potencia. Por consiguiente. generado localmente. tales como la convolución y las funciones de correlación. La mayoría de las señales utilizadas en la práctica corresponde a algunos de estos modelos. por lo tanto. el desarrollo de modelos matemáticos que representen las señales y sistemas físicos para emprender el análisis de las interrelaciones señales-sistemas. . Si q(t) tiene la forma de un tren de impulsos unitarios de período T. se puede demostrar [Lathi. Se tiene entonces. el Capítulo I es simplemente una muestra de la ingente cantidad de herramientas matemáticas y conceptuales necesarias para un estudio más avanzado de la Teoría de la Comunicación. Es necesario. pero es suficiente para comprender los conceptos que se estudiarán en el resto del texto. En el Capítulo II aplicamos estos conceptos a los sistemas lineales. se puede correlacionar mutuamente x(t) con un proceso periódico q(t).

1). E = 0. .t).u(t). 1. (a) x ( t ) = A exp( − (b) (c) 1. ⎣ T ⎦ 2T E = 3A 2 T joules Demuestre que las potencias promedio de las siguientes señales son las correspondientes dadas.1. (a) 0 x T (t ) A t A = 10. (d) x ( t ) = Aτ τ + jt .2) + 2u(t).u(t . τ t (i) x(t) = 1. (i) u(t) .47 1. t 2T ). (e) r(t) ⋅ u(t . (b) x(t) = A| cos(ω c t )|. Grafique las siguientes señales: (a ) r(t + 2).3 A T r ( t ) Π( | t| T ) Π( ). (b) r(-t .1) ⋅ δ(2t). (a) x ( t ) = 2 cos( 6πt − π / 2 ). τ τ |t | τ )Π ( t 2τ A t ) cos(ωc t ) Π( t−τ τ ) con 1 fc (g) x ( t ) = A exp( − (h) A t Π( ).45 (b) x T (t ) T = 2 ms t xT(t)=10exp(-10 < x 2 (t ) T 3 |t|) 0 Fig. (l) u(t) ⋅ u(1.2 W x T (t ) T = 1 ms < x 2 ( t ) >= 1 W T Fig. Grafique las siguientes señales de energía y verifique que sus energías son las dadas.73 I. Calcule la energía o la potencia. (d) u(2t . t (c) x(t) = Atexp(.2.2r(t .33 W T Fig.8647A 2 T joules E= A2T 3 joules t −T/ 2 T ⎡ πt ⎤ t x ( t ) = A⎢1 + cos( ) ⎥Π( ).1). (c) r(t) .1). (f ) r(t) . de potencia o ninguna de las dos.)Π ( ).) u ( t ) τ t (f) x(t) = Aexp( ) cos(ωc t ) τ << τ t t (e) x(t) = Aexp(. T T = 10 -3 seg < x 2 ( t ) >= 33.1). ( j) 3δ(t .2 π ) (g) exp(-at)u(t .1). 1. (n) δ(2t . (m) r(t)cos(ω o t ). (h) exp(-at)δ(t . REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES PROBLEMAS DE APLICACION 1. según el caso.2). Clasifique cada una de las señales siguientes como señales de energía.1). (k) δ(t .4. 1.46 (c) 0 T/2 -1 T/2 T +1 T/2 t >= 43.

t o )u ( t − t 1 ) = ⎨ (l ) u(τ . (c) x(t) = cos(60πt) + cos(50πt).u(t .3)]dt = -1. 2 t t (q) Π( ) + Λ ( ). 1. (b) x(t) = 10cos(60πt) + 5cos(25t) t t (d) x(t) = cos( ) + cos( ) 3 7 (h) x(t) = sen(2t) + cos( πt) (e) x(t) = n=-∞ ∑ Π(t − 5n). δ(t . (a ) x(t) = cos(6πt) + cos(6 2 πt ). δ (t .086 π2 2 -∞ ∞ ∫ ∫ -∞ ∞ ∫ -∞ (t 3 + 4)δ (1 − t )dt = 5 ∫ -∞ ∫ ∫ t (t 2 + 2)δ ( − 1) dt = 12 2 -∞ ∞ ∞ ∞ -∞ ∞ -∞ [δ(t) + u(t) . (t ) sgn(t)sen(ω o t ).8.2t). π 4 ). 2 ∫ ∫ 1 1 δ (1.πt)cos( )dt = − .7. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES t t (s) 2 Π( ) ⋅ Λ ( ) 2 2 t-2 2 ).2t).9. (x) 10(t . ∫ (d) ∫ (b) (f) (h) (j) -∞ ∞ t 2 exp[ − sen( t )] cos(2 t )δ (2 t − 2 π )dt = δ(t + 3)exp(-t)dt = 20. 8 4 t (r) Π( ) − Λ ( t ). 1. t π -∞ ∞ -∞ ∞ (t 3 + t 2 + t + 1)δ(t − 3) dt = 40. ∞ (f) x(t) = cos(5πt) + sen(6πt). Dibujar los fasores y los espectros uni y bilaterales de las señales (a ) x(t) = 5cos(6πt (b) x(t) = 2sen(10πt π 6 ) 1.5. (u) 2 Π(2t + 1). t ⋅ u(2 .2)cos[ π(t .2)]dt = 3 ⎧1 para t o ≥ t 1 t . Demostrar las siguientes transformaciones trigonométricas (Sugerencia: Utilice fasores): (a ) x(t) = A 1 cos(ω c t ) + A 2 cos[(ω c + ω m ) t ] = E (t ) cos[ ω c t + ψ( t )] 2 donde E ( t ) = A 1 + A 2 + 2A 1A 2 cos(ω m t ) 2 con f c ≥ f m A 2 sen(ω m t ) A 1 + A 2 cos(ω m t ) con f c ≥ f m y ψ(t) = arctg (b ) x(t) = A 1 cos(ω c t ) + A 2 sen[(ω c + ω m ) t ] = E (t ) cos[ ω c t + ψ( t )] . 1.2) Π( 2 t+2 t−2 t+2 t−2 (y ) exp(t) Π( ) + exp(− t ) Π( ).t) ⋅ u(t)dt = 2. Verifique las siguientes integrales (a ) (c) ( e) ( g) ( i) ∞ ∞ t (o ) δ( + 2 ). (t 3 + 3)δ (3t − 9) dt = 10.6. Verifique si las señales siguientes son periódicas. Demuestre que el período de la señal periódica x( t ) = 10 cos2 ( t ) es igual a (k ) ∫ ∫ π. en cuyo caso determine el período.74 I.1) dτ = r ( t − 1) -∞ -∞ ⎩ 0 para t o < t 1 1. (v) Λ (4 . (z) exp(-t) Π( ) + exp(t ) Π( ) 2 2 2 2 (p) δ(1.

1. (a ) x(t) = 6sen(50πt)cos(10πt) + 10cos(60πt)cos(20πt). φn = 0 A Coseno t -T -T/2 -T/4 0 T/4 T/2 T ⎧ -A(-1) n/ 2 ⎪ para n par X n = ⎨ ( n 2 − 1) π ⎪ ⎩ 0 para n impar φn = 0 Fig. referencia f c = 20 (b ) x(t) = [ A c + A m cos(ω m t )] cos(ω c t ) con A c > A m y f c >> f m (c) x(t) = A c cos(ω c t ) − A m sen(ω m t ) ⋅ sen(ω c t ) con A c > A m y f c >> f m (d ) x(t) = A c cos(ω c t ) + n c ( t ) cos(ω c t ) − n s ( t ) sen(ω c t ) 1.12. Exprese x(t) en la forma polar x ( t ) = E ( t ) cos[ω c t + ψ( t )] y dibuje su diagrama fasorial. 1.75 I.10. entonces ∫ a +T/ 2 a −T / 2 x (t ) dt = ∫ T/ 2 − T/ 2 x ( t ) dt = ∫ x(t )dt T 0 y ∫ T+t x(t)dt = x(t)dt 0 T ∫ t 1.11. A Xn = t A n sinc 2 ( ) 4 4 -T -T/2 -T/4 0 T/4 T/2 T Fig. Desarrolle también x T ( t ) en serie de Fourier con A = 8. Demuestre que si x ( t ) = x ( t + T ) . φn = π / 2 .50 (c) Diente de Sierra X o = A / 2. 1. En las señales periódicas siguientes verifique que el coeficiente de Fourier X n es el dado. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES 2 donde E ( t ) = A 1 + A 2 + 2A 1A 2 sen(ω m t ) 2 y ψ(t) = -arctg A 2 cos(ω m t ) A 1 + A 2 sen(ω m t ) 1.48 (a) Xo = A 4 .49 (b) Rectificación en Media Onda A t -2T -T 0 T 2T Xn = j A 2πn para todo n y n ≠ 0 Fig.

1.12 se aplica a un filtro pasabajo de ganancia 2 y ancho de banda B = 2500 Hz. 1. La salida rectificada de media onda del Problema 1. 1 . 1. La señal (d) del Problema 1. F ig . Si A = 10 V y T = 1 ms.24%.975 cos( 2 πx10 3 t − 80. φ n = 0 ⎢α − 2π ⎣ 2 ⎦ Para desarrollar xT(t) en Serie de Fourier. compruebe que (a) La potencia de entrada al filtro es de 43.13.642 + 3.6321A 1 + j2πn para todo n -T Fig.5 3 Xn = X1 = 1 cos(α)sen (2α) − nsen (α ) cos(nα ) π n (n + 1)(n − 1) para todo n. demuestre que el Factor de Rizado a la salida del filtro es del 48. suponga que α = π / 4 .76 I.006 cos(4 πx10 3 t − 85.96 o ) +2 . Si A = 100 V y f o = 60 Hz .52 (e) 0 Xo = A .73 W 1.12 se aplica a un filtro pasabajo de ganancia unitaria y ancho de banda B = 400 Hz.45 o ) (c) La potencia de salida del filtro es de 169.14. φ n = arctg(2 nπ) 3 x T (t) t αT / π 0 T /2 2 T ( f ) C o r r ie n t e e n u n A m p lif ic a d o r C la s e C .233 W (b) La salida del filtro es y ( t ) = 12 . X o = π [ sen(α ) − α ⋅ cos(α )] . . excepto n=± 1 y n=0 sen(2α ) ⎤ 1 ⎡ 1 ⎥. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES Exponenciales A A/e 0 (d) t T Xn = 0.51 φ n = − arctg( 2 πn ) A Parábolas t -2T -T Xn = A T 2T 1 + j2 πn 2π 2 n 2 para todo n y n ≠ 0 Fig.

T 1 T/2 -T/2 ∑ |V 2|⋅|I n n=1 n| cos(θ n − φ n ) 1. (a) Dibuje el espectro de potencia | X n |2 vs nf o de las tres señales del Problema 1.16. 1.55 tiene un voltaje aplicado v(t) de la forma v ( t ) = Vo + ∑|V | cos(2πnf t + θ n o n=1 ∞ n |cos( 2πnf o t ∞ n) i(t) v(t) Circuito Eléctrico Fig. 1. 1.17. Sea la señal periódica de la Fig. 1.77 I. Demuestre: (a) Que el Coeficiente de Fourier Xn es Fig. 1.5sin c 2 ( ).15. Suponga que el circuito eléctrico de la Fig. (b) Si estas tres señales se aplican separadamente a un filtro pasabanda de ganancia unitaria. X o = 2.3 (Tome seis componentes a cada lado del origen).54. de ancho de banda B = 1400 Hz y centrado en f c = 1500 Hz . φn = 0. determine las correspondientes potencias de salida del filtro. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES 1. la potencia disipada en la resistencia es de 266. 1.54 xT(t) 10 t -5 -4 -3 -2 -1 0 -10 1 2 3 4 5 n n X n = 5(−1) n sin c( ) − 2.18.55 La corriente i(t) correspondiente vendrá dada por i (t ) = I o + ∑|I n=1 + φn ) Si se define la potencia promedio de entrada al circuito en la forma demuestre que la potencia de entrada se puede expresar en la forma P = Vo I o + ∞ P= ∫ v(t) ⋅ i(t)dt .5 2 4 (b) Que si la señal se aplica a una resistencia de 1000 Ohm. 1. . nótese que p(t) tiene la forma de una señal rectificada de onda completa.67 mW.55 es v(t) = Vo cos(2πf o t) y la corriente i(t) tiene la forma i(t) = Io n =−∞ ∑ ⎢Π ( T / 2 ) − Π ( ⎣ ∞ ⎡ t − nT t − nT − T / 2 ⎤ )⎥ T/2 ⎦ (a) Demuestre que la potencia instantánea p(t) = v(t) i(t) es igual a p(t) = Vo I o cos(2πt) con T = 1. El voltaje aplicado al circuito eléctrico de la Fig. Este problema hay trabajarlo en forma gráfica. Aplique el concepto de Transformada de Fourier de Señales Periódicas.

1. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES (b) Demuestre que la potencia promedio de p(t) es < p 2 (t) >= 1 2 2 Vo Io 2 1.031cos(960πt) + .. X = 0.926 W (c) La señal x(t) se pasa por un filtro pasabajo. demuestre que la potencia de salida del filtro es de 25..57 -A t ⎧ (−1) ⎪ ⎪ Yn = ⎨− j2A π(n 2 − 1) para n impar ≠ ±1 ⎪ para n par ⎪0 ⎩ Yo = 0. de ganancia unitaria y ancho de banda de 45 Hz. Sean las dos señales periódicas de la Fig. Sea la señal periódica de la Fig.915 W. 1. 1.57. 1.. (a) Demuestre que sus correspondientes Coeficientes de Fourier son X n = j2A sen 2 ( nπ ) 4 .1 seg y A = 10. φn = 0 (b) Demuestre que el desarrollo de i(t) en Serie de Fourier es i(t) = 0.99 + 0. 3 Fig. 1. El rectificador alimenta una carga de 50 Ohm..99 Amp...19.20.057 cos(720πt) − 0. con fo = 60 Hz.56. La señal v(t) = 110 2 cos(2πf o t) . 1. es < x 2 (t) >= 25. se aplica a un rectificador de media onda.21. Io = 0. φ = π o n nπ 2 n −1 2 A x(t) T/4 T/4 T/2 t -A A y(t) Seno Fig. 3π θn = π 2 . Y1 =j 2A .. (a) Demuestre que el Coeficiente de Fourier de la corriente i(t) que circula por la carga es n+2 ⎧ 2 ⎪110 2(−1) ⎪ 2 I n = ⎨ 50π(n − 1) ⎪ ⎪0 ⎩ para n par para n impar . para A = 10.56 (b) Demuestre que la potencia promedio de x(t).78 I..132cos(480πt) + 0. (a) Demuestre que el Coeficiente de Fourier de x(t) es para n impar y n ≠ 0 para n par φn = 0 -T x(t) A ⎧ 8A ⎪ X n = ⎨ 3π2 n 2 ⎪0 ⎩ -T/2 0 -A/3 T/2 T t A Xo = .66cos(240πt) − 0.. Si T = 0.

..56 o ) + cos(5t − 78.. (a ) x(t .exp(-at)] u ( t ) ⇔ X(f) = (d ) x(t) = A ⋅ t ⋅ exp(-at) u(t) ⇔ X(f) = A 2 δ( f ) + A aA j2 πf ( a + j2 πf ) 2 (a + j2 πf) ( a − 4 π f ) + j4 πaf ⎤ A⎡ 1 1 (e) x(t) = A ⋅ exp(-at)u(t) ⋅ cos(2πf c t ) ⇔ X(f) = ⎢ + ⎥ 2 ⎣ a + j2π(f + f c ) a + j2π(f − f c ) ⎦ 2 2 2 = A (f ) x(t)=A ⋅ exp(-a|t|) ⋅ cos(2πf c t) ⇔ X(f)= (g) x(t) = A ⋅ exp(- aA aA + 2 2 2 a + 4π (f + f c ) a + 4π2 (f − f c ) 2 2 t2 ) ⇔ X(f) = A 2πa 2 ⋅ exp(-2π 2a 2 f 2 ) Impulso Gaussiano 2 2a ..23. Demuestre que: (a ) v(t) 1 i(t) t R=1 Ohm L=1 H −π 0 _1 π (a) 2π Fig..69 o ) -.. El voltaje periódico de la Fig...22. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES (b) Demuestre que las potencias de x(t) y de y(t) están relacionadas mediante la expresión < y 2 (t) >= < x 2 (t) > A 2 = 2 4 ⎧ 2 (−1) ( n −1)/ 2 ⎪ para n impar I n = ⎨ n (1 + jn )π ⎪ ⎩ 0 para n par 1.58 v(t) (b) (b) El desarrollo en serie de Fourier de la corriente i(t) es i (t ) = ⎤ 4⎡ 1 1 1 cos(t − 45 o ) − cos( 3t − 71.58(a) se aplica al circuito RL serie mostrado en (b). 1.t o ) exp( ∓ j2 πf c t ) ⇔ X(f ± f c ) exp[− j2 πt o ( f ± f c )] (b ) x(t) = A ⋅ exp(-a| t| ) ⇔ X(f) = 2aA a + 4π 2 f 2 2 (c) x(t) = A[ 1. Verifique los siguientes pares de Transformadas de Fourier.79 I.⎥ ⎢ ⎦ π⎣ 2 3 10 5 26 1. 1..

1.26.1) (c) Grafique X(f) para T = 1 ms. (b) Grafique |X(f)| y verifique que el primer cero de |X(f)| está a una frecuencia de 1000 Hz.59. Demuestre que la transformada de Fourier de la salida es j2 πf Y( f ) = (1 + j2 πf ) 2 1. Demuestre que 1 Y( f ) = (1 + j2πf ) 2 C=1F x(t) R = 1 Ohm Fig. (a) Demuestre que su transformada de Fourier X(f) es −3 −3 f ⎡exp(− j10 πf ) + exp(− j5x10 πf ) + ⎤ X(f ) = 10 sin c( 3 ) ⎢ ⎥ 10 ⎢ +3exp( − j7x10−3 πf ) ⎥ ⎣ ⎦ −3 x(t) 1 0 1 3 t 1 2 3 4 milisegundos Fig.60. La señal x(t) = exp(-t). 1.u(t) se aplica al circuito RC de la Fig. y(t) . Verifique que el primer cero de X(f) ocurre a f = 1 kHz.46Tsinc(2Tf .59.08Tsinc(2Tf) + 0. está definida en la forma ⎧ πt ⎪ 0. y(t) L=1H x(t) R = 1 Ohm Fig. 1.80 I.24.61. 1.25. utilizada en procesamiento de señales.61.26 se aplica al circuito RL de la Fig.46Tsinc(2Tf + 1) + 0.27.46 cos( ) T x(t ) = ⎨ ⎪ 0 en el resto ⎩ para | t| ≤ T (a) Grafique x(t) para T = 1 seg.3% de la energía total de la señal. Ventana de Ponderación de Hamming La “Ventana de Hamming”. 1. Sea la secuencia de impulsos de la Fig. 1. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES 1. 160. (b) Demuestre que X(f) = 1.54 + 0. La misma entrada del Problema 1. 1. (c) Demuestre que la energía contenida dentro del primer cero de |X(f)| es el 90.

66. Demuestre que las transformadas de Fourier X(f) de las señales x(t) siguientes son las dadas. 165. 1. Sea x ( t ) = 10 exp( −| t |) . 1. -2 X(f ) = 1 1 ⎤ Aπ ⎡ ⎢ sinc( πf + 2 ) + sinc (πf − 2 ) ⎥ ⎦ 2 ⎣ ⎡ cos(4 πf ) sen( 4πf ) ⎤ X(f ) = jA⎢ − ⎥ ⎣ πf 4π 2 f 2 ⎦ x(t) A x(t) A t Parábolas t -T/2 -T/4 Fig.28.to) x(t) (e) Acos(20t) t π2f ) 2 20 ⎡1 + 2 cos( π f )⎤ X (f ) = 100 − π 2 f 2 ⎢ 5 ⎥ ⎣ ⎦ 10A cos( Sugerencia: Exprese x(t) en la forma x(t) = x1(t) + x1(t + to) + x1(t – to) -5to -3to -to 0 to 3to 5to Fig. 1.29. 1.15056 Hz ]. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES 1.81 I. 0 (d) T/4 T/2 0 1 Fig.64. 1. . Calcule el ancho de banda B dentro del cual está contenido el 80 % de la energía de la señal. [ Respuesta: B = 0. (c) 2 3 A cos(2πf ) X (f ) = exp( − j4πf ) ⋅ X1 (f ) j2( πf ) 3 donde X1 (f ) = (1 + jπf ) 2 − ( πf ) 2 − exp( j2πf ) X(f ) = AT ⎡ f f ⎤ 2 2 ⎢ 4sinc ( 2 / T ) − sinc ( 4 / T ) ⎥ ⎦ 4 ⎣ [ ] Exprese x(t) como una diferencia de triángulos Sugerencia: Exprese x(t) en la forma x(t) = x1(t) + x1(t .62. A t 0 -A 2 x(t) A (a) Coseno t − π/ 2 0 π/ 2 Fig.63. x(t) (b) Fig.

dada x(t) determine X(f). es decir. La señal x(t) = t exp(-Kt) u(t) se pasa por un filtro pasabajo de ganancia unitaria y ancho de banda B. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES 1.67. y viceversa (a) |X(f)| A φ(f ) π/2 fo f −f o −f o f x(t ) = 0 2A sen 2 (πf o t ) πt 0 fo −π / 2 Fig. Sea x(t) = sinc2(10t). Demuestre que: ⎧ 1 ⎡ |f| f 2 ⎤ ⎪ ⎢1 − + ⎥ para |f| ≤ 10 5 100 ⎦ (a) Su espectro de energía es G x (f ) = ⎨ 100 ⎣ ⎪ para 10 <|f| ⎩0 (b) Su energía total es Ex = 1 joules 15 1.15056K Hz ] 1. Calcule el ancho de banda B del filtro a fin de que la energía de salida del filtro sea el 80% de la energía a la entrada. 1.32. Expresar B en función de K.82 I. x(t ) = sen[2 π ( t − 2 )] sen 2 [ π ( t − 2)] − π (t − 2) π 2 (t − 2 ) 2 . En las figuras siguientes verifique la correspondencia x ( t ) ⇔ X(f) . (b) |X(f) A φ(f ) −f o 0 −π / 2 π/2 fo f −f o Fig. 0 fo 4B 2 f x ( t ) = 4AB sin c [ 2B( t − 1 1 )] ⋅ cos[2πf o ( t − )] 4f o 4f o (c) |X(f)| 1 -1 f -1 0 1 φ(f ) 4π −4π 0 1 f Fig.69.31.68. [ Respuesta: B = 0.30. 1. 1.

fc = 100 kHz. 1. Demuestre que S1 = 40 W. Sea el sistema de la Fig.70. 1. 1.83 I.34. demuestre que los coeficientes de Fourier X n de la siguientes señales periódicas son los correspondientes dados. (a) A 2A T ⎧ 2A ⎪ Xn = ⎨ n2π 2 t ⎪0 ⎩ Fig. 1. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES 1. f + fc En la salida calcule la relación S1 / S2 .73. x 2 ( t ) 2 cos( 2 πf c t ) f − fc ⎤ x 2 ( t ) ⇒ S x 2 (f ) = 10 ⎢ Λ ( ) + Λ( )⎥ ⎣ B B ⎦ B = 5 kHz.73. mientras que S2 es la potencia a la salida debida a x2 (t). 1. donde x 1 ( t ) y x 2 (t ) son señales aleatorias.72.01 dB S2 . El filtro es pasabajo de ganancia de potencia 2. Sea el sistema de la Fig. S1 = 20 = 13. x 1 (t ) Filtro Pasabajo y(t) x 1 (t ) = exp(−0.01t ) ⋅ cos(2 πx10 6 t ) ⋅ u(t ) x 2 (t ) = 10 cos(2πx10 6 t ) Demuestre que y(t ) ≈ 5 exp(−0.01t ) ⋅ u (t ) x 2 (t ) Fig. 1.70. El filtro pasabajo tiene ganancia unitaria y un ancho de banda de 50 Hz. Mediante la transformada de Fourier de la señal generatriz. para n impar para n par Xo = 3 A 2 A exp(− (b) | t| ) 2T Xn = t -T -T/2 0 T/2 T ⎡ 1 ⎤ 4A⎢1− (−1) n exp(− )⎥ ⎣ 4 ⎦ 1 + (4πn) 2 Fig.35.33. donde S1 es la potencia a la salida debida a x1 (t). f − fc ⎤ x 1 ( t ) ⇒ S x1 (f ) = 10 ⎢ Π( ) + Π( )⎥ ⎣ 2B 2B ⎦ f + fc −4 ⎡ −3 ⎡ x 1 (t ) S1 Filtro y(t) Pasabajo S 2 Fig. 1.71. 1. S2 = 2 W .

36. determinar Xc(f) cuya forma gráfica se da.1. S x1 (f ) 10−3 exp(− |f | 106 ) Sx2 (f ) 10−11 f 2 -20 -10 (a) 10 20 kHz f -20 -10 (b) f 10 20 kHz Fig. < x(t ) ⋅ y (t ) >= 0 . teniéndose entonces superposición de funciones de correlación así como superposición de energía y de potencia. es decir. determinar x(t) (b) Dada x(t).74. . 0 fc f 1. Demuestre que R z (τ ) = R x (τ ) + R y (τ ) y < z 2 (t ) >=< x 2 (t ) > + < y 2 (t ) > En este caso se dice que las señales son incoherentes. donde x(t) e y(t) son ortogonales para todo t.75. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES 1. Considere la función z(t ) = x(t ) + y (t ) .76. 2 x10 3 Demuestre que la potencia promedio de z(t) es < z 2 ( t ) >= 8 µW (b) Sean x 1 ( t ) y x 2 ( t ) dos señales aleatorias cuyas densidades espectrales de potencia se muestran en la Fig. Verificar las siguientes relaciones: (a) Dada X c (f ) en forma gráfica.38. 1. (b) 0 fc A/2 f ⎡ sen(2πBt ) sen 2 ( πBt ) ⎤ ⎥ x (t ) = 2 B⎢ + ( πBt ) 2 ⎦ ⎣ πBt X c (f ) coseno 1 1 ⎫ ⎧ x ( t ) = B⎨sinc[2 B( t + )] + sinc[ 2B( t − )]⎬ 4B 4B ⎭ ⎩ 2B −f c Fig. En las figuras siguientes se muestra el espectro de señales moduladas de la forma x c ( t ) = x ( t ) A cos( 2πf c t ) ⇔ X c (f ) . 1.76. X c (f ) 2A A 2B (a) −f c Fig. (a) Sea x ( t ) ⇒ S x ( f ) = 10 10 3 10 3 ⎦ ⎣ −9 Sea x c ( t ) = 4 x( t ) cos(2 πx10 4 t ) ⇒ S xc ( f ) . ⎡ f + 10 4 f − 10 4 ⎤ ⎢Λ( ) + Λ( )⎥ W / Hz 1.37.1. y z(t) una señal cuya densidad espectral de f potencia es S z ( f ) = S xc ( f )Π ( ) W / Hz.84 I.

77.40.39. A la entrada de un filtro pasabajo. verifique que las potencias respectivas son iguales a las obtenidas en la parte (b). 1.85 I. 1.77. A la entrada del filtro RL de la Fig.43. 2 cos(2πf c t ) y < y 2 (t ) >= 30 W x(t) Filtro Pasabajo Fig. de ganancia 2 y ancho de banda de 5 kHZ. REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES Demuestre que sus respectivas potencias promedio son 2 < x1 ( t ) >= 19. Demuestre que a la salida del filtro R y (τ ) = 20sinc(10 4 τ ) + 10sinc 2 (5x10 3 τ ) 1.67 W 2 (c) Determine las correspondientes funciones de autocorrelación de los espectros de la parte (b). 4 Tb fb ⇒ f − fc ⎤ A2 ⎡ A2 2 f + fc [δ(f + f c ) + δ(f − f c )] + + ) + sinc 2 ( )⎥ ⎢sinc ( 16 16f b ⎣ fb ⎦ fb En el Capítulo III demostraremos que x(t) es una secuencia aleatoria unipolar NRZ de amplitud A.78. 1. entonces.41.7 W y < x 2 ( t ) >= 46. S y (f ) = 4S x (f ) sen 2 (πTf ) 1 τ A2 [1 + Λ( )] . (b) Demuestre que la potencia a la salida del filtro es de 20 W. la densidad espectral de potencia y la potencia a la salida del filtro. y(t) L R Fig. 1. 1. Fig. Calcule la función de autocorrelación.42. 1. Determine la densidad espectral de potencia de la señal compleja x (t ) = A exp( j2πf o t ) utilizando el Teorema de Wiener-Kintchine. donde Tb = . se aplica ruido blanco cuya densidad espectral es η/ 2. 1. 1. A la entrada del detector coherente.44. se aplica una señal x(t) cuya función de autocorrelación es R x (τ ) = 20sinc 2 (5x10 3 τ ) cos(2πx10 5 τ ) . Demuestre que: (a) Si x(t) tiene una función de autocorrelación R x (τ) = entonces donde. y(t) = x(t) cos(2πf c t) ⇒ Sy (f ) Sy (f ) = S x (f ) . (a) Dibuje la forma de la densidad espectral de potencia a la entrada y salida del filtro. y que y(t) es una señal digital ASK . y mediante la Propiedad 1 de la Función de Autocorrelación. se aplica una señal x(t) cuya función de autocorrelación es R x (τ ) = 10sinc 2 (10 4 τ ) .78. Demuestre que si x(t ) ⇒ y (t ) = x (t ) − x ( t − T) 1.

es el período de la señal periódica rectangular. Demuestre que la densidad espectral de potencia correspondiente es S x (f ) = A2 ⎡ ⎢δ ( f ) + 4 ⎢ ⎣ ∑ n =1 ∞ ⎤ δ ( f − nf o ) ⎥ n impar ⎥ π2n2 ⎦ 8 donde T = 1/fo .46. R x ( τ) = exp(− |τ| |τ| ⎤ ⎡ ⎢a exp(− a ) − b exp(− b ) ⎥ . Tb ⎡ f − fc ⎤ 2 f + fc ) + sinc 2 ( )⎥ ⎢sinc ( fb fb ⎦ ⎣ 1. y la correspondiente potencia.45. Se tiene una señal x(t) cuya función de autocorrelación es |τ| ) . Se tiene a Sx (f ) también una señal y(t) cuya densidad espectral de potencia es Sy (f ) = . REPRESENTACION ESPECTRO-TEMPORAL DE SEÑALES (b) Si x(t) tiene una función de autocorrelación R x ( τ ) = A 2 Λ ( y( t ) = x( t ) cos(2 πf c t ) ⇒ S y (f ) = A2 4f b τ ) . 1. donde 1 + (2πbf ) 2 Sx(f) es la densidad espectral de potencia de x(t).32 se determinó la función de autocorrelación de una señal periódica rectangular. entonces. ⎣ ⎦ a a+b Demuestre que la función de autocorrelación de y(t) es R y (τ) = a a − b2 2 < y 2 (t) >= R y (0) = . En el Ejemplo 1.86 I.

Sin embargo. que denominaremos.. Un sistema es un dispositivo físico (filtros.1. Este operador establece entonces una regla de correspondencia entre y(t) y x(t). Sin preocuparnos por saber qué es lo que hay dentro del bloque. por ejemplo. como su nombre lo indica. La cantidad x(t) representa la “entrada” o “excitación” del sistema. con excepción de las señales aleatorias que estudiaremos en el Capítulo III. El caso más sencillo es el del paso de una señal por un filtro: el filtro efectúa algún tipo de operación sobre la entrada obteniéndose una salida o respuesta. son magnitudes eléctricas (corrientes y voltajes) y sobre la mayor parte de ellas podemos ejercer algún control.2. un sistema puede ser caracterizado en los dominios Tiempo ⇔ Frecuencia en la misma forma como lo hicimos con las señales en el Capítulo I. Sistema x(t) y(t) = S{x(t)} S{. Por consiguiente. Este bloque representa cualquiera operación o procesamiento de una señal en una aplicación. 2.1. etc. Pero los sistemas son completamente diferentes. 2. en general. En este capítulo presentamos entonces un breve estudio de los sistemas lineales y su caracterización espectro-temporal. un sistema de comunicaciones. la operación que el sistema efectúa sobre la entrada x(t) se puede representar mediante la transformación funcional . y con la definición de la Respuesta Impulsional y de la Función de Transferencia podemos estudiar los efectos de la transmisión de señales a través de filtros y canales ideales y reales. por ejemplo) también es un sistema sobre el cual la mayoría de las veces no podemos ejercer ningún control. Aunque las técnicas matemáticas empleadas sean las mismas en la representación espectrotemporal de señales y sistemas.1.2. “sistema”. INTRODUCCION En el Capítulo I se desarrollaron las técnicas básicas para la representación espectrotemporal de señales y en el presente capítulo se aplicarán esas mismas técnicas para la representación espectro-temporal de sistemas. Concepto de Sistema Consideremos el diagrama de bloques de la Fig. CARACTERIZACION DE SISTEMAS 2. pero un “canal” (de microondas. 2.} Fig. como veremos en el presente capítulo. moduladores.1. un sistema actúa como un operador o transformador sobre una señal y como resultado produce una salida. Diagrama de Bloques de un Sistema.) que podemos construir y ejercer algún control sobre él. Las señales. mientras que la cantidad y(t) representa la correspondiente “salida” o “respuesta”.CAPITULO II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS 2. hay que tener en cuenta la diferencia entre lo que es “señal” y lo que es “sistema”.

el sistema no es lineal. que si se dobla la entrada.1). con algunas excepciones. Este es el principio de la superposición. con su correspondiente descripción en el dominio de la frecuencia. Este principio implica. En la mayoría de las aplicaciones en comunicaciones x(t) e y(t) son reales y representan voltajes o corrientes. los sistemas se pueden clasificar en “sistemas lineales” y “sistemas no lineales”. la linealidad significa algo más que una línea recta: esta línea recta debe pasar también por el origen. Vamos a demostrar que el operador {⋅ ⋅} puede también representarse tanto en el dominio del tiempo como en el dominio de la frecuencia y desarrollaremos las técnicas necesarias para pasar de un dominio a otro dominio. En este texto se estudiará solamente sistemas lineales. Clasificación de Sistemas Basados en las propiedades de la relación funcional (2. 2. En efecto. Sea x ( t ) = a 1 x 1 ( t ). Se dice que un sistema es lineal si él cumple con el “principio de la superposición”. un sistema en el cual el principio de superposición no es aplicable será un sistema no lineal.2. Si hacemos x 1 ( t ) = x 2 ( t ) y a 1 = − a 2 . Sean también a 1 y a 2 dos constantes arbitrarias que pueden ser complejas. la respuesta sale al doble también.2. ♣ Ejemplo 2.88 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS y (t ) = { x(t )} (2. sean x 1 ( t ) y x 2 (t ) dos entradas arbitrarias con y 1 ( t ) e y 2 ( t ) sus correspondientes salidas.1 Determinar si el sistema definido por y (t ) = {x (t )} = x 2 (t ) es lineal. Por lo tanto. vemos que la linealidad implica también que cero entrada produce cero salida. El operador {⋅ ⋅} será lineal si y solamente si {a 1x 1 (t ) + a 2 x 2 (t )} = a 1 {x 1 (t )} + a 2 {x 2 (t )} = a 1 y 1 (t ) + a 2 y 2 (t ) (2. entonces {a 1x 1 (t ) + a 2 x 2 (t )} = a 12 x 12 (t ) + 2a 1a 2 x 1 (t )x 2 (t ) + a 2 x 2 (t ) 2 2 2 2 2 = a 1 y 1 (t ) + a 2 y 2 (t ) + 2 a 1 a 2 x 1 (t )x 2 (t ) ≠ a 1 y 1 (t ) + a 2 y 2 (t ) 2 por lo tanto. como veremos en su oportunidad.1 ) donde {⋅ ⋅} es un operador que actúa sobre x(t). por ejemplo. ♣ . Este operador será real si una entrada real x(t) resulta en una salida real y(t). pero si 2 2 2 {a 1x 1 (t )} = a 1 x 1 (t ) = a 1 y 1 (t ) x ( t ) = a 1 x 1 ( t ) + a 2 x 2 ( t ) . Evidentemente.2) La respuesta de un sistema lineal a una suma de excitaciones es igual a la suma de las respuestas individuales de cada excitación actuando por separado.

89 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS 2. 2. La caracterización más utilizada en el análisis de sistemas es aquella cuando la entrada es un impulso unitario Delta Dirac aplicado en un instante t = τ cualquiera.2. La respuesta del sistema lineal a una entrada arbitraria x(t) dada por (2. La excitación mediante un impulso unitario equivale a aplicar a la entrada del sistema un número infinito de frecuencias de la misma amplitud.1). (2. en general. Esta situación se representa en la Fig. x (t) = ∫ ∞ −∞ x (τ)δ( t − τ)dτ (2.4) será 0 x (τ 1 )δ ( t − τ 1 ) x (τ 2 )δ( t − τ 2 ) x(t) t ⎧ ∞ ⎫ y ( t ) = ⎨ x (τ )δ( t − τ )dτ ⎬ ⎩ −∞ ⎭ ∫ τ2 τ1 Fig. 3. 2.4) se puede considerar como una representación de x(t) en términos de un continuo de impulsos unitarios δ( t − τ ) de área x( τ ) . τ) es. 2. el escalón unitario y las señales sinusoidales.4) La expresión (2. 2. Las señales de prueba más comunes son el impulso unitario. τ ) 0 τ (a) Excitación 0 τ (c) Respuesta Impulsional t La respuesta del sistema para cualquiera señal arbitraria x(t) se puede expresar en función de la respuesta impulsional. como se muestra en la Fig.3. La respuesta del sistema a una señal de prueba es una descripción característica o un modelo matemático del mismo. τ ) = {⋅ ⋅} la respuesta impulsional es. en un sistema lineal caracterizado por la transformación h (t . de (2. τ). una función de t y τ. y la salida del sistema será la respuesta a todas y cada una de las infinitas frecuencias presentes en la entrada.2. Por lo tanto.3. En este caso la salida se denomina “respuesta impulsional”. x(t) δ(t − τ ) t x(t) S{δ (t − τ )} (b) Sistema Fig. Aproximación de la Excitación x(t) . En efecto. “respuesta al impulso” o “respuesta impulsiva” del sistema” y se representa por h(t.3) {δ( t − τ )} La respuesta impulsional h(t.2 y(t) y(t) h (t . Caracterización de Sistemas Lineales en el Dominio del Tiempo Respuesta Impulsional Para conocer o caracterizar un sistema lineal se puede aplicar a su entrada un cierto tipo de señales de prueba y observar su salida. consideremos la propiedad de muestreo del impulso unitario.

5) puede considerarse como la superposición de las respuestas de un número infinito de impulsos donde x ( τ ) h ( t . Más adelante volveremos sobre este tema. La respuesta impulsional de un SLIT simplemente experimenta desplazamientos en el eje del tiempo que no afectan en nada su perfil. y no de la diferencia (t -τ). La respuesta de un SLIT es entonces el producto de convolución de la excitación con la respuesta impulsional del sistema. τ ) . {x( t − τ)} = y( t − τ) .6) respuesta impulsional dependerá únicamente de la diferencia (t . Esto quiere decir que el perfil de h ( t . en un “Sistema Lineal Invariante en el Tiempo (SLIT)” la h(t . Por consiguiente.5) y (2. Un sistema lineal es invariante en el tiempo si para cualquier desplazamiento τ se verifica que {δ( t − τ)} = h(t − τ) . Asimismo.5) es válida aún en los puntos de discontinuidad de x(t). de (2. Estrictamente hablando.5) son válidas en los puntos donde x(t) es discontinua. Sin embargo.7) Estas integrales son las conocidas “Integrales de Convolución”. es decir. ∞ {δ(t − τ )} = h (t . τ )dτ Esta es la llamada “Integral de Superposición”. En (2.4) y (2. Esto se puede enunciar en la forma siguiente. En este caso la expresión (2. como es el caso de los filtros reales en los cuales una entrada discreta produce una salida continua.3). τ 1 ) será diferente del (2.5) y ( t ) = x (τ ) h ( t . la integral de superposición (2.4) ni la (2. τ) = h(t − τ) para todo τ en un SLIT (2.6). las dos expresiones se aplican a ambos lados de cualquiera discontinuidad.4). −∞ de donde (2. El producto de convolución generalmente se denota en la forma y( t ) = x ( t ) ∗ h(t) = h(t) ∗ x(t) puesto que la convolución es conmutativa. para cualesquiera señal x(t) y desplazamiento τ . a menudo sucede que y(t) es continuo a pesar de que x(t) no lo sea. El hecho de que (2. De (2. la cual es válida para cualquier sistema lineal. τ ) es la respuesta a un impulso x (τ )δ(t − τ ) . el integrando x (τ )δ ( t − τ ) se puede considerar como un impulso que ocurre en el instante t = τ y cuya área es proporcional a x(τ). en general no tiene mucha importancia desde el punto de vista práctico. y como consecuencia.90 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS y ( t ) = x (τ ) −∞ ∫ ∫ ∞ {δ(t − τ )}dτ pero. Sistemas Lineales Invariantes y Variantes en el Tiempo Se dice que un sistema lineal es invariante en el tiempo si un desplazamiento en el tiempo de la entrada resulta en un desplazamiento idéntico de la salida sin que cambie la forma de onda o perfil de la señal. Un sistema lineal variante en el tiempo será aquel cuya respuesta impulsional dependerá de τ y de t. ni la expresión (2. En particular.8) .5) no sean válidas en los puntos de discontinuidad.τ). la respuesta de un SLIT para cualquiera excitación x(t) será entonces y( t ) = ∞ ∞ ∫ ∞ x (τ)h ( t − τ)dτ = ∫ −∞ h (τ) x ( t − τ)dτ (2.

es posible obtener.8) y (2. a partir de ella.τ. Nótese que el producto de convolución (2. τ 2 ) .12) . Conocida la respuesta al escalón unitario de un SLIT. En efecto.9).5). d dt y u (t ) = ∫ ∞ −∞ x (τ ) d dt y u ( t − τ ) dτ y( t ) = ⎤ d d ⎡ ∞ ⎢ x( τ) y u ( t − τ )dτ ⎥ = [ x( t ) ∗ y u ( t )] dt ⎣ −∞ ⎦ dt ∫ (2. y de la propiedad de muestreo del impulso unitario. pero como dt u( t − τ) = δ ( t − τ ). la salida y(t) es.2. Con el cambio de variables t’ = t .7). y u ( t ) = u ( t ) ∗ h(t) = u( τ )h(t . d y u (t) = dt ∫ d ⎡d ⎤ ⎢ dt u( t − τ) ⎥ ⋅h( τ)dτ. la integral queda 0 ∫ y u ( t ) = − h ( t ' ) dt ' .11) La respuesta impulsional de un SLIT es la derivada de la respuesta al escalón unitario del SLIT. tomando la derivada de la expresión (2. De (2. y ( t ) ∗ h(t) = x(t) ∗ de donde. la respuesta y(t) del sistema para cualquiera excitación x(t). De donde. dt −∞ ∫ h (t ) = d dt y u (t ) (2. −∞ ⎣ ⎦ ∞ ∞ d y u (t ) = δ(t − τ )h(τ )dτ .91 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS perfil de h ( t . En efecto.7) o (2. porque es sobre y u (t ) que se evalúan los resultados de un servosistema desde el punto de vista del régimen transitorio. t ∫ −∞ y u ( t ) = h (t ' ) dt ' −∞ ∫ t (2. Respuesta al Escalón Unitario de un SLIT Sea h(t) la respuesta impulsional de un SLIT y sea y u ( t ) su respuesta al escalón unitario u(t). ♣ Ejemplo 2. La respuesta al escalón unitario se emplea mucho en el análisis de sistemas lineales donde se utiliza la Transformada de Laplace.τ )dτ -∞ ∞ ∫ ∞ (2.8) se aplica sólo y solamente a sistemas lineales invariantes en el tiempo.9) y u ( t ) = h ( t − τ ) dτ .10) La respuesta de un SLIT al escalón unitario es la integral de la respuesta impulsional del SLIT. de (2.11). en este caso la respuesta y(t) vendrá dada por la expresión (2. por una parte por el hecho de que es muy fácil simular en forma experimental esa respuesta y por otra parte. El desarrollo anterior permite determinar la respuesta impulsional de un SLIT si se conoce su respuesta al escalón unitario.

La no linealidad es directa.4 Establecer las características del sistema de la Fig. de (A) y 1 (t − t o ) = sen[ x 1 (t − t o )] (D) y 1 (t ) = sen[ x 1 (t )] (A) (B) x 2 (t ) = x 1 (t − t o ) que representa a x 1 ( t ) desplazada en un tiempo to .3 Vamos a verificar si el sistema representado por y(t ) = sen[ x(t )] es variante o invariante en el tiempo. ♣ ♣ Ejemplo 2. la correspondiente salida será entonces Sea una segunda entrada x 2 (t ) tal que y 2 (t ) = sen[ x 2 (t )] = sen[ x 1 (t − t o )] En forma similar. Sea x1(t) la entrada.4.10) la respuesta al escalón unitario es y u ( t ) = [1 − exp( − t )]u ( t ) .7). τ ) y(t) Fig. lo que significa que el sistema es invariante en el tiempo. De (2. 2.7). vemos que y 2 (t ) = y 1 (t − t o ) . y ( t ) = d⎡ ⎣ dt ⎢ ∫ ⎤ exp( − τ ) u ( τ ) ⋅ [1 − exp[− ( t − τ )]u (t − τ )dτ ⎥ = t exp(− t ) u ( t ) ⎦ −∞ ∞ El lector puede verificar que la resolución de la segunda expresión es mucho más laboriosa que la de la primera. pero su resolución es más laboriosa que la dada por (2. ♣ Ejemplo 2. La respuesta y(t) del SLIT se puede determinar entonces mediante las integrales De (2. pues sen[ a 1x 1 (t ) + a 2 x 2 (t )] ≠ a 1 sen[ x 1 (t )] + a 2 sen[ x 2 (t )] El sistema es no lineal invariante en el tiempo. 2 Prueba de la linealidad: Sea x( t ) = a 1x 1 (t ) + a 2 x 2 ( t ) para | t| ≤ 1 2 ♣ I x(t) h(t.12). Veamos también si el sistema es lineal o no lineal.92 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Esta expresión nos permite determinar también la respuesta y(t) de un SLIT para cualquiera excitación x(t) a partir de la respuesta al escalón unitario.4 . Sea x ( t ) = exp( − t ) u ( t ) y supongamos que h ( t ) = exp( − t ) u ( t ) . 2. y ( t ) = ∫ ∞ −∞ exp( − τ ) u (τ ) ⋅ exp[− ( t − τ )]u ( t − τ ) dτ = t exp(− t )u ( t ) De (2. El interruptor I está cerrado 1 únicamente en el intervalo |t |≤ . La correspondiente salida será (C) Comparando (C) con (D). Veamos un ejemplo muy sencillo.

τ). pues su respuesta impulsional depende de t y τ.93 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS y(t ) = {a 1x1 (t ) + a 2 x 2 (t )} = a 1 { x1 (t )} + a 2 { x 2 (t )} Luego el sistema es lineal.5 Un sistema tiene una respuesta impulsional de la forma h(t ) = 5[δ(t ) − exp(−5t )u(t )] y es excitado por un escalón retardado de la forma x (t ) = 2 u (t − 1) . Vamos a determinar la respuesta y(t) del sistema. ♣ . 2. 1 ≤ t en el resto de donde y(t ) = 10u(t − 1) − 10 exp[ −5(t − τ )]dτ 1 ∫ t Como la integral es válida solamente para 1≤ t . 2. ⎧ 1⎫ ⎪δ(t . τ ) entonces. 10 8 y(t) 0 1 t Fig.5.5. La respuesta y(t) será entonces y(t ) = x (τ )Π(τ )δ(t − τ )dτ = x(t )Π (t ) −∞ ∫ ∞ ♣ ♣ Ejemplo 2. y(t ) = ∫ ∞ −∞ 5[ δ(t − τ ) − exp[ −5(t − τ )]u(t − τ )] 2 u(τ − 1)dτ ∞ y(t ) = 10 pero ∫ −∞ δ(t − τ )u (τ − 1)dτ − 10 ∫ ∞ −∞ exp[ −5(t − τ )]u (t − τ )u(τ − 1)dτ ⎧1 u(t − τ )u(τ − 1) = ⎨ ⎩0 para 1 ≤ τ ≤ t. τ ) = ⎨ 1⎪ ⎪0 para | τ|> ⎩ 2⎭ El sistema es variante en el tiempo. entonces y(t ) = 10u(t − 1) − 2[ 1 − exp[ −5(t − 1)]] u(t − 1) y(t ) = [ 8 + 2 exp[ −5(t − 1)]] u(t − 1) Esta respuesta se representa en la Fig. y no de la diferencia (t . y (t ) = a 1y 1 (t ) + a 2 y 2 (t ) .τ ) para | τ| ≤ 2 ⎪ ⎬ = Π(τ )δ(t − τ ) h(t . Respuesta Impulsional Para x(t ) = δ(t − τ ) se tiene que y(t ) = h(t .

hay muchas aplicaciones en las cuales la señal a ser procesada se encuentra almacenada. por ejemplo. pero los sistemas físicos son siempre causales pues al operar en tiempo real no pueden producir ninguna respuesta a menos de ser excitados. se cumple que | z( x )| = ∫ p( x)q( x)dx ≤ ∫ | p( x)||q( x)| dx ≤ ∫ K| p( x)| dx < ∞ para todo x. τ ) = 0 o h(t . Se ha demostrado [C. Vamos a ver cuáles son las condiciones que el sistema debe cumplir a fin de asegurar la estabilidad. de modo que y(t ) = x (τ )h(t . se obtiene . 1960] que si existe una constante K tal que | q (x )| ≤ K < ∞ y |z(x)|< ∞ .94 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Causalidad y Estabilidad en Sistemas Lineales Causalidad Se dice que un sistema lineal es causal cuando no produce una respuesta antes de ser aplicada una excitación. Si | x (t )| ≤ M < ∞ y |y(t)| ≤ N < ∞ para todo t. Aplicando esta desigualdad a (2. en tales casos el sistema puede no ser causal y aún así puede ser físicamente realizable.18) M y N son constantes reales y positivas. se supone que la entrada es cero hasta determinado tiempo. que h( t .15) y(t ) = x (τ )h(t − τ )dτ −∞ ∫ Finalmente. entonces | x (t )| ≤ M < +∞ para todo t Consideremos un SLIT. R. es decir. x( t ) = 0 para t < 0 . τ )dτ 0 t ∫ t para cualquier sistema lineal causal (2. En sistemas causales el límite superior de integración es t. para t = 0. Wylie. se dice que un sistema lineal es estable cuando para una entrada acotada la respuesta también es acotada. Si la entrada es acotada.13) Un sistema no causal no cumple con (2.7) y con ayuda de las condiciones (2.14) (2.16) (2.τ) = 0 para t < τ (2. τ )dτ −∞ t ∫ t para cualquier sistema lineal causal para un SLIT causal (2.13) y además no puede realizarse físicamente. como. Sin embargo. En este caso. el sistema es estable (2.18). es decir. de donde y(t ) = x (τ )h(t .17) y(t ) = x (τ )h(t − τ )dτ para un SLIT causal 0 ∫ Estabilidad En cuanto a la estabilidad.

La función de transferencia H(f) y la respuesta impulsional h(t) forman entonces un par de transformadas de Fourier. es decir.2.21) Mediante el cambio de variables t ' = t − τ .95 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS | y( t )| = ∫ ∞ −∞ h ( τ )x( t − τ )dτ ≤ ∞ ∫ ∞ −∞ | h ( τ )|| x( t − τ )| dτ ≤ ∫ M| h(τ )| dτ −∞ ∞ | y (t )| ≤ M ∫ −∞ | h ( τ )| dτ = N < ∞ para todo t (2. Nótese que (2. la condición suficiente para que haya estabilidad es que ∫ de donde ∞ −∞ | h (t )| dt < ∞ | y (t )| ≤ N < +∞ para todo t (2.23) en (2.20) es también condición suficiente para que h(t) tenga una transformada de Fourier. Entonces definimos H (f ) = { h(t )} = ∫ ∞ −∞ h (t ) exp(− j2πft )dt (2.22) con la ayuda de (2.19) se deduce que para que un SLIT sea estable. esto es. se obtiene (2. condición que vamos a utilizar en la siguiente sección.τ )dτ -∞ ∫ ∞ Tomando la transformada de Fourier. la respuesta impulsional h(t) debe cumplir con la condición de integrabilidad absoluta.4. De (2. y(t ) = x(t ) ∗ h(t) = x(τ )h(t . 2.22) La integral de la derecha en (2. { y(t )} = ∫ ∞ −∞ y(t ) exp(− j2πft )dt = ∫ ⎡ x (τ )⎢ ⎣ −∞ ∞ ∫ ⎤ h( t − τ ) exp(− j2πft )dt ⎥dτ ⎦ −∞ ∞ (2. la integral dentro de los corchetes es ∫ ∞ −∞ h(t − τ ) exp(− j2πft )dt = exp(− j2πfτ ) ∫ ∞ −∞ h(t ' ) exp(− j2πft ' )dt ' (2.19) De (2.20) La respuesta es acotada y por lo tanto el sistema es estable.22) tiene la forma de una integral de Fourier. en un SLIT se verifica que h(t ) ⇔ H (f ) Reemplazando (2. Si éste es el caso. h(t) debe satisfacer (2.24) ∞ { y(t )} = H (f )∫ −∞ x (τ ) exp(− j2πfτ )dτ pero la integral es la transformada de Fourier X(f) de x(t). y es la caracterización de un sistema lineal invariante en el tiempo en el dominio de la frecuencia.20). de donde .7). donde x(t ) ⇔ X (f ).23) La cantidad H(f) se denomina “Función de Transferencia”. Caracterización de Sistemas Lineales en el Dominio de la Frecuencia Función de Transferencia Consideremos un SLIT al cual se le aplica una excitación x(t).21).

.. j2 πf (5 + j2 πf ) j2 πf 5 + j2 πf pero ... la multiplicación de señales en el dominio del tiempo es equivalente a la convolución de sus espectros en el dominio de la frecuencia.. podemos demostrar que x 1 (t ) x 2 (t ) ⇔ X1 (f ) ∗ X 2 (f ) = En general. x(t) ⇔ X(f).. ⎥ exp( − j2 πf ) j2 πf 5 + j2 πf j2 πf (5 + j2 πf ) ⎦ ⎣ 5δ( f ) = δ(f ) pues δ(f) = 0 para f ≠ 0 5 + j2 πf ⎡ ⎤ 10 10 Y ( f ) = ⎢ 4δ ( f ) + − ⎥ exp(− j2 πf ) j2 πf j2 πf (5 + j2 πf ) ⎦ ⎣ Mediante desarrollo en fracciones parciales.. se verifica que ∫ ∞ −∞ X 1 (ν) X 2 ( f − ν)dν (2.....26) se puede establecer en la forma siguiente: y x 2 (t ) ⇔ X 2 (f ) . igualmente.. x1 ( t ) x 2 ( t ) x 3 ( t ). (2.. por lo tanto.26) a (2. ⇔ X1 ( f ) ∗ X 2 ( f ) * X 3 ( f ) ∗ . ⇔ X1 ( f ) X 2 ( f ) X 3 ( f ).. entonces.. ♣ Ejemplo 2.. la convolución de señales en el dominio del tiempo es equivalente a la multiplicación de sus espectros en el dominio de la frecuencia. el tercer término dentro de los corchetes tiene la forma 10 2 2 = − . Las relaciones espectro-temporales correspondientes serán: y(t ) = h(t ) ∗ x(t) ⇔ Y(f) = H(f)X(f) donde (2.5 pero trabajando en el dominio de la frecuencia.6 Vamos a repetir el Ejemplo 2. por simetría o dualidad.29) algunas veces se las denomina “teoremas de la convolución”.25) Un sistema lineal invariante en el tiempo puede describirse en el dominio de la frecuencia si se observa que la transformada de Fourier de la respuesta es el producto de la transformada de Fourier X(f) de la excitación por la función de transferencia H(f) del sistema... A las expresiones (2..26) h(t ) ⇔ H (f ). 5 Del Ejemplo 2..96 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Y (f ) = H (f )X (f ) (2.29) En resumen. h ( t ) = 5[δ( t ) − exp(−5t ) u ( t )] ⇔ H ( f ) = 5 − 5 + j2 πf ⎡ ⎤ 2 x ( t ) = 2 u ( t − 1) ⇔ X( f ) = ⎢δ( f ) + ⎥ exp( − j2 πf ) j2 πf ⎦ ⎣ y ( t ) = x (t ) ∗ h(t) ⇔ Y(f) = X(f)H(f) ⎡ ⎤ 10 5δ(f ) 10 Y( f ) = ⎢5δ( f ) + − − Entonces..27) x1 ( t ) ∗ x 2 ( t ) ∗ x 3 ( t ) ∗ ..5.. Si x1 (t ) ⇔ X 1 (f ) y(t) ⇔ Y(f) El dual de las expresiones (2.28) (2..

la entrada y salida de un sistema lineal invariante en el tiempo. Nótese que si H(f) se hace cero en un intervalo de frecuencias dado. En los sistemas de comunicación h(t) siempre es real. Propiedades de la Función de Transferencia 1.5. en general. Para que un sistema sea físicamente realizable. | H ( f )| =| H ( − f )| =| H ∗ ( f )| y β(f) = . Puesto que H(f) es. debe cumplir. ♣ Criterio de Paley-Wiener La estabilidad y posibilidad de realización física que tratamos en la sección anterior son nociones independientes.30) es condición necesaria y suficiente para que |H(f)| sea el módulo de la función de transferencia de un sistema físicamente realizable. se dice que él es físicamente realizable. por lo tanto la función de transferencia tendrá simetría hermítica.30) entonces (2. una magnitud compleja. con el llamado “Criterio de Paley-Wiener”.32) |H(f)| se denomina “Respuesta de Amplitud” o más comúnmente “Respuesta de Frecuencia del Sistema”. la función de transferencia H(f) tendrá una característica de fase β( f ) tal que h ( t ) = 0 para t < 0. y β(f) es la “Respuesta de Fase”. no cumplirá con el Criterio de Paley-Wiener y por lo tanto no es físicamente realizable. es decir. además de las condiciones (2. En efecto. es decir. el cual establece que si la integral I existe.20). pero si un sistema es a la vez estable y realizable.97 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS ⎡ 10 2 2 ⎤ Y ( f ) = ⎢ 4 δ( f ) + − + ⎥ exp( − j2 πf ) j2 πf j2 πf 5 + j2 πf ⎦ ⎣ ⎡ δ( f ) ⎡ 1 ⎤ 1 ⎤ + Y( f ) = 8⎢ ⎥ exp( − j2 πf ) + 2⎢ ⎥ exp(− j2 πf ) j2 πf ⎦ ⎣ 2 ⎣ 5 + j2 πf ⎦ Tomando las correspondientes antitransformadas y ( t ) = 8u ( t − 1) + 2 exp[−5( t − 1)]u ( t − 1) = [ 8 + 2 exp[−5( t − 1)]] u ( t − 1) que es el mismo resultado obtenido en el Ejemplo 2.13) y (2.β(-f) 2. Esto quiere decir que si la integral existe (es menor que ∞ ). en el dominio de la frecuencia. La función de transferencia H(f) es el nexo que relaciona. Otra manera de interpretar el Criterio de Paley-Wiener es que la amplitud de |H(f)| no puede decaer más rápido que el decrecimiento exponencial. se puede expresar en la forma H ( f ) =| H ( f )|exp[ jβ(f )] (2.31) Todo sistema físicamente realizable producirá siempre un desfase (o retardo). si I= ∫ ∞ ln| H ( f )| 2 2 −∞ 1 + 4 π f df < ∞ (2. donde h(t) ⇔ H(f) =|H(f)|exp[jβ(f)] y ∫ ∞ -∞ |H(f)|2 df < ∞ (2. demostramos que .

En efecto. un sistema que cambie o genere nuevas frecuencias será: o no lineal o variante en el tiempo o ambos.87) y (1.37) significa que un SLIT cuya función de transferencia es H(f). como bien lo expresa (2. y no poseerá una función de transferencia. Se puede determinar el efecto de la función de transferencia H(f) sobre las densidades espectrales.109). G y (f ) =|Y ( f )|2 =| H (f )|2 | X (f )|2 =| H ( f )|2 G x ( f ) y la energía total de salida. de la expresión (2. de (1.25).38) donde H ( f o ) =| H ( f o )|exp[ jβ(f o )] La expresión (2. En particular. si la entrada es una señal sinusoidal de frecuencia fo.36) donde Sx(f) viene dada por (1.88). 4. entonces la densidad espectral de potencia a la salida es S y ( f ) =| H ( f )|2 S x ( f ) La potencia promedio de salida será entonces ∞ ∞ (2. La salida y(t) será entonces y(t ) = ∫ ∞ −∞ Y( f ) exp( j2 πtf ) df = A ∫ ∞ −∞ H ( f )δ( f − f o ) exp( j2 πtf ) df pero de la propiedad de muestreo del impulso unitario. Consideremos ahora la salida de un SLIT cuando la entrada es de la forma x ( t ) = A exp( j2πf o t ) ⇔ X(f ) = Aδ( f − f o ) Y( f ) = H ( f ) X( f ) = AH ( f )δ( f − f o ) . no puede generar nuevas frecuencias: a la salida sólo estarán presentes las frecuencias que había a la entrada. y ( t ) = AH ( f o ) exp( j2πf o t ) = H (f o ) x ( t ) (2. .34) Igualmente.37). podemos escribir |Y ( f )| =| H ( f )|| X ( f )| y φ y (f ) = β(f ) + φ x (f ) Si la señal de entrada x(t) está caracterizada por su densidad espectral de energía G x (f ) . lineal o no lineal.25) 3.33) ∫ ∞ −∞ G y ( f ) df = ∫ ∞ −∞ | H ( f )|2 G x ( f ) df (2.98 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Y( f ) = H ( f ) X( f ) (2. entonces la densidad espectral de energía a la salida del sistema será. la salida será también sinusoidal de la misma frecuencia. Ey = (2. pero no podrá generarse nuevas frecuencias. pero con una amplitud y fase en general diferentes.35) < y 2 ( t ) >= ∫ −∞ S y ( f ) df = ∫ −∞ | H ( f )|2 S x ( f ) df (2. Recíprocamente. tendrá siempre una respuesta impulsional. estas componentes de frecuencia pueden estar atenuadas e incluso desaparecer. si la entrada x(t) es una señal de potencia con una densidad espectral de potencia S x ( f ). pero solamente los sistemas lineales invariantes en el tiempo poseerán una función de transferencia. Nótese que cualquier sistema.37) (2.

De (1. la función de transferencia del SLIT es H (f ) = 1 1 + 2 RC( j2 πf ) + (RC) ( j2 πf ) 2 2 = 1 (1 + j2 πfRC) 2 El lector puede verificar que esta función de transferencia corresponde al circuito mostrado en la Fig. en el dominio del tiempo. Y( f ) + 2 RC( j2 πf ) Y( f ) + ( RC) 2 ( j2 πf ) 2 Y(f ) = X( f ) Y( f ) 1 + 2 RC( j2 πf ) + ( RC) 2 ( j2 πf ) 2 = X( f ) [ ] de donde Y( f ) = X( f ) 1 + 2RC( j2πf ) + ( RC ) 2 ( j2πf ) 2 = H( f ) X( f ) Por consiguiente. la salida y(t) es -1 {Y(f )} = ∫ ∞ ∞ ⎡ ⎤ ⎢f o H ( nf o ) X( nf o )δ( f − nf o )⎥ exp( j2 πtf )df −∞ ⎣ ⎢ n =−∞ ⎥ ⎦ ∞ y(t ) = f o n =−∞ ∑H(nf o ) X ( nf o ) ∫ ∞ −∞ δ(f − nf o ) exp( j2 πtf ) df . Ecuación Diferencial de un SLIT Un sistema lineal invariante en el tiempo se puede representar mediante una ecuación diferencial lineal con coeficientes constantes que relaciona.24. Respuesta de un SLIT a Entradas Periódicas La entrada a un SLIT es una señal x T ( t ) periódica de período T. x T (t ) = ∞ ∞ n =−∞ ∑ X n exp( j2πnf o t ) ⇔ X T ( f ) = f o n =−∞ ∑ X(nf o )δ( f − nf o ) El espectro Y(f) de la salida y(t) es Y( f ) = f o H ( f ) n =−∞ ∑X(nf ∑ ∞ o )δ( f − nf o ) = f o n =−∞ ∑H(nf ∞ o ) X ( nf o )δ( f − nf o ) Por transformada de Fourier inversa. La ecuación diferencial o íntegrodiferencial que representa a un sistema lineal invariante en el tiempo es otro modelo del sistema y por transformada de Fourier se puede determinar su función de transferencia H(f) y su correspondiente respuesta impulsional h(t).105). supongamos que un SLIT está representado mediante la ecuación diferencial y ( t ) + 2 RC d dt y (t ) + (RC) 2 d2 dt 2 y (t ) = x(t ) Tomando la correspondiente transformada de Fourier.8. Por ejemplo. 2. ♣ ♣Ejemplo 2.99 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS ♣ Ejemplo 2. la excitación x(t) con la respuesta y(t).68 del Problema de Aplicación 2.7.

por ejemplo. ♣ 2. y(t ) = h (t ) ∗ x(t) = x(τ )h(t .1.3. la integral de convolución permite determinar la respuesta y(t) de un sistema lineal para cualquiera excitación x(t). H(f) = Ho en | f | ≤ Nf o . Por lo tanto. Obsérvese también que a la salida aparecen solamente las frecuencias de entrada que están contenidas dentro de la banda de paso de H(f). Su importancia deriva también del hecho de proveernos de una poderosa herramienta analítica no sólo en el análisis de señales y sistemas de comunicación. LA INTEGRAL DE CONVOLUCION 2. n =−∞ ∑ H ( nf o ) X( nf o ) exp( j2 πnf o t ) = n =−∞ ∑H(nf o )X n exp( j2 πnf o t ) H ( nf o ) =| H ( nf o )|exp[ jβ(nf o )] y X n =| X n |exp( jφ n ) y(t ) = n =−∞ ∑| H(nf ∞ ∞ o )|| X n |exp { j[2πnf o t + β(nf o ) + φ n ]} Del Teorema de Parseval. Nf o ) . en el intervalo (−Nf o . porque ayuda en la comprensión de las relaciones entre el dominio del tiempo y el dominio de la frecuencia. porque es un buen modelo para entender los procesos físicos que se desarrollan en un sistema lineal.3.26).100 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS ∞ ∞ y(t ) = f o Como entonces. entonces y(t ) = H o X n exp( j2πnf o t ) y < y 2 (t ) >=| H o |2 2 n =− N n =− N Recuérdese que Ho es. la salida y(t) y su correspondiente potencia serán y(t ) = n =− N ∑H(nf ∑ N N o )X n exp( j2πnf o t ) y < y ( t ) >= 2 n =− N ∑| H(nf ∑| X N n| N o )| 2 | X n |2 y si además H(f) es constante en ese intervalo. En primer lugar. es decir. y en segundo lugar. la integral de convolución ofrece un método para determinar y(t). la Transformada de Laplace y la Transformada Z en otras áreas de la ingeniería eléctrica. complejo. si se conoce h(t) a partir de datos experimentales o si no es posible expresar h(t) como una función explícita de t. de (2. Aplicaciones en el Análisis de Señales y Sistemas La operación matemática denominada “convolución” es una de las principales herramientas analíticas de los ingenieros de telecomunicación. Desde el punto de vista de los sistemas lineales invariantes en el tiempo. por ejemplo. La misma situación ocurre respecto a x(t). en general. sino también en conexión con las aplicaciones de la Teoría de Circuitos. Nótese que la integral de convolución no exige el conocimiento de H(f) o X(f). En . la convolución es el nexo entre el dominio del tiempo y el dominio de la frecuencia. la potencia de salida del SLIT será < y ( t ) >= 2 n =−∞ ∑| H(nf o )| 2 | X n |2 Si H(f) existe solamente en cierta gama de frecuencias.τ )dτ ⇔ Y(f) = H(f) X(f) -∞ ∫ ∞ Si se conoce la respuesta impulsional h(t).

43) (d) Si x T (t ) es una señal periódica de período T.T) (b) x(t − t 1 ) ∗ δ(t .39) En un problema particular. entonces x T (t ) se puede representar en la forma x T (t ) = n =−∞ ∑ ∞ x (t − nT) = x (t ) ∗ n=-∞ ∑δ(t . resulta en la misma señal x(t). x(t ) ∗ δ(t) = x(τ )δ(t . una operación complicada y muchas veces es preferible operar con las transformadas de Fourier. el lector deberá reconocer cuál de las dos formas de operar lo lleva a la respuesta con menor dificultad: si aplicando la integral de convolución o tomando directamente la transformada inversa de X(f). Como herramienta operacional.t 2 ) = δ(t − t 1 − t 2 ) (2.28).40) En la misma forma. es conveniente interpretar la convolución en forma gráfica. donde X(f) se puede descomponer en la forma X( f ) = X 1 ( f ) ⋅ X 2 ( f ) donde se conoce 1 {X1 (f )} = x 1 (t ) y 1 {X 2 (f )} = x 2 (t ) Por transformada de Fourier inversa y aplicación del teorema de la convolución. la integral de convolución se puede utilizar para determinar la transformada inversa de una función de f cuando esta función se puede escribir como un producto de funciones de f cuyas transformadas inversas son conocidas.T) = x(t . ♣ Ejemplo 2.9.42) (2. La resolución de la integral de convolución es. x(t ) = x 1 (t ) ∗ x 2 (t ) = ∫ ∞ −∞ x 1 (τ ) x 2 ( t − τ )dτ = ∫ ∞ −∞ X(f ) exp( j2πtf )df (2. En efecto.nT) ∑ (2. 1 {X(f )} = x(t ) = 1 {X1 (f )} ∗ 1 {X 2 (f )} Por lo tanto. Por ejemplo. Convolución de una Señal con Impulsos Unitarios La convolución de una señal x(t) con un impulso unitario δ(t).41) (2. se desea determinar la transformada de Fourier inversa de X(f). de acuerdo con la propiedad de muestreo del impulso unitario. comúnmente. La extensión de este procedimiento para n funciones de f es directa. puede demostrarse que: (a) x(t ) ∗ δ(t .τ )dτ = x(t) -∞ ∫ ∞ (2. la transformada de la señal periódica x T (t ) es ∞ ∞ ⎤ ⎡ X T (f ) = X(f )⎢ f o δ(f − nf o )⎥ = f o X(nf o )δ(f − nf o ) ⎥ ⎢ ⎦ ⎣ n =−∞ n =−∞ ∑ .44) ∞ y de (2. En los siguientes ejemplos presentamos algunas aplicaciones y métodos para la resolución puramente analítica de la integral de convolución.t 2 ) = x(t − t 1 − t 2 ) (c) δ(t − t 1 ) ∗ δ(t . esto lo veremos más adelante.101 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS situaciones como éstas. y x(t) su correspondiente señal generatriz.

Este resultado es de capital importancia en la Teoría del Muestreo. el espectro del producto es la repetición periódica del espectro de x(t) en las frecuencias nfs con un factor de escala fs.x o ≤ λ ⎭ z( x ) = B y de donde ∫ ∞ − xo y ( x − λ ) dλ − B ∫ ∞ y (x − λ) dλ xo Esta expresión nos permite determinar el producto de convolución (2. ♣ ♣ Ejemplo 2. y de (2.45) Esta expresión nos dice que si se multiplica una señal x(t) por un tren de impulsos unitarios de período Ts = 1 / f s y amplitud unitaria.27). z( x ) = y ( x )∗ Bu ( x + x o ) − y ( x )∗ Bu (x − x o ) z( x ) = B pero ∫ ∞ −∞ y ( x − λ ) u ( λ + x o ) dλ − B ∫ ∞ −∞ y ( x − λ) u (λ − x o ) dλ ⎧0 para λ < x o ⎫ u( λ − x o ) = ⎨ ⎬ ⎩1 para x o ≤ λ ⎭ (2. El límite superior de las integrales dependerá de la forma de y(x).41).46) El rectángulo se puede expresar como una suma de escalones unitarios de la forma Π( x 2x o ) = u ( x + x o ) − u ( x − x o ) . como veremos en los casos siguientes. (a) Sea y ( x ) = A exp( − ax ) u ( x ) z( x ) = AB ∫ ∞ − xo exp[− a (x − λ)]u ( x − λ) dλ − AB ∫ ∞ exp[− a ( x − λ)]u (x − λ) dλ xo ⎡ z( x ) = AB exp( − ax )⎢ ⎣ ∫ x − xo exp( aλ) dλ − ∫ ⎤ exp( aλ)dλ⎥ xo ⎦ x .105). como veremos en el Capítulo V. (e) Sea el producto x(t) ⋅ ∑ δ(t-nTs ) = n=-∞ ∞ n =−∞ ∑ x(nT ) ⋅ δ(t − nT ) = x (t) .10. X s ( f ) = X( f ) ∗ f s ∞ n =−∞ ∑δ(f − nf ) s s ∞ X s (f ) = fs n =−∞ ∑X(f − nf ) (2.102 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS resultado que ya habíamos obtenido por otros métodos. que es la transformada de una señal periódica. por lo tanto. Convolución de una Señal con un Impulso Rectangular En el análisis de señales y sistemas lineales a menudo se presenta el caso de la convolución de una señal con un impulso rectangular. consideremos el producto de convolución z (x ) = y(x) ∗ BΠ( x ) 2x o (2.46). s s s ∞ De (2.47) ⎧0 para λ < -x o ⎫ u( λ + x o ) = ⎨ ⎬ ⎩1 para . expresión (1. Para generalizar el procedimiento desde un punto vista puramente analítico.

la expresión anterior se puede escribir en la forma compacta x ⎧ x ⎫ x z ( x ) = AB exp( −ax ) ⎨ ⎡ ∫ exp(aλ )dλ ⎤ Π ( ) − ⎡ ∫ exp(aλ )dλ ⎤ u ( x − x o ) ⎬ ⎥ ⎥ 2x o ⎢ xo ⎦ ⎦ ⎣ ⎣ ⎩⎢ − x o ⎭ Resolviendo las integrales. las integrales se reducen a z( x ) = AB ⎧ ⎨ πa ⎩ ∫ ∫ −∞ λ' λ' dλ ' = π 2 dλ ' − ∫ ∫ πa ( x − x o ) sen( λ' ) −∞ λ' ⎫ dλ ' ⎬ ⎭ Como z( x ) = ∫ 0 sen(λ' ) −∞ . mientras que la segunda lo es para Por consiguiente. − x o ≤ x ≤ x o . entonces dλ ' − πa ( x − x o ) sen( λ' ) AB ⎧ ⎨ πa ⎩ πa ( x + x o ) sen( λ' ) 0 λ' 0 λ' ⎫ dλ ' ⎬ ⎭ Estas integrales definidas se conocen con el nombre de Integral Seno. (b) Sea y( x ) = Asinc(ax) z( x ) = AB ∫ ∞ − xo sinc[a (x − λ)]dλ − AB sinc[a ( x − λ)]dλ xo ∞ ∫ ∞ z( x ) = AB ∫ ∞ sen[πa (x − λ)] πa ( x − λ) πa ( x + x o ) sen( λ' ) − xo dλ − AB ∫ sen[πa ( x − λ)] πa (x − λ) dλ xo Con el cambio de variables πa ( x − λ) = λ' . Si(x).6 se muestra la forma de z(x). 2. la cual está definida mediante la integral . z( x ) = ⎫ AB ⎧ x ) − [1 − exp[−a ( x − x o )]]u ( x − x o )⎬ ⎨[1 − exp[−a ( x + x o )]]Π ( a ⎩ 2x o ⎭ En la Fig.103 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS La primera integral es válida para x o < x.

. lim Si ( x ) = ± . π 2.. La Integral Seno Si(x) en serie de potencias. 3 ⋅ 3! 5 ⋅ 5! 7 ⋅ 7 ! 9 ⋅ 9 ! y tiene las siguientes propiedades: 1.104 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Si (x ) = ∫ x sen(y ) y dy 0 y que se muestra en la Fig..7.. Entonces y (x ) = Au (x + x 1 ) − Au (x − x 1 ) ⎧ z(x) = AB⎨ ⎩ z( x ) = AB⎧ ⎨ ⎩ ∫ ∫ ∞ − xo ∞ [ u(x + x 1 − λ) − u(x − x 1 − λ)] dλ − ∫x [ u(x + x 1 − λ) − u(x − x 1 − λ)]dλ⎬ ⎭ ∞ o ⎫ −xo u ( x + x 1 − λ ) dλ − ∫ ∞ −xo u ( x − x 1 − λ ) dλ − − ⎧⎡ z(x) = AB⎨⎢ ⎩⎣ ∫ ∞ xo u ( x + x 1 − λ ) dλ + ∫ ⎫ u(x − x 1 − λ)dλ⎬ xo ⎭ ∞ ∫ x + x1 − xo ⎤ ⎡ dλ ⎥u[ x + (x o + x 1 )] − ⎢ ⎦ ⎣ ∫ x − x1 − xo ⎫ ⎤ dλ ⎥u[ x + (x o − x 1 )]⎬ − ⎦ ⎭ ..26(b) del Ejemplo 2. 2. obtenemos finalmente z( x) = AB Si{πa ( x + xo )} − Si{πa ( x − xo )} πa [ ] Una gráfica de esta expresión se muestra en la Fig.7 para |x| < ∞. La Integral Seno se puede expresar también como una serie de potencias de la forma x3 x5 x7 x9 Si ( x ) = x − + − + −. Con ayuda de la Integral Seno en el problema que nos ocupa.. (c) Sea y ( x ) = AΠ ( x ) con 2 x1 x1 < x o < 2 x1 En este caso se tiene la convolución de dos rectángulos de diferente amplitud y anchura pero centrados en el origen. ella se puede aproximar tomando un número suficiente de términos. 2 normalmente se encuentra tabulada en 20 12 40 4 12 20 la forma Si(x) vs x. 2.. 2 x→±∞ 3..... 2. y se presta a ser calculada mediante cálculo numérico. Si(0) = 0 2 π/2 1 Si( x) 0 1 x Como la Integral Seno no −π / 2 puede resolverse en forma analítica. Si ( x ) = −Si ( − x ). es una función impar de x.19. Desarrollando x Fig.

Cuando no se requiere valores exactos. Convolución de Señales Periódicas Consideremos dos señales periódicas x T1 ( t ) y x T2 ( t ) con el mismo período T. ♣ ♣ Ejemplo 2. aparentemente sencillos. convolución se efectúa dentro de un período T y se define en la forma x T1 ( t ) ∗ x T2 ( t ) = La ∫ T 1 1 T/ 2 − T/ 2 x T1 (τ ) x T 2 ( t − τ ) dτ (2. se puede escribir finalmente ⎧ ⎡ ⎤ x + xo x − xo ⎫ x z(x) = AB⎨[x + (x o + x 1 )]Π( ) + 2x 1 Π⎢ )⎬ ⎥ − [x − (x o + x 1 )]Π( 2x 1 2x 1 ⎭ ⎣ 2 (x o − x 1 ) ⎦ ⎩ z(x) tiene la forma dada en la Fig. z(x) 2x1AB x -xo .8. que veremos en la próxima sección. 2.8. 2.105 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS −⎡ ⎢ ⎣ ∫ x + x1 xo dλ ⎤ u[ x − ( x o − x1 )] + ⎡ ⎥ ⎢ ⎦ ⎣ ∫ x − x1 xo ⎫ dλ ⎤ u[ x − ( x o + x1 )]⎬ ⎥ ⎦ ⎭ Resolviendo las integrales y agrupando términos.x1 xo + x1 Graficación de z(x) vs x Fig.x1 -xo + x1 0 xo .11. se puede ver lo laboriosa que puede ser la manipulación matemática cuando la resolución de la integral de convolución es puramente analítica y las funciones en juego no son continuas en t. la resolución de la integral de convolución se puede efectuar en forma gráfica.48) Reemplazando x T2 ( t − τ ) por su desarrollo en serie de Fourier. En estos ejemplos. ⎤ ⎡ ∞ x T1 ( t ) ∗ x T2 ( t ) = x T1 ( τ )⎢ X n 2 exp[ j2 πnf o ( t − τ )]⎥dτ T − T/ 2 ⎢ n =−∞ ⎥ ⎣ ⎦ ∫ T/ 2 ∑ Intercambiando los signos de integral y sumatoria x T1 ( t ) ∗ x T2 ( t ) = ⎤ ⎡ 1 T/ 2 X n 2 exp( j2 πnf o t ) ⎢ x T1 ( τ ) exp( − j2 πnf o τ)dτ ⎥ ⎦ ⎣ T − T/ 2 n =−∞ ∑ ∞ ∫ . z(x) = AB{[x + (x o + x 1 )]u[x + (x o + x 1 )] − [x + (x o − x 1 )]u[x + (x o − x 1 )] − −[x − (x o − x 1 )]u[x − (x o − x 1 )] + [x − (x o + x 1 )]u[x − (x o + x 1 )]} Vemos que z(x) está formada por la suma de cuatro rampas. tomando en cuenta los dominios de validez de estas rampas.

El valor de la integral de convolución para un t particular viene dado por la integral (2. es también periódica de período T. 2. En la Fig. el valor de x 1 ( t ) ∗ x 2 ( t ) en t = − t 2 es igual a esa área sombreada y se ha representado como una amplitud en la Fig. Interpretación Gráfica de la Convolución La interpretación gráfica de la convolución es de mucha utilidad en el análisis de sistemas así como también en el análisis espectral de señales pues permite visualizar los resultados de muchas relaciones abstractas. Por ejemplo. Estas áreas representan los valores del producto de convolución en los valores respectivos de t. entonces se puede escribir X n1 X n 2 = X n =| X n |exp( jθ n ) Reemplazando (2.52) donde τ es la variable independiente y t el parámetro tiempo. con t = τ . 2.9(a). 2.3. 2.9(f). alrededor del eje vertical que pasa por el origen. de su área de intersección. 2. ♣ 2. entonces x T1 ( t ) ∗ x T2 ( t ) = n =−∞ ∑X ∞ n1 X n 2 exp( j2 πnf o t ) ⇔ n =−∞ ∑X ∞ n1 X n 2 δ( f − nf o ) (2. Fig. su convolución será cero.50) en (2. La gráfica de las áreas de intersección. en la Fig. Por definición. La integral de convolución. expresión (2. para t = − t 2 . Lo mismo para t = t 3 .9(e).51) La convolución de dos señales periódicas de período T. x 1 (t ) ∗ x 2 (t ) = ∫ ∞ −∞ x 1 ( τ ) x 2 ( t − τ ) dτ (2. se desplaza la función x 2 ( −τ ) según esos valores y se calcula el área de intersección correspondiente. Fig. entonces la convolución grafica resulta muy útil. expresadas como funciones de t.52) evaluada en t y representa el área bajo la curva producto de x 1 ( τ ) y x 2 ( t − τ ) . representa el producto de convolución x 1 ( t ) ∗ x 2 ( t ) .2.9(d).9(c) se muestra x 2 ( t − τ ) y x 1 ( τ ) y el sentido del desplazamiento. Si en un sistema lineal sólo se conoce x(t) y h(t) en forma gráfica. es decir. Como el período T es el mismo para X n1 y X n2 . 2.49) es una forma del teorema de convolución para señales periódicas.50) ∑X ∞ n exp( j2 πnf o t ) ⇔ n =−∞ ∑X δ(f − nf n ∞ o) (2. Nótese que si las señales periódicas son de diferente período. El término x 2 ( t − τ ) representa la función x 2 ( −τ ) desplazada t segundos a lo largo del eje τ.106 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS pero la integral dentro de los corchetes es igual a X n1. x T1 ( t ) ∗ x T2 ( t ) = n =−∞ donde |X n | =| X n1 || X n 2 | y θ n = θ n1 + θ n 2 (2. dicha área es la región sombreada de la Fig. Vamos a determinar gráficamente el producto de convolución x 1 ( t ) ∗ x 2 (t ) .9(b) se muestra x1 ( τ) y x2 ( −τ). 2.49). introduce el concepto de “función de ponderación (weighting function)” en la terminología del análisis de sistemas [Brown y Nilsson.52).9(f).49) La expresión (2. . Nótese que x 2 ( −τ ) se obtiene girando x 2 ( t ). Como ejemplo de esto supongamos que x 1 ( t ) y x 2 (t ) son los impulsos rectangular y triangular mostrados en la Fig. Para encontrar los valores del producto de convolución x 1 ( t ) ∗ x 2 ( t ) se selecciona diferentes valores de t.

y visualizando la multiplicación de x1 ( τ ) por x 2 ( t − τ ) . Convolución Gráfica. Dicho de otra manera. En el gráfico de x 2 ( t − τ ) . Con referencia a la Fig.10. h ( t ) = u ( t ) caracterizaría un sistema de memoria perfecta. el semiplano de la mano izquierda el futuro. Usando estas ideas. mientras que h ( t ) = δ ( t ) caracterizaría un sistema de memoria cero. éste sería un sistema con memoria perfecta. y el semiplano de la mano derecha el pasado. “presente” y “futuro”. Por otro lado. 2. El concepto de ponderación se evidencia cuando la rotación y traslación de x 2 ( t ) es vista sobre una escala temporal (en τ ) la cual se caracteriza como “pasado”. 2.5 0 1 t3 -1 0 1 t = −t2 x1 (t) ∗ x2 (t ) t = t3 (e) (f) t -3 −t 2 -2 -1 0 1 t3 2 Fig. Por ejemplo. los valores pasados de x 2 (t ) son ponderados menos y menos a medida que pasa el tiempo. Para la función dada x1 ( τ ) .10.9. 2. Fig. la respuesta de un sistema al impulso unitario se ha denominado también “función de ponderación del sistema” porque multiplica la función de entrada en la integral de convolución.9(d) y (e). el eje vertical representa el presente. si la respuesta impulsional fuera un impulso muy angosto. se puede ver que x 1 ( τ ) “pesa” o pondera la función x 2 ( t ) de acuerdo con valores presentes y pasados. 2. Fig. . podríamos decir que una respuesta impulsional h(t) que fuera plana daría igual peso o ponderaría por igual a todos los valores pasados y presentes de la excitación x(t). En efecto. el sistema tendría poca memoria. se supone que x 2 ( t ) es la excitación del sistema.107 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS 1962]. 2 x 2 (t ) x1 (t ) t 1 t (a) -1 0 1 -2 2 0 x2 (−τ ) τ 1 x1 (τ ) 1 τ (b) -1 0 1 -1 2 0 x 2 (t − τ ) 2 Desplazamiento x1 (τ ) (c) 1 τ -1 0 1 2 − t1 − 1 −t1 2 − t1 + 2 t = − t1 1 1 x2 (t − τ ) x 2 (t − τ ) x1 (τ ) τ x1 (τ ) −t 2 (d) τ -1 2. el sistema “recuerda” menos y menos acerca de los valores pasados de la entrada.

4.10.1. Sea un sistema lineal invariante en el tiempo en el cual x ( t ) ⇔ X(f ). Esta “memoria” es el tiempo necesario para que h(t) se estabilice y vuelva prácticamente a cero y es el tiempo durante el cual el sistema “recuerda” las excitaciones a las cuales ha sido sometido. La función memoria indica. (c) La integral de convolución introduce el concepto de “función de ponderación” o “memoria del sistema”.53) . Concepto de pasado. hasta donde hay que remontarse en el tiempo para encontrar el momento desde donde una excitación sobrevenida en el pasado influye todavía en el momento considerado (o presente).4. vamos a considerar esa respuesta en el caso de ciertos sistemas lineales ideales.25) y (2. gráfica o analíticamente. pues. Podemos resumir la importancia de la integral de convolución mediante las siguientes observaciones: (a) La integral de convolución se puede utilizar para determinar la respuesta de un sistema en situaciones donde la entrada x(t) y la respuesta impulsiva h(t) son conocidas. (d) Como herramienta analítica. vamos considerar primero el problema de la transmisión sin distorsión.108 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS x 2 (t − τ ) Valor de la función cuando ha transcurrido t 1unidades de tiempo 0 futuro (sucederá) La función se desplaza en este sentido a medida que t aumenta τ pasado (ha sucedido) t = t1 presente Fig. Con el fin de introducir estas idealizaciones. determinándose la respuesta total por superposición de las respuestas individuales de cada impulso. DISTORSION EN SISTEMAS 2.31). y(t) ⇔ Y(f) De (2. presente y futuro de la excitación x 2 (t ) A la respuesta impulsional h(t) se la ha designado entonces como la función memoria del sistema. Y (f ) =| H (f )|exp[ jβ ( f )] ⋅ X ( f ) (2. Transmisión sin Distorsión Sabiendo que la respuesta impulsional suministra información fundamental acerca del comportamiento general de un sistema. pero no sus respectivas transformadas de Fourier. h(t) ⇔ H(f). 2. 2. (b) La integral de convolución introduce la posibilidad de aproximar la señal de entrada como una secuencia de impulsos. la integral de convolución proporciona los recursos para una resolución alterna de las Integrales de Fourier.

56) con (2. y al eje de frecuencia en las frecuencias f n = n / 2t o . como se puede apreciar en la Fig. (2. para n = 0. ésta no es una condición necesaria. | H (f )| = h o y β (f) = -2πt o f (2.2. sin embargo. puede suceder que.55) donde ho es la “atenuación (o ganancia)” y to el “retardo de transmisión” de la señal a través del sistema..54) Se tiene ahora el problema de determinar las restricciones que existen sobre |H(f)| y β(f) para que la señal de salida y(t) sea idéntica a la señal de entrada x(t). Aún más. exp(± jnπ ) = −1. siendo t o el tiempo de propagación o retardo de las componentes a través del sistema. . Es evidente que si H(f) = 1. . ella no representa ningún problema pues la amplitud original puede restaurarse mediante amplificación. Una expresión más general para la fase en (2.13).58) Si X(f) es de banda limitada (pasabajo o pasabanda). ± 2. La característica de fase en transmisión sin distorsión es entonces una familia de líneas paralelas de pendiente −2πt o .. las dos formas de onda serían idénticas. Se dice entonces que hay transmisión sin distorsión cuando la señal de salida está definida mediante la expresión y(t ) = h o x(t − t o ) (2. de tal manera que la condición de transmisión sin distorsión no cambia. n = 0. mientras que si n es impar. es suficiente que estas condiciones se cumplan dentro de su intervalo de existencia.53).58) es β(f ) = −2πt o f ± nπ para todo n entero (2. si la atenuación es constante para todas las frecuencias. se tiene que exp(± jnπ ) = 1. Por transformada de Fourier. ± 1. en alguna gama de frecuencias la característica de fase sea lineal.57) (2.56) Comparando (2. se producirá distorsión de fase. que cortan al eje β(f ) en múltiplos enteros de π.11(b). entonces aparecerá un término constante de distorsión de fase (ver Problema de Aplicación 2. En cualquier sistema físico la señal siempre experimenta una cierta atenuación.109 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS o también y( t ) = | H ( f )| X( f ) exp[ jβ( f )]exp( − j2 πtf ) df −∞ ∫ ∞ (2. Por otra parte. se puede decir que la condición necesaria y suficiente para que se efectúe la transmisión sin distorsión se verifica cuando H ( f ) = h o exp( − j2πt o f ) ⇔ h( t ) = h o δ( t − t o ) En consecuencia.55) queda en la forma Y( f ) = h o exp( − j2πt o f ) ⋅ X( f ) (2. Nótese que si n no es entero. Esto significa que todas las componentes de frecuencia de una señal llegan a la salida al mismo tiempo.. Esta situación es común en la práctica. pero si su prolongación no corta el eje β(f ) en cero o en múltiplos enteros de π. la transmisión no puede ser instantánea y la señal de salida tendrá un cierto retardo en relación con la señal de entrada.59) Si n es par.

.110 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS n = -1 |H(f)| ho f 0 n=1 β( f ) pendiente = −2πt o π f n=1 0 n=0 −π n = -1 (a) Módulo de H(f) (b) Fase de H(f) Fig. 2. mostrado en la Fig. La señal recibida y(t) es y (t ) = h o x(t − τ o ) + h 1x(t − τ 1 ) + h 2 x(t − τ 2 )+..12. como se muestra en la Fig. Modelo de un Canal en Transmisión Multitrayecto El concepto de transmisión sin distorsión permite analizar los efectos de la transmisión de una señal por trayectorias múltiples.... y que la característica de fase sea una función lineal de la frecuencia. Transmisión Multitrayecto. ♣ Ejemplo 2. la transmisión sin distorsión requiere que la magnitud o módulo de la función de transferencia sea constante e independiente de la frecuencia. 2. Sea entonces el modelo de un canal en transmisión multitrayecto.11. 2.+ h N X (f ) exp(− j2πτ N f ) Y (f ) = X (f ) ∑h n= 0 n N n exp(− j2πτ n f ) = H c (f ) ⋅ X (f ) La función de transferencia y la respuesta impulsional de un canal multitrayecto serán H c (f ) = ∑h n= 0 N exp(− j2πτ n f ) ⇔ h c (t ) = ∑ h δ( t − τ n n= 0 N n) (2..60) . Características de un Sistema para Transmisión sin Distorsión.. La señal x(t) se genera en el transmisor y llega al receptor sin experimentar distorsión pero por diferentes trayectorias que introducen atenuaciones h i y retardos τ i . x(t) Transmisor y(t) h o .. 2... que es una perturbación muy común en los sistemas de transmisión por radio. En resumen..τ o h 1 .12.+ h N x(t − τ N ) cuya transformada de Fourier es Y (f ) = h o X (f ) exp(− j2πτ o f ) + h 1X (f ) exp(− j2πτ 1f )+.τ N Fig.12.τ 1 Receptor h N .11.

Esta distorsión se debe principalmente a la disminución y distorsión de la amplitud de la señal causadas por interferencia destructiva debido a las diferencias de fase y atenuación entre las diferentes componentes de la señal que llegan al receptor.13. donde H o es una constante. y eq (t ) = α o y (t ) + α 1y (t − ∆ ) + α 2 y (t − 2∆ )+.. del Ejemplo anterior. entonces.... como se muestra en la Fig. El filtro transversal.. Como Y(f) es el espectro de la señal recibida... Y(f) será Y (f ) = H c (f ) ⋅ X (f ) y el espectro de la señal ecualizada será Yeq (f ) = H eq (f ) ⋅ H c (f ) ⋅ X (f ) La señal ecualizada y eq (t ) no presentará distorsión si H eq (f ) ⋅ H c (f ) = H o . 2.+α K Y (f ) exp(− j2πK∆f ) ⎡ K ⎤ Yeq (f ) = ⎢ α k exp(− j2πk∆f )⎥ ⋅ Y (f ) = H eq (f ) ⋅ Y (f ) ..62) H c (f ) . en realidad.13.111 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS El efecto de h c (t ) sobre la señal x(t) produce en ésta una gran distorsión de tipo lineal. de donde ⎢ k =0 ⎥ ⎣ ⎦ ∑ K k =0 H eq ( f ) = ∑ α k exp( − j2 πk∆f ) ⇔ h eq ( t ) = ∑ α δ ( t − k∆ ) k k =0 K (2. cuyas salidas se ponderan con ganancias α i que luego se suman para producir la salida ecualizada y eq ( t ). Entrada y(t) αo Retardo ∆ α1 Retard ∆ α2 Retardo ∆ αK H eq ( f ) Salida y eq ( t ) Fig.61) Estas son la función de transferencia y la respuesta impulsional del filtro transversal. utiliza una línea de retardos ∆ .13. En la práctica los valores de h i y τ i no son conocidos. el cual actúa sobre la señal recibida y(t) para compensar la distorsión producida por el fenómeno de multitrayecto. son cantidades aleatorias. cuando Ho H eq (f ) = (2.13. es decir.. 2.. ♣ ♣ Ejemplo 2.+α K y (t − K∆ ) cuya transformada de Fourier es Yeq (f ) = α o Y (f ) + α 1Y (f ) exp(− j2π∆f )+. Filtro Transversal o Ecualizador De la Fig. 2.. El Filtro Transversal o Ecualizador Los efectos producidos por la transmisión multitrayecto se pueden contrarrestar mediante la utilización del llamado “Filtro Transversal o Ecualizador”..

El filtro ecualizador tiene múltiples aplicaciones en todas las ramas de la ingeniería eléctrica.14.63) Sin necesidad de resolver la integral (2. para t = t o . entonces h (t ) = ∫ ∞ −∞ | H (f )|cos[ 2π (t − t o )f ]df (2. . Una primera aplicación de estos conceptos la veremos más adelante al tratar los filtros ideales. es decir. Cualquier otro valor de t lo que hace es disminuir el valor del integrando en (2. es decir. En efecto. Este es un sistema que no posee distorsión de fase. podemos suponer que h( t ) ≈ 0 para t < 0 . La respuesta impulsional h(t) de un sistema de fase lineal tiene entonces la forma general mostrada en la Fig. Asimismo. La realización física de la función de transferencia H eq (f ) se complica por cuanto los parámetros h i y τ i de H c (f ) en general son desconocidos. si el retardo t o es lo suficientemente grande. podemos decir que la respuesta impulsional de un sistema de fase lineal es simétrica con respecto a t o porque h ( t − t o ) = h ( t o − t ) . Sea H (f ) =| H (f )|exp(− j2πt o f ) donde t o es el retardo de transmisión y h( t ) = ∫ ∞ −∞ | H ( f )|exp( − j2 πt o f ) exp( j2 πtf )df = | H ( f )|exp[ j2 π ( t − t o ) f ]df −∞ ∫ ∞ Puesto que |H(f)| es una función par de f. h(t) |H(f)| h max f t 0 β(f ) = −2 πt o f 0 to (a) Características de Amplitud y Fase (b) Respuesta Impulsional Fig.64) donde h max representa el área neta bajo |H(f)|. ♣ Sistemas de Fase Lineal Sea un sistema cuyas características de amplitud y fase se muestran en la Fig. es un sistema cuya característica de fase es lineal y en el cual el módulo de su función de transferencia tiene cualquier perfil. Sistema de Fase Lineal. 2. además.14(a).14(b): simétrica respecto a t = t o .63) queda en la forma h max = ∫ ∞ −∞ | H (f )| df (2.63).63) porque cos[2π (t − t o )f ] tiene su valor máximo en t = t o para todo f. 2. el valor máximo h max de h(t) se alcanza cuando t = t o . la expresión (2. la red ecualizadora se coloca a la entrada del receptor. 2. que h(t) es causal.112 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS En la práctica. con valor máximo h max en t = t o y distinta de cero para t < 0. La dispersión de h(t) alrededor de t = t o dependerá del ancho de banda de H(f).

respecto al origen. En este caso. si hay que operar en una pequeña gama de frecuencias alrededor de . Distorsión de Amplitud 2. Sea t g ( f ) este retardo. En la segunda forma de distorsión de retardo. las diferentes componentes de frecuencia tienen diferentes tiempos de propagación a través del sistema y como consecuencia se produce una dispersión de las señales a la salida. se produce cuando |H(f)| no es constante dentro de la banda de paso del sistema. si es posible. cada uno de los cuales define un tiempo de retardo dado.2. Tipos de Distorsión En la práctica la transmisión sin distorsión se puede alcanzar solamente en forma aproximada.4. Por ejemplo. se manifiesta como una deformación de la envolvente de las señales. La manifestación más común de la distorsión de amplitud es el exceso de ganancia o de atenuación en los bordes de la banda y las ondulaciones o rizado de |H(f)| dentro de la banda de paso. se consideran dos tipos de distorsión de retardo: la “distorsión de retardo de fase” y la “distorsión de retardo de envolvente o de grupo”. pues siempre se producirá un cierto grado de distorsión que es necesario cuantificar y. a las características pasaalto de los transformadores y a los capacitores en serie presentes. las componentes de frecuencia son atenuadas (o amplificadas) en forma diferente en las diferentes gamas de frecuencia. el retardo de fase es t p (f ) = − 1 β(f ) 2π f seg (2. minimizar mediante un diseño apropiado del sistema. A este efecto.113 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS 2.66) En muchos casos la característica de fase de un sistema se puede aproximar como una curva lineal por tramos. el tiempo de retardo correspondiente se define como la derivada de la característica de fase. de la característica de fase a una frecuencia dada [t p (f) es el tiempo de propagación. Distorsión de Fase 3. Por definición. a través del sistema. más conocida como “Distorsión de Retardo”. Distorsión de Amplitud La “Distorsión de Amplitud”. El rizado dentro de la banda de paso es causado principalmente por desequilibrios de impedancia y las reflexiones consiguientes. es decir. entonces t g (f ) = − 1 d 2π df β ( f ) seg (2. Distorsión no Lineal Los dos primeros tipos son formas de distorsión lineal. en un canal telefónico la atenuación en los bordes de la banda se debe a los filtros presentes en el sistema.65) donde β( f ) / f es simplemente la pendiente. Distorsión de Fase La “Distorsión de Fase”. Por ejemplo. la distorsión se ha clasificado en tres tipos: 1. de la componente de frecuencia f]. Para caracterizar esta situación. efecto que se produce en los circuitos cuando la característica de fase β(f) no es lineal. algunas veces llamada también “Distorsión de Frecuencia”.

23(a): x( t − t o ) exp[∓ j2 πf c t ] ⇔ X( f ± f c ) exp[− j2 πt o ( f ± f c )] Aplicando esta expresión a Y(f) y agrupando términos se obtiene finalmente y( t ) = h o x[t − t g ( f c )] cos 2πf c [t − t p ( f c )] [ ] (2. la fase β(f) se puede aproximar con los dos primeros términos de su desarrollo en serie de Taylor.67) Este resultado indica que la amplitud o envolvente de la señal de salida del sistema está retardada en una cantidad igual al retardo de grupo o de envolvente t g ( f ) . para frecuencia negativa. es decir. con f → − f . d df β(f c ) β + ( f ) = −2 πf c t p (f c ) − 2 π ( f − f c ) t g (f c ) para 0 ≤ f Esta expresión se aplica para frecuencia positiva. El retardo de envolvente o retardo de grupo es la forma de retardo más . mientras que la fase de la portadora está retardada en una cantidad igual al retardo de fase t p ( f ) . y su negativo.f c )exp -j2 πf c t p (f c ) − j2 π (f − f c ) t g ( f c ) c g c c p (fc ) c p c [ ] [ ] {X( f + f ) exp[ − j2π( f + f ) t ( f )] exp[ j2πf t + X( f − f ) exp[ − j2 π ( f − f )t (f )] exp[ − j2 πf t c c g c ]+ (f )] } Para determinar la transformada inversa de esta expresión podemos utilizar el par de transformadas obtenido en el Problema de Aplicación 1. Este resultado es muy importante en la recepción de señales moduladas y es el principio utilizado en los instrumentos de medición de los retardos de grupo y de fase. β( f ) = β ( f c ) + ( f − f c ) De (2. donde [ ] H + ( f ) = h o exp − j2 πf c t p ( f c ) − j2 π ( f − f c ) t g ( f c ) H − (f ) = h o [ exp[ j2 πf t ] para 0≤ f c p (f c ) − j2 π (f + f c ) t g ( f c ) ] para f<0 La salida Y(f) del sistema será Y (f ) = H (f ) ⋅ X c (f ) = + Y( f ) = ho 2 c ho 2 ho 2 X(f + f c ) exp j2 πf c t p ( f c ) − j2 π (f + f c ) t g ( f c ) + X(f . Esto se debe a que la fase es una función impar de la frecuencia.65) y (2.114 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS una frecuencia central f c . Tanto t g ( f ) como t p ( f ) están evaluados a la frecuencia f c de la portadora. como es el caso en sistemas pasabanda de banda angosta. H ( f ) = H − (f ) + H + ( f ) . β − (f ) = −β + ( −f ) = 2πf c t p (f c ) − 2π(f + f c ) t g (f c ) para f < 0 Supongamos ahora que la característica de amplitud es | H (f )| = h o y que a la entrada del sistema se aplica la señal modulada 1 x c ( t ) = x ( t ) cos( 2 πf c t ) ⇔ X c (f ) = X(f + f c ) + X(f − f c ) 2 También. Entonces. se aplica para frecuencia negativa.66).

2. f 2 = 15 Hz. t1 = 1 π = 1 100 Frecuencias presentes: f1 = 15 Hz. En los canales telefónicos la distorsión de retardo de grupo se debe principalmente a los efectos capacitivos e inductivos que tienen los transformadores y amplificadores en las frecuencias bajas de la banda de voz. pues representa el verdadero retardo de la señal. y 2 ( t ) = 2 cos[10π ( t − 1 80 )] + 1. f 2 = 6 Hz. (b) .5 cos[30π (t − 1 80 )] to = 1 80 En el sistema hubo transmisión sin distorsión.5 cos[ 30π (t − 1 80 )] + cos[50π ( t − 1 100 )] 2 π 2 ⋅ 25 Hay distorsión de amplitud y de fase: las componentes están amplificadas en forma diferente y sus retardos son también diferentes. 2. (a) Frecuencias presentes: f1 = 5 Hz.5 Hay distorsión de amplitud solamente: diferente. mientras que en la parte alta de la banda la distorsión de retardo de grupo es causada por las bobinas de carga y la capacitancia de las líneas de transmisión (aéreas y subterráneas). sobre todo si la señal está modulada.14 Sea un sistema cuyas características de amplitud y fase se muestran en la Fig. ganancia = 2. t o = Ganancias: 1. ganancias: 2 y 1.115 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS utilizada en la caracterización de un canal de comunicaciones. 1 π 1 = .15. . f 2 = 25 Hz. |H(f)| 2 1 -20 f β( f ) π/2 20 f Hz -30 -20 -10 0 10 Hz 20 30 −π / 2 0 (a) Característica de Amplitud Fig.15. (b) Característica de Fase Este sistema es excitado por las tres señales (a) x 1 ( t ) = cos(10πt ) + cos(12 πt ) .5 y 1 y 3 ( t ) = 1. 2 π 40 80 1 1 1 y 1 ( t ) = 2 cos[10π( t − )] + 2 cos[12π( t − )] = 2x 1 ( t − ) 80 80 80 to = Frecuencias presentes: f1 = 5 Hz. (c) las componentes están amplificadas en forma 1 80 . (b) x 2 ( t ) = cos(10πt ) + cos( 30πt ) (c) x 3 ( t ) = cos( 30πt ) + cos(50πt ) Vamos a determinar las correspondientes salidas y los tipos de distorsión producidos. ♣ Ejemplo 2.

El lector puede demostrar que los cuatro primeros términos de (2... “términos de distorsión de intermodulación (en inglés. y los segundos. 3fc ... Esto es muy importante desde el punto de vista práctico. 4fx → 6 frecuencias . el espectro de y(t) será Y( f ) = a 1 X(f ) + a 2 [ X( f ) ∗ X(f)] + a 3 [X( f ) ∗ X(f) ∗ X(f)]+. En general. Los sistemas no lineales se describen entonces mediante una curva y ( t ) = g[ x ( t )]. por ejemplo.. siempre poseerá un espectro.68) contienen. el espectro de la señal de salida se puede determinar mediante el teorema de la convolución que nos permite determinar el espectro de una señal cuyas características no son lineales. además de una componente continua. 3fx . sobretodo en la transmisión de impulsos digitales.69) La distorsión armónica asociada con la salida de un sistema se determina aplicando un tono sinusoidal puro a la entrada del sistema. ♣ Distorsión no Lineal Los canales prácticos y dispositivos electrónicos como los amplificadores.. y a la suma y diferencia de las frecuencias de entrada y de las armónicas. (2. 2.116 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Nótese que cuando hay distorsión de retardo las componentes de frecuencias más altas llegan primero a la salida. términos a las siguientes frecuencias: De Distorsión Armónica: 2fc . entonces la salida contendrá.. 4fc .. comúnmente denominada “característica o curva de transferencia”. En efecto. y(t) x(t) 0 Fig. En la Fig. sin importar su naturaleza. términos a las frecuencias armónicas de las frecuencias de entrada. pues contribuye.16 se muestra la característica de transferencia de un sistema no lineal sin memoria.15 consideramos este caso. Si la entrada al sistema es la suma de dos señales sinusoidales de diferentes frecuencias.16 (2.. junto con otros factores que veremos posteriormente. a menudo exhiben características no lineales y no pueden ser descritos mediante una función de transferencia pues no poseen una. cross-modulation)”. Nótese que una señal real. En el Ejemplo 2. a la generación de una distorsión de las señales conocida como “interferencia intersímbolo”. La naturaleza de la distorsión no lineal se puede cuantificar suponiendo que la curva de transferencia se puede aproximar mediante un polinomio de potencias de la forma y( t ) = a 1 x( t ) + a 2 x 2 ( t ) + a 3 x 3 ( t ) +.. Las líneas a trazos representan la aproximación lineal por tramos de la curva de transferencia. la característica de transferencia se puede considerar lineal..68) La segunda y siguientes potencias de x(t) son los términos que producen distorsión.. además de una componente continua. 2.. cuando x(t) es pequeña. 2fx . Los primeros términos reciben el nombre de “términos de distorsión armónica”.. Aunque no se dispone de la función de transferencia. como veremos en el Capítulo V. x( t ) = cos(2πfc t ) + cos(2πfx t ).

2 4 = D2 % = 100 3a 3 V1 + . Esta forma de distorsión de intermodulación (conocida también como “cross-talk”) es de especial importancia. la cantidad o porcentaje de “Distorsión de Segunda Armónica” viene dada por D2 % = |Amplitud de la Componente de Segunda Armónica| 100 |Amplitud de la Componente Fundamental| V2 a2 a4 + + . en los sistemas telefónicos en donde un gran número de señales se han combinado para ser transmitidas por un mismo canal.... Dn % = n =2 ∞ 2 n V1 2 100 En particular... La distorsión no lineal aparece como armónica de la frecuencia de entrada. 2 x 1 (t ) ⋅ x 2 ( t ) y así sucesivamente.. ver Ejemplo 1.⎥ + ⎢ a 1 + +...11.... 2 En general. viene dado por ∑V Distorsión Armónica Total.⎥ cos[2 π (2 f o ) t ]+.... por ejemplo. entonces y(t) contendrá los términos x 1 ( t ).... si el sistema no lineal se utiliza como modulador o demodulador.. Esto lo veremos en el Capítulo VI. el espectro de [x 1 (t ) ⋅ x 2 (t )] puede solapar X 1 ( f ) o X 2 ( f ) o ambos. los términos 2fc y (2fc ± fx) se utilizan en los cálculos de las interacciones entre estaciones de radiodifusión en AM. Es fácil de ver en el dominio de la frecuencia que aunque X 1 ( f ) y X 2 (f ) puedan estar separados en frecuencia. 2fc ± 2 f x ...15. x 2 ( t ).. FM y TV.117 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS De Intermodulación: fc ± fx . Introduciendo esta señal en (2. En particular. 3fc ± fx . si x ( t ) = x 1 ( t ) + x 2 ( t ). El porcentaje de “distorsión armónica total”. 2fc ± f x .. ⎣ 2 ⎦ ⎣ ⎦ ⎣ 2 ⎦ 8 4 4 y(t) = Vo + V1 cos(2πf o t) + V2 cos[2π(2f o )t] + .68) la salida y(t) tendrá la forma ⎡ a 2 3a 4 ⎤ ⎡ ⎤ ⎡a2 a4 ⎤ 3a 3 y(t ) = ⎢ + +. ♣ Ejemplo 2.⎥ cos( 2 πf o t ) + ⎢ + +.. Sin embargo.... 3f x ± fc → 12 frecuencias Las frecuencias de distorsión armónica y de intermodulación caracterizan la interacción mutua entre dos frecuencias fc y fx. a1 + 4 ♣ . + Vn cos[2π(nf o )] donde Vn es el valor pico de la componente de salida de frecuencia nfo.... el término de intermodulación es el término útil o deseado. Distorsión Armónica Una medida cuantitativa de la distorsión armónica de un sistema no lineal se obtiene aplicando a su entrada una señal sinusoidal pura de la forma x ( t ) = cos( 2πf o t ). 2fx ± fc ..

18. . Obsérvese que el término de distorsión ocupa un ancho de banda el doble del de la señal útil. Sistema de Compansión. mediante aplicación sucesiva del teorema de la convolución. 2. conocido con el nombre de “compansión (compresiónexpansión)”. ♣ Compansión La característica de transferencia de la Fig. En general. Como ambos términos se superponen en el intervalo (-B. (c) Espectro de y(t) Obsérvese que el espectro del producto de dos señales ocupa un ancho de banda igual a la suma de los anchos de banda individuales. dispuestos en la forma mostrada en la Fig. Dibujar el espectro de la salida. habrá distorsión y será imposible. 2.16 A la entrada de un sistema no lineal representado por y ( t ) = a 1 x ( t ) + a 2 x 2 ( t ) se aplica la señal x ( t ) = 2 ABsinc( 2 Bt ). Esto se puede apreciar en la Fig. Y(f) X(f) a 1A + 2a 2 A 2 B 2a 2 A 2 B a 1A f f -2B 0 2B -2B -B 0 B 2B f -B 0 B (a) Término Util (b) Término de Distorsión Fig.18. Se tiene entonces que cuya transformada de Fourier es y ( t ) = 2 a 1 ABsinc( 2 Bt ) + 4 a 2 A 2 B 2 sinc 2 (2 Bt ) Y (f ) = a 1AΠ ( f 2B ) + 2 a 2 A 2 BΛ ( f 2B ) El primer término es la salida deseada. se puede demostrar que el ancho de banda del producto de n señales es igual a la suma de los n anchos de banda individuales.118 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS ♣ Ejemplo 2. 2. considerado como distorsión.17. en general. la amplitud de la señal se mantiene dentro del rango de operación lineal de la característica de transferencia. 2. Con este método. produce interferencias a todas las frecuencias ocupadas por la señal deseada.17(c). B). 2.16 sugiere un método para disminuir la distorsión no lineal. pero el segundo término. La compansión se efectúa mediante dos dispositivos no lineales: un “compresor’ y un “expansor”. recuperar X(f) a partir de Y(f). Entrada x(t) Compresor Canal no Lineal Expansor Salida y(t) Fig.

entonces.+ H N (f ) b 3 a H 1 (f ) H 2 (f ) b a H 1 (f ) 1 + H 1 ( f ) H 2 (f ) b En la reducción de diagramas de bloques hay que tener en cuenta las interacciones o efectos de carga y acoplamiento que ocurren cuando un subsistema se conecta a otro. Por ejemplo. ajustar también la salida del sistema de tal manera que se compense el ajuste. puede ser posible y deseable combinarlas para constituir una sola función de transferencia total.. es decir. y ( t ) = g exp [ln x ( t )] = exp[ln x (t )]. Si se conoce las funciones de transferencia de los diferentes subsistemas. compensar la diferencia entre voces fuertes y voces débiles. INTERCONEXION DE SISTEMAS Normalmente un sistema de comunicación comprende numerosos subsistemas interconectados en diferentes formas. se puede utilizar. en paralelo y retroalimentada. a menudo es necesario reducir un diagrama de bloques dado a cualquiera de estas tres formas básicas.. 2. Como el compresor ajusta el rango de la señal de entrada.119 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS El compresor ajusta el rango de amplitudes de la señal de entrada de manera que caiga dentro del intervalo lineal del canal.. Las tres formas básicas de interconexión de sistemas son: en cascada o serie. H N ( f ) b a b + a 2 H 1 ( f ) + H 2 ( f ) +. Como los diagramas de bloques se utilizan mucho en el análisis de sistemas. también ajustará el rango de la señal de salida. que g exp g comp [ x (t )] = x ( t ). si { } La compansión es ampliamente utilizada en sistemas telefónicos para reducir la distorsión no lineal y también para mejorar el rango dinámico de las señales. a fin de que el sistema equivalente represente verdaderamente la interconexión de los subsistemas.. es decir. Estas tres formas básicas se muestran en la siguiente TABLA DE IDENTIDADES.5. Para una entrada positiva x(t). la característica de transferencia del expansor. un compresor con una característica de transferencia g comp [x (t )] = ln[x ( t )]. 1 a Diagrama Original Diagrama Equivalente H 1 (f ) H 1 (f ) H 2 (f ) H N (f ) + - H 2 (f ) + + H N (f ) b a H 1 ( f ) H 2 ( f ). Es necesario. donde g exp {⋅ ⋅}. por ejemplo. entonces y(t) = x(t). TABLA DE IDENTIDADES DE DIAGRAMAS DE BLOQUES No. . es el complemento de la característica de transferencia del compresor.

2. Esta selectividad en frecuencia es lo que comúnmente se denomina “filtración”. Para analizarlo. los filtros básicos pueden ser pasabajo.6. 19. pero lo vamos a utilizar para hallar su función de transferencia equivalente. h(t) x(t) Retardo + _ (a) h ( t ) = Π( t−τ/2 En (d) se muestra las ∫ 1 y(t) τ h(t) 0 (c) τ τ t H 1 (f ) = 1 X(f) + _ (b) |H(f)| H 3 (f ) = H(f) 1 j2πf Y(f) −2 / τ −1/ τ 0 (d) H 2 (f ) H 2 ( f ) = exp(− j2πτf ) 1/ τ 2 / τ f β (f ) = − πτf Fig. Fig. FILTROS 2.19.1. Introducción En su acepción general. La rama superior.6.19(a). mientras que la rama del integrador tendrá H 3 ( f ) = 1 / ( j2 πf ) . pasabanda. ciertas componentes de frecuencia son amplificadas mientras que otras son atenuadas o rechazadas. La función de transferencia total será H ( f ) = [ H 1 ( f ) − H 2 ( f ) ]H 3 ( f ) = [1 − exp( − j2 πτf )] H(f ) = 1 j2 πf exp( − jπτf ) [exp( jπτf ) − exp( − jπτf )] = τsinc( τf ) exp( − jπτf ) j2 πf Por transformada inversa de Fourier. Circuito de Retención (Sample and Hold) Consideremos el “circuito de retención (zero-order hold)” de la Fig. 2. ♣ 2. tiene una función de transferencia H 1 (f ) = 1. Este circuito tiene muchas aplicaciones en comunicaciones. sobretodo en el muestreo y procesamiento de señales. el diagrama de bloques tendrá la forma mostrada en (b). La teoría . Desde este punto de vista. τ características de la función de transferencia del circuito de retención. Este sistema es muy sencillo. un filtro es un dispositivo selectivo de frecuencia que se utiliza para limitar el espectro de una señal dentro de una gama específica de frecuencias.17. En términos de estas funciones.120 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS ♣ Ejemplo 2. pasaalto y eliminador de banda. 2. la respuesta impulsiva o impulsional h(t) será ) que tiene la forma mostrada en (c). La rama inferior tiene una función de transferencia H 2 (f ) = exp( − j2 πτf ). debemos obtener primero la función de transferencia de los diferentes bloques. De acuerdo con la dependencia funcional de H(f) respecto a la frecuencia.

20(b). mostrado en la Fig. De la Fig.) se extienden hasta -∞. Para caracterizar estos filtros ideales. como un filtro “pasatodo”. la cola que se extiende para t negativo es de amplitud muy pequeña y podría ser despreciada. y como el valor máximo de la característica es 2Bho .11. la distancia entre los dos ceros del lóbulo principal de la característica nos da el valor del ancho de banda B.6. pues hay una respuesta para t < 0: las colas de la función sinc(.121 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS de los filtros es un sujeto muy importante en la generación. se obtiene también el valor ho de |H(f)|. por su descripción matemática sencilla. 2.2. Sin embargo. . los filtros ideales permiten. el desplazamiento respecto al origen es el tiempo de retardo to . Filtros Ideales Aunque no son físicamente realizables.70) (2. transmisión y recepción de señales. y un estudio más completo de ellos está fuera de los objetivos de este texto. Para simplificar la descripción de algunos de los filtros ideales. 2.20(a) se muestran las características de amplitud y fase de un filtro ideal pasabajo. entender con menor dificultad sus efectos sobre las señales que se les aplican. aunque la característica pasabajo ideal nunca puede ser causal.71) h PB ( t ) = 2 Bh o sinc[2 B( t − t o )] Obsérvese que la respuesta impulsional no es causal. 2. para profundizar un poco más en el estudio de los sistemas lineales y visualizar algunas de sus características. Filtro Ideal Pasabajo En la Fig. vamos a considerar los filtros ideales que son sistemas de fase lineal que transmiten sin distorsión de fase dentro de una determinada banda de frecuencias.. En efecto. concepto que nos ayudará en la caracterización de algunos de los filtros ideales que veremos a continuación.20(a). vamos a suponer que B es el ancho de banda de la banda de paso (frecuencias positivas) y t o el retardo de transmisión (respuesta de fase lineal). Sin embargo. vamos a considerar el sistema de transmisión sin distorsión. Los filtros ideales son sistemas de fase lineal cuyas características generales hemos visto ya. Fig. Por lo tanto. ella puede aproximarse para que sea causal haciendo t o lo suficientemente grande. de donde H PB ( f ) = h o Π( f 2B ) exp( − j2πt o f ) (2. La respuesta impulsional contiene también toda la información sobre el filtro. si Bt o >> 1. 2. 2. procesamiento. Nótese que h(t) es máxima y simétrica en t = t o .

la respuesta impulsional tiene la forma de una señal modulada de frecuencia fo. 2. 2. es decir. la respuesta impulsional del filtro ideal pasabanda tampoco es causal. to y ho) se pueden deducir también de la respuesta impulsional. Obsérvese que la envolvente de la respuesta es parecida a la respuesta del filtro ideal pasabajo. De la Fig.72) (2.22(a) se muestran las características de amplitud y fase de este filtro. El filtro ideal pasaalto se puede considerar como la combinación de un filtro ideal pasatodo y un filtro ideal pasabajo. B. 2. H BB (f ) = h o [Π ( f + fo f − fo ) + Π( )]exp(− j2πt o f ) B B (2. Fig.21(a).21(b).21 (a). .122 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Filtro Ideal Pasabanda Las características de amplitud y fase del filtro ideal pasabanda se muestran en la Fig. 2. Nótese que todos los parámetros del filtro (fo . Filtro Ideal Pasaalto En la Fig.73) de donde h BB ( t ) = 2 Bh o sinc[ B(t − t o )] cos[2πf o ( t − t o )] Igual que en el filtro pasabajo.

⎡ f + fo f − fo ⎤ H EB ( f ) = H PT (f ) − H BB (f ) = h o ⎢1 − Π( ) − Π( ) ⎥ exp(− j2 πt o f ) ⎣ B B ⎦ (2. Ninguno de los filtros ideales considerados hasta ahora son causales debido a los bordes abruptos de las funciones de transferencia.77) de donde h EB (t ) = h o δ( t − t o ) − 2 Bh o sinc[ B(t − t o )] cos[2 πf o ( t − t o )] Esta respuesta se muestra en la Fig. De (2.74) (2. En este caso vamos a investigar qué le sucede a su correspondiente función de transferencia. Filtro Ideal Eliminador de Banda Las características de amplitud y fase de este filtro se muestran en la Fig. Esto podemos apreciarlo en el siguiente ejemplo. de la Fig. entonces la respuesta de frecuencia se extenderá más allá de la banda de paso y contendrá rizados dentro de la misma banda.) que se extienden para t < 0. 2. 2.123 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS H PA ( f ) = H PT ( f ) − H PB (f ) = h o exp(− j2 πt o f ) − h o Π( de donde h PA ( t ) = h o δ(t − t 0 ) − 2 Bh o sinc[2 B(t − t o )] f 2B ) exp(− jπt o f ) (2. 2.71).22(b).76) (2. estos filtros no pueden ser realizados físicamente pues su característica de amplitud |H(f)| viola el Criterio de Paley-Wiener..23(a).23(a). 2. En efecto. Si se intentara generar una respuesta causal a partir de una respuesta no causal (como las halladas para los filtros ideales) haciendo h(t) = 0 para t < 0.23(b). Consideremos la respuesta impulsional de un filtro ideal pasabajo que de alguna forma hemos limitado entre 0 y 2to para hacerla causal.75) Esta respuesta se muestra en la Fig. Además.18. Este filtro se puede considerar como la combinación de un filtro ideal pasatodo y un filtro ideal pasabanda. ♣ Ejemplo 2. h c ( t ) = 2 Bh o sinc[2 B(t − t o )]Π( t − to 2t o ) ⇔ H c (f ) . cuyas respuestas impulsionales contienen funciones sinc(.

H c (f ) = 2 Bh o ⎧ t ⎫ ) ⇔ H 1 ( f ) = ⎨ sinc(2 Bt ) Π( )⎬ 2t o ⎭ 2t o ⎩ t { h1 (t )} exp(− j2πt o f ) = 2Bh o H 1 (f ) exp(− j2πt o f ) { sinc(2Bt )} ∗ to ⎧ t ⎫ ⎨ Π( )⎬ ⎩ 2t o ⎭ λ 2B )dλ Del teorema de la convolución. Sea h 1 ( t ) = sinc(2 Bt ) Π( Entonces. Nótese también que H c (f ) ya no viola el Criterio de Paley-Wiener y por lo tanto es físicamente realizable.24(b) se muestra las características de H c (f ). La correspondiente función de transferencia se puede obtener en la forma siguiente.124 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS h c ( t ) se muestra en la Fig.10(b). 2. Obsérvese el rizado presente dentro de la banda de paso. ⎧ t ⎫ )⎬ = H 1 ( f ) = ⎨ sinc(2 Bt ) Π( 2t o ⎭ ⎩ H 1 (f ) = 1 2B Π( f 2B ) ∗ 2t o sinc( 2 t o f ) = ∫ B ∞ −∞ sinc[ 2 t o (f − λ )]Π( Resolviendo esta integral siguiendo el procedimiento del Ejemplo 2. 2. nótese que | H c ( f )| se extiende más allá de la banda de paso.24(a). lo cual resulta en un cierto grado de distorsión de amplitud que con un buen diseño se puede hacer muy pequeño. se obtiene H1 (f ) = 1 ⎡ ⎢ 2πB ⎣ ∫ 2 πt o ( f + B) sen( y) y dy − 0 ∫ 2 πt o ( f − B) sen( y) y 0 ⎤ dy ⎥ ⎦ que con la ayuda de la Integral Seno queda en la forma H 1 (f ) = de donde 1 2πB [Si{ 2πt o (f + B)} − Si{ 2πt o (f − B)}] ho π H c (f ) = [Si{ 2πt o (f + B)} − Si{ 2πt o (f − B)}] exp(− j2πt o f ) En la Fig. ♣ .

2. Nótese que la pendiente de y ( t ) alrededor de t = t o depende del ancho de banda del filtro. los resultados de este Ejemplo nos permiten entender lo que sucede en la transmisión de impulsos por un canal que en la práctica se denomina “canal de banda de base”. la integral queda en la forma y( t ) = h o ∫ 2πB( t − t o ) sen( x) x −∞ dx y con la ayuda de la Integral Seno. Respuestas de un Filtro Pasabajo Ideal En este Ejemplo vamos a considerar las respuestas de un filtro pasabajo ideal cuando se le aplica un escalón unitario o un impulso rectangular. Fig.19.25. y tomando el primer término del desarrollo en serie de potencias de la Integral Seno.71). d dt y( t )|t = t o ≈ ho tr Por consiguiente. . ho tr ≈ ho π 2πB.2 se demostró que la respuesta de un sistema a un escalón unitario en función de la respuesta impulsional era y( t ) = ∫ h(t' )dt' −∞ t La respuesta al escalón unitario de un filtro pasabajo ideal será. (a) Respuesta a un Escalón Unitario En el Ejemplo 2. de donde B≈ 1 2t r Obsérvese que cuanto mayor es el ancho de banda B. la salida del canal se parece más y más a la entrada (el tiempo de alzada tr es menor). Como un canal de transmisión se puede considerar como un filtro pasabajo. la pendiente de y(t) en t = t o será.25 se grafica esta respuesta. de (2. y( t ) = ∫ t −∞ 2 Bh o sinc[ 2 B(t '− t o )]dt ' y( t ) = 2 Bh o ∫ t sen[ 2πB(t '− t o )] 2πB(t '− t o ) −∞ dt ' Con el cambio de variables x = 2πB(t '− t o ) . si definimos el “tiempo de alzada” t r en la forma mostrada en la figura. y( t ) = ho 2 + ho π Si{2πB(t − t o ) } En la Fig. 2.125 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS ♣ Ejemplo 2. En efecto.

esta integral queda en la forma y(t ) = ho ∫ π T 2 πB ( t − t o + ) 2 T 2 πB ( t − t o − 2 sen( x ) x dx = ho ∫ π T 2 πB ( t − t o + ) 2 0 sen( x ) x − ho ∫ π T 2 πB ( t − t o − ) 2 0 sen( x ) x dx Con ayuda de la Integral Seno. y ( t ) = 2 Bh o h( t ) = 2 Bh o sinc[ 2 B( t − t o )]. mejor es la fidelidad a la salida.126 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS (b) Respuesta a un Impulso Rectangular Consideremos ahora la salida del canal pasabajo ideal de ancho de banda B cuando se t transmite por él un impulso rectangular de la forma x ( t ) = Π( ) . Obsérvese también que la salida depende en forma apreciable del ancho de banda B del canal: cuanto mayor es el valor del producto BT. En efecto.71). y(t ) = ho ⎡ ⎧ ⎧ T ⎫ T ⎫⎤ ⎢Si ⎨ 2 πB( t − t o + ) ⎬ − Si ⎨ 2 πB( t − t o − )⎬⎥ ⎩ π ⎣ ⎩ 2 ⎭ 2 ⎭⎦ T h ⎡ ⎧ T ⎫ 3T ⎫⎤ ⎧ . Esto es lo que se conoce con el nombre de “interferencia intersímbolo”. en la práctica su valor es despreciable.26 se muestra la respuesta y(t) para diferentes valores del producto BT. 2. y(t ) = ∫ ∞ −∞ x ( τ ) h ( t − τ ) dτ = ∫ τ Π( )2 Bh o sinc[ 2 B( t − t o − τ )]dτ −∞ T ∞ ∫ sen[ 2 πB( t − t o − τ )] dτ − T/ 2 2 πB( t − t o − τ ) T/ 2 Con el cambio de variables x = 2πB( t − t o − τ ). De (2. es la salida típica de un sistema de fase lineal. Obsérvese que la salida es simétrica respecto a t = t o = T / 4 y existe para t < 0: la respuesta es no causal. Si se quiere disminuir el ancho de banda B a valores menores que 1/2T. Por ejemplo. . la dispersión del impulso de salida es tal que puede interferir con impulsos adyacentes. El efecto del ancho de banda B es entonces más crítico cuando se transmite secuencias de impulsos. T De (2.7). si hacemos t o = En la Fig. entonces y(t) = o ⎢Si ⎨2πB( t + ) ⎬ − Si ⎨2πB( t − ) ⎬⎥ 4 4 ⎭ π ⎣ ⎩ 4 ⎭⎦ ⎩ Hemos exagerado el valor de to para que se pueda apreciar su efecto. como en los sistemas de transmisión digital en banda de base. si el ancho de banda del canal es fijo.

Ancho de Banda en Filtros Reales En los filtros reales la respuesta en frecuencia no presenta bordes abruptos sino que el paso de una región a otra se verifica en forma gradual en las llamadas “bandas de transición”. como veremos en el Capítulo IV. La selección de una u otra relación dependerá de la interferencia intersímbolo permitida.27. el ancho de banda de 3 dB de un filtro pasabajo RC es B 3dB = 1 / 2 πRC puesto que | H ( f )|max =| H ( 0)| = 1 y | H ( B3dB )|= 1 / 2 . 2. 2. ♣ 2. En este caso. Nótese que el retardo to influye muy poco en la interferencia intersímbolo. Si el filtro es pasabanda o eliminador de banda. La banda de paso se extiende en este caso desde f = 0 hasta f = B 3dB . es decir. las relaciones más utilizadas en la transmisión de impulsos son B = 1/T y B = 1/2T. las cuales separan las “bandas de paso” de las “bandas de atenuación o rechazo”. La interferencia intersímbolo la trataremos con más detalle en el Capítulo V. se determinan las frecuencias f1 y f 2 (con f 2 > f1 ) para las cuales se verifica que | H ( f i )| =| H ( f )|max / 2 . El ancho de banda de 3 dB vendrá dado entonces por B 3dB =| f 2 − f1 |. el ancho de banda B 3dB se define a partir de la expresión | H ( B 3dB )| = | H ( f )| max 2 Bandas de Atenuación B Banda de Paso f 0 (2.3.78) H(f) |H(f)|max Bandas de Transición Fig.27 para un filtro pasabanda típico. Cuando se trabaja con filtros reales usualmente se toma como ancho de banda la gama de frecuencias positivas sobre la cual |H(f)| se mantiene dentro de 1 / 2 de su valor máximo en la banda de paso. Filtro Pasabanda Típico. como se muestra en la Fig. en general. la velocidad de modulación (impulsos por segundo) en el canal. muy pequeño. el ancho de banda del canal limitará la cantidad de impulsos que se pueden detectar por unidad de tiempo en la salida del canal. Esta convención se denomina “Ancho de Banda de Potencia Mitad” o “Ancho de Banda de 3 decibeles (3 dB)”. 2. con i = 1. Si B es el ancho de banda del canal y T la duración de los impulsos.6. pues to es. depende entonces del ancho de banda. .127 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS habrá un límite inferior sobre la duración permitida de los impulsos a transmitir. Como ejemplo de esta convención.

como se muestra en la Fig. expresión (1. ♣ Ejemplo 2.29(a). Primera Forma. 2. Filtros Sinusoidales En el procesamiento. que es un filtro con características en coseno elevado. (a) Filtro de Nyquist.28 La expresión (2. Vamos a determinar su ancho de banda de 3 dB. Consideremos la primera forma del denominado “Filtro de Nyquist”. En este caso. 2. H ( f ) = 1 ⎡ 1 f ⎤ f )⎥Π( ). De la Fig. Vamos a definir tres de estos tipos de filtro.79) y su respuesta impulsional Supongamos que el retardo de transmisión es despreciable. | H( f )| df 1 −∞ B= 2 | H( f )| max |H(f)| | H (f )|max f 0 ∫ ∞ (2.28 en el caso de un filtro pasabajo. transmisión y recepción de señales en banda de base se utilizan algunos filtros cuyas funciones de transferencia tienen envolventes sinusoidales. como se muestra en la Fig. el ancho de banda definido por la expresión (2.29(a).20.117). Más adelante se definirá otro ancho de banda denominado “Ancho de Banda Equivalente de Ruido”. B 2 ⋅B 1 . el procedimiento es el mismo. |H(f)|max = ⎢1 + cos(2 π 2B ⎣ 2B ⎦ 2B B El ancho de banda de 3 dB se obtiene a partir de ⎤ 1 ⎡ π ⎢1 + cos( B 3dB ) ⎥ = ⎦ 2B ⎣ B π .79) es equivalente a reemplazar el espectro |H(f)| por un rectángulo cuya área es igual al área bajo |H(f)| y cuya altura es | H ( f )|max .79) -B B Fig. 2. de donde cos( B3dB ) = 2 − 1 . Para filtros pasabanda. 2.128 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS El ancho de banda de un filtro puede definirse también en la misma forma utilizada para definir el ancho de banda de una señal.

364 ⋅ B para B 3dB .79): Obsérvese que Bc > B3dB Calculemos ahora su respuesta impulsional. 2.5 ⋅ B 1 f Π ( ) ⇔ sin c(2Bt) .129 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS π Resolviendo cos( B3dB ) = 2 − 1 = 0. Aplicando el dual del teorema de la modulación. es ⎧1 para − f1 ≤ f < f1 ⎪ ⎡ π(f − f o + f d ) ⎤ ⎫ ⎪1 ⎧ ⎪ ⎪ ⎥ ⎬ para f1 ≤ f < B ⎪ ⎨1 + cos ⎢ 2⎪ 2f d ⎪ ⎣ ⎦⎪ ⎭ H(f ) = ⎨ ⎩ ⎪1 ⎧ π(f + f o − f d ) ⎫ ]⎬ para − B ≤ f < −f1 ⎪ ⎨1 + cos[ 2⎩ 2f d ⎭ ⎪ ⎪0 en el resto ⎩ donde B = f o + f d y f1 = f o − f d . La función de transferencia H(f) de este filtro. 2.29(c). ∫ ∞ −∞ | H ( f )| df = ∫ 1 ⎡ πf ⎤ ⎢1 + cos( )⎥df = 1 − B 2B ⎣ B ⎦ B El ancho de banda del Filtro de Nyquist es. B También. mostrada en la Fig. 2. 2B 2B 1 2B Π( f 2B ) cos( 2 πf 1⎡ t + 1 / 2B t − 1 / 2B ⎤ ) ⇔ ⎢ sinc( ) + sinc( )⎥ 2B 2⎣ 1 / 2B 1 / 2B ⎦ La respuesta impulsional del Filtro de Nyquist será h(t) = sin c(2Bt) + 1 {sin c[2B(t + 1/ 2B)] + sin c[2B(t − 1/ 2B)]} 2 Desarrollando las funciones sinc(.364π .29(a).29(c).) y rearreglando. Segunda Forma La segunda forma del Filtro de Nyquist se muestra en la Fig. De la Fig. 2. obtenemos π B3dB = 0. (b) Filtro de Nyquist.. H(f ) = pero 1 ⎡ f ⎤ f 1 f 1 f f ⎢1 + cos(2π 2B ) ⎥ Π ( 2B ) = 2B Π ( 2B ) + 2B Π ( 2B ) cos(2π 2B ) 2B ⎣ ⎦ B c = 0. según la expresión (2. se obtiene finalmente h (t ) = sinc(2 Bt ) 1 − ( 2 Bt ) 2 En la Fig. 4142 B de donde B 3dB = 0.29(b) se muestra la forma de h(t).

2.364π . 272f d H(f ) max = 1 y En cuanto al ancho de banda dado por (2. . 4142 . Veamos el ancho de banda de 3 dB. 272f d o también B3dB = B − 1. Bc = f o = B − f d .29(d). ∞ −∞ ∫ H(f ) df = 2 f o −f d ∫ 0 df + 2 fo +f d π(f − f o + f d ) 1 {1 + cos[ ]}df = 2f o 2f d f o −f d 2 ∫ de donde. El ancho de banda de 3 dB se obtiene a partir de π(B3dB − f o + f d ) π(B3dB − f o + f d ) ⎤ 1 1⎡ ] = 2 − 1 = 0. de donde 2f d B3dB = 0.79).130 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS La correspondiente respuesta impulsional es fo −fd h(t) = 2 ∫ 0 fo +fd cos(2πtf )df + 2 π(f − f o + f d ) ⎤ 1⎡ ]⎥ cos(2πtf )df ⎢1 + cos[ 2f d ⎦ fo −fd 2 ⎣ ∫ Efectuando la integración.728f d + f o − f d = f o − 0. de donde cos[ ]⎥ = ⎢1 + cos[ 2f d 2⎣ 2f d 2 ⎦ Resolviendo para B3dB. obtenemos: π(B3dB − f o + f d ) = 0. se obtiene h(t) = 2sen(πf o t) cos(πf o t) h(t) = 2f o sin c(2f o t) [1 − 2 cos 2 (πf d t)] πt(42 f d2 t 2 − 1) cos(2πf d t) 1 − (4f d t) 2 Esta respuesta impulsional se muestra en la Fig.

en los cuales los filtros exhiben características en coseno de la forma H(f ) = 1 πf f cos( )Π ( ) B 2B 2B como se muestra en la Fig. de donde 2B 4 B3dB = 0. Veamos el ancho de banda de 3 dB.5B . 2. .131 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Nótese que cuando f1 = 0. mientras que si fd = 0. de donde cos( 3dB ) = cos( 3dB ) = B 2B 2B 2 2B 2 Resolviendo para B3dB. este filtro se convierte en la primera forma del Filtro de Nyquist. El ancho de banda de 3 dB se obtiene a partir de πB πB 1 1 1 2 = .29(e). 2. como veremos en el Capítulo V. la segunda forma del Filtro de Nyquist se convierte en un filtro rectangular de f la forma H(f ) = Π ( ) . La respuesta impulsional de este filtro es h(t) = 2∫ h(t) = B 1 πf 4[1 − 2 cos 2 (πBt)] cos( ) cos(2πtf )df = 2B π[(4Bt) 2 − 1] 0 B 4 cos(2πBt) π (4Bt) 2 − 1 Esta respuesta se muestra en la Fig. (c) Filtro de Respuesta Parcial En la transmisión en banda de base se emplean las “técnicas de respuesta parcial” en los llamados sistemas duobinarios. 2f1 Los Filtros de Nyquist son de gran utilización en la transmisión de impulsos en banda de base para la eliminación de la Interferencia Intersímbolo.29(f). obtenemos: πB3dB π = .

79). H h ( f ) = − j sgn(f ) (2. 2 B = 0. 2.81) X( f ) = − j sgn(f )X( f ) y también X( f ) = j sgn( f ) X( f ) Si X( f ) = H h ( f ) X( f ). De (2.82). en general. la respuesta impulsional del transformador de Hilbert es 1 { H h (f )} = h h (t ) = πt 1 x(t ) = h h (t ) ∗ x(t ) = (2. de (2.30(b). entonces el espectro de salida del sistema. Esto quiere decir que si x ( t ) ⇔ X(f ) .80). que representaremos con X( f ).132 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS En cuanto al ancho de banda dado por (2. Fig.82) que se representa en la Fig.80) (2. 2. Ahora vamos a considerar un sistema sin distorsión de amplitud pero con una distorsión de fase tal que produce un desfase de π/2 a todas las señales de entrada. el ancho de banda dado por la expresión (2. ∫ π 1 ∞ x (τ ) −τ −∞ t dτ = ∫ π 1 ∞ x(t − τ ) τ −∞ dτ (2.7.7. es decir. para todo f.1.83) En consecuencia.30(a). será π X( f ) = X( f ) exp( − j ) = − jX( f ) para 0 ≤ f 2 π X( f ) = X( f ) exp( j ) = jX( f ) para f<0 2 Entonces.84) . 637B π Nótese que. X( f ) = − jX( f ) u ( f ) + jX( f ) u ( − f ) = jX( f )[u (− f ) − u ( f )] (2. “Filtro de Hilbert” o “Filtro de Cuadratura”. La Transformada de Hilbert En la Sección 2. entonces H h ( f ) será la función de transferencia del sistema.79) es mayor que el ancho de banda de 3 dB. SEÑALES Y SISTEMAS PASABANDA 2. ∞ H(f ) max = 1 y B −∞ ∫ | H(f ) | df = 2∫ Bc = B 1 πf 4 cos( )df = 2B π 0 B de donde. ♣ 2. Este sistema se conoce con el nombre de “Transformador de Hilbert” .4.1 se consideró un sistema con distorsión de amplitud pero con fase lineal y se dedujo algunas propiedades muy interesantes acerca de su respuesta impulsional.

81). y viceversa.30. | X(f )| =| X(f )| π (2. que no demostraremos aquí.87) explican el cambio de fase en ± . .80). Características de la Transformada de Hilbert La señal x ( t ) se conoce con el nombre de “Transformada de Hilbert” o “función conjugada de x(t)” y es de gran aplicación en la representación de señales y sistemas pasabanda y en el estudio de señales moduladas en banda lateral única. x ( t ) = A cos(ωc t + θ) .84) generalmente se representa en la forma x(t ) = {x(t )} -1 −1 ) ∗ x(t) = π jπt De (2. 2 entonces x ( t ) = A sen(ωc t + θ) . es decir. 1 {X( f )} = x( t ) = j( ∫ ∞ −∞ x( t ) −1 dτ = π t−τ ∫ ∞ −∞ x( t − τ ) dτ τ (2. cuyos principios básicos veremos más adelante. pero si x(t) = sen(ωc t + θ) . H h (f ) = H h (f ) exp[ jφh (f )]. es decir.87) 2 La expresión (2.133 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS H h (f ) x(t) X(f) j (b) Función de Transferencia del h h (t ) H h (f ) x (t ) X (f ) H h (f ) A f 0 -j 0 -j Transformador de Hilbert f (a) Transformador de Hilbert X(f) j X ( f ) jA B f -B 0 -jA f -B 0 B (c) Formación gráfica del espectro X ( f ) Fig.27 se deducen algunas relaciones muy interesantes aplicando la Transformada de Hilbert. son: • • [x(t)] = -x(t) Si x ( t ) es par. • x ( t ) y su transformada de Hilbert x ( t ) son ortogonales. La transformación (2. H h (f ) = 1.86) demuestra que x ( t ) y x(t) tienen la misma densidad espectral de energía o la misma densidad espectral de potencia (en el límite).85) (2. 2. φh (f ) = φx (f ) ± Otras propiedades de la Transformada de Hilbert. que si por ejemplo. −∞ ∞ • x ( t ) y su transformada de Hilbert x ( t ) tienen la misma función de autocorrelación (La función de autocorrelación la trataremos más adelante).86) y en virtud de (2. ∫ x(t)x(t)dt = 0. mientras que las expresiones π (2. entonces x ( t ) es impar. En el Problema de Aplicación 2. entonces x ( t ) = − A cos(ωc t + θ) .

Solución ) .31 ♣ Determinar la transformada de Hilbert de la señal pasabajo x ( t ) = 2 ABsinc( 2 Bt ). por ejemplo.21 Determinar la transformada de Hilbert de un impulso rectangular x ( t ) = AΠ( Solución De (2. A los lugares donde x ( t ) se hace infinito algunas veces se les denomina “cuernos”.134 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS ♣ Ejemplo 2. De (2. estos cuernos pueden causar problemas en sistemas de comunicación que utilizan transformadas de Hilbert. x(t ) = − A π x(t ) = ln| τ − t |T = 0 1− T / 2 T ). X( f ) = AΠ( f Por transformada de Fourier inversa.84).22 x (t ) t 0 Fig. en sistemas telefónicos que son sistemas donde se aplica el concepto de banda lateral única. x ( t ) = jA[ Bsinc(Bt ) exp( − jπBt ) − Bsinc(Bt ) exp( jπBt )] x ( t ) = 2 ABsinc( Bt ) sen( πBt ) = 2 A sen 2 ( πBt ) πt ♣ . ♣ Ejemplo 2.30(c). las discontinuidades de una señal producirán cuernos en su transformada de Hilbert correspondiente. 2. ∫ π 1 A π ∞ −∞ AΠ ( τ−T/2 T ) dτ t−τ π ln =− t A ∫ π T dτ t −τ 0 [ ln| t |− ln|T − t |] = A T−τ x(t) A La señal x(t) y su transformada de Hilbert se muestran en la Fig. En general.80) o según el procedimiento gráfico mostrado 2B en la Fig. 2.31. el espectro de la transformada de Hilbert es f − B/2 ⎤ ⎡ f + B/2 X( f ) = − j sgn( f ) X( f ) = − jA sgn( f ) ⎢Π( ) + Π( )⎥ B B ⎣ ⎦ ⎡ f + B/ 2 f − B/ 2 ⎤ X ( f ) = jA⎢ Π( ) − Π( )⎥ ⎣ ⎦ B B Evidentemente. 2.

135 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS ♣ Ejemplo 2. ♣ ♣ Ejemplo 2.30(c). Del teorema de la modulación. entonces ˆ x ( t ) = − m( t ) cos(2πf c t ) .v.24 Determinar la transformada de Hilbert de la señal x ( t ) = m(t ) ⋅ c( t ) . m(t) es una señal pasabajo. donde se cumple que M ( f )C (f ) = 0 para todo f. X( f ) = f − fc ⎤ A ⎡ f + fc ) + Π( )⎥ . se cumple que si x ( t ) = m(t ) cos( 2 πf c t ) . si m(t) es una señal pasabajo de banda limitada B y f c ≥ B .v)dv -∞ ∫ ∞ x( t ) = x(t ) = ∫ ∞ −∞ − j sgn( f ) X( f ) exp( j2 πtf )df = ∞ ∫ ⎡ ∞ ⎤ − j sgn( f ) ⎢ M( v)C(f − v)dv⎥ exp( j2 πtf )df −∞ ⎣ −∞ ⎦ ∞ ∫ ∫ ⎡⎢⎣∫ − j sgn(f )M(v)C(f − v) exp( j2πtf )df ⎤⎥⎦dv ∞ −∞ −∞ Haciendo el cambio de variables u = f . Vamos a suponer entonces que M ( f ) = 0 para |f|> W y C(f) = 0 para |f|< W . ⎢ Π( 2⎣ 2B 2B ⎦ A ⎡ f + fc f − fc ⎤ sgn( f )⎢ Π( ) + Π( )⎥ ⎣ 2 2B 2B ⎦ f − fc ⎤ A ⎡ f + fc X ( f ) = j ⎢ Π( ) − Π( )⎥ 2⎣ 2B 2B ⎦ X( f ) = − j sgn(f )X( f ) = − j Por transformada de Fourier inversa. La señal c(t) puede ser pasaalto o pasabanda. Estos resultados son muy importantes en el análisis de sistemas de comunicación y los estaremos utilizando constantemente. x(t ) = j A 2 [ 2Bsinc(2Bt )exp(− j2πfc t ) − 2Bsinc(2Bt )exp( j2πfc t )] x ( t ) = 2 ABsinc( 2 Bt ) sen( 2πf c t ) En general. donde W es una frecuencia cualquiera. la integral dentro de los corches queda en la forma x(t ) = − j ∫ ⎡⎢⎣∫ sgn(u + v)M(v)C(u) exp[ j2πt (u + v)]du⎤⎥⎦dv ∞ ∞ −∞ −∞ . y si x ( t ) = m( t ) sen(2πf c t ) . Entonces. y según el procedimiento gráfico de la Fig. x( t ) = m( t ) c( t ) ⇔ X( f ) = M ( f ) ∗ C(f) = M(v)C(f . entonces x ( t ) = m(t ) sen(2 πf c t ) . Esto quiere decir que los espectros M(f) y C(f) no se solapan. 2.23 Determinar la transformada de Hilbert de la señal pasabanda x ( t ) = 2 ABsinc(2 Bt ) cos(2πf c t ) con fc ≥ B Solución Sea m( t ) = 2 ABsinc( 2 Bt ) ⇔ M (f ) = AΠ( f 2B ).

89) z x ( t ) = x ( t ) + jx ( t ) La señal z x (t ) se denomina “señal analítica de x(t)” o “preenvolvente de x(t)”. f (a) Espectro de x(t) fc (b) Espectro de la Señal Analítica de x(t) 0 f Una característica muy importante de la señal analítica es el comportamiento de su transformada de Fourier. pues siendo x(t) real. En efecto. es igual al producto de la señal pasabajo por la transformada de Hilbert de la señal pasaalto (o pasabanda). en este caso se dice que estas señales son “señales de banda angosta”. 2.7. el ancho de banda 2B es pequeño en comparación con f c . en general. Sea x(t) una señal real pasabanda cuyo espectro X(f). f c >> B. la transformada de Fourier de z x (t ) es Z x ( f ) = X(f ) + j[ − j sgn( f ) X( f )] = [ 1 + sgn( f )] X( f ) (2. La Señal Analítica Consideremos ahora el concepto de señal analítica. se puede formar la siguiente señal compleja (2. Este resultado también es importante en el análisis de señales y sistemas pasabanda. ♣ 2. X(f) 2B 1 Z x (f ) 2 2B −fc 0 fc Fig. es decir. pero sí respecto al origen. está concentrado alrededor de las frecuencias ±fc . como se muestra en la Fig. En la mayoría de las señales pasabanda empleadas en las comunicaciones. Nótese que. Si x (t ) = {x(t )}.90a) . que no se solapan en frecuencia. como lo veremos de inmediato.136 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS pero como M(v)C(u) es diferente de cero solamente para | v| < W y |u|> W. su espectro X(f) tendrá simetría hermítica. La señal analítica es muy útil en el análisis de señales y sistemas pasabanda. estas señales no tienen espectros simétricos respecto a ± f c . de ancho de banda 2B.88) La transformada de Hilbert del producto de dos señales.2. 2. sgn( u + v ) = sgn( u ) y las integrales se pueden separar en la forma siguiente: x(t ) = pero entonces ∫ ∞ ∫ ∞ −∞ M ( v ) exp( j2 πtv )dv ⋅ − j sgn(u )C ( u ) exp( j2 πtu )du −∞ ∫ ∞ −∞ M (v ) exp( j2 πtv )dv = m( t ) x ( t ) = m( t ) ⋅ c ( t ) y ∫ -jsgn(u)C(u)exp(j2πtu)du = c(t) ∞ -∞ entonces (2.32(a). una pasabajo y la otra pasaalto (o pasabanda).32.

es decir. donde f c >> B .89). ♣ Ejemplo 2. Nótese que la envolvente Ez(t) sola no caracterizará por completo a la señal pasabanda x(t) porque el resto de la información está en la fase φz(t).3. pues estas señales son de gran utilización en comunicaciones.90b) El espectro de la señal analítica de x(t) es idénticamente nulo para f < 0.92a). z De (2.7. la envolvente y la fase de la señal del Ejemplo 2. Como z x (t ) es compleja.53.94) donde x c (t ) y x s ( t ) son dos señales cuyas características determinaremos a continuación. z x ( t ) = ~x ( t ) exp( j2πf c t ) = x ( t ) + jx (t ) z (2.93). Del Ejemplo 2. Nosotros hemos dado preferencia a señales pasabanda de banda angosta. y de acuerdo con las expresiones (2. ella puede expresarse en la forma z x ( t ) =| z x ( t )|exp[φ z ( t )] Por consiguiente.91) (2. respectivamente.92b) x(t) x(t) (2. La envolvente Ez(t) se aproximará bastante a la salida de un detector de envolvente físico para señales de banda angosta. sin embargo. Señales Pasabanda y φ z (t) = 2πf c t ♣ Consideremos ahora el producto z x ( t ) exp(− j2πf c t ) y definamos una nueva señal ~ ( t ) = z ( t ) exp(− j2πf t ) = x (t ) + jx ( t ) zx x c c s La señal ~x ( t ) se conoce con el nombre de “envolvente compleja de x(t)”. es suficiente que se cumpla que f c ≥ B.137 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS o también Z x (f ) = 2 X(f )u (f ) (2.93) x(t) = Im{z x (t)} =| z x (t) | sen[φz (t)] donde | z x (t )| = E z ( t ) = x 2 ( t ) + x 2 (t ) y φ z (t) = arctg Ez(t) y φz(t) se conocen con los nombres de “envolvente” y “fase” de z x (t ) . Como a una señal x(t) corresponde de manera unívoca la señal analítica z x ( t ) . la señal x(t) y su transformada de Hilbert x ( t ) son unívocas. x ( t ) = 2ABsinc(2 Bt ) cos(2πf c t ) De (2. no necesariamente las señales tienen que ser de banda angosta. . 2. de donde E z ( t ) = 2AB| sinc( 2 Bt )| 2. Obsérvese que el concepto de señal analítica o preenvolvente se aplica a cualquiera señal que posea un espectro. como se muestra en la Fig. y x(t) = 2ABsinc(2Bt)sen(2πf c t ) z x ( t ) = 2ABsinc( 2 Bt )[ cos( 2πf c t ) + j sen(2πf c t )] z x ( t ) = 2ABsinc( 2 Bt ) exp( j2πf c t ) .92a) (2. x ( t ) = Re{ z x (t )} =| z x (t )|cos[φ z ( t )] (2. es también unívoca.25 Calcular la preenvolvente. la representación de x(t) en la forma (2.53 y con f c ≥ B.32(b).95) (2.89) y (2.94).

2. En efecto. para f c ≥ B.32 y 2.33(b). y puesto que z x (t) es compleja. ~ De (2. se verifica que TF{z* (t)} = Z* (−f ) = X c (f ) − jX s (f ) . como tampoco lo es su conjugado Z* (−f ) . 2.94). 2. Xc(f) y Xs(f) Vamos a demostrar que si x(t) es una señal real pasabanda. x c ( t ) = Re{~x (t )} = x ( t ) cos( 2πf c t ) + x ( t ) sen( 2πf c t ) z x s ( t ) = Im{~x ( t )} = x ( t ) cos( 2πf c t ) − x ( t ) sen(2πf c t ) z de donde x ( t ) = x c (t ) cos(2πf c t ) − x s ( t ) sen( 2πf c t ) x ( t ) = x c (t ) sen( 2πf c t ) + x s ( t ) cos( 2πf c t ) Por transformada de Fourier. 2. siendo su conjugado ⎡ Zx (f ) ⎤ * = Z* (−f ) = Z* (−f + f c ) x x ⎣ ⎦ ~ Z x ( f ) = Z x ( f − f c ) = [1 + sgn(f )]X (f ). Nótese que el espectro Z x ( f ) no es simétrico respecto al origen. (2. Fig. x .102) [ Z x (− f − f c ) + Z x (f − f c )] = 2 [ Z x (− f ) + Z x (f )] 2 La envolvente compleja ~x ( t ) de una señal real pasabanda x(t) es una señal compleja z ~ ~ pasabajo cuyo espectro Z x (f ) se muestra en la Fig. podemos ver que.33. X (f ) = ~ Z x (− f ) = Z x (− f − f c ) (2. x x X c ( f ) y X s (f ) se pueden expresar entonces en función de Z x (f ) y Z* (−f ) .96) (2. Z x ( f ) = X c ( f ) + jX s ( f ) . Formación de X(f).101) 1 ~ 1 ~ (2. entonces xc (t) y xs (t) serán señales reales pasabajo de banda limitada B. Figs.138 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS En consecuencia. x ~ Z x (f ) ~ Z* (− f ) x f -B 1 0 (b) B 1 1 1 2 X(f) Z x (− f ) 0 1/2 1 2 B f f -B 0 (a) B −f c X s (f ) 2 Z x (f ) (c) fc j ~* Z x (− f ) 2 f X c (f ) 1 ~* Z x (− f ) 2 j/2 1~ Z x (f ) 2 f -B 0 (d) B −j Zx(f) 2 -B (e) 0 B -j/2 Fig.33.100) (2.97) (2.98) (2.99) Zx (f ) = Zx (f + f c ) .33(a).

Las señales pasabajo x c (t ) y x s ( t ) se denominan “componentes ortogonales de x(t)”. (d) y (e).106) x c ( t ) y x s ( t ) son señales reales Con esto demostramos finalmente que las señales pasabajo de banda limitada B. una señal real pasabanda x(t) con un ancho de banda 2B y centrada en la frecuencia f c . De aquí resulta que. x c ( t ) x y x s ( t ) serán también señales pasabajo.103) y (2. respectivamente.104). ~ Nótese que si X(f) es también simétrica respecto a la frecuencia central f c . se puede expresar en términos de dos señales pasabajo x c ( t ) y x s ( t ) reales. de (2.99). Esta expresión es básica en todos los sistemas de modulación lineal.108) es una generalización del teorema de la modulación que vimos anteriormente.33(c).139 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS 1 ⎡ Zx (f ) + Z∗ (−f ) ⎤ x ⎦ 2⎣ 1 X s (f ) = − j ⎡ Zx (f ) − Z∗ (−f ) ⎤ x ⎦ 2⎣ X c (f ) = (2.107c) La expresión (2. del ~ espectro Z x ( f ) de la envolvente compleja. y de (2. cada una de banda limitada B. en relación con la frecuencia central fc . En la Fig. Vemos también que X c ( f ) y X s ( f ) están relacionadas con las partes de X(f) que son simétricas y antisimétricas. como veremos en los próximos capítulos. Z x (− f − f c ) = Z x ( f + f c ) (2.107b) (2. 2. se muestra la formación de X(f) a partir de Z x (f ) y Zx (−f ) . respectivamente.96) y (2. La expresión (2.108) [ ] (2. En particular. x(t) = x c ( t ) cos( 2πf c t ) z X( f ) = que es el caso de las señales moduladas. ⎧[ X( f + f ) + X( f − f )] para |f|≤ B ⎪ c c X c (f ) = ⎨ ⎪0 para B <|f| ⎩ (2.107a) 1 ~ ~ Z x (f + f c ) + Z x f − f c ) .103) (2. y X c ( f ) y X s ( f ) a partir de Z x (f ) y Z* (−f ) . Así que z ~ ~ ~ ~ Z x (f ) = Z x ( − f ). mediante la expresión x ( t ) = x c ( t ) cos(2πf c t ) − x s ( t ) sen( 2πf c t ) con fc ≥ B (2. mientras que x s (t ) es la “componente en cuadratura”. Los mismos argumentos se aplican a la transformada de Hilbert de x(t). Z* (−f ) lo será también.105) ⎧− j[ X( f + f ) − X( f − f )] ⎪ c c X s (f ) = ⎨ ⎪0 ⎩ para | f| ≤ B para B <| f| (2.108) se conoce también con el nombre de “forma canónica de x(t)”. x c ( t ) es la “componente en fase”. ~x ( t ) = x c (t ).5. Nótese que las asimetrías del expectro X(f) en relación con la frecuencia f c son . x X c ( f ) y X s ( f ) son las componentes simétricas y antisimétricas.104) ~ Como Z x (f ) es una señal pasabajo. como se desprende de la expresión (2. X s (f) = 0 2 x s ( t ) = 0. en el sentido visto en la Sección 1. En resumen.97).7. entonces Z x ( f ) será simétrica respecto al origen y no tendrá componente antisimétrica [ ~x (t ) será real].

vemos que de donde 2 | ~x ( t )| = x c ( t ) + x 2 ( t ) = E ( t ) z s x ( t ) =| ~x (t )| cos[ 2πf c t + ψ(t )] z (2.140 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS producidas por la componente en cuadratura x s ( t ) . mediante una técnica conocida como “detección sincrónica o coherente”. . Estos conceptos son de gran aplicación en comunicaciones. que son las que poseen la información. Entonces.110) (2. Los resultados anteriores se pueden resumir en los dos esquemas de la Fig. juntas o separadamente. siendo θ un ángulo o desfase arbitrario y x c (t ) ≠ x s (t ) . es decir.113) 2 π dt El concepto de frecuencia instantánea es de gran aplicación en los sistemas de modulación angular.109). En general. Por otra parte. de ancho de banda 2B y centrado en la frecuencia fc . x s (t) = 0 .34.114) donde x c ( t ) y x s ( t ) son señales reales de banda limitada B.108). diremos sin demostrarlo. será una señal real pasabanda con un espectro X(f) asimétrico respecto a fc . las bandas de frecuencia sobre y bajo la frecuencia fc.112) La envolvente natural de una señal pasabanda real x(t) viene dada por el módulo de su correspondiente envolvente compleja ~x (t ) . se puede aislar o extraer. Los diferentes tipos de modulación lineal que se estudiarán en los Capítulos V y VI son casos particulares de la expresión (2.114) o (2. que veremos en el Capítulo VI. 1 d f i (t) = [2πf c t + ψ ( t )] 2 π dt 1 d ψ(t) f i (t) = f c + (2. por definición. la envolvente natural E(t) es siempre una señal pasabajo que en los sistemas de comunicación contiene la información a transmitir. pues. en los cuales generalmente f c >> B. 2.111) es la “envolvente natural” de x(t) es la “fase natural” de x(t) pero.108) se puede escribir en la forma polar x ( t ) = E ( t ) cos[2 πf c t + ψ( t )] donde y E (t ) = x 2 (t ) + x 2 (t ) c s ψ(t ) = arctg x s (t ) x c (t ) (2.109) (2. Esto lo trataremos más adelante. La preenvolvente z x (t ) de una señal real pasabanda x(t) es una señal compleja pasabanda cuyo valor depende de la frecuencia fc . con f c ≥ B. si el espectro X(f) es simétrico respecto a f c . la frecuencia instantánea de x(t) es.94). mientras que la envolvente compleja ~x (t ) es una señal compleja pasabajo cuyos valores son independientes z de la frecuencia fc. la correspondiente señal x(t) pasabanda no poseerá una componente en cuadratura. de (2. se puede extraer de x(t) su envolvente natural E(t) portadora de información. z Algunas veces es conveniente definir la “frecuencia instantánea” de la señal pasabanda x(t). cualquiera señal que se pueda representar en la forma canónica x(t) = x c (t) cos(2πf c t + θ) ± x s (t)sen(2πf c t + θ) (2. en efecto. La señal x(t) dada por (2. es decir. de (2.

34(a).34 son básicos en el análisis de todos los sistemas de modulación lineal.35 (c) Espectro de x s (t ) El espectro X(f) se puede expresar en la forma.35(a).26 Calcular las componentes ortogonales del espectro X(f) de la Fig.34(b). como veremos en los Capítulos V y VI.34 Filtro x s ( t ) Pasabajo Las señales pasabajo x c (t ) y x s ( t ) se pueden deducir mediante el diagrama de bloques de la Fig. ♣ Ejemplo 2. que es consecuencia directa de las expresiones (2. Los dos esquemas de la Fig.106). La señal pasabanda x(t) se puede reconstituir a partir de sus componentes ortogonales x c (t ) y x s ( t ) en la forma mostrada en la Fig. 2.141 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS z c (t ) 2 cos(2 πf c t ) −2 sen(2 πf c t ) Filtro Pasabajo B B x c (t ) x c (t ) + x(t) cos(2πf c t ) sen(2πf c t ) x s (t ) x(t) _ z s (t ) (a) Generación de x c (t ) y x s ( t ) (b) Reconstrucción de x(t) a partir de x(t) a partir de x c (t ) y x s ( t ) Fig. 2. que es una realización término a término de la expresión (2. ⎡ ⎛ f + fc + B / 2 ⎞ ⎡ ⎛ f + fc − B / 2 ⎞ ⎛ f − fc − B / 2 ⎞ ⎤ ⎛ f − fc + B / 2 ⎞ ⎤ X( f ) = 2A ⎢ Π⎜ ⎟ + Π⎜ ⎟ ⎥ + A ⎢Π⎜ ⎟ + Π⎜ ⎟⎥ ⎠ ⎝ ⎠⎦ ⎠ ⎝ ⎠⎦ B B B B ⎣ ⎝ ⎣ ⎝ ⎛ f − fc − B / 2 ⎞ ⎛ f − fc + B / 2 ⎞ Z x ( f ) = [1 + sgn(f )]X(f ) = 4 AΠ⎜ ⎟ + 2 AΠ⎜ ⎟ ⎠ ⎝ ⎠ ⎝ B B ⎛f − B/ 2⎞ ⎛f + B/ 2⎞ ~ ⎟ + 2 AΠ⎜ ⎟ Z x ( f ) = Z x ( f + f c ) = 4 AΠ⎜ ⎝ B ⎠ ⎝ B ⎠ . 2. 3A Xc(f) X(f) B 2A B A -B f -B 0 B f 0 -jA Xs(f) jA B f −f c fc 0 (a) Espectro de x(t) (b) Espectro de x c (t ) Fig.35(a). Los filtros pasabajo son idénticos y de ancho de banda B.105) y (2. 2. 2. Fig. 2.108). 2.

x(t) contiene una componente en cuadratura x s ( t ) . Determinar sus componentes ortogonales xc(t). ♣ ♣ Ejemplo 2.142 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS ~ ⎛ − f − B/2 ⎞ ⎛ − f + B/ 2 ⎞ Z x ( − f ) = 4 AΠ ⎜ ⎟ + 2 AΠ ⎜ ⎟ B B ⎝ ⎠ ⎝ ⎠ En este caso particular se verifica que ⎛ −f − B / 2 ⎞ ⎛f + B/ 2⎞ ⎛ -f + B / 2 ⎞ ⎛f − B/ 2⎞ ⎟ = Π⎜ ⎟ y Π⎜ ⎟ = Π⎜ ⎟ Π⎜ ⎝ ⎠ ⎝ B ⎠ ⎝ ⎠ ⎝ B ⎠ B B entonces ⎛f + B/ 2⎞ ⎛f − B/ 2⎞ ~ ⎟ + 2 AΠ⎜ ⎟ Z x ( − f ) = 4 AΠ⎜ ⎝ B ⎠ ⎝ B ⎠ ⎡ ⎛f + B/ 2⎞ ⎛ f − B / 2 ⎞⎤ ⎛ f ⎞ 1 ~ ~ ⎟⎥ = 3AΠ⎜ ⎟ . de donde ⎟ + Π⎜ Z x (f ) + Z x ( − f ) = 3A⎢ Π⎜ ⎝ 2B ⎠ ⎝ B ⎠⎦ ⎣ ⎝ B ⎠ 2 Los espectros de las componentes ortogonales serán X c (f ) = [ ] x c ( t ) = 6ABsinc(2 Bt ) X s (f ) = − j ⎡ ⎛f + B / 2⎞ ⎛ f − B / 2 ⎞⎤ 1 ~ ~ ⎟ + AΠ⎜ ⎟ Z x (f ) − Z x (− f ) = − j⎢ − AΠ⎜ ⎝ ⎝ B ⎠⎥ ⎣ ⎦ 2 B ⎠ [ ] ⎡ ⎛f + B / 2⎞ ⎛ f − B / 2 ⎞⎤ ⎟ − Π⎜ ⎟ .27 Sea la señal pasabanda x(t) = A [1 + 2sen(2πf a t) ] cos(2πf c t) .34(a) Solución (a) Sea x(t) ⇔ X(f ) Desarrollando. 2. 2. Xc(f).35 (b) y (c). x s ( t ) = 2 ABsinc(Bt ) sen(πBt ) = 2A sen 2 (πBt ) x(t) = A cos(2πf a t) + Asen [ 2π(f c + f a )t ] − Asen [ 2π(f c − f a )t ] X(f ) = A A [ δ(f + f c ) + δ(f − f c )] + j [δ(f + f c + f a ) − δ(f − f c − f a )] 2 2 A − j [ δ(f + f c − f a ) − δ(f − f c + f a ) ] 2 Zx (f ) = 2X(f )u(f ) = Aδ(f − f c ) − jAδ(f − f c − f a ) + jAδ(f − f c + f a ) . de donde X s ( f ) = jA⎢ Π⎜ ⎝ B ⎠⎥ ⎣ ⎝ ⎦ B ⎠ x s ( t ) = jABsinc( Bt ) exp( − jπBt ) − jABsinc( Bt ) exp( jπBt ) πt Los espectros de x c ( t ) y x s (t ) se muestran en la Fig. Como X(f) es asimétrica respecto a fc . respectivamente. xs(t) y Xs(f) en los siguientes casos: (a) A partir de la envolvente compleja de x(t) (b) A partir de la Fig.

x s (t) = 0 ⇔ X s (f ) = 0 Nótese lo fácil que es operar directamente con la Fig.34(a). 2. x X s (f ) = Zx(f) jA A jA A Zx(f) jA Z*(-f) x A fc + fa 0 fc . 2.fa fc -jA f fa -fa 0 -jA f fa -fa (c) * x f 0 -jA (a) (b) Fig.34.36. z c (t) = x(t)2cos(2πf c t) = 2A [1 + 2sen(2πf a t) ] cos 2 (2πf c t) = A [1 + 2sen(2πf a t) ]{1 + cos [ 2π(2f c )t ]} = A {1 + cos [ 2π(2f c )t ] + 2sen(2πf a t) + sen [ 2π(2f c + f a )t ] − sen [ 2π(2f c − f a )t ]} El filtro pasabajo elimina todas las componentes de alta frecuencia (alrededor de 2fc). igual al valor obtenido en (a) De la Fig. 2. ♣ . por lo tanto. La salida xc(t) será entonces x c (t) = A [1 + 2sen(2πf a t) ] . Zx(f) y Z (-f) (b) De la Fig. Espectros Z x(f).143 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Zx (f ) = Zx (f + f c ) = Aδ(f ) − jAδ(f − f a ) + jAδ(f + f a ) Z* (−f ) = Z* (−f + f c ) = Aδ(f ) + jAδ(−f − f a ) − jAδ(−f + f a ) x x =Aδ(f ) + jAδ(f + f a ) − jAδ(f − f a ) X c (f ) = 1 j ⎡ Zx (f ) + Z* (−f ) ⎤ = A ⎧δ(f ) + 2 [ δ(f + f a ) − δ(f − f a ) ]⎫ ⎨ ⎬ x ⎣ ⎦ 2 2 ⎩ ⎭ x c (t) = A [1 + 2sen(2πf a t) ] Componente en fase 1 ⎡ Zx (f ) − Z* (−f ) ⎤ = 0 ⇔ x s (t) = 0 No tiene componente en cuadratura x ⎦ 2⎣ En la Fig. 2. 2. Z x (f ) y Z* (−f ) .34(a). z s (t) = − x(t)2sen(2πf c t) = −2A [1 + 2sen(2πf a t) ] cos(2πf c t)sen(2πf a t) = −A {sen [ 2π(f c + f a )t ] − sen [ 2π(f c − f a )t ] + 2sen(2πf a t)sen [ 2π(f c + f a )t ] − − 2sen(2πf a t)sen [ 2π(f c − f a )t ]} Todas las componentes son de alta frecuencia y son eliminadas por el filtro pasabajo.36 se muestran Z x (f ).

.116) [ Z x (− f ) + Z x (f )] = 2 [ M (f + f c ) + M (f − f c )] 2 1 1 resultado que ya habíamos obtenido. Como en el espectro X(f) de la señal modulada x(t) aparecen ambas bandas laterales. Señales Moduladas y Bandas Laterales Modulación en Doble Banda Lateral El concepto de señal analítica permite entender con más facilidad y profundidad la noción de “Banda Lateral” en el estudio de las señales moduladas. Sea m( t ) ⇔ M (f ) una señal real pasabajo de banda limitada B que contiene alguna información a transmitir: m(t) es un mensaje. se cumple que x ( t ) = m( t ) sen(2 πf c t ) ⇔ j Es evidente que 1 2 1 2 [ M (f + f c ) + M (f − f c )] [ M (f + f c ) − M (f − f c )] ⎧ M (f − f c ) = 0 para f < 0 ⎨ ⎩ M(f + f c ) = 0 para f > 0 Podemos definir entonces una señal z x ( t ) ⇔ Z x (f ) en la forma Z x (f ) = M(f − f c ) ⇔ z x (t) = m(t) exp( j2πf c t) Puesto que m(t) es real.144 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS 2. Se sombrea una de las bandas de M(f) para mostrar su ubicación al ser modulada. Nótese que el espectro M(f) aparece ahora centrado en las frecuencias ±f c . 2.115) (2. se dice entonces que x(t) es una señal modulada de “Doble Banda Lateral”.4. que es el Teorema de la Modulación. La banda de frecuencias de X(f) o de Z x ( f ) en el intervalo de frecuencias f c <| f | < [ f c + B] se denomina “Banda Lateral Superior”.95).7. de gran importancia en los sistemas de comunicación. siendo x(t) una señal real pasabanda. Por lo tanto. La banda lateral inferior y la banda lateral superior son imágenes especulares respecto a f c . z x (t ) será la función analítica de x(t). Si M(f) no tiene simetría hermítica [m(t) no es real]. M(f) será simétrico respecto al origen. entonces Z x ( − f ) ≠ M ( f + f c ) y el espectro de x ( t ) = m( t ) cos(2πf c t ) tampoco tendrá simetría hermítica. 2. Z x ( f ) y X(f). Pero si M(f) tiene simetría hermítica. En la Fig. expresión (1. Se tiene entonces que z x ( t ) = x ( t ) + jx ( t ) = m(t ) exp( j2πf c t ) Z x (−f ) = M(−f − f c ) = M(−f + f c ) = M(f + f c ) X( f ) = (2.37 se muestra M(f). mientras que la banda de frecuencias en el intervalo [ f c − B] <| f | < f c se denomina “Banda Lateral Inferior”.37(c). Aunque la aplicación práctica de estos conceptos no la veremos sino en los Capítulos V y VI. entonces representará al espectro de una señal real modulada y tendrá la forma de la Fig. y Z x (f ) será simétrico respecto a f c . conviene en este punto conocer el significado de “Banda Lateral Doble” y “Banda Lateral Unica”. Hagamos el producto x ( t ) = m( t ) cos( 2 πf c t ) ⇔ X( f ) = Si f c ≥ B .

2. “extraer” o “detectar” a partir de x(t) formando el producto (Ver Problema de Aplicación 2. como se muestra en la Fig. Este es un sistema de modulación muy utilizado en la práctica. QAM)”. de banda limitada B. se puede determinar. Obsérvese que la señal m(t). 2. lo cual en términos prácticos equivale a decir que toda la información está contenida en su envolvente natural y bastará extraer la envolvente natural para recuperar la información en ella contenida.38. denominada “detección sincrónica o coherente” y está representada en la rama superior de la Fig.38. que es la envolvente natural de x(t). Esta operación. Detector Coherente x r1 (t ) 2 cos(ω c t ) 2 sen(ω c t ) x 1 (t ) A c cos(ω c t ) + A c sen(ω c t ) + Filtro Pasabajo y 1 (t ) x t (t ) Canal x r (t ) x 2 (t ) Detector Coherente (a) Transmisor QAM x r2 (t ) Filtro Pasabajo y 2 (t ) (b) Receptor QAM Fig. con f c >> B y que contienen información.34(a). 2. los filtros son pasabajo de ancho de banda B.145 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS La señal x ( t ) = m(t ) cos( 2πf c t ) es entonces una señal modulada de doble banda lateral cuyo espectro es simétrico alrededor de f c y cuya componente en cuadratura es cero. Sin embargo.38.28) x ( t ) 2 cos( 2 πf c t ) = m( t ) + m(t ) cos(4 πf c t ) y pasándolo por un filtro pasabajo que elimina las componentes de alta frecuencia (alrededor de ±2f c ). Esto significa que la envolvente natural de x(t) es simplemente el mensaje a transmitir y la fase natural es cero. puede enviarse simultáneamente dos señales diferentes por el mismo canal.34 en la forma mostrada en la Fig. En la práctica este tipo de modulación se denomina “Modulación Ortogonal o en Cuadratura (Quadrature Amplitude Modulation. y cualquiera otra señal que aparezca dentro de ese ancho de banda constituirá una distorsión o interferencia.28. ♣ Ejemplo 2. Modulación QAM. si se aplica las propiedades de la forma canónica de una señal pasabanda. Dispongamos la Fig. Modulación Ortogonal o en Cuadratura (QAM) Cuando se transmite una señal pasabajo de banda limitada B en doble banda lateral. 2. . 2. la señal modulada ocupa una gama de frecuencias de ancho 2B centrada en la frecuencia f c de la portadora. donde x 1 ( t ) y x 2 (t ) son dos señales pasabajo diferentes.

s( t ) = Re{ z s ( t )} = Re{[ m( t ) + jm( t )] exp( j2πf c t )}. 2.117). el espectro de x t ( t ) estará centrado en ±f c pero será asimétrico. sus dos bandas laterales tendrán perfiles diferentes. de modo que la salida del detector coherente será y 1 (t ) = A c x 1 (t ) Igualmente. donde z m ( t ) = m( t ) + jm(t ) entonces. es decir. Z m ( f ) = [1 + sgn( f )]M ( f ) ⇔ z m (t). z s (t ) = s( t ) + js (t ) .117) Veamos ahora qué forma tiene el espectro S(f) de s(t). Formemos ahora la señal z s (t ) = z m ( t ) exp( j2πf c t ) ⇔ Z s ( f ) = Z m ( f − f c ) donde podemos considerar a z s (t ) como la señal analítica de una señal real pasabanda s(t). x r (t ) = x 1 (t )A c cos(ω c t ) + x 2 (t )A c sen(ω c t ) Por la rama superior del receptor se tendrá x r1 (t ) = x r ( t )2 cos(ω c t ) = 2 A c x 1 ( t ) cos 2 (ω c t ) + 2 A c x 2 ( t ) sen(ω c t ) cos(ω c t ) x r1 (t ) = A c x 1 ( t ) + A c x 1 ( t ) cos(2ω c t ) + A c x 2 ( t ) sen( 2ω c t ) El filtro pasabajo de ancho de banda B rechaza todas las frecuencias superiores a su banda de paso. Para simplificar el análisis. . es decir. supongamos que x r ( t ) = x t ( t ) . expresión (2. Este tipo de modulación es muy utilizado en la transmisión de impulsos y señales continuas.146 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Puesto que x 1 ( t ) y x 2 (t ) son diferentes. Con la modulación QAM el rendimiento del canal aumenta al doble. como veremos en los Capítulos V y VI.39(a). por lo tanto. por la rama inferior del receptor se obtiene y 2 (t ) = A c x 2 (t ) y hemos recuperado las dos señales diferentes x 1 (t ) y x 2 ( t ) que fueron transmitidas por el mismo ancho de banda. de donde s( t ) = m( t ) cos( 2πf c t ) − m( t ) sen( 2πf c t ) con fc ≥ B (2. es decir. Z m ( f ) tendrá la forma mostrada en la Fig. ♣ Modulación en Banda Lateral Unica Sea z m ( t ) la señal analítica de m(t).

se puede utilizar la señal modulada x ( t ) = m(t ) cos( 2πf c t ) de doble banda lateral.119).117) en forma polar s( t ) = A ( t ) cos[ 2πf c t + θ( t )] donde A (t ) = m 2 (t ) + m 2 (t ) y θ(t) = arctg m(t) m(t) (2.39(c). Sin embargo. como podemos ver en (2. siendo las dos necesarias para la recuperación de m(t). como veremos en su oportunidad. en lo que se refiere a la transmisión de una señal mensaje m(t). Expresando (2.117). la señal s(t) de banda lateral única posee envolvente y fase.121a) (2. S(f ) = Este espectro tiene la forma mostrada en la Fig. de donde 1 − sgn(f + f c ) = 2 u (− f − f c ) S(f ) = [ 2M (f + f c )u (− f − f c ) + 2M (f − f c )u (f − f c )] [ Z s (− f ) + Z s (f )] (2.121b) En resumen. S(f ) = Como S(f ) = pero 1 2 1 2 1 2 [ M (f + f c ) + M (f − f c )] − j 2 [ M (f + f c ) − M (f − f c )] 2 1 1 M ( f ) = − j sgn(f ) M (f ).147 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS De las Figs.121a) y (2. 2. podemos escribir Z s (f ) = 2M (f − f c )u (f − f c ) Z s (− f ) = 2 M ( f + f c ) u (− f − f c ) (2. pues solamente aparecen las bandas laterales superiores. los sistemas prácticos de modulación de doble banda lateral y los de banda lateral única no son completamente compatibles. . el espectro S(f) contendrá solamente las bandas laterales inferiores. mientras que la señal x(t) de doble banda lateral necesita solamente la envolvente. que en este caso es el mensaje m(t). entonces S(f) queda en la forma { M (f + fc )[1− sgn(f + fc )] + M (f − fc )[1 + sgn(f − fc )]} y 1 + sgn(f . En este caso se dice que s(t). por transformada de Fourier de (2.118) (2. Esto tiene una gran importancia de tipo práctico pues. Obsérvese que la eliminación completa de una de las bandas laterales ocurre solamente cuando la componente en cuadratura de la señal modulada es la transformada de Hilbert de la componente en fase.f c ) = 2 u ( f − f c ).121b).118) y (2.37(b) y 2.117) es positivo. 2. La recuperación de m(t) a partir de s(t) se puede efectuar también mediante detección coherente (Ver Problema de Aplicación 2. dada por la expresión (2.28). son sistemas de banda lateral única.39(b).120) De (2. es una señal modulada en “Banda Lateral Unica”. Se puede demostrar que si el signo de la componente en cuadratura de la expresión (2. como veremos en el Capítulo VI.119) Asimismo. o la señal de banda lateral única s(t ) = m(t ) cos(2 πf c t ) + m(t ) sen(2 πf c t ) . Los sistemas telefónicos. como veremos en el Capítulo VI. Por esta razón. el ancho de banda de transmisión se reduce a la mitad y el rendimiento del canal aumenta al doble.117).

2. x c ( t ) y x s ( t ) . x c (t ) ⇒ S xc (f ) .40.124) Las potencias contenidas en cada una de las componentes ortogonales son iguales entre sí e iguales a la potencia total de la señal pasabanda. el ruido.122) Al pasar z c (t ) por el filtro pasabajo se eliminan las componentes de alta frecuencia. S xc ( f ) y S xs ( f ) tendrán la forma indicada en la Fig. Estos resultados son muy importantes y se aplican sobre todo en señales pasabanda aleatorias como. 2.123) para B <| f| ⎩0 La deducción de S xs ( f ) es similar verificándose que S xc ( f ) = S xs ( f ) . x s (t ) ⇒ S xs (f ) donde S x ( f ).40(b). por consiguiente.148 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS 2. Se trata entonces de determinar la distribución de la potencia entre las componentes ortogonales de una señal pasabanda de potencia y puesto que no se puede utilizar la transformada de Fourier.34(a) y del teorema de modulación para señales de potencia. utilizaremos las correspondientes densidades espectrales de potencia.7. z c ( t ) = x ( t )2 cos( 2πf c t ) ⇒ S zc (f ) = S x ( f + f c ) + S x ( f − f c ) [ ] para todo f (2. Con referencia a la Fig. La naturaleza aleatoria del ruido tiende a distribuir la potencia entre sus dos componentes ortogonales y esto es en contraste directo con las señales . 2. Densidades Espectrales en Señales Pasabanda Como el área bajo S x ( f ) es igual al área bajo S xc ( f ) o S xs ( f ) . Señales Pasabanda de Potencia Consideremos el caso de señales de potencia. que son señales que no poseen una transformada de Fourier. ⎧[ S (f + f ) + S (f − f )] para | f| ≤ B x c x c S xc (f ) = ⎨ (2.5. lo cual está de acuerdo con el teorema de la modulación para señales de potencia. como es el caso de las señales aleatorias. hagamos x(t ) ⇒ S x (f ). respectivamente. entonces < x 2 (t ) >=< x 2 ( t ) >=< x 2 ( t ) >= c s ∫ ∞ −∞ S x (f ) df = ∫ ∞ −∞ S xc ( f ) df = ∫ ∞ −∞ S xs ( f ) df (2. Con la notación que hemos establecido para las señales de potencia. Filtro Pasabajo 2 S xc (f ) = S xs ( f ) S x (f − f c ) S x (f ) 2B 1 S x (f + f c ) −f c 0 (a) fc f f −2f c -B (b) 0 B 2f c Fig. por ejemplo. S xc (f ) y S xs ( f ) son las densidades espectrales de potencia de x( t ).

2. como lo demostraremos a continuación. resulta que el análisis del filtrado pasabanda de una señal pasabanda puede efectuarse mucho más fácilmente a través del análisis del filtrado pasabajo complejo de señales pasabajo complejas. x z ( t ) = x( t ) + jx( t ). La potencia promedio de una señal aleatoria pasabanda. Consideremos el filtro pasabanda de la Fig. h z ( t ) = h ( t ) + jh ( t ).41(c). 2. La entrada al filtro es una señal pasabanda real x ( t ) ⇔ X(f ). es decir.125) < x 2 (t ) >= < x 2 (t ) > + < x 2 ( t ) > c s 2 2 La potencia promedio de una señal aleatoria se divide por igual entre sus dos componentes ortogonales. el ancho de banda del filtro es igual o mayor que el ancho de banda de la señal x(t).7.6. En efecto. respuesta xz yz z impulsional h(t) y salida y(t).149 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS determinísticas en las cuales se puede controlar la fase a fin de obtener solamente términos en seno o en coseno. cuya función de transferencia es H(f). de acuerdo con las expresiones (2. Sistemas Pasabanda Gran parte de la utilidad de la representación en envolvente compleja de una señal pasabanda se perdería si no fuera posible caracterizar directamente en función de ella los efectos del filtrado pasabanda. será entonces 1 1 (2.124). Se tiene entonces que ~ X z ( f ) = [1 + sgn(f )]X( f ) = X z ( f − f c ) y X(f) = 1 ~ ~ X z (− f − f c ) + X z (f − f c ) 2 [ ] . ~ ( t ) = x ( t ) exp( − j2πf t ) = x ( t ) + jx ( t ) xz z c c s ~ h z ( t ) = h z ( t ) exp( − j2πf c t ) = h c (t ) + jh s (t ) ~ ( t ) = y ( t ) exp( − j2πf t ) = y (t ) + jy (t ) y y z ( t ) = y ( t ) + jy ( t ). que H(f) tiene simetría hermítica.108) y (2. Se supone que h(t) es real. respectivamente.41(a). x(t) X(f) h(t) H(f) y(t) Y(f) ~ (t ) 1 xz ~ h z (t ) 2 ~ (t ) yz (a) Filtrado Pasabanda H(f) X(f) (b) Filtrado Equivalente Complejo ~ H z (f ) ~ X z (f ) f f 0 −f c (c) 0 fc Fig. 2. h (t ) y ~ ( t ) son las envolventes complejas de la entrada x(t). 2. z z c c s ~ ~ ( t ). Fig. (d) Sea entonces.41.

La importancia de este resultado estriba en el hecho de que al tratar con señales y sistemas ~ pasabanda. con un factor de escala de 1/2. 2. se reemplaza por un análisis equivalente en pasabajo que retiene por completo toda la esencia del proceso de filtrado. y s (t ) = [ h s (t ) ∗ x c (t )] + 2 [ h c (t ) ∗ x s (t )] 2 1 1 (2. la componente en fase de la salida y(t) es y c (t ) = [ h c (t ) ∗ x c (t )] − 2 [ h s (t ) ∗ x s (t )] 2 1 1 y la componente en cuadratura de la salida y(t). se tiene ~ ( t ) = y (t ) + jy ( t ) = 1 h ( t ) + jh ( t ) ∗ x (t ) + jx ( t ) yz c s c s c s 2 [ ] [ ] (2. Por x y consiguiente. entonces ~ ~ ~ H z (f ) y X z ( f ) serán simétricos respecto al origen [ h z ( t ) y ~ z ( t ) serán reales]. Este modelo equivalente proporciona una base práctica para la simulación del filtrado pasabanda o de un canal de comunicaciones en una computadora digital. En este caso. el análisis de un sistema pasabanda. Nótese que si H(f) y X(f) son simétricos respecto a la frecuencia central f c . ~ ( t ) = x ( t ). complicado por el factor exp( j2πf c t ) . se puede trabajar con las envolventes complejas pasabajo ~ z ( t ). mostrado en la Fig.129) Estas expresiones permiten establecer el modelo equivalente pasabajo de un filtro pasabanda.127) Por lo tanto. h z ( t ) y ~ z (t ) .130a) s z c c c .128) Desarrollando esta expresión.42. x(t) = x ( t ) cos( 2 πf t ) x (2. la envolvente compleja de la señal filtrada y(t) viene dada por el producto de convolución de la envolvente compleja de la señal de entrada x(t) por la envolvente compleja de la respuesta impulsional h(t) del filtro.126) Estas dos últimas expresiones implican que 1 ~ ~ ~ Yz (f ) = H z ( f ) ⋅ X z (f ) 2 [ ] ] cuya transformada de Fourier inversa es ~ (t ) = 1 ~ (t ) ∗ ~ (t ) xz yz hz 2 [ (2. x x ( t ) = 0.150 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS ~ H z ( f ) = [1 + sgn( f )]H ( f ) = H z ( f − f c ) La salida del filtro será Y( f ) = H ( f ) X( f ) = Y( f ) = y H(f) = 1 ~ ~ H z (− f − f c ) + H z (f − f c ) 2 [ ] 1 ~ ~ ~ ~ H z (− f − f c )X z (− f − f c ) + H z (f − f c )X z (f − f c ) 4 [ ] 1 ~ ~ Yz ( − f − f c ) + Yz ( f − f c ) 2 [ ] (2. Reemplazando en (2.127) las envolventes complejas por sus respectivas componentes.

Respuesta de un Filtro Pasabanda a un Impulso de Radiofrecuencia Consideremos un filtro ideal pasabanda de ancho de banda 2B.42. de señales digitales y de radar. En la Fig. cuya entrada es un impulso de radiofrecuencia (RF) de la forma x( t ) = AΠ( t / T) cos(2πf c t ) .73). centrado en la frecuencia f c . donde fc >> 1 / T y f c >> B .130c) Filtro Pasabanda Filtro x c (t ) Pasabajo + _ + h c (t ) / 2 h s (t ) / 2 h s (t ) / 2 h c (t ) / 2 y c (t ) x(t) 2 cos(2 πf c t ) −2 sen(2πf c t ) Filtro Pasabajo x s (t ) cos(2πf c t ) sen( 2πf c t ) + + y(t) _ y s (t ) Fig.72) y (2.28.130b) y respecto a la salida. Esta es la situación que se presenta a la entrada del filtro de radiofrecuencia en los receptores de radio. y s ( t ) = 0. Vamos a determinar la respuesta y(t) del filtro.151 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS h s (t) = 0 ~ h z ( t ) = h c ( t ). 2. De (2. 1 2 h(t) = h c ( t ) cos( 2 πf c t ) (2. y(t) = y c ( t ) cos( 2 πf c t ) (2. Equivalente Pasabajo del Filtrado Pasabanda.43(a) se muestra la forma del impulso de radiofrecuencia. 2. y c (t) = [ h c ( t ) ∗ x c ( t )] . ♣ Ejemplo 2. ⎡ ⎛ f + fc ⎞ ⎛ f − f c ⎞⎤ H( f ) = h o ⎢ Π⎜ ⎟ + Π⎜ ⎟⎥ exp( − j2πt o f ) ⎝ 2 B ⎠⎦ ⎣ ⎝ 2B ⎠ h( t ) = 4 Bh o sinc[2 B( t − t o )] cos[2πf c ( t − t o )] .

para T = 1.44.43(b) se muestra la forma de esta salida.8. S xy ( f ) ⇔ R xy ( τ ) . Se sugiere al lector que trate de determinar la salida y(t) sin utilizar el concepto de envolvente compleja para que constate la utilidad de este procedimiento. T = 4to .20(b) cuya solución es y c (t) = 2 Ah o ⎡ ⎧ ⎧ T ⎫ T ⎫⎤ ⎢Si⎨ 2 πB( t − t o + ) ⎬ − Si⎨ 2 πB( t − t o − ) ⎬⎥ ⎩ π ⎣ ⎩ 2 ⎭ 2 ⎭⎦ De (2. ~ z ( t ) será también real. B = 2/T y fc = 6. Autocorrelación Entrada/Salida Consideremos las funciones de correlación en un sistema lineal invariante en el tiempo (SLIT). FUNCIONES DE CORRELACION EN SISTEMAS LINEALES 2. y( t ) = 2 Ah o π 1 ⎫ 3 ⎫⎤ ⎡ ⎧ ⎧ ⎢Si ⎨4 π( t + 4 )⎬ − Si ⎨4 π( t − 4 )⎬⎥ cos(12 πf c t ) ⎭⎦ ⎩ ⎭ ⎣ ⎩ En la Fig. y(t ) ⇒ S y (f ) ⇔ R y (τ ) h(t ) ⇔ H (f ) . la salida del filtro pasabanda será y( t ) = ⎧ 2 Ah o ⎡ ⎧ T ⎫ T ⎫⎤ ⎢Si⎨ 2 πB( t − t o + ) ⎬ − Si⎨ 2 πB( t − t o − ) ⎬⎥ cos( 2 πf c t ) ⎩ π ⎣ ⎩ 2 ⎭ 2 ⎭⎦ Si hacemos por ejemplo. entonces. Sea entonces x (t ) ⇒ S x (f ) ⇔ R x (τ ) .8.1. 2. 2.152 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS ⎛ f ⎞ ~ H z ( f ) = 2 h o Π⎜ ⎟ exp( − j2 πt o f ) ⎝ 2B ⎠ ~ ~ h z ( t ) = 4 Bh o sinc[ 2 B( t − t o )] = h c ( t ) pues h z ( t ) es real ⎛ f + fc ⎞ ⎛ f − f c ⎞⎤ ⎛t⎞ A⎡ x( t ) = AΠ⎜ ⎟ cos( 2 πf c t ) ⇔ X( f ) = ⎢ sinc⎜ ⎟ + sinc⎜ ⎟⎥ ⎝T⎠ ⎝ 1/ T ⎠ ⎝ 1 / T ⎠⎦ 2⎣ ⎛ f ⎞ ~ t ~ ⎟ ⇔ x z ( t ) = 2 AΠ( ) = x c ( t ) pues ~ z ( t ) es real X z ( f ) = ATsinc⎜ x ⎝1 / T ⎠ T ~ Puesto que ~ z ( t ) y h z ( t ) son reales. Fig. 2.248). de modo que x y ~ ( t ) = y ( t ) = 1 h ( t ) ∗ x ( t ) = 1 4 Bh sinc[ 2 B( t − t )] ∗ 2AΠ( t ) yz c c c o o 2 2 T t y c ( t ) = 4 ABh o sinc[ 2 B( t − t o )] ∗ Π( ) T y c ( t ) = 4 ABh o [ ] ∫ τ Π( ) sinc[ 2 B( t − t o − τ )]dτ −∞ T ∞ Esta expresión es igual a la ya obtenida en el Ejemplo 2.

debe ser igual a G h (f ) = ∞ ∞ S y (f ) = S x ( f ) ⋅ G h ( f ) . Del teorema de convolución. es decir. y(t + τ ) = h(v)x(t + τ . nos queda ∫ ∫ ∞ ∞ −∞ −∞ R x ( τ − z )h (u ) h ( z + u ) dudz = ∫ ⎤ ⎡ ∞ R x (τ − z )⎢ h (u )h ( u + z ) du ⎥dz ⎦ ⎣ −∞ −∞ ∞ ∫ pero la integral dentro de los corchetes es la “integral de correlación de h(t)”. En efecto. pero. R y (τ ) = ∫ ∫ ∞ −∞ 1 T/ 2 ⎡ ⎤ h ( u ) h (v )⎢ lim x (t − u ) x ( t + τ − v ) dt ⎥dudv ⎣ T→∞ T − T/ 2 ⎦ −∞ ∫ Con el cambio de variables t ' = t − u .v)dv -∞ ∫ ∞ Reemplazando estas expresiones en R y (τ ).132) La función de autocorrelación R y (τ ) de la salida de un SLIT es el producto de convolución de la función de autocorrelación R x (τ ) de la entrada x(t) por la integral de correlación de la respuesta impulsional h(t) del SLIT. g h (z ) = ∫ ∞ −∞ ∞ h ( u ) h ( u + z ) du donde g h (z ) ⇔ G h (f ) (2. la función de autocorrelación de la salida y(t) es R y ( τ ) = lim 1 T→∞ T x(t) SLIT y(t) ∫ T/2 −T/2 y( t ) y( t + τ)dt R x (τ ) S x (f ) h ( t ) ⇔ H (f ) R xy ( τ ) ⇔ S xy ( f ) Fig.153 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Por definición. ∫ ⎡⎢⎣ ∫ h(u)h(u + τ)du⎤⎥⎦ exp(− j2πfτ)dτ = ∫ −∞ −∞ ∫ ⎤ h ( u + τ ) exp(− j2πfτ ) dτ ⎥du ⎦ −∞ ∞ . de la definición de transformada de Fourier.131) La función de autocorrelación de la salida y(t) será entonces R y (τ ) = ∫ −∞ R x (τ − z )g h ( z ) dz = R x (τ ) ∗ g h (τ ) (2. de donde R y (τ ) = ∫ ∫ ∞ ∞ −∞ −∞ R x ( τ + u − v ) h ( u )h ( v ) dudv Con un nuevo cambio de variables R y (τ ) = z = v − u. la integral dentro de los corchetes se hace igual a R x (τ + u − v ). G h ( f ) ⎡ h ( u )⎢ ⎣ −∞ ∞ | H ( f )|2 .35). R y (τ ) = lim T →∞ ∫ ⎡⎣⎢ ∫ T 1 T/ 2 − T/ 2 ∞ ∞ ⎤ h ( u ) x ( t − u ) du h ( v ) x ( t + τ − v ) dv ⎥dt ⎦ −∞ −∞ ∞ ∫ Intercambiando el orden de integración. 2. de acuerdo con (2.44 R y (τ ) S y (f ) R y (τ) =< y(t)y(t + τ) > pero en un SLIT: y(t ) = ∫ ∞ −∞ h ( u ) x ( t − u ) du.

tenemos . Nótese que G h ( f ) =| H (f )|2 = H (f ) ⋅ H (− f ) ⇔ g h ( τ ) = h ( τ ) ∗ h(-τ ) La densidad espectral Sy ( f ) de la salida del SLIT se puede escribir entonces en la forma S y (f ) = S x (f )H (f )H (− f ) y por el teorema de convolución. −∞ ∞ 2. la segunda integral dentro de los corchetes queda en la forma ∫ entonces ∞ −∞ h( τ ' ) exp[ − j2πf ( τ '− u)]dτ ' = exp( j2πuf ) h(τ ' ) exp(− j2πfτ ' ) dτ ' = H ( f ) exp( j2πuf ) −∞ ∫ ∞ G h (f ) = H(f ) ∫ ∞ −∞ h( u ) exp( j2πfu ) du = H ( f ) ⋅ H ( − f ) =| H ( f )|2 Hemos verificado entonces que G h ( f ) =| H ( f )|2 . por lo tanto. expresión (2. S y (f ) =| H (f )| 2 ⋅S x (f ) resultado ya obtenido anteriormente. la intercorrelación entrada/salida es R xy (τ ) = lim como T →∞ ∫ T 1 T/ 2 − T/ 2 x (t ) y ( t + τ ) dt =< x( t ) y( t + τ ) > y ( t + τ ) = x ( v )h (t + τ − v )dv. Intercorrelación Entrada/Salida Por definición.8.133) que es la forma más utilizada para representar la función de autocorrelación de la salida de un SLIT. R y (τ ) = R x (τ ) ∗ h(τ ) ∗ h(. ella vendrá dada por (2. entonces −∞ ∫ ∞ R xy ( τ ) = lim T →∞ ∫ T 1 ⎤ ⎡ ∞ x ( t )⎢ x ( v ) h (t + τ − v )dv ⎥dt ⎦ ⎣ −∞ − T/ 2 T/ 2 ∫ Intercambiando el orden de integración. ∞⎡ 1 T/ 2 ⎤ R xy (τ ) = lim t ⎢ T→∞ T −x (2) x ( v )dt ⎥h ( t + τ − v ) dv ⎣ ⎦ T/ −∞ ∫ ∫ Con el cambio de variables u = v − t .τ ) En cuanto a la potencia de salida < y2(t) >. ∞ ∞ < y 2 ( t ) >= R y (0) = ∫ R x (z)g h (z)dz = ∫ | H(f ) |2 Sx (f )df −∞ −∞ Podemos demostrar también que el valor promedio < y(t) > de la salida y(t) es < y( t ) >= H(0) < x ( t ) > donde H(0) = H(f ) |f = 0 = ∫ h ( t )dt es el área de la respuesta impulsional h(t).154 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Con el cambio de variables τ ' = u + τ .35).2.

La salida del correlador es proporcional a la respuesta impulsional del SLIT en prueba. S xy (f ) = S x (f ) ⋅ H (f ) (2. Estimador de la Respuesta Impulsional de un SLIT. 2.29.45.134) R xy (τ ) = R x (τ ) ∗ h(τ ) La función de intercorrelación entrada-salida R xy (τ ) de un SLIT. es el producto de convolución entre la función de autocorrelación R x ( τ ) de la entrada x(t) por la respuesta impulsional h(t) del SLIT. donde x(t) es una señal aleatoria cuya densidad espectral de potencia es constante e igual a K. Un análisis más avanzado de estas técnicas está fuera de los objetivos de este texto. Sea x( t ) ⇒ S x ( f ) = K. El montaje de la Fig. 2. de donde (2. Del teorema de la convolución.45.135) La densidad interespectral S xy ( f ) entrada-salida de un SLIT es simplemente el producto de la densidad espectral de la entrada x(t) por la función de transferencia del SLIT. Este es un tipo especial de ruido (ruido blanco) que se caracterizará más adelante. 2.155 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS R xy (τ ) = ∫ 1 T/ 2 ⎡ ⎤ lim t ⎢ T→∞ T −x (2 )x (t + u ) dt ⎥h (τ − u ) du ⎣ ⎦ T/ −∞ ∞ ∫ La integral dentro de los corchetes es la función de autocorrelación R x (τ ) de x(t). ♣ Ejemplo 2. ♣ . R xy (τ ) = 1 {S xy ( f ) }=K SLIT {H (f )} = K ⋅ h(τ ) Sistema en Prueba x(t) h ( t ) ⇔ H (f ) y(t) x(t) Correlador R xy ( τ ) Fig. Todas estas expresiones se aplican tanto a señales determinísticas como aleatorias y son muy utilizadas en el análisis de sistemas lineales y en sistemas de comunicación en presencia de ruido. este montaje es relativamente fácil de instrumentar físicamente o simular en una computadora digital. entonces. S xy ( f ) = H ( f )S x ( f ) = K ⋅ H (f ) .45 se utiliza en la práctica para estimar la respuesta impulsional de un sistema lineal invariante en el tiempo. Estimación de la Respuesta Impulsional de un SLIT mediante Correlación Sea el diagrama de bloques mostrado en la Fig. El “Sistema en Prueba” es un SLIT cuya respuesta impulsional se desea estimar. R xy ( τ ) = ∫ ∞ −∞ R x (u ) h ( τ − u )du . entonces 1 pero como R xy (τ ) ⇔ S xy (f ). pero de (2.135).

no se puede aplicar la termodinámica clásica para analizarlas. por ejemplo. igual argumento se aplica a la densidad espectral de potencia. es muy importante que se entienda que para una señal dada existe una función de autocorrelación única. En el Capítulo III se tratan estos conceptos con un poco más de detalle. Existe. 2.9. en los semiconductores se debe a la difusión errática de las portadoras minoritarias y a la generación y recombinación erráticas de los pares electrón-hueco. Esto es debido a que la función de autocorrelación no es una medida completa de un proceso sino que es una de sus estadísticas de segundo orden. en las cuales se observa que la corriente fluctúa alrededor de un valor promedio. El zumbido y la estática en un receptor de radio. En particular. Este tipo de señales espurias de naturaleza aleatoria es lo que conocemos con el nombre genérico de “ruido”. 2. La distorsión producida por las características físicas del canal la trataremos con más detalle en los Capítulos V y VI. los destellos blancos en una pantalla de televisión.9. mientras lo contrario no necesariamente es cierto. como lo señalamos en su oportunidad. los fotones emitidos en algunos lasers. RUIDO EN SISTEMAS 2. y que representan una limitación básica en la transmisión o detección de señales. los electrones y huecos que fluyen en semiconductores. Introducción En el proceso de transmisión por un canal de comunicaciones... Esta distorsión se debe principalmente a dos factores que siempre están presentes en los canales físicos: la distorsión producida por las características físicas del canal que producen distorsión de fase y de amplitud. son fuentes de este tipo de ruido. los electrones que fluyen entre el cátodo y el ánodo en un tubo de rayos catódicos. el proceso que produce los valores promedio tiene variaciones propias de tipo estadístico que fluctúan alrededor de esos valores promedio. En la práctica se encuentra que existen muchas fuentes potenciales de ruido en un sistema de comunicación: las fuentes de ruido externas (naturales y producidas por el hombre) y las fuentes de ruido internas al sistema. 2. Ruido Interno Ruido de Disparo El ruido de disparo se genera en los dispositivos electrónicos debido a la naturaleza discreta de la corriente circulante. . Una característica de este tipo de ruido es que la potencia promedio de las fluctuaciones es proporcional al valor promedio de las mismas. como se puede ver en el Capítulo III. y la distorsión producida por señales aleatorias o interferentes que se suman a las señales útiles distorsionándolas severamente.1. son diferentes manifestaciones del ruido. Por ejemplo. Conclusiones similares se aplican a la función de intercorrelación y su correspondiente densidad interespectral de potencia.9. los fotoelectrones emitidos por un fotodiodo. las oscilaciones en un sistema retroalimentado. en general. Como en este proceso las fuerzas que producen el flujo de partículas no están en equilibrio termodinámico. el ruido interno incluye una clase importante de señales perturbadoras que se generan por fluctuaciones espontáneas de corriente o voltaje en los circuitos y elementos eléctricos. Se concluye entonces que una función de autocorrelación o una densidad espectral de potencia dadas no especifican unívocamente una señal o un proceso. etc.156 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS En resumen. En consecuencia. en un tubo al vacío es la emisión errática de los electrones desde el cátodo. las señales que contienen información llegan a su destino tan distorsionadas que muchas veces es prácticamente imposible extraer la información que ellas poseen. un gran número de señales o procesos que pueden tener la misma función de autocorrelación y la misma densidad espectral de potencia. El mecanismo que origina las fluctuaciones depende de cada proceso en particular. etc.

independientemente.138) de Johnson y Nyquist. < i 2 ( t ) >= 4 kTGB n ( G = 1/ R) (2. de ahí que al ruido térmico se le denomine “ruido de Johnson” o “ruido de resistencias”. El movimiento neto de los electrones constituye una corriente eléctrica cuya dirección de flujo es también aleatoria y cuyo valor promedio es cero. para las frecuencias normales en comunicaciones. Nyquist. El ruido gaussiano es aquel cuya distribución de amplitudes sigue la curva de Gauss. y B un ancho de banda arbitrario. Históricamente. pues.139) se puede aproximar en la forma S n ( f ) = 2 kTR que es el mismo resultado (2. Nyquist [Johnson. en Hz. un ruido gaussiano de valor promedio cero. Johnson y H.136) (2. La correspondiente densidad espectral de potencia del ruido térmico es S n (f ) = < v 2 (t) > n 2B = 2 kTR (2. 1928] fueron los primeros en estudiar el ruido térmico en resistencias metálicas. que la potencia promedio del voltaje (valor eficaz al cuadrado) a través de una resistencia R viene dada por < v 2 ( t ) >= 4 kTRB n y con referencia a la corriente térmica. por ejemplo. a partir de consideraciones teóricas y experimentales. La energía térmica mantiene los electrones libres en constante movimiento. k es la constante de Boltzmann (1.157 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Ruido Térmico El ruido térmico es producido por el movimiento errático de los electrones libres en un elemento conductor como. Por consiguiente.137) donde T es la temperatura en la resistencia. de modo que la expresión (2. y h la constante de Planck (6. demuestran que la densidad espectral de potencia del voltaje térmico es ⎡ ⎤ ⎢1 ⎥ 1 S n ( f ) = 2 Rhf ⎢ + ⎥ hf ⎢ 2 exp( ) − 1⎥ ⎣ ⎦ kT (2. en kelvins. pero este movimiento es de tipo aleatorio debido a las múltiples colisiones que los electrones experimentan dentro del entramado atómico. en Hz. vemos que exp( hf / kT) ≈ 1 + hf / kT . . Sin embargo. Por otro lado. Johnson y Nyquist demostraron. B. En efecto. exceptuando la gama de transmisión óptica (fibras y lasers). El ruido térmico es. la densidad espectral de ruido se puede considerar constante e independiente de la frecuencia. Las distribuciones gaussianas las estudiaremos en el Capítulo III. El primer término de (2. como el ruido térmico es el resultado de un gran número de interacciones esencialmente independientes. cálculos más avanzados [Schwartz.38x10 −23 joules/K ) .139) donde f es la frecuencia. 1980] que incluyen consideraciones de tipo mecánicocuántico.625x10-34 joules/seg). una resistencia. su distribución tiende a ser gausiana.138) Vemos que esta densidad espectral de potencia es constante para todas las frecuencias.139) es despreciable para frecuencias f << kT / h ≈ 1013 Hz. J. para f << 1013 Hz . 1928.

46(a). 2. 2. (2.142) v ef = 4 kTR eq B donde R eq es la resistencia equivalente del dipolo y v ef el correspondiente voltaje eficaz de ruido. donde B = 100 kHz . como se muestra en la Fig. viene dada por la integral < v 2 ( t ) >= v 2 = 2 kT n ef ∫ B −B R ( f )df (2. hay que utilizar los circuitos equivalentes. V1 = 4 kTR 1 B . R2 = 2 kΩ y R3 = 3 kΩ.46.46(b) se muestra el correspondiente “circuito equivalente de Norton”.141) (2. V2 = 4 kTR 2 B y V3 = 4 kTR 3 B . También.140) donde R(f) es la parte real de la impedancia compleja vista en los terminales del dipolo y B un ancho de banda arbitrario. la cual expresa que la potencia promedio de ruido producida en los terminales de un dipolo que contenga elementos pasivos ( R. todos a la misma temperatura. Estos cálculos se pueden simplificar mediante la llamada “Fórmula de Nyquist”. ♣ Ejemplo 2.30 Vamos a calcular el voltaje eficaz de ruido térmico de la red mostrada en la Fig. Si la red contiene solamente elementos resistivos y dentro de un ancho de banda arbitrario B. L y C). 2. R1 = 1 kΩ. que es el “circuito equivalente de Thévenin”. En la Fig.140) se reduce a < v 2 (t ) >= v 2 = 4 kTR eq B n ef o también. la expresión (2. a + R(Sin ruido) ~ v = 4 kTRB ef a i ef = 4 kTGB b G= 1/R (Sin ruido) b (a) Equivalente de Thévenin (b) Equivalente de Norton Fig. T = 290 kelvins. Circuitos Equivalentes del Ruido Térmico. Si las resistencias están a temperaturas diferentes. la utilización de los circuitos equivalentes hace que los cálculos sean muy largos y engorrosos.158 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Circuitos Equivalentes del Ruido Una resistencia ruidosa se puede representar mediante un circuito equivalente que consiste en una resistencia sin ruido en serie con una fuente de ruido con un voltaje eficaz v ef . Cuando se calculan los efectos del ruido térmico en redes que contienen muchas resistencias. 2.47(a).

2. se obtiene R3 2 v 1ef = V1 = 1000 ⋅ kTB . sea 2 v 2 = v1ef + v 2 ef + v 2ef .55x10 −6 V Como se trata de un red puramente resistiva.47(b).47.401x10 −12 ef El voltaje eficaz de ruido a la salida de la red será v ef = 1. v 2 = 3000(kTB) v 3ef = V3 3ef R1 + R 2 + R 3 v 2 = 6000(kTB) = 6x10 3 x1.38x10 −23 x 290x1500x10 5 = 1. b (c) Equivalente de Thévenin El circuito equivalente de ruido de la red se muestra en (b).159 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS R2 a ~ + R1 + ~ V 1 V2 R2 a R3 + ~ V3 R1 R3 b + ~ v ef R eq a (a) Red Resistiva b (b) Circuito Equivalente de Ruido Fig. En este caso se dice que la carga está acoplada a la fuente. de donde ef 2 3 2 v ef = v1ef + v 2 ef + v 2ef 2 3 De la Fig. La potencia disponible es la potencia máxima que se puede entregar a una carga desde una fuente con una resistencia interna constante. se transfiere el máximo posible de potencia desde una fuente de resistencia interna R i a una carga de resistencia R L cuando R L = R i . De acuerdo con el “teorema de la máxima transferencia de potencia”. y la potencia que produce la fuente se divide por igual entre su .55x10 −6 V resultado idéntico al obtenido más arriba pero con un mínimo de cálculos. se puede aplicar la fórmula de Nyquist (2. el voltaje eficaz de ruido a la salida de la red es v ef = 4 x1. por superposición.38x10 −23 x 290x10 5 = 2 . ♣ Potencia de Ruido Disponible Algunas veces es deseable describir el ruido térmico mediante el concepto de “potencia disponible”. 2. v 1ef = 1000( kTB ) R1 + R 2 + R 3 R3 v 2 ef = V2 = 2000 ⋅ kTB . v 2 = 2000(kTB) 2ef R1 + R 2 + R 3 R1 + R 2 = 3000 ⋅ kTB . En efecto. La potencia promedio de ruido a la salida es igual a la suma de las potencias de salida contribuidas por cada fuente. La resistencia equivalente vista desde los terminales ab de salida es R eq = R 3 (R 1 + R 2 ) R1 + R 2 + R 3 = 1500 Ohm De acuerdo con (2.141).142).

Entonces. S nd (f )". En general. debido a esto. ya no tendrá una densidad espectral de amplitud constante sino que tomará la forma espectral del filtro.138) y (2.46(a). Ruido que tenga una densidad espectral de este tipo se denomina “Ruido Blanco”. mediante un ecualizador en un receptor digital). N i =< v 2 ( t ) >= ηB = 4kTRB n (2. 2.146) .145). y la otra mitad con las frecuencias negativas. si H(f) es la función de transferencia de un filtro dado al cual se le aplica ruido blanco.9.3. en condiciones de acoplamiento la fuente ve una resistencia de 2R y la densidad espectral será S n ( f ) / 2 R . la salida del filtro será ruido coloreado cuya densidad espectral será Sn c (f ) = H(f ) Sn (f ) = 2 η 2 H(f ) 2 La potencia disponible a la entrada del sistema será entonces. de (2. es decir. Por esta razón. Aunque muchas fuentes de ruido físicas se pueden modelar como fuentes de ruido blanco. S n ( f ) / 4 R . la densidad espectral del ruido blanco gaussiano se representa en la forma S n (f ) = η 2 para todo f (2. 2. pero son proporcionales al ancho de banda B. Cuanto más alto es el ancho de banda en un sistema. la potencia que se entrega a la carga es la potencia disponible. una vez que el ruido ha sido filtrado (por ejemplo.143) La potencia de ruido disponible en una resistencia ruidosa R dentro de un ancho de banda arbitrario B será entonces N= ∫ B −B S nd ( f ) df = kTB W (2. En efecto.144) Nótese que en una resistencia ruidosa R la densidad espectral disponible y la potencia promedio disponible son independientes de R. más alta será la potencia de ruido presente en el mismo. de valor promedio cero y que tienen una densidad espectral de potencia que es constante dentro de una extensa gama de frecuencias. Con referencia a la Fig. uno de los objetivos en el diseño de sistemas de comunicación es el de minimizar u optimizar el ancho de banda B. Este ruido se denomina comúnmente “ruido coloreado”.160 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS resistencia interna R i y la resistencia de carga R L .145) El factor ½ se incluye para indicar que la mitad de la potencia está asociada con las frecuencias positivas. Esta es entonces la máxima densidad espectral de potencia que se puede extraer de la fuente v ef . Ruido Blanco Además de las fuentes de ruido térmico. esta densidad se denomina “densidad espectral disponible. Las dimensiones de η son W/Hz y su valor depende del tipo de fuente de ruido y de la densidad espectral disponible. hay otros tipos de fuentes de ruido que son gaussianas. S nd ( f ) = S n (f ) 4R = kT 2 W / Hz (2. por analogía con la luz blanca la cual contiene iguales cantidades de todas las frecuencias que pertenecen al espectro visible de la radiación electromagnética. la densidad espectral correspondiente a la potencia entregada a la carga será la mitad.

La potencia de ruido blanco gaussiano representa entonces un límite superior que se utiliza como referencia en el cálculo de las Relaciones Señal/Ruido en sistemas de comunicación. Shannon ha demostrado que el ruido blanco gaussiano es el peor ruido entre todos los ruidos posibles. no importa lo cercanas que estén. Asimismo. hablaremos siempre en términos de “temperatura efectiva”. como demostraremos en el Capítulo III. en una red que contiene solamente elementos R. no están correlacionadas y por lo tanto son independientes. la función de autocorrelación del ruido blanco es R n (τ ) = η 2 δ( τ ) (2. 2. Por otro lado. la temperatura efectiva Te es igual a la temperatura ambiente T de la red.148) S n ( f ) y R n ( f ) se muestran en la Fig. será entonces N i = kTe B que sería la potencia disponible a la entrada si el sistema fuera sin ruido. En lo sucesivo. Obsérvese que la temperatura equivalente de ruido no es la temperatura ambiente del sistema. en un sentido estricto. pero sí es proporcional a ella. el ruido blanco tiene una potencia infinita y. L y C. y es la “temperatura efectiva de una fuente de ruido térmico blanco a la entrada de un sistema con ruido que se requeriría para producir la misma potencia de ruido a la salida de un sistema equivalente sin ruido”. S n (f ) η/ 2 f 0 0 R n (τ ) η/ 2 τ (a) Densidad Espectral (b) Función de Autocorrelación Fig. en efecto. lo que significa que dos valores o muestras diferentes de la señal de ruido blanco.48. puede verse también que. Características del Ruido Blanco. Del Teorema de Wiener-Kintchine. . Por otro lado.161 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS de donde η = 4kTR = kTe El término Te se conoce con el nombre de “temperatura efectiva o temperatura equivalente de ruido”del sistema.147) La temperatura equivalente de ruido especifica la potencia de ruido térmico disipada en una resistencia acoplada. y se define mediante la expresión Te = 4 RT (2. dentro de las gamas de frecuencia utilizadas en la práctica. Puede observarse que la función de autocorrelación del ruido blanco gaussiano es cero para τ ≠ 0. y que su potencia en un ancho de banda dado es también la más alta posible. el uso del concepto de ruido blanco es consistente con su definición porque la densidad espectral de potencia puede considerarse constante en esas gamas. como tal.48. 2. Las propiedades matemáticas del ruido blanco gaussiano son muy convenientes en el análisis y comportamiento de sistemas de comunicación. no existe físicamente. excepto cuando se exprese directamente la temperatura física. La potencia disponible de ruido blanco generada en el sistema dentro de un ancho de banda arbitrario B.

como se muestra en la Fig.162 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS ♣ Ejemplo 2. De particular importancia es el ruido presente en un sistema de recepción de señales moduladas. El tipo de detector depende del . < y2 ( t ) >= R no ( 0) = η 4 RC S no ( f ) y R no ( τ ) se muestran en la Fig. Esto significa que dos muestras de la señal de salida que estén separadas en más de RCln(100) segundos no estarán correlacionadas. La función de transferencia de este filtro es bien conocida. 2. Para valores de τ superiores a RCln(100). situación que es muy común en los sistemas de comunicación. 2. 2. Sno ( f ) =| H ( f )|2 Sn ( f ) = η 2 1 2( RC) ( 1 ) 2 + 4π 2 f 2 RC La correspondiente función de autocorrelación es R no (τ ) = η 4 RC exp( − j ). la función de autocorrelación cae a menos del 1% de su valor máximo y podemos despreciarla.5844 / RC. la señal que lleva la información. la densidad espectral de potencia y la potencia de ruido a la salida del filtro. se aplica ruido blanco gaussiano cuya densidad espectral de potencia es η / 2 .49(b) y (c).31 A la entrada de un filtro pasabajo RC. si se desprecian aquellas componentes con amplitudes menores del 1% del valor máximo. Fig. 2.50. Se trata de determinar la función de autocorrelación. H(f) R S no ( f ) η/ 2 Entrada x(t) S n (f ) C Salida y(t) S no ( f ) 0 f R no ( τ ) η / 4RC 0 τ (a) Filtro Pasabajo RC (b) Densidad Espectral (c) Función de Autocorrelación Fig. En la Fig. por lo tanto.49 Nótese la rapidez de caída de la función de autocorrelación. El receptor se modela mediante un filtro pasabanda de entrada seguido de un detector que extrae de la señal compuesta [ x( t ) + n( t )]. por cuanto la densidad espectral es más o menos constante dentro de la banda de paso. H (f ) = 1 1 + j2 πRCf = 1 1 RC 1 + j2 πf RC | τ| RC . También. En cuanto a la densidad espectral de potencia de la salida. 2. entonces S no ( f ) es despreciable para frecuencias f ≥ 1. respectivamente.50 el canal real se modela como un canal ideal de ancho de banda Bc ≥ 2 B más una fuente aditiva de ruido blanco que se suma a la señal modulada transmitida x( t ) .49(a). ♣ Ruido Blanco Pasabanda de Banda Angosta El modelo del ruido blanco es una aproximación razonable cuando se trata de determinar la potencia de salida de un sistema de banda angosta.

En efecto. cuya densidad espectral tiene la forma dada en la Fig. deja pasar solamente aquellas componentes dentro de su banda pasante.51 se muestran las características del Ruido Blanco Pasabanda. 2. 2. Fig. de (2. apareciendo esta señal. 2. En el dominio del tiempo.108). En estas condiciones. la forma canónica del ruido será. el ruido blanco filtrado se parece a una señal modulada en la cual la frecuencia varía alrededor de una frecuencia promedio f c . como se muestra en la Fig. n ( t ) = n c ( t ) cos( 2 πf c t ) − n s ( t ) sen(2 πf c t ) (2.163 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS sistema de modulación empleado. salvo por algún factor de escala. a la entrada del detector. 2.51.51(a). En la Fig.51(b). Como en general se cumple que f c >> B . 2. 2. el filtro pasabanda. Transmisión y Recepción de Señales Moduladas Tanto el canal real como el filtro de entrada del receptor (filtro de RF) dejan pasar la señal modulada x( t ) . el ruido a la salida del filtro comúnmente se denomina “ruido blanco pasabanda de banda angosta”. en este caso se dice que el canal y el filtro son “transparentes” para x( t ) .51(c).149) . La situación es distinta respecto al ruido. Señal Modulada Ruido Blanco Mensaje Transmisor x(t) Canal Ideal x(t) v(t) Filtro n(t) Detector Pasabanda Ruido Blanco Filtrado Salida H(f) TRANSMISOR Ancho de Banda = Bc x(t) Ancho de Banda 2B CANAL REAL RECEPTOR y centrado en fc Fig. como se puede observar en la Fig.50.

⎧ S (f + f ) + S (f − f ) ⎪ n c n c S nc (f ) = S ns ( f ) = ⎨ ⎪ 0 en el resto ⎩ < n 2 (t ) >=< n 2 ( t ) >=< n 2 ( t ) >= c s [ ] para |f| ≤ B (2.153) ∫ ∞ −∞ S n ( f )df = ∫ ∞ −∞ S nc ( f )df = ∫ ∞ −∞ S ns ( f )df (2. R n (τ ) =< n (t ) n ( t + τ ) > (2. Como se considera que el ruido pasabanda n(t) es una señal gaussiana aleatoria de valor promedio cero. 2. Las componentes ortogonales del ruido serán n c ( t ) = R(t)cos[θ(t)] y n s ( t ) = R ( t ) sen[θ(t )] (2. Estos conceptos se aplicarán para analizar el efecto del ruido en sistemas de comunicación. y de acuerdo con (2. Como n c ( t ) y n s ( t ) son señales aleatorias.51(d).149).155) Si R nc (τ ) ⇔ S nc (f ) y R ns (τ ) ⇔ S ns ( f ) .32 Consideremos la densidad espectral de ruido pasabanda mostrada en la Fig. En efecto. La forma polar de n(t) es n ( t ) = R (t ) cos[ 2πf c t + θ( t )] donde R (t ) = n 2 (t ) + n 2 (t ) c s y θ(t) = arctg n s (t ) n c (t ) (2.164 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS donde n c ( t ) y n s ( t ) son las componentes ortogonales del ruido. Se desea determinar la forma y la potencia de las componentes ortogonales del ruido.155) con ayuda de (2.125) obtenida anteriormente.150) (2. respectivamente.152) y n(t) se puede representar en forma fasorial como se muestra en la Fig.149) se obtiene la función de autocorrelación del ruido pasabanda n(t). que es la misma expresión (2. Por consiguiente.52(a) (frecuencias positivas solamente). Por definición. R n (τ ) = 1 2 [ R nc (τ ) + R ns (τ )] cos(2πf c τ ) R n ( 0) = 1 2 R nc ( 0) + 1 2 1 2 R ns ( 0) 1 2 < n 2 (t ) > s < n 2 (t ) >= < n 2 (t ) > + c Para τ = 0.151) son la envolvente y fase naturales del ruido. 2.123) y (2.154) Consideremos ahora la función de autocorrelación del ruido blanco pasabanda. expresión (2.124). ♣ Ejemplo 2. . Recuérdese que n c ( t ) y n s ( t ) son señales reales pasabajo cuyo ancho de banda (igual a B) está determinado por el ancho de banda del filtro de RF (igual a 2B). entonces n c ( t ) ⇒ S nc ( f ) y n s ( t ) ⇒ S ns ( f ) . entonces desarrollando (2. diremos sin demostrarlo que n c ( t ) y n s ( t ) serán también gaussianas de valor promedio cero e independientes entre sí.

La potencia de ruido a su salida será 2 < n 2 (t ) >= ηB N | H ( f )|max o (2. 2. en efecto.52(a). la densidad espectral S n ( f ) se puede expresar en la forma | f + fc | f + fc | f − fc | f − fc ⎤ ⎡ S n ( f ) = A⎢ exp( − ln 2 ) ⋅ Π( ) + exp( − ln 2 ) ⋅ Π( )⎥ ⎣ B B 2B 2B ⎦ De (2.52(b) para | f | ≤ B . S n (f ) A A/2 Exponenciales 2A S nc ( f ) = S ns (f ) A f f 2B 0 fc 0 -B B (a) Densidad Espectral S n ( f ) (b) Densidades Espectrales S nc ( f ) = S ns (f ) Fig.53(b).36). Las correspondientes potencias son < n 2 ( t ) >=< n 2 ( t ) >=< n 2 ( t ) >= 4A c s ∫ B exp(− ln 2 f B ) df = 2 ln 2 AB W ♣ 0 2. 2. la potencia promedio de ruido a la salida viene dada por (2. En estas condiciones.52 De acuerdo con los datos de la Fig. las correspondientes densidades espectrales S nc ( f ) o S ns ( f ) serán S nc ( f ) = S ns ( f ) = 2A exp( − ln 2 |f| B ) ⋅ Π( f 2B ) que tienen.156) . las densidades S nc ( f ) o S ns (f ) tendrán la forma mostrada en la Fig.4. es decir. 2.9.165 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS De la expresión (2.52(b). < n 2 ( t ) >= o ∫ ∞ −∞ | H ( f )|2 S n (f )df En la mayoría de los sistemas el ancho de banda es de un orden tal que nos permite suponer que el ruido a la entrada es blanco de densidad espectral constante η / 2 . 2. la forma mostrada en la Fig. 2. Ancho de Banda Equivalente del Ruido Algunas veces es conveniente definir el “ancho de banda equivalente del ruido” de un sistema pasabanda. < n 2 (t ) >= o η ∫ 2 ∞ −∞ | H (f )|2 df Consideremos ahora un sistema ideal pasabanda de ganancia de potencia | H ( f )|2 y de max ancho de banda B N . En un sistema cuya función de transferencia es H(f) y cuya densidad espectral de potencia de ruido a la entrada es S n (f ) .153).153). por inspección. Fig.

| H (f )|2 max | H ( f )|2 | H (f )|2 max Areas Iguales BN 0 f c (b) fc 0 (a) Fig. en este caso. es decir. entonces B N será.53.33 El ancho de banda equivalente del ruido a menudo se relaciona con el ancho de banda de 3 dB de un sistema. Definición del Ancho de Banda Equivalente del Ruido. Esto se ilustra en la Fig. ♣ Ejemplo 2.157) se aplican también a sistemas pasabajo. f f B N es el ancho de banda de un sistema ideal pasabanda de ganancia de potencia | H ( f )|2 max que dejará pasar la misma potencia de ruido blanco que el sistema en cuestión. |H(0)|2 = 100 ∫ ∞ −∞ | H ( f )|2 df = ∫ ∞ 10 8 + 4π f 2 2 4 −∞ 10 6 df = 5x10 4 y de (2. |H(0)|= 10.166 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Si estas potencias son iguales. el ancho de banda de ruido de un filtro ideal es el ancho de banda de un filtro real. es decir. H (f ) = 3 10 + j2 πf BN = 1 2| H (0)| 2 ∫ ∞ −∞ | H ( f )|2 df 10 4 Pero | H ( f )| = 10 + 4 π f 6 2 2 .53(a) y (b). de | H (B 3dB )| = 1 2 | H ( 0)| o |H(B 3dB )|2 = 1 2 | H ( 0)|2 = 50.156) y (2. Las expresiones (2. el “ancho de banda equivalente del ruido” y vendrá dado por BN = 1 2| H ( f )|2 max ∫ ∞ −∞ | H ( f )|2 df (2. El ancho de banda equivalente del ruido es. BN = 5x10 200 = 250 Hz El ancho de banda de 3 dB se puede obtener a partir de su definición. por definición.157) Estas definiciones se ilustran en la Fig. 2. 2.53. Consideremos el filtro pasabajo cuya función de transferencia es 10 4 .157). 2. .

etc.) para poder optimizar la relación S/N.54 en el cual el detector coherente tiene la forma dada y cuya operación ya conocemos. pueden ser relaciones entre valores eficaces. 10 8 10 6 + 4 π 2 B 2 3dB = 50. entonces x( t ) = m(t ) A c cos( 2πf c t ) donde m(t) es una señal pasabajo de banda limitada B portadora de información. los valores de B N y B 3dB se hacen cada vez más cercanos. Una relación señal/ruido se puede definir en diferentes formas. Sin embargo. Pero como el ruido es una señal aleatoria.167 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Entonces. es particularmente útil en el diseño y comparación de sistemas analógicos y digitales. hay que definir el ruido en términos cuantitativos o matemáticos. al hablar de relación señal/ruido hay que especificar qué tipo de valores se está utilizando. Este receptor nos permite recuperar o extraer un mensaje m(t) portador de información contenido en una señal modulada x( t ) . así definido. S/N”. Por ejemplo. la relación S/N es un parámetro o factor de calidad o mérito que nos permitirá la comparación del comportamiento de diferentes sistemas de comunicación. la relación S/N en un canal telefónico no debe bajar de 26 dB. ancho de banda. para conveniencia. La señal a la entrada del detector es z( t ) = x( t ) + n( t ) = m(t ) A c cos( 2πf c t ) + n( t ) . de donde B 3dB = 159 . y f c ≥ B . La relación S/N es entonces uno de los parámetros de calidad más importantes en los sistemas de comunicación. valores pico o potencia. Vamos a determinar las relaciones S/N a la entrada y salida del detector y estableceremos algunas definiciones que estaremos utilizando constantemente. Caracterización del Ruido en Sistemas Relaciones Señal/Ruido en Sistemas de Comunicación Para cuantificar el efecto del ruido sobre la inteligibilidad de un mensaje. El ingeniero de comunicaciones debe conocer perfectamente la influencia que sobre ella ejercen otros parámetros del sistema (ganancia. hay una manera de cuantificar o caracterizar el efecto del ruido en los sistemas de comunicación y esto se verifica mediante el “criterio de la relación señal/ruido. valores instantáneos. Por eso. El lector puede verificar que si se aumenta el orden del filtro. 2. mientras que para una reproducción de alta fidelidad aceptable la relación S/N debe ser de por lo menos 50 dB. estas potencias están normalizadas en base a una resistencia de 1 Ohm.15 Hz Comparando los anchos de banda. esto es. Puesto que x( t ) es una señal modulada de doble banda lateral. Como veremos en los Capítulos V y VI. vemos que para este filtro en particular el ancho de banda equivalente del ruido es un 57% más grande que el ancho de 3 dB. Relaciones Señal/Ruido en un Receptor con Detección Coherente o Sincrónica Consideremos el modelo de receptor de la Fig. la cual suponemos es de doble banda lateral.5. La caracterización más empleada para la relación señal/ruido es aquella definida como “la razón entre el valor promedio de la potencia de la señal útil respecto al valor promedio de la potencia de ruido”. El criterio de la relación S/N. ♣ 2. Este criterio de la relación S/N es el que hemos venido aplicando a todo lo largo del texto.9. distorsión. no es posible establecer una expresión algebraica que defina explícitamente una relación amplitud vs tiempo para el ruido.

S o = A 2 < m 2 ( t ) >= 2S i y c N o =< n 2 ( t ) > c Obsérvese que la potencia útil de salida S o es el doble de la potencia útil de entrada S i . de (1.113). mientras que la señal mensaje m(t) aparece completa. Receptor con Detector Coherente.159) (2.158) y (2. < x 2 ( t ) >= S i = 1 2 A 2 < m2 (t) > c (2.161).161) Solamente la componente en fase del ruido aparece en la salida. denominada “Relación Señal/Ruido de Predetección” será. La detección coherente o sincrónica elimina entonces la componente en cuadratura del ruido. z( t ) = x ( t ) + n ( t ) x( t ) + Ruido Blanco Canal Filtro de RF Si Ni v(t) Filtro Pasabajo So N o Salida y o (t ) DETECTOR COHERENTE RECEPTOR 2 cos(2 πf c t ) Fig.168 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS donde n(t) es ruido blanco pasabanda de banda angosta representado por su forma canónica n ( t ) = n c ( t ) cos( 2 πf c t ) − n s (t ) sen(2 πf c t ) y cuya densidad espectral es constante e igual a η / 2.159). la potencia de ruido a la entrada del detector es < n 2 ( t ) >= N i = 2ηB La potencia de la señal modulada será. Si Ni = 2 Ac 4ηB < m 2 (t ) > (2. Si el ancho de banda del filtro de RF es 2B.54.158) donde < m 2 (t ) > es la potencia promedio de la señal mensaje m(t). 2.160) A la salida del multiplicador se tiene v ( t ) = z( t ) ⋅ 2 cos( 2 πf c t ) = [ m( t )A c cos( 2 πf c t ) + n ( t )] ⋅ 2 cos( 2 πf c t ) v ( t ) = [ A c m( t ) + n c (t )] + [ A c m( t ) + n c ( t )] ⋅ cos( 4 πf c t ) − n s ( t ) ⋅ sen(4 πf c t ) El filtro pasabajo rechaza los términos de alta frecuencia quedando y o ( t ) = A c m( t ) + n c ( t ) (2. De (2. de (2. La relación S/N a la entrada del detector. .

Se dice entonces que las señales útiles se suman coherentemente. Si la señal útil portadora de información es pasabanda. de modo que su potencia debe ser determinada con cualquiera de los métodos vistos en el dominio del tiempo. ♣ Ejemplo 2. So No = 2 Ac 2ηB < m 2 (t ) >= 2 Si Ni (2. Esta es la causa del incremento de 3 dB en las relaciones S/N. Aunque la detección o demodulación no es nada más que un desplazamiento de las bandas laterales hacia el origen. Supongamos que el ruido a la entrada del filtro de RF no es blanco pero está caracterizado por una densidad espectral de la forma S n ( f ) = 10 −6 Λ ( f 2 x10 6 ) W / Hz . mientras que el ruido se suma como potencia. 2. la ganancia de conversión es igual a 2. La potencia de la señal útil aumenta al doble. la ganancia de conversión en el caso de detección coherente o sincrónica de señales moduladas de doble banda lateral será So / N o Si / N i =2 (2. hay que tener en cuenta que el teorema se aplica a cualquiera señal pasabajo y a señales pasabanda aleatorias.162) Ganancia de Conversión o de Detección En la práctica se suele definir la “Ganancia de Conversión o de Detección” en la forma Ganancia de Conversión o de Detección = Re lación S / N de Postdetección Re lación S / N de Predetección = So / N o Si / N i (2.158). o lo que es lo mismo. denominada “Relación Señal/Ruido de Postdetección”.164) Vemos que en el caso de detección coherente en doble banda lateral. no se le puede aplicar el teorema. mientras que el ruido se suma en forma incoherente. las componentes de la señal mensaje se suman como amplitudes. será So No 2 = Ac < m 2 (t ) > 2 < n c (t ) > 2 < n c (t ) >=< n 2 (t ) >= 2ηB. entonces pero de (2.34 Sea el receptor mostrado en la Fig. la relación S/N de la salida es el doble que la de la entrada. Sin embargo.163) La ganancia de conversión se utiliza como una cifra de mérito en la comparación entre diferentes sistemas de modulación. lo que hace que las componentes que no estén en fase se pierdan.169 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS La relación S/N a la salida del detector. En los Capítulos V y VI utilizaremos estos conceptos para caracterizar el comportamiento en presencia de ruido de diferentes sistemas de modulación prácticos. En el cálculo de las relaciones S/N se puede aplicar el teorema de la modulación para señales de potencia cuando las señales en juego están caracterizadas por sus densidades espectrales de potencia.54. mientras que la potencia de ruido se mantiene igual.162). De (2.154) y (2.

de modo que a la entrada del detector la señal útil seguirá siendo x( t ) . Cálculo de la potencia de la señal útil Los filtros son transparentes para x( t ) .98 dBm = 2S i Nótese que la potencia útil de salida es el doble de la potencia útil de entrada. sea x( t ) = 10 cos(104 πt ) ⋅ cos( 2πx106 t ) El filtro de RF tiene una ganancia unitaria. ancho de banda de 10 kHz y está centrado en la frecuencia f c = 1 MHz . de la Fig. x i ( t ) = x( t ) = 10 cos(104 πt ) ⋅ cos( 2πx106 t ) = 5 cos[ 2π (106 + 5x103 ) t ] + 5 cos[ 2π (106 − 5x103 ) t ] cuya potencia es Si = 25 2 + 25 2 = 25 W = 43.98 dBm A la salida del multiplicador la señal útil es v( t ) = x( t ) ⋅ 2 cos( 2πx106 t ) = 20 cos(104 πt ) ⋅ cos2 ( 2πx106 t ) v (t ) = 10 cos(10 4 πt ) + 10 cos(10 4 πt ) ⋅ cos(4πx10 6 t ) El filtro pasabajo elimina los términos de alta frecuencia. El filtro pasabajo de salida tiene también ganancia unitaria y un ancho de banda de 5 kHz. 2. es decir. N i = 10x10 3 x10 −6 = 10 −2 W = 10 dBm Aplicando el teorema de la modulación para señales de potencia.170 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Igualmente. 2. se obtiene el espectro mostrado en la Fig.55(b). La potencia correspondiente será N o = 10x10 3 x10 −6 = 10 −2 W = N i . Cálculo de la potencia de ruido A la salida del filtro de RF la densidad espectral de potencia del ruido tiene la forma dada en la Fig. cuya porción alrededor del origen es S no ( f ) . La correspondiente potencia de ruido a la entrada del detector será.55(a).55(a). quedando a la salida y o ( t ) = 10 cos(104 πt ) So = 100 2 cuya potencia es = 50 W = 46. 2.

F= No N io para T = To = 290 kelvins (2. Este ruido de salida se puede considerar como la suma del ruido generado en el propio sistema más el ruido de entrada al mismo. por ejemplo. 2. La cifra de ruido F de un sistema se define entonces como ”la razón entre la potencia promedio total de ruido N o a la salida de un sistema. esta distorsión es causada. primero por las características de amplitud y fase del sistema. La cifra de ruido es también otro factor de calidad o de mérito en la comparación entre.55. Como ya lo hemos señalado. 10kHz MHz Nótese que las potencias de ruido de entrada y salida del detector son iguales. Por lo tanto. amplificadores de señales de muy bajo nivel. Las relaciones S/N en juego serán Si Ni 25 10 −2 = = 2500 y So No = 50 10−2 = 5000 =2 La ganancia de conversión será So / N o Si / N i Se confirma que la ganancia de conversión en la detección coherente de una señal modulada de banda lateral doble es igual a 2.166) . este ruido compuesto deteriora la relación S/N a la salida comparada con la relación S/N a la entrada. de donde F= N io + N so N io = 1+ N so N io (2.171 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS S ni ( f ) 10 −6 10 −6 /2 f S no ( f ) 10 −6 f -2 -1 0 1 (b) 2 -2 -1 (a) 0 1 2 MHz 10kHz Fig. respecto a la potencia promedio de ruido N io debida al ruido de entrada del sistema y determinadas a la temperatura normalizada de referencia To = 290 kelvins ”.165) Si N so es la potencia de ruido presente en la salida y generada en el mismo sistema y N io la correspondiente debida al ruido de entrada. entonces N o = N io + N so . Por supuesto. y segundo por el ruido introducido durante el proceso. ♣ Cifra de Ruido Durante el procesamiento y recuperación de una señal a través de un sistema lineal invariante en el tiempo sucede que la señal a la salida del sistema aparece con un cierto grado de distorsión. Esta situación se puede cuantificar mediante la llamada “Cifra o Factor de Ruido del Sistema. F”.

163) y (2. dado su parecido. Esta contribución está incluida en N so .172 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Nótese que la impedancia de carga también contribuye al ruido en la salida.171) (2. La cifra de ruido se puede expresar en función de las relaciones S/N de entrada y salida del sistema.172). de (2. de (2.173) Ti es la temperatura neta de entrada y representa la temperatura total efectiva de entrada.167) N io = N i G p Reemplazando (2. De la definición de la cifra de ruido es evidente que F será siempre mayor que la unidad. respectivamente.168) en (2. Si representamos este ruido mediante su temperatura equivalente referida a la entrada.163).169) Hay que tener cuidado de no confundir. Asimismo. N i = kTs B También So Si So = Si G p. cuanto más cercana a la unidad sea la cifra de ruido. sea S i y S o las potencias útiles a la entrada y salida del sistema. So = SiG p donde G p es la ganancia de potencia del sistema.148).169) es un número o cifra de mérito que se aplica a sistemas lineales invariantes en el tiempo (filtros. siendo B el ancho de banda del sistema.169). las expresiones (2.) para cuantificar el ruido interno generado.165) y con ayuda de (2. amplificadores. por ejemplo).168) (2. tendremos que N o = kTs BG p + kTe BG p = G p k ( Ts + Te ) B = G p kTi B donde Ti = Ts + Te (2. que es la ganancia de conversión. . ella se puede despreciar.172) (2. obtenemos finalmente F= Si / N i So / N o (2. se aplica a sistemas lineales variantes en el tiempo (moduladores y detectores. Desde el punto de vista del ruido.170) = Gp En el sistema se genera una cierta cantidad de ruido térmico. la cifra de ruido puede simplificarse aún más. Cuando en el sistema existe solamente ruido térmico. Es evidente que la cifra de ruido F de un sistema es una medida relativa del ruido generado internamente en el sistema respecto al ruido de entrada al mismo. mejor será el sistema. En efecto. mientras que la relación (2. Supongamos que se aplica al sistema una señal útil s(t) más un ruido térmico n(t) a una temperatura efectiva Ts .167). de donde (2. Sin embargo. el ruido generado internamente es menor. es decir. (2. Entonces. Entonces. etc. como generalmente es muy pequeña comparada con el ruido de los elementos activos del sistema. pues la relación (2. La potencia de ruido disponible a la entrada es.

al efectuar cálculos en los que interviene la cifra de ruido de un sistema.031 dB.174) y referida a la temperatura de referencia Ts = To = 290 kelvins. y la temperatura efectiva Te del sistema puede calcularse entonces a partir de (2. se considera que esta cifra de ruido está referida a To . calculado a partir de la cifra de ruido. mientras que la parte de la cifra de ruido de un sistema producida por el ruido interno es (F-1). de donde ) (2.170). pero la cifra de ruido del sistema debe calcularse siempre referida a la temperatura de referencia To y a la temperatura efectiva Te del sistema.175) La temperatura equivalente o efectiva será entonces Te = (F − 1)To (2. y de (2.176). El valor de la temperatura Te . ♣ Ejemplo 2.169). Ts = 2900 kelvins. N o = G p (1 + No Ni Te Ts Te Ts )N i . En su deducción hemos utilizado la temperatura física Ts de la fuente. la cual puede ser muy diferente de To . expresión (2. To = 290 kelvins . Se tiene entonces. (2. una antena y su correspondiente línea de transmisión. (2.35 Un amplificador tiene una cifra de ruido de 9. Vamos a determinar la temperatura efectiva del ruido y la potencia disponible a la salida cuando el amplificador está acoplado a una resistencia de entrada cuya temperatura efectiva es de 2900 kelvins. estará referido entonces a la temperatura de referencia To = 290 kelvins . G p = 40 dB = 10 4 .171). sus efectos a menudo se incluyen en una temperatura Te obtenida experimentalmente.174) = G p (1 + De (2. por ejemplo. una ganancia de potencia de 40 dB y un ancho de banda equivalente de ruido de 10 kHz. La resistencia de entrada puede representar. Hay que tener cuidado al utilizar las ecuaciones (2.176) Estos resultados son bien sencillos y fáciles de aplicar. la cifra de ruido será F = 1+ Te To (2.173 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS N o = G p (1 + Te Ts ) kTs B . En resumen.175).301 dB = 8.175) y (2. pues aunque no todas las fuentes de ruido son térmicas.176).176). La relaciones S/N y las cifras de ruido F se expresan comúnmente en dB en la forma S ⎡S⎤ ⎢ N ⎥ = 10 log 10 ( N ) ⎣ ⎦ dB y [ F] dB = 10 log 10 (F) Obsérvese que la cifra de ruido de un sistema ideal sin ruido es igual a la unidad. expresión (2. F = 9.

Gp Te F En la Fig.170). G p es la ganancia total de potencia. 2.56 se tiene n amplificadores en cascada y se desea determinar la temperatura y la cifra de ruido del sistema compuesto. pero se pueden extender para sistemas en cascada.178b) G p = G p1G p 2 G p 3 Te es la temperatura efectiva de ruido. Amplificadores en Cascada. N i = kTs B También. la temperatura efectiva del ruido de entrada es Ts . N 1 = G p1 N i + G p1 kTe1 B ==> Potencia total de ruido a la salida de A1 “ “ “ “ “ “ “ “ “ “ “ “ A2 “ A3 N 2 = G p 2 N 1 + G p 2 kTe 2 B ==> N 3 = N o = G p 3 N 2 + G p 3 kTe 3 B ==> “ “ “ Reemplazando N 1 y N 2 en N 3 = N o . Te = (F − 1)To = (8 − 1)290 = 2030 kelvins N o = G p k (Ts + Te )B = 10 4 x1. referida a la entrada.176) han sido deducidas para un sistema individual. de (2.172). Ni Nn = No A Ts A1 N1 A2 N2 Carga Acoplada Ts Ni No A Carga Acoplada G p1 Te1 F1 G p2 Te2 F2 G pn Ten Fn Fig.175) y (2. .174 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS De (2. de (2.38x10 −23 (2900 + 2030)x10 4 = 6. 2. cada una de las cuales tiene su propia temperatura y cifra de ruido. como se muestra en la Fig.176).56. Para no hacer tediosa la demostración.67 dBµ (dB respecto a un µW) ♣ Cifra de Ruido en Sistemas en Cascada Las expresiones (2. De (2.177) + Te 3 G p1G p 2 (2.172). Se supone que los amplificadores están acoplados y que su ancho de banda efectivo es B. 2.8x10 −12 W N o = −51. vamos a considerar solamente tres amplificadores. La potencia de ruido a la entrada es.56. se obtiene finalmente ⎡ T Te 3 ⎤ N o = G p1G p 2G p 3k ⎢Ts + Te1 + e 2 + ⎥ B = G p k[Ts + Te ]B G p1 G p1G p 2 ⎥ ⎢ ⎣ ⎦ donde y Te = Te1 + Te 2 G p1 (2.178a) (2. del amplificador compuesto. como es el caso de un amplificador de varias etapas.

A este efecto podemos definir una red que cumpla con los siguientes requisitos: (a) que sus impedancias (de entrada y salida) estén acopladas.178)... La manera más conveniente para representar las pérdidas en una red acoplada pasiva es mediante el “factor de pérdidas de inserción o factor de atenuación.. L”.. G p ( n −1) (2. es decir.180) la llamada “Fórmula de Friis”. Por ejemplo. (F − 1) To = ( F1 − 1)To + de donde F = F1 + F2 − 1 G p1 ( F2 − 1)To G p1 + (F3 − 1)To G p1G p 2 (2..179) + F3 − 1 G p1G p 2 Estos resultados se pueden extender para n etapas..176) en (2.. es decir.181) (2.183) . En efecto. Una buena práctica en el diseño de amplificadores en cascada es la de diseñar la primera etapa con el mínimo valor de Te (o F) y la máxima ganancia de potencia posibles... una línea de transmisión entre una antena y su receptor es una red acoplada pasiva que introduce pérdidas de potencia e influye en la cifra de ruido total del sistema. el cual se define como “la razón entre la potencia disponible a la entrada de la red respecto a la potencia disponible a la salida”. Esto significa que en amplificadores en cascada la primera etapa es la que más contribuye tanto a la temperatura Te como a la cifra de ruido totales. Siguiendo el mismo procedimiento efectuado para tres etapas. reemplazando (2.182) G p = G p1 ⋅ G p 2 ⋅ G p 3 ⋅ ⋅ ⋅ ⋅ ⋅ G pn Nótese que los términos individuales de las sumas se hacen cada vez más pequeños (suponiendo que las ganancias de potencia son mayores que la unidad) a medida que aumenta el número de etapas..175 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Se puede determinar ahora la cifra de ruido del amplificador compuesto. (b) que solamente contenga elementos pasivos y resistivos (la única fuente de energía en la red es la producida por efectos térmicos). L= Pdi Pdo . F = F1 + y F2 − 1 G p1 + +... Cifra de Ruido en Redes Atenuadoras La cifra de ruido se puede aplicar también para caracterizar los efectos de elementos atenuadores sobre el ruido total de un sistema.. Los ejemplos más comunes de redes acopladas pasivas son las líneas de transmisión (en RF) y los atenuadores acoplados.. que su ganancia de potencia sea menor que la unidad..... en general L>1 (2... G p ( n−1) Fn − 1 G p1 G p 2 G p 3 ... y (c) que parte de la potencia de entrada sea absorbida en la red. podemos demostrar que Te = Te1 + Te 2 G p1 + Te 3 G p1G p 2 F3 − 1 G p1 G p 2 +... Una red que satisfaga estas condiciones se denomina “Red Acoplada Pasiva”.+ (2.+ Ten G p1G p 2 G p 3 ...

188) indican que una red acoplada pasiva se puede tratar en la misma forma que un amplificador mediante la definición de su temperatura efectiva TeL .190) (2.176) en (2. FL = 1 + ( L − 1) Tp To (2. una antena cuya temperatura efectiva es el resultado de diferentes contribuciones.185) en (2. Entonces.184) donde α 1 y α 2 son factores de ponderación relativos de las dos potencias disponibles definidas en (2.57. En efecto.184).57. Esto significa que cuanto mayor es la atenuación. Nótese que TeL aumenta linealmente en función de L. 2. por supuesto.148).176 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Consideremos la red acoplada pasiva mostrada en la Fig. 1980] que α 1 + α 2 = 1.178).188) k ( Ts + TeL ) B = G pL k ( Ts + TeL ) B 1 L y TeL = ( L − 1) Tp G pL = Las expresiones (2.191) .187) y (2. la cifra de ruido de la red acoplada pasiva se obtiene reemplazando (2. se puede decir que α1 = 1 L y α 2 = (1 − 1 L ) (2. No = No = donde kTs B L 1 L + (1 − 1 L ) kTp B = 1 L k Ts + ( L − 1)Tp B [ ] (2. mayor será la cifra de ruido. de (2.186) (2.189) En el caso especial cuando Tp = To . Ni N o = α 1 kTs B + α 2 kTp B (2. de acuerdo con la definición del factor de atenuación L. 2. La potencia de ruido a la salida se puede escribir en la forma [Schwartz. La potencia de ruido disponible a la entrada de la red es. Aplicando principios de la termodinámica se ha demostrado [Schwartz.184). la cifra y temperatura de ruido se reducen a FL = L TeL = ( L − 1) To (2.185) Reemplazando (2. N i = kTs B donde B es el ancho de banda efectivo del sistema. por ejemplo. Tp es la temperatura física de la red acoplada pasiva. mayor será la temperatura efectiva de ruido de la red acoplada pasiva y. El ruido de entrada se caracteriza por su temperatura efectiva Ts y puede representar. 1980] Ts Red No Carga Acoplada Acoplada Pasiva Tp Fig.187) (2.

Vamos a determinar las relaciones S/N de predetección en ambas configuraciones. Consideremos un atenuador (que puede ser una línea de transmisión) cuya pérdida de inserción es L. por lo tanto. ♣ Ejemplo 2. donde α es la constante de atenuación en nepers por unidad de longitud y x la longitud de la línea. F = FL + Fa − 1 G pL .190) y (2.192) F = Fa ⋅ L Este resultado demuestra la gran deterioración en la cifra de ruido total. Estos valores los dan los fabricantes en sus respectivos catálogos. La cifra de ruido total F de la combinación atenuador-amplificador viene dada por (2. peor será el valor de la cifra de ruido total.36. las pérdidas típicas de un cable coaxial de 75 Ohm.177 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Cuando en una línea de transmisión no se conoce exactamente su temperatura física Tp . 2. son: 1 dB a 25 MHz. entonces (2.58. Las especificaciones generales del sistema son: Frecuencia de trabajo fc: Ancho de banda efectivo B: Temperatura efectiva de ruido en la antena Ta : Potencia de la señal útil recibida en antena. pues L es un parámetro que se puede determinar fácilmente a partir de las características técnicas o especificaciones de la línea de transmisión. Sa: Cable coaxial de 75 Ohm. Por ejemplo. las expresiones (2. Tp no es muy distinta de la temperatura de referencia To = 290 kelvins. Cuanto más alto es el factor de atenuación L. en general. y puesto que. en la teoría de las líneas de transmisión se suele expresar la atenuación L en la forma L = exp(2αx). 8 dB a 900 MHz y 10 dB a 1200 MHz. Antena Antena Amplificador A1 Coaxial Coaxial Amplificador A1 Si Amplificador Al N i Detector A2 Si Amplificador Al A2 Detector N i Fig.191) permiten aproximar los valores de la cifra de ruido y temperatura de ruido. FL = exp(2αx) y TeL = [exp(2αx) − 1]To . En efecto. En el Ejemplo 2. Consideremos las dos configuraciones de un sistema de recepción mostradas en la Fig. (a) Configuración A (b) Configuración B Estos dos montajes son muy utilizados en la práctica. 4 dB a 300 MHz. 2 dB a 85 MHz.36 se muestran dos casos de considerable interés práctico (Sugerimos al lector estudiar este ejemplo con mucha atención). Un caso muy frecuente en la práctica es la conexión en cascada de una red atenuadora seguida de un amplificador.181). pero como FL = L y G pL = 1 L . longitud 900 MHz 2 MHz 100 kelvins 10-9 W 60 metros .58. expresadas en dB por cada 30 metros. seguido de un amplificador con una cifra de ruido Fa . 2.

G p1 310 kelvins 50 dB 200 kelvins 40 dB 6 dB Temperatura efectiva de ruido del amplificador A1. F1 = 1 + Te1 200 = 1+ = 1.45 kelvins F = 1+ Te 19993.38x10 −23 (100 + 19993. L = 16 dB = 39. De (2.28 dB (b) Cálculos para el Amplificador A1 G p1 = 50 dB = 10 5 .56 dBm y la potencia de la señal.981.69 = 2. F2 : (a) Cálculos para la línea de transmisión El cable coaxial de 75 Ohm y 60 m de longitud a 900 MHz tiene una pérdida de inserción de 16 dB. G pL = 1 L = 2. Te1 = 200 kelvins.512 x10 2.188). Te2 = (F2 − 1)To = (3.178 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Temperatura física de la línea de transmisión.811.512 x10 7 x1.512 x10 −2 TeL = (L − 1)Tp = (39.32 kelvins F L = 1 + ( L − 1) Tp To = 1 + (39.778 dB To 290 (c) Cálculos para el Amplificador A2 G p 2 = 40 dB = 10 4 .45 = 1+ = 69.512x10 -2 W = 14 dBm La relación de predetección S i / N i para la Configuración A será entonces .81 − 1) 310 290 = 42.811 − 1)310 = 12031. Tp : Ganancia de potencia del amplificador A1.512 x10 −2 x105 Te = 19993.189).981 − 1)290 = 864.32 + + −2 G pL G pL G p1 2.94 = 18. Te1: Ganancia de potencia del amplificador A2. G p2 : Cifra de ruido del amplificador A2. De donde De (2. Entonces. S i = G p ⋅ S a = 2. F2 = 6 dB = 3.447 dB To 290 La potencia de ruido a la entrada del detector (salida de A1) será N i = G p k (Ta + Te ) B = 2.51 kelvins (d) Cálculo de la relación de predetección S i / N i para la Configuración A Te = TeL + Te1 Te2 200 864.393x10 −5 W = −18.512 x10 7 x10 −9 = 2.45)2 x10 6 N i = 1.51 + = 12031.487 = 16.

3. se coloca un preamplificador de muy bajo ruido (low noise amplifier. N i 1.32 864.81 dB ⎣ N i ⎦ dB Puede observarse que esta relación de predetección es 18. como veremos en los Capítulos V y VI.46 = 1+ = 1.179 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Si 2.083x10 −7 W S i = 2. Ni ⎡ Si ⎤ ⎢ ⎥ = 50.252 dB más alta que la relación de predetección de la Configuración A. se utiliza a menudo la denominada “Medida del Ruido.69 = 2.51 + = 200 + + 5 5 G p1 G p1G pL 10 10 x2. . La condición M > 0 implica que G p > 1.512 x10 −2 Te = 200. Es evidente que la Configuración B es preferible a la Configuración A.38x10 −23 (100 + 200. La medida del ruido de un sistema se define en la forma M= F−1 1 1− Gp con M > 0 (2. en aplicaciones en que las señales recibidas son de muy bajo nivel. aunque no siempre es práctica la instalación de un preamplificador acoplado directamente a la antena. lo que significa que la medida del ruido M no se aplica en redes atenuadoras. La relación de postdetección S o / N o dependerá del tipo de modulación empleado en el sistema. LNA) directamente acoplado a la antena.46)2 x10 6 N i = 2.193) donde F es la cifra de ruido del sistema y G p su correspondiente ganancia de potencia. como es el caso en comunicaciones vía satélite y en radioastronomía. generalmente parabólica.512 x10 −2 W La relación de predetección S i / N i para la Configuración B será Si = 120588. sobre todo de los países europeos. Sin embargo.282 dB To 290 N i = 2.393x10 −5 ⎡ Si ⎤ ⎢ ⎥ = 32.512 x10 −2 = = 1803.512 x10 7 x1. M” para caracterizar el efecto del ruido en un sistema lineal invariante en el tiempo.46 kelvins F = 1+ Te 200. ♣ Medida del Ruido En la literatura técnica.561 dB ⎣ N i ⎦ dB (e) Cálculo de la relación de predetección S i / N i para la Configuración B Te = Te1 + TeL Te2 12031. para mejorar la relación S i / N i a la entrada del detector.

181) hacemos F1 = F2 =....166). Finalmente...181).193). se tiene que 1 + 1 Gp + Fa G2 p − Fa G3 p G2 p − 1 G3 p +. ♣ Ejemplo 2.. si G p >> 1. expresión (2. (2... si comparamos (2.. cifras de ruido F1 y F2 .194) permite determinar la cifra de ruido total F mucho más rápido que si se utilizara la expresión (2. la expresión (2. de donde F1 − 1 1 − 1 / G p1 < F2 − 1 1 − 1 / G p2 . que F12 < F21 . entonces M ≈ Fa − 1.. si G p es lo suficientemente grande. respectivamente.194) Cuando la cantidad de etapas es grande. las etapas atenúan y la medida del ruido M no tiene sentido.37 Se puede demostrar otra propiedad muy interesante de la medida del ruido M si se consideran dos amplificadores diferentes que hay que conectar en cascada y cuyas medidas de ruido son M 1 y M 2 .193). es decir.... Si G p < 1. es decir. después A1). y que la relación N so / N io se puede cuantificar mediante la expresión (2. y ganancias de potencia G p1 y G p2 . F2 − 1 F1 − 1 F12 = F1 + < F21 = F2 + G p1 G p2 Restando la unidad a cada miembro de la desigualdad y rearreglando. Sea F12 la cifra de ruido de la cascada A1-A2 (primero A1.. De (2. lo que equivale a decir que M es una medida relativa del ruido generado internamente en el sistema respecto al ruido de entrada al mismo.. = G pn = G p . en consecuencia.181).. se obtiene ( F1 − 1) ⋅ (1 − 1 / G p 2 ) < ( F2 − 1) ⋅ (1 − 1 / G p1 ) ... después A2).. y de la definición de la medida del ruido.. Se desea saber la relación entre las temperaturas efectivas y ganancias de potencia de los amplificadores A1 y A2. Si G p > 1 pero cercano a la unidad..180 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS El significado físico de la medida del ruido se comprende mejor si consideramos una cascada de n amplificadores idénticos. si en (2.+ G n −1 p Fa − 1 G n −1 p Agrupando términos ⎡ 1 1 1 1 ⎤ ⎢1 + F = 1 + (Fa − 1) + + +. vemos que M = N so / N io . = Fn = Fa y F = Fa + Fa Gp − G p1 = G p 2 =. Aún más.. en cuyo caso no se necesita la medida del ruido M puesto que F ≈ Fa .... . la medida del ruido es bastante alta y F ≈ M ..... El diseño requiere que la cifra de ruido de la cascada A1-A2 sea menor que la cifra de ruido de la cascada A2-A1.194) con (2. Por ejemplo..+ n −1 ⎥ ⎢ Gp G2 G3 Gp ⎥ p p ⎣ ⎦ La secuencia dentro de los corchetes es igual a F = 1+ Fa − 1 1− 1/ Gp = 1+ M 1 1− 1/ Gp . y F21 la cascada A2-A1 (primero A2.

su temperatura efectiva de ruido Te o su medida del ruido M. pero que es suficiente para comprender los conceptos que se estudiarán en el resto del texto. En este caso se diseñará la cascada A1-A2 en la cual debe cumplirse que Te1 < Te2 y G p1 > G p2 ♣ En resumen. el ruido en un sistema se puede caracterizar mediante sus relaciones S/N. generalmente gaussiana. de sus propiedades y teoremas derivados (Parseval. Temperatura Efectiva de Ruido. el ruido se ha caracterizado como relación Señal/Ruido. etc. RESUMEN El objetivo principal de este capítulo es la representación de sistemas en los dominios tiempo-frecuencia con énfasis en sus aplicaciones en el área de las comunicaciones. Wiener-Kintchine. a partir del Análisis de Fourier. El análisis espectral de sistemas es esencial para comprender muchos fenómenos no perceptibles en el dominio del tiempo. La tendencia actual en esta aplicación es la de utilizar cada vez más la temperatura de ruido para caracterizar el ruido. En particular. Con el fin de poderlo analizar. el desarrollo de modelos matemáticos que representen los sistemas físicos para emprender el análisis de las interrelaciones señales-sistemas. Esto nos permite. como es el caso de amplificadores paramétricos y dispositivos similares. el Capítulo II es ejemplo de la cantidad de herramientas matemáticas y conceptuales necesarias para un estudio más avanzado de la Teoría de la Comunicación. por lo tanto. y los efectos de las interacciones señalessistemas. en detrimento de la cifra de ruido F o la medida de ruido M. Raleigh. la temperatura de ruido se utiliza ampliamente para caracterizar el ruido en sistemas que trabajan con señales de muy bajo nivel. su cifra de ruido F. conceptos que nos permiten analizar y cuantificar sus efectos en la transmisión y recepción de señales. establecer el concepto de sistema y definir la respuesta impulsional y la función de transferencia de un sistema lineal invariante en el tiempo. al ruido lo hemos representado como una señal aleatoria.10.181 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS M1 < M 2 De manera que F12 < F21 implica que M 1 < M 2 . Cifra de Ruido y Medida del Ruido. Un aspecto de considerable importancia en el campo de las telecomunicaciones es el ruido.). Este análisis lo enfocamos desde el punto de vista de las Series y Transformadas de Fourier. Las relaciones S/N son de aplicación general. que nos proveen de las herramientas analíticas necesarias para emprender el estudio de sistemas en el dominio de la frecuencia. lo cual significa que la menor cifra de ruido de la combinación se obtiene cuando el amplificador con la menor cifra de ruido se coloca de primero. Igual que el Capítulo I. Es necesario. 2. . y expresado mediante su ecuación canónica o su densidad espectral de potencia. Para su aplicación en el análisis de sistemas.

2. 2.59. entonces y( t ) = At exp(− t )u ( t ) (g) Si x ( t ) = n =−∞ ∑ AΛ ( tT−/nT ) . 2. 2. Demuestre que el sistema caracterizado mediante la ecuación diferencial y (t ) = t 2 d2 dt 2 x (t ) + t d dt x ( t ) . Para este sistema demuestre que: 1 1+ j2 πf b) Si x(t) es una señal periódica como la de la Fig.182 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS PROBLEMAS DE APLICACION 2. La entrada x(t) y la salida y(t) de un SLIT están relacionadas mediante la ecuación íntegrodiferencial y(t ) = ∫ ∞ −∞ y (τ ) x ( t − τ ) dτ + d dt u(t ) . La relación entrada-salida de un SLIT se puede representar mediante la ecuación diferencial x(t ) = (a) d dt y ( t ) + y ( t ) . entonces y ( t ) = A exp[ − ( t − t o )]u ( t − t o ) t t A y( t ) = 2A senh( ) ⋅ exp(− ) ⋅ u ( t ) + 2 2 2 (e) Si x ( t ) = A cos( 2πt ) . 2 ∑ ∞ entonces ⎧ ∞ 2A exp[ j( 2πnf t ) − arc tg(2πnf t )] o o ⎪ para n impar 2 2 2 y( t ) = ⎨ n =−∞ n π 1 + ( 2πnf o ) ⎪ para n par ⎩0 2.1. entonces (d) Si x ( t ) = Au ( t ) . es un sistema lineal variante en el tiempo.59 (c) Si x ( t ) = Aδ(t − t o ) . entonces y(t ) = A 1 + 4π 2 [ cos(2 πt ) + 2π sen(2πt )] (f) Si x ( t ) = A exp( − t ) u ( t ) . | Yn | y φ yn tendrán los valores dados.3. 1 x(t) h ( t ) = exp( − t ) u (t ) ⇔ H(f) = | Yn | = 1 2 2 nπ 1 + n 2 π 2 -2 -1 0 _ 1 t ⎡π ⎤ φ yn = −⎢ + arc tg(nπ ) ⎥ ⎣2 ⎦ Fig.

7. entonces y(t ) = 3 y(t ) = 10 3 +2 41 25 cos(4 t − 14. La entrada x(t) y la salida y(t) de un SLIT vienen dadas por x ( t ) = exp[− ( t − π )]u ( t − π ). Demuestre que (a) Su función de transferencia es H ( f ) = (b) Si x ( t ) = exp(t ) u ( − t ) . 2.5. demuestre que y ( t ) = exp( − t )u (t ) + δ(t ) y que la respuesta impulsional del SLIT es h( t ) = exp( − t ) u( t ) + 3δ( t ) + δ' ( t ).6. entonces (c) Si x ( t ) = 4 cos2 ( 2 t ) .88 o ) 2. 2. entonces j2 πf − 1 j2 πf (1 + jπf ) n =−∞ ∑Λ( ∞ t − 2 nTo To ) y ( t ) = [exp(−2 t ) − 1]u ( t ) 5 + j2 πf 3 + j2 πf 29 13 cos(2 t − 11.60. con τo < To y(t ) = x(t ) ⋅ 2.47 o ) t 2 t 2 (d) Si x ( t ) = Π ( ) . Demuestre: (a) Que éste es un sistema lineal variante en el tiempo. Demuestre que (a) Su función de transferencia es H ( f ) = (b) Si x ( t ) = 3 cos( 2 t ) . respectivamente h ( t . Sea el sistema mostrado en la Fig. y(t) ⇔ Y(f) = exp(-j4 π 2 f ) 1 − ( 2 πf ) 2 + j4 πf Demuestre que la respuesta impulsional del SLIT es h( t ) = x( t ) 2. donde δ' ( t ) es un doblete. entonces y( t ) = [1 − exp[−3( t + 1)]]Π ( ) − [1 − exp[−3( t − 1)]]u ( t − 1) 3 2 3 2 . (b) Que su respuesta impulsional y salida son. τ) = Λ ( τo ) δ ( t − τ) To Fig.183 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS Si x ( t ) = exp(−2 t ) u ( t ) . El cursor oscila a una velocidad constante entre los puntos A y B. La respuesta impulsional de un SLIT es h ( t ) = [ 3 exp( −2 t ) − 1] u ( t ) .60 x(t) R = 1 Ohm B A h(t) y(t) para τ = 2nTo ± τo . y viceversa. siendo To el tiempo de ir de A a B. La respuesta impulsional de un SLIT es h (t ) = δ(t ) + 2 exp(−3t )u (t ) . 2.4.

⎣ 1 + j2 πf ⎦ Demuestre que la respuesta del SLIT cuando se le aplica la excitación x ( t ) = 5u ( t − 2 ) es y (t ) = 50 exp[− (t − 4 )] ⋅ u (t − 4 ) 2. |L – R| > 0 L−R R v(t) i(t) L Fig.184 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS ⎡ 1 ⎤ 2. Demuestre que la corriente es exp( − i (t ) = R t ) − exp(− t ) L u ( t ) .50) . Demuestre que en una red de transmisión sin distorsión el retardo de fase y el retardo de envolvente son iguales cuando β(0) = 0.10.61 2. (e) x ( t ) = 10Π( t −1 4 h(t) = 5 n=-∞ ∑δ(t . (b) Demuestre que el retardo de fase y el retardo de grupo son.13. t -5 10 ).12.61 y v( t ) = exp( − t ) u ( t ) . mediante convolución puramente analítica. (d) x ( t ) = 10u (t ). 2. h(t) = -2δ(t + 30) + 4δ(t . Dibuje el espectro de las siguientes señales: (a) x s (t ) = 10sinc ( 2 t 2T )⋅ n =−∞ ∑δ(t − nT) ∞ ∞ ⎡ n ⎤ ⎢ 2sinc ( 2 t ) ⋅ (b) x s (t ) = δ( t − )⎥ ∗ 4 Π(4t) 3 ⎥ ⎢ ⎣ ⎦ n =−∞ ∑ 2. (a) x ( t ) = 5Π( t −5 10 ).t)Π( ). respectivamente. (c) x ( t ) = 10u ( t ).4n) . En la Fig. ). 2. t . La función de transferencia de un SLIT es H ( f ) = 10⎢1 − ⎥ ⋅ exp( − j4 πf ) .10 20 ). h(t) = 10Π( y ( t ) = 50(20t − t 2 )Π( y ( t ) = 400Λ ( t−4 4 ) t-3 4 2. y verifique la respuesta mediante convolución gráfica. 2.9. Sea el circuito de la Fig.62 se muestra las características de amplitud y fase de una red dada. ∞ y ( t ) = 50 n =−∞ ∑ Λ (t − 4n) t − 10 20 ) + 2000u ( t − 20) t−5 10 ) + 5000u ( t − 10) ∞ h(t) = 10Π( y ( t ) = 100tΠ( h(t) = 10(10 . y( t ) = −10Π ( t + 25 t − 55 ) + 20Π ( ) 10 10 (b) x ( t ) = 10Λ (t ). la salida y(t) para los x(t) y h(t) dados. Demuestre.8.11. (a) Demuestre que esta red produce un término de distorsión de fase. ¿ Qué sucede cuando β( 0) ≠ 0 ? 2. . Suponga que la corriente i(0-) = 0.

185 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS t p (f ) = 1 60 + 1 6f . 63.62 (c) Grafique t p (f ) y explique el comportamiento de la red cuando la frecuencia varía desde f = 0 hasta f → ∞.64 se muestra las características de amplitud y fase de un filtro dado. β( f ) 4 -10 f -20 -10 0 10 Hz 20 0 |H(f)| 2 π/2 10 f Hz −π / 2 (b) (a) Fig. 2.15. β( f ) |H(f)| 2 -10 f -1 0 1 π/2 10 MHz f (a) MHz −π / 2 (b) Fig. 2.64 (a) x ( t ) = 4sinc ( 2 x105 t ) ⋅ cos( 2πx106 t ) (b) x ( t ) = 4sinc (2 x106 t ) ⋅ cos(2πx107 t ) . 2. Determine la salida y(t) del filtro para cada una de las señales siguientes. 2.63 Demuestre que la salida del filtro es y (t ) = 40sinc[10(t − 1 )] + 20sinc 2 (5t ) sen(30πt ) 40 ¿Qué tipos de distorsión hay presentes en la salida? 2. 2. se aplica a un filtro cuyas La señal x (t ) = 10sinc (10t ) + 10sinc 2 (5t ) cos(30πt ) características de amplitud y fase se muestran en la Fig. En la Fig.14. y especifique el tipo de distorsión producido. 2. t g (f ) = 1 60 β( f ) π/3 10 -10 f 0 f |H(f)| ho −π / 3 (b) 0 (a) Fig.

a 1 = 2. ¿ Qué tipo de filtro es? (d) Determine y grafique el retardo de envolvente cuando b 1 = 0 y a o = 1. (b) Si R 1 = 2 R 2 = 1000 Ohm y grafique las C 1 = C 2 = 10 µF. a 1 = 11.18. Un sistema lineal está representado mediante la ecuación diferencial d dt y(t ) + a o y(t ) = b 1 d dt x(t ) + b o x(t ) 2 b o + (2πb 1f ) 2 2 ao (a) Demuestre que | H ( f )| = y + ( 2πf ) 2 . a 3 = 10 −3 Calcule el porcentaje de distorsión de tercera armónica. a 2 = 10 −2 .65 es un sistema muy utilizado en instrumentos de medición. características de amplitud y fase de H(f). La red mostrada en la Fig. a 1 = 10. (a) Demuestre que cuando R 1C 1 = R 2 C 2 la red se comporta como una red sin distorsión con retardo cero. (a) Sea x ( t ) = cos(10πt ) + cos(100πt ).186 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS (c) x( t ) = 16sinc (8x105 t ) ⋅ cos( 28πx106 t ) + 2sinc (106 t ) ⋅ cos(107 πt ) 2. ¿ Qué tipo de filtro es? (c) Grafique | H ( f )| y β (f) para b 1 = 0.17. 2.65 .16. ¿ Cómo es el comportamiento de esta red para frecuencias de entrada superiores a 1 kHz? 2. a 3 = 0 Determine Y(f) y dibuje su espectro |Y(f)|. x(t) R1 C1 R2 C2 y(t) Fig. 2. a 2 = 6. (c) Sea x( t ) = 2 x10 3 sinc ( 2 x10 3 t ). a 3 = 4 Determine los términos de distorsión armónica y los de intermodulación. Demuestre que la potencia promedio de la salida deseada es < y 2 (t ) >= 400 W (b) Sea x ( t ) = 10 cos(100πt ). β (f) = arc tg( 2πb 1f bo ) − arc tg( 2πf ao ) h( t ) = [ b o − a o b1 ]exp( − a o t )u( t ) + b1δ( t ) (b) Grafique | H (f )| y β (f) para b o = 0. a 2 = −10 −2 . 2. Un sistema no lineal tiene la característica de transferencia y ( t ) = a 1x (t ) + a 2 x 2 ( t ) + a 3 x 3 ( t ) La salida deseada es la correspondiente a x(t).

. 2. Determine y dibuje.79). (a) x (t ) = 4 Af m sinc(2 f m t ) (b) x (t ) = 4 Af m sinc(2 f m t ) ⋅ cos(2πf c t ) con f c >> f m 2.20.67. L R C C R C R R L C (a) (b) Fig. (b) Determine los anchos de banda de 3 dB. Sea una señal x(t) de banda limitada f m . ¿Es x 2 ( t ) también de banda limitada? Si lo es. En general. 2. |H(f)| ho 2B f Fig.187 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS 2. 1 8f c Sea un filtro cuya función de transferencia es H (f ) = h o sinc(τf ) exp(− j2πt o f ) . (c) Determine las ecuaciones diferenciales o íntegrodiferenciales que los caracterizan. demuestre que su salida es y (t ) = Ah o Λ ( ). determine su frecuencia máxima.19. en cada caso. (c) (d) (a) Determine y grafique las correspondientes características de amplitud y fase. (d) Para los filtros (a) y (b). Este filtro se utiliza para eliminar frecuencias indeseables.22. Sea los filtros reales mostrados en la Fig. ¿Qué puede decirse del espectro de x n ( t ) ? (Utilice el teorema de la convolución). el espectro del cuadrado de las siguientes señales. y observe y compare sus correspondientes anchos de banda. τ τ 2. 2. 2.67.66 se muestra las características ideales de un filtro conocido con el nombre de “filtro de ranura (notch filter)”.21. Si se le t − to t aplica la señal x (t ) = AΠ ( ) . En la Fig. determine el retardo de envolvente y el ancho de banda de acuerdo con la definición dada en la expresión (2.66 β(f ) π/4 −f c fc f −f c −π / 4 (a) fc (b) Demuestre que su respuesta impulsional es h(t ) = h o δ(t − t o ) − 2h o Bsinc 2 [B(t − t o )] ⋅ cos[2πf c (t − t o )] donde t o = 2.

5). x(t)] y [ x c (t ). (h) Salida de la combinación H 1 (f ) y H 2 (f ) en paralelo (Configuración 2 de la Tabla de Identidades de Diagramas de Bloque. dibuje la señal de salida y(t) en los siguientes casos: (a) Salida de H 1 (f ) solamente. x s (t )] son ortogonales. que ∫ ∞ −∞ x (t ) ⋅ x(t ) dt = 0.188 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS 2. dada en la Sección 2. entonces. Todos los filtros tienen ganancia unitaria. (d) Salida de la combinación H 1 (f ) y H 2 (f ) en cascada. entonces x(t) = A [1 − cos(2πf m t )] πt (b) Si x(t ) = 2 Af m sinc 2 (f m t ) ⋅ sen(2 πf c t ) . la salida es (d) Demuestre que si se le aplica una excitación de la forma x(t ) = Π( T 2 exp(− t t + RC ⎤ T − T / 2 ⎡ − t + T − t + T − RC ⎤ ⎡ y( t ) = ⎢1 − exp(− )( ) Π( ) − ⎢1 + exp( )( )⎥ u ( t − T) RC RC ⎥ T T RC ⎦ ⎣ ⎦ ⎣ 2. (c) Demuestre que su respuesta impulsional es h(t ) = t x(t) R C Fig.24. es decir. H 2 (f ) y H 3 (f ) en cascada. (g) Salida de la combinación H 1 (f ). Se tiene una señal x(t) diente de sierra creciente cuyo período es de 1 ms. para las partes (a) y (b). 2. (b) Demuestre que si R = 1 MΩ y C =1 pF. Si la entrada es x(t). Sea el circuito mostrado en la Fig. (f) Salida de la combinación H 2 (f ) y H 3 (f ) en cascada.68. R C y(t) t )u (t ) RC (RC) t −T/ 2 ) . Demuestre que (a) Si x(t ) = 2 Af m sinc(2 f m t ). Se dispone también de tres filtros ideales: H 1 (f ) pasabajo de ancho de banda de 500 Hz. (c) Salida de H 3 (f ) solamente. Transformada de Hilbert.25. entonces T T x(t) = At t A ln − πT T − t π (d) Determine la envolvente compleja de x(t) y sus componentes ortogonales x c (t ) y x s (t ) para la parte (b).431 kHz. (e) Demuestre. 2. (e) Salida de la combinación H 1 (f ) y H 3 (f ) en cascada. ∫ ∞ -∞ x c (t ) ⋅ x s (t ) dt = 0 . y H 3 (f ) pasaalto de frecuencia de corte de 500 Hz. para f c ≥ f m x(t ) = −2Af m sinc 2 (f m t ) ⋅ cos(2 πf c t ) (c) Si x(t ) = At t −T/ 2 Π( ). 2. que las duplas [ x(t ). su ancho de banda de 3 dB es de 102. (b) Salida de H 2 (f ) solamente. H 2 (f ) pasabajo de ancho de banda de 1500 Hz.23.68. (a) Determine sus características de amplitud y de fase. con un valor máximo de 15 V y mínimo de 5 V.

Sea m1 (t ) = ABsinc 2 (Bt ) y m 2 (t ) = 2 ABsinc(2 Bt ). Si f c = 5B . (a) Demuestre que si x(t) es una señal modulada en doble banda lateral de la forma x ( t ) = m(t ) cos( 2πf c t ). demuestre que ˆ R x (τ) = R x (τ). Sea entonces m(t) una señal mensaje pasabajo portadora de información. 34(a). 2.40. R xx (τ) = R x (τ) = − R xx (τ) ˆ ˆ ˆ ˆ ˆ R (τ) = 2[R (τ) + jR (τ)].189 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS 2.28. el ancho de banda equivalente sobre el cual aparece el ruido en los terminales es inversamente proporcional a R y los dos efectos se cancelan. R (0) = 0 z x x x ˆ donde R x (τ) es la Transformada de Hilbert de R x (τ) . mientras que el voltaje eficaz por unidad de ancho de banda es proporcional a R.69 Z(f) Demuestre que el voltaje eficaz de ruido térmico en sus terminales es.29. dibuje el espectro de las señales 2 (a) x( t ) = m1 ( t ) cos(2 πf c t ) − m1 (t ) sen(2πf c t ) . Si R x (τ) =< x(t)x(t + τ) >. Nótese que este detector tiene la misma forma que la rama superior de la Fig.27.26. R C Fig. 2. (b) x(t ) = m1 (t ) cos(2πf c t ) + m 2 (t ) sen(2πf c t ) ˆ ˆ ˆ 2. R xx (τ) =< x(t)x(t + τ) . La única restricción existente es que si la frecuencia máxima de la señal mensaje es f m y el ancho de banda del filtro pasabajo es B. para no perder la información contenida en la señal mensaje m(t). para B→∞ v ef = kT C Obsérvese que el voltaje eficaz de ruido resulta ser independiente de la resistencia R. . 2. 2. f c >> B y B ≥ f m . En la práctica. entonces. Considere la combinación RC mostrada en la Fig. La razón es que. y(t) = m(t) (b) Demuestre también que si x(t) es una señal modulada en banda lateral única de la forma x ( t ) = m( t ) cos(2 πf c t ) − m(t ) sen(2 πf c t ) entonces y ( t ) = m( t ) El detector sincrónico permite entonces extraer o detectar una señal mensaje m(t) pasabajo contenida en una señal modulada en doble banda lateral o en banda lateral única. Sea el “detector sincrónico o coherente” mostrado en el Problema de Aplicación 1. 2. generalmente f c >> f m . R x (τ) =< x(t)x(t + τ). entonces debe verificarse siempre que f c ≥ B ≥ f m . ˆ ˆ ˆ R xx (τ) =< x(t)x(t + τ) > y ˆ ˆ z(t)=x(t) +jx(t) .69. El filtro es ideal y de ganancia unitaria.

190 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS 2. Determine el ancho de banda equivalente BN del ruido de las redes cuyas funciones de transferencia son: |f | B ).32. 2. de 1000 Ohm cada una.70 (b) Un filtro pasabanda ideal de ganancia ho . El ancho de banda en ambos casos es de 100 kHz. Determinar el voltaje eficaz de ruido cuando (a) las resistencias están en serie y (b) cuando están en paralelo.33. ancho de banda 2B y centrado en la frecuencia fc . Sea la red sin ruido de la Fig.70 a cuya entrada se conecta una resistencia ruidosa R.31. Demuestre que la densidad espectral de potencia de la tensión de ruido en un circuito RL paralelo es S n (f ) = 2 kTR . respectivamente. [Respuesta: BN = ] B 2 (a) H(f ) = h o exp(− f − fc ⎤ f + fc ⎡ ) + sinc( ) (d) H (f ) = h o ⎢ sinc( B B ⎥ ⎦ ⎣ fc >> B [Respuesta: BN = B ] .30. 2.34. [Respuesta: BN = ] B 2 2 f π B (b) H(f)=h o exp(− 2 ). Determine el valor eficaz del voltaje de ruido en los terminales de salida cuando H(f) representa: (a) Un filtro pasabajo ideal de ganancia ho y ancho de banda B. 2. Demuestre que el valor eficaz de la corriente de ruido en un circuido RL serie es i ef = kT / L 2. [Respuesta: v oef = h o 8kTRB ] |f| (b) Un filtro exponencial de la forma H ( f ) = h o exp( − ) B kTB [Respuesta: v oef = h o ] 2 (d) Un filtro gaussiano de la forma H (f ) = h o exp(− [Respuesta: v oef = h o kTB π ] 2 2 f2 B2 ) 2. están a una temperatura de 300 y 400 kelvins. [Respuesta: B N = ] B 2 2 f B (c) H(f)=h o sin c( ). 2. donde fc > B. Dos resistencias. [Respuesta: v oef = h o 4 kTRB ] R Red sin Ruido H(f) voef Fig.

35. Repetir cuando T Ts = o .191 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS | f + fc | |f − fc | ⎤ ⎡ (e) H (f ) = h o ⎢ exp(− ) + exp(− ) B B ⎥ ⎦ ⎣ 2. 2. Sea el sistema de la Fig.36. donde x r (t ) = 2 x10 cos(2πx10 t ) cos(2πx10 t ) 4 6 −6 x r (t ) n(t n (t ) ⇒ S n (f ) = 10 −19 exp[− l 0 −6 Ln2⋅| f |] El sistema es pasabanda.72 (a) Que la relación S s / N s a la entrada del amplificador es de 23.71 se muestra la etapa de entrada (amplificador de RF) de un receptor.35 dB. y que la potencia disponible de ruido a su salida es N i = −16.585 dB. fc >> B [Respuesta: BN = B ] Un amplificador de alta ganancia tiene una cifra de ruido de 9. Ts = 10To y Ts = 100To . 2. 2.196 dBm . 2. El ancho de banda equivalente del ruido es de 6 MHz y se supone que la temperatura de ruido de la antena es Ts = To Ti Amplificador N i de RF ETAPA DE ENTRADA Fig. (a) Demuestre que la temperatura efectiva de ruido es Te = 2030 kelvins (b) Determine la potencia disponible de salida si la resistencia de la fuente a la entrada del amplificador tiene una temperatura de ruido Ts = To = 290 kelvins. En la Fig. una ganancia de potencia de 50 dB y un ancho de banda equivalente del ruido de 10 kHz.71 Ts = To = 290 kelvins Demuestre que la temperatura neta Ti de entrada al amplificador es de 2900 kelvins. de ancho de banda de 20 kHz y centrado en fc = 1 MHz. (c) Que la relación de predetección S i / N i es de 22. 4 2. 2.204x10-15 W. (b) Que la contribución del ruido a la salida debida al ruido propio del amplificador es de 7.72. La cifra de ruido del amplificador es de 10 dB y ganancia de potencia de 80 dB.37. G p = 10 dB Detector Al Fig.031 dB. Demuestre: Ss / N s Amplificador Si / N i de RF F = 10. .

2. La temperatura efectiva de la antena es de 100 kelvins. Demuestre: (a) Que la potencia de ruido Ni a la entrada del detector es de -60. 2. (b) Repetir la parte (a) pero intercalando entre la antena y la línea de transmisión un amplificador con una ganancia de potencia de 15 dB y una temperatura efectiva de 40 kelvins.4x10 −14 W . 10 Si = 6. El ancho de banda es de 6 MHz.39.315 dBm. Demuestre también que la temperatura total efectiva de ruido es ahora 420. La línea de transmisión tiene un factor de atenuación L = 2 dB y una temperatura física de 310 kelvins. S n ( f ) = 10−20 W / Hz A1 Fuente de RuidoG p1 = 13 dB Ta Línea de Transmisión A1 A2 G p1 = 10 dB F1 = 1. Ni −12 G p = 80 dB Si / N i F = 10 dB Al Detector Amplificador Preamplificador G p1 = 13 dB Amplificador G p2 = 80 dB Si / N i F1 = 3. y que la cifra de ruido total Ni de los dos amplificadores se ha reducido a F12 = 2. Sea una cadena de tres amplificadores cuyas características se muestran en la Fig.73.45 .2 dB . 2.40.74 N1 A2 N2 A3 N3 Carga Acoplada G p2 = 60 dB G p3 = 20 dB B1 = 10 MHz B2 = 2 MHz B 3 = 100 kHz Fig.5 G p2 = 40 dB N i Al F2 = 2 Detector B = 2 MHz Fig. ¿Qué se puede decir al respecto? 2.01 dB .192 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS 2.01 dB F2 = 10 dB Al Detector (a) Conexión sin Preamplificador (b) Conexión con Preamplificador Fig. En antena.73 (b) Demuestre que para la configuración (b) .5 kelvins. Repita la parte (b) si F1 = 13.75 (a) Suponiendo que el ruido individual de los amplificadores es despreciable frente al ruido de entrada.506x10-9 W ] 2. 2.38. Sean los dos sistemas representados en la Fig. (a) Demuestre que para la configuración (a). la potencia de señal es de W y la potencia de ruido de 2. 2. [Respuesta: Ni = 8. demuestre que . Sea el sistema de recepción de la Fig. Compare estos resultados con los ya obtenidos. Si = 12 .74.305 dB .75. 2.

Etapa 1 Etapa 2 Etapa 3 Te1 = 300 kelvins .99 dBm .183). referida a la entrada del sistema de tres etapas. es decir. Sea el sistema de tres etapas mostrado en la Fig. donde α es la constante de atenuación y x la longitud de la línea.76.66 kelvins (b) Usando el resultado de la parte (a).41.979 dBm y N 3 = −23. 2. 2. 2. demuestre que N1 = −83. determinando las cifras de ruido Se le sugiere al lector repetir este problema intercambiando las diferentes etapas a fin de conseguir una configuración óptima.99 dBm. referida al amplificador compuesto? 2. N 2 = −30. Suponga que una línea de transmisión de pérdidas L y temperatura física TpL se agrega a la entrada del receptor. aquella con la mínima cifra de ruido total. y de acuerdo con la oef ief ief oef L = exp(2α x) .899. (c) Si las temperaturas efectivas de los amplificadores son Te 2 = 400 kelvins y Te3 = 500 kelvins .193 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS N 1 = −83. definición del factor de atenuación L.113 dBm y N 3 = −23.42. (c) Verifique la cifra de ruido total calculada en (b) individuales y combinando sus efectos. En términos de potencia (normalizadas respecto a R = 1 Ohm). referida a la entrada del sistema línea-receptor es Te. se puede escribir entonces v 2 = v 2 exp(−2α x) . Gp1 = 7 dB Te1 = 200 kelvins Gp2 = 20 dB Te2 = 300 kelvins Gp3 = 40 dB Te3 = 400 kelvins Carga Acoplada El ancho de banda es el mismo en las tres etapas Fig.76 (a) Demuestre que la temperatura efectiva de ruido. la nueva temperatura de ruido a la entrada del sistema línea-receptor es Te' = Te1 exp(2αx) + [exp(2αx) − 1]TpL . es Te = 260. expresión (2. Definiendo v 2 = Pdi y v 2 = Pdo . N 2 = −30. ¿Por qué no puede determinarse la temperatura efectiva de ruido. entonces se verifica que v oef = v ief exp(−α x) . Un cierto receptor tiene una temperatura efectiva de ruido Te1 .123 dBm. demuestre que la cifra de ruido total del sistema es F = 1. Demuestre que la nueva temperatura de ruido. = Te1 + (L − 1)(TpL + Te1 ) = LTe1 + (L − 1)TpL Nótese que en la Teoría de las Líneas de Transmisión se demuestra que si v ief y v oef son los valores eficaces del voltaje al principio y al final de una línea acoplada. En este caso. se tiene que vemos que el valor de L aumenta al aumentar la longitud de la línea.172 dBm.

demuestre que por cada incremento de 0. 2. TpL S e . (a) Demuestre que el incremento ∆Te en la temperatura efectiva Te . Sea Te1 la temperatura efectiva de ruido de un receptor. 2. 2. La cifra de ruido total es F = 1. Na L.448 kelvins (b) Demuestre que la temperatura efectiva de ruido Te. 1.623x107 = 75.591 dB Ni . están relacionados mediante la ecuación ∆Te = Te1 + TPL ∆L (d) Si Te1 = 150 kelvins y TPL = 290 kelvins . Sea el sistema de comunicaciones de la Fig. (a) Demuestre que la temperatura efectiva de ruido Te referida a la entrada de la línea de transmisión es Te = 407.Ta T'e Te1 S r Te GpL. Gp1 = 40 dB = 104 . La temperatura equivalente total del sistema es Te = 200. a la entrada del primer amplificador es Te’ = 150. B = 105 Hz. y TPL la temperatura física de la línea de transmisión que interconecta la antena con el receptor.77. Te1 = 150 kelvins. Verifique este resultado para valores arbitrarios de la atenuación L.194 II REPRESENTACION ESPECTRO-TEMPORAL DE SISTEMAS 2.03 kelvins (c) Suponga que la temperatura de ruido de entrada a la antena es Demuestre que 2. TeL = (L − 1)TpL L A1 S1. To = 290 kelvins. Ne Gp1 Ga.69 3.004 kelvins Si = 3. la temperatura efectiva de ruido del sistema aumenta aproximadamente en 10 kelvins. referida a la entrada de la línea de transmisión. TeL Antena Línea de Transmisión B Preamplificador Señal Util Amplificador B Fig.1 dB en la atenuación L de la línea de transmisión. TpL = To. Ta = 100 kelvins Ga = 50 dB = 105.44. La relación Si/Ni de predetección es Tn = 100 kelvins.43. Gp2 = 20 dB = 100.585.77. Te2 = 300 kelvins. Datos: L = 2 dB = 1. Sr = 10-8 W G pL = 1 . N1 Ruido Blanco A2 Gp2 Te2 Si/Ni Al Detector Nn Sa. y el incremento ∆L de la atenuación L de la línea de transmisión.

En la Teoría Estadística de la Comunicación tanto las señales mensaje como el ruido se tratan como variables aleatorias.1) . el ruido.1. Estos tipos de señal se denominan señales determinísticas. 3.CAPITULO III VARIABLES Y PROCESOS ALEATORIOS 3. por cuanto ellas varían en forma muy compleja. la probabilidad de que el suceso A ocurra. por ejemplo. acerca de las cuales sólo conocemos algunos parámetros. entonces P(A). Por ejemplo. De la Teoría de la Probabilidad y de las Variables y Procesos Aleatorios hay una inmensa bibliografía que el lector interesado puede consultar. en efecto. la idea de “suerte” está ligada con la de “probabilidad” o “posibilidad”. no se profundizará demasiado en consideraciones teóricas avanzadas. Definición Empírica de la Probabilidad En un experimento repetido N veces. en cada canal de comunicación siempre habrá señales de ruido que contaminan las señales mensaje portadoras de información. cuando lanzamos una moneda podemos decir que las probabilidades de que caiga cara o sello son “igualmente posibles” o “igualmente probables”. El comportamiento de estas señales solamente se puede predecir en forma aproximada porque en los mecanismos aleatorios que las producen hay un elemento de ignorancia o de incertidumbre sobre el cual no se tiene ningún control. Definiciones de la Probabilidad La teoría de la probabilidad es una rama de las matemáticas aplicadas que trata de los efectos de la suerte o de la casualidad. El resultado de un experimento cualquiera. Sin embargo. depende de la combinación de muchos factores completamente impredecibles. tanto periódicas como no periódicas. se define en la forma P (A ) = lim m N N →∞ (3. En consecuencia. por ejemplo.2. En este Capítulo se presentarán las ideas y conceptos básicos y esenciales de las variables y procesos aleatorios que complementarán el enfoque determinístico que hemos empleado hasta ahora.2. NOCIONES DE LA PROBABILIDAD 3. cuando lanzamos un dado o una moneda. pero sí se mostrarán aquellos aspectos de aplicación inmediata en el análisis y diseño de sistemas de comunicación prácticos. si el suceso A ocurre m veces.1. INTRODUCCION En el presente texto se estudian varios tipos de señal. Como es normal en un texto introductorio de comunicaciones. éstas son las señales aleatorias. es posible predecir en cierta manera el comportamiento promedio de un número grande de experimentos. Pero también hay otras clases de señales como. cuyo comportamiento se puede predecir a partir de algunas de sus propiedades probabilísticas o estadísticas. En la Teoría de la Comunicación las señales y procesos aleatorios desempeñan un papel muy importante. cuyos valores son conocidos en todo instante ya sea en forma gráfica ya sea en forma analítica.

Por ejemplo. que la probabilidad es siempre una magnitud positiva y menor o igual que la unidad. por cuanto define la probabilidad como la frecuencia relativa de ocurrencia del suceso.+ P ( A n ) (3......... pero los axiomas que se postulen deben estar de acuerdo con el punto de vista de la frecuencia relativa. de la definición. entonces la probabilidad del suceso (A + B) cuando A y B son disjuntos es P (A + B) = lim m1 + m 2 N N →∞ = P ( A ) + P ( B) (3. entonces ∑ P (A n =1 N n)=1 (3. se supone implícitamente que el límite N → ∞ existe.. si A 1 .2) Sucesos Mutuamente Excluyentes o Disjuntos Se dice que en un conjunto de sucesos los sucesos son mutuamente excluyentes. que simbolizaremos con S. entonces el suceso {A 1 + A 2 +.. entonces P (A + B) = P (A ) + P (B) − P ( AB) (3.. por lo tanto. A 2 .. Si el experimento se lleva a cabo N veces.. Es evidente también... Cuando el suceso (A + B) ocurre.5) Si un experimento tiene N resultados A 1 .. respectivamente. disjuntos o incompatibles. es decir. A n son sucesos disjuntos. A 3 ....7) La definición de frecuencia relativa tiene la ventaja de ser muy intuitiva pero no es suficiente desde el punto de vista matemático.+ A n ) = P (A1 ) + P ( A 2 ) + P (A 3 ) +.. es decir.3) Si A y B no son disjuntos. P (S) = P (suceso cierto) = 1 Definición Axiomática de la Probabilidad (3. A 2 ... consideremos dos sucesos A y B. Se conoce también como “la definición de la frecuencia relativa”. El punto de vista axiomático de la probabilidad se puede resumir en la forma siguiente. A n son disjuntos y exhaustivos.. Estos resultados se pueden extender para un número cualquiera de sucesos. y si m1 y m 2 son los resultados favorables a A y B. es porque el suceso A o el suceso B o ambos han ocurrido.196 III.. Nótese que al definir P(A) como en (3. 0 ≤ P (A ) ≤ 1 (3.. A n solamente... (A + B). entonces P (A1 + A 2 + A 3 +.+A n } es el suceso cierto..6) Puesto que A 1 . A 2 . Este suceso será la unión de los sucesos A y B. y un suceso que puede considerarse como resultado de uno cualquiera de los sucesos A y B... . VARIABLES Y PROCESOS ALEATORIOS Esta definición de la probabilidad se conoce con el nombre de “definición empírica de la probabilidad”. Se sigue entonces que si N sucesos A n son disjuntos y exhaustivos.. si la ocurrencia de cualquier suceso impide la ocurrencia simultánea de cualquier otro suceso del conjunto..1).. entonces esos N elementos se denominan “sucesos exhaustivos”.4) donde P(AB) es la probabilidad conjunta de la ocurrencia simultánea de los sucesos A y B. es decir. con aquellas relaciones que se observan en el mundo físico. .. La probabilidad se puede definir desde un punto de vista axiomático... en efecto.

son disjuntos.10) AXIOMA II: P (S) = 1 donde S es el suceso cierto formado por todos los sucesos disjuntos y exhaustivos. .+ A n +.14). A n . (3.. 3.. entonces la probabilidad de observar un resultado particular A de un conjunto y un resultado B de otro conjunto.....+ P ( A n ) +. se denomina la “probabilidad conjunta del suceso AB”. donde AB ≠ 0 es la intersección de los sucesos A y B.. Por definición. Probabilidad Condicional.. la probabilidad de un suceso A depende de si el suceso B ha o no ocurrido..9) (3. ) = P ( A 1 ) + P ( A 2 ) +.11) si A 1 . y si NAB es el número de veces que A y B ocurren simultáneamente. la “probabilidad del suceso A (3..15b) si P(A) ≠ 0 .. Si un experimento se repite N veces.10) sino que es un nuevo axioma: AXIOMA IIIa: P ( A 1 + A 2 + A 3 +... entonces la probabilidad del suceso AB se define en la forma P (AB) = lim N AB N N →∞ (3.12) Probabilidad Condicional A menudo se presenta la situación donde la probabilidad de un suceso es influenciada por otro suceso.. si P(A) ≠ 0...15a) (3. La única restricción que se impone sobre la función de probabilidad es que obedezca los siguientes postulados o axiomas: AXIOMA I: P (A ) ≥ 0 (3.197 III...8) (3. VARIABLES Y PROCESOS ALEATORIOS La probabilidad P(A) de un suceso A es un número que se asigna a dicho suceso. donde P(AB) es la probabilidad conjunta de los sucesos A y B. A 2 . Probabilidad Conjunta.13) (3.2.13) y (3. es decir... AXIOMA III: P (A + B) = P ( A ) + P ( B) La extensión para un número infinito de sucesos no se sigue de (3... Esta es la probabilidad condicional. Independencia Probabilidad Conjunta Si en un experimento hay dos conjuntos de sucesos o resultados. P (B| A ) = P ( B) P (A ) P ( A | B) P ( A | B) = P (B| A ) si P(B) ≠ 0 (3. .. .14) O también.. Combinando (3. la cual vamos a definir en la forma siguiente: Sea un suceso B tal que suponiendo el suceso B” es P ( A | B) = P ( AB) P ( B) P (B| A ) = P (AB) P (A ) P (A ) P ( B) P(B) ≠ 0.2.

entonces la probabilidad condicional P(A|B) es simplemente la probabilidad P(A). y viceversa....15a) y (3..17) (3...18) Nótese que si A y B son independientes y disjuntos.. entonces.... segunda de 50} = P(A)P(B|A) = = 0.15b) son conocidas con el nombre de “Ecuaciones de Bayes” o “Regla de Bayes”. D..32 12 11 Independencia Estadística ♣ El concepto de independencia es básico. (a) La probabilidad de que las dos resistencias sean de 100 Ω (b) La probabilidad de que la primera fue de 100 Ω y la segunda de 50 Ω (c) La probabilidad de que las dos resistencias son de 50 Ω Sean los sucesos A = {sacar una resistencia de 100 Ω} B = {sacar una resistencia de 50 Ω} A|A = {sacar una de 100 Ω habiendo sacado previamente una de 100 Ω} B|B = {sacar una de 50 Ω habiendo sacado previamente una de 50 Ω} 5 4 (a) P{sacar primero de 100. C. Si esto es cierto. la probabilidad de ocurrencia conjunta es P(ABCD.1 Una caja contiene 5 resistencias de 100 Ω y 7 resistencias de 50 Ω.. si los sucesos A. Pudiera decirse que es debido a este concepto que la Teoría de la Probabilidad se ha desarrollado como una disciplina anexa y no ser considerada como un tópico más en la Teoría de las Medidas. ♣ Ejemplo 3.15 12 11 5 7 (b) P{sacar primero de 100.27 12 11 7 6 (c) P{sacar primero de 50.. esto es. son estadísticamente independientes. VARIABLES Y PROCESOS ALEATORIOS Las expresiones (3.. para A y B independientes y disjuntos La noción de independencia se puede extender a más de dos sucesos. (3. segunda de 100} = P(A)P(A|A) = = 0. De la caja se extrae una resistencia y después otra sin reponer la primera.. si A y B son independientes. entonces P ( A | B) = P ( A ) P(AB) = 0 y P(B|A) = P(B) (3...16) Esto quiere decir que si A y B son independientes.) = P(A) P(B) P(C) P(D) . Definición Se dice que dos sucesos A y B son estadísticamente independientes si y sólo si P (AB) = P ( A )P ( B) (3.. Vamos a determinar las siguientes probabilidades. segunda de 50} = P(B)P(B|B) = = 0. B.. por definición..198 III.. En efecto. entonces la ocurrencia del suceso A no influencia en absoluto la ocurrencia del suceso B..19) .

+ A n } Teorema de Bayes El teorema de Bayes nos permite evaluar las llamadas “probabilidades a posteriori P(Ai | B) ” de los sucesos A i en términos de las “probabilidades a priori P(Ai)” y de la probabilidad condicional P (B| A i ). B = BS = B( A 1 + A 2 +....13) o (3.24) Este es el llamado “Teorema de Bayes”...1 S De donde B = BA 1 + BA 2 +. P (B) = P ( B| A 1 ) P (A 1 ) + P ( B| A 2 ) P (A 2 ) +.. A n cuya suma es igual al suceso cierto S.+ P (BA n ) (3. de la Fig.+ P ( B| A n ) P ( A n ) P ( B) = ∑P(B| A )P(A ) i i i =1 n (3.1.. se obtiene P(A i | B) = ∑ P(B | A )P(A ) j=1 j j n (5. A 2 . de donde P (A i | B) = P (A i ) P (B| A i ) P ( B) P(B | A i )P(A i ) (3. y sea B un suceso cualquiera contenido en S...14).22) Este es el teorema sobre la probabilidad total.199 III...+ A n ) A1 B An A2 A3 Fig.22). i y con independientes. VARIABLES Y PROCESOS ALEATORIOS Nótese que si los sucesos son independientes por pares. .21) Pero de la probabilidad condicional. si P(Ai Aj) = P(Ai)P(Aj) para todo j. el cual se utiliza para evaluar la probabilidad P(B) en términos de la probabilidad condicional P(B|Ai) y de la probabilidad P(Ai). donde Ai será definida a continuación... de las expresiones (3. P (BA i ) = P ( B| A i ) P ( A i ) Entonces.. pero sí debe cumplirse que B ⊂ {A 1 + A 2 +.13) y (3.... .... 3.23) Reemplazando P(B) de (3. Hay que hacer notar que este teorema es válido aún cuando los n sucesos A 1 .1.... Entonces... BA n Como estos elementos son todos disjuntos. ..14). A n no sean exhaustibles.. no se sigue que los sucesos sean todos Vamos ahora a obtener una expresión conocida con el nombre de “Teorema de la Probabilidad Total”. se tiene P (A i B) = P (A i | B)P (B) = P (B| A i )P (A i ) . . es decir. En efecto. A 2 ..... P (B) = P ( BA 1 ) + P ( BA 2 )+. expresiones (3. Fig. B ⊂ S... Probabilidad Total j ≠ i . 3.20) (3.. Se tiene un conjunto de n sucesos disjuntos y exhaustivos A 1 .. 3. es decir. .

Cuando decimos “óptimo”. { } 0 ≤ j ≤ J − 1. J = 3 r2 Canal rj mj {r j } {m j } Receptor (b) Sistema de Comunicación Fig.200 III. sin embargo. el modelo del canal se puede describir completamente [Wozencraft y Jacobs. de acuerdo con el símbolo r j recibido.25) P (m i | r j ) = P (m i . Para valores pequeños de MJ es conveniente hacer un diagrama de estas probabilidades. queremos decir que la probabilidad de una decisión correcta P( ) es máxima.2(a). VARIABLES Y PROCESOS ALEATORIOS Modelo Probabilístico de un Canal de Comunicaciones Consideremos el modelo probabilístico de un canal discreto de comunicaciones con M posibles mensajes de entrada {m i } . r j ) P (r j ) (3. es decir. (3. M = 2. r j ) y cuyas probabilidades son. ocurren los mensajes {m i } . las probabilidades antes de la recepción. 3. Este modelo describe un sistema de comunicación como el mostrado en la Fig. Nuestro problema es especificar un receptor que. el filtro acoplado que se verá en el Capítulo V es un receptor óptimo. formule una decisión óptima en relación a qué mensaje m i fue transmitido. Fuente Discreta m i {m i } Transmisor mo P (r2 |mo ) P (ro |m1 ) m1 P (ro |mo ) P (r1| mo ) ro r1 s i (t ) Ruido {si (t )} P (r1 | m1 ) P (r2 | m1 ) (a) Diagrama de Probabilidades de Transición. hay que hacer notar que en un sistema de comunicación real generalmente no se conocen las probabilidades de transición.13).26) . P (m i . Estas probabilidades son las probabilidades “a priori” de los mensajes. y J posibles símbolos de salida r j . como se muestra en la Fig. 3. a menudo llamadas “probabilidades de transición”. por ejemplo. 3. En lo que concierne a este ejemplo. de la expresión (3.2(b). 1967] mediante un conjunto de MJ probabilidades condicionales P (r j | m i ) que especifica la probabilidad de recibir cada salida j condicionada a cada entrada i. Supongamos que conocemos el conjunto de las M probabilidades {P (m i )} con las cuales En una larga secuencia de mensajes independientes puede esperarse que el receptor óptimo decida correctamente más a menudo que un receptor no óptimo. 2 La operación del canal se puede describir como un conjunto S que comprende MJ elementos o puntos cada uno identificado mediante la dupla (m i . con 0 ≤ i ≤ M − 1. r j ) = P (m i )P (r j | m i ) También.

la elección de la máxima probabilidad “a posteriori”.3 dado recibido. aplicada independientemente a cada símbolo recibido r j . es decir. sea m k el mensaje cuya probabilidad “a posteriori” es la máxima. de la expresión (3. la suma sobre j es maximizada sólo y solamente si cada uno de los términos P( |rj) es máximo. expresión (3. r2 ) “a priori” de que un mensaje m i sea transmitido P (m1 ) P (m o ) es P (m i ) . r2 ) P (r2 | m1 ) P (r2 |mo ) (mo . entonces.26). es justamente la probabilidad de que el mensaje m( j) fue en efecto transmitido. Podemos escribir entonces P( | r j ) = P (m( j)| r j ) (3. VARIABLES Y PROCESOS ALEATORIOS En la Fig. por lo tanto. Después de la transmisión.201 III. la probabilidad incondicional de una decisión correcta P( ) para un rj recibido dado es P( ) = {m i } a la cual el receptor atribuye el símbolo recibido ∑P( j= 0 J −1 | r j )P (r j ) (3. El efecto de la transmisión sobre el canal es entonces el de alterar la probabilidad de cada mensaje de entrada de su valor “a priori” a su valor “a posteriori”. r1) (m1 . r1 ) P (ro | m1 ) P (r1 | m1 ) Antes de la transmisión. La suma de todas estas áreas es la unidad M J S P (ro |mo ) P (r1| mo ) (mo . {m( j)} P (m k | r j ) ≥ P ( m i | r j ) para todo i ≠ k (3. cada símbolo recibido r j debe ser {} atribuido a una y sólo una de las posibles entradas m i . La probabilidad de cada par (m i . Entonces la probabilidad condicional P( |rj) de una decisión correcta para un r j recibido. 3.27) Es evidente que P( |rj) puede ser maximizada si se elige el elemento m( j) de {m i } con la probabilidad “a posteriori” más alta.29) . Si varios mi tienen la misma (máxima) probabilidad “a posteriori”. y por lo tanto la regla de decisión es la óptima.22). es decir. En efecto. determina el receptor óptimo. Esta “regla o algoritmo de decisión”. ro ) (m1 .3 se muestra la distribución de las probabilidades en un sistema típico con M = 2 y J = 3. Sea m( j) una entrada dada en el conjunto r j . la cual es la probabilidad “a posteriori”. entonces rj puede ser asignado a cualquiera de los mi correspondientes sin pérdida de optimalidad. una probabilidad condicional. ro ) (mo . la probabilidad de que m i fue transmitido es P (m i | r j ) . 3. No es necesario calcular la probabilidad P(rj) a fin de determinar la transformación óptima y la probabilidad de error resultante.28) Las cantidades positivas P(rj) son independientes de la regla de asignación. La especificación de un receptor es simplemente la especificación de una transformación desde el conjunto o espacio de salida del canal r j . la probabilidad (m1 . Del teorema de la probabilidad total. para un r j Fig. r j ) está representada por su correspondiente área.

(3.24 Los puntos o áreas correspondientes al error se muestran marcados en la Fig.3 1 0 1 0.8 0. como se muestra en la Fig.8 S (a. r j ) representa la probabilidad de que m( j) fue transmitido y r j Finalmente.4 x 0.4. 2.0) + P(a. es decir.30).28 0. 1.6 y P(b) = 0.30) Una vez que el conjunto {m( j)}. con j = 0.1) = 0.2 Consideremos un canal binario con dos símbolos de entrada {a.4 (b) 0.3 (b.31) recibido. J ..7 = 0.28).0.0) y P(a.2 = 0.P( ) = 1 . P( ) = P(b. P(1 | a) = 0.0) > P(a.. VARIABLES Y PROCESOS ALEATORIOS de donde m( j) = m k si y solamente si P (m k )P (r j | m k ) ≥ P (m i )P (r j | m i ) para todo i ≠ k (3. m(0) = b y m(1) = a . es decir.48 = 0.48 0.6 0..6 1 Las probabilidades de entrada o probabilidades “a priori” son: P(a) = 0.26).8 = 0.28 + 0. P(0 | b) = 0. P( )= ∑P(m( j).. la probabilidad de una decisión falsa es P( ) = 1 − P ( ) ♣ Ejemplo 3.12 0 0.3 ♣ .8.76 = 0.0) 0.4 Las probabilidades de transición del canal son: P(0 | a) = 0.27) y (3. b} y dos símbolos de salida {0.7 0. la probabilidad de una decisión correcta P( ) se puede calcular a partir de las expresiones (3. (3.0) = P(a) P(0 | a) = 0.0) = P(b) P(0 | b) = 0.1) 0 0 1 (b.202 III.12 (a) Fig.2.0) (a.6 x 0. a 0.1) 0. 1}. r ) j j= 0 J −1 (3.1.3 = 0.4 x 0.. 3.76 P( ) = 1 . Entonces. P(a. 3.1) = P(b) P(1 | b) = 0.12 Vemos que P(b.4.1) = P(a) P(1 | a) = 0.12 P(a.6 x 0.1) Por consiguiente. P(1 | b) = 0. se ha determinado a partir de la expresión (3.1) > P(b.28 P(b. la probabilidad de error.32) donde P (m( j).4 b 0.7. y de la expresión (3.2 0.31). 3.48 P(b.

. y los valores particulares que dicha variable tome se representarán con letras minúsculas). .35) Nótese que la función de distribución FX(x) depende tanto de la VA X como del valor del argumento.1. una VA X asigna valores numéricos (números reales) a cada punto de muestra.33) Una VA discreta se puede describir entonces mediante la llamada “función de frecuencia” PX (x i ) = P (X = x i ) (3. En esta notación el subíndice se refiere a la VA X y el argumento es el valor particular de la VA. El resultado de un experimento aleatorio es. En efecto. La función FX(x) es simplemente la probabilidad de que un valor observado sea igual o menor que cierta cantidad x. Nótese que si en el experimento hay un total de n resultados x i disjuntos y exhaustivos. El subíndice es esencial para indicar la asociación de las funciones de probabilidad con una VA dada. x n (Nota: la variable aleatoria (VA) se representará con letras mayúsculas. x 2 .. En otras palabras. El conjunto de elementos que consiste de todos los resultados posibles y distintos de un experimento se denomina entonces “espacio de las muestras” del experimento.. de acuerdo con la expresión (5. En realidad. En general. En este caso la palabra “espacio” se usa como sinónimo de la palabra “conjunto”. mientras que x i representa los valores posibles asignados. se define en la forma FX (x ) = P (X ≤ x ) (3. cada subíndice identifica la función o VA dada. Los elementos individuales o puntos del espacio de las muestras se denominan “puntos de muestra”. sobre todo cuando se trabaja con varias VA. . se asigna los números reales x 1 ... . y cada uno de ellos se puede considerar como un elemento de un conjunto o espacio. PX (x i ) es la probabilidad del resultado o suceso al cual fue asignado el valor x i . A menudo es conveniente describir en forma gráfica las probabilidades asignadas en relación con los valores de la VA asignados. Por ejemplo. la cual puede tomar cualquiera de los n valores discretos x 1 . cada punto de muestra corresponde a un resultado distinto del experimento. una función f(t) asigna valores a t de acuerdo con una cierta regla. en el ejemplo del lanzamiento de un dado. por ejemplo. y se aplica tanto en procesos discretos como en procesos continuos. el espacio consiste de seis elementos: las seis caras del dado. entonces. . X es la representación general de los valores observados. se asigna un número real a cada resultado o punto de muestra del experimento.3. Variables Aleatorias Discretas Un experimento dado puede tener un cierto número de resultados. una VA es una función en el sentido convencional. similarmente. VARIABLES ALEATORIAS. VARIABLES Y PROCESOS ALEATORIOS 3. Esto nos lleva al concepto de “función de distribución de probabilidad de X”. la “función de distribución acumulativa de una VA X”. se verifica que ∑P i =1 n X (x i ) =1 (3. x n a estos resultados. entonces. x 3 . En un experimento dado la elección del espacio de las muestras no es unívoca sino que dependerá primordialmente de lo que consideremos como resultados del experimento. x 2 .6). Esto es muy importante... una “variable aleatoria X”. Por consiguiente. . FUNCIONES DE PROBABILIDAD 3.34) donde x i son los valores que X puede tomar y P (X = x i ) su probabilidad correspondiente. en este caso. Si hay n resultados. Por lo tanto.3. uno a cada uno. Se asigna también una probabilidad a cada valor de la VA X.203 III.

204 III. La “función de frecuencia” de una VA X discreta .3 El experimento es el tiro de un dado.39) Para una VA X discreta con probabilidades PX (x i ) .80 0. y en los puntos de discontinuidad se supone continuidad hacia la derecha.5 ♣ .0 0.41) ♣ Ejemplo 3.2 0. es una función en escalera donde la altura de cada escalón es PX (xi).2 FX(x) xi 1 2 3 4 5 6 0 1 2 3 4 5 6 xi (c) Función de Distribución (b) Función de Frecuencia (a) Tabla de Valores Fig.1 0.2 0.90 1.3 0.40) La función de distribución FX(x) de una VA X discreta consta entonces de una serie de discontinuidades en los puntos x = x i .38) (3.3 0.1 FX(xi) 0.2 0.5 se dan los datos del experimento y se grafican las funciones de probabilidad pX(x) y FX(x).4 0.00 0. FX (−∞) = 0 4.8 0.1 0 pX(x) 1.37) (3. Entre discontinuidades el valor de FX(xi) es constante. 0 ≤ FX (x ) ≤ 1 2.6 0. vendrá dada entonces por n d pX (x) = FX ( x ) = ∑ PX ( x i )δ( x − x i ) dx i =1 (3.15 0. ella tiene las siguientes propiedades.35 0. Cara xi 1 2 3 4 5 6 PX(xi) 0. FX (+∞) = 1 si x 1 < x 2 (3.15 0. 3. En la Fig. FX (x 1 ) ≤ FX (x 2 ) 3.50 0. VARIABLES Y PROCESOS ALEATORIOS Como FX(x) está basada directamente en el concepto de probabilidad. pero para efectos del presente ejemplo vamos a suponer que las probabilidades PX(xi) asignadas a cada cara xi son diferentes. la función FX(x) se puede expresar en la forma FX (x) = ∑P i =1 n X (x i ) ⋅ u (x − xi ) (3.36) (3. que en adelante se denominará “densidad de probabilidad”. que daremos sin demostrarlas: 1. 3.

p X ( x )” de una VA X se define en la forma p X (x) = d dx FX ( x ) (3. como se muestra en la Fig. se tiene FX ( x ) = x ∫ −∞ p X ( x ' )dx ' = P( X ≤ x ) (3. Pero hay muchos casos.∞ a + ∞. Como se está igualando una área con probabilidad.44) La probabilidad de observar X en cualquier intervalo (x1 . En el caso más general. Por ejemplo. y.6. VARIABLES Y PROCESOS ALEATORIOS 3. y es el equivalente. Densidad de Probabilidad 0 x x área bajo dicho intervalo. En este caso. entonces la respectiva VA. Un espacio de muestras continuo contiene infinitos puntos (no contables) y es evidente que la probabilidad de observar un punto dado es cero. el problema de asignación de probabilidades a la correspondiente VA se hace más complicado.2. la función en cuestión se denomina “función de densidad de probabilidad”.42). x + dx ) es igual a p X ( x )∆x cuando ∆x → 0. lo cual no tiene significado. en los cuales el espacio de las muestras es continuo y contiene infinitos (no contables) puntos de muestra y no puede ser representado por un conjunto de puntos discretos. en el caso continuo. la suma de todas las probabilidades sería infinita. sobre todo en el mundo físico.205 III. si se asignara una probabilidad a un punto dado. por lo tanto. 3.6. . la probabilidad de observar una temperatura dada es cero. Una VA continua puede tomar valores en el intervalo continuo (-x1 . 3. sea T la temperatura de una sala. de la función de frecuencia P(X = xi) del caso discreto. x2) viene dada por el x2 x1 Fig.34). será una variable aleatoria continua.3.42) La probabilidad de observar la VA X en el intervalo (x. como puede observarse en la Fig. Integrando (3. x2). pero es más conveniente definir una función cuya “área” sea la probabilidad de ocurrencia dentro de una gama dada. De otra manera. Sin embargo. es evidente que la gama de valores puede extenderse desde .43) p X (x) ∆x Podemos demostrar también que P (x 1 < X ≤ x 2 ) = FX ( x 2 ) − FX ( x 1 ) = P (x 1 < X ≤ x 2 ) ∫ x2 x1 p X (x ) dx (3. definida en este espacio. Como ya lo hemos observado.6. Si el espacio de las muestras es continuo. la probabilidad de que la VA X tome un cierto valor es cero. La “función de densidad de probabilidad.6). pero sí lo tiene cuando nos preguntamos cuál es la probabilidad de que la VA X tome valores iguales o menores que cierto valor x. 3. Variables Aleatorias Continuas Hemos visto el caso en que el espacio de las muestras consistía de elementos discretos (puntos de muestra) y como resultado la VA respectiva solamente podía tomar valores discretos. en el caso de un espacio de muestras continuo. expresión (3. lo cual estaría en contradicción con la condición (3. esta temperatura puede tomar cualquier valor dentro de la gama de infinitas temperaturas comprendidas dentro de un intervalo (T1 . T2). el concepto de función de distribución es aún válido. Esta probabilidad es simplemente el área encerrada por la curva p X ( x ) en el respectivo intervalo.

6). como se La correspondiente función de densidad es. P(3 < X ≤ 5) = 1 2 ♣ Se tiene también la situación donde la función de probabilidad es mixta.46) Nótese que el hecho de que la probabilidad de observar X a cierto valor x es cero. es evidente por el hecho de que la integral (3.45).33) en el caso discreto.4 Sea una VA X cuya función de distribución es F X ( x ) = muestra en la Fig. 1 FX ( x ) x 1/4 p X ( x) x 0 2 4 6 0 2 4 6 (a) Función de Distribución Fig. 3. En la Fig. 3.45) representa la probabilidad de observar X en el intervalo (-∞. 3. de (3.7 se muestra FX (x ) y p X ( x ) . VARIABLES Y PROCESOS ALEATORIOS ∞ Puesto que FX(+∞) = 1. Esta situación la podemos considerar en el siguiente ejemplo.7(a). ella debe cumplir con la condición (3. Por ejemplo. ∫ −∞ p X ( x )dx = 1 (3. pero eso no significa que la temperatura de la sala nunca podrá ser T0 . +∞).7(b). Como la probabilidad es una magnitud positiva (AXIOMA I). de la Fig.13) p X (x) = F X (x) = [ u (x − 2) − u (x − 6)] = Π( ) Puesto que p X ( x ) es constante en el intervalo (2. no necesariamente significa que la VA X no tomará jamás ese valor particular. es decir. que pX (x) es continua pero contiene impulsos. Nótese también que para que una función de x se pueda considerar como una densidad de probabilidad. d dx 1 4 1 4 x−4 4 1 4 [ r (x − 2) − r (x − 6)] . podemos ver que P (X ≤ 3) = 1 4 .206 III. lo cual es una certitud. la probabilidad de que la temperatura T de la sala tome un cierto valor T0 es cero. (b) Densidad de Probabilidad Por ejemplo. entonces. 3. la densidad de probabilidad deberá ser siempre positiva. equivalente a la (3.45) Esta expresión. . en este caso se dice que la VA X está distribuida uniformemente en ese intervalo. ♣ Ejemplo 3.7.41) y (1. la función de densidad de probabilidad deberá cumplir entonces con las condiciones ∫ ∞ −∞ p X (x ) dx = 1 y p X (x) ≥ 0 para todo x (3.

en la Fig. de donde FX (−A) = 1 − FX (A) Entonces el impulso en − B = − A tendrá un área k1 = FX (− A) = 1 − FX (A) = k 2 Por consiguiente.8(b) la probabilidad de observar el voltaje de amplitud A es k. respectivamente.3. Si esta señal se pasa por un limitador que recorta el voltaje en cierto valor +A. El impulso que aparece en x = A tiene un área o intensidad k = ∫ p X ( x )dx = FX (∞) − FX (A ) = 1 − FX (A ) A ∞ pX(x pX1(x) k pX2(x) k1 k2 0 (a) x 0 A (b) Fig. 3. y en la Fig. Sin embargo.8(b). VARIABLES Y PROCESOS ALEATORIOS Ejemplo 3. 3.5. Tal es el caso para los intervalos (−∞.8(b). 3.8(a). ♣ . Consideremos el caso de una VA X cuya densidad de probabilidad se muestra en la Fig.8(c) la probabilidad de observar los voltajes de amplitud –B y A es k1 y k2. De lo anterior se desprende que la probabilidad de observar un voltaje dado es cero en la región donde pX(x) es continuo. 3. 3. entonces p X (A) = p X (− A) y FX (A) = 1 − FX (−A) . 3. ∞ ) como en la Fig.8(c) es para el caso cuando el limitador recorta el voltaje dentro de los valores –B y +A.8(a). en el intervalo (−∞ < x < A ) como en la Fig. y si B = A. el área de los impulsos es la misma.8(c). la nueva densidad de probabilidad aparecerá en la forma mostrada en la Fig. 3. 3.8 x -B 0 A (c) x La Fig. y en el intervalo − B < x < A) como en la Fig.207 III. El área de los impulsos es k1 = ∫ −B −∞ ∞ p X ( x )dx = FX (− B) − FX ( −∞) = FX (− B) k2 = ∫ A p X ( x )dx = 1 − FX (A) Como pX(x) es una función par de x.

... cada punto de muestra se puede describir mediante una dupla de números. . y)dx (3. La posición de cada disparo es un punto aleatorio que se puede describir mediante dos números en un sistema de coordenadas apropiado. entonces FXY ( x .... p X1X 2 ... La “función de distribución conjunta de dos VA X e Y. FXn ( x n ) ♣ Ejemplo 3.47) La correspondiente ”función de densidad de probabilidad conjunta. x 2 . y)dy y p Y (y) = ∫ ∞ −∞ p XY ( x . y) ”. y) = ∂2 ∂x∂y FXY ( x . y) debe ser siempre la unidad. De (3. y) = p X ( x ) ⋅ p Y ( y ) (3. llamadas “densidades marginales”.. Los puntos de muestra de tal experimento tienen dos atributos o grados de libertad. Cada punto de muestra se describirá entonces mediante la dupla (x. p XY (x .. y) (3. x 2 ..6 Vamos a definir la función de densidad conjunta de dos VA X e Y en la forma p XY (x ... y)dxdy = 1 (3. o sea que ∫ ∫ ∞ ∞ −∞ −∞ p XY ( x . Por ejemplo. y).51) (3. se pueden obtener a partir de pXY(x. para n VA independientes. y) = P(X ≤ x. evidentemente es una certitud.52a) (3. Por lo tanto. . y que la VA Y sea la coordenada y de cada disparo.. . x n ) = p X1 (x 1 ) ⋅ p X 2 (x 2 ).. las densidades de probabilidad individuales pX(x) y pY(y). Cuando se trabaja con probabilidades conjuntas de dos VA X e Y. FXY(x. . consideremos el experimento aleatorio del tiro al blanco..48) El suceso de observar X en el intervalo (-∞. y' )dx' dy' (3. x n ) = FX1 ( x 1 ) ⋅ FX2 ( x 2 ).49)... Distribuciones Conjuntas Un experimento aleatorio puede tener dos resultados. Y ≤ y) = ∫∫ y x -∞ -∞ p XY ( x ' . p X n ( x n ) FX1X2 . y) = Kexp[-(x + y)] ⋅ u(x) ⋅ u(y) Primero vamos a determinar el valor de K para que pXY(x.3. En efecto.. y). y) sea verdaderamente una función de densidad de probabilidad conjunta.. se demuestra [Papoulis. y) ≥ 0 para todo x e y... VARIABLES Y PROCESOS ALEATORIOS 3. +∞) y de observar Y en el mismo intervalo. Debe cumplirse también que p XY (x . y) = FX (x ) ⋅ FY ( y ) y p XY ( x . Podemos asociar entonces dos VA continuas en este espacio y hacer que la VA X sea la coordenada x.Xn ( x 1 .X n ( x 1 . y)” se define en la forma F XY ( x . .50) y si las VA X e Y son independientes. 1965] que las densidades marginales son p X (x) = ∫ ∞ −∞ p XY ( x .49) El volumen total dentro de la curva de la densidad de probabilidad conjunta pXY(x.208 III.52b) y en general... es p XY ( x .3.

y) = exp[-(x + y)] ⋅ u(x) ⋅ u(y) La función de distribución conjunta es. p Y ( y ) = exp( − y ) u (y ) y de la misma forma.54) Mediante diferenciación de (3.47). y) = ∫∫ y x . se tiene FX|Y ( x| Y = y ) = ∫ x −∞ p XY ( x ' . se puede extender a la función de distribución y densidad de probabilidad [Lathi. Se puede definir la función de distribución condicional de X dada Y ≤ y en la forma FX|Y ( x| y ) = F XY ( x . y ) dx ' p Y (y) (3.exp(-y)]u(y) y las densidades de probabilidad marginales. se obtiene .exp(-x)]u(x) ⋅ [1 . por lo tanto las VA X e Y son Nótese que se cumple que independientes. que FXY ( x .∞ -∞ exp[-(x' +y' )]u(x' )u(y' )dx' dy' = ∫ exp(-x' )dx' ∫ exp(-y' )dy' x y 0 0 FXY ( x . También.53) Si la condición es que Y = y en vez de Y ≤ y . p XY (x . y ) F Y (y) para FY ( y ) ≠ 0 (3. y) = FX ( x ) ⋅ FY ( y ) ♣ Distribución Condicional El concepto de probabilidad condicional de un suceso A dado un suceso B. Sean dos variables aleatorias X e Y. VARIABLES Y PROCESOS ALEATORIOS ∞ ∞ ∞ ∞ ∫ ∫ K −∞ −∞ K exp[−( x + y)]u ( x )u ( y)dxdy = K ∫ ∫ exp(−x ) exp(− y)dxdy = 1 0 0 ∫ ∞ 0 exp(− x ) dx ⋅ exp(− y ) dy = 1 0 ∫ ∞ pero cada una de estas integrales es igual a la unidad.13). de (3. de (3. y) = p X ( x ) ⋅ p Y ( y ) . FX ( x ) = ∫ x −∞ p X ( x ' ) dx ' = [1 − exp(− x )]u (x ) y de la misma forma FY ( y ) = [1 − exp(− y )]u ( y ) Se verifica. puesto que las VA X e Y son independientes. de donde K=1 y p XY (x .50). expresión (3. p X (x) = ∫ ∞ −∞ exp[ − ( x + y )]u ( x ) u (y )dy = exp(− x ) u ( x ) exp(− y ) dy 0 ∫ ∞ p X ( x ) = exp( − x ) u (x ).54) respecto a x.209 III. 1968]. FXY (x . y) = [1 .

y ) = ( x + y ) ⋅ Π( x − ) ⋅ Π(y − ) 2 2 Vamos a determinar todas las funciones de distribución y densidades de probabilidad asociadas.210 III. y) = ∫ 0 ∫ x 0 ( x ' + y' )dx ' dy' para 0 ≤ x ≤ 1. 1 ≤ y ⎪ para x < 0. VARIABLES Y PROCESOS ALEATORIOS p X|Y ( x| Y = y ) = p XY ( x .47).56) obtenemos la Regla de Bayes para señales aleatorias continuas.7 La densidad de probabilidad conjunta de dos VA X e Y viene dada por 1 1 p XY (x . De (3. y ) = ⎨1 para 1 ≤ x. p Y|X ( y| X = x ) = Combinando (3.57a) (3. y ) p Y (y) (3.55) y (3.50). y ) se puede escribir en una forma más compacta: FXY ( x . 0 ≤ y ≤ 1 ⎪2 FXY ( x . p X|Y ( x| Y = y ) ⋅ p Y (y ) = p Y|X ( y| X = x ) ⋅p X ( x ) o también p X | Y ( x | Y = y) pX (x) = p Y|X ( y | X = x ) p Y ( y) (3. y ) = xy 1 1 ( x + y ) ⋅ Π( x − ) ⋅ Π( y − ) + u ( x − 1) ⋅ u (y − 1) 2 2 2 De (3. F XY ( x . y < 0 ⎪0 ⎩ FXY ( x .57b) ♣ Ejemplo 3. y ) = y ∫ ∫ y x −∞ −∞ (x '+ y ' ) Π(x '−1 / 2 ) Π(y '−1 / 2 ) dx ' dy ' FXY ( x . y ) p X (x ) (3.56) y en forma similar. 0 ≤ y ≤ 1 Efectuando la integración obtenemos ⎧ xy ⎪ (x + y ) para 0 ≤ x ≤ 1. p X (x ) = ∫ ∞ −∞ (x + y )Π(x − 1 / 2 ) Π(y − 1 / 2 )dy 1 ⎡ y2 ⎤ 1 p X ( x ) = (x + y )dy = ⎢ xy + ⎥ = (x + ) para 0 ≤ x ≤ 1 0 2 ⎦ 2 ⎣ 0 ∫ 1 1 1 p X ( x ) = ( x + ) ⋅ Π( x − ) 2 2 .55) p XY ( x .

en este caso. De (3. si su función de densidad de probabilidad es la curva de Gauss [Korn y Korn. algunos de sus parámetros. vamos a examinar algunas de estas funciones especiales y daremos.55). La función erf(x) se define en el Apéndice D. 1 x2 (3. En las distribuciones no centradas pX(x) y FX(x) están desplazadas a lo largo del eje x en una cantidad xo. es decir.4. 3.56).211 III. FUNCIONES DE PROBABILIDAD ESPECIALES En los problemas que se presentan en el análisis de sistemas de comunicación aparecen con frecuencia ciertas funciones de probabilidad que describen situaciones o procesos físicos.1.58) p X (x) = exp( − 2 ) σ 2π 2σ x 1 1 x x '2 1 También. Distribución Normal o Gaussiana Se dice que una VA X está distribuida normalmente o en forma gaussiana. y) x+y 1 1 = ⋅ Π (x − ) ⋅ Π (y − ) p y (y) y + 1/ 2 2 2 x+y 1 1 Π( x − ) ⋅ Π( y − ) x +1/ 2 2 2 ♣ p Y|X ( y| X = x) = 3. Por considerarlo de importancia.59) −∞ 2 2 2σ σ 2π 2σ ∫ donde σ es la desviación de la VA X.60) . 1 1 p Y ( y ) = ( y + ) ⋅ Π( y − ) 2 2 p XY (x. En este caso σ se conoce con el nombre de “desviación normal”.4. p X (x) = ⎡ (x − x ) 2 ⎤ x − xo ⎤ 1⎡ o exp⎢ − ⎥ . FX ( x ) = ⎢1 + erf ( )⎥ 2 2⎣ σ 2π 2σ 2σ ⎦ ⎣ ⎦ 1 (3. FX ( x ) = ) exp(− 2 )dx ' = + erf ( (3. VARIABLES Y PROCESOS ALEATORIOS y de la misma manera. En la Fig. p X|Y (x | Y = y) = De (3. mientras que σ2 en la “varianza” o valor eficaz de la VA X. 3. sin demostrarlos. 1968].4.9 se muestran las formas típicas centradas de pX(x) y FX(x).

La varianza σ2 es la potencia promedio de ruido que. se supone que un “CERO” (0 V) fue transmitido. de acuerdo con la expresión (2. El ancho de banda del canal es B. Se demuestra también que cualquier combinación lineal de variables aleatorias gaussianas es también gaussiana. si el valor promedio de la señal recibida es A.61) La distribución gaussiana se determina completamente a partir de su valor promedio x o y la desviación estándar σ .62) pX (x) = ⎥ 2ηB ⎦ π 2ηB ⎣ Suponiendo que toda señal recibida de amplitud mayor o igual que Vs = A / 2 es un “UNO”.212 III. Sea X la señal recibida. La forma más sencilla de modulación binaria es la modulación OOK. la señal se contamina con ruido (que suponemos blanco. por definición. de valor promedio cero y densidad espectral η / 2 ) . se supone que un “UNO” (A V) fue transmitido. o viceversa. gaussiano. x − xo x − xo 1 P( x 1 < X ≤ x 2 ) = FX ( x 2 ) − FX ( x 1 ) = [erf ( 2 ) − erf ( 1 )] 2 2σ 2σ (3. VARIABLES Y PROCESOS ALEATORIOS Estas distribuciones no centradas se muestran en la Fig. la probabilidad de que un “UNO” transmitido sea interpretado como un “CERO” en el receptor. 3. y el algoritmo de detección establece que si la señal recibida y demodulada es igual o mayor que un cierto umbral Vs. la señal recibida es aleatoria (por su contenido de ruido) con una función de densidad de probabilidad normal de valor promedio A y varianza σ2 .146) es σ 2 = ηB . la densidad de probabilidad de la señal recibida será ⎡ ( x − A) 2 ⎤ 1 exp ⎢− (3. Probabilidad de Error en un Sistema de Comunicación Binario Como sabemos. entonces la probabilidad de que un “UNO” transmitido sea interpretado como un “CERO” . También.8. Vamos a determinar la probabilidad de error en el receptor. Durante la transmisión. en caso contrario. es decir.10. que veremos en el Capítulo V. un sistema de comunicación binario es aquel que transmite solamente dos posibles mensajes. En el receptor. ♣ Ejemplo 3. en la cual se transmite una señal de 0 ó A volts (V).

. 3.n y α > 0. La probabilidad de error Pe será entonces.819 ⎢ erf ( 2⎣ 50 2 50 2 ⎦ ♣ 3... en donde se considera conocidas las probabilidades de transición.66) En la Fig. con x2 = 1050 y x1 = 900. 1.n con probabilidades (ατ ) k Pk (τ ) = exp(−ατ ) para k = 0. la integral queda en la y haciendo K = 8ηB 2η B Pe = 1 −K 1 ∞ 1 K 2 2 2 ∫− ∞ exp(−u )du = π ∫0 exp(−u )du − π ∫0 exp(−u )du π De la definición de erf(x) y erfc(x) dadas en el Apéndice D...2. A⎫ 1 ⎧ Pe = P ⎨X < ⎬ = 2⎭ π 2η B ⎩ ∫ A/2 −∞ ⎡ ( x − A) 2 ⎤ exp ⎢− ⎥dx 2η B ⎦ ⎣ (3. (3. ♣ Ejemplo 3..11 se muestra pX(x) y FX(x) de la distribución de Poisson. Sea una VA X gaussiana no centrada. 3.63) Con el cambio de variables u = forma x−A A2 .. 1.9.. 2. cosa que en la práctica no es posible. VARIABLES Y PROCESOS ALEATORIOS en el receptor es simplemente la probabilidad de que la variable aleatoria X sea menor que A/2.2. Pe = A2 1 1 ) erfc(K ) = erfc( 8ηB 2 2 (3. Determine la probabi- Si una VA X es de tipo discreto y toma valores en los puntos k = 0. 2. FX (x) = 1⎡ 1050 − 1000 900 − 1000 ⎤ ) − erf ( ) ⎥ = 0.4. 3. Distribución de Poisson α = 50 . ..4. cuyo parámetro es la constante positiva α.64) Nótese que este enfoque es más realista que el enfoque tratado en el Ejemplo 3.213 III. De (3. con xo = 1000 y lidad de que X esté entre 900 y 1050...65) k! entonces se dice que la VA X tiene una “distribución de Poisson”. La correspondiente densidad de probabilidad es una secuencia de impulsos de la forma p X (x) = exp(−ατ ) ∑ (ατ ) k δ( x − k ) k! k=0 n (3.62)..

12. como se muestra en la Fig. La densidad de probabilidad de la distribución binomial es una secuencia de impulsos..13(a). entonces PX (τ ) es máxima para k =|α τ| . Si ατ > 1. Distribución Uniforme Si la densidad de probabilidad de una VA X es una función rectangular de la forma x − xo 1 p X (x ) = Π( ) (3. 3.68) ⎛n ⎞ n! ⎜ ⎟= ⎝ k ⎠ k !⋅ (n − k )! Fig. pero no es un número entero. Distribución Binomial donde.. entonces Pk (τ ) es máxima para k = 0.n con probabilidades definidas mediante la expresión ⎛n ⎞ Pk (x k ) = ⎜ ⎟ ⋅ p k ⋅ q n − k (3. En este caso la VA X es de tipo continuo y su función de distribución será una rampa de la forma dada en la Fig. 3. entonces PX ( τ ) tiene dos puntos máximos para k = α τ y k = α τ -1.4. VARIABLES Y PROCESOS ALEATORIOS p X ( x) ooo 0 1 2 3 4 5 1 FX ( x) ooo x 0 1 2 3 4 x (a) Densidad de Probabilidad (b) Función de Distribución Fig.3. Fig.13(b). 3.214 III.. 3.11.67) ⎝k ⎠ se dice que tiene una “Distribución Binomial”.12. . Si α τ es un número entero. 3.3. 1.4. se dice entonces que la VA X está distribuida uniformemente en el intervalo (x 1 . . La densidad de probabilidad de la distribución binomial es p X (x ) = 0 p X (x ) oooo x 1 2 3 4 5 6 7 8 ∑⎜⎝k ⎟⎠ ⋅ p k=0 n ⎛n ⎞ k ⋅ q n − k ⋅ δ( x − k ) (3. Distribución Binomial Si una VA X es de tipo discreto y toma valores en los puntos k = 0. 3. Distribución de Poisson Si ατ < 1. por definición.4. x 2 ) con x2 > x1 .. 2.69) x 2 − x1 x 2 − x1 donde x o = ( x 2 + x1 ) / 2 .

Fig.27). Distribución de Laplace La función de densidad de probabilidad de Laplace de una VA X es.13(b).4.5. p X (x ) = α exp(−α| x|) 2 (3.72) donde α es el parámetro de la distribución. FX (x) = 1 1 exp(αx )u (− x) + [1 − exp(− αx)]u(x) 2 2 (3. La correspondiente función de distribución es (ver Problema 3. 3. 3. 3.13.15(a). Distribución de Cauchy La función de densidad de Cauchy es p X (x ) = α 1 2 π α + x2 (3. 3. . la cual se muestra en la Fig.14(b) se muestra esta función.71a) donde α es el parámetro de la distribución. FX (x ) = 1 r (x − x 1 ) − r (x − x 2 ) x 2 − x1 [ ] (3. aplicando la función rampa r(x).215 III. Distribución Uniforme 0 x1 xo x2 x1 x2 Por inspección de la Fig.4. 3.70) 3. 3.6. VARIABLES Y PROCESOS ALEATORIOS p X (x ) 1 / (x 2 − x 1 ) x 1 FX (x ) x 0 (a) Densidad de Probabilidad (b) Función de Distribución Fig.14(a).71b) En la Fig.

3. . VARIABLES Y PROCESOS ALEATORIOS La correspondiente función de distribución es (ver Problema 3.16(b) se muestra esta función.16(a).15(b) se muestra esta función. Fig. 3.73b) En la Fig.216 III.73a) El valor máximo de p X ( x ) ocurre cuando x = α .4.7. Distribución de Raleigh La función de densidad de Raleigh de una VA X es. p X (x) = x α2 exp( − x2 2α 2 )u(x) (3. FX (x ) = 1 1 x + arctg( ) 2 π α En la Fig.28) ⎡ x2 ⎤ FX (x) = ⎢1 + exp(− 2 ) ⎥ u(x) 2α ⎦ ⎣ (3.25). 3. α es el parámetro de la distribución La correspondiente función de distribución es (ver Problema 3. 3.

entonces. FUNCIONES DE VARIABLES ALEATORIAS Muy a menudo nos interesa conocer las funciones de probabilidad de una VA después que ella ha experimentado alguna transformación. quisiéramos ahora determinar la función de densidad de probabilidad de una VA Y relacionada con X mediante la ecuación Y = g(X) (3.. VARIABLES Y PROCESOS ALEATORIOS 3.8. 1965] es válido cuando y = g ( x ) tiene un número contable de n raíces o soluciones x n y que FX(x) sea diferenciable en los puntos x n . la ecuación y = g(x) tiene. 3.5.217 III.. 3..4. Vamos a suponer que X es continua y que g(x) lo es también. por ejemplo..17(a). FX (x) = 2/ π x 2 x '2 x 1 2 x2 x ' exp(− 2 )dx ' = [erf ( )− x exp(− 2 )]u(x) α3 ∫0 2α 2α 2α α π (3.. Fig..74b) En la Fig. cuando más. .17(b) se muestra esta función. p X (x) = 2/ π 2 x2 x exp(− 2 )u(x) 2α α3 (3. x n . Si. α es el parámetro de la distribución La correspondiente función de distribución es (ver Problema 3. la función de densidad de probabilidad de una VA X es pX(x). Esto significa que para un valor y dado.29). El siguiente teorema [Papoulis. x 2 . pY(y) la densidad de probabilidad de la VA Y. pero con la condición de que g(x) no sea igual a una constante en ningún intervalo. Distribución de Maxwell La función de densidad de Maxwell de una VA X es..75) Sea.74a) El valor máximo de p X ( x ) ocurre cuando x = α 2 . 3. un número contable de raíces x 1 .

.78) En muchas aplicaciones es necesario determinar la función de probabilidad conjunta de transformaciones de variables aleatorias conjuntamente distribuidas.. x n son todas sus raíces reales . si y = g ( x 1 ) = g ( x 2 ) =. v) = (3.62) en términos de x e y. = g ( x n ) (3. En forma similar al caso anterior. v) de las VA U y V viene dada por [Papoulis.. v) de dos VA U y V relacionadas con X e Y mediante las ecuaciones U = X + 2Y y V=2X+Y x= Resolviendo simultáneamente para x e y.v 3 . y) = exp[-(x + y)]u(x)u(y) y queremos determinar la función de densidad conjunta p UV (u . x 2 ... y) ∂x J ( x .76) (3. ♣ Ejemplo 3.81) La extensión de este método para más de dos VA es directa. Y) (3. Si x1 . y) = ⎢ ∂ ⎢ h ( x .. y= 2u . y J(x. ⎡1 J =⎢ ⎣2 2⎤ ⎥ = [1 − 4 ] = −3 1⎦ y |J|= 3 2v − u 3 .79) Se trata ahora de determinar la función de densidad conjunta p UV (u .10 La función de densidad conjunta de dos VA X e Y es p XY (x .218 III. v) de las VA U y V.. p Y (y) = ∑ | g' (x )| ∑ p = i =1 i =1 X (x i ) dx i dy (3.77) y g ' (x ) = d dx g (x ) = dy dx n p X (x i ) i n Entonces.80) definido mediante el determinante ⎡∂ ⎢ g ( x . es decir. y) ⎢ ⎣ ∂x ⎤ g ( x . y) ⎥ ⎥ ∂y ⎦ ∂ (3. y i ) p UV ( u ... En este caso consideremos la función de densidad de probabilidad conjunta pXY(x. n p XY ( x i .80) i=1 J ( x i . 1965].61). y) de dos VA X e Y. se resuelve la ecuación y = g ( x ) en términos de y..... y) es el Jacobiano de la transformación (3. se obtiene y el Jacobiano. La densidad de probabilidad conjunta p UV (u . y i ) ∑ donde x i e y i son las soluciones simultáneas o raíces de las ecuaciones (5. Y) y V = h(X. se resuelven simultáneamente las ecuaciones (3. VARIABLES Y PROCESOS ALEATORIOS Teorema Fundamental Para encontrar la función de densidad pY(y) para un valor dado de y. y) ⎥ ∂y ⎥ ∂ h ( x . y sea U y V otras dos VA relacionadas con X e Y mediante las ecuaciones U = g(X.

..+ m n x n ) = m1 N x1 + m2 N x 2 +. Definición 2v ..... Repitamos el experimento (representado por X) N veces (N → ∞) y sea m1 . entonces su valor promedio es X= ∫ ∞ −∞ xp X ( x ) dx = E {X} para variables aleatorias continuas (3.. . el valor promedio de una VA X se define en la forma X= ∑x P i =1 n i X (x i ) para variables aleatorias discretas (3..1. x n .6.u 3 2u ... se tiene: si si de donde x ≥ 0. la definición empírica de la probabilidad....v 3 ≥0 y v≥ u 2 ≥ 0 y 2u ≥ v La densidad de probabilidad conjunta p UV (u .. .. y=(2u-v)/3 = exp ⎢ − ( + ) ⎥ = exp[ − ( u + v)] 3 3 ⎦ 3 ⎣ Suponiendo que u ≥ 0. m n los números de pruebas favorables a los resultados x 1 . Por ejemplo. .. x 2 . ... expresión (3. Consideremos una VA X que puede tomar los valores x 1 . entonces 2u ≥ v ≥ u 2 u 2 ♣ 3. lo cual quiere decir que el proceso no puede predecirse en detalle sino en base de “promedios”. .6.. Entonces el valor promedio de la VA X (que representaremos con una barra sobre la variable) es X= 1 N ( m1 x 1 + m 2 x 2 +. representa una forma de promedio.84) donde E{X} es otra forma de representación del valor promedio de X.219 III. . m 2 . v) de las VA U y V será entonces ⎧1 ⎤ ⎡ 1 ⎪ exp⎢ − ( u + v )⎥ para ⎦ ⎣ 3 p UV (u . 2. x 2 .82) En el límite. .n. Un proceso aleatorio se caracteriza por su “regularidad estadística”. respectivamente. PROMEDIOS ESTADISTICOS 3.1). entonces y ≥ 0. . x n con probabilidades PX ( x i ) con i = 1.. v) = ⎨ 3 ⎪0 en el resto ⎩ u≥0 y 2u ≥ v ≥ El concepto de “promedio” o “valor promedio” tiene una gran importancia en el estudio de los procesos aleatorios. VARIABLES Y PROCESOS ALEATORIOS También. 1 ⎡ 2v − u 2u − v ⎤ exp[ − ( x + y)]|x =( 2 v − u )/ 3. Entonces. cuando N → ∞.+ mn N xn (3. la relación m i / N tiende a PX(xi) de acuerdo con la definición empírica de la probabilidad.83) Si la VA X es continua.

. E {aX + b} = aE {X} + b. pues E {b} = b E {g(X)} = E{g 1 ( X)} + jE {g 2 (X)} Z = g(X. podemos ver que si g ( X) = g 1 (X) + g 2 ( X) +.Y).. entonces Valor Promedio de una Función de Variables Aleatorias Si una VA Z es una función de dos VA X e Y de la forma definición.88) Si g ( X) = g 1 ( x ) + jg 2 ( X). Valor Promedio de Funciones de Variables Aleatorias Valor Promedio de una Función de una Variable Aleatoria A menudo se desea determinar el valor esperado de una cierta función de una VA en vez del valor esperado de la VA..89) y para variables aleatorias discretas . entonces..85) Si la VA X es de tipo discreto. Es decir.Y).... 1968]. entonces (3. 3. 1965] que si Y = g(X). E {Z} = ∫ ∞ −∞ zp Z (z) dz El valor esperado de Z se puede determinar directamente a partir de la densidad de probabilidad conjunta pXY (x. se desea obtener una expresión para el valor esperado de una VA Y que es una función de X de la forma Y = g(X) Por definición. En particular. el cual establece que si Z = g(X. entonces E{Y} = E{g (X)} = ∫ ∞ −∞ yp Y (y )dy = ∫ ∞ −∞ g ( x ) p X (x )dx (3. y) utilizando el “teorema de la esperanza” o “teorema del valor esperado” [Lathi.220 III.2...+ E {g n ( X)} El valor esperado de una suma de funciones de una VA X es la suma de los valores esperados de cada una de las funciones..+ g n (X)} = E {g 1 (X)} + E {g 2 ( X)}+..6. E {Y} = E{g (X)} = ∑ g(x )p i i =1 n X (x i ) (3. “esperanza matemática” o “promedio estadístico”.86) Generalizando. y)p XY ( x . entonces E{Z} = ∫ ∫ ∞ ∞ −∞ −∞ g ( x .+ g n (X) .. y lo representaremos indistintamente con la notación X o E {X} . Y = E {Y} = ∫ ∞ −∞ yp Y ( y ) dy Se demuestra [Papoulis. VARIABLES Y PROCESOS ALEATORIOS El valor promedio de una VA X se conoce también con los nombres de “valor esperado”. y)dxdy (3.87) E{g 1 ( X) + g 2 ( X) +.. por (3.

.95) { } ∫−∞ x n p X (x)dx i ∞ Nótese que el primer momento (n = 1) es igual al valor esperado de la VA X.. Momentos El momento n-ésimo de una VA X se define como el valor esperado de la potencia n-ésima de X... el segundo momento será E X2 = { } ∫−∞ x 2 p X (x)dx ∞ (3. x 2 . y )P i j i j XY ( x i . ∫ ∞ −∞ g ( x 1 . x n )p X1X2 . se verifica que E{Z} = E {g 1 ( X1 )} ⋅ E{g 2 (X 2 )} ⋅ ⋅ ⋅ ⋅E {g n ( X n )} (3. . la expresión (3.92) El valor esperado de un producto de variables aleatorias es el producto de los valores esperados de cada variable aleatoria si y solamente si las variables aleatorias son estadísticamente independientes. 3..... Valor Promedio de Variables Aleatorias Estadísticamente Independientes Consideremos el producto de n variables aleatorias estadísticamente independientes Z = X 1 ⋅ X 2 ⋅ ⋅ ⋅ ⋅X n Puesto que las Xi son estadísticamente independientes.. para un producto de funciones de variables aleatorias de la forma Z = g 1 (X1 ) ⋅ g 2 (X 2 ) ⋅ ⋅ ⋅ ⋅g n ( X n ) Por definición.. entonces E{Z} = ∫ ∫ ∞ ∞ −∞ −∞ .. caso continuo. x n ) . x n ) dx 1dx 2 .Xn ( x 1 .... x 2 .96) Las dos primeros momentos se conocen con el nombre de “momentos de primer orden”. x 2 .. E Xn = E Xn = { } ∑ x n p X (x i ) i si la VA X es discreta si la VA X es continua (3.. si Z = g (x 1 .3... X 2 . por definición.93) El valor esperado de un producto de funciones de variables aleatorias es el producto de los valores esperados de las respectivas funciones si y solamente si las variables aleatorias son estadísticamente independientes. yj) (3.. Asimismo..91) es aún válida ya que la distribución discreta se considera como el caso límite de una distribución continua mediante la utilización de impulsos Delta Dirac. .6.90) Generalizando. X n son estadísticamente independientes. se tiene que E{Z} = E {X 1 ⋅ X 2 ⋅ ⋅ ⋅ ⋅X n } = E {X 1 } ⋅ E{X 2 } ⋅ ⋅ ⋅ ⋅E {X n } (3. dx n (3........ Para n = 2..94) (3.91) Si algunas de las n variables son discretas.. E{Z} = E {g 1 ( X1 ) ⋅ g 2 ( X 2 ) ⋅ ⋅ ⋅ ⋅g n ( X n )} Como X1 .. Entonces.221 III. VARIABLES Y PROCESOS ALEATORIOS E{Z} = ∑∑g (x ..

Demostrar que (a) E{X} = 0.95). mientras que E X 2 es la potencia promedio. Var{X}=σ 2 Solución Como la VA X es gaussiana. Momentos de una variable aleatoria gaussiana.97) } { } { } (3. ♣ Ejemplo 3. E{X 2 } = σ 2 + x o . y como la integración se hace para todo t. 11. Este enunciado es de particular importancia en el estudio de sistemas de comunicación donde las señales mensaje están contaminadas con ruido aditivo y además no están correlacionadas. y E{X 2 }=σ 2 (b) Si la VA X está desplazada en una cantidad xo. su densidad de probabilidad es. entonces 2 E{X} = x o . De (3. como veremos a continuación. El segundo momento de X es E (S + N ) 2 = E S 2 + N 2 + 2SN = E S 2 + E N 2 + 2 E{S} ⋅ E{N} Si E{S} o E {N} o ambos son iguales a cero. de (3. por ejemplo.98) La potencia promedio de la suma de dos variables aleatorias es igual a la suma de las potencias promedio de cada una de las variables aleatorias. podemos decir que E {X} es el valor promedio de la VA X.222 III. Más adelante relacionaremos estos parámetros con la componente continua y la potencia promedio de una señal x(t). Sea. para n = 1. En términos prácticos. VARIABLES Y PROCESOS ALEATORIOS La raíz cuadrada de E X 2 es el valor eficaz del proceso X y se le conoce con el nombre de “valor cuadrático promedio o valor RMS (del inglés Root-Mean-Square)” del proceso X. donde S y N son dos señales aleatorias estadísticamente independientes. entonces E (S + N ) 2 = E S 2 + E N 2 { { } { } { } { } (3. Sea una variable aleatoria gaussiana.58) p X (x) = 1 σ 2π ∞ exp(− x2 ) 2σ 2 (a) E{X} es el primer momento o valor promedio de la VA X. Por lo tanto. Nótese la diferencia entre X 2 y E X 2 : las operaciones de promediación y elevación al cuadrado no son intercambiables y { } { } { } X 2 ≠ E {X 2 }. E{X} = −∞ ∫ xp X (x)dx = 1 ∞ σ 2π −∞ ∫ x exp(− x2 )dx 2σ 2 El integrando es una función impar de x. si y solamente si las variables aleatorias son estadísticamente independientes y por lo menos una tiene valor promedio cero. En la práctica se presenta con mucha frecuencia el problema de la determinación del valor promedio cuadrático de una suma de variables aleatorias. E{X} = 0 . la suma X = S + N. su valor es cero.

se conoce con el nombre de “desviación estándar” o “desviación típica”.96). X por definición. ∞ De (3. Desarrollando (3.100) (3.96). y se representa usualmente con la notación σ2 . Var{X} = Resolviendo la integral. VARIABLES Y PROCESOS ALEATORIOS ∞ ∞ De (3. −∞ ∫ x 2 p X (x)dx = 1 σ 2π −∞ ∫ x 2 exp(− x2 )dx 2σ 2 E{X 2 } = σ 2 (b) De (3. entonces 1 (x − x o ) 2 E {X} = ∫ x exp[− 2σ2 ]dx σ 2π −∞ Integrando obtenemos 2 ∞ E{X} = x o ∞ 1 (x − x o ) 2 2 De (3. es decir σX .101) ∑ (x i i − X ) 2 p X (x i ) si la VA X es discreta La varianza o dispersión nos proporciona una idea de la concentración de la densidad de probabilidad pX(x) alrededor del valor promedio X. y se define en la forma E (X − X ) n = { Nótese que el primer momento central (n = 1) es E{X − X} = 0 . E {X } = ∫ x exp[− 2σ2 ]dx σ 2π −∞ Integrando obtenemos 2 E{X 2 ) = σ 2 + x o Vemos que la VA X contiene una componente alterna cuya potencia promedio es σ 2 y una 2 componente continua de amplitud xo y cuya potencia es x o .100).95) y como la VA X está centrada.223 III. La raíz cuadrada positiva de la varianza. . Momentos Centrales −∞ 2 ∫ (x − x o ) exp(− (x − x o ) 2 )dx 2σ 2 ♣ Var{X} = σ 2 El momento central n-ésimo de una VA X es el momento respecto al valor esperado X de X.99) { } ∫−∞ (x − X ) 2 p X (x)dx ∞ si la VA X es continua (3. E{X 2 } = Integrando. Var ( X) = σ2 = E ( X − X ) 2 = X Var ( X) = σ2 = X } ∫−∞ (x − X ) n p X (x)dx ∞ (3. Entonces.100). El segundo momento central respecto al valor esperado X se conoce con el nombre de “varianza” o “dispersión” de la VA X.

224
III. VARIABLES Y PROCESOS ALEATORIOS

σ2 = E ( X − X ) 2 = E X 2 + X 2 − 2 XX = E X 2 + X 2 − 2 X 2 X (3.102)

{ } { σ2 = E{X 2 } − X 2 X

} { }

Se puede definir también la denominada “covarianza de dos VA X e Y” en la forma

Cov (X, Y) = E{(X − X )(Y − Y )}
Desarrollando (3.103), obtenemos finalmente, Cov(X, Y ) = E{XY} − X ⋅ Y Al término E{XY} se le denomina “correlación entre las VA X e Y”.

(3.103)

(3.104)

La covarianza Cov(X,Y) se puede expresar en términos de la función de densidad conjunta p XY ( x , y ) en la forma siguiente. Por definición, para variables aleatorias continuas Cov ( X, Y) = E {( X − X )( Y − Y )} = y si las variables aleatorias son discretas, Cov ( X, Y) =

∫ ∫

−∞ −∞

( x − X )(y − Y )p XY ( x , y )dxdy

(3.105)

∑ ∑ (x
i j

i

− X )( y j − Y ) PXY ( x i , y j )

(3.106)

Asimismo,

E{XY} =

∫ ∫

−∞ −∞

xyp XY ( x , y )dxdy

(3.107)

Si las variables X e Y no están correlacionadas, entonces Cov(X, Y) = 0, lo que implica que E{XY} = X ⋅ Y , expresión ésta que se cumple cuando X e Y son independientes. Por consiguiente, las VA independientes siempre serán variables no correlacionadas, aunque lo contrario no necesariamente se cumple, es decir, que si las variables no están correlacionadas, no necesariamente quiere decir que dichas variables son independientes. Para dos VA X e Y independientes, vimos que E{g 1 ( X) ⋅ g 2 (Y)} = E {g 1 (X)} ⋅ E{g 2 (Y)} , mientras que para que X e Y no estén correlacionadas, el único requisito es que E{XY} = X ⋅ Y . En consecuencia, la “condición de independencia estadística” es una condición mucho más fuerte y restrictiva que la “condición de no correlación”. Por otra parte, si E{XY} = 0 , entonces se dice que las VA X e Y son “ortogonales” independientemente de si X o Y o ambas son o no cero. Nótese que si X o Y o ambas son cero, entonces “ortogonalidad” implica “no correlación”. En general, la covarianza es una medida de la relación entre dos variables aleatorias. Sin embargo, ella no revela la naturaleza exacta de la dependencia y no puede proveer una información completa acerca de la interdependencia entre dos variables aleatorias. La covarianza es un parámetro muy utilizado en el análisis estadístico de señales, no solamente en sistemas de comunicación sino también en todos los campos de las ciencias e ingeniería. A menudo se define también el “coeficiente de correlación de X e Y” en la forma ρ XY = Nótese Cov( X, Y ) E{XY} − X Y = σX ⋅ σY Var ( X ) ⋅ Var ( Y ) que −1 ≤ ρXY ≤ 1 (3.108) (3.109)

225
III. VARIABLES Y PROCESOS ALEATORIOS

Consideremos ahora la varianza de la suma de dos variables aleatorias no correlacionadas. Sea por ejemplo, X = S + N. Entonces, de (3.100),

σ2 = E ( X − X ) 2 = E [ (S + N ) − ( S + N )] X
2 2 σ2 = σS + σN + 2 E{(S − S )(N − N )} X

{

} {
}

2

} = E{[ (S − S ) + (N − N )] }
2

pero

E (S − S )( N − N ) = E{S ⋅ N} − S ⋅ N = Cov(S, N )

{

Si las variables no están correlacionadas, la covarianza entre S y N es cero y E{S ⋅ N} = S ⋅ N , de donde
2 2 σ2 = σS + σN X

(3.110)

La varianza de la suma de dos variables aleatorias es la suma de las varianzas de cada una de las variables si y solamente si las variables no están correlacionadas. Este resultado se puede extender a cualquier número de variables aleatorias.
3.7. FUNCION CARACTERISTICA

La función característica φ X (λ ) de una VA X es la transformada de Fourier de su densidad de probabilidad pX(x) con una inversión en el signo del exponencial [Papoulis, 1965]. La función característica se emplea para simplificar ciertas operaciones en las que interviene la VA X. Por ejemplo, en la evaluación de los momentos de X, en algunos casos en la determinación de la función de densidad de una función de X, en la convolución de funciones de densidad de probabilidad y en el desarrollo de los teoremas del límite. Sea entonces la función

Y = g (X) = exp( j2πλX) , cuyo valor esperado es, de (3.84),

E{Y} = E{g (X)} = E{exp[ j2 πλX]} =

−∞

exp( j2πλx )p X (x )dx

(3.111)

Esta integral tiene la forma de una Integral de Fourier; en este caso definimos, φ X (λ) =

−∞

p X (x ) exp( j2 πλx ) dx

(3.112)

La función φ X ( λ) es conocida con el nombre de “función característica de la VA X” y vemos que es la transformada de Fourier de la densidad de probabilidad pX(x) con una inversión en el signo del exponencial. La función de densidad de probabilidad pX(x) es la correspondiente antitransformada de Fourier. Entonces, p X (x) =

−∞

φ X ( λ) exp (− j2πxλ)dλ

(3.113)

La función característica y la densidad de probabilidad forman entonces un par de transformadas de Fourier: p X ( x ) ⇔ φ X ( λ) . Nótese que φ X (0) = φ X ( λ) =

−∞

p X (x )dx = 1; pero como

p X (x ) ≥ 0 para todo x, entonces

−∞

p X (x ) exp( j2πλx)dx ≤

−∞

p X (x)dx = 1. Por lo tanto,

226
III. VARIABLES Y PROCESOS ALEATORIOS

φ X (λ) ≤ 1 La función característica nos permite determinar muy fácilmente la densidad de probabilidad de una suma de variables aleatorias. En efecto, sea Z = X + Y, donde X e Y son variables aleatorias independientes y p X (x) ⇔ φ X (λ); p Y (y ) ⇔ φ Y (λ); p Z (z) ⇔ φ Z (λ). De la definición de función característica, expresión (3.96), φ Z (λ) = E {exp[ j2 πλ( X + Y)]} =

∫ ∫

−∞ −∞

exp[ j2 πλ( x + y )] ⋅ p XY (x, y ) dxdy p XY (x , y) = p X (x ) ⋅ p Y ( y) , de donde (3.114)

Puesto que X e Y son independientes, entonces φ Z (λ) =

−∞

exp( j2πλx)p X (x )dx ⋅

−∞

exp( j2 πλy )p Y y )dy = φ X (λ) ⋅ φ Y (λ)

La función característica de una suma de variables aleatorias independientes es igual al producto de las funciones características de cada una de las variables aleatorias. Mediante aplicación del teorema de la convolución, obtenemos φ Z (λ) = φ X (λ) ⋅ φ Y (λ) ⇔ p Z ( z ) =

−∞

p X ( u ) ⋅ p Y ( z − u ) du = p X (x ) ∗ p Y ( y )

(3.115)

La densidad de probabilidad de la suma de dos variables aleatorias independientes es igual a la convolución de las densidades de probabilidad de las variables aleatorias. La extensión a un número cualquiera de variables aleatorias es directa. En efecto, si Z = X1 + X2 + X3 + …….. Xn Entonces, y p Z (z) = p X1 (x1 ) * p X2 (x 2 ) * p X3 (x 3 ) *.........* p Xn (x n ) φZ (λ ) = φX1 (λ ) ⋅ φX2 (λ ) ⋅ φX3 (λ ) ⋅⋅⋅⋅⋅ φXn (λ ) (3.116) (3.117)

Estos resultados se aplican también a variables aleatorias discretas, lo que puede considerarse como un caso límite de variables aleatorias continuas con impulsos unitarios de Dirac.
Ejemplo 3.12.

Las VA independientes X e Y son gaussianas no centradas de la forma p X (x) = 1 σ x 2π exp[− (x − x o ) 2 ] 2σ 2 y p Y (y) = 1 σ y 2π exp[− (y − y o ) 2 ] 2σ y 2

Vamos a determinar la densidad de la VA Z = X + Y. Solución: Del Problema 1.23(g), Sea entonces q(x) = p X (x) = q(x − x o ) = A exp( − 1 σ x 2π 1 σ x 2π t2 ) ⇔ A 2πa 2 exp(−2π2 a 2 f 2 ) 2 2a x2 ) ⇔ exp(−2π2σ 2 λ 2 ) x 2 2σ x

exp(−

exp( −

(x − x o ) 2 ) ⇔ exp(−2π 2σ 2 λ 2 ) ⋅ exp(− j2πx o λ ) = φ x (λ ) x 2 2σ x

227
III. VARIABLES Y PROCESOS ALEATORIOS

Similarmente,

p Y (y) ⇔ exp( −2π2σ 2 λ 2 ) ⋅ exp(− j2πy o λ ) = φ y (λ ) y Puesto X e Y son independientes, entonces, de (3.115),

φZ (λ) = φX (λ ) ⋅ φY (λ ) = [exp(−2π2σ 2 λ 2 ) ⋅ exp(− j2πx oλ )] ⋅ [exp(−2π 2σ 2 λ 2 ) ⋅ exp(− j2πy oλ )] x y
φZ (λ ) = {exp[− Hagamos (2πλ ) 2 2 (σ x + σ 2 )]} ⋅ {exp[− j2πλ (x o + y o )]} y 2 y z o = x o + y o . Entonces,

σ2 = σ2 + σ2 z x y

φZ (λ ) = exp[−

(2πλ ) 2 2 σ z ] ⋅ exp[− j2πλz o ] = exp(−2π 2σ 2λ 2 ) ⋅ exp(− j2πz o λ ) z 2 1 σ z 2π (z − z o ) 2 ] 2σ 2 z

Por antitransformada de Fourier, p Z (z) = TF−1{φZ (λ )} = exp[−

Obsérvese que la densidad pZ(z) es una distribución gaussiana no centrada, es decir, la densidad de probabilidad de la suma de dos VA independientes y gaussianas, es también gaussiana. Este resultado se puede extender a un número cualquiera de VA independientes y gaussianas. Asimismo, el valor promedio y la varianza de la suma son iguales a la suma de los promedios individuales y a la suma de las varianzas individuales, respectivamente. Nótese que, bajos ciertas condiciones, la suma de un gran número de variables aleatorias independientes tiende a ser gaussiana, independientemente de si ellas son gaussianas o no. Esta tendencia hacia una distribución gaussiana se desarrolla rigurosamente en el denominado “Teorema del Límite Central”, cuyo tratamiento está fuera de los límites del presente texto. ♣ ♣ Ejemplo 3.13 X−X . Vamos σX a determinar la función característica φ Y (λ) y la densidad de probabilidad pY(y) de Y. Consideremos una VA Y que es una función de la VA X de la forma Y= De (3.95), ⎧ ⎧ X− X ⎫ X X ⎫ φ Y ( λ) = E ⎨ exp[ j2 λ( )]⎬ = E ⎨ exp( j2 π λ) ⋅ exp( − j2 π λ)⎬ σX σX σX ⎭ ⎩ ⎩ ⎭ φ Y ( λ) = exp( − j2 π X σX λ) ⋅

−∞

p X (x ) exp( j2 π

λ σX

x )dx
λ σX ), de

De la propiedad escalar de la transformada de Fourier, la integral es igual a φ X (
donde φ Y (λ) = φ X ( λ σX ) ⋅ exp( − j2 π X σX λ)

228
III. VARIABLES Y PROCESOS ALEATORIOS

Tomando la antitransformada de Fourier, p Y (y ) = σX ⋅ p X (σX x )
x → x − X / σX

⎡ X ⎤ = σ X ⋅ p X ⎢σ X ( x − )⎥ σX ⎦ ⎣

Como vemos, todas las propiedades y métodos de la Transformada de Fourier vistos en los Capítulos I y II se aplican en el caso de la equivalencia φ X (λ) ⇔ p X (x ) . ♣ Además de ser útil para la determinación de las funciones de probabilidad de la suma de variables aleatorias, la función característica se puede utilizar también para determinar los momentos de una variable aleatoria. En efecto, diferenciando (3.96) respecto a λ, d dλ d dλ φ X (λ) =

⎡d ⎤ p X (x )⎢ exp( j2 πλx ) ⎥dx = j2 π ⎣ dλ ⎦ −∞

−∞

xp X ( x ) exp( j2 πλx ) dx

Evaluando la expresión anterior para λ = 0, se tiene, φ X ( λ) 1
λ= 0

= j2 π

−∞

xp X ( x ) dx = j2 π ⋅ E {X} , de donde (3.118)

E {X} =

d

j2 π dλ

φ X (λ)

λ= 0

El valor promedio de una variable aleatoria es igual a la primera derivada de su función característica en el origen (λ = 0), dividida por j2π. En general, mediante diferenciación sucesiva bajo el signo integral, se puede demostrar que E Xn =

{ }

1

dn

( j2 π ) n dλn

φ X ( λ)

λ= 0

(3.119)

El momento n-ésimo de una variable aleatoria es igual a la derivada n-ésima de su función característica en el origen (λ = 0), dividido por ( j2π ) n .
3.8. PROCESOS ALEATORIOS O ESTOCASTICOS 3.8.1 Introducción

En la Sección 3.3 se asoció un punto de muestra con cada resultado de un experimento. La colección de todos los puntos de muestra se llamó “espacio de las muestras” del experimento. Para cada punto de muestra en el espacio de las muestras se asignó un número real X de acuerdo con alguna regla, y una probabilidad de ocurrencia PX(x). Esta es la definición de variable aleatoria. Un proceso aleatorio es una extensión del concepto de variable aleatoria. En el caso de un proceso aleatorio, a cada punto de muestra que distinguiremos con la notación λ, se asigna una forma de onda (que es función del tiempo t), de acuerdo con alguna regla x(t,λ). Por lo tanto, el espacio de las muestras tendrá asociada una cierta colección de formas de onda y cada una de ellas corresponde a un punto de muestra λ. Esta colección de formas de onda se conoce con el nombre de “conjunto aleatorio (CA)” y las formas de onda individuales como “funciones de muestra”. La distribución de la probabilidad de los puntos de muestra determina la distribución de probabilidad de las funciones de muestra del CA. El sistema de probabilidades, que comprende el espacio de las muestras, el CA o conjunto de formas de onda y las funciones de probabilidad, constituyen el “proceso aleatorio (PA)”.

229
III. VARIABLES Y PROCESOS ALEATORIOS

A los PA se les conoce también con el nombre de “Procesos Estocásticos”. La notación X(t , λ) representará el PA; sin embargo, generalmente se omite λ y el PA simplemente se representa con X(t), cuyo significado es “una colección de formas de onda que ocurren con una cierta medida de probabilidad”. Una función de muestra individual se representará simplemente con x(t).

En la práctica, sobre todo en el dominio de la ingeniería, a menudo se tiene la situación donde el resultado del experimento es ya una forma de onda. En este caso, el concepto de resultado y de función de muestra tienden a ser lo mismo, es decir, que el resultado mismo se puede considerar como la función de muestra correspondiente. En la Fig. 3.18 se muestra un conjunto aleatorio de señales producido por el ruido en un sistema eléctrico. Este conjunto se puede obtener repitiendo las observaciones en el mismo sistema, u observando simultáneamente los resultados o señales de varios sistemas idénticos.
x (t , λ1)
0

x11 = x(t1 , λ1) t2 t1 x 21 = x (t 2 , λ1) t1 x 22 = x(t 2 , λ2 ) t2 x12 = x (t 1 , λ2 ) x 13 = x (t 1 , λ 3 ) t1
τ x 2 k = x( t 2 , λ k ) t t

x ( t , λ2 )

x( t , λ i )

0

x ( t , λ3 )
0

x 23 = x(t 2 , λ 3 ) t2
t

x (t , λ k )
0

x 1k = x(t 1 , λ k )

t1

t2 ⇑ X (t 2 , λ i )

t

⇑ X (0, λ i )

⇑ X ( t 1 ,λ i )

X( t , λ i )

Fig. 3.18. Conjunto Aleatorio de Señales
Para entender mejor la idea de conjunto, vamos a distinguir los “promedios conjunto” y los “promedios tiempo”. Los promedios conjunto son todas aquellas estadísticas tomadas sobre el conjunto aleatorio (verticalmente en la Fig. 3.18). Las correspondientes variables aleatorias son X(t , λ i ) (Nota: Para no complicar la notación algunas veces se omite el subíndice i de λ, pero siempre estará implícito). Puesto que se tiene k funciones de muestra, X(t , λ i ) tendrá k valores para cada t con i = 1,2 ,3, ... k . Por ejemplo, en la Fig. 3.18 se muestran solamente tres VA X(t , λ i ) : X(0, λ i ) , X(t 1 , λ i ) y X(t 2 , λ i ) para i = 1, 2, 3,....,k. Los promedios conjunto será la familia de momentos dada por

230
III. VARIABLES Y PROCESOS ALEATORIOS

E [ X( t , λ i )] n = para todo t, con donde aleatorio.

{

} ∫−∞ ∫−∞ ...... ∫−∞ x1x 2 .... x n p X X
∞ ∞ ∞

1 2

.... X n ( x 1 , x 2 , .... , x n ; t , λ i ) dx 1 dx 2 .... dx n (3.120)

i = 1, 2, 3,....,k.

p X1X2 ......X n ( x1 , x 2 ,.... x n; t , λ i ) es la densidad de probabilidad conjunta del proceso Sea, entonces, el conjunto aleatorio mostrado en la Fig. 3.18.

Los promedios tiempo son todas aquellas estadísticas tomadas sobre las funciones del tiempo (horizontalmente en la Fig. 3.18). Los promedios tiempo será la familia de promedios tiempo dada por
< [x(t , λ i )] n >=

−∞

[x(t , λ i )] n dt para todo t e i = 1, 2, ... , k

(3.121)

En general, en un proceso aleatorio X(t,λ) los promedio tiempo y los promedios conjunto son diferentes, es decir,
E [X(t , λ i )] n ≠ < [x(t, λ i )] n >
Estadísticas de Primer Orden

{

}

(3.122)

Las estadísticas de primer orden se especifican completamente mediante las funciones de densidad de las variables aleatorias en los instantes t (para todo t); estas funciones de densidad las escribiremos en la forma p X (x, t , λ i ) en las cuales el parámetro t indica el instante en el cual las amplitudes de las señales de muestra definen la VA X(t,λi). La función p X (x, t , λ i ) es la “densidad de probabilidad de primer orden”. Una vez establecidas las densidades de probabilidad de primer orden, las correspondientes estadísticas de primer orden vienen dadas por

E [X(t , λ i )] n =

{

} ∫

−∞

x n p X (x, t , λ i )dx

(3.123)

Estadísticas de Segundo Orden

Las estadísticas de primer orden nos dan las distribuciones de las amplitudes de las funciones de muestra para valores particulares de t y es suficiente el conocimiento de su densidad de probabilidad de primer orden. Pero el conocimiento de p X (x, t , λ i ) no es suficiente para una completa descripción estadística del proceso. En efecto, supongamos que el proceso representa un conjunto de señales eléctricas como en la Fig. 3.18, y se desea obtener un cierto conocimiento en relación con las frecuencias contenidas en dichas señales. Si el proceso contiene predominantemente componentes de baja frecuencia, entonces las señales varían muy poco y x (t 1 , λ i ) no será muy diferente de x (t 1 + τ , λ i ) . Es evidente que x( t 1 , λ i ) y x(t 1 + τ, λ i ) no serán estadísticamente independientes siempre que τ sea suficientemente pequeño; en

231
III. VARIABLES Y PROCESOS ALEATORIOS

consecuencia, el conocimiento de x (t 1 , λ i ) proporciona una cierta información estadística acerca de x (t 1 + τ , λ i ). Si el proceso contiene predominantemente componentes de alta frecuencia, las señales variarán muy rápidamente y valores separados en un intervalo τ no mostrarán ninguna dependencia. Por lo tanto, la correlación entre valores de las señales en distintos intervalos de tiempo puede proporcionar una información estadística muy útil en relación con su contenido espectral. De gran importancia en el análisis de señales son las estadísticas de segundo orden, que representan el momento conjunto de dos VA X(t1 , λi) y X(t2 ,λi), donde p X1X 2 (x1 , x 2 ; t 1 , t 2 , λ i ) es su función de densidad conjunta, denominada “función de densidad de probabilidad de segundo orden”. Las estadísticas de segundo orden de dos VA X(t1 , λi) y X(t2 , λi) vendrán dadas por la siguiente expresión: E{X(t 1 , λ i ) ⋅ X(t 2 , λ i )} =

∫ ∫

−∞ −∞

x 1 x 2 p X1X 2 (x 1 , x 2 ; t 1 , t 2 , λ i )dx 1 dx 2

(3.124)

Como una aplicación de estas técnicas matemáticas en la transmisión de señales aleatorias a través de sistemas lineales, es suficiente conocer las estadísticas de primero y segundo orden, ya que con ellas es posible determinar la densidad espectral de potencia, el valor promedio, el valor eficaz y las funciones características de un proceso dado. En resumen, podemos definir las siguientes estadísticas del proceso aleatorio X(t,λ): 1. El valor promedio: E{X(t , λ )} =

∫ x⋅ p
−∞

X (x , t , λ )dx

(3.125)

2. El llamado “promedio de segundo orden entre las VA X( t 1 , λ) y X(t 2 , λ) ”: E { X ( t 1 , λ ) ⋅ X ( t 2 , λ) } =

∫ ∫

−∞ −∞

x 1 x 2 p X1X 2 ( x 1 , x 2 , t 1 , t 2 , λ) dx 1dx 2

(3.126)

3. La covarianza entre las VA X( t 1 , λ) y X(t 2 , λ), Cov{ X( t 1 , λ), X( t 2 , λ)} = E{ X( t 1 , λ) ⋅ X( t 2 , λ)} − E{ X( t 1 , λ)} ⋅ E{ X( t 2 , λ)} 4. El coeficiente de correlación entre las VA X( t 1 , λ) y X(t 2 , λ), ρX1X 2 = Cov{ X( t 1 , λ), X( t 2 , λ)} Var{ X(t 1 , λ)} ⋅ Var{ X(t 2 , λ)} (3.128) (3.127)

Para efectos de tipo práctico, solamente se necesita conocer estas estadísticas del proceso aleatorio X(t, λ), las cuales, en general, son funciones del tiempo.

232
III. VARIABLES Y PROCESOS ALEATORIOS

3.8.2. Estacionaridad y Ergodicidad Estacionaridad en el Sentido Estricto

Se dice que un proceso aleatorio X(t,λ) es estrictamente estacionario si todas sus estadísticas conjunto son invariantes en el tiempo; en otras palabras, un proceso aleatorio es estrictamente estacionario si ninguna de sus estadísticas conjunto es afectada por un desplazamiento del origen del tiempo, es decir, si
E [X(t , λ i )] n = E [X(t + τ , λ i )] n

{

} {

}

(3.129)

En este caso el proceso aleatorio X(t,λ) se denota simplemente como X. De (3.78), los dos primeros momentos de primer orden serán E{X( t , λ )} = E{X} =

∫ xp
−∞

X ( x) dx

(3.130a) (3.130b) (3.131)

E{X 2 ( t , λ )} = E X 2 = y en general,

{ } ∫

−∞

x 2 p X ( x)dx

E{X n ( t , λ )} = E X n =

{ } ∫

−∞

x n p X ( x)dx

Estacionaridad en el Sentido Amplio

Se dice que un proceso aleatorio X(t, λ ) es estacionario en el sentido amplio o débilmente estacionario, si (a) Su valor promedio conjunto E{ X( t 1 , λ)} = E{ X( t 2 , λ)} = constante para todo t (3.132) (b) Su promedio conjunto de segundo orden E { X ( t 1 , λ ) ⋅ X ( t 2 , λ) } = E { X ( t ) ⋅ X ( t + τ ) } donde τ es la diferencia absoluta
τ = | t 2 − t1| .

(3.133)

Un proceso es débilmente estacionario cuando su valor promedio conjunto es constante para todo t, y su promedio conjunto de segundo orden depende solamente de la diferencia absoluta τ = |t 2 − t 1 |. Nótese que un proceso aleatorio estrictamente estacionario es también débilmente estacionario, pero lo contrario no necesariamente es cierto.
Ergodicidad

La propiedad de estacionaridad estricta o amplia no asegura que los promedios conjunto y los promedios tiempo sean iguales. Puede suceder que aún cuando las estadísticas conjunto son estacionarias, las señales de muestra individuales pueden diferir estadísticamente una de la otra. En este caso los promedio tiempo dependerán de la señal de muestra utilizada, pues se verifica que
< [ x( t , λ i )] n > ≠ < [x(t, λ j )] n >

para i ≠ j .

Cuando la naturaleza de un proceso aleatorio es tal que los promedios conjunto y los promedios tiempo son iguales, se dice entonces que el proceso aleatorio es “ergódico”. Por lo tanto, si el proceso representado por X(t, λ) es ergódico, entonces todas las estadísticas se pueden

233
III. VARIABLES Y PROCESOS ALEATORIOS

determinar a partir de una sola señal de muestra x(t). Nótese que un proceso ergódico es estacionario o por lo menos débilmente estacionario, pero un proceso estacionario o por lo menos débilmente estacionario no necesariamente es ergódico. Puesto que todas las estadísticas se pueden determinar a partir de una sola señal de muestra, la ergodicidad implica también que < [x( t , λ i )] n > = < [x(t, λ j )] n > para todo i, j Las estadísticas de un proceso aleatorio ergódico se escriben entonces en la forma < [ x( t )] n >=< x n (t) >=

(3.134)

−∞

x n ( t ) dt

(3.135)

En la práctica generalmente se conoce x(t) durante un intervalo (-T/2, T/2), de modo que se puede escribir (suponiendo que x(t) es una señal de potencia), < x n ( t ) > = lim 1 T→∞ T

T/ 2

−T/ 2

x n ( t )dt

(3.136)

En el proceso ergódico los momentos conjunto y los momentos tiempo son iguales, es decir, E Xn =

{ } ∫

−∞

x n p X ( x)dx = < x n ( t ) > = lim

1 T→∞ T
T/ 2

T/ 2

−T/ 2

x n ( t )dt

(3.137)

Para los dos primeros momentos de primer orden, E{X} =

−∞

xp X ( x) dx = < x( t ) > = lim

1 T→∞ T

−T/ 2

x( t )dt

(3.138a) x 2 ( t )dt (3.138b)

E X2 =

{ } ∫

−∞

x 2 p X ( x)dx = < x 2 ( t ) > = lim

1 T→∞ T

T/ 2

−T/ 2

Las estadísticas de primer orden E{X} y E{X 2 } de un proceso ergódico nos permiten hacer las siguientes observaciones: (a) (b) (c) (d) (e) E{ X} =< x( t ) > , es el valor promedio de la señal x(t); es simplemente el valor de la componente continua de x(t). [ E{ X} ]2 = [< x( t ) > ]2 , es la potencia de la componente continua de x(t) disipada en una resistencia de 1 Ohm. E X 2 =< x 2 ( t ) > , es la potencia promedio de la señal x(t), normalizada para una resistencia de 1 Ohm. E X 2 = < x 2 ( t ) > , es el valor eficaz (RMS) de la señal x(t). La varianza σ2 es igual a la potencia promedio de la componente alterna de x(t), X normalizada para una resistencia de 1 Ohm.

{ }

{ }

(f) La desviación estándar σX es el valor eficaz de la componente alterna de la señal x(t). (g) Si E{ X} =< x( t ) >= 0 , entonces σX es el valor eficaz de la señal x(t).

234
III. VARIABLES Y PROCESOS ALEATORIOS

(h)

Si x(t) contiene una componente continua xo y una componente alterna, la potencia 2 promedio de x(t) será igual a (σ2 + x o ) , normalizada para una resistencia de 1 x Ohm.

Estas expresiones nos proporcionan un medio para relacionar la noción de señal aleatoria con la de señal determinística, a la cual estamos más acostumbrados y que hemos utilizado mayormente en los capítulos anteriores. Por lo tanto, todos los métodos matemáticos vistos en los Capítulos I y II son igualmente aplicables a las señales de muestra de procesos aleatorios ergódicos, con algunos cambios menores en la notación. Sin embargo, hay que tener siempre presente que todas estas relaciones son válidas solamente para procesos aleatorios ergódicos, por lo menos en lo que se refiere a las estadísticas de primero y segundo orden de procesos débilmente estacionarios. Una aplicación práctica directamente relacionada con los conceptos anteriores, son las nociones de valor promedio y varianza en aplicaciones estadísticas de muestras tomadas de una población determinada. En estos casos se considera que todas las muestras son equiprobables, y si se toma N muestras de la población, el valor promedio y la varianza de las N muestras se expresarán mediante las relaciones 1 X= N

∑X
i =1

N

i

y

σ2 x

1 = N

∑ (X
i =1

N

i

− X)2

(3.139)

Por ejemplo, en el diseño de radioenlaces de microondas la “Rugosidad del Terreno” se describe mediante las expresiones (3.139), donde las Xi son las alturas tomadas sobre el terreno y N es el número de alturas. La desviación estándar σ x es la rugosidad del terreno.
3.8.3. Función de Autocorrelación y Densidad Espectral de Potencia Función de Autocorrelación

momento conjunto E {X( t 1 ) ⋅ X(t 2 )} o promedio conjunto de segundo orden, denominado comúnmente función de autocorrelación. Entonces, por definición, la “función de autocorrelación de un proceso X(t,λi)” es el momento conjunto de segundo orden de las VA X( t 1 ) y X(t 2 ) definido por R X1X2 ( t 1 , t 2 ) = E{X( t 1 ) ⋅ X( t 2 )} = y es una función de t 1 y t 2 . Asimismo, la covarianza de X( t 1 ) y X(t 2 ) es Cov{X( t 1 ), X( t 2 )} = R XX ( t 1 , t 2 ) − E{X( t 1 )} ⋅ E{X( t 2 )} y el correspondiente coeficiente de correlación (3.141)

Sea el proceso aleatorio de la Fig. 3.18, caracterizado por X(t, λi) donde x(t,λi) son las señales de muestra del proceso. En el instante t = t 1 el proceso se caracteriza mediante la VA X( t 1 ) = X( t 1 , λ i ) , y en el instante t = t 2 la correspondiente VA es X( t 2 ) = X( t 2 , λ i ) , para i = 1, 2 , 3, .... , k . Para caracterizar la relación entre las VA X( t 1 ) y X(t 2 ) , se necesita el conocimiento de la densidad de probabilidad conjunta p X1X 2 (x 1 , x 2 ; t 1 , t 2 ) para poder calcular el

∫ ∫

−∞ −∞

x1x 2 p X1X2 ( x1 , x 2 ; t 1 , t 2 ; λ )dx1dx 2

(3.140)

144) es igual a la expresión (1.143a) Si además el proceso es ergódico. la función de autocorrelación se puede determinar a partir de una sola señal de muestra x(t) tomando el promedio tiempo de [x ( t ) ⋅ x ( t + τ ) ]. VARIABLES Y PROCESOS ALEATORIOS ρ X1X2 = R XX ( t 1 . Para la clase restringida de procesos aleatorios débilmente estacionarios. la función de autocorrelación es independiente del origen del tiempo y dependerá solamente del valor absoluto de la diferencia de t 1 y t 2 . es posible definir una magnitud denominada “densidad espectral de potencia” como la transformada de Fourier de la función de autocorrelación. entonces la función de autocorrelación y la densidad espectral de potencia se pueden determinar a partir de una señal de muestra x(t). R XX (τ ) = E {X( t ) ⋅ X(t + τ )} =< x ( t ) ⋅ x ( t + τ ) >= R x (τ ) donde R x (τ ) = lim T →∞ (3. en un proceso ergódico se verifica que Cov{x( t ).142) El término “autocorrelación” ya lo utilizamos en los Capítulos I y II.144) ∫ T 1 T/ 2 − T/ 2 x ( t ) ⋅ x (t + τ )dt Asimismo. más adelante justificaremos el uso de ese término.119). la densidad espectral de potencia SX(f) de un proceso aleatorio X(t) débilmente estacionario es S X (f ) = {R XX (τ )} = ∫−∞ R XX (τ ) exp(− j2πfτ )dτ ∞ (3. de donde ∫ ∞ −∞ R x (τ ) exp(− j2πfτ )dτ ⇔ R x (τ ) = ∫ ∞ −∞ S x (f ) exp( j2πτf )df (3. Densidad Espectral de Potencia En relación con la densidad espectral de potencia. En este caso.146) Si el proceso es ergódico. es decir.145a) (3. R XX (τ ) = R x (τ ) =< x (t ) ⋅ x (t + τ ) > S x (f ) = y S X ( f ) = S x (f ) .145b) La expresión (3. se puede extender este concepto a los procesos estocásticos. por definición. de aquí la razón de la notación R x (τ ) que utilizamos en los Capítulos I y II para señales determinísticas. x( t + τ)} = R x ( τ) − [< x( t ) >]2 y ρx = Cov{x( t ). Desafortunadamente. Podemos decir entonces que las relaciones para las señales determinísticas son casos particulares de las relaciones desarrolladas para procesos aleatorios débilmente estacionarios o ergódicos. | t 2 − t 1 | = τ . Si el proceso X(t) es estacionario. x( t + τ)} Var {x( t )} (3. R XX ( t 1 . la transformada de Fourier de una señal de muestra puede no existir. t 2 ) = R XX ( t 2 − t 1 ) = R XX (τ ) = E{X(t ) ⋅ X(t + τ )} (5.147) . Entonces.235 III. es decir. En efecto.143b) (3. t 2 ) − E{X( t 1 )} ⋅ E{X( t 2 )} Var[ X( t 1 )] ⋅ Var[ X( t 2 )] (3. y entonces hay que buscar otra forma para la representación en el dominio de la frecuencia de un proceso aleatorio.

.. expresión (1. 3. 1958. (d) SX (0) = ∫ ∞ −∞ R X ( τ ) dτ = S x ( 0 ) = ∫ ∞ −∞ R x ( τ)dτ . la densidad espectral es una función par de f.9..M. 3. en el caso de señales aleatorias las relaciones entrada/salida son (ver Secciones 1.236 III. con i = 1.2 y 2. 1968.. Todas las señales PCM y los códigos de fuente y de línea son secuencias aleatorias binarias y por eso es muy importante conocer sus estadísticas. el valor de la densidad espectral en el origen (f = 0). PROCESOS ALEATORIOS DISCRETOS 3. en el cual las señales de muestra tienen amplitudes discretas con m valores de amplitud de probabilidad Pi. Lathi.8.8. A las estadísticas de primer orden de un proceso ergódico podemos agregar ahora las estadísticas de segundo orden R XX ( τ) = R xx ( τ) y S X (f ) = Sx (f ) . que corresponde al Teorema de Wiener-Kintchine.1. 1962.132). 1965. 3. (c) SX (f ) = SX ( −f ) = Sx (f ) = S x ( −f ) . en especial su función de autocorrelación y su densidad espectral de potencia. para la transmisión de señales a través de sistemas lineales se aplican también para procesos ergódicos. 2.19(b) se tiene una señal de muestra de este tipo de proceso. las cuales tienen las siguientes características: (a) E{X 2 } =< x 2 ( t ) >= R x (0) = ∫ ∞ −∞ Sx (f )df . la densidad espectral es siempre positiva (o no negativa). Parzen. procesamiento y transmisión de señales digitales es el “Proceso Aleatorio Discreto M-ario”. etc.11. normalizada para una resistencia de 1 Ohm. Si las señales de muestra sólo toman dos valores de amplitud o estados que se suceden a intervalos Tb con probabilidades P1 y P2 . (e) En un sistema lineal invariante en el tiempo (SLIT) de respuesta impulsional h(t) y función de transferencia H(f).1. Secuencias Aleatorias Discretas Un proceso aleatorio de mucha importancia en el análisis. VARIABLES Y PROCESOS ALEATORIOS resultado ya obtenido en forma determinística en el Capítulo I. . El lector interesado en profundizar este tema puede consultar la bibliografía especializada. Estos métodos son de gran importancia en la Teoría Estadística de la Comunicación y en el Análisis Espectral de Procesos Estocásticos. En la Fig.19(a) se ilustra una señal de muestra de este proceso. (b) SX (f ) = Sx (f ) ≥ 0 . Davenport y Root.9. es igual al área de su función de autocorrelación.1): S y ( f ) = H ( f ) ⋅ S x ( f ) ⇔ R y ( τ) = R x ( τ) ∗ h ( τ ) ∗ h ( − τ) < y 2 ( t ) >= R y (0) = 2 ∫ ∞ −∞ | H(f ) |2 Sx (f )df < y( t ) >= H(0) < x ( t ) > Sxy (f ) = H (f ) ⋅ Sx (f ) ⇔ R xy ( τ) = R x ( τ) ∗ h( τ) Las relaciones desarrolladas en las Secciones 1. señal que vamos a denominar ”secuencia aleatoria binaria”. se dice que éste es un “Proceso Aleatorio Binario”. En la Fig. es la potencia promedio de la señal x(t). particularmente [Papoulis. 3.. 1990].11.2 y 2. Couch.

Las secuencias de impulsos transmitidos en banda de base en los sistemas de comunicación digital. entonces E{A n } = η a E{A n ⋅ A n + k } = E{A n ⋅ A m } donde m = n + k. y Pi es la probabilidad de obtener el producto (a n ⋅ a n+ k ) i . t 2 ) es.150) es la función de autocorrelación de la secuencia de estados An.149) (3. E{A n ⋅ A n + k } = R A (k ) = ∑ (a i =1 I n ⋅ a n + k ) i ⋅ Pi (3. VARIABLES Y PROCESOS ALEATORIOS x(t) t 0 x(t) A Tb 0 -A t (a) Secuencia Aleatoria M-aria (b) Secuencia Aleatoria Binaria Fig. de (3. se pueden modelar entonces mediante la expresión X( t ) = n =−∞ ∑A p(t − nT ) n b ∞ (3. 1968]. y que es independiente de p(t). El valor promedio de X(t) es ∞ ⎧ ∞ ⎫ ⎪ ⎪ E{X(t )} = E ⎨ A p (t − nTb ) ⎬ = p ( t − nTb ) ⋅ E {A n } ⎪ n =−∞ n ⎪ n =−∞ ⎩ ⎭ ∑ ∞ ∑ E{X(t )} = η a n =−∞ ∑p(t − nT ) b (3.19.140). que para simplificar la escribiremos en la forma R X ( t 1 . [Lathi. Tb el período de repetición de los impulsos y A n una secuencia aleatoria de amplitudes (que representan datos o estados) que en el caso binario toma dos valores A 1 y A 2 con probabilidades P1 y P2 .n| (3. entonces.151) donde a n y a n+k son las amplitudes de la secuencia de datos A n en los intervalos nTb y (n + k)Tb . El valor I es el número de productos (a n ⋅ a n + k ) posibles.237 III. Si consideramos que A n es un proceso débilmente estacionario. o también k = |m . Secuencias de Muestra de Procesos Aleatorios Discretos.152) La función de autocorrelación de X(t). Se trata entonces de determinar la densidad espectral de X(t). respectivamente.150) Nótese que la expresión (3. .148) donde p(t) es el perfil del impulso. 3.

Consideremos ahora los procesos “cicloestacionarios”.152) y (3. vemos que X(t) es un proceso cicloestacionario. por lo tanto. entonces podemos escribir R X (t 1 . el proceso aleatorio X(t) se puede modificar para que cumpla con la condición de estacionaridad débil si se permite agregarle un retardo T aleatorio. t 2 ) (3. t 2 ) = k =−∞ ∑ ∞ E{A n ⋅ A n + k } ⋅ Puede observarse que tanto E{X( t )} como R X (t 1 . independiente de A n y cuya densidad de probabilidad es p T (T ) = 1 T − Tb / 2 Π( ) Tb Tb -A Fig. Fig. VARIABLES Y PROCESOS ALEATORIOS ∞ ⎧ ∞ ⎫ ⎪ ⎪ ⎨ R X ( t 1 .154) (3. Secuencia Aleatoria Binaria con Retardo T (3. Hay que buscar alguna otra forma para determinar la densidad espectral de potencia de estos procesos.20.155) n =−∞ ∑ p(t ∞ 1 − nTb ) ⋅ p[t 2 − (n + k ) Tb ] (3.153) Cuando comparamos las expresiones (3.20. la secuencia X( t ) = x(t) A n =−∞ ∑A ∞ T n ⋅ p ( t − nTb − T) (3. Consideremos entonces.20. Se dice que un proceso Y(t) es “cicloestacionario” o “periódicamente estacionario” si él satisface las siguientes condiciones [Franks.238 III. donde m = n + k. t 2 + T) = R Y ( t 1 .157) . X(t) no es estacionario y su densidad espectral de potencia no se podrá definir mediante la expresión (3.154) y (3.156) Tb 0 t donde T es una variable aleatoria distribuida uniformemente en el intervalo (0. 1975]: (a) E{Y( t 1 + T)} = E{Y( t 1 )} (b) R Y ( t 1 + T . como se muestra en la Fig. 3. 3.153). La importancia de los procesos cicloestacionarios es que ellos permiten la manipulación de un proceso no estacionario X(t) a fin de hacerlo débilmente estacionario. En efecto.146). t 2 ) = n =−∞m=−∞ ∑ ∑ E{A ∞ ∞ n ⋅ A m }p ( t 1 − nTb ) ⋅ p ( t 2 − mTb ) pero como E{A n ⋅ A m } = E{A n ⋅ A n + k } .155) con (3. t 2 ) = E {X( t 1 ) ⋅ X( t 2 )} = E A n p (t 1 − nTb ) ⋅ A m p (t 2 − mTb ) ⎬ ⎪ n =−∞ ⎪ ⎩ ⎭ m=−∞ ∑ ∑ R X (t 1 . t 2 ) dependen del origen del tiempo. 3. Tb).

t 2 ) = R X (τ ) = 1 Tb k =−∞ ∑ E{A n A n+ k } ⋅ R p (τ − kTb ) (3. VARIABLES Y PROCESOS ALEATORIOS Entonces ⎧ ∞ ⎫ ∞ E {X(t)} = E ⎨ ∑ A n ⋅ p(t − nTb − T) ⎬ = ∑ E {A n } ⋅ E {p(t − nTb − T)} ⎩ n =−∞ ⎭ n =−∞ E{X(t )} = η a ⋅ pero n =−∞ ∑E{p(t − nT ∫ ∞ −∞ ∞ b − T)} 1 Tb Π( T − Tb / 2 Tb )dT = 1 Tb E{p (t − nTb − T)} = p ( t − nTb − T) ⋅ ∫ Tb 0 p (t − nTb − T) dT Con el cambio de variables T' = t − nTb − T . obtenemos E{p( t − nTb − T )} = pero podemos hacer Entonces.239 III. la función de autocorrelación de X(t) resulta en R X (t 1 . t 2 ) = ∑ E{A A } ∑ E{p( t n+k n = −∞ 1 − nTb − T ) ⋅ p[ t 2 − ( n + k )Tb − T ]} pero E{p (t 1 − nTb − T) ⋅ p[t 2 − ( n + k ) Tb − T]} = ∫ Tb 1 1 Tb Tb 0 p (t 1 − nTb − T ) ⋅ p[ t 2 − ( n + k )Tb − T]dT Con el cambio de variables T' = t 1 − nTb − T . Veamos ahora la función de autocorrelación. ∞ ⎧ ∞ ⎫ ⎪ ⎪ R X ( t 1 . se obtiene E{p( t1 − nTb − T) ⋅ p[ t 2 − ( n + k )Tb − T ]} = ∫ Tb 0 p(T' ) ⋅ p[T '+ ( t 2 − t1 ) − kTb ]dT ' 1 Tb R p ( τ − kTb ) {p( t1 − nTb − T) ⋅ p[t 2 − (n + k )Tb − T]} donde ∞ = 1 Tb ∫ Tb 0 p ( T' ) ⋅ p (T'+ τ − kTb )dT' = τ = t 2 − t 1. t 2 ) = E{X(t 1 ) ⋅ X( t 2 )} = E ⎨ A n ⋅ p ( t 1 − nTb − T) ⋅ A m ⋅ p (t 2 − mTb − T) ⎬ ⎪ n=−∞ ⎪ ⎩ ⎭ m =−∞ ∑ ∑ = n =−∞ m =−∞ ∑ ∑E{A ∞ n k = −∞ ∞ ∞ n ⋅ A m }E{p ( t 1 − nTb − T) ⋅ p ( t 2 − mTb − T)} ∞ R X (t 1 . − 1 t − nTb p(T' )dT' Tb ∫t − ( n +1) Tb t − nTb t −( n +1) Tb − n = −∞ ∑∫ Tb ∞ p(T' )dT' = ∫ p( t )dt = K −∞ ∞ una constante (3.158) E{X( t )} = ηa K constante El valor esperado de X(t) es ahora constante e independiente del tiempo. Finalmente.159) .

E{A n A n } = E A n = σa + η 2 a varianza σ2 .160) { } y para k ≠ 0.240 III. Tb Tb n=−∞ k =−∞ ∑ ∑ ⎡ η2 ⎢ σ2 + a S X (f ) = | P (f )| a Tb Tb ⎢ ⎣ 1 2 n ⎤ δ(f − )⎥ Tb ⎥ ⎦ n =−∞ ∑ ∞ (3. Supongamos que la secuencia aleatoria de estados A n es estadísticamente independiente con valor promedio η a y E{A n } = ηa 2 2 También. Nótese que ahora la función de autocorrelación depende solamente de la diferencia τ = t 2 − t 1.146). VARIABLES Y PROCESOS ALEATORIOS donde R p ( τ ) es la integral de correlación de p(t). (3.162) nos permite determinar la densidad espectral de X(t). Entonces.162) R p (τ ) = ∫ ∞ −∞ p (t ) p ( t + τ ) dt ⇔ S p ( f ) =| P ( f )|2 . entonces. para k = 0. En efecto.165) . ∞ ∞ 1 n exp(− j2πkTb f ) = δ(f − ) . 146). a (3. entonces el proceso X(t) es por lo menos débilmente estacionario y su densidad espectral podrá determinarse mediante la expresión (3.159) se puede escribir ahora en la forma R X (τ ) = R X ( τ) = donde 1 Tb (σ2 a + η2 ) R p ( τ ) + a η2 a Tb k =−∞ ∑R (τ − kT ) p b ∞ con k ≠ 0 2 σa η2 R p ( τ) + a Tb Tb k = −∞ ∑R ∞ p (τ − kTb ) para todo k (3. E{A n A n + k } = E{A n } ⋅ E{A n+ k } = η 2 a ⎧σ2 + η 2 ⎪ a a E{A n A n + k } = ⎨ 2 ⎪η a ⎩ para k = 0 para k ≠ 0 y en una forma más compacta.164) ∑ Pero del dual de la expresión (1. S X (f ) = {R X (τ )} = T 1 σ2 a b | P (f )| + 2 2 ηa Tb S X (f ) = ∞ ⎡ ⎤ | P (f )|2 ⎢σ2 + η 2 exp( − j2πkTb f ) ⎥ a a Tb ⎢ ⎥ ⎣ ⎦ k =−∞ k =−∞ ∑| P(f )| ∞ 2 exp(− j2πkTb f ) (3.159) para darle una forma cuya transformada de Fourier se pueda determinar con facilidad.104). Para determinar la densidad espectral de X(t) vamos a simplificar la expresión (5. de acuerdo con la expresión (3.161) La expresión (3. P(f) = {p(t )} (3.163) La expresión (3. t 2 ) = R X (τ ) . Puesto que E{X( t )} es constante y R X ( t 1 .

241
III. VARIABLES Y PROCESOS ALEATORIOS

que también podemos escribir en la forma ∞ ⎡ ⎤ 1 2 ⎢ E A 2 + 2 E {A n A n+ k } cos( 2πkTb f )⎥ S X (f ) = | P ( f )| n Tb ⎢ ⎥ ⎣ ⎦ k =1

{ } ∑

(3.166)

En resumen, si se tiene un proceso aleatorio discreto de la forma X( t ) = donde
n =−∞

∑A

n

⋅ p ( t − nTb − T )
para para k=0 k≠0

(3.167) (3.168)

⎧σ2 + η 2 ⎪ a a E{A n A n + k } = ⎨ 2 ⎪η a ⎩

y T es un retardo aleatorio distribuido uniformemente en el intervalo (0, Tb), la densidad espectral de potencia de X(t) vendrá dada entonces por ⎡ η2 a 2 S X (f ) = | P ( f )| ⎢σa + Tb Tb ⎢ ⎣ 1
2

n =−∞

δ( f −

n ⎤ )⎥ Tb ⎥ ⎦

(3.165)

o por

S X (f ) =

∞ ⎡ ⎤ 1 | P( f )|2 ⎢ E A 2 + 2 E{A n A n + k } cos(2 πkTb f ) ⎥ n Tb ⎢ ⎥ k =1 ⎣ ⎦

{ } ∑

(3.166)

Nótese que, en general, la densidad espectral de potencia de una secuencia binaria aleatoria contiene una parte continua y una parte discreta con impulsos Delta Dirac en las frecuencias n/Tb. Estos impulsos se pueden utilizar para extraer la señalización de reloj de período Tb para la temporización en el receptor, aunque algunas veces pueden ser perjudiciales. Nótese que para k ≠ 0, E{A n A n + k } = E{A n } ⋅ E{A n + k } . Si E{A n } = ηa = 0 , entonces, de (3.158), E{X( t )} = 0 , lo que significa que la secuencia aleatoria x(t) no posee una componente continua y, por lo tanto, la densidad espectral de potencia Sx(f) no contiene componentes discretas. En este caso, las estadísticas de x(t) son
S X (f ) = σ2 a Tb | P (f )|
2

⇔ R X (τ ) =

2 σa

Tb

[ p(t ) ∗ p(-t)]

(3.169)

En resumen, cuando el valor promedio de la secuencia aleatoria x(t) es cero (no posee una componente continua), su densidad espectral de potencia Sx(f) será puramente continua y no contendrá componentes discretas (De aquí la utilización en la práctica de secuencias aleatorias bipolares). Una forma de explicar esta característica es que las componentes periódicas son una consecuencia de lo que puede llamarse el aspecto “periódico” de los trenes de impulsos. Los impulsos pueden aparecer solamente en instantes periódicos (múltiplos de Tb) y este hecho se refleja en la presencia de componentes espectrales discretas a las frecuencias que son múltiplos enteros de Tb. Por ejemplo, en la secuencia aleatoria bipolar NRZ, Fig. 3.23(a), la presencia, en promedio, de un número igual de impulsos positivos y negativos, significa que todas las componentes discretas en el espectro (tanto en f = 0 como en altas frecuencias) son eliminadas y la densidad espectral será puramente continua, Fig. 3.23(c). Las expresiones (3.161), (3.165), (3.166) y (3.169), nos permiten determinar la densidad espectral de potencia y la función de autocorrelación de diferentes señales digitales binarias

242
III. VARIABLES Y PROCESOS ALEATORIOS

utilizadas en la práctica para la transmisión de impulsos en banda de base. Nótese que no es necesario que el proceso X(t) sea ergódico, es suficiente que sea débilmente estacionario.
3.9.2. Densidad Espectral y Función de Autocorrelación de Secuencias PCM

En el Capítulo V se utiliza un conjunto de señales aleatorias binarias cuyas densidades espectrales podemos ahora calcular. En efecto, sea la secuencia aleatoria unipolar NRZ de amplitud A mostrada en la Fig. 3.21(a).
A 1 1 0 1 0 0 1 1 t

x(t) 0

Tb R x ( τ) A /2 A2 / 4
2

(a) Secuencia Aleatoria Unipolar NRZ
0.4

Sx(f)
Sx( f ) 0.2

A 2Tb = 1

− Tb Tb 0 (b) Función de Autocorrelación

τ

0

3

2

1

0 f

1

2

Tb f

3

(c) Densidad Espectral de Potencia Fig. 3.21.

Para una secuencia aleatoria unipolar NRZ de amplitud A, se cumple que A 1 = A y A 2 = 0 con probabilidades 1/2; entonces, de (3.151), Para k = 0, Para k ≠ 0, de donde
σ2 + a

E

{ }
A2 n

2 A1 A 2 A 2 2 2 = + = = σa + η 2 a 2 2 2

2 2 A 1 A 1A 2 A 2 A 1 A 2 A 2 2 E{A n A n + k } = + + + = = ηa 4 4 4 4 4

A2 A2 A2 = ∴ σ2 = a 4 2 4 Como los impulsos son rectangulares de duración Tb , entonces t 2 p(t ) = Π( ) ⇔ P (f ) = Tb sinc(Tb f ) y |P(f)|2 = Tb sinc 2 (Tb f ) Tb

Reemplazando lo anterior en (3.165), ⎡ A 2 Tb 1 S X (f ) = sinc 2 (Tb f )⎢1 + 4 ⎢ ⎣ Tb

n =−∞

∑δ(t − Tn )⎥⎦⎥
b

pero como sinc 2 (Tb f ) tiene sus ceros en los puntos n / Tb con n ≠ 0 , habrá solamente una componente discreta a la frecuencia cero, de donde A 2 Tb A2 A2 S X (f ) = sinc 2 (Tb f ) + Tb sinc 2 ( Tb f ) + δ ( f ) δ( f ) = (3.170) 4 4 4

[

]

243
III. VARIABLES Y PROCESOS ALEATORIOS

cuya transformada inversa, su función de autocorrelación, es R X ( τ) = A2 ⎡ τ ⎤ ⎢1 + Λ ( ) ⎥ 4 ⎣ Tb ⎦ (3.171)

En la Fig. 3.21(b) se muestra la función de autocorrelación y en la Fig. 3.21(c) la densidad espectral de potencia de la secuencia aleatoria unipolar NRZ. En transmisión de impulsos mediante portadora modulada (Capítulo V) se transmite la señal ASK que tiene la forma x ASK ( t ) = x( t ) cos(2πf c t ) , donde x(t) es una secuencia aleatoria unipolar NRZ de amplitud A. Mediante aplicación del teorema de la modulación para señales de potencia, la correspondiente densidad espectral de potencia de la señal x ASK ( t ) es (ver Fig. 5.62), A 2 Tb ⎡ f +f f −f ⎤ A2 S ASK (f ) = [ δ(f + f c ) + δ(f − f c )] + 16 ⎢sinc 2 ( 1 / T c ) + sinc 2 ( 1 / T c )⎥ 16 ⎣ b b ⎦ (3.172)

Aplicando este procedimiento a diferentes secuencias aleatorias que representan algunos códigos de línea, podemos demostrar (Ver Problema de Aplicación 3.30): (a) Para una secuencia aleatoria unipolar RZ de amplitud A, Fig. 3.22(a):
A x(t) 0
0.1

1

1

0

1

0

0

1

1 t

Tb
(a) Secuencia Aleatoria Unipolar RZ Sx(f)
Sx( f ) 0.05
2

R x ( τ) A 2 / 2 A /4 − Tb − Tb / 2 0 Tb / 2 Tb (b) Función de Autocorrelación
τ
0

A 2 Tb = 1

3

2

1

0

1

2

f (c) Densidad Espectral de Potencia

Tb f

3

Fig. 3.22

La densidad espectral de potencia de esta secuencia es 1 A 2Tb T ⎡ SX ( f ) = sinc2 ( b f ) ⎢1 + 16 2 ⎢ Tb ⎣
2

n =−∞

δ( f −

n ⎤ )⎥ Tb ⎥ ⎦

Los impulsos de δ( f − n / Tb ) están presentes en las frecuencias

( n / Tb ) , pero como

sinc (Tb f / 2) tiene sus ceros en las frecuencias (2n / Tb ) , entonces S X ( f ) contendrá impulsos solamente en las frecuencias para n impar y n = 0. Nótese que el impulso en ( f = 1 / Tb ) se puede utilizar para extraer la información de señalización o temporización (reloj). Hechas estas consideraciones, la densidad espectral Sx(f) queda entonces en la forma

244
III. VARIABLES Y PROCESOS ALEATORIOS
∞ A2 ⎡ n ⎤ 4 2 Tb ⎢ Tb sinc ( f ) + δ (f ) + S x (f ) = ' 2 2 δ (f − )⎥ para n impar Tb ⎥ 16 ⎢ 2 n π n =−∞ ⎣ ⎦

(3.173)

Esta densidad espectral, mostrada en la Fig. 3.22(c), contiene un impulso en el origen e impulsos a las frecuencias n/Tb para n impar. La notación
el valor n = 0. La correspondiente función de autocorrelación es, Fig. 3.22(b),
R X (τ ) = A2 2
∞ ⎡ τ − nTb ⎤ τ ⎢Λ ( )+ )⎥ Λ( Tb / 2 ⎥ ⎢ Tb / 2 n =−∞ ⎣ ⎦

n=−∞

∑ ' indica que la sumatoria no incluye

(5.173)

(b)

Para una secuencia aleatoria bipolar NRZ de amplitudes ± A, Fig. 3.23(a).
x(t) 0 A 1 1 0 1 0 0 1 1 t

Tb
-A (a) Secuencia Aleatoria Bipolar NRZ
1

R x ( τ)

A2
Sx( f ) 0.5

Sx(f)

A 2Tb = 1

τ − Tb Tb 0 (b) Función de Autocorrelación

0

4

3

2

1

0 f

1

2

3

Tb f

4

(c) Densidad Espectral de Potencia Fig. 3.23

La densidad espectral de potencia y la función de autocorrelación correspondientes, vienen dadas por τ S X (f ) = A 2 Tb sinc 2 (Tb f ); R X (τ ) = A 2 Λ ( ) (3.175) Tb En la Fig. 3.23(b) se muestra la función de autocorrelación y en la Fig. 3.23(c) la densidad espectral de una secuencia aleatoria bipolar NRZ de amplitudes ± A . La modulación binaria PSK, que veremos en el Capítulo V, se puede considerar como el producto de una secuencia aleatoria bipolar NRZ de amplitud A por una señal sinusoidal de frecuencia fc , es decir,

x PSK ( t ) = x( t ) ⋅ cos(2πf c t )

245
III. VARIABLES Y PROCESOS ALEATORIOS

Aplicando el teorema de la modulación para señales de potencia, la densidad espectral de potencia de una señal PSK es

⎡ f − fc ⎤ 2 f + fc ) + sinc 2 ( )⎥ (3.176) ⎢sinc ( fb ⎦ fb ⎣ expresión que tiene la misma forma que (3.172), con la diferencia de que S PSK ( f ) no contiene impulsos en las frecuencias f = ± f c . Nótese que la densidad espectral de una señal DPSK, que veremos en el Capítulo V, es igual a la densidad espectral de una señal PSK, pues desde el punto de vista espectral no hay diferencia entre una señal PSK y una DPSK.
S PSK ( f ) = (c) Para una secuencia aleatoria bipolar AMI RZ de amplitud ± A, Fig. 3.24(a).
A 1 1 0 1 0 0 1 1 t

A 2 Tb 4

x(t)

0 -A

Tb
0.3

R x ( τ) − Tb / 2 − Tb
0

A2 / 4 Tb / 2 Tb − A2 / 8

0.2 Sx( f )

Sx(f)

A 2 Tb = 1

τ0.1
0

4

3

2

1

0 f

1

2

3

(b) Función de Autocorrelación Fig. 3.24

(c) Densidad Espectral de Potencia

Tb f

4

La densidad espectral de esta secuencia es A 2 Tb T S X (f ) = sinc 2 ( b f ) sen 2 ( πTb f ) 4 2 (3.177)

que se muestra en la Fig. 3.24(c); la correspondiente función de autocorrelación, Fig. 3.24(b), es

τ − Tb ⎤⎫ A2 ⎧ τ 1 ⎡ τ + Tb ⎨Λ ( R X (τ ) = ) − ⎢Λ( ) + Λ( )⎥⎬ Tb / 2 ⎦⎭ 4 ⎩ Tb / 2 2 ⎣ Tb / 2
La densidad espectral de la secuencia aleatoria MANCHESTER, Fig. 3.25(c), es S X (f ) = A 2 Tb sinc 2 ( Tb Tb f ) sen 2 (π f) 2 2

(3.178)

(c) Para una secuencia aleatoria bipolar MANCHESTER de amplitud ± A, Fig. 3.25(a).

(3.179)

y la correspondiente función de autocorrelación, Fig. 3.25(b),

246
III. VARIABLES Y PROCESOS ALEATORIOS

R X (τ) = A 2 Λ (

τ A2 )− Tb / 2 2

⎡ τ + Tb / 2 τ − Tb / 2 ⎤ ) + Λ( )⎥ ⎢Λ( Tb / 2 Tb / 2 ⎦ ⎣

(3.180)

En la Fig. 3.25(b) se muestra la densidad espectral de potencia de la secuencia bipolar MANCHESTER de amplitud ± A .

(e) Función de Autocorrelación y Densidad Espectral de Potencia del Ruido Térmico La secuencia aleatoria mostrada en la Fig. 3.19(a) tiene la forma típica del ruido térmico en conductores. La señal cambia abruptamente en amplitud en instantes aleatorios. El número promedio de transiciones por segundo de la amplitud es α , y el número de transiciones sigue la distribución de Poisson. La amplitud después de una transición es independiente de la amplitud de la transición anterior. Se demuestra [Lathi, 1968] que para el ruido térmico 2kTRα 2 R X (τ ) = kTRα ⋅ exp(−α| τ|) ⇔ S X (f ) = 2 (3.181) α + 4π 2 f 2 cuyas formas se muestran en la Fig. 3.26.

R X (τ )

S X (f )

(a) Función de Autocorrelación

0

τ

(b) Densidad Espectral de Potencia

0

f

Fig. 3.26. Características del Ruido Térmico.

k es la constante de Boltzmann y T la temperatura absoluta, en kelvins, en el conductor de resistencia R. Como α es del orden de 1014, la densidad es casi plana para frecuencias hasta el

247
III. VARIABLES Y PROCESOS ALEATORIOS

orden de 1013 Hz. En consecuencia, para efectos prácticos el ruido térmico se puede considerar como ruido blanco con una densidad espectral SX(f) = 2kTR, que es el mismo resultado (2.138) de Johnson y Nyquist.
3.9.3. Secuencias Binarias Seudoaleatorias Características Espectro-Temporales

En la sección anterior consideramos secuencias aleatorias de duración infinita las cuales, en su mayoría, son generadas a partir de un proceso físico, por ejemplo, una fuente de información. Pero hay una clase de secuencias aleatorias binarias que son periódicas, esto es, son secuencias infinitas formadas por una subsecuencia aleatoria binaria de duración T que se repite periódicamente. Debido a su característica periódica pero a la vez aleatoria, a estas secuencias se las denomina “secuencias seudoaleatorias”, “secuencias PN (del inglés Pseudo-Noise)” o “secuencias m”. El término “seudo-aleatorio” significa que la señal es aleatoria en apariencia pero reproducible por medios determinísticos. Una secuencia binaria de este tipo se muestra en la Fig. 3.27. Debido a su naturaleza determinística, este tipo de secuencia no contiene ninguna clase de información, pero puede ser modulada para transportar algún tipo de información.
s(t) 1
0
0 0 1 1 0 1 T = N Ts 0 1 1 1 1 0 0 0 1 0 Ts 0 1 1 0 1 T = N Ts 0 1 1 1 1 0 0 0 1

t

_1

Período

Período

Secuencia Recurrente: 0 0 1 1 0 1 0 1 1 1 1 0 0 0 1 ; N = 15 dígitos o "chips" Fig. 3.27. Secuencia Binaria Seudoaleatoria

Cada período de la secuencia seudoaleatoria está formado por N dígitos o “chips” de duración Ts y para efecto de análisis consideraremos secuencias NRZ. Las secuencias seudoaleatorias no se producen espontáneamente sino que son generadas por métodos artificiales; este hecho es de gran importancia pues permite la reproducción de señales seudoaleatorias idénticas, lo cual es imposible de lograr con secuencias aleatorias de cualquier otro tipo. Las secuencias seudoaleatorias son muy utilizadas en el campo de la ingeniería eléctrica, sobre todo en el dominio de las telecomunicaciones, y sería de interés conocer sus características temporales y frecuenciales, en particular su función de autocorrelación y su densidad espectral de potencia. Se demuestra [Couch, 1990] que la función de autocorrelación de una secuencia seudoaleatoria s(t) es R s ( τ) =

n =−∞

∑ (1 + N )Λ(
1

τ − nNTs 1 )− Ts N

(3.182)

la cual tiene la forma mostrada en la Fig. 3.28.

248
III. VARIABLES Y PROCESOS ALEATORIOS

La correspondiente densidad espectral de potencia se puede determinar mediante el teorema de Wiener-Khintchine.
Rs (τ ) 1 T = NTs
_ _

1 1 f o= = T NTs

Ts

0

NTs

Fig. 3.28. Función de Autocorrelación de una Secuencia Binaria Seudoaleatoria.

1 N

Ts NTs

τ

Como R s ( τ ) es una función periódica, su transformada de Fourier Ss(f) se puede determinar mediante el método visto en la Sección 1.8, Capítulo I, expresiones (1.102) y (1.103). En efecto, de la Fig. 3.28, la función generatriz R sg ( τ ) de R s ( τ ) es R sg ( τ) = (1 + 1 τ 1 τ ) Λ ( ) − Π( ) N Ts N NTs
fo = 1 . NTs

siendo la frecuencia fundamental

La transformada de Fourier de R sg (τ ) es S sg (f ) = (1 + 1 )Ts sinc 2 (Ts f ) − Ts sinc(NTs f ) N

De (1.103), el correspondiente coeficiente de Fourier será S sn = 1 NTs

n 1 1 ⎡ ⎤ N+1 2 n sinc 2 ( ) − sinc(n) ⎢ (1 + N )Ts sinc ( N ) − Ts sinc(n)⎥ = 2 N N ⎣ ⎦ N

De (1.102), la densidad espectral de potencia resulta en S s (f ) =

n =−∞

∑ ⎢⎣ N

⎡N +1
2

1 n ⎤ sinc 2 ( ) − sinc(n)⎥δ (f − nf o ) N N ⎦

pero

⎧1 para n = 0 sinc(n) = ⎨ ⎩0 para n ≠ 0 Entonces, para n = 0, 1 ⎡N +1 1 ⎤ S s (f )|n = 0 = ⎢ 2 − ⎥δ (f ) = 2 δ (f ) N⎦ N ⎣ N La densidad espectral de potencia de una secuencia binaria seudoaleatoria s(t) será entonces S s (f ) =

n =−∞

∑' N

N+1
2

1 n sinc 2 ( )δ (f − nf o ) + 2 δ (f ) N N

(3.183)

249
III. VARIABLES Y PROCESOS ALEATORIOS

donde

n =−∞

∑'

indica que la sumatoria no incluye el valor n = 0; N es el número de dígitos binarios

o “chips” dentro de un período, y f o = 1/ NTs la frecuencia de recurrencia. La densidad espectral de potencia de una secuencia seudoaleatoria, expresión (3.183), es un espectro discreto o de líneas cuya envolvente tiene la forma mostrada en la Fig. 3.29 (frecuencias positivas solamente).
S s (f )

N +1 N
2

sinc2 (

f ) fs
f

1 N
2

fs =
0

1 = Nf o Ts

fo 2fo 3fo

fs

Fig. 3.29. Densidad Espectral de Potencia de una Secuencia Seudoaleatoria.

Si el número de “chips” N es muy grande, las líneas espectrales se juntan cada vez más y para efectos prácticos la densidad espectral puede considerarse como un espectro continuo muy parecido al de una señal aleatoria binaria bipolar NRZ, como la mostrada en la Fig. 3.23.
Dispersión del Espectro (Spread Spectrum)

La “dispersión del espectro (Spread Spectrum, SS)” es una técnica de modulación digital en la cual una secuencia aleatoria binaria portadora de información modula a una secuencia seudoaleatoria; como consecuencia, el espectro resultante se esparce o dispersa y su ancho de banda es mucho mayor que el ancho de banda de la señal moduladora. El principio de dispersión del espectro es muy utilizado en sistemas de comunicación para evitar interferencias (espontáneas o maliciosas (jamming)), para robustecer los sistemas contra escuchas indebidas y para la transmisión de múltiples señales por un mismo canal. En el Capítulo V se estudian algunos de los sistemas utilizados en la práctica. Consideremos entonces una secuencia aleatoria bipolar NRZ m(t) de la forma dada en la Fig. 3.23(a); multipliquemos esta señal por la secuencia seudoaleatoria s(t) de la Fig. 3.27, donde debe cumplirse que
1 = Tb = NTs fb y fo = f b

(3.184)

como se muestra en la Fig. 3.30; m(t) y s(t) son independientes. Nótese que s 2 ( t ) = ( ±1) 2 = 1 . Puesto que m(t) y s(t) son independientes, entonces se verifica que si s p (t ) = m(t ) ⋅ s(t ) , de donde m(t) ⇒ Sm (f ) ⇔ R m (τ) y s(t) ⇒ Ss (f ) ⇔ R s (τ), entonces R sp (τ)=R m (τ) ⋅ R s (τ)

250
III. VARIABLES Y PROCESOS ALEATORIOS

A 0 _ A 1 0 _ 1

m(t)
1 fb = Tb

Un Dígito de m(t)
Tb
1 fs = Ts T = NTs 1 fo = f b = T
t

s(t)

t

Ts

Fig. 3.30. Mensaje m(t) y Señal Dispersora s(t).

Del Teorema de Wiener-Kintchine, R sp ( τ) ⇔ Ssp (f ) , y por el teorema de convolución S sp (f ) = S m (f ) ∗ S s (f ) , donde, normalizando (3.175) haciendo A 2 Tb = 1, S m (f ) = sinc 2 ( Entonces, S sp ( f ) = S sp ( f ) =
f ) y s p ( t ) ⇒ S sp ( f ) fb S sp (f ) = S s (f ) ∗ S m (f )

n =−∞ ∞ n =−∞

∑'

( N + 1) N
2

sinc 2 ( sinc 2 (

n 1 )[S m ( f )∗ δ ( f − nf o ) ] + 2 [S m ( f )∗ δ ( f )] N N 1 n ) ⋅ S m ( f − nfo) + 2 S m ( f ) N N (3.185)

∑'

( N + 1) N
2

En la Fig. 3.31 se muestra este espectro disperso que determinamos, para no hacer muy largo el tiempo de cálculo, con N = 31; fb = fo = 1 kHz y fs = 31 kHz. Puede notarse que el efecto de la multiplicación es el de producir un espectro que se extiende aproximadamente N veces el valor del espectro original, el cual se muestra con líneas punteadas para efectos de comparación (las curvas no están a escala: la amplitud de Ssp (f ) se ha multiplicado por 10 para poderla observar cómodamente en la Fig. 3.31). El espectro mostrado en la Fig. 3.31 se ha calculado para N = 31, pero en la práctica el valor de N va desde una centena hasta varios millares. Para | f | ≥ f s , el espectro disperso es despreciable, y se puede establecer que el ancho de banda B del espectro disperso es B ≈ Nf b , donde fb es la frecuencia de señalización de la secuencia binaria aleatoria m(t). Al factor N ≈ B / f b se le suele llamar “ganancia de procesamiento” y es similar al factor de expansión del ancho de banda β m de los métodos de modulación clásicos que veremos en los siguientes capítulos. El espectro de la señal original m(t) está completamente enmascarado en el espectro disperso Ssp(f) y su detección es prácticamente imposible porque dentro de la banda de paso de m(t) y para altos valores de N la potencia de s p ( t ) es tan pequeña que se acerca a los niveles de potencia del ruido. Para cualquier observador, el contenido de potencia del espectro disperso en la gama

251
III. VARIABLES Y PROCESOS ALEATORIOS

| f | ≤ f b sería ruido simplemente. Para tener una idea de las magnitudes en juego, vamos a calcular la relación entre la potencia de la señal útil m(t) respecto a la potencia del espectro disperso S sp ( f ) en la gama de frecuencias | f | ≤ f b . Con los valores utilizados en el cálculo del espectro disperso de la Fig. 3.31, esta relación es de 14,273 dB, es decir, la potencia del espectro disperso está a 14,273 dB (26,75 veces) por debajo de la potencia de m(t). Esta diferencia se hace más alta para altos valores de N. En general, cuando N >> 1, la relación Potencia del Espectro de Señal /Potencia del Espectro Disperso varía proporcionalmente a N, donde N es la ganancia de procesamiento.

1

Espectro Original Sm(f)
0.75 Sm ( f ) Ssp( f ) . 10 0.5 0.25 0 4 4 2 10 4 4 4 4

Espectro Disperso Ssp(f)

3 10

1 10

0 f

1 10

2 10

3 10

Fig.3.31. Espectro Disperso Ssp(f) y Espectro de Señal Sm(f)
En el Capítulo V se aplican estos conceptos a los sistemas de transmisión de señales binarias por dispersión del espectro (Spread Spectrum).
Generación de Secuencias Binarias Seudoaleatorias

Debido a su naturaleza periódica y determinística, las secuencias seudoaleatorias se pueden generar en forma artificial. Esto es de capital importancia en el campo de las telecomunicaciones pues permite la generación de réplicas exactas y sincronizadas tanto en el transmisor como en el receptor. Sin profundizar en la teoría matemática de las secuencias, se puede decir que las secuencias seudoaleatorias son una subclase importante de las secuencias binarias recurrentes, las cuales se pueden generar mediante dispositivos lineales retroalimentados muy fáciles de realizar con registros de desplazamiento digitales corrientes. Las secuencias seudoaleatorias o secuencias PN de interés en telecomunicaciones deben cumplir con las siguientes condiciones: (1) Que sean fáciles de generar (2) Que posean las propiedades aleatorias necesarias (3) Que su período sea grande (4) Que sean difíciles de reconstruir a partir de un corto segmento de la secuencia Estas condiciones son cumplidas en general por registros retroalimentados de la forma mostrada en la Fig. 3.32.

Nótese que las “tomas” del registro de longitud máxima pasan una y solamente una vez por todas las combinaciones posibles de sus r dígitos (exceptuando la combinación de puros CEROS) y como conocemos todas estas combinaciones. En la Fig. La secuencia de salida es una secuencia recurrente cuya longitud máxima está relacionada con el número de etapas r del registro mediante la ecuación N = 2 r − 1. La secuencia en C n satisface la ecuación de recurrencia Cn = ∑a k =1 r k ⋅ C n− k Módulo 2. es fácil determinar el número de CEROS y UNOS de la secuencia recurrente. aunque no todas las combinaciones de “tomas” producen la máxima longitud. el estado 0 0 0 . . y a cada impulso de reloj a la salida van apareciendo los “chips” que forman la secuencia. en los registros prácticos se hace a 1 = a 2 = ⋅⋅⋅ = a r = 1 . Esta expresión determina la máxima longitud posible de la secuencia.186) El ciclo periódico de los estados depende del estado inicial del registro y de los coeficientes a k . Generador de Secuencias Seudoaleatorias de r Etapas El contenido del registro de r etapas se combina linealmente con los coeficientes a k y se retroalimenta a la primera etapa. la secuencia recurrente a la salida Q4 será (la flecha indica el sentido del flujo de dígitos): 001101011110001 (3. ar = 1 (3. 1980].32.. denominados “tomas” o “taps”. de hecho.. el estado 0 0 0 0.0 es una combinación prohibida. para un total de N = 2 r − 1 “chips”. VARIABLES Y PROCESOS ALEATORIOS Reloj Cn 1 Cn − 1 a1 2 Cn − 2 a2 3 Cn − 3 a3 r Cn− r ar Salida Suma Módulo 2 Fig.187) Normalmente el registro se inicializa con el estado inicial 0 0 0 1. 3. 3.. si su estado inicial es 0 0 0 1. 3. En general. Las combinaciones de “tomas” que producen la máxima longitud han sido estudiadas extensamente en la literatura y se presentan siempre en forma tabulada [Sarwate y Pursley..33 se muestra un generador PN de longitud máxima de cuatro etapas. mostrado en la Fig.33.0 no se utiliza como estado inicial porque produciría una salida de puros CEROS..252 III.

5. 1>. junto con la “toma” r. El lector puede verificar que estos valores se cumplen en la secuencia recurrente (3. . para el generador PN de la Fig. Sea entonces r el número de etapas del registro. N = 24 . edición de 1991. el lector puede consultar el ARRL SPREAD SPECTRUM SOURCEBOOK. Entonces. la entrada a la primera etapa.1>. N el número de dígitos o “chips” de la secuencia recurrente y N ( 0) y N (1) los números de CEROS y UNOS. el Registro < 7.1= 15 “chips”. La convención establecida para representar los registros de longitud máxima tiene la forma Registro < r. se tiene: r = 4.33. 3.33 es entonces un Registro < 4. Número de “chips” de la secuencia = N = 2 r − 1 Número de UNOS en la secuencia = N (1) = 2r = 2 r −1 2 (3. ellas exhiben ciertas regularidades que se pueden describir en términos probabilísticos o como promedios estadísticos.253 III.189) (3. Estos modelos. En particular. Las señales aleatorias no pueden ser descritas mediante expresiones explícitas del tiempo. 3. en la forma de una descripción probabilística de un conjunto de señales del tiempo. 2. 1 > caracteriza un generador de longitud máxima de 7 etapas en el cual se suman las “tomas” 1 y 7 en módulo 2 y se aplican a la primera etapa.10 RESUMEN En este capítulo se han desarrollado algunos modelos para las señales mensaje de carácter aleatorio presentes en los sistemas de comunicación. 1 >. 3. N (1) Por ejemplo. el generador mostrado en la Fig. 3. 3. 4.190) Número de CEROS en la secuencia = N ( 0) = N (1) − 1 = 2 r −1 − 1 El número de CEROS es uno menos que el número de UNOS. contenidos en la secuencia recurrente.27.33. son utilizados en el Servicio de Radioaficionados. Otros registros de aplicación práctica son el Registro <13. que junto con el Registro <7. De acuerdo con esta convención. el proceso aleatorio se puede emplear para desarrollar descripciones de señales aleatorias en el dominio de la frecuencia. se denominan “proceso aleatorio o estocástico”. respectivamente. N ( 0) = 8 − 1 = 7 CEROS.188) (3. VARIABLES Y PROCESOS ALEATORIOS Reloj 1 Q1 0 2 Q2 0 3 Q3 0 4 Q4 1 Salida 001101011110001 Fig. la probabilidad de que la amplitud de una señal aleatoria esté dentro de cierto rango en un determinado instante. por ejemplo. Generador PN de Longitud Máxima de 4 Etapas. Por ejemplo. donde el término r indica el número de etapas del registro y ki las “tomas” que hay que combinar en suma módulo 2 para formar.187). El proceso aleatorio se puede utilizar para estimar. 1> y el Registro <19. = 2 3 = 8 UNOS. ki >. cuando se examinan durante un largo período. sin embargo. Para más información sobre las secuencias aleatorias y sus aplicaciones en los sistemas de espectro disperso. cuya secuencia de salida tiene la forma de la Fig. 3.

Estas secuencias se tratan con cierto detalle. En la dispersión del espectro juegan un papel muy importante las denominadas secuencias seudoaleatorias. Sea una secuencia binaria de 1428 UNOS y 2668 CEROS. en cuyo caso se puede definir la existencia de una densidad espectral de potencia que muestra la distribución de la potencia en el dominio de la frecuencia. y es muy importante conocer sus estadísticas. Los promedios estadísticos de más utilización son el valor promedio y la función de autocorrelación. como consecuencia. En el depósito de la compañía hay 10.000 receptores distribuidos en la forma siguiente. El concepto de variable aleatoria se ha desarrollado a partir de ideas sencillas e intuitivas y se ha clasificado como variables aleatorias discretas y variables aleatorias continuas. (b) Demuestre que la probabilidad de obtener 7 puntos es de 1/6 (c) Demuestre que la probabilidad de obtener 5 puntos ó 7 puntos ó 8 puntos es de 15/36. y en particular las secuencias aleatorias binarias. Estos receptores vienen en gabinetes de color marfil. habiéndose determinado la función de autocorrelación y la densidad espectral de potencia de algunas de las secuencias aleatorias binarias más utilizadas en los sistemas de transmisión digital.4. El experimento es el lanzamiento de dos dados. y todas las estadísticas del proceso se pueden determinar a partir de una simple señal de muestra. 3. en especial su función de autocorrelación y su densidad espectral de potencia. el cual tiene la propiedad de que los promedios conjunto son iguales a los promedios tiempo. se presenta una breve exposición sobre la generación y aplicación de las secuencias binarias seudoaleatorias. Una subclase especial de los procesos estacionarios es el llamado proceso ergódico. Basado en estas ideas se define la noción de proceso aleatorio.3486. En el Capítulo V se aplican estas nociones en algunos sistemas de transmisión digital. La teoría de la probabilidad trata la noción de probabilidad de sucesos aleatorios y el concepto de variable aleatoria.254 III. 3. Una compañía construye receptores de radio de 6. Para complementar el tema. De gran importancia en el análisis de sistemas digitales son los procesos aleatorios discretos. El proceso aleatorio se ha definido en términos de sus estadísticas que son simplemente relaciones de probabilidad o promedios estadísticos.2. Todas las señales PCM y los diferentes códigos de transmisión digital son secuencias aleatorias binarias. Si el valor promedio y la función de autocorrelación de un proceso son invariantes en el tiempo.3. Para este tipo de señal se determina la función de autocorrelación y la densidad espectral de potencia. PROBLEMAS DE APLICACION 3. 8 y 10 transistores.1. (a) Demuestre que la probabilidad de obtener 8 puntos es de 5/36. negro y verde. entonces se dice que el proceso es estacionario en el sentido amplio. Demuestre que P(A + B + C) = P(A) + P(B) +P(C) -P(AB) -P(AC) -P(BC) + P(A B C) 3. VARIABLES Y PROCESOS ALEATORIOS La descripción y análisis de señales aleatorias utilizando estos conceptos son de gran utilidad en el análisis y diseño de sistemas de comunicación y en el análisis espectral de procesos. Demuestre que la probabilidad de recibir un UNO en un intervalo cualquiera es de 0. el espectro de la señal resultante se esparce o dispersa y su ancho de banda es mucho mayor que el ancho de banda de la señal mensaje. que son secuencias infinitas formadas por una subsecuencia aleatoria de duración T que se repite periódicamente. La dispersión del espectro se produce cuando una secuencia binaria portadora de información modula una secuencia seudoaleatoria. En los modernos sistemas de comunicación se está aplicando el concepto de dispersión del espectro. .

VARIABLES Y PROCESOS ALEATORIOS No. de Transistores 6 8 10 TOTALES Color Marfil 1000 600 400 2000 Color Negro 3000 1000 1000 5000 Color Verde 2000 1000 0 3000 TOTALES 6000 2600 1400 10000 Una persona entra en el depósito y toma un receptor. 3. Demuestre que la probabilidad de que estas bolas sean todas blancas es de 3/34. 4 4 (b) Determine y dibuje la correspondiente función de distribución FX (x).6.255 III. de los cuales el 40% está defectuoso.1625. Se tiene también otras dos cajas C3 y C4 con 1000 transistores cada una y con un 10% defectuoso.Verifique si las siguientes funciones satisfacen las condiciones para ser una función de densidad de probabilidad. Demuestre las siguientes probabilidades: P{aparecen tres caras} = 5/16 P{aparece una sola cara} = 5/32 P{aparecen cinco caras} = 1/32 3.8 Una caja C1 contiene 2000 transistores. 2 (c) p X (x ) = 1 x Λ( ) .10.11.7. Se selecciona al azar una de las 4 cajas y se saca un transistor. Demuestre que la probabilidad de que este transistor esté defectuoso es de 0.615. De esta caja se sacan 4 bolas.14 P{tomar un radio verde de 10 transistores} = 0 P{tomar un radio negro de 6 transistores} = 0. Una segunda caja C2 contiene 500 transistores. π 1+ x 2 x (b) p X (x ) = | x| Π ( ) . .4375 . De esta caja se sacan 3 bolas. Sea la función de densidad de probabilidad p X (x) = (a) Demuestre que la probabilidad P( − A A < X ≤ ) = 0. Una caja contiene 10 bolas blancas.3 3. Demuestre las siguientes probabilidades: P{tomar un receptor verde} = 0. En el Problema anterior se examina el transistor y vemos que está defectuoso. (a) p X (x) = 1 1 ( ).9. Demuestre que la probabilidad de que fue sacado de la caja C2 es de 0.5.3 P{tomar un radio de 10 transistores} = 0. 3. El experimento es el lanzamiento de cinco monedas. Demuestre que la probabilidad de sacar 1 bola blanca y 2 rojas es de 12/35. 3. A A 1 x−8 (8 − x )Π ( ) 6 8 3. de los cuales el 5% está defectuoso. 4 negras y 3 rojas. Una caja contiene 2 bolas blancas. 3. 1 negra y 4 rojas.

3. donde la VA X es gaussiana de valor promedio E{X} = m y varianza σ2 . 3. E{X2 } = 5/3 .6.105). demuestre que la densidad de probabilidad a la salida del sistema es . Demuestre que la densidad de probabilidad de la VA Y es p Y (y) = 1 2σ {exp[− ( 2πy y + m) 2 / (2σ 2 )] + exp[− ( y − m) 2 / (2σ 2 )] u (y ) } 3.19. de valor promedio cero y varianza σ2 .15. 2 2 σ 2 = 2 / 3. R es entonces una VA con distribución uniforme entre 900 y 1100 Ohm. Sea una VA X cuya distribución es gaussiana de valor promedio E{X} = 5 y σ = 0. En la expresión (3.3084 x 10-11 (b) Demuestre que P(X ≤ 6) = 0. Sea la función de densidad de probabilidad pX (x) = K exp(-αx)u(x). y ) = K(x + xy )Π (x − 1 / 2 ) ⋅ Π ( y−2 ) 4 (a) Demuestre que K = 1/6 (b) Demuestre que las VA X e Y son independientes (c) Demuestre que FXY (1/2.12. Se tiene dos VA X e Y independientes cuyas densidades de probabilidad son pX (x) = exp(-x)u(x) y pY (y) = 2 exp(-2y)u(y) Sea también una nueva VA Z = X + Y.16. (a) Demuestre que K = α. La señal de entrada X y la señal de salida Y de un sistema no lineal están relacionadas mediante la expresión Y = X2 u(X).18.14. 3.21.952 3. Sea Y = X2 . (b) Demuestre que la correspondiente función de distribución es FX (x) = [1 . Si la densidad de probabilidad de X es gaussiana. Demuestre que la probabilidad de que el valor de la resistencia esté entre 950 y 1050 Ohm es de 0.17. (a) Demuestre que P(X ≤ 1) = 1. Sea una función de densidad conjunta de dos VA X e Y de la forma p XY (x . La densidad de probabilidad de una VA X es p X ( x ) = Demuestre que E{X} = 1 . Demuestre que pZ (z) = 2[exp(-z) . Se saca una resistencia de la caja. VARIABLES Y PROCESOS ALEATORIOS 3. 2) = 1/12 3.256 III. 3.13.20. Demuestre las expresiones (3.exp(-2z)] u(z). 1 x −1 Λ( ). donde K y α son dos constantes positivas.106) deduzca FX (x) a partir de pX (x). En una caja se tiene un conjunto de resistencias cuyo valor R varía entre 900 y 1100 Ohm (valor nominal de 1000 Ohm con ±10 % de error máximo). x 3. 3.exp(-αx)]u(x).5.

22.23. VARIABLES Y PROCESOS ALEATORIOS p Y (y) = y 1 1 δ (y) + exp(− )u(y) 2 2σ 2πy 2σ 2 3.257 III. demuestre que ( y − 10) 2 ( − y − 10) 2 exp[ − ] + exp[ − ] 50 50 p Y ( y) = ⋅ u( y) 5 2π ⎡ y − 10 y + 10 ⎤ FY ( y) = ⎢erf ( ) + erf ( ) ⎥ ⋅ u ( y) 5 2 5 2 ⎦ ⎣ (c) Si la VA X está distribuida uniformemente en el intervalo (10. ⎡ ⎤ y y 1 (a) Demuestre que p Y ( y) = pX ( ) − 1⎥ u(y) ) u(y) y FY ( y) = ⎢2 FX ( a a ay ⎣ ⎦ (b) Si la densidad de probabilidad de la VA X es gaussiana. se puede demostrar también que p Y ( y) = 2 p X ( y) ⋅ u( y ) y FY ( y) = [ 2 FX ( y) − 1] ⋅ u( y) (b) Si la VA X es gaussiana de valor promedio 10 y desviación 5.. . En el caso de un detector cuadrático la entrada X y la salida Y están relacionadas mediante la expresión Y = aX2 con a > 0. donde c > 0. d). de valor promedio cero y varianza σ2 . demuestre que p Y ( y) = 1 y − 15 1 Π( ) y FY ( y) = [ r ( y − 10) − r ( y − 20)] 10 10 10 donde r(. En el caso de un rectificador de onda completa la entrada X y la salida Y están relacionadas mediante la ecuación Y = |X|. 20). demuestre que la densidad de probabilidad a la salida del detector cuadrático es y y/a 1 p Y ( y) = exp(− ) ⋅ u ( y) y FY ( y) = erf ( ) ⋅ u ( y) 2 2aσ σ 2aπy 2σ (c) Si la VA X está uniformemente distribuida en el intervalo (c. demuestre que ⎧ 1 ⎪ p Y ( y) = ⎨ para ac 2 ≤ y ≤ ad 2 ⎪ 2(d − c) ay ⎩ ⎧ y/a −c para ac 2 ≤ y < ad 2 ⎪ FY ( y) = ⎨ d − c ⎪1 para y ≥ ad 2 ⎩ 3.) es la función rampa. (a) Demuestre que p Y ( y) = [ p X ( y) + p X ( − y)] ⋅ u( y) y FY ( y) = [ FX ( y) − FX (− y)] ⋅ u( y) Si pX(x) es una función par.

demuestre que | a| 1 p Y ( y) = para todo y 2 πα a 2 ( 2 +y ) α Vemos que la VA Y está también distribuida según Cauchy.27.24.5. VARIABLES Y PROCESOS ALEATORIOS 3. α + x2 1 α (a) Demuestre que K = α/π . x2). FX (x ) = E{X2 } = 2/α2. (a) Si pX(x) y Fx(x) son las funciones de probabilidad de X. Sea una VA X y sea el proceso lineal Y = aX + b. X a pX ( ) y | a| a y' (a) Demuestre que p Y ( y) = 2 p X ( ) y FY ( y) =| a| dy' para todo y 2 y −∞ y' y donde pX (x) es la densidad de probabilidad de X.25. pero con parámetro |a|/α. ax 2 + b) . (b) Demuestre que (c) Demuestre que (c) Demuestre que K = α/2 E{X} = 0. donde a es una constante. donde K p X (x ) = 2 .26. demuestre que p Y ( y) = y−b y−b 1 1 pX ( ) y FY ( y) = FX ( ) |a| a |a| a para todo y (b) Si la VA X está distribuida uniformemente en el intervalo (x1. Sea una VA X y un proceso hiperbólico de la forma Y = a . Una VA X está distribuida según la distribución de Cauchy. es decir. ∫ (b) Si la VA X está distribuida según Cauchy. de donde p X (x) = π α2 + x 2 1 1 x FX (x ) = + arctg( ) (b) Demuestre que 2 π α (a) Demuestre que la probabilidad de que X esté dentro del intervalo (−α.258 III. 3. 3. Una VA X está distribuida en forma laplaciana. 3. donde a y b son dos constantes. demuestre que 1 ⎧1 para ax1 + b < y < ax 2 + b ⎪ p Y ( y) = ⎨ | a | ( x 2 − x 1 ) ⎪0 en el resto ⎩ La VA Y está distribuida uniformemente en el intervalo (ax1 + b. σ = 2 /α 1 1 exp(αx )u (− x ) + [1 − exp(− αx )]u (x ) 2 2 (d) Grafique FX ( x ) y compruebe que F( −∞) = 0 y F(+∞ ) = 1 . α ) es igual a 0. su densidad de probabilidad tiene la forma p X (x ) = K exp(−α | x| ) .

Fig.22(a) (b) Una secuencia aleatoria bipolar NRZ de amplitudes ± A . E{X 2 } = 2α 2 .2.23(a) (c) Una secuencia aleatoria bipolar AMI RZ de amplitudes ± A . 3. La α2 (a) Demuestre que si f(x) es una distribución de Raleigh.25(a). No dibuje impulsos. donde x2 p X ( x ) = Kx 2 exp(− 2 )u ( x ) 2α 2/π (a) Demuestre que K = α3 (b) Demuestre que el valor máximo de p X ( x ) ocurre para x = α 2 (c) Demuestre que la función de distribución FX ( x ) es ⎡ x 1 2 x2 ⎤ FX (x) = ⎢erf ( )− x exp(− 2 ) ⎥ u(x) 2α ⎥ 2α α π ⎢ ⎣ ⎦ (d) Demuestre que la probabilidad P{X ≤ α 2} = 0. 42759 . (e) En un solo gráfico dibuje las cuatro densidades espectrales anteriores y compare sus anchos de banda. Se tiene una distribución de la forma f (x) = Kx exp(− x2 )u(x) 2α 2 1 . 3.259 III. .24(a) (d) Una secuencia aleatoria bipolar MANCHESTER de amplitudes ± A .30. Fig. 3.29. de verificarse que K = distribución de Raleigh es entonces p X (x) = (b) Demuestre que E{X} = x x2 exp(− 2 )u(x) 2α α2 π α . Una VA X sigue la distribución de Maxwell. VARIABLES Y PROCESOS ALEATORIOS 3. 3. (a) Una secuencia aleatoria unipolar RZ de amplitud A.28.9. determine la función de autocorrelación y la densidad espectral de las siguientes secuencias aleatorias. Siguiendo el procedimiento mostrado en la Sección 3. σ = 2α 2 ⎡ x2 ⎤ (c) Demuestre que FX (x) = ⎢1 − exp(− 2 ) ⎥ u(x) 2α ⎦ ⎣ 3. 3. Fig. Fig.

260 III. VARIABLES Y PROCESOS ALEATORIOS .

Diagrama de Bloques de un Sistema de Comunicación .1. 4.1. entonces se habla más fuerte. en la comunicación entre máquinas esta “codificación” natural no existe. La mayor parte de los sistemas de comunicación actuales se caracteriza por la presencia de personas en los extremos del sistema. 4. se pronuncian las palabras lentamente y con más claridad empleándose un vocabulario más limitado y con las palabras más usuales. denominado “fuente de información”. pero desde un punto de vista práctico es suficiente que la reproducción sea hecha con una aproximación o fidelidad que depende del fin perseguido. Por consiguiente.CAPITULO IV PRINCIPIOS DE LA TRANSMISION DE INFORMACION 4. en un proceso de automatización. por ejemplo. INTRODUCCION Se puede definir la comunicación como el proceso mediante el cual se transfiere información desde un punto en el espacio y en el tiempo. Por otro lado. hasta otro punto denominado “destino de la información”. en el proceso de transmisión la información experimentará siempre una cierta degradación. 4.1. En todo caso. Igualmente. la transmisión de las variaciones de temperatura. con el mínimo de pérdidas o perturbaciones. lo que implica un aumento en la complejidad de los equipos terminales a fin de obtener el grado de precisión o resolución requeridos en el proceso de transmisión. en una comunicación entre máquinas o dispositivos. El teléfono. Es evidente que una reproducción perfecta de un mensaje no es posible. Por ejemplo. la fuente de información se adapta a las condiciones del canal de comunicación disponible. En otras palabras. se debe efectuar con la precisión requerida por los demás elementos del sistema. en una conversación telefónica la “fidelidad” necesaria es menor que la requerida en radiodifusión o televisión. MODELO DE UN SISTEMA DE TRANSMISIÓN DE INFORMACION Un sistema completo de transmisión de información se puede representar entonces como se muestra en la Fig. Sistema de Transmisión Fuente de Información Transductor de Entrada Transmisor Ruido Canal Receptor Transductor de Salida Destino Fig. cuyos límites dependerán del empleo que se haga de la información. la fidelidad requerida dependerá del objetivo de la transmisión. Se sabe que cuando hay mucho ruido en un ambiente ruidoso. y por ello los sistemas clásicos de comunicación dan resultados satisfactorios aún con un equipo terminal reducido o de muy baja resolución. las perturbaciones en la mayoría de los sistemas de comunicación se parecen a las perturbaciones a las cuales nuestros sentidos están adaptados. Los sistemas de comunicación pueden considerarse entonces como una prolongación de nuestros sentidos.2. Sin embargo. hace posible la conversación entre dos personas alejadas entre sí como si ellas estuvieran frente a frente.

sobre todo para transmisión a gran distancia. en un sistema telefónico local. denominada “portadora”. en concordancia con la señal mensaje o “señal modulante”. La fuente de información así definida se denomina “fuente discreta sin memoria”. etc.. El transductor de salida o “descodificador”. Esta última es una magnitud eléctrica variable en el tiempo (corrientes o voltajes) compatible con el tipo particular de sistema de transmisión que se emplee. Mensaje es la materialización de la información en una cantidad mensurable: el mensaje es el soporte de la información. por lo tanto. La señal de salida del transductor se conoce también con el nombre de “señal mensaje”. Más adelante volveremos sobre este tema. el número de elementos del conjunto de las señales de salida del transductor debe ser igual al número de elementos del conjunto de símbolos o mensajes de la fuente de información. Al propagarse a través del canal. Este aspecto lo trataremos extensamente en capítulos posteriores. Puede ser un par de conductores. es decir. Transductor de Entrada Como regla. es una entidad intangible. de N símbolos o mensajes distintos e independientes cuyo significado es conocido en el destino del sistema. por ejemplo. el mensaje que produce la fuente no es de naturaleza eléctrica y. incluyendo personas y máquinas. Transmisor Aunque no deja de ser frecuente encontrar el transductor de entrada acoplado directamente al canal. generalmente es necesario “modular” una señal sinusoidal con la señal del transductor de entrada. Nótese entonces la diferencia entre información. una fibra óptica o sencillamente el espacio libre en el cual la señal se propaga en forma de una onda electromagnética. mensaje y señal: información es la inteligencia o significado que se va a transmitir. Señal es la magnitud eléctrica que resulta de la transformación de una magnitud no eléctrica portadora de información en una magnitud eléctrica variable en el tiempo. es necesaria la presencia de un “transductor” o “codificador” que convierta el mensaje en una “señal”. de manera que los símbolos o mensajes pueden tomar una gran variedad de formas: una secuencia de símbolos discretos o letras. reconvierte las señales eléctricas recibidas en los símbolos o mensajes correspondientes. . pero cualquiera que sea el mensaje. Esta información se materializa como un conjunto. un cable coaxial. que sin perder generalidad supondremos finito y discreto. PRINCIPIOS DE LA TRANSMISION DE INFORMACION Fuente de Información La información o inteligencia a transmitir se origina en la fuente de información. los cuales son presentados al destinatario para su interpretación.262 IV. Hay muchas clases de fuentes de información. una magnitud que varía en el tiempo. Otras fuentes de degradación son el “ruido” y la “interferencia” que recoge la señal a su paso por el canal. Canal El canal de transmisión es el enlace eléctrico entre el transmisor y el receptor. como sucede. la señal transmitida se distorsiona debido a las no linealidades y/o las imperfecciones en la respuesta de frecuencia del canal. el propósito del sistema de comunicación es el de proporcionar una réplica más o menos exacta del mismo en el destino. La “modulación” es la variación sistemática de alguna característica de una señal. efectúa la operación inversa del transductor de entrada. A este respecto.

Debido a su alta temperatura y proximidad a la tierra. Ruido El término “ruido” se utiliza comúnmente para denominar aquellas señales que perturban la transmisión y procesamiento de señales en los sistemas de comunicación y sobre las cuales no se tiene un control completo. La segunda categoría de ruido resulta de fuentes externas al sistema de comunicación e incluye el ruido atmosférico. sistemas de diatermia. hay ciertos sistemas de modulación que son menos sensibles que otros a los efectos del ruido y de la distorsión. es un ruido de tipo impulsivo. extraterrestre y el producido por el hombre. es difícil optimizar ambos recursos simultáneamente. por ser más numerosas son colectivamente importantes como fuentes de ruido. que es el proceso inverso de la modulación en el transmisor. en los siguientes tipos: 1. Ancho de Banda y Potencia de Transmisión En los sistemas de transmisión existen dos parámetros de gran importancia: el ancho de banda del canal y la potencia transmitida. que aunque más distantes y por ende menos intensas. Por debajo de los 100 MHz. Ruido Extraterrestre. Las estrellas son fuentes de energía radiante de banda ancha. Como las señales recibidas son en general débiles y plagadas de ruido. En el dominio del tiempo se caracteriza por impulsos de gran amplitud y poca duración. etc. el sol es una fuente intensa. El ruido de conmutación y de sistemas de ignición es del tipo impulsivo tal como el ruido atmosférico. Ruido producido por el hombre. es el “ruido externo”. aunque el tipo de degradación que resulta depende del sistema de modulación que se utilice. El debido al alumbrado fluorescente es un ruido muy frecuente en nuestro medio ambiente. se conoce como “ruido interno”. Incluye el debido al sol y otros cuerpos calientes del firmamento. Pero la operación fundamental del receptor es la “demodulación” o “detección”. 2. El ruido que afecta a un sistema de comunicación se clasifica en categorías dependiendo de su origen. también contribuyen al ruido cósmico que en conjunto se extiende desde unos cuantos MHz hasta unos cuantos GHz. el receptor no puede reconstruir exactamente la señal original. PRINCIPIOS DE LA TRANSMISION DE INFORMACION Receptor El objeto del receptor es el de extraer la señal deseada a partir de la señal degradada transmitida por el canal. el producido por motores eléctricos. la intensidad de campo es inversamente proporcional a la frecuencia. someramente. En la transmisión de datos es de particular importancia.263 IV. Debido a la degradación de la señal recibida. Como lo veremos en capítulos posteriores. Incluye las descargas por efecto corona en líneas de alta tensión. En general. de energía radiante en una amplia gama de frecuencias. pero afortunadamente localizada. pues en la mayoría de los canales de comunicación un recurso . tales como quasares y pulsares. Cuando el ruido proviene de los componentes del sistema tales como resistencias. una primera operación del receptor es la amplificación y filtrado de dichas señales para poderlas procesar. tubos al vacío y dispositivos de estado sólido. Afecta más a la banda de frecuencias medias (radiodifusión) que a la banda de FM o TV. Radioestrellas. Los sistemas de comunicación deben diseñarse entonces para utilizar estos dos recursos en la forma más eficiente posible. Ruido Atmosférico. 3. El ruido externo lo podemos clasificar. ruido de conmutación. Producido por descargas eléctricas asociadas a las tormentas. Se conoce comúnmente como “estática”.

En 1949. La ignorancia en cuanto al suceso es simplemente la incertidumbre que se tiene acerca de él. por lo tanto. digamos. y viceversa. y algunos de los conceptos fundamentales los veremos a continuación. Consideremos un suceso A cualquiera. Este intercambio “Ancho de BandaPotencia” lo estudiaremos con más detalle posteriormente. Cuanto menos se sepa de un suceso mayor será. Se puede.2) . podemos decir que Cantidad de Incertidumbre = Cantidad de Información (4.1) Por otro lado. Lo que sí sabemos es que lo que ya conocemos no nos proporciona ningún nuevo conocimiento. sólo aquello que ignoramos nos aporta alguna información al conocerlo. Por ejemplo. CONCEPTO Y MEDIDA DE LA INFORMACION Hemos dicho que el propósito de un sistema de comunicación es el de transmitir información. mientras que un canal de microondas lo es en potencia. no se ha especificado lo que realmente significa el término “información” y mucho menos cómo se puede cuantificar.3. la magnitud de la incertidumbre depende del grado de probabilidad de ocurrencia del suceso A.1) que U(A) = I(A) = f(PA) (4. Cuanto mayor sea la probabilidad de ocurrencia del suceso. nuestra sorpresa al conocer la realización del mismo. Sin embargo. la incertidumbre se convierte en certeza y hemos obtenido un conocimiento o recibido una información. Esta es la esencia intuitiva de la información. Sin embargo. dio origen a la Teoría de la Información. Esta es una disciplina altamente matemática y con aspectos que todavía no han sido instrumentados en la práctica. Al realizarse el suceso. La meta ideal en el diseño de un sistema de comunicación es la de transmitir información a la máxima velocidad con el mínimo de potencia y ancho de banda. Sea entonces U(A) = Incertidumbre acerca del suceso A I(A) = Información adquirida al realizarse el suceso A PA = Probabilidad de ocurrencia del suceso A Podemos escribir entonces de (4. veremos que el ancho de banda y la potencia de transmisión se pueden intercambiar. clasificar los canales como “limitados en potencia” o “limitados en ancho de banda”. podemos decir que la incertidumbre acerca del suceso A es función de la probabilidad de que dicho suceso ocurra. más otros desarrollos afines. En consecuencia.264 IV. ciertos aspectos significativos de la teoría han sido aplicados exitosamente en sistemas prácticos. dependiendo de la aplicación. 1949]. es decir. 4. Claude Shannon propuso algunas definiciones básicas acerca de la información y la velocidad de transmisión a la cual se puede transmitir sin error [Shannon. Los sistemas de modulación que estudiaremos más adelante utilizan esos recursos en forma más o menos eficiente. Este trabajo. se puede aumentar el ancho de banda pero a expensas de una reducción en la potencia. Por consiguiente. En efecto. Todos tenemos un concepto más o menos intuitivo de lo que es información. los canales telefónicos son canales limitados en ancho de banda. pero no conocemos los medios para medirla. PRINCIPIOS DE LA TRANSMISION DE INFORMACION puede considerarse más importante o más escaso que otro. menor será nuestra incertidumbre. La utilización óptima y eficiente de estos recursos es el principal objetivo en el diseño de los sistemas de comunicación prácticos.

es una función de la probabilidad de ocurrencia de ese suceso. Se trata entonces de hallar la relación funcional f(PA). en bits. o b = 10 para cálculos numéricos). asociada con un suceso A cuya probabilidad de ocurrencia es PA. es la aditividad.8) I(A) es la cantidad de información.9) log2 N ≈ 3.3) La información es una magnitud positiva. Por consiguiente. 1928] que la única relación funcional que satisface las condiciones (4.7) La unidades o dimensiones de la cantidad de información dependen de la base del logaritmo. Si fuera necesaria otra base (por ejemplo.265 IV.5) Por último. .4) La probabilidad de un suceso cierto es 1. W. La unidad de información se denomina entonces “bit” (contracción inglesa de “binary digit”) y fue propuesta por J. Por lo tanto.6) es una función logarítmica de la forma f (PA ) = log b 1 = − log b PA PA (4. si se considera que el suceso A está formado por la intersección de dos sucesos independientes B y C cuyas probabilidades son PB y PC. de donde f (PA ) ≥ 0 donde 1 (4. la información es una medida de la incertidumbre. pero la información o incertidumbre será 0. la información se puede mantener expresada en bits mediante la fórmula log 2 N = 1 log b N log b 2 (4. La solución más sencilla es aquella cuando se selecciona uno de dos mensajes o símbolos. f (PA ) = f (PB ) + f (PC ) 0 ≤ PA ≤ (4. Una condición esencial que la relación funcional f(PA) debe satisfacer. en cuyo caso b = 2. PRINCIPIOS DE LA TRANSMISION DE INFORMACION En este sentido. entonces Si A = BC. pero solamente algunas son de interés práctico en las aplicaciones. respectivamente. la información asociada con el conocimiento de que un suceso dado ha ocurrido. de modo que podemos escribir PA →1 lim f ( PA ) = 0 (4. debe verificarse que f (PA ) > f (PB ) para PA < PB (4. si la probabilidad de un suceso A es menor que la probabilidad de un suceso B.3) a (4. Tukey en 1946. I(A) = log 2 1 = − log 2 PA bits PA (4. La relación funcional f(PA) se puede elegir dentro de una clase bastante grande de funciones. En efecto.322 log10 N (4.6) Hartley demostró [Hartley. b = e si la función se va a diferenciar o integrar. para b = 10.10) En particular.

. x3. con probabilidades de ocurrencia correspondientes {P1. Es mas bien un grado de orden. 3. la energía o cualquiera otra cantidad física.xN} con probabilidades {P1 .. En este contexto. i ≠ j. Supongamos que se transmite una larga secuencia de L mensajes o símbolos.4... si los dos primeros fueran utilizados en promedio 10 veces por hora. cuando el flujo instantáneo de información producido por una fuente es aleatorio. cuando se transmite un mensaje cualquiera x j ..8) ha sido obtenida para un solo mensaje y no es apropiada para describir una fuente que produce un conjunto de diferentes mensajes. 2. .. que se puede medir y ser tratado matemáticamente en la misma forma como lo son la masa. entre los cuales se tiene: 1...11) De acuerdo con la ecuación (4. x2. Por ejemplo. la información asociada es Ij = log2(1/Pj) bits. donde Pi ≠ Pj . 4.. cada una de las cuales toma valores en el conjunto {x1. en el sentido de la teoría de la información. el símbolo j-ésimo ocurrirá aproximadamente LPj veces y la información asociada será LPjIj bits. P2. entonces la cantidad de información asociada con los mensajes sería más cercana a log2 2 bits que a log2 3 bits. B y C posibles.8). Por consiguiente.. CARACTERIZACION DE LA INFORMACION 4. es mejor describir la fuente en términos de la “información promedio” producida. x2.12) . Desde un punto de vista probabilístico.. x3. La caracterización matemática de un sistema de comunicación generalizado ha producido un cierto número de aspectos importantes... I t = LP1 I 1 + LP2 I 2 + LP3 I 3 +. sean tres mensajes A. o de no aleatoriedad. . Entropía La cantidad de información definida en la ecuación (4. La codificación de los mensajes para optimizar los tres aspectos anteriores. la cantidad de información definida en (4. La velocidad a la cual una fuente produce la información.. el “número efectivo” de mensajes disponible es más cercano a 2 que a 3. P2 .266 IV. el conjunto discreto de N símbolos o mensajes producidos por la fuente se puede considerar como un proceso aleatorio discreto.. no tiene nada que ver con el significado o sentido inherente en un mensaje. En esta secuencia. PRINCIPIOS DE LA TRANSMISION DE INFORMACION Nótese que la “información”. y si el tercer mensaje se usara solamente una vez a la semana.. . debe cumplirse que ∑P n =1 N n =1 (4. LPN I N = L ∑ Pj log 2 P1j bits j=1 N (4. Es decir.... De la definición de la probabilidad. La información total contenida en la secuencia será.1. Un sistema de comunicación no está diseñado para la transmisión de un mensaje particular sino para la transmisión de todos los mensajes posibles producidos por una fuente. donde L >> 1.. PN}. La información promedio contenida en un mensaje dado. aproximadamente. Consideremos una fuente discreta que produce N símbolos o mensajes {x1. Estos aspectos los trataremos brevemente en el presente capítulo. PN}. es entonces un conjunto de N variables aleatorias.4.8) es inadecuada excepto en las circunstancias más simples. La capacidad de un canal para manejar o transportar esa información 4.. P3.. xN} distintos e independientes.

significa que aunque no se pueda decir con certeza qué mensaje se va a producir. 1976] que H es máxima cuando las probabilidades de ocurrencia de los símbolos son iguales. La deducción de la ecuación (4. En efecto. Una fuente produce cuatro símbolos A. La entropía de la fuente será H = 0. 0 ≤ H ≤ HMAX = log2 N (4. o información promedio asociada con la fuente. 1 1 H = p log 2 ( ) + (1 − p) log 2 ( ) p 1− p En la Fig.. ♣ Ejemplo 4. entonces H = 1 bit. Esta información promedio normalmente se representa con la letra H.75 bits/símbolo Si los símbolos fueran equiprobables. cuando P1 = P2 = P3 = . Nótese que cuando los símbolos o mensajes son equiprobables. H= It = L ∑Pj log 2 P1j j=1 N bits/símbolo (4. La entropía de la fuente. se puede encontrar en la Bibliografía [Shannon. 0. respectivamente. PRINCIPIOS DE LA TRANSMISION DE INFORMACION La información promedio. Sea una fuente binaria (N = 2).15 log 2 8 = 1. Por otro lado. la entropía está acotada por log2 N (4.. 4. empírica. 0.15) donde N es el número de símbolos o mensajes producidos por la fuente. podemos considerar a H como el número mínimo de preguntas que se pueden establecer para determinar qué mensaje particular se ha producido o se va a producir. realizada por Shannon.13) Esta es la “Entropía de la Fuente”. En este caso.125 y 0. hasta cierto punto..2.2. o LH bits en una secuencia de L mensajes.125.5 log 2 2 + 0. si p = ¼. Entropía de una Fuente Binaria H = log 2 4 = 2 bits/símbolo . Se puede demostrar [Ziemer y otros . Por consiguiente. 0. es decir.5. entonces 0 0. la información promedio asociada con la fuente es máxima. Entropía de una Fuente Binaria. C y D cuyas probabilidades son.12). valor que corresponde al pico de la curva.25 log 2 4 + 2x 0. si L es grande. esto es. la deducción rigurosa.14) En consecuencia.267 IV.1.5 1 H(bits) 1 p 4. B. 1949]. en bits por símbolo (bits/símb).. de (4. será entonces la información total de la secuencia dividida por el número de símbolos de la misma. = PN = 1/N. respectivamente..25. como la denominó Shannon. se espera obtener en promedio H bits de información por mensaje. ♣ ♣ Ejemplo 1.13) que hemos presentado es.2 se grafica H vs p Nótese que si p = ½. Las probabilidades de los símbolos son p y (1 − p) .

Asimismo. 4. Pero en el idioma español las letras tienen diferentes probabilidades de ocurrencia en un texto. Solución Sea p la probabilidad de sacar un UNO o un SEIS. la fuente produce 27 símbolos. ♣ Ejemplo 4. Velocidad de Información En los sistemas de comunicación es de especial importancia conocer la cantidad de información que se produce o se transfiere por unidad de tiempo.3.17) y si los símbolos son equiprobables. Vamos a determinar la entropía asociada con el dado. una palabra tiene. Debe verificarse. ♣ ♣ Ejemplo 4. en otras palabras.2. en promedio. HMAX = log2 27 = 4. Sea una fuente que produce N símbolos distintos e independientes a una velocidad de Vs símbolos por segundo. 5 letras y un contenido de información de 9.4.4.11). Si todos los símbolos tuvieran la misma probabilidad.268 IV.3 bits.16) La velocidad de información será entonces Vi = Vs H = 1 T ∑ P log j j=1 N 2 1 Pj bits/seg (bps) (4. Esta es la máxima información que la máquina de escribir puede generar. Se manipula un dado de tal manera que la probabilidad de que salga un UNO o un SEIS es el doble de la correspondiente a cada una de las otras cuatro caras. entonces Vs = 1 símbolos/segundo T (4.5 bits/cara 8 4 1 H = log2 6 = 2. de donde p = ¼ 1 log 2 4 + 4 log 2 8 = 2 .59 bits/cara ♣ Si el dado fuera correcto. Por ejemplo. Vi = Vs log 2 N = 1 T log 2 N bps (4. es decir. de acuerdo con (4.755 bits/letra. que p+p+ H=2 1 2 p+ 1 2 p+ 1 2 p+ 1 2 p = 1. ♣ Consideremos la información producida por una máquina de escribir de 26 letras y el espacio entre letras. PRINCIPIOS DE LA TRANSMISION DE INFORMACION Nótese que la entropía H es máxima cuando los símbolos son equiprobables. la letra E es la que ocurre con más frecuencia. Si suponemos que los símbolos tienen todos la misma duración T.18) . Se ha determinado experimentalmente que la información promedio asociada con una letra es de aproximadamente 4. la velocidad de la información.2 bits.

la palabra “rata” en español significa “porcentaje” o “parte proporcional”. Sea entonces. una fuente discreta sin memoria que produce N símbolos distintos e independientes. 4.4. para diferenciarlo de 1 kbyte = 1000 bytes). Las secuencias aleatorias binarias en los sistemas de modulación de impulsos y los códigos de línea. PRINCIPIOS DE LA TRANSMISION DE INFORMACION Algunos autores llaman a la velocidad de información “rata o tasa de información” (del inglés “rate”).9 del Capítulo III. los símbolos tal como salen de la fuente pueden no ser apropiados para ser transmitidos por un canal dado. ésta es la codificación de canal. Esta transformación se denomina comúnmente “conversión” o “codificación” y el dispositivo que la efectúa.75 = 1750 bps b) Si los símbolos son equiprobables.3(b). que veremos más adelante. Una clase muy importante de conversor es aquella que convierte los símbolos producidos por la fuente en secuencias de impulsos discretos.2 se producen a una velocidad de 1000 símbolos por segundo. secuencia que denominaremos “muestra codificada o palabra codificada” y el conjunto de palabras codificadas forman una secuencia aleatoria binaria. sin perder generalidad. En la práctica hay muchos códigos que emplean secuencias multinivel o m-arias y esquemas para la detección y corrección de errores. vamos a suponer un sistema mediante el cual cada símbolo o mensaje se transforma en una secuencia particular de n impulsos con m amplitudes. Para más detalles sobre estos códigos. En sistemas de procesamiento y transmisión de señales digitales. ♣ Ejemplo 4. que se verán en el Capítulo V. igual a la duración de cada símbolo a fin de no perder información. Como se considera que el codificador no tiene memoria. Esta secuencia binaria de 8 impulsos se denomina comúnmente “byte” u “octeto” (En la práctica 1 Kbyte = 1024 bytes. “convertidor” o “codificador”. 4. pero. Otros tipos de codificación binaria de canal son los Códigos Baudot y ASCII. son formas de codificación de canal.3.5. a una velocidad Vs = 1/T símbolos/segundo. en general. como veremos en los Capítulos V y VI. cada uno. en este contexto. Hay muchos métodos de codificación digital de canal. en el sentido visto en la Sección 3. 4. Vi = Vs log2 4 = 2000 bps Nótese nuevamente que la velocidad de información es máxima cuando los símbolos son ♣ equiprobables.3(a). Fig. pues. se utilizan secuencias binarias (m = 2) que contienen 8 impulsos (n = 8). el lector puede consultar la bibliografía especializada. denominada también “codificación de fuente”. como máximo. la duración de la muestra codificada debe ser. sin embargo. en secuencias de n impulsos con m amplitudes. Codificación de Canal Hemos dicho que. Nosotros emplearemos los términos “velocidad de información” o “velocidad de transmisión” indistintamente.269 IV. Es necesario. La velocidad de información de la fuente será a) Si los símbolos tienen diferentes probabilidades Vi = Vs H = 1000 x 1. efectuar una conversión o adaptación de los símbolos en formas compatibles con el medio de transmisión. . Los símbolos se codifican. de gran interés en los sistemas de procesamiento y transmisión digital de señales. Los símbolos de la fuente del Ejemplo 4. que podemos suponer equiprobables. como se muestra en la Fig.

de la expresión (4.3.19). Vi = Vif = Vic de modo que.21) Como se supone que el sistema no tiene memoria (elementos de almacenamiento). (4. la velocidad de información será la misma en todos los puntos a lo largo del sistema. lo que significa que la relación entre m. a la salida del codificador la información total contenida en la muestra codificada es la suma de la información contenida en cada impulso (propiedad aditiva de la información). que suponemos independientes y equiprobables.22) es independiente de T. Codificación en Secuencias de Impulsos A la salida de la fuente de información la velocidad de transmisión es.19) Asimismo. que denominaremos “relación de conversión o de codificación”. ♣ Ejemplo 4.270 IV. Si cada símbolo se codifica en secuencias de n impulsos con m amplitudes. pues relaciona los parámetros m y n del codificador con el número N de símbolos producidos por la fuente. y para cualquiera velocidad de información. Vif = 1 T log 2 N (4. Nótese que la relación (4. n y N es válida para cualquier sistema con o sin memoria.22) Esta expresión. vamos a determinar la velocidad de información y los valores posibles de m y n. es de gran utilización en los sistemas digitales de transmisión de información. es decir. 4. Una fuente de información produce 256 símbolos.18). a una velocidad de 100 símbolos por segundo.20) y (4.21). N = mn m y n enteros (4. I = n log 2 m = log 2 m n n log 2 m T 1 T bits (4.20) La velocidad de información a la salida del codificador será Vic = = log 2 m n bps (4.6. . es decir. de (4. PRINCIPIOS DE LA TRANSMISION DE INFORMACION n Impulsos de Información Fuente de Información m Niveles o Amplitudes Reloj Codificador 1 2 3 4 5 n t (a) Salida Codificada τ (b) T M uestra Codificada Fig.

PRINCIPIOS DE LA TRANSMISION DE INFORMACION Solución La velocidad de información es Vi = 100 log 2 256 = 800 bps. se conoce con el nombre de “velocidad de modulación” o “velocidad de señalización”.7.3 se supone que en el extremo receptor se sabe cuándo comienza y cuándo termina cada secuencia de impulsos.4.22).25) Esto significa que en un sistema binario la velocidad de información y la velocidad de modulación son numéricamente iguales. 4 τ2 = Vb2 = ♣ 4.5 ms. τ1 = b) n = 4. En un sistema binario. Velocidad de Modulación m=4 y n=4 ♣ En general. es decir. 1 . son m = 2 y n = 8 (caso binario). como veremos después del siguiente ejemplo. Sin embargo. Este resultado es válido si la codificación se ha efectuado en la forma mostrada en la Fig.21) queda en la forma siguiente Vi = donde 1 τ log 2 m = Vb log 2 m bps 1 τ (4. y se expresa en baudios. Las combinaciones de m y n que satisfacen la expresión (4.23) (4. en honor del ingeniero francés Emile Baudot.271 IV.4. También puede agregarse otros impulsos para . 4.4.6. 4. es decir.25 ms. de modo que los impulsos tienen todos la misma duración τ. Vs = 100 símb/seg = a) n = 8. 256 = m n .23) queda en la forma V i = Vb (4. Se puede ahora calcular la velocidad de modulación de las muestras codificadas del Ejemplo 4. ♣ Ejemplo 4. la reconversión de las secuencias de impulsos codificados en símbolos de significación para el usuario final de la información. los codificadores son dispositivos comandados por un reloj.24) Vb = Vb es el número de impulsos por segundo. sin redundancia agregada. De la Fig. esto es. 8 T = 2. Redundancia Agregada En el sistema mostrado en la Fig.5.4. m = 2 y la expresión (4. T = 10 ms T Vb1 = 1 = 800 baudios τ1 1 = 400 baudios τ2 T = 1.4. En efecto. 4. T = nτ y la expresión (4. 4. en algunos sistemas denominados “asincrónicos” es necesario enviar impulsos adicionales para indicar el principio o el fin (o ambos) de cada muestra codificada a fin de que se pueda efectuar con exactitud el proceso de descodificación.

26) Puesto que la velocidad de información no ha variado.4. 4. la velocidad de información vendrá dada (eliminando el índice de Vb ' ) por Vi = KVb log 2 m donde K= n (4. como veremos más adelante. T = (n + p + q)τ‘. el Código Baudot.29) o también Vi < Vb La velocidad de información ya no es igual a la velocidad de modulación debido a los impulsos redundantes. números enteros pues suponemos que el codificador está controlado por un reloj. de donde Vi = KVb (4.13(a)). respectivamente. amplitud y duración de los impulsos de arranque y pare son arbitrarias pero fijas. τ' < τ y ' Vb > Vb (4. 4. etc.28) <1 es la “relación entre el número de impulsos de información y el n+p+q número total de impulsos de la muestra codificada”. 4. De la Fig. la velocidad de modulación ha aumentado. Sin embargo.. PRINCIPIOS DE LA TRANSMISION DE INFORMACION control y detección de errores. Arranque qτ. Muestra Codificada Con Impulsos Redundantes Considerando entonces los impulsos redundantes agregados.4. extracción de la temporización. mostrado en la Fig. que tampoco llevan información útil. 4. m = 2.4. Esta situación se muestra en la Fig. p y q son.27) n Impulsos de Información m Niveles o Amplitudes Pare n 1 2 3 4 5 6 τ. que llamaremos impulsos de “arranque” y “pare”.33).272 IV. El valor de K (como un porcentaje K%) es una medida del rendimiento o eficiencia de la codificación (Ver Problema de Aplicación 4. Sea entonces una muestra codificada a la cual se le han agregado dos impulsos de duración pτ‘ y qτ‘. con algunas excepciones (por ejemplo. de donde Vi = n log 2 m (n + p + q )τ ' = n n+p+q ' Vb log 2 m bps (4. . En el caso binario. Todos estos impulsos adicionales se denominan “impulsos redundantes” o “redundancia agregada”. T Fig. Es evidente que los impulsos de redundancia más los impulsos de información deberán estar contenidos dentro del mismo tiempo T si no se quiere perder información (se supone que el sistema no tiene elementos de almacenamiento). lo cual impone restricciones más severas sobre el canal. la polaridad. pτ.

la velocidad de modulación se define respecto al impulso de menor duración presente en la muestra codificada. vamos a desarrollar en forma intuitiva algunas ideas acerca del efecto que experimenta un impulso a su paso por un canal y lo relacionaremos con la velocidad de modulación. n = 7. Desde el punto de vista eléctrico. A este efecto.273 IV.5 se muestra la letra U en ASCII. CARACTERIZACION DEL CANAL 4. 4.5.13(b). En el Apéndice B-5 se especifica este código en detalle. Letra U codificada en ASCII con bit de paridad. Supongamos que el ancho de banda del canal se puede variar y que a su .8. K=7/11.5. Vamos a considerar un canal ideal. PRINCIPIOS DE LA TRANSMISION DE INFORMACION En general. Código ASCII o Alfabeto Internacional N° 5 de la UIT-T En este tipo de codificación binaria cada carácter alfanumérico se codifica como se muestra en la Fig. Ancho de Banda del Canal N = 2 7 = 128 caracteres ♣ La velocidad de modulación. ♣ Ejemplo 4. m = 2. el canal se puede considerar como un filtro que deja pasar solamente aquellas componentes de señal que están comprendidas dentro de su banda de paso o ancho de banda. Por ejemplo. T = 1/10 = 100 ms = 11τ. en la Fig. definida como el inverso de la duración del intervalo unitario o del impulso de menor duración. siete impulsos de información. es un parámetro de naturaleza eléctrica de gran importancia en la caracterización de sistemas de transmisión de señales digitales. es decir. Vs = 10 caracteres/seg. 4. un canal que no introduce ninguna atenuación o distorsión.1. los caracteres ASCII fluyen a una velocidad de 10 caracteres por segundo. 4. ver también la Fig. d: Impulsos de Pare (siempre a "1") Fig. τ 0 a 1 0 1 0 b T a: Impulso de Arranque (siempre a "0"). K% = 64% Velocidad de Modulación: Velocidad de Información: Vb = Vi = 1 = 110 τ baudios 7 110 log 2 2 = 70 bps 11 Número de Caracteres de la Fuente: 4.5: un impulso de arranque siempre a CERO.5. Entonces.. por ejemplo. 4. b: Impulsos de Información c: Impulso de Paridad (detector de error). cuando los impulsos (de información o redundantes) tienen diferente duración. 1 0 1 0 c 1 d 1 En transmisión por teletipo. un impulso de paridad (para gestión o control de error) y un impulso de pare de duración variable (hasta 2τ) siempre a UNO.

Debido a esto.31a) donde k es igual a 0.31) Demostramos en el Ejemplo 1.19. que tomaremos como referencia. la expresión (4. es decir. hay que aumentar el ancho de banda del canal a un valor B3 > B2 > B1.31) es de gran utilización en la caracterización de sistemas de transmisión de impulsos y la emplearemos con bastante frecuencia. Puede observarse que la “fidelidad” de la salida depende tanto de τ como de B. Capítulo I.5 (definido en el Ejemplo 2. Esto sugiere que entre la duración τ del impulso y el ancho de banda B del canal existe una relación de la forma k B= (4. . En los sistemas de transmisión digital o radar la fidelidad no tiene mucha importancia y lo que se desea es detectar una “presencia” en la salida o una reproducción tosca de la entrada. Para que la Salida 3 vuelva a la forma aproximada de la Entrada 3. el valor de k deberá ser mucho mayor que la unidad. por ejemplo. y la salida será parecida a la entrada. En este texto. El valor mínimo teórico de k es 0.274 IV. Ahora se aplica un impulso de duración τ2 < τ1 . cuando se utilice el tiempo de alzada. el ancho de banda B del canal se define en función del “tiempo de alzada tr (rise time)” de la señal de entrada en la forma B= k tr (4. Es evidente que si se desea una gran fidelidad. Para un ancho de banda B1 y un impulso de entrada de duración τ1 .35. que si B = 1/τ . 4. Cuando es necesario preservar la forma de la señal transmitida. Nuevamente se aplica un impulso de duración τ3 < τ2 < τ1 .19). por ejemplo. la Salida 1 tendrá. Para que la Salida 2 tenga la forma aproximada de la Entrada 2. el canal dejará pasar el 90% de la energía contenida en el impulso de entrada. hay que aumentar el ancho de banda del canal a un valor B2 > B1 . la Salida 2 saldrá deformada como se muestra en la figura.35 ó 0. usaremos k = 0.5. dependiendo de la definición de tr . aquí suponemos que la relación entre τ y B es una relación inversa. la Salida 3.30) τ donde k depende de la fidelidad requerida a la salida. donde τ es la duración del impulso de entrada. es decir. PRINCIPIOS DE LA TRANSMISION DE INFORMACION entrada se aplican impulsos de duración decreciente. pero en la práctica se utiliza k = 1. obteniéndose.6. la forma dada en la Fig. B≥ 1 τ (4.

entonces. 4. 1 = 1000 símbolos por segundo T 1 Velocidad de Información: Vi = 10 4 log 2 4 = 10 4 bps 2 Ancho de Banda Mínimo del canal: Bn = Vb = 10 kHz Arranque 3 1 0 -2 -3 -1 Información Pare 2 τ T 3τ 2τ Fig. 4. debe verificarse que B ≥ Vb para no perder información. PRINCIPIOS DE LA TRANSMISION DE INFORMACION B≈ 1 2t r (4.24) y (4. K% = 50%. si por ejemplo I t = 10 4 x3600 = 3.7: cinco impulsos cuaternarios con impulsos de arranque y pare. como veremos en la sección siguiente. pudiéndose escribir que Vb = B n Esta expresión se puede interpretar en el sentido siguiente: Una secuencia de impulsos cuya velocidad de modulación es Vb . m = 4 y N = 4 5 = 1024 símbolos. puede transmitirse sin perder información por un canal ideal con un ancho de banda mínimo Bn numéricamente igual a Vb. Información asociada a la fuente: I = log 2 1024 = 10 bits/símbolo K = 5/10 = 0.9. Velocidad de la Fuente: Vs = 1 10 . los cuales se han codificado en la forma mostrada en la Fig. si Vb > B. La información producida por esta fuente en un tiempo Tt es: It = Vi Tt .32) ♣ Ejemplo 4. En general. se perderá información y habría que buscar otros medios para evitar esa pérdida. no habrá problemas en la recuperación de la información. 1 y 3.5 .31) tienen la misma forma. en una hora se producirán . Hay 4 niveles de información: -3. -1. n = 5.275 IV. Es evidente que si Vb < B. donde B es el ancho de banda real del canal. Sea una fuente que produce N símbolos independientes y equiprobables.31b) Puede observarse que las expresiones (4. La velocidad de modulación es de 10 kbaudios. T = 10τ . Nótese que si se Tt = 3600 seg . (4.7. = Vb = 10 4 = τ T T = 10 −3 seg.6x10 7 bits. Sin embargo.

se tendrá de (4. Pero en el mismo tiempo Tt la fuente ha producido I f = Vi Tt bits.33) La información transmitida por el canal en un tiempo Tt será I t = Vi' Tt bits. El Teorema Fundamental de Shannon establece que si la velocidad de información Vi de la fuente es igual o menor que la capacidad C del canal.33).10.34) Si se define Vp como la velocidad promedio a la cual se pierde información. Vamos a cuantificar esta pérdida de información. De acuerdo con (4. Ip Vp = = K( Vb − B) log 2 m bits perdidos por segundo para Vb > B (4.9 se transmite por un canal de 5 kHz. Shannon introdujo el concepto de “capacidad de un canal”. pero si Vi > C entonces no es posible transmitir sin error.35) Tt Si el sistema es binario y no tiene impulsos redundantes. PRINCIPIOS DE LA TRANSMISION DE INFORMACION disminuye a la mitad la duración de los impulsos de arranque y pare.2. Es decir. viene dada por I p = I f − I t = (Vi − Vi' ) Tt y de (4.28) y (4. Vp = Vb − B bits perdidos por segundo para Vb > B (4. La capacidad C se expresa en bits por segundo (bps).276 IV.37) . m = 2 y K = 1. un canal de ancho de banda B puede soportar una velocidad de información máxima dada por Vi' = KB log 2 m bps (4. en bits perdidos por segundo. La capacidad del canal es entonces la máxima velocidad a la cual el canal puede transportar información confiable hasta el destinatario.34). ♣ ♣ Ejemplo 4.5. que comúnmente se representa con la letra C. es evidente que habrá pérdida de información. Capacidad del Canal Definición Para definir una medida de la eficacia con la cual un canal transmite información y para determinar su límite superior. no obstante la presencia de ruido. entonces existe una técnica de codificación que permite la transmisión sobre el canal con una frecuencia de errores arbitrariamente pequeña. El lector puede calcular este nuevo valor. la velocidad de modulación no cambia pero la velocidad de información aumenta.32).36) En nuestro ejemplo se perderá información a una velocidad de Vp = 1 10x10 3 − 5x10 3 log 2 4 = 5x10 3 bits perdidos por segundo 2 [ ] ♣ 4. Estimación de la Pérdida de Información en un Canal La señal codificada del Ejemplo 4. si 0 < Vi ≤ C se puede transmitir sin error.28) y (4. I p = [ K( Vb − B) log 2 m] Tt bits para Vb > B (4. (4. Como Vb > 5000. de modo que puede decirse que la información perdida en el proceso. en bits.

En efecto. numéricamente. si los símbolos han sido codificados en secuencias de n impulsos de m amplitudes. con lo cual obtenemos finalmente que (4. de acuerdo con (4. Vb es también. ver la bibliografía especializada.42) Canal sin Ruido Consideremos primero un canal ideal sin ruido sobre el cual se va a transmitir N símbolos distintos que supondremos independientes y equiprobables.41) • Rendimiento del Canal respecto al Ancho de Banda. . el ancho de banda real del canal. entonces de (4.43) T La capacidad C del canal se puede expresar también en términos de los parámetros del codificador y del mismo canal. Rc R c = C − Vi Rc ≥ 0 (4. como bien lo expresa el Teorema Fundamental de Shannon. La cantidad de información máxima de la fuente es log 2 N bits y si cada símbolo tiene una duración T. ηB ηB = Vi B ηB se expresa en bps/Hz (4. la capacidad mínima del canal será 1 C = log 2 N = Vs log 2 N bps (4. la capacidad C dada por (4. ρc ρc = Rc V = 1− i C C Vi C (4.38) • Redundancia Relativa. Son las técnicas de codificación apropiadas las que en definitiva permiten aumentar la capacidad del canal.277 IV. ηc ηc = ó ηc % = 100 Vi C (4. C= 1 T log 2 m n = n T log 2 m = KVb log 2 m bps (4. la velocidad de modulación disminuye y la exigencia sobre el canal disminuye también.45) se puede aumentar incrementando el número de niveles m de los impulsos o mediante una codificación equivalente. ηc = 1 − ρc donde ηc ≤ 1 (4.39) • Rendimiento del Canal. el ancho de banda mínimo necesario para transmitir los impulsos sin distorsión excesiva. Para más información sobre estos tipos de codificación de canal.44) Sin embargo.21) y (4.40) También. un aumento en m implica una disminución en el número de impulsos de información.44) Vb por B.45) C = KB log 2 m bps Como el ancho de banda B del canal generalmente es fijo.28).32). PRINCIPIOS DE LA TRANSMISION DE INFORMACION Algunas veces el comportamiento del canal se puede caracterizar mediante las relaciones o definiciones siguientes: • Redundancia del Canal. Como consecuencia. Como el número de símbolos N es constante. Podemos entonces reemplazar en (4.

y la potencia promedio del ruido en el canal es N. Además. sea por sus propias características físicas o por regulaciones y normas técnicas. 1949].31). con una codificación adecuada se podría aumentar indefinidamente la capacidad del canal. Aunque la ecuación ha sido deducida para un canal gaussiano. Si el canal tiene un ancho de banda B.28). Con técnicas más sofisticadas de codificación.46) En consecuencia. un canal telefónico tiene un ancho de banda efectivo de 3. PRINCIPIOS DE LA TRANSMISION DE INFORMACION De (4. Canal con Ruido La capacidad de un canal disminuye como consecuencia de los errores incurridos en la transmisión causados por señales perturbadoras o ruido.2 kHz. la potencia promedio de la señal útil y la potencia promedio de la señal perturbadora. entonces la capacidad del canal en presencia de ruido aditivo y gaussiano viene dada por C = Blog 2 (1 + S ) N bps (4. en reconocimiento al trabajo pionero de Hartley y a la deducción rigurosa hecha por Shannon [Teorema N° 2. Por otro lado.47) A este resultado se le llama la “Ecuación de Hartley-Shannon”. Cuando el ancho de banda de un canal está limitado. se ha llegado a 14400 bps con una velocidad de modulación máxima de 2400 baudios. Por ejemplo. B ≥ Vb (4.43) a (4. el límite teórico para la capacidad de este canal es superior. De las expresiones (4. Esto quiere decir que si una codificación dada tiene una probabilidad de error Pe operando sobre un canal gaussiano. pero en la práctica se llega normalmente a 9600 bps.47). es necesario elegir un esquema de codificación de canal que optimice el rendimiento η B del canal con la mínima probabilidad de error y el menor costo posible. en un canal ideal sin ruido el ancho de banda del canal debe ser numéricamente igual o mayor que la velocidad de modulación para que no haya pérdida de información. y como consecuencia se produce una pérdida de información. la potencia promedio de la señal transmitida es S. ha sido demostrado que el resultado obtenido para el canal gaussiano proporciona una cota superior en el funcionamiento de un sistema que opera sobre un canal no gaussiano. modulación y acondicionamiento del canal. el rendimiento máximo de un canal viene dado entonces por .45).43) a (4. La ecuación de Hartley-Shannon proporciona el límite superior para la transmisión de información confiable por un canal ruidoso. y que la potencia del ruido gaussiano dentro de un ancho de banda dado es también la más alta de todos los ruidos posibles. No hay que olvidar que ellas se aplican fundamentalmente a un canal ideal sin ruido lo cual está muy lejos de la realidad. Sin embargo. (4. Shannon ha demostrado que el ruido gaussiano es el peor ruido entre todos los ruidos posibles. Las expresiones (4.37) y (4. con lo cual reafirmamos la expresión (4.45) deben ser aplicadas con cautela.42) y (4. cuando opera sobre un canal no gaussiano la probabilidad de error será menor que Pe. y relaciona los tres parámetros de importancia en un canal: el ancho de banda del canal. como lo vamos a ver más adelante.45). de acuerdo con (4.278 IV. velocidades superiores solamente se obtienen mediante control de error y compresión de datos. Shannon. ella es de gran importancia en los sistemas de comunicación porque muchos canales prácticos se pueden modelar como un canal gaussiano.

Los sistemas prácticos cuyo rendimiento se aproxima a este rendimiento máximo incorporan entonces esquemas de codificación que incluyen codificaciones multinivel m-arias y procedimientos para la detección y/o corrección de errores y compresión de datos. la relación S/N mínima sería.667x10 Capacidad mínima del Canal: C = Vi = 120x106 bps Si el ancho de banda del canal fuera de 6 MHz.11. en la misma forma.48) La teoría de Shannon no especifica cuál es el mejor esquema de codificación que permite alcanzar este rendimiento máximo.21 dB ) . los parámetros son: Iel = 4 bits/elemento. Vamos a calcular los diferentes parámetros del sistema. 120x106 = 6x106 log2 (1 + S S = 1.8 La cámara a color requiere 5x105 elementos de imagen con 16 niveles de brillantez y 16 matices de color por cada nivel.6667x10−8 seg.. de (4. T = 6. 667x10−8 seg 5 Vimg N el 30x5x10 8 Iel 6 = bps −8 = 120x10 T 6. 4. Solución: Número de elementos por imagen: Ne1 = 5x105 Información por imagen: I img = N el ⋅ I el = 4 x10 6 Velocidad de las imágenes: elementos/imagen Información por elemento: Ie1 = log2(16x16) = 8 bits/elemento bits/imagen Vimg = 30 imágenes/seg Tiempo de transmisión de un elemento: T = Velocidad de Información: Vi = 1 1 = = 6.279 IV. pero sí establece que para transmitir sin error los símbolos o muestras codificadas deben poseer una cierta redundancia. que en el caso de TV en blanco y negro (solamente 16 niveles de brillantez). de donde N N El lector puede demostrar. CAMARA DE TV A COLOR CANAL Fig. ♣ Ejemplo 4.10 dB N . PRINCIPIOS DE LA TRANSMISION DE INFORMACION η Bmax = C S = log 2 (1 + ) bps/Hz B N (4.47). V1 = C = 60x103 bps S = 1023 = 30. Información contenida en una Imagen de Televisión.049x106 = 60. La velocidad de transmisión de las imágenes es de 30 por segundo.

con B T ≥ B m . la señal de TV a color necesita una potencia 1000 veces (30. Como la velocidad de información es la misma en todos los puntos del sistema. El Receptor Ideal La ecuación de Hartley-Shannon nos permite deducir la ley para el intercambio entre el ancho de banda y la relación S/N en un sistema de transmisión ideal. Recepción Ideal. mientras que la velocidad de información llega ya a 56 kbps (con el Módem V. de (4.2 kHz no debe sobrepasar los 2400 baudios.90). Sea entonces Si y Ni las potencias de señal y de ruido. Supongamos que esta señal se ha codificado o modulado de tal manera que el ancho de banda resultante o ancho de banda de transmisión es B T . La máxima velocidad de modulación sobre un canal telefónico de 3. Nótese que la capacidad del canal representa la máxima cantidad de información que se puede transferir en un segundo. como se muestra en la Fig. por ejemplo. pero no así la velocidad de modulación. La salida del receptor ideal será la señal mensaje de ancho de banda Bm y algún ruido introducido en el canal. Introducción La expresión (4. Sin embargo. Consideremos. Es evidente. Como su ancho de banda efectivo es de 3.47) está considerada como el Teorema Central de la Teoría de la Información. los sistemas reales no pueden alcanzar el potencial inherente en el ancho de banda y potencia que utilizan. 4.9. PRINCIPIOS DE LA TRANSMISION DE INFORMACION Obsérvese que para la misma potencia de ruido y ancho de banda. Nótese que se puede aumentar aún más la velocidad de información utilizando diferentes métodos. o viceversa.9. Por ejemplo. respectivamente. ♣ 4. es decir. en un canal telefónico la relación S/N para una buena recepción es de aproximadamente 30 dB. a partir de este teorema. a la entrada del receptor ideal.1 dB) mayor que en TV blanco y negro.47). la capacidad teórica del canal es del orden de los 32 kbps.280 IV.2 kHz.6. y con los métodos de codificación y modulación se trata de alcanzar este máximo teórico. 4. como veremos posteriormente. 4. una señal mensaje que ocupa un ancho de banda Bm y que la información en ella contenida se produce a una velocidad de Vi bps.6. Los procesos de codificación y modulación son los medios utilizados para efectuar este intercambio “Ancho de Banda-Relación Señal/Ruido”. y So y No las correspondientes potencias de salida. EL SISTEMA IDEAL DE TRANSMISION DE INFORMACIÓN 4. que para una capacidad dada C se puede aumentar el ancho de banda B reduciendo la potencia de señal S (disminución de la relación S/N).6. Señal Transmitida Origen Canal BT Si/Ni Receptor Ideal Bm So/No Ruido Fig. . se verifica entonces que. que el ancho de banda y la potencia de la señal se pueden intercambiar. Esta señal se transmite y es recibida en un receptor ideal.1.2.

49) En la práctica. es necesario incrementar considerablemente la potencia de la señal transmitida. Sin embargo. También se puede mantener Si/Ni constante y aumentar BT.281 IV.50b) para diferentes valores de la relación βm = BT/Bm. el compromiso es en el sentido de reducir la potencia de transmisión a costas de un aumento en el ancho de banda de transmisión y no así lo contrario. para una pequeña reducción en el ancho de banda BT. Por otra parte. Los sistemas de banda ancha. se caracterizan por un alto valor de la relación BT/Bm. PRINCIPIOS DE LA TRANSMISION DE INFORMACION B T log 2 (1 + Si S ) = B m log 2 (1 + o ) Ni No BT de donde.52) En la Fig. So/No y Si/Ni >> 1. denominada “Relación o Factor de Expansión del Ancho de Banda”. So No ⎡ S i ⎤ Bm = ⎢1 + −1 ⎥ ⎣ Ni ⎦ (4. que veremos en los Capítulos V y VI. Esto quiere decir que para un pequeño aumento en el ancho de banda BT. 4.10(b) se grafica este rendimiento para diferentes valores de β m . de (4.10(a) se grafica (4.49) representa el límite teórico máximo y la utilizaremos como referencia para comparar el comportamiento de los diferentes sistemas prácticos de codificación y modulación que veremos en los Capítulos V y VI. se puede reducir considerablemente la potencia de la señal transmitida.50b) Nótese que se puede aumentar So/No si se aumenta Si/Ni y se mantiene BT constante. como veremos en los Capítulos V y VI. este intercambio o compromiso “Ancho de BandaRelación Señal/Ruido (S/N)” está limitado físicamente en los sistemas reales. Por lo tanto.51) Si β m = B T / B m es la relación o factor de expansión del ancho de banda. . 4. lo cual es más razonable pues no es necesario aumentar la potencia transmitida. ⎡ So ⎤ BT ⎡ S i ⎤ ⎢ ⎥ ≈ ⎢ ⎥ ⎣ N o ⎦ dB B m ⎣ N i ⎦ dB BT (4. pero esto implica aumentar la potencia transmitida (si las condiciones de ruido no cambian). En la Fig. en la práctica. Relación de Expansión del Ancho de Banda La expresión (4.47). La capacidad del canal ideal es. y el rendimiento máximo del canal ideal respecto al ancho de banda de la señal mensaje será η Bmax = S C = β m log 2 (1 + i ) bps/Hz Bm Ni (4. C = B T log 2 (1 + Si ) bps Ni (4. de modo que S o ⎡ S i ⎤ Bm ≈⎢ ⎥ No ⎣ Ni ⎦ y en dB. En un sistema ideal la relación Señal/Ruido a la salida aumenta exponencialmente con la relación BT/Bm.50a) (4. entonces se puede escribir C = β m B m log 2 (1 + S i / N i ) .

debido al esfuerzo de ingenieros y matemáticos.10(a) y (b) muestran también que los sistemas de banda ancha. Quizás el resultado más sorprendente demostrado por Shannon en su teorema fundamental es que no hay un límite en la confiabilidad con que se puede transmitir señales binarias sobre un canal ruidoso mientras la velocidad de transmisión sea menor que la capacidad C del canal. Ni y BT.282 IV. para las mismas condiciones de potencia o relación Si/Ni . Inicialmente. El estudio de la teoría de la información suministra una medida cuantitativa de la información contenida en las señales mensaje y permite determinar la capacidad de un sistema para transferir esta información desde su origen hasta su . El mecanismo para alcanzar este alto nivel arbitrario de confiabilidad es mediante una codificación apropiada que agregue una cierta cantidad de redundancia. Nótese también que los valores de Si . de acuerdo con el Teorema Fundamental de Shannon. 4. son mucho más eficientes que los sistemas de banda angosta. la capacidad C de Shannon fue considerada por los ingenieros de telecomunicaciones como una curiosidad o ficción matemática. Un estudio detallado de estos códigos está fuera de los objetivos de este texto. y las curvas de la Fig. la teoría de la información proporciona una perspectiva diferente para evaluar el funcionamiento de los sistemas de comunicación y para tener una percepción significativa de las características de funcionamiento de los sistemas. él solamente demostró que había códigos que optimizaban la velocidad de información y que no había posibilidad de comunicación libre de error por un canal ruidoso si los mensajes se codificaban con cero redundancia. Shannon no dijo qué tipo de codificación era la mejor.10(b) representan los límites máximos que pueden alcanzar los sistemas reales. Pero. en los cuales β m >> 1 . 4. PRINCIPIOS DE LA TRANSMISION DE INFORMACION Nótese que el rendimiento máximo del canal ideal. depende de la relación de expansión del ancho de banda β m . Las Fig. establecen un límite sobre la velocidad de transmisión pero no en la exactitud en la transferencia de la información. Sin embargo. en los cuales β m ≤ 2 . En general. poco a poco. Estos conceptos los aplicaremos al estudiar algunos esquemas de modulación específicos en los Capítulos V y VI. se han elaborado códigos muy buenos y desarrollado la tecnología para su instrumentación y aplicación.

001 (a) ¿Cuál letra proporciona la máxima cantidad de información? (b) ¿ Cuál letra proporciona la mínima cantidad de información? (c) Suponga que las letras se eligen independientemente para formar palabras (lo cual no se ajusta a la realidad). (d) Sea el juego siguiente: se trata de adivinar una palabra y se da como pista la primera letra de la palabra.072 0. Se discute en forma cualitativa el Teorema Fundamental de Shannon y la Ecuación de Hartley-Shannon. concepto que se utilizará para comparar los diferentes sistemas de comunicación prácticos que se estudiarán en los Capítulos V y VI. y se ha introducido la noción de codificación digital de la información.124 0.001 0. cuál letra es más útil en el juego.3.283 IV. E. mediante el cual se puede utilizar los canales con el máximo rendimiento. de los cuales 16 ocurren con una probabilidad de 1/32.072 0. la velocidad de modulación y el ancho de banda mínimo para transmitir un impulso.031 V W X Y Z 0. y aquí sólo hemos presentado un vistazo muy somero de ella para ilustrar algunos aspectos prácticos de la teoría que utilizaremos en los siguientes capítulos.037 E F G H 0. asimismo.316 bits/letra.019 0.051 I J K L 0. D. se han deducido algunos parámetros tales como la velocidad de información.4 bps. De la definición básica de la cantidad de información. La teoría de la información es una disciplina muy vasta y compleja.016 0.002 0. con algunos ejemplos como el Código ASCII y el Código Baudot. Demuestre que la entropía de este alfabeto es de 4. Demuestre que la velocidad de información promedio de la fuente es de 640.079 0. la letra E o la letra Z? 4. 4.032 0.016 0. y se deduce algunas expresiones que introducen la noción de Sistema Ideal de Transmisión de Información.005 0. Esta letras se codifican en binario puro con un impulso de arranque y uno de . El tratamiento de los temas ha sido necesariamente muy breve y sencillo. C. ¿En español. H y O.023 Q R S T U 0.040 M N O P 0.020 0. de gran aplicación práctica.7.2.1. RESUMEN En este capítulo se ha discutido en forma muy breve algunos de los aspectos resaltantes de la Teoría de la Información y de los principios de la codificación digital de señales. el concepto de codificación.066 0. y los 112 restantes con una probabilidad 1/224. un sujeto muy importante en la teoría general de la información.002 0. Sea un alfabeto en el cual la probabilidad de ocurrencia de las diferentes letras se da en la tabla siguiente: A B C D 0. La fuente produce 100 símbolos por segundo. cuya aparición suponemos equiprobable. y su objetivo es el de dar al lector una descripción básica de algunos aspectos de la teoría de la información que se aplicarán en capítulos posteriores. Un aspecto de considerable importancia es el concepto de capacidad de un canal.060 0. B. en sí misma. PROBLEMAS DE APLICACION 4.023 0.009 0.072 0.081 0. Introduce. La teoría de los códigos es. PRINCIPIOS DE LA TRANSMISION DE INFORMACION destino. F. Una fuente de información produce 128 símbolos independientes. Un alfabeto consta de las siguientes letras: A.096 0. 4.

008.05.05.3.7. todos igualmente probables. (a) Demuestre que la palabra FACHADA se puede transmitir en 8. Los símbolos se producen a una velocidad de 1000 símbolos por segundo. El canal de transmisión tiene un ancho de banda de 4 kHz. es de 11. 0.032. tres símbolos con una probabilidad. La imagen está compuesta por puntos con 8 niveles de gris.2. de 0.4. 0. Con los datos del Ejemplo 1. y se desea escribir una página de 280 caracteres. Demuestre que la cantidad de información contenida en una fotografía de 10 cm x 10 cm es I = 7. 0. 0.75 mseg y con una velo cidad de información de 2400 bps. 4. se codifican en binario para transmitirlos por un canal telefónico de 4 kHz. respectivamente. Demuestre que los símbolos sí pueden transmitirse por el canal telefónico y que la velocidad de información y de modulación son. es de 2. 4. Nota: En las partes (a) y (b) hay que calcular no solamente el número de pesadas sino mostrar también el procedimiento para efectuarlas.25. de 0. 0.9.5. 4. El refrán dice que “una imagen vale mil palabras”. de 2166 bps y 3000 baudios. demuestre que el tamaño que deberá tener la imagen (cuadrada) para que la información contenida en ella sea igual a la de 1000 palabras. Se escucha un partido de fútbol y el narrador habla a una velocidad de 300 palabras por minuto. tres símbolos con una probabilidad. la resolución de la imagen es de 5 puntos por mm.766 bits. Vamos a determinar la información contenida en una fotografía en blanco y negro. cada uno. respectivamente. 0. Utilizando las suposiciones de los dos problemas anteriores.8.128. El alfabeto de una máquina de escribir consta de 32 caracteres alfanuméricos que suponemos equiprobables. todos los impulsos tienen la misma duración. 4. (c) Si las probabilidades de las 8 letras son. Demuestre que la persona puede escribir una página en 11 minutos y 40 segundos.512.15. (a) Si sabemos que la moneda falsa pesa menos que las buenas. 0. Suponga que el impulso de arranque está siempre a CERO y el impulso de pare siempre a UNO. Disponemos también de una balanza de precisión con la cual podemos pesar las monedas.15.14 mm x 11. (b) Asigne a cada letra una muestra codificada y muestre la forma de la palabra CAFE a la salida del codificador. Una persona escribe a una velocidad de 2 bps.05 y 0.1. demuestre que la información promedio. 4. cada uno. demuestre que el locutor transmite a una velocidad de 46. y un símbolo con una probabilidad de 0. Se tiene 64 monedas de las cuales sabemos que una es falsa.5x105 bits 4. determine el número mínimo de pesadas necesarias para descubrir cuál es la moneda falsa.14 mm . por letra. Una fuente produce ocho símbolos distintos e independientes cuyas probabilidades de aparición son: un símbolo con una probabilidad de 0.6.5 bps. PRINCIPIOS DE LA TRANSMISION DE INFORMACION pare. (b) Repita la parte (a) pero en este caso no sabemos si la moneda falsa pesa más o menos que las monedas buenas.284 IV.

0.3. La velocidad de modulación a la salida del codificador es de 80 kbaudios y se transmite un total de 1000 secuencias.909 dB.3. (b) Para que no haya pérdida de información. demuestre que la información promedio contenida en una página es de 16820 bits. (b) Vamos a estimar la información promedio contenida en una página de un periódico. 8. (b) Las páginas almacenadas en la unidad de disco se van a transmitir ahora a razón de 30 páginas por segundo por un canal de 42 kHz de ancho de banda y en el cual la potencia de ruido es de 1 mW. Contenido de Información de Textos Escritos. En Modo Gráficos la pantalla tiene una resolución de 200 filas y 300 columnas donde cada punto puede tener 16 colores diferentes y 4 niveles de intensidad.123 dBm. Una fuente produce símbolos los cuales se codifican en secuencias de 7 impulsos cuaternarios más 1 impulso de sincronización. 0.14.12. demuestre que la cantidad de información que llegó a destino es de 12925 bits. (a) Demuestre que la computadora puede transferir 650 páginas de texto en 5 minutos.285 IV. 4.7609 dB.2 y 0. 4. (b) En Modo Gráficos: 45 kbytes. El ancho de banda del canal es de 10 kHz y la relación S/N correspondiente es de 30 dB. respectivamente. Una fuente de información produce 16 símbolos distintos y equiprobables a una velocidad de 1000 símbolos por segundo. Los símbolos se codifican en binario más un impulso de sincronización. Demuestre que la cantidad de memoria necesaria para almacenar el contenido de la pantalla es: (a) En Modo Texto: 1 kbyte. (a) ¿Cuál tiene más información: una página de un texto o la correspondiente página de apuntes (de igual número de palabras) del mismo tópico? Razone su respuesta. La información o texto se considera formada por “páginas” de 30 líneas de 80 columnas con 7 bits por carácter. Demuestre que: (a) La velocidad de modulación en el canal es de 5000 baudios. 4. Una página tiene una superficie útil de 50 cm x 60 cm. En Modo Texto tiene un alfabeto de 256 caracteres alfanuméricos en una pantalla de 25 filas de 40 columnas cada una (Cada punto de la pantalla se denomina “pixel”). (a) Si no hay ruido en el canal. los cuales se transmiten por un canal con un ancho de banda de 1 kHz. Demuestre que para que no haya pérdida de información hay que aumentar la relación S/N en.11. Una computadora trabaja en dos modalidades: Modo Texto y Modo Gráficos. todos de igual duración.1. El intercambio de información entre una computadora y su unidad de disco se efectúa a una velocidad de 36400 bps.4. PRINCIPIOS DE LA TRANSMISION DE INFORMACION 4. Con los datos del Ejemplo 4. (b) En el canal hay ruido.10.13. 4. el espaciado entre palabras es de 3 mm y la separación entre líneas es de 6 mm. todos de igual duración. como mínimo. de 11. la relación S/N en el canal deberá ser. por lo menos. Demuestre que para que no haya pérdida de información. los tipos tienen dimensiones de 3 mm x 3 mm. Los cuatro niveles de cada impulso tienen probabilidades 0. la potencia promedio mínima de la señal debe ser de 4. .095 W o 36.

75 minutos. La imagen de un televisor a color está formada por 525 líneas que contienen. por página.5 minutos. (a) Demuestre que la información contenida en una imagen es de 9x106 bits. La velocidad de las imágenes es de 30 por segundo. La señal codificada se transmite por un canal de ancho de banda de 10 kHz y con una relación S/N de 11. ¿Qué pasaría si la codificación fuese en binario? .286 IV. todos de igual duración. los cuales se codifican en impulsos ternarios. (b) Demuestre que una imagen se puede transmitir en 37. 4. (b) Transmisión Analógica. 4.625 µW.7609 dB. Si la relación S/N en el canal es de 60 dB y la potencia de ruido es de 1 µW. (a) Demuestre que la velocidad de la información producida por la imagen de televisión es de 110. demuestre que la potencia mínima de la señal para que no haya pérdida de información. El codificador produce bloques que contienen 9 impulsos de información más un impulso de sincronización.13(b)) para su transmisión por un canal digital.5 MHz. Fig. 4. Un terminal de datos produce 256 caracteres alfanuméricos que se codifican en n impulsos m-arios incluyendo un impulso de arranque y uno de pare. Demuestre que: (a) Para que no haya pérdida de información. PRINCIPIOS DE LA TRANSMISION DE INFORMACION 4. (c) Para los mismos datos.135x107 bits en una hora.3 Mbps. (d) Si la potencia de ruido en el canal calculado en la parte (c) es de 1 µW. Cada punto luminoso tiene 8 niveles de brillantez y 16 matices de color. 2. (b) Si la velocidad de modulación máxima es 3/4 de la velocidad de información máxima.16. La información se codifica en binario para ser transmitida por un canal de 4 kHz de ancho de banda.13(b).18. debe ser de 0. 1000 puntos luminosos. 4. demuestre que el ancho de banda mínimo necesario del canal es de 157. y para una buena reproducción se requiere 16 niveles de brillantez. La velocidad de modulación a la salida del codificador es de 10 kbaudios. En un sistema de transmisión de facsímil de alta resolución se necesita. entonces m = 4 y n = 4.25x106 elementos de imagen (esto equivale a 1500 líneas en cada dimensión).17. (c) Transmisión Digital. el terminal de datos debe generar los caracteres a una velocidad igual o menor de 5000 caracteres por segundo. (c) Demuestre que si la información se codifica en impulsos cuaternarios. (d) Si la información se codifica en ASCII sin bit de paridad. todos de igual duración. 4.15. Si cada punto luminoso se codifica en ASCII sin bit de paridad (Fig. demuestre que una imagen se transmite en 93. (b) Se puede transmitir 5. Una fuente de información produce 27 símbolos distintos y equiprobables. En el sistema no hay pérdida de información. cada una. el tiempo de transmisión se reduce a la mitad. demuestre que la potencia de señal es de 1 W y que se puede transmitir por un canal de ancho de banda de 5. Demuestre que: (a) La fuente está produciendo los símbolos a una velocidad de 3000 símbolos por segundo.534 MHz.

La celda se mueve a una velocidad de 4 cm por segundo. (e) Demuestre que si los impulsos de información tienen una duración de 40 µseg y la transmisión se hace por un canal telefónico de 4 kHz de ancho de banda. Se tiene un convertidor automático. Un codificador produce impulsos binarios cuya velocidad de modulación es de 8 kbaudios. el ancho de banda del canal debe ser de 32.287 IV. Demuestre que: (a) Las velocidades de modulación y de información son de 10 kbaudios y 12. 128 líneas con 128 puntos por línea. Sea un sistema de telefotografía. Estos impulsos se van a transmitir por un canal de 1 kHz de ancho de banda y en el cual la relación S/N es de 11.5 kbaudios y que los impulsos son cuaternarios. Una celda fotoeléctrica barre la fotografía (de blanco y negro) y en cada punto produce una señal cuya amplitud varía de 0 V a 127 mV correspondientes a 128 niveles de gris (desde el blanco puro al negro puro) de la fotografía.23. la relación S/N mínima en el canal para que no haya pérdida de información es de 8. (b) Si la señal de salida de la celda fotoeléctrica se transmite directamente por un canal. en 12. como mínimo.22. (d) Las imágenes almacenadas en la computadora se van a transmitir por un canal dado. La fotografía mide 10 cm x 15 cm. En un sistema SSTV básico una celda fotoeléctrica barre la imagen y mide en cada punto de imagen uno de 16 valores de gris desde el blanco puro hasta el negro puro. La duración de los impulsos de arranque y de pare es 1.19. respectivamente.20. 4. 4.768 kHz. ambos de duración el doble de la de los impulsos de información. demuestre que el ancho de banda mínimo del canal es de 2 kHz. .5 kbps. con una capacidad de 15x103 bps. y su resolución es de 5 puntos por milímetro. La velocidad de barrido es de 2x103 puntos por segundo y el sistema requiere. Demuestre que si se quiere transmitir las 100 imágenes en 400 segundos. 4. (c) La señal de salida de la celda fotoeléctrica se codifica en binario y se almacena 100 imágenes en la memoria de una computadora. La entrada al convertidor es una secuencia de impulsos de amplitud variable cuya frecuencia es de 2. PRINCIPIOS DE LA TRANSMISION DE INFORMACION 4. que convierte información de un sistema de codificación a otro sistema. por imagen. Televisión de Barrido Lento (SSTV). 4. Una fuente de información produce 1024 símbolos distintos y equiprobables a una velocidad de 1250 símbolos por segundo.7609 dB. (b) Si el ancho de banda del canal de transmisión es de 5 kHz y se transmiten 105 muestras codificadas. La salida del convertidor es otro tren de impulsos cuyo número de amplitudes es 1/4 del número de amplitudes de los impulsos de entrada al convertidor.21. (a) Demuestre que la información contenida en una imagen es de 8 Kbytes.25x105 impulsos por minuto. Los símbolos se codifican en impulsos cuaternarios más un impulso de arranque y uno de pare. Demuestre que la velocidad de modulación a la salida del convertidor es de 7. En estas condiciones hay pérdida de información. Demuestre que la capacidad mínima de la memoria debe ser de 800 Kbytes y que el almacenamiento de la información se efectúa a una velocidad de 8 kbps.3045 dB. se pierden 5x105 bits de información. pero a cada muestra se le agrega un impulso de arranque y uno de pare.5 veces la duración de un impulso de información.878 dB. Demuestre que para que no haya pérdida de información hay que aumentar la relación S/N.

Un terminal de datos se utiliza para enviar información hacia una computadora central a través de una línea telefónica de 3 kHz de ancho de banda. Demuestre que la relación S/N mínima. la relación S/N en el canal es de 10 dB. Esta señal se pasa por un convertidor que la convierte en secuencias de 8 impulsos binarios. Fig.08 dB. (b) Las señales producidas por la celda se codifican en binario y se guardan en la memoria de una computadora. 4. (c) La información contenida en la memoria se va a transmitir por un canal en ASCII sin bit de paridad. El ancho de banda Bc del canal es de 16 kHz. teniendo cada secuencia una duración de 100 µseg. Si la potencia de ruido en el canal es de 1 pW.13 Mbps y que el ancho mínimo del canal debe ser de 18. Demuestre que el sector de la memoria donde se guardó la información debe tener una capacidad de 26. PRINCIPIOS DE LA TRANSMISION DE INFORMACION (a) Demuestre que la velocidad a la cual la celda produce información es de 1400 bps y que tarda 1875 seg en transmitir una fotografía.11. Demuestre que la relación señal/ruido a la salida del receptor es de 30. (d) La salida de la celda fotoeléctrica se transmite directamente por un canal cuyo rendimiento es de 2 bps/Hz.25. como se muestra Fig. Ruido n(t) respectivamente.48 seg. 4.288 IV. y que la velocidad de modulación a la salida del codificador es de 1400 baudios.9136 dB y el ancho de banda Br del receptor es de 8 kHz. 4. demuestre que la potencia de la señal para que no haya pérdida de información es de 3 pW. es Bn = 80 kHz (b) El canal tiene un ancho de banda de 50 kHz. El terminal de datos produce caracteres alfanuméricos en ASCII sin bit de paridad y en su memoria hay almacenados 8000 bits de información.773 minutos . Demuestre que la velocidad de información en el canal es de 13. en la cual se almacena 10 fotografías. Una señal tiene un ancho de banda de 4 kHz. (a) Demuestre que el ancho de banda mínimo del canal para transmitir las secuencias binarias en ausencia de ruido. para transmitir las secuencias sin error es de 3.25 Mbits.098 dB. en dB.26.75 MHz.11 en la Fig. En el sistema no hay pérdida de información. 4. demuestre que el tiempo que tarda en vaciarse la memoria es Tt = 34. Una señal s(t) es transmitida por un canal perturbado por un Si/Ni Señal s(t) Canal ruido n(t). 4. La transmisión de las 10 fotografías que estaban en la memoria se efectúa en 2 segundos. 4.24. siendo Si/Ni y So/No las Receptor So/No Destino Origen Bc Br relaciones señal-ruido a la entrada y salida del receptor.13(a). (a) Demuestre que la capacidad del canal es C = 10378 bps (b) Demuestre que la máxima velocidad de información en el canal sin ruido es de 2100 bps (c) Demuestre que el tiempo que tarda el terminal en vaciar la memoria es Tt = 30. (d) Si la información se transmite en código BAUDOT. la relación Si/Ni es de 14.

y el ancho de banda mínimo del canal (b) Demuestre que las velocidades de modulación y de información a la entrada del terminal de datos son.12. No hay pérdida de información en el sistema. Demuestre que el ancho de banda mínimo del canal debe ser 5/4 veces más grande que el ancho de banda mínimo antes del codificador 4. PRINCIPIOS DE LA TRANSMISION DE INFORMACION 4.5 y B. El codificador 1 agrega a cada muestra un impulso de arranque y uno de pare. (Nota: en ambos códigos el bit o dígito binario 1 es el de menor peso). Sea el sistema mostrado en la Fig. 4. 4. . ambos de la misma duración que los de información. Una fuente de información digital produce dígitos a una velocidad de 128 kbps. (b) Se puede utilizar también un codificador 4B/5B (utilizado en la transmisión por fibras ópticas) que transforma grupos de 4 dígitos binarios en grupos de 5 dígitos.13 se muestran los formatos de los Códigos BAUDOT y ASCII (sin bit de paridad). La fuente produce N símbolos distintos y equiprobables a una velocidad de 1000 símbolos por segundo. Fuente Codificador 1 Canal Codificador ASCII Terminal de Datos Fig. Códigos Binarios BAUDOT y ASCII (Alfabeto Internacional N° 5 de la UIT-T) En la Fig.289 IV. 4. 4. (a) En un codificador (denominado 4B/3T) se transforma grupos de 4 dígitos binarios en grupos de 3 dígitos ternarios.29. sin pérdida de información. Para el Código BAUDOT tomar las duraciones dadas en la figura. En el Código ASCII los caracteres fluyen a una velocidad de 100 caracteres por segundo. no hay pérdida de información en el canal. Vb = 10 kbaudios y Vi = 7 kbps. (a) Determine N.28. así codificada.6. La secuencia. El terminal de datos solamente acepta secuencias codificadas en ASCII sin bit de paridad. los valores apropiados de m y n para el codificador 1.12. Ver APENDICE B. respectivamente. Demuestre que la velocidad de modulación en el canal es de 96 kbaudios. binarios también. se transmite por un canal.27.

PRINCIPIOS DE LA TRANSMISION DE INFORMACION Arranque Información 1 22 ms 2 3 22 ms 4 5 Pare Arranque 1 2 Información 3 4 5 6 7 Pare 31 ms τ τ Un Carácter 2τ Un Carácter (a) Código BAUDOT (b) Código ASCII sin Bit de Paridad Fig. como es el caso de los sistemas de comunicación espacial o por satélites. Si el ancho de banda B aumenta sin límites (B→∞). entonces ⎡ So ⎤ Si ) = exp( γ ) ⎢ ⎥ ≈ exp( ηB m ⎣ No ⎦ cuando So No >> 1 (4. La potencia de ruido N se expresa en la forma N = ηB . N es entonces la potencia de ruido contenida en el ancho de banda B. en condiciones ideales cuando el ancho de banda de transmisión BT tiende a infinito. (b) ¿Qué significa la siguiente información codificada en ASCII? 011001011101111001110110010111 (c) ¿Cómo se codificaría la misma información de (b) pero en BAUDOT? 4. Consideremos el receptor ideal de la Fig. 443 ⎢ ⎥ = ViMAX ⎣η⎦ ⎣η⎦ (4.9 . Considere la ecuación de Hartley-Shannon. Por consiguiente.290 IV. Límite de Shannon. Demuestre que si el ancho de banda del canal tiende a infinito (BT → ∞) .13.54) Nótese que γ = Si ηo Bm representa la relación entre la potencia de la señal (transmitida) en el canal respecto a la potencia de ruido dentro de la banda de la señal misma (Bm). teóricamente.53) Este resultado se conoce con el nombre de “Límite de Shannon” y representa la máxima velocidad de información en un sistema de comunicación con una potencia promedio transmitida dada pero sin la limitación del ancho de banda. Formatos de los CODIGOS BAUDOT y ASCII.31. 4. (a) Determine las velocidades de modulación y de información para cada uno de estos códigos. . demuestre que B→∞ ⎡S⎤ ⎡S⎤ lim C = ⎢ ⎥ log 2 e = 1. donde η tiene dimensiones de vatios por unidad de ancho de banda (W/Hz) y es la “densidad espectral de potencia de ruido”. la relación So/No a la salida aumenta exponencialmente con γ. 4.30. 4.

5 en el Apéndice B. Nótese que la codificación binaria es la menos eficiente.32. Eb” en la forma Eb = Sτ. y del codificador del Ejemplo 4. 4. (a) Determine el rendimiento de los Códigos Baudot (Fig. Los bloques de datos se estructuran en la forma siguiente: se colocan tres caracteres SYN (de sincronización) al inicio de cada bloque. ASCII con bit de paridad (Fig. y r el número de impulsos redundantes (ver ecuación (4. B ηB se expresa en bps/Hz (4.13(a)). 4. Si se define la “Energía por Dígito Binario.291 IV. a continuación 256 caracteres de información y se termina el bloque con un carácter ETX. solamente los impulsos de información.57) En este caso. ni los caracteres de información contienen los impulsos de arranque. demuestre que si el sistema es binario y Vi = C. 4. PRINCIPIOS DE LA TRANSMISION DE INFORMACION 1.5). para 1≤ Eb ηo ≤ 100 4.5% .33. y tanto ηco como Rco se pueden expresar en forma porcentual (ηco% y Rco%). Rendimiento y Redundancia de Codificación.55) Grafique también ηB vs Eb/ηo Sugerencia: utilice escalas log-log. En los sistemas binarios (m = 2) se suele definir también la “redundancia de codificación. (b) Transmisión Sincrónica.4). Los caracteres SYN y ETX están definidos en la Tabla B. paridad y pare.9. Vb ≥ Vi . Rendimiento del Canal en el Sistema Ideal de Transmisión.56) donde n es el número de impulsos de información. Rco” en la forma R co = 1 − ηco = Vb − Vi r = Vb n+r (4. Demuestre que en Transmisión Sincrónica ηco % = 98. En la expresión (4. pero es la más utilizada por su facilidad de instrumentación. El rendimiento de un código o de un codificador se puede definir en la forma siguiente: η co = Vi n log 2 m = Vb n+r bps/baudio (4. Ni los caracteres SYN y ETX. entonces η B = log 2 (1 + η B Eb ηo ) Vi . Código ASCII.5% y R co % = 1.28) y Fig.42) se definió el “rendimiento del canal respecto al ancho de banda” en la forma ηB = donde τ es la duración de un dígito binario.

¿Cuál es la relación entre sus respectivas velocidades de información? 4. 4. Demuestre que en Transmisión Asincrónica η co = 63. (c) Si la capacidad de la memoria de la computadora es de 600 Kbytes.31 dB y que el ancho de banda del canal es de 375 Hz. Demuestre que la velocidad de información en el sistema es de 1000 bps y que el valor de las frecuencias es f1 = 500 Hz. demuestre que la relación So/No a la salida es de 90. f2 = 1 kHz .36. Las fuentes producen. Cierta fuente de información transmite cada milisegundo un número octal (base 8). 0 1 → f2 .5 kHz y f4 = 2 kHz. respectivamente: N1 = 128 símbolos N2 = 256 símbolos N3 = 32 símbolos Fuente 1 Fuente 2 Secuencias Compuestas Codificador Canal Fuente Todos estos símbolos son independientes y 3 equiprobables. PRINCIPIOS DE LA TRANSMISION DE INFORMACION (c) Transmisión Asincrónica. Un cierto sistema de comunicación posee un sintetizador de frecuencias que produce cuatro frecuencias diferentes: f1. 4. En el canal la potencia promedio de la señal es de 0. 1 0 → f3 .6% y R co = 36. 4.292 IV.4% (d) Si la velocidad de modulación es la misma en los dos tipos de transmisión anteriores.37. Se desea introducir información a una computadora mediante tarjetas perforadas tipo IBM. Toma a continuación un símbolo de la Fuente 2 y lo codifica en binario agregándole un impulso de arranque y uno de pare. Se transmite bloques de 256 caracteres ASCII incluyendo todos los impulsos redundantes (Fig. f2 = 2f1 .5 veces más que los demás. Estas tarjetas tienen 80 columnas por F filas. 4. Por último.34. El codificador opera en la Fig. (b) Si el lector de tarjetas lee 10 tarjetas por segundo.5). demuestre que en este caso cada columna tendrá 8 filas. 1 1 → f4 La velocidad de modulación a la entrada del sintetizador es de 1000 baudios. (a) Si la computadora reconoce 256 caracteres alfanuméricos y cada carácter se almacena en una columna de la tarjeta. Código ASCII. Si a la salida del receptor el ancho de banda es de 100 Hz.5 W y la de ruido 2 mW. f3 = 1. incluidos los de las Fuentes 1 y . demuestre que el lector está entregando información a la computadora a una velocidad de 6400 bps. demuestre que puede almacenar el contenido de 7680 tarjetas.14 forma siguiente: primero toma un símbolo de la Fuente 1 y lo codifica en ASCII sin bit de paridad. f3 = 3f1 y f4 = 4f1. este último dura 1. toma un símbolo de la Fuente 3 y lo codifica en binario agregándole un impulso de arranque y uno de pare. Sea el sistema de la Fig. 4. todos de igual duración. y se sabe que para la transmisión del grupo 0 0 se transmite un solo ciclo de la frecuencia f1 .35. 4. Este sintetizador de frecuencia se utiliza como transmisor de información digital en el cual por cada dos bits de entrada al sintetizador se transmite una frecuencia según el esquema siguiente: 0 0 → f1 .14.

(a) Demuestre que la velocidad de información a la salida del codificador es de 2000 bps y que su rendimiento de codificación es del 72.293 IV. 4.8 Hz. 4.13(b)) para transmisión por un cable bifilar. de 280 bps y 400 baudios. Demuestre que a la salida de la interfaz las velocidades de información y de modulación son. cada uno de los cuales transmite impulsos con dos valores posibles: 0V y 5V. PRINCIPIOS DE LA TRANSMISION DE INFORMACION 2. (b) Si el rendimiento del canal respecto al ancho de banda es de 3 bps/Hz. (c) Si la relación S/N en el canal es de 15 dB.7%. . respectivamente. La salida de cierta computadora está formada por 7 conductores. Mediante una “interfaz” se convierte las 7 salidas de la computadora en una secuencia serie ASCII sin bit de paridad (Fig.451 dB. demuestre que el ancho de banda mínimo del canal es de 397. demuestre que la relación S/N en el canal es de 8. El codificador vuelve a la Fuente 1 y se repite el proceso. la duración de cada impulso es de 25 ms.38. A la salida del codificador las secuencias codificadas individuales van saliendo una detrás de la otra formando un tren de impulsos cuya velocidad de modulación es de 2750 baudios y el cual es transmitido por el canal.

PRINCIPIOS DE LA TRANSMISION DE INFORMACION .294 IV.

En la modulación digital de impulsos se efectúa una codificación o conversión. Sin perder el rigor teórico seguido. También se presentará un breve estudio de la transmisión digital de señales mediante dispersión del espectro (Spread Spectrum). se hará énfasis especial en los sistemas de modulación codificada. se estudiarán las “Técnicas de Multiplicidad en el Tiempo (TDM)” necesarias para la transmisión de una gran cantidad de mensajes por un mismo canal. y (b) la “Modulación de Impulsos”. así como los principios básicos de la transmisión y recepción de impulsos en banda de base o en portadora modulada. lo que hace que la Modulación de Impulsos sea la forma apropiada para mensajes o información de naturaleza discreta. en grado menor. La Modulación de Ondas Continuas es un proceso continuo y por lo tanto es la apropiada para señales que varían en forma continua en el tiempo. se enfocarán (a) desde el punto de vista del ancho de banda de las señales y de los canales. En el Capítulo VI trataremos en detalle la Modulación de Ondas Continuas. A pesar de la existencia de una gran cantidad de métodos de modulación. duración o posición de los impulsos) varían en proporción directa respecto a la señal moduladora o mensaje. y el proceso de modulación es simplemente un proceso de traslación de espectros. La teoría del muestreo se presentará como la base teórica de todos los sistemas de modulación de impulsos y a este efecto se estudiarán algunos de los sistemas más utilizados en la práctica tanto en el procesamiento como en la transmisión de señales. para efectos de comparación. La modulación de impulsos puede.1. como veremos en su oportunidad. constituyen un marco teórico básico suficiente para emprender el estudio de los diferentes métodos de modulación y transmisión de señales empleados en los sistemas de comunicación. en la complejidad de los sistemas. INTRODUCCION Las nociones sobre la información y codificación vistas en el Capítulo IV. Los criterios de calidad de los diferentes sistemas. a su vez. en la modulación analógica de impulsos los parámetros modulados (amplitud. en el sentido visto en el Capítulo IV. en todo . pues éstos son los sistemas utilizados en la transmisión de señales digitales o datos. En particular. aunque ésta no es la única forma de modulación digital de impulsos. En este Capítulo se desarrollarán los conceptos de muestreo de señales y de la modulación y transmisión de impulsos. Finalmente. en el proceso de la modulación de impulsos se introduce una operación denominada “Muestreo de la Señal” que es una de las transformaciones más importantes en el procesamiento y transmisión de señales digitales. mediante la cual el mensaje es transformado en palabras codificadas (secuencias de impulsos) que representan valores de la señal moduladora tomados en ciertos intervalos de tiempo. y (c). clasificarse en “Modulación Analógica de Impulsos” y “Modulación Digital o Codificada de Impulsos”.CAPITULO V MODULACION Y TRANSMISION DE IMPULSOS 5. en el sentido de que los impulsos están presentes solamente en ciertos intervalos de tiempo. En efecto. (b) según las relaciones S/N presentes. es posible identificar dos tipos básicos de modulación de acuerdo con la clase de portadora: (a) la “Modulación de Ondas Continuas (CW)”. La Modulación de Impulsos es un proceso discreto. más los principios de la representación espectro-temporal de señales y sistemas expuestos en los Capítulos I y II. En este caso la frecuencia de la portadora sinusoidal tiene generalmente un valor mucho más elevado que el ancho de banda de la señal moduladora o señal mensaje. Asimismo. en la cual la portadora es un tren de impulsos. en la cual la portadora es simplemente una señal sinusoidal.

separados cada Ts = 1/ f s segundos. MODULACION Y TRANSMISION DE IMPULSOS momento se dará ejemplos. de las escenas continuas originales. Sin embargo. según el caso.. su habilidad para representar una señal continua mediante una serie de muestras instantáneas. tomados en una serie de instantes discretos.2. H.2. con n = 0.1. Estos conceptos son la base del procesamiento y transmisión digital de señales. y el intervalo Ts correspondiente. 1949] “Una señal x(t) pasabajo cuya frecuencia máxima es f m . Teorema del Muestreo de Shannon [Shannon. donde f s ≥ 2f m “.. se denomina “Frecuencia de Nyquist”. Teorema No 1. “Intervalo de Nyquist”. circuitos y aplicaciones de sistemas prácticos. monovalentes y limitadas en frecuencia o en el tiempo. . se puede especificar unívocamente por sus valores o muestras x(nTs ) . completa y exacta. Estos teoremas introducen y desarrollan el concepto de muestreo y el proceso de reconstitución o interpolación de una señal continua a partir de sus muestras. 5. aunque no todos los autores la presentan en esta forma. Como la discusión estará limitada a sistemas físicos.2. Nyquist ya había señalado en 1924 que N = 2 f m T números eran suficientes para representar una función del tiempo de duración T y frecuencia máxima f m . En muchas aplicaciones el procesamiento de señales discretas es más fácil y flexible debido a la creciente disponibilidad de dispositivos digitales baratos. ± 2. llamados “instantes o puntos de muestra”. Un ejemplo muy ilustrativo de lo que esto significa lo constituye las series de fotografías de una cinta cinematográfica. .. nosotros percibimos una representación móvil. lo cual es otra forma de enunciar este teorema. 5. Teoremas del Muestreo Uniforme de Señales Podemos preguntarnos si es necesario transmitir continuamente sobre un canal una señal de banda limitada B a fin de entregar toda la información asociada con ella. En este contexto.2. ± 1. proporciona un mecanismo para representar señales continuas mediante señales discretas. donde cada fotografía representa escenas fijas espaciadas cada 1/24 segundos. solamente se considera señales reales continuas. Muchos de los sistemas de modulación de impulsos utilizan el hecho de que una señal de banda limitada puede transmitirse sin distorsión si se muestrea la señal periódicamente y se transmiten esos valores o muestras. La teoría del muestreo se puede resumir en cuatro teoremas. Introducción Bajo ciertas condiciones una señal continua en el tiempo puede especificarse completamente y recuperarse a partir del conocimiento de sus valores instantáneos o muestras tomadas a intervalos de tiempo uniformes. Mucha de la importancia de la Teoría del Muestreo radica en que ella constituye un enlace o puente entre señales continuas y señales discretas y.. Formas más o menos complicadas de este teorema se conocían en la literatura matemática. La respuesta es que no es necesario. fáciles de programar y adquirir. TEORIA DEL MUESTREO UNIFORME DE SEÑALES 5.296 V. pero fue Shannon quien en 1949 lo introdujo en el dominio de la teoría de la comunicación. La frecuencia mínima de muestreo. Cuando estas fotografías se proyectan a esa misma velocidad (24 fotografías por segundo). f s es la frecuencia de muestreo o “Frecuencia de Shannon” y Ts el “Intervalo de Muestreo”. para la cual se verifica que f s = 2 f m . como lo veremos en su oportunidad. ligeros. haciendo referencia principalmente a las Recomendaciones pertinentes de la UIT-T.

45).297 V. La recuperación de x(t) la consideraremos en el siguiente teorema.1) Este tipo de muestreo se conoce con el nombre de “Muestreo Ideal o Muestreo Instantáneo”.1.9. cuya transformada de Fourier o espectro es X(f).1(f). pero sí haremos una demostración que introduce el concepto de muestreo a partir de nociones sencillas ya conocidas. Nótese que para valores de f s < 2 f m . 5. expresión (2. 3. como se muestra en la Fig. X(f) x(t) t (a) 0 p(t) 1 (b) 1 −f m 0 f m P(f) f fs t −4Ts −2T (c) s 0 2Ts 4Ts 6Ts −2f s −f s x s ( t ) = x ( t ) p( t ) 2Ts 4Ts t (d) 0 fs fs X s (f ) 2f s f −4Ts −2Ts (e) 0 0 −f s -B −f m f m B fs 2f s −2f s 6Ts Filtro Pasabajo (f) Fig. f El espectro original de x(t) aparece centrado en el origen y podrá ser recuperado con un filtro pasabajo mientras no se produzca solapamiento con los espectros adyacentes. Una señal muestreada x s (t ) de x(t) se puede considerar como el producto de la señal continua x(t) por un tren de impulsos unitarios de período Ts . y con un factor de escala f s . Sea entonces x(t) una señal continua pasabajo de banda limitada f m . el espectro X s ( f ) de x s ( t ) es X s (f ) = f s ∞ n =−∞ ∑ X(f − nf ) s (5. Del Ejemplo 2. 1949)] está fuera de los objetivos de este texto. es decir. Muestreo Instantáneo en el Dominio del Tiempo. denominado “señal muestradora”. . Shannon.2) Vemos que X s (f ) representa un espectro periódico formado por el desplazamiento de X(f) a las frecuencias ± nf s . los espectros se solaparán y se producirá distorsión en la recuperación de x(t). MODULACION Y TRANSMISION DE IMPULSOS La demostración rigurosa del teorema de Shannon [Teorema 1. x s (t ) = x(t ) ⋅ ∑ n =∞ ∞ δ(t − nTs ) = n =−∞ ∑ x(nT ) ⋅ δ(t − nT ) s s ∞ (5. lo que se verifica si f s ≥ 2 f m .

.5) Esta expresión se ha utilizado para demostrar el Teorema del Muestreo de Shannon.1(f). MODULACION Y TRANSMISION DE IMPULSOS Teorema No 2. de modo que con 2 BTs = 1 y t o = 0. Fig. x r (t) = x(t) = n =−∞ ∑ x(nT )sin c [ 2B(t − nT )] = ∑ x(nT ) s s n =−∞ s ∞ ∞ sen[2πB(t − nTs )] para todo t 2πB(t − nTs ) (5.) centrada en el instante de ocurrencia de la muestra y sumar los términos resultantes. se tiene la “Ecuación de Interpolación de Shannon”.4) nos asegura también que entre los puntos de muestra x r (t ) = x (t ) debido a la forma como se suman las señales sinc(. la señal original x(t) se puede recuperar si se pasa la señal muestreada a través de un filtro pasabajo ideal con un ancho de banda B tal que f m ≤ B ≤ f s − f m ”.).. en cuyo caso x r ( t ) = x( t ) . 5. Recuperación o Interpolación de la Señal Este teorema tiene que ver con la recuperación de la señal original x(t) a partir de su versión muestreada x s (t ). 5. y las muestras se presentan en forma de impulsos cuya área es proporcional a la amplitud de la muestra en un instante dado.1(f). x r (t ) toma los valores de x(t) en los puntos de muestra.3) en el cual debe cumplirse que f m ≤ B ≤ f s − f m . la señal muestreada x s ( t ) se hace pasar por un filtro ideal pasabajo de ancho de banda B y ganancia Ts de la forma H (f ) = Ts Π( f ) exp(− j2 πt o f ) ⇔ h(t) = 2BTs sinc[2 B(t − t o )] 2B x r (t ) = x s (t ) ∗ h(t) s o )] (5. Sea x r (t ) la salida recobrada en el filtro. En la Fig. la cual es cero en los otros puntos de muestra excepto en el propio. entonces ∞ De (5.. 2 Nótese en la Fig.2 que cada muestra produce una señal sinc(.298 V. “Si una señal pasabajo cuya frecuencia máxima es f m ha sido muestreada a una frecuencia igual o mayor que 2f m muestras por segundo. pero nosotros vamos a verificarlo para demostrar algunas relaciones importantes. De donde x r (t ) = n =−∞ ∑ x(nT )δ(t − nT ) ∗ 2BT sinc[2B(t − t s s n =−∞ x r (t) = 2BTs ∑ x(nT )sin c[2B(t − t s ∞ o − nTs )] (5.2 se puede observar fs este proceso de interpolación para B = > f m .3).). . Se efectúa entonces una interpolación y por esa razón la expresión (5.4) Esta expresión indica que hay que tomar cada muestra y multiplicarla por una función sinc(. Para la recuperación de x(t).4) recibe el nombre de “Ecuación de Interpolación”. Pero la interpolación dada por (5. El proceso de recuperación de x(t) es fácil de visualizar en la Fig. 5. Por consiguiente. 5.1) y (5. 2BTs = 1 y t o = 0 . Esto es exactamente lo que sucede cuando las muestras se pasan por un filtro pasabajo ideal de ancho de banda B tal que f m ≤ B ≤ f s − f m .

± 1. .n. si reemplazamos B = f s / 2 = 1 / 2 Ts y t o = 0 en (5. n =−∞ ∑sinc(m) = ⎨0 para ⎩ ∞ ⎧1 para m = 0 ó k = n m≠0 ó k ≠n Por consiguiente. entonces. entonces para cualquier valor de Ts y f m . se tendrá N 1 y el valores o muestras de la señal.. Si se viola la restricción sobre el ancho de banda de x(t). x r ( t ) y x(t) tendrán la forma aproximada mostrada en la Fig.3.6) En el instante kTs . Sin embargo.2. entonces x r (t ) no será igual a x(t). entonces la señal reconstruida xr(t) será exactamente igual a x(t). x r ( t ) = x (kTs ) para k = 0. MODULACION Y TRANSMISION DE IMPULSOS Ts x(t) sinc( t − nTs ) Ts t Fig. En efecto.. Nótese que x r (t ) y x(t) son iguales solamente en los instantes de muestreo.4). x r (t ) y x(t) serán iguales pero solamente en los instantes de muestreo..3. Ts = 2f m número mínimo de muestras necesarias para una buena reconstrucción de la señal x(t) será . la expresión (5. x (t ) x r (t ) t −2Ts −Ts 0 Ts 2Ts 3Ts Fig. Vemos entonces que si f s > 2 f m y B = f s / 2 .299 V.Interpolación Lineal mediante la Señal Sinc(. ± 2. obtenemos x r (t ) = n =−∞ ∑x(nT )sinc( s ∞ t − nTs Ts ) (5. donde m es un entero pues k y n son enteros . A medida que disminuye la frecuencia f m de x(t)..).6) queda en la forma x r ( kTs ) = n =−∞ ∑x(kT )sinc(k − n) = x(kT )∑sinc(k − n) s s n =∞ ∞ ∞ Sea m = k . Si se muestrea periódicamente una señal x(t) durante un tiempo T = NTs . donde k es un entero. podemos demostrar que si B = f s / 2. y x r (t ) aparece como una señal de menor frecuencia que x(t). 5. 5. las curvas se superponen en una sola y x r (t ) = x (t ) para todo t.. 5.). de acuerdo con el teorema de Shannon. De las propiedades de la función sinc(.

MODULACION Y TRANSMISION DE IMPULSOS N = 2f m T (5. podemos aproximar la potencia promedio de x(t) dividiendo Ex por Ts . sin embargo. pero sí deben ser independientes.300 V. expresión (1. por ejemplo. entonces 1 Ts < x 2 (t ) >= 2 n =−∞ ∑∫ ∞ ∞ ⎡ 1 x(t )⎢ ⎣ 2B −∞ ∞ ∫ ⎤ exp[− j2 π (t − nTs )]df ⎥dt ⎦ −B B 1 < x (t ) >= 2BTs n =−∞ ∑ x(nT )∫ ⎡⎢⎣∫ B s −B ⎤ x(t ) exp(− j2 πft )dt ⎥ exp( j2 πnTs f )df ⎦ −∞ ∞ La integral dentro de los corchetes es igual a X(f). es conocida también con el nombre de “dimensionalidad o teorema de la dimensionalidad”. En efecto. Esto es de gran importancia en los sistemas de procesamiento y transmisión de señales digitales. Los valores de muestra.49).5).4) con 2 BTs = 1 y t o = 0 en (5.8) Reemplazando (5. una vez codificados digitalmente. 1 < x (t ) >= Ts 2 ∫ ⎡ ∞ ⎤ x (t )⎢ x(nTs )sinc[2 B(t − nTs )]⎥dt −∞ ⎢ ⎥ ⎣ n =−∞ ⎦ ∞ ∑ 1 < x ( t ) >= Ts 2 n =−∞ ∑ ∞ x( nTs ) x( t )sinc[2 B( t − nTs )]dt −∞ ∫ ∞ Pero de las propiedades de la función sinc(.7) Esta expresión. se pueden almacenar en la memoria de una computadora para posterior reconstrucción o transmisión por un canal. las muestras no necesariamente deben ser periódicas de período Ts. 1 2B ∫ B −B exp[− j2 π (t − nTs )f ]df = sinc[2 B(t − nTs )] .).8). se puede utilizar para determinar una forma del Teorema de Parseval en el caso de señales muestreadas. en sistemas de radar es bien conocido que el producto “tiempo-ancho de banda” de la señal recibida necesita ser muy alto para un mejor comportamiento. expresión (5. El teorema de la dimensionalidad simplemente establece que la información contenida en una señal de banda limitada es proporcional al producto tiempo-ancho de banda. de donde . profundas implicaciones en el diseño y prestaciones de todos los tipos de sistemas de comunicación. < x 2 ( t ) >= Ex 1 = Ts Ts ∫ ∞ −∞ x 2 ( t )dt (5. En rigor. como veremos posteriormente. estudiada por Nyquist.. Teorema de Parseval para Señales Muestreadas La ecuación de interpolación de Shannon. Este sencillo enunciado tiene. la energía de x(t) viene dada por Ex = ∫ ∞ −∞ x 2 ( t )dt Como la potencia es igual a la energía por unidad de tiempo.

. la integral es igual a x( nTs ) . se puede muestrear a una frecuencia mínima f s = 2 f 2 / m . x(t) = x r (t ). Esta expresión la aplicaremos más adelante. 2 2 f2 ≤ fs ≤ f m m−1 1 para m entero y m > 1 (5. es decir. siendo B=|f 2 − f1 | .10) La frecuencia mínima de muestreo se puede expresar entonces en la forma f smin = 2 f 2 / m f donde m = parte entera de ( 2 ). 1975]. Teorema No 3. Por consiguiente. entonces 2 < x 2 (t ) >=< x r (t ) >= n =−∞ ∑x ∞ 2 (nTs ) (5. es decir. y para 2BTs = 2 fm Ts = 1 .10) o que sean mayores que 2 f 2 . Para señales pasabanda existe entonces una relación más general que la condición de Shannon. Sea X s (f ) el espectro de la señal muestreada x s (t ) a una frecuencia de muestreo fs . y sea f1 y f2 los bordes de la banda de paso de X(f).9) es una forma o aplicación del Teorema de Parseval para señales muestreadas. < x 2 ( t ) >= 1 2f m Ts n = −∞ ∑x ∞ 2 ( nTs ) Como X(f) es de banda limitada f m = B . no se produce solapamiento entre los espectros.301 V. MODULACION Y TRANSMISION DE IMPULSOS < x 2 (t ) >= 1 2 BTs n =−∞ ∑ x(nT )∫ s ∞ B −B X (f ) exp( j2 πnTs f )df Como X(f) es de banda limitada f m = B . En la Fig. la integral de la expresión anterior representa a x(t) en los instantes discretos nTs . donde m es la parte entera de la relación f 2 / B”. Valores de frecuencia superiores no son B necesariamente utilizables a menos que ellos cumplan con la condición (5. 5. B =| f 2 − f1 | . Muestreo de Señales Pasabanda “Una señal x(t) pasabanda de ancho de banda B y cuya frecuencia más alta es f2 . Los valores permitidos de fs se pueden representar en forma gráfica a partir del siguiente desarrollo.10). De (5.9) La expresión (5.4 se muestra el espectro X s (f ) de x s (t ) en el cual. aunque f s < 2 f 2 . en la cual la frecuencia de muestreo puede tomar los valores [Hoffmann.

entonces B = 5 kHz.12) Graficando fs vs f2 en unidades de ancho de banda B. 5.11) Si consideramos fs como la frecuencia mínima de muestreo (convirtiendo la desigualdad (5. la frecuencia de muestreo debe ser como mínimo igual a 2B.1 Consideremos una señal de audio que ha sido pasada por un filtro pasabajo ideal de ancho de banda B = 5 kHz. ♣ . su valor máximo será 4B.302 V.11) en una igualdad). es decir. Vemos que las frecuencias de muestreo siguen siendo iguales. 5.5. m = 1 y la frecuencia mínima de muestreo será de 19998 muestras por segundo. como se muestra en las líneas a trazos en la Fig. Para especificar esta señal sin ninguna distorsión.999 kHz . se obtiene la relación 2 f s = ( )f 2 m (5. entonces la frecuencia de muestreo mínima tiende a 2B. En el primer caso se emplea una frecuencia de muestreo que es dos veces el ancho de banda de la señal. si la gama de frecuencias se hubiese extendido desde f1 = 4. Pero si la señal está desplazada en frecuencia de tal manera que la banda de paso se extiende desde f1 = 5 kHz hasta f 2 = 10 kHz . fs 3B 2B B B 2B 3B 4B 5B 6B f Frecuencia Máxima de la Señal.999 kHz hasta f 2 = 9. 5. 4.5. m = 2. se obtiene el gráfico de la Fig. y del Teorema No 3 la frecuencia mínima de muestreo será de 104 muestras por segundo. se puede utilizar un filtro pasabanda. Si f 2 >> B . casi 4B muestras por segundo. Frecuencia Mínima de Muestreo Pasabanda En cuanto a la reconstrucción de la señal original a partir de su forma muestreada. 4B Frecuencia Mínima de Muestreo. La frecuencia de muestreo mínima permitida depende entonces de la relación f 2 / B . asimismo.5. Sin embargo. 5. Por consiguiente. ♣ Ejemplo 5. que son los límites de la frecuencia mínima de muestreo y que están ilustrados en la Fig. mientras que en el segundo caso se obtuvo una frecuencia de muestreo de aproximadamente cuatro veces el ancho de banda. entonces B = 5 kHz. MODULACION Y TRANSMISION DE IMPULSOS fs ≥ 2f 2 m (5. la frecuencia mínima de muestreo de señales pasabanda estará siempre entre 2B y 4B. es decir. f 2 Fig. 104 muestras por segundo. donde B es el ancho de banda de la señal.

6. la señal x(t) (y por supuesto. v(t)” que es el dual del filtro pasabajo definido en (5. La expresión (5.2). En este caso.15) > 2 Tm .14) es el dual de la expresión (5.16) . el muestreo puede también concebirse en el dominio de la frecuencia aunque no es tan directamente perceptible como lo es el muestreo en el dominio del tiempo. En este caso v (t ) = fo Π( t 1 / fo ) y x(t) = ~ ⋅ v(t) x(t) (5. Tm ) . con 1 (5. 5.1) y (5.6 (b) y (f).14) siendo fo el intervalo de muestreo en frecuencia. y ~ X(f ) el espectro muestreado de X(f). En el dominio de la frecuencia. A este efecto. 5. ~ (5.303 V. como se muestra en la Fig. 2Tm Para verificar este enunciado. Sea entonces X(f) el espectro de una señal x(t) limitada en el tiempo. entonces X(f) se puede determinar unívocamente especificando sus valores en una serie de puntos 1 separados cada Hz”. vamos a presentar el dual del Teorema No 1. x Si x(t) es limitada en el tiempo de la forma x ( t ) = 0 para |t|> Tm entonces. MODULACION Y TRANSMISION DE IMPULSOS Muestreo en el Dominio de la Frecuencia Los teoremas anteriores han sido desarrollados para el muestreo en el dominio del tiempo de señales de banda limitada. ~ consistirá de réplicas periódicas de x(t) fo x(t) separadas en múltiplos de To = 1 / f o . Fig.3). En el procesamiento de señales digitales se presenta el caso del muestreo en frecuencia cuando se trata de determinar numéricamente la Transformada de Fourier (Transformada de Fourier Discreta (DTF) y la Transformada de Fourier Rápida (FFT)) y en el análisis de imágenes y de voz. en el cual una señal limitada en el tiempo se puede representar y reconstruir a partir de sus muestras en el dominio de la frecuencia. Sin embargo.2) y x(t) es la señal generatriz de una señal periódica ~ (t ) . consideremos el dual en el dominio de la frecuencia de las expresiones (5.13) X( f ) = X( f ) ⋅ P ( f ) donde P (f ) = n =−∞ ∑ δ(f − nf ) ⇔ p(t) = f ∑ δ(t − fn ) 1 o o n =−∞ o ∞ ∞ y en el dominio del tiempo. su transformada X(f)) se puede recuperar mediante el empleo de lo que se denomina “ventana temporal de ponderación. Teorema No 4 “Si X(f) es el espectro de frecuencias de una señal x(t) limitada en el intervalo (− Tm . ~ (t ) = x (t ) ∗ p(t) = 1 x fo n =−∞ ∑ x(t − fn ) o ∞ (5.

como puede observarse en la Fig. 2.5). ~ X(f ) = X(f ) ∗ V(f) (5. como se muestra en la Fig. Muestreo en el Dominio de la Frecuencia > 2 Tm no se cumple. si la señal es periódica. 5.16).. Si la desigualdad Mediante analogía con la interpolación en el dominio del tiempo.17) donde ~ X( f ) = ∞ 1 por consiguiente. El Osciloscopio de Muestreo A menudo es necesario observar en un osciloscopio señales que varían mucho más rápido que el tiempo de alzada del osciloscopio y por lo tanto la observación no es posible. entonces las réplicas de x(t) se solaparán y x(t) fo x no podrá recuperarse a partir de ~ ( t ) . El desarrollo anterior se ha efectuado para señales limitadas en el tiempo centradas en el origen. la función sinc(.18) es el dual de (5.6(f). En particular. cuyo principio de funcionamiento veremos a continuación.304 V. como lo era para muestras en el dominio del tiempo de una señal limitada en frecuencia. El principio del Osciloscopio de Muestreo.6. n =−∞ ∑X(nf o ∞ o )δ(f − nf o ) y V(f) = sinc( f ) fo (5.) permite la interpolación exacta entre muestras en el dominio de la frecuencia para una señal limitada en el tiempo. 5. la recuperación de x(t) utilizando la ventana temporal se puede interpretar como una interpolación en el dominio de la frecuencia. de (5. el resultado deseado se puede obtener indirectamente utilizando el Osciloscopio de Muestreo. Sin embargo. ♣ Ejemplo 5. pero los resultados se pueden aplicar para cualquiera señal que exista en cualquier intervalo finito de duración 2Tm . MODULACION Y TRANSMISION DE IMPULSOS X(f) x(t) (a) −4fo −2fo 0 P(f) 1 0 f f (b) −2 / fo −1/ fo −Tm 0 1/ fo Tm p(t) 1/ fo t 2 / fo t (c) 2fo 4fo ~ X( f ) (d) ~ f o x (t ) 0 Ventana −4fo −2fo (e) 0 2fo 4fo f −1/ fo −Tm 0 Tm 1/ fo (f) −1 / 2f o 1 / 2f o 2 / fo t Fig. En efecto.18) X(f ) = n = −∞ ∑ X(nf )sin c( ∞ f − nf o sen[π(f − nf o ) / f o ] para todo f ) = ∑ X(nf o ) fo π(f − nf o ) / f o n =−∞ La expresión (5.7. 5. consiste en muestrear la señal rápida x(t) una vez cada período pero en diferentes puntos en los períodos .

Para efectos ilustrativos en la Fig. 5. como se muestra en la Fig.7. su salida y(t) será proporcional a la señal rápida original x(t) pero expandida en el t tiempo. entonces la frecuencia de muestreo del osciloscopio será f s = 1/ ( T + ∆t ). Si el tren de impulsos resultantes y s (t ) se pasa por un filtro interpolador pasabajo apropiado. El incremento ∆t . a = 6. La señal y(t) se obtiene pasando y s ( t ) por un filtro pasabajo interpolador de ancho de banda B = f s / 2 . entonces fs = 1 1 . ∆t = con ∆t (1 + a ) f s (1 + a ) 1 1 < fs < 2a∆t a∆t Nótese que en la pantalla del osciloscopio aparece solamente y s ( t ). De la Fig. MODULACION Y TRANSMISION DE IMPULSOS sucesivos. pero ella nos proporciona los valores de Ty y Ts . con ∆t tal que T = a∆t. Por ejemplo. podemos conocer también el período de la señal desconocida x(t) puesto que T = a∆t . Fig. cada período de x(t) a tiene el mismo perfil que el de y(t). T >> ∆t . 5.8(a) donde la señal periódica p(t) tiene la forma mostrada en (b). f Sea x(t ) = 5 ⋅ sinc 2 (5x103 t ) ⇔ X(f) = 10-3 Λ ( ).7.305 V. de modo que. es decir. Esto nos permite obtener a = Ty / Ts y ∆t = Ts / (1 + a ) . de donde fm = 5x103 Hz. Las señales y(t ) y x(t) tienen el mismo perfil. 5.7. 5.7. y(t) será proporcional a x( ) cuando a >> 1. si T es el período de x(t). pero en la práctica este valor es mucho mayor. 5. pero se diferencia en el factor de expansión a. 5x103 Vamos a determinar X s (f ) cuando el muestreo se efectúa a la frecuencia de Nyquist.3 Sea el sistema de la Fig. una vez determinados los valores de a y ∆t . Se desea calcular la salida y(t) del filtro pasabajo. debe ser un intervalo elegido apropiadamente según el ancho de banda de x(t). pero como Ty = aTs . La frecuencia de muestreo de Nyquist es f s = 2 f m = 10 4 Hz = 10 kHz . es decir. ♣ ♣ Ejemplo 5.

En efecto.∞ 5x103 ⎪0 para n par ⎩ ∑ El espectro X s ( f ) tiene la forma mostrada en la Fig. f s = 2T Pn = 1 [1 − exp( − j2πTf )] |f = n = 1 [1 − exp( − jnπ)] = 1 para n impar y n ≠ 0. También. MODULACION Y TRANSMISION DE IMPULSOS p(t) x(t) (a) x s (t ) p(t) oooo -35 Filtro Pasabajo y(t) -3T oooo -2 20 -T 0 1 -1 T 2T 3T B = 5 kHz Filtro X s ( t ) (b) oooo t 4 oooo -30 -25 (c) -15 -10 -5 0 Fig. ∞ ⎧ f . la función generatriz g(t) de p(t) es g(t ) = δ(t ) − δ(t − T) ⇔ G(f) = 1. De (1. 5.exp(-j2πTf) 1 = 10 kHz. La salida del filtro pasabajo es cero. la señal original podrá recuperarse a partir de su versión muestreada solamente si la señal muestreadora contiene una componente continua. X s (f ) será entonces. ♣ . 5.8 5 10 15 25 kHz 30 35 f De la Fig.103). T 2T 2T 2T ⎧1 ∞ ⎫ n δ(f − ) para n impar y n ≠ 0⎪ ⎪ P(f ) = ⎨ T n = −∞ 2T ⎬ ⎪0 ⎪ para n par ⎩ ⎭ Entonces. T = 5x10 -5 seg.104 n Λ( ) para n impar y n ≠ 0 20 ⎪ X s (f ) = X (f ) ∗ P(f) = ⎨ n = . p( t ) = n = −∞ ∑ (−1) ∞ n δ( t − nT ) El espectro P(f) de p(t) se puede determinar siguiendo el mismo procedimiento del Ejemplo 1. 5.8(c).306 V. ∑ Obsérvese que P(f) no contiene una componente en el origen (cero componente continua) y por lo tanto p(t) no podrá utilizarse para el muestreo de señales pasabajo. Nótese que.8(b).28. en general.

f2 = 5. ♣ 5.3.5 → m = 5 B fs = 2 f2 2 x55 = = 22 kHz m 5 El espectro X s ( f ) es el espectro X(f) trasladado a las frecuencias ±n22 kHz .4 Sea x ( t ) = 10sinc 2 (5x10 3 t ) cos(10 5 πt ) .9(b). f 2 = 55 kHz. como se muestra en la Fig. La señal original x(t) se puede recuperar mediante un filtro ideal pasabanda centrado en f = 50 kHz y de ancho de banda B = 10 kHz. a menudo las señales están limitadas en el tiempo y por lo tanto no son de banda limitada como lo exige el teorema de Shannon. de donde B = 10 kHz. X(f) (a) -55 -50 -45 0 10 − 3 Filtro kHz f X s (f ) 45 50 55 -38 -33 -28 -22 -16 -11 0 -6 -1 1 f 6 11 16 22 28 33 38 44 50 55 (b) Fig. 5. MODULACION Y TRANSMISION DE IMPULSOS ♣ Ejemplo 5. los cuales consideraremos a continuación. La distorsión producida por los circuitos reales de muestreo la trataremos en la próxima sección.307 V. de fácil realización física. Pero en la práctica la situación es diferente: los impulsos de muestreo tienen una duración distinta de cero y los filtros interpoladores distan de ser ideales.9(a). 5. x ( t ) ⇔ X(f) = 10 -3 ⎢ Λ ( ) + Λ( )⎥ 5x10 3 5x10 3 ⎦ ⎣ El espectro X(f) se muestra en la Fig.2. .9 kHz 60 ⎡ f + 5x10 4 f − 5x10 4 ⎤ Del teorema de la modulación. Un mejor conocimiento físico e intuitivo de los mecanismos y teoremas del muestreo se puede obtener si se considera circuitos reales. una señal que vamos a muestrear y recuperar. Dependiendo del uso que se hace de la señal muestreada. 5. se pueden distinguir dos casos de muestreo práctico: el “muestreo natural” y el “muestreo con retención”. Muestreo Práctico de Señales Pasabajo En la sección anterior vimos que una señal se podía transmitir y recuperar si se muestreaba de manera instantánea y se recobraba mediante un filtro ideal. Por otro lado.

5.71) y (1. x(t) x s (t ) Filtro x r (t ) Pasabajo s(t) 1 Ts τs t Muestreador s(t) (a) Muestreador Real x(t) 0 (b) Señal Muestreadora s(t) X(f) 1 0 x s (t ) x(t) τs t (c) Filtro t Xs ( f ) −fm 0 (d) fm f Ts τ s f s sinc(τ s f ) (e) Señal Muestreada x s (t ) 1/ τ s -B −fm 0 fm B 3f s 4f s 5f s f fs 2f s (f) Espectro de la Señal Muestreada para Ts = 2τ s Fig. Esta “multiplicación” generalmente se instrumenta con una compuerta analógica (por ejemplo. Muestreo Natural de Señales Pasabajo La señal muestreada. ∞ X s (f ) = X(f ) ∗ S(f) s s s de donde X s (f ) = τ s f s ∑ sinc(nτ f )X(f − nf ) (5.20) Del teorema de convolución. pero a diferencia del muestreo ideal. del espectro X(f) de la señal original.10(e). Fig.10(a). cuya transformada de Fourier es.19) donde s(t) es una señal periódica rectangular. de (1.10(b). 5. 5. la cual deja pasar la señal cuando la señal muestreadora está en “ALTO” e impide el paso cuando está en “BAJO”.10(f). período igual al intervalo de Shannon y valor promedio distinto de cero. 5. el muestreo debe ser realizado necesariamente con impulsos de amplitud finita y duración distinta de cero. El espectro X s (f ) de la señal muestreada x s ( t ) es la repetición periódica.308 V. un MOSFET cualquiera).10. a las frecuencias ±nf s. Fig.105). 5. como se muestra en la Fig. S( f ) = τ s f s n =−∞ ∑sinc(nτ f )δ(f − nf ) s s s n =−∞ ∞ (5. como se muestra en la Fig. El muestreo natural equivale a multiplicar la señal original por una señal muestreadora periódica rectangular de amplitud unitaria. MODULACION Y TRANSMISION DE IMPULSOS Muestreo Natural En la práctica. tiene la forma x s (t ) = x (t ) ⋅ s(t ) (5. los espectros están .21) ponderados por un factor de escala decreciente con nfs que es [ τ s f s sinc(nτ s f s )] .

Potencia de una Señal Muestreada Natural Consideremos la señal muestreada xs(t) dada por (5. Para recuperar x(t). Puesto que s(t) es periódica. ♣ Ejemplo 5. no se produce distorsión: x(t) se puede recuperar de xs(t) independientemente del valor de τ s (pues. τ s < Ts ). ella puede desarrollarse en serie de Fourier. de (1. los términos de la expresión anterior no se solaparán en el dominio de la frecuencia y la potencia promedio de xs(t) será la suma de las potencias de cada uno de los términos. 5. < x 2 (t ) >=| S o |2 < x 2 (t ) > +2| S1 |2 < x 2 (t ) > +2| S 2 |2 < x 2 (t ) > + ⋅ ⋅ ⋅ ⋅ ⋅ s < x 2 (t ) >=< x 2 (t ) > | S o |2 +2| S1 |2 +2| S 2 |2 + ⋅ ⋅ ⋅ ⋅ s [ ] . el cual se puede determinar fácilmente si g(t) es conocida gráfica o analíticamente.309 V. Nótese que si La forma del espectro de la señal muestreada de la Fig. Esto es más cierto por cuanto los circuitos eléctrónicos de conmutación no producen impulsos perfectamente rectangulares. Nótese que la ganancia del filtro interpolador en el caso de muestreo ideal. Fig. En este caso.10(f) sugiere la posibilidad de que se pueda muestrear una señal utilizando cualquiera señal periódica de período Ts que cumpla con el teorema de Shannon. entonces. Consideremos entonces una señal periódica g Ts ( t ) cuya señal generatriz g(t) tiene cualquier perfil. Nótese también que pese a que el muestreo no es instantáneo.5. La señal muestreada será x s ( t ) = x ( t ) ⋅ g Ts (t) ⇔ X s (f ) = X(f ) ∗ G Ts (f ) donde g Ts (t ) = n =−∞ ∑g(t − nT ) s ∞ y g(t) ⇔ G(f) G Ts (f ) = f s n =−∞ ∑ G (nf )δ(f − nf ) s s ∞ y X s (f ) = f s n =−∞ ∑G (nf )X(f − nf ) s s ∞ Esta expresión para Xs(f) tiene la misma forma que (5. MODULACION Y TRANSMISION DE IMPULSOS Ts 1 = es un número entero.47).21) pero el factor de ponderación es f sG (nf s ) . es Ts. Se puede decir entonces que una señal periódica cualquiera se puede utilizar para muestrear una señal de banda limitada B siempre que (a) su período Ts cumpla con el teorema de Shannon.19) donde s(t) es una señal periódica rectangular de amplitud unitaria y ciclo de trabajo τ/Ts . por definición.3). entonces a las frecuencias nfs múltiplos de τ sfs τ s 1 / τ s las correspondientes componentes de Xs(f) serán cero.10(b). siempre que Ts cumpla con el teorema de Shannon. expresión (5. x s (t ) = x(t ) ⋅ s(t ) = x (t ) n =−∞ ∑| S |cos(2πnf t + φ n s ∞ n) x s (t ) =|So | x(t ) + 2|S1| x (t ) cos(2πfst + φ 1 ) + 2| S2 | x(t ) cos(4πfst + φ 2 ) + ⋅ ⋅ ⋅ ⋅ ⋅ Si x(t) es de banda limitada f m y f s ≥ 2 f m . 5. la señal muestreada xs(t) se pasa por un filtro interpolador de la forma H (f ) = (Ts / τ s )Π (f / 2 B) cuya ganancia es Ts/τs . y (b) que la señal periódica contenga una componente continua (Ver Ejemplo 5.3).

11.310 V. < x 2 (t ) >=< x 2 (t ) > ⋅ < s2 (t ) > s Pero < s2 (t ) >= 1 Ts ∫ dt = Tτ τ 0 s La potencia promedio de una señal muestreada en forma natural es < x 2 (t ) >= ( s τ ) < x 2 (t ) > Ts (5. MODULACION Y TRANSMISION DE IMPULSOS Pero la cantidad dentro de los corchetes es. entonces. 5. Esta operación se denomina “Muestreo con Retención (Sample and Hold)” o “Muestreo de Topes Planos”. por ejemplo un codificador.11 (a) y (b) se muestran las dos formas típicas de una señal muestreada con retención: “Con Retorno a Cero (RZ)” y “Sin Retorno a Cero (NRZ)”. que la expresión (5. 5. x(t) x s (t ) t 0 τ h = Ts Ts (b) Señal Muestreada NRZ X(f) 1 x s (t ) (e) C f t 0 τh (a) Señal Muestreada RZ Ts x(t) x s (t ) x(t) (c) p(t) x i (t ) h(t) X s (f ) (d) p(t) −f m 0 fm (e) τ h f s sinc( τ h f ) 1/ τh 2f s fs −f s −f m 0 f m 3f s Ts = 3τ h (f) Espectro de la Señal Muestreada para Fig. sin demostrarlo.22) Diremos. Con el muestreo natural la amplitud de las muestras varía en el intervalo τs y el sistema. ♣ Muestreo con Retención Algunas veces es necesario disponer de los valores instantáneos de una señal en los instantes de muestreo nTs para poderlos procesar o codificar. no sabría cuál es el valor exacto de x(nTs). Muestreo con Retención 4f s f . Esta situación se resuelve manteniendo o reteniendo los valores instantáneos x(nTs) durante un tiempo apropiado. del Teorema de Parseval. la potencia promedio de la señal periódica s(t). En la Fig. por ejemplo).22) es válida también cuando x(t) es una señal aleatoria pasabajo (ruido.

el muestreo con retención se puede visualizar como una señal muestreada instantáneamente aplicada a un sistema lineal invariante en el tiempo de respuesta impulsional h(t). x s (t ) = ⎢ τh ⎢ n =−∞ ⎥ ⎣ ⎦ ∑ x s (t ) = n =−∞ ∑ x(nT ) ⋅ Π( s ∞ t − τ h / 2 − nTs ) τh ∞ (5. por ejemplo.25) En el caso de muestreo con retorno a cero (RZ). si se trata de codificar una muestra x(kTs).11(c). Esta distorsión en el espectro muestreado hace que la interpolación o recuperación exacta de x(t) no sea posible con un filtro pasabajo. de (5.27) En la Fig. . Por otra parte. La duración de τ h depende de la utilización que se haga de la señal muestreada.24) ⎡ ∞ ⎤ X s (f ) = X i (f ) ⋅ H (f ) = [X (f ) ∗ P(f)] ⋅ H (f ) = ⎢f s X (f − nf s )⎥ ⋅ H (f ) ⎣ n =−∞ ⎦ ∑ El sistema lineal en cuestión es el circuito de retención (zero-order hold) visto en el Ejemplo 2. τ h se denomina “tiempo de retención”. debe verificarse entonces que t c ≤ τ h . Si el muestreo es sin retorno a cero (NRZ).26) cuya transformada de Fourier es. MODULACION Y TRANSMISION DE IMPULSOS Para propósito de análisis.23) (5.311 V.1) y (5. s n = −∞ ∞ n = −∞ ∑ x ( nTs )δ( t − nTs ) ⇔ X i (f ) = X (f ) * P(f ) = f s ∑ X(f − nf ) s ∞ (5. el efecto del tiempo de retención τ h se refleja en H(f) produciendo ceros a las frecuencias k / τ h . Si t c es el tiempo de conversión del codificador. 5. entonces. ⎡ ∞ ⎤ t -τh / 2 x(nTs ) ⋅ δ (t − nTs )⎥ ∗ Π ( ) De (5. El tiempo de conversión generalmente es un parámetro dado por los fabricantes de los codificadores. En la próxima sección veremos esto con más detalle. τ h < Ts . como se muestra en la Fig. El efecto de apertura se puede disminuir haciendo τ h más pequeño y puede ser eliminado mediante una red ecualizadora.17 y para el cual h(t) = Π( t − τh / 2 ) ⇔ H(f) = τ h sinc(τ h f ) ⋅ exp(− jπτh f ) τh (5.11(f) se muestra Xs(f) cuando τ h = Ts / 3. Esta distorsión se conoce con el nombre de “efecto de apertura” y es una distorsión de tipo lineal. simplemente se reemplaza τ h por Ts . Puesto que p( t ) = x i ( t ) = x ( t ) ⋅ p( t ) = ∞ n = −∞ ∑ ∞ δ( t − nTs ) ⇔ P(f ) = f s n = −∞ ∑ δ(f − nf ) .23). X s (f ) = τ h f s sinc(τ h f ) exp(− jπτ h f ) n =−∞ ∑ X(f − nf ) s (5. el tiempo τ h deberá ser lo suficientemente largo para que se pueda efectuar la codificación. Las réplicas de X(f) tendrán distorsión de amplitud: simétrica en el origen y asimétrica en las frecuencias nfs.24). 5. Nótese que si f s < 2 f m se produce solapamiento.

Fig. el capacitor tratará de descargarse sobre la impedancia de salida. Fig. pero por otro lado el circuito se complica porque hay que agregar una compuerta adicional que descarga a cero al capacitor. como se muestra en la Fig. suponemos que La potencia promedio de xs(t) es simplemente la suma de la potencia de cada uno de los infinitos impulsos de amplitud [ A + x(nTs )] .11(d). Entonces. por un lado disminuye la distorsión por efecto de apertura. _ _ + C x(t) x s (t ) x(t) (b) R1 R2 C _ + + x s (t ) (a) s(t) s(t) Fig.312 V. 5.12. MODULACION Y TRANSMISION DE IMPULSOS El muestreo con retención se realiza en la práctica agregando un capacitor a la salida de una compuerta analógica. Potencia de una Señal Muestreada con Retención Consideremos una señal muestreada con retención a la cual se le ha agregado una componente continua a fin de que la amplitud de los impulsos sea siempre positiva (> 0). El valor de la capacitancia utilizada en una aplicación dada se elige generalmente mediante un compromiso entre la minimización de la constante de tiempo de carga y la maximización de la constante de tiempo de descarga o de fuga.13. . Los circuitos muestreadores prácticos difieren de los ideales en que mientras la compuerta permanece cerrada. 5.13. sobretodo si la salida es sin retorno a cero (NRZ).6. En particular. cuando la compuerta abre. En la Fig. el circuito mostrado en (a) se utiliza cuando se necesita una alta impedancia para la señal de entrada x(t) y una baja impedancia para la carga y descarga del capacitor C. duración τ y período Ts . 5. Asimismo. < x(t ) >= 0 . Esta señal muestreada. pues. lo que hace que el voltaje en el capacitor no alcance exactamente el valor x(nTs). El capacitor se carga cuando s(t) está en “ALTO” y mantiene ese valor cuando s(t) está en “BAJO”. 5.12 se muestra algunos muestreadores con retención usados en nuestro laboratorio. Señal Muestreada con Retención. la cual debe ser lo más alta posible. 5. La situación se simplifica un poco si la salida es con retorno a cero (RZ). Muestreadores con Retención. 5.13. para no hablar del aumento en el ancho de banda. (n − 1) Ts nTs (n + 1) Ts Fig. ♣ Ejemplo 5. la corriente de carga del capacitor está limitada por la resistencia combinada de la compuerta y de la impedancia de salida de la fuente. se puede representar en la forma x s (t ) = n =−∞ ∑ [ A + x(nT )]Π( s ∞ t − nTs ) τ x s (t ) x(t) A + x (nTs ) τ Ts t donde [ A + x (t )] > 0 .

n =−∞ ∑x ∞ 2 (nTs ) =< x 2 (t ) > La potencia promedio de la señal muestreada con retención será entonces τ 2 τ τ A + < x 2 (t ) >= A 2 + < x 2 (t ) > (5. reduce la potencia de la señal de entrada en un factor τ/Ts. igual que el muestreo natural.7 < x 2 (t ) >= s [ ] Consideremos el muestreador con retención de la Fig. puesto que τ < Ts.19) y (5. Vamos a determinar el espectro Xs (f) de la señal muestreada y dibujarla para algunos valores numéricos.11(c) donde p(t) es un tren de impulsos rectangulares de amplitud unitaria. entonces n=-∞ ∑ x(nT ) = 0. 5. MODULACION Y TRANSMISION DE IMPULSOS < x 2 (t ) s 1 >= Ts n =−∞ ∑∫ ∞ 1 [ A + x(nTs )] dt = T 0 s 2 τ ⎡ 2 ⎢A n =−∞⎣ ∑ ∞ ∞ ∫ τ 0 dt + 2Ax (nTs ) ∫ τ 0 τ ⎤ dt + x 2 (nTs ) dt ⎥ 0 ⎦ ∫ τ 2 2 Aτ = A + Ts Ts n =−∞ ∑ ∞ τ x(nTs) + Ts ∞ n =−∞ s ∑x 2 (nTs ) y de la expresión (5. con x (t ) = 2 Asinc(2 Bt ) ⇔ X(f) = A f Π( ) B 2B y h (t ) = Π ( t − τh / 2 ) ⇔ H(f) = τ h sinc(τ h f ) exp(− jπτ h f ) τh x s (t ) = x 1 (t ) ∗ h(t) donde ∞ Tenemos entonces que De (5.28) Ts Ts Ts τ < x 2 (t ) >= < x 2 (t ) > y si A = 0. la potencia de la señal muestreada tiende en promedio a la potencia de la señal sin muestrear. período Ts y duración τs .313 V. ♣ ♣ Ejemplo 5.29) s Ts La potencia de la señal muestreada con retención es igual a τ/Ts veces la potencia de la señal original.9). (5.21). x 1 (t ) = x(t ) ⋅ p(t ) f − nf s ) 2B X 1 (f ) = τ s f s n =−∞ ∑ sinc(nτ f ) B Π( A s s pero ∞ Aτ h τ s f s ⎡ f − nf s ⎤ ⎢ X s (f ) = X 1 (f ) ⋅ H (f ) = sinc(nτ s f s )Π ( )⎥ sinc(τ h f ) exp(− jπτ h f ) 2B ⎥ B ⎢ n =−∞ ⎣ ⎦ ∑ X s (f ) = Aτ h τ s f s exp(− jπτ h f )sinc(τ h f ) B n =−∞ ∑ sinc(nτ f )Π( s s ∞ f − nf s ) 2B . Puesto que < x(t ) >= 0. Si el muestreo es NRZ. El muestreo con retención.

14 kHz ♣ 5. Distorsión producida por el Muestreo En el proceso de muestreo y reconstrucción de una señal se producen varias formas de distorsión. y los siguientes valores numéricos: A = 10 V.4.5x10 −6 seg La expresión para Xs(f) será ∞ ⎧ f (−1) ( n −1)/ 2 f − 2 x10 4 n ⎪12 . amplitud solamente.314 V.5x10 −9 exp(− j12.14(b) se muestra la forma del espectro Xs(f).5x10 −6 f )sinc( ) ) n impar Π( ⎪ X s (f ) = ⎨ nπ 8x10 4 n =−∞ 10 4 ⎪ ⎪0 para n par y n = 0 ⎩ ∑ En la Fig. Vamos a ver con algún detalle cada tipo de distorsión señalando sus causas y mostrando los medios para evitarla o eliminarla. 5. MODULACION Y TRANSMISION DE IMPULSOS Este es el espectro Xs(f) de la señal muestreada xs(t). τ h = 12. .2. vamos a suponer una frecuencia de muestreo del doble de la de Nyquist. 5. Ts = τ s = 25x10 −6 seg. X 1 (f ) (a) H(f) sinc(n/2) -60 -40 -20 0 20 40 60 80 100 -80 f Xs(f) kHz (b) f -80 -60 -40 -20 0 20 40 60 80 100 Fig. f s = 4 f m = 4 B = 20 kHz. algunas de las cuales pueden ser eliminadas mediante filtros ecualizadores apropiados. 4 B = 5 kHz 1 = 50x10 -6 seg. Los tres tipos de distorsión presentes en el muestreo son la “Distorsión de Solapamiento (Aliasing)”. Para dibujar su amplitud. fs Calculemos: f m = B = 5 kHz. la “Distorsión de Interpolación” y la “Distorsión por Efecto de Apertura”. τ s = Ts . 2 τh = Ts .

.315 V. método utilizado para preservar la privacidad de las conversaciones telefónicas. En el Problema de Aplicación 5. Esto se muestra en la Fig. al recuperarse mediante un filtro de ancho de banda de 60 Hz aparecerá una componente de frecuencia de 40 Hz no presente en la señal original. la práctica usual es la de filtrar previamente la señal a una frecuencia del 35% al 40% de la frecuencia de muestreo a fin de asegurarse que no hay componentes significativas más allá de fs/2. Distorsión de Interpolación Para la recuperación de la señal original siempre hemos supuesto filtros ideales con bordes abruptos en las frecuencias de corte.10 se cuantifica el efecto de la distorsión de solapamiento. Las componentes de frecuencia que se reflejan o invierten hacia las bajas frecuencias se denominan “frecuencias de solapamiento (folding frequencies)”. La eliminación de las componentes en la parte alta de la gama de la señal degrada la fidelidad de la transmisión hasta cierto punto. Sin embargo.16. La distorsión de solapamiento hace que componentes de frecuencia superiores a fs/2 sean reflejadas hacia las frecuencias bajas por debajo de f s / 2 . como se muestra en la Fig. MODULACION Y TRANSMISION DE IMPULSOS Distorsión de Solapamiento (Aliasing) En la práctica las señales no son estrictamente limitadas en banda y al muestrearse a las frecuencias usuales se produce solapamiento entre espectros adyacentes. 5. si una señal sinusoidal de 60 Hz se muestrea a 100 muestras por segundo. y ellas afectan seriamente la inteligibilidad de las señales de voz en los sistemas telefónicos. pero el efecto de la pérdida de inteligibilidad es mucho menor que si se permitiera el solapamiento. Por ejemplo.15. 5. este efecto de inversión se puede utilizar acentuándolo para efectuar la inversión completa del espectro. Pero los filtros prácticos no poseen esas características y una cierta cantidad de la energía de los espectros adyacentes puede pasar a la salida. en la telefonía digital las señales de voz se filtran a 3200 Hz antes de ser muestreadas a 8000 muestras por segundo. Como ejemplo. Para eliminar el efecto de las frecuencias de solapamiento.

12 se cuantifica el efecto de la distorsión de interpolación.18. Filtro Compensador del En la práctica se puede omitir entonces el filtro Efecto de Apertura.30) donde B es el ancho de banda del filtro de interpolación H I (f ) . MODULACION Y TRANSMISION DE IMPULSOS Nótese que aunque la señal original es estrictamente de banda limitada y la frecuencia de muestreo cumple con el teorema de Shannon. Ts ó Ts ≥ 4τ h . Compensación del Efecto de Apertura. la efecto. ecualizador cuando τ h ≤ 4 . o también. x(t) H(f) Red de p(t) Retención x s (t ) x s (t ) H I (f ) H e (f ) x r (t ) Enlace o Canal Filtro Filtro Interpolador Ecualizador Fig. 5. Como éste es un tipo de distorsión lineal. H e (f ) = 1 para |f| ≤ B H (f ) 1 H e (f ) = para |f| ≤ B τh sin c(τh f ) (5. En el Problema de Aplicación 5. Esta distorsión es producida por el producto de los espectros desplazados por la función de transferencia H (f ) = τ h sinc(τ h f ) . La distorsión de interpolación se puede eliminar mediante un diseño apropiado de los filtros. H e (f ) debe tener la forma aproximada mostrada en la Fig. Fig. Entonces.316 V. En 1/ τ h τh 1 ≤ . Este proceso se muestra en la Fig.11 y 5. 5.14. El efecto de la distorsión de interpolación es la aparición de un silbido o “pito” de alta frecuencia en la señal recuperada. Distorsión por Efecto de Apertura El efecto de apertura es una forma de distorsión de amplitud propia del muestreo con retención. sucede que mientras Ts 4 f máxima diferencia entre la salida ideal X(f) y la -B 0 B salida Xs(f) para | f | ≤ B = f m es menor del 3%. las colas del filtro permiten el paso de componentes de frecuencia de espectros adyacentes. La función de transferencia He(f) del filtro ecualizador debe ser el inverso de H(f) para que se cancelen los efectos de la distorsión de apertura sobre la amplitud de la señal recuperada.18.17. la variación He(f) 1/H(f) de H(f) para | f | ≤ B puede ser despreciable y el He(B) filtro ecualizador puede no ser necesario. 5. tales como los filtros Butterworth de tercer o cuarto orden. 5. Nótese que si el tiempo de retención τ h es lo suficientemente pequeño. tanto xs(t) como la salida del filtro de interpolación se pueden procesar en un filtro ecualizador He(f) que cancele el efecto de H(f). 5.17. como se puede apreciar en las Figs.

2. y que esta operación fuera reversible. 3. La “Modulación de Amplitud de Impulsos (Pulse-Amplitude Modulation. El período y la amplitud de los impulsos no cambian. (a) Ts m(t) t (b) PAM t (c) PDM t (d) PPM Fig. La amplitud y la duración de los impulsos no cambian. de todo el ancho de banda del canal pero sólo lo ocupa durante parte de un intervalo Ts. puede transmitirse y en el destino se le puede extraer la información contenida en ella. En la modulación analógica de impulsos cada valor de muestra hace variar proporcionalmente uno de los parámetros de cada impulso.3. PAM)”. Introducción De acuerdo con la definición de información que vimos en el Capítulo IV. La “Modulación de Duración o Anchura de Impulsos (Pulse-Duration (Width) Modulation.317 V.1. su período y la duración de cada impulso. PDM o PWM)”. en función del valor de muestra de la señal mensaje. para su transmisión. Un tren de impulsos está caracterizado por su amplitud. Formas Básicas de la Modulación Analógica de Impulsos. en la cual la altura o amplitud de cada impulso varía en función del valor de muestra de la señal mensaje. no contiene ninguna clase de información. respecto a un punto de referencia.19.19 se muestra una señal mensaje típica m(t) y las tres formas de modulación analógica de impulsos correspondientes. 5. La “Modulación de Posición de Impulsos (Pulse-Position Modulation. Un mensaje adecuadamente descrito por sus valores de muestra se puede transmitir mediante la modulación analógica de un tren de impulsos. El período y la duración de los impulsos no cambian. Si en alguna forma se imprimiera sobre alguno de estos parámetros una variación proporcional a alguna otra señal. el tren de impulsos. pero tres son las más conocidas y utilizadas: 1. MODULACION Y TRANSMISION DE IMPULSOS 5. por ejemplo. En la Fig. PPM)”. se tendría lo que se conoce como “Modulación Analógica de Impulsos”. Hay varias formas de modulación analógica de impulsos.3. SISTEMAS DE MODULACION ANALOGICA DE IMPULSOS 5. en la cual la posición de cada impulso varía. un tren de impulsos periódicos. Nótese que cada impulso dispone. 5. así modulado. t . en la cual la duración de cada impulso varía en función del valor de muestra de la señal mensaje.

32a) Ts 1 1 = k . este tipo de transmisión se denomina “Transmisión en Banda de Base”.19(b).318 V.2. para efectos de sincronización. excepto por la constante A. se sigue que sus espectros serán iguales (salvo por un impulso en el origen). período Ts y duración τ . vimos. por lo tanto. y Ts = = . que representa la portadora sin modular.31) donde A > |min m(t)| es una constante que se agrega a m(t) para evitar. que los impulsos modulados puedan ser de amplitud cero o negativa.26). entonces τ f s 2f m B ≥ 2k fm B ≥ 2 kf m y β m = (5. de (5. Nótese que en ausencia de modulación [ m( t ) = 0] . se τ puede tomar este valor como el mínimo ancho de banda B. sin ningún otro tipo de modulación. Se supone también que < m(t) >= 0 . la transmisión sería analógica continua y el proceso de muestreo no tendría sentido. Como la expresión (5. Como k > 1 y puede variar según la aplicación.32b) Nótese que β m = B / f m es “la relación o factor de expansión del ancho de banda” definida en el Capítulo IV. Anchos de banda ligeramente mayores que fm producirían solapamiento en el tiempo (time crosstalk) lo que introduce distorsión. él se comportaría como un interpolador.31) tiene la misma forma que la expresión (5. como la señal PAM mostrada en la Fig. la expresión (5.26). el cual se denomina “Ancho de Banda de la Banda de Base”. Ancho de Banda y Relaciones S/N en Sistemas PAM La señal PAM está formada por impulsos rectangulares de amplitud variable y duración τ que se transmiten directamente por un canal de ancho de banda B. como se describió en la sección anterior. y como estos valores se mantienen aún cuando B = .3. En PAM. MODULACION Y TRANSMISION DE IMPULSOS 5. Modulación de Amplitud de Impulsos (PAM) En la modulación PAM. la amplitud de cada impulso varía proporcionalmente con cada valor de muestra de la señal mensaje m(t). x PAM (t ) = n =−∞ ∑ [ A + m(nT )] ⋅ Π( s ∞ t − nTs ) τ (5. 5. Como la señal PAM es interpolada en base a sus valores de 1 amplitud en los instantes de muestreo. anchos de banda muy grandes no son necesarios. donde k > 1. τ la duración de los impulsos y |min m(t)| es el valor de la máxima excursión negativa de m(t). Si el ancho de banda del canal fuera igual a fm . pues las señales se transmiten tal como se generan. entonces se tendrá que . Por otro lado. una señal PAM no es otra cosa que una señal muestreada con retención. Una señal x PAM (t ) unipolar con retorno a cero tiene entonces la forma. Entonces.31) se convierte en un tren de impulsos periódicos de amplitud A. En general. Ts es el intervalo de Shannon. La recuperación o demodulación se efectúa mediante filtros interpoladores y ecualizadores. Si B≥ 1 τ (5.

para las perturbaciones presentes en la entrada. un muestreo de tipo natural. lo cual indica que el sistema PAM es un sistema de banda ancha que puede permitir el intercambio de ancho de banda por relación S/N. v(t ) = x PAM ( t ) + n( t ) Canal Filtro Pasabajo Muestreador Filtro Si/Ni Interpolador So/No Ancho de Ancho de Ancho de Banda Bc Banda Be Banda fm p(t) RECEPTOR PAM Fig.35) (5.20. Fig.34) A la entrada del filtro interpolador la potencia de la señal útil será Si = y a la salida.6. Receptor PAM en Banda de Base N 'i Si el ancho de banda Be del filtro de entrada es lo suficientemente ancho y el sistema está sincronizado. es decir. Este funcionamiento intermitente constituye. 5.319 V.33) < x 2 (t ) >= PAM τ A 2 + < m 2 (t ) > Ts [ ] (5. donde Gp = ( τ < m 2 (t ) > Ts So = G p T τ < m 2 (t ) >= s < m 2 (t ) > τ Ts (5. A la entrada del receptor PAM. consideremos el receptor PAM de la Fig. Se supone que el filtro τ ecualizador no es necesario. gracias a los dispositivos de sincronización del receptor. que veremos en detalle más adelante. el receptor está abierto cuando no hay presencia de impulsos y cerrado cuando éstos están presentes. que Ts >> τ . Como consecuencia. MODULACION Y TRANSMISION DE IMPULSOS β m >> 1. 5. como veremos más adelante. apareciendo ésta a la entrada del filtro interpolador.36) Ts 2 ) es la ganancia de potencia del filtro interpolador. Este muestreo. tanto el filtro de entrada como el sincronizador serán transparentes para la señal PAM. . Para permitir el funcionamiento en multiplex. En cuanto a las relaciones S/N en PAM. 5. Del Ejemplo 5.28).20. se hace a la misma frecuencia que el muestreo del mensaje en la emisión.20. expresión (5. el muestreo en el receptor no afecta a la señal útil pero sí al ruido presente a la entrada. la potencia promedio de xPAM(t) es (5. la señal recibida es v (t ) = x PAM (t ) + n(t ) donde n(t) es ruido blanco de densidad espectral η / 2 .

So / N o B = = β m en PAM Si / N i fm (5.320 V. B = 1/τ y con Ts = 1/2fm la ganancia de conversión será So / N o T = 2 s en PAM Si / N i τ (5. de (5. Esto nos permite expresar la ganancia de conversión en otra forma.37) Podemos demostrar que la densidad espectral de ruido a la salida del muestreador es S ni (f ) = ( τ 2 η ) 2 Ts n =−∞ ∑ ∞ sinc 2 (n f − nf s τ ) ⋅ Π( ) (5.32). la densidad espectral a la salida del filtro de entrada tendrá la forma de la Fig.21. La potencia de ruido a la entrada del muestreador será N 'i = ηB e y a la entrada del filtro interpolador.40) Las relaciones S/N entrada-salida serán. (5.43) La ganancia de conversión en PAM es igual a la relación de expansión del ancho de banda.44) .38) 2B e Ts η/ 2 f La densidad espectral de ruido disponible a la entrada del filtro interpolador de ancho de banda fm se puede aproximar entonces en la forma S nid (f ) ≈ ( τ η ) para Ts 2 |f| ≤ f m y Ts >> τ −B e 0 Be Fig. B e >> f m Ts Ts S 'ni ( f ) (5. 5. Si < m 2 (t ) > = ηB Ni (5.42) (5.22). En efecto. Ni = ( τ τ ' )N i = ( )ηB e . con B e = B .21.39) A la salida del filtro interpolador de ancho de banda fm y ganancia de potencia Gp . MODULACION Y TRANSMISION DE IMPULSOS En cuanto al ruido. de (5. la potencia de ruido será entonces No = Gp ( T τ )ηf m = s ηf m Ts τ (5.41) So < m 2 (t ) > = No ηf m y la correspondiente ganancia de conversión. 5.

49) . al del sistema de doble banda lateral (DSB) de acuerdo con la expresión (2. En la práctica.44) y comparando con (2.45) Aunque el receptor no estuviera bloqueado. de la relación de bloqueo del receptor. en cuyo caso τ = Ts .47) donde siendo τ( t ) = τ o + τ1m( t ) = τ o [1 + mt m( t )] = τ o [1 + ∆ ( t )] mt = τ1 ≤ 1 el “índice de modulación PDM” y ∆(t ) = m t m(t ) . los valores de τo y τ1 se eligen de tal manera que se cumplan las siguientes condiciones. los sistemas PAM son muy sensibles al ruido aditivo. esto hace que el comportamiento de este sistema de modulación de impulsos sea superior. MODULACION Y TRANSMISION DE IMPULSOS La ganancia de conversión en PAM depende también de la relación (Ts/τ). Si Ts es el período o intervalo de Shannon. En efecto. Modulación de la Duración o Anchura de Impulsos (PDM o PWM) En la modulación PDM la duración de los impulsos varía proporcionalmente a los valores de muestra de la señal mensaje. y viceversa. sin embargo.321 V.164).48) (5. A este efecto. el sistema PDM debe ser cuidadosamente diseñado de acuerdo con los niveles de señal máximos y mínimos esperados. y (5. Obsérvese que el valor más positivo de m(t) corresponde al impulso más ancho. τo es la duración de τo los impulsos no modulados. Pero como el bloqueo del receptor no se hace para aumentar la ganancia de conversión sino para facilitar el funcionamiento en multiplex en canales de banda ancha.42). que veremos posteriormente. sobre todo en los sistemas de modulación de impulsos codificados (PCM).22. ver Fig. mientras que el valor más negativo corresponde al impulso más angosto. Ts > τ max = τ o [1 + m t | max m(t)| ] > τ o > τ min τ min = τ o [1 − m t | min m(t)| ] ≥ 1 >0 B (5.3.162) con Ac = 1. las ganancias de conversión serían iguales. 5.164). la modulación PAM no se utiliza para transmisión directa de información sino como un paso previo de procesamiento. Una señal PDM tiene entonces la forma x PDM ( t ) = ∞ n = −∞ ∑ AΠ ⎢ τ(nT ) ⎥ ⎦ ⎣ s ⎡ t − nTs ⎤ (5.19(c).3. por ejemplo. B el ancho de banda de transmisión y < m(t) >= 0 . vemos que ⎡ So ⎤ T ⎡S ⎤ =2 s⎢ o⎥ ⎢ ⎥ τ ⎣ N o ⎦ DSB ⎣ N o ⎦ PAM (5. de (2. hay entonces un intercambio o compromiso entre el ancho de banda y la relación S/N. Como la información está contenida en la variación de la amplitud de los impulsos. Como es evidente. Nótese que el bloqueo del receptor permite aumentar la ganancia de conversión aunque a expensas de un aumento en el ancho de banda. como se muestra en la Fig. 5.46) (5. es decir. la relación [So/No]PAM es superior en 3 dB a la relación [So/No]DSB . lo que se puede apreciar haciendo τ = Ts en (5. 5. hay que limitar las duraciones máximas y mínimas de los impulsos de tal manera que impulsos adyacentes no se solapen o que la duración mínima sea de tal magnitud que demande anchos de banda inadmisibles.

22 se observa que la variación de la duración del impulso se efectúa simétricamente alrededor del instante de muestra nTs. 5. Nótese que la expresión (5. En la misma figura se muestra el algoritmo de decisión del comparador y las relaciones entre los diferentes parámetros. Para demostrarlo. lo cual no parece tan obvio cuando se observa la forma de la señal. de m(t). se puede desarrollar en serie de Fourier de la forma x (t ) = X o + 2 donde ∞ ∑X n =1 ∞ n cos(nω s t ) con ω s = 2πf s . m( t ) = sen(ω m t ) . x(t). Un tren de impulsos sin modular. lo cual nos asegura que el ancho mínimo del impulso nunca será cero o negativo. si se supone el caso de modulación sinusoidal o modulación con un simple tono. En la Fig. pero también se puede mantener fijo un borde del impulso mientras que el otro borde es el que se desplaza. lo cual es difícil de efectuar en el caso general. la señal PDM queda en la forma .49) implica que m t | min m(t)| < 1 o también que τ o > τ 1 | min m(t)| . Demodulación PDM La señal PDM se puede demodular con un simple filtro pasabajo. Una forma de generación de una señal PDM se ilustra en la Fig. la tarea se simplifica y el resultado se puede extender para el caso general.322 V. Ts τ(nTs ) τ min t 1 1 nTs (n + )Ts (n − )Ts τo 2 2 Fig. f s = y Xo = Aτ Ts 1 ≥ 2f m Ts Aτ A Xn = sinc( nf s τ) = sen( nπf s τ ) Ts nπ Aτ x (t ) = +2 Ts A s s ∑ nπ sen(nπf τ ) cos(nω t ) n =1 que se puede escribir en la forma x (t ) = Aτ +2 Ts ∑ nπ Im{exp( j2πnf τ )} cos(nω t ) A s s n =1 ∞ Si τ varía en función del mensaje y si el mensaje es un tono de frecuencia fm . Definiendo también α n = nπτ o f s y β n = nπτ1f s . Sin embargo. entonces τ = τ (t ) = [τ o + τ 1 sen(ω m t )] . 5.22. es decir. respectivamente. primero hay que determinar el espectro de la señal PDM. 5. MODULACION Y TRANSMISION DE IMPULSOS |max m(t)| y |min m(t)| son los valores de las máximas excursiones positiva y negativa. Relaciones de Duración en PDM.23.

Generación de una Señal PDM ∞ 0 t exp[ jβ n sen(ω m t )] = donde Z k = f m k =−∞ ∑Z k exp( j2πkf m t ) (5. En efecto. Esta función generalmente se . 5. orden k y argumento β n . MODULACION Y TRANSMISION DE IMPULSOS A x PDM (t ) = [τ o + τ 1 sen(ω m t )] + 2 Ts ∑ nπ Im{exp( jα A n =1 ∞ n ) exp[ jβ n sen(ω m t )]} cos(nω s t ) El término exp[ jβ n sen(ω m t )] es una función periódica de período 1/fm y como tal se puede desarrollar en serie de Fourier.50a) ∫ 1/ 2 fm −1/ 2 fm exp[ jβ n sen(ω m t )] ⋅ exp[− jkω m t ] ⋅ dt exp[ jβ n sen(ω m t ) − jkω m t ] ⋅ dt Zk = fm ∫ 1/ 2 fm −1/ 2 f m Con el cambio de variables x = ωm t .50b) Esta integral no puede resolverse en forma analítica. se obtiene Zk = 1 2π ∫ π −π exp[-j(kx .323 V. hacer 1.18).23.5Vu < Vp < 2Vu. 0 Señal PDM t (b) (c) Fig. (Ver Problema 5.β n sen(x))] ⋅ dx (5. pero puede reconocerse como el Coeficiente de Bessel de primera clase. sea A+m(t) m(t) v d (t ) x PDM (t ) "0 "1 |max m(t)| |min m(t)| t A p(t) A (a) p(t) Vu Umbral de 0 Decisión V 0 Ts t Algoritmo del Comparador vd(t) = A + m(t) + p(t) v d (t ) Si vd (t ) ≥ Vu → "1" Si vd (t ) < Vu →"0" Relaciones entre Parámetros Vu Vp + A −|min m(t)|> Vu > A + |max m(t)| Vp > Vu Para valores razonables del ancho de banda.

Como dato histórico..52) x PDM ( t ) = y finalmente. el espectro de x PDM (t ) contiene entonces una componente continua. ±1.y k = 0. en general. se muestra una Tabla de Coeficientes de Bessel para algunos valores de k y β n ). si f s = 2 f m . como se muestra en la Fig. 3. (n =2 y k = -3). hace muy pequeña en comparación con la señal deseada y puede ser despreciada. Algunas de estas frecuencias son iguales a fm .55) B PDM > B PAM .324 V. Sin embargo.51) k =−∞ ∑J ∞ k (β n ) exp( j2πkf m t ) (5. 5. una componente a la frecuencia fm y componentes a las frecuencias f nk = nf s + kf m para n = 1. aunque en general es suficiente un filtro pasabajo de ancho de banda f m . La modulación PDM o PWM se aplica actualmente no solamente en aplicaciones en comunicaciones y procesamiento de señales. En particular.. más pequeño que el τ en PAM. para n ≥ 1 o ( β n > 1).3. Nótese que el τ min en PDM es. 2. etc. la amplitud de las componentes de distorsión se Señal PDM Filtro Pasabajo K m(t) B = fm Fig. El ancho de banda de la banda de base en PDM será entonces.54) τ min donde τ min viene dado por (5..53) Nótese que aunque la modulación es sinusoidal con un tono único de frecuencia fm. Demodulación de Señales PDM. 1 B≥ en PDM (5. Sección 6.. Ancho de Banda en Sistemas PDM En los sistemas PDM la información está contenida en la duración de los impulsos y por lo tanto la modulación está representada como diferencias de energía en los impulsos sucesivos de diferente duración..49). 5. ±2. Z k = J k (β n ) de donde exp[ jβ n sen(ω m t )] = (5. . MODULACION Y TRANSMISION DE IMPULSOS denota en la forma J k (β n ) y se encuentra extensamente tabulada (En el Capítulo VI. antiguamente a la modulación PDM se la conocía con el nombre de Amplificación Clase D. del τ min del sistema. La situación mejora si el muestreo se hace a una frecuencia mayor que la frecuencia de Nyquist. hay que transmitir impulsos y el ancho de banda del canal dependerá de la duración del impulso más angosto.3. constituyendo componentes de distorsión. Fundamentalmente. sino también en el control de motores eléctricos..24. es decir. de modo que se puede decir que (5. Entonces.24. entonces f nk = (2n + k )f m y habrá componentes de distorsión para (n = 1 y k = -1).. ∞ ∞ ⎤ ⎡ A A Im ⎢exp( jα n ) J k (β n ) exp( jkωm t )⎥ cos(ωs t ) [ τ o + τ1sen( ωm t )] + 2 Ts n = 1 nπ k = −∞ ⎦ ⎣ ∑ ∑ x PDM ( t ) = 2A A [τo + τ1 sen(ωm t )] + π Ts ∑∑ J k (βn ) sen[α n + kωm t ] ⋅ cos(ωs t ) n n =1 k = −∞ ∞ ∞ (5..

Señal PDM Señal PPM Señal PDM Multivibrador Monoestable 0 t El Multivibrador se dispara en los bordes traseros de la Señal PDM (a) Ts t Señal PPM 0 (b) Fig. transmitir impulsos muy angostos modulados en PPM.4.26.19(d). como se muestra en la Fig. como veremos más adelante. Como la amplitud y la duración de los impulsos se mantienen constantes.25. la información posicional es también transmitida por la posición del borde frontal del impulso. τ o . En un sistema PPM la información está contenida en los desplazamientos de los impulsos de un tren de impulsos. Como la información reside en la posición temporal de los bordes del impulso y no en el impulso mismo.25. MODULACION Y TRANSMISION DE IMPULSOS La relación exacta entre BPDM y BPAM dependerá de los valores de τ . . 5. τ 1 y m(t).3. con referencia a un punto dado. Generación de Señales PPM a partir de Señales PDM. Debido a la compatibilidad que existe entre los sistemas PDM y PPM. o por la posición del punto. 5. si el ancho de banda del canal lo permite. Una señal PPM se puede expresar en la forma x PPM (t ) = ∞ n =−∞ ∑ AΠ⎢⎣ ⎡ t − nTs − ∆ (nTs ) ⎤ ⎥ τ ⎦ (5. La potencia requerida para PPM será entonces inferior a la requerida para PDM y ésta ya es una ventaja muy importante que se refleja en las correspondientes relaciones S/N. 5. en el eje del tiempo. a tal punto que la modulación PPM se puede obtener directamente a partir de la modulación PDM en la forma mostrada en la Fig. 5. por donde cruza el borde frontal. varía proporcionalmente de acuerdo con los valores de muestra de la señal mensaje. Modulación por Posición de Impulsos (PPM) En la modulación PPM la posición de los impulsos.325 V. sus relaciones S/N serán tratadas simultáneamente en la próxima sección. sería muy conveniente. 5. Las modulaciones PPM y PDM están íntimamente relacionadas. como puede observarse en la Fig.56) donde ∆(t ) = m t m(t ) es el desplazamiento instantáneo del impulso respecto al instante de referencia t = nTs . y como la potencia es proporcional a la duración de los impulsos. la portadora.

el cual.326 V.26. ⎧ ⎪ x PPM (t ) = A ⎨δ (t ) ∗ ⎪ ⎩ ∞ ⎫ ⎪ δ[t . igual que en PDM.D(nTs )]⎬ ⎪ n=. que Π( ) ≈ δ (t ) [no tomando en cuenta su efecto sobre el ancho de τ banda]. el ancho del impulso puede hacerse tan pequeño que se puede aproximar mediante t impulsos unitarios. de donde D(t ) = nTs + ∆ ( t ) ⎧ t ⎡ t − D(nTs ) ⎤ ⎪ = A ⎨Π ( ) ∗ x PPM (t ) = AΠ ⎢ ⎥ τ ⎣ ⎦ ⎪ τ n =−∞ ⎩ ∑ ∞ ⎫ ⎪ δ[t .D(nTs )]⎬ = A δ[t − D(nTs )] ⎪ n=-∞ n =−∞ ⎭ ∑ ∞ ∑ Se ha demostrado [Greg. MODULACION Y TRANSMISION DE IMPULSOS Ts A ∆( nTs ) τ t 1 (n − )Ts 2 nTs Fig. pero que se puede estimar en el caso de modulación sinusoidal. Entonces. . el desplazamiento (5. D(t ) = nTs + ∆ (t ) .58) Pero como la información está contenida en el desplazamiento D(t) del impulso y nó en el impulso mismo. es decir. Demodulación PPM Para determinar el proceso de demodulación de una señal PPM es necesario conocer su espectro.59) ∞ x PPM (t ) = A⋅|1 − ∆ ' (t )| n =−∞ ∑ δ[t − ∆ (t ) − nT ] s El signo de módulo se puede eliminar postulando que | ∆ '( t )| = m t m'( t ) ≤ 1 para todo t. Modulación PPM. es difícil de calcular en el caso general. Sea entonces. entonces (5. 1977) que si δ[t − D(nTs )] = |1 − ∆ ' (t )|⋅δ[t − nTs − ∆ (t )] donde ∆ ' ( t ) es la derivada de ∆( t ) Por consiguiente. de (1. 1 (n + )Ts 2 La posición del impulso respecto a máximo será | ∆ (t )|max = m t | m(t )|max ≤ 1 (Ts − τ ) 2 t = nTs es proporcional a m(t). 0 < mt ≤ 1 lo cual nos asegura que los impulsos serán siempre positivos.57) donde |m(t)|max es el valor máximo de m(t) y mt el índice de modulación PPM. 5.106).∞ ⎭ ∑ ∞ (5. Entonces.

la señal PPM. es necesario efectuar una integración para restaurar la componente de la señal útil a su perfil original. MODULACION Y TRANSMISION DE IMPULSOS x PPM (t ) = A[1 − m t m' (t )] f s Definiendo n =−∞ ∑ exp[ j2πnf (t − m m(t ))] s t ∞ β n = 2πnf s m t y con ∞ m(t ) = sen(ω m t ) . contiene un término de componente continua que es igual al valor promedio del tren de impulsos sin modular y un segundo término que es proporcional a la derivada de la señal mensaje. 5. constituyen términos de distorsión de muy baja amplitud que pueden ser despreciados.52) mediante los coeficientes de Bessel. de (1. podemos demostrar que exp[− jβ n sen(ω m t )] = k =−∞ ∑J ∞ k (β n ) exp(− jkω m t ) . pero este tipo de modulación no se emplea en la práctica. igual que en PDM. los términos restantes son productos de intermodulación entre la frecuencia de muestreo fs y la frecuencia f m de la señal: la señal PPM contiene entonces un número infinito de componentes laterales alrededor de ±nf s separadas en ±kf m . igual que en el caso PDM. pero aún así la distorsión de la señal es más pronunciada que en PDM. vemos que n =−∞ ∑ exp[ j(nω t − β ∞ sen(ω m t ))] n =−∞ ∑ exp[ j(nω t − β s ∞ n sen(ω m t ))] = 1 + 2 ∑ cos[nω t − β s n =1 n sen(ω m t )] El coseno se puede expresar en la forma cos[nωs t − β n sen (ωm t )] = Re{exp( jnωs t ) ⋅ exp[− jβ n sen (ωm t )]} Aplicando el mismo procedimiento utilizado para deducir la expresión (5. ∞ ∞ ⎧ ⎫ ⎪ ⎪ x PPM (t ) = Af s [1 − m t m' (t )]⎨1 + 2 J k (β n ) cos[2π (nf s − kf m )t ]⎬ ⎪ ⎪ n =1 k =−∞ ⎩ ⎭ ∑∑ (5.27(a).60) Desarrollando (5.60) podemos observar lo siguiente: aunque la modulación es sinusoidal con un simple tono de frecuencia fm. s n x PPM (t ) = Af s [1 − m t m' (t )] pero. Muchas de estas componentes. Además del filtrado pasabajo.106b). de donde n =−∞ ∑ exp[ j(nω t − β s ∞ n sen(ω m t ))] = 1 + 2 ∑J n =1 ∞ k (β n ) cos[2π (nf s − kf m )t ] y finalmente. .327 V. La demodulación directa de señales PPM se puede efectuar entonces en la forma indicada en la Fig.

En presencia de ruido es necesario que los bordes de los impulsos estén bien definidos a fin de poder interpretar adecuadamente la posición del impulso. Mecanismo de Demodulación PPM/PDM/m(t). Señal PPM Portadora R (Reloj) S FF Señal PDM Q S 0 Portadora (Reloj) Ts t Filtro Pasabajo B = fm m(t) R Señal 0 PPM Q Señal 0 PDM t t Fig. 5. que es la inversa de la mostrada en la Fig.21).27.61) τ donde τ es la duración de los impulsos. MODULACION Y TRANSMISION DE IMPULSOS Señal PPM Filtro Pasabajo Integrador m(t) Señal PPM Señal Convertidor PDM Filtro m(t) Pasabajo PPM/PDM (a) Demodulación Directa (b) Demodulación mediante de Señales PPM. 5 B PPM ≈ (5. Fig. . 5. Para transmisión en banda de base se puede tomar como ancho de banda [Greg. el cual. es puesto a cero por los impulsos PPM. más eficiente en cuanto a su inmunidad al ruido y con menor distorsión se puede obtener mediante conversión PPM a PDM y filtrado pasabajo. 5. Sin embargo. a su vez. Demodulación de Señales PPM. 5. 1977].328 V.28.27(b).25. El sistema PPM es un sistema de banda ancha en el cual la relación de expansión del ancho de banda β m es mucho mayor que la unidad. Esta transformación. como la señal PPM no contiene la información de portadora o temporización (ver Problema de Aplicación 5. ésta tiene que ser transmitida por separado. Ancho de Banda y Relaciones S/N en la Modulación PPM y PDM En los sistemas PPM la información está contenida en la posición o desplazamiento de los impulsos.28 se muestra el proceso de demodulación PPM/PDM/m(t). 5. Una forma de demodulación de fácil instrumentación. Esto significa que el impulso debe tener una mejor resolución o definición que en el caso PDM. Conversión PPM/PDM Fig. En la Fig. se puede efectuar haciendo que la portadora (un reloj) active un circuito basculador (un flipflop RS).

si el ruido es blanco y tiene una densidad espectral η / 2 . es decir. éste causará un error en la posición de los impulsos. MODULACION Y TRANSMISION DE IMPULSOS La relación entre los anchos de banda de la banda de base en PAM. . es decir. ∆τ n (t ) = tr A (5. t r ≈ 1 / 2 B . Como los impulsos se transmiten por canales de ancho de banda finito. se produce dispersión en los bordes de los impulsos recibidos. su potencia promedio será proporcional a la potencia promedio de n(t). Impulso con Ruido Impulso sin Ruido n(t) A A/2 t ∆τ Umbral de Detección tr τ Fig. 5. El valor tr se puede relacionar con B en la forma dada en el Capítulo II.29. de tal manera que estos se pueden considerar como impulsos trapezoidales. Ejemplo 2. dentro de la banda de transmisión B se verifica que t t N τ = ( r ) 2 ηB = ( r ) 2 N i (5. 5.329 V. < ∆τ 2 >= ( tr 2 ) < n 2 (t ) > A (5.63) Si n(t) varía. entonces ∆τ variará proporcionalmente. como se muestra en la Fig. 5.19(a). PDM y PPM será B PPM > B PDM > B PAM (5.65) A A donde Ni es la potencia de ruido a la entrada del demodulador en el receptor.64) Sea entonces N τ la potencia promedio de ∆τ . Influencia del Ruido en PPM.29. Si la señal recibida se ha contaminado con ruido. entonces.29 se muestra el impulso recibido en ausencia de ruido y la forma (punteada) mediante la cual el ruido n(t) introduce un error ∆τ en la posición del impulso.29. Vemos también que si ∆τ es proporcional a n(t). tr De la geometría de la Fig.62) Veamos ahora la influencia del ruido en PPM. 1 Nτ = Ni 4A 2 B 2 Como la salida es proporcional a la entrada con una constante k de proporcionalidad o de demodulación. Impulsos Recibidos. Por consiguiente. En la Fig. 5.

nTs τ 1 (Ts − τ ) 2 8 Si el muestreo se ha efectuado a la frecuencia de Nyquist (Ts = 1 / 2f m ) y haciendo la aproximación B = 1/τ.68) = 4 s B 2 < m 2 (t ) > en PPM τ Si / N i La expresión (5.70) . la expresión (5.67) el valor de A2 dado por (5. de la Fig.66) (5. MODULACION Y TRANSMISION DE IMPULSOS No = k2Nτ = k2 4A 2 B 2 Ni s o ( t ) = k m( t ) y S o =< s 2 ( t ) >= k 2 < m 2 ( t ) > o En cuanto a la señal.68) puede expresarse en otra forma. La potencia de entrada de la señal PPM.30. τ 2 Si = A Ts La relación de postdetección So/No será entonces So 4 A 2 B 2 < m 2 (t ) > = No Ni (5. 5. 5.66).29.330 V. 2 Ts / 2 1 | max ∆(t)|= ( Ts − τ ) 2 1 ( Ts − τ ) cos(ω m t ) 2 A t 1 tr tr (n + )Ts 2 Fig. como se muestra en la Fig. es. para τ >> 2t r . Desviación Sinusoidal de la Posición de los Impulsos en PPM. su efecto es el de producir un desplazamiento ∆(t ) de la forma 1 ∆(t) = m(t) = (Ts − τ) ⋅ cos(ωm t). 5.69) Si β m >> 2 . la ganancia de conversión será Se tiene entonces que < m 2 (t ) >= ⎤ So / N o β ⎛β B ⎡ B ⎞ = − 1⎥ = m ⎜ m − 1⎟ ⎢ ⎝ 2 ⎠ 4f m ⎣ 2f m 4 Si / N i ⎦ 2 2 en PPM (5.67) Reemplazando en (5.69) se reduce a So / N o 1 3 = βm Si / N i 16 en PPM (5. la ganancia de conversión será So / N o T (5. Si la modulación es sinusoidal y a máxima modulación (con mt = 1).30.

5. viene precedida y seguida por los flancos montantes o bajantes. sin embargo. a partir de la Fig. Cuando B aumenta. respectivamente. la potencia promedio de la señal PDM viene dada por Si = A 2 d n 2A 2 t r A 2 2 + = (d n + t r ) Ts Ts 3Ts 3 (5.73) Si hacemos B = 1 / 2t r .71) La duración d(t) de los impulsos PDM recibidos se puede expresar. expresión (5. esto ocurre.31 se muestra la señal 1 1 nTs tr tr (n − )Ts (n + )Ts PDM recibida en la cual una porción τ 2 2 de amplitud constante y duración d(t) Fig. So 24 Ts B 3 < m 2 ( t ) > Si .74) Reemplazando A2 de (5. referidas a un período Ts. So/No aumenta y es posible intercambiar ancho de banda por relación S/N.31 en la forma d (t ) = 1 (Ts − 2 t r ) ⋅ [1 + cos(ω m t )] 2 (5. la potencia 2 2 de entrada de la señal PDM. En este caso. MODULACION Y TRANSMISION DE IMPULSOS La ganancia de conversión en PPM es proporcional al cubo de la relación de expansión del ancho de banda β m .331 V. solamente si la relación Si/Ni está sobre cierto umbral.74) en (5. A/2 t En la Fig. Por consiguiente. En la literatura se toma el nivel umbral para una relación [Si/Ni] ≈ 4 (6 dB). 5. la operación Ts de detección sobre el umbral de Umbral de d (nTs ) detección elimina todos los efectos del Modulación A Detección ruido excepto el desplazamiento en el Máxima tiempo que hemos evaluado en PPM. entonces Si = A 2 3BTs + 2 Ts 6B (5.71). ella será la suma de las potencias promedio. En el caso PDM. será Si = 2 A 2 2A t r A 2 3Ts + 4t r + = Ts 2 3Ts 6 (5. idénticos a los vistos en PPM.67). y de las dos rampas del trapecio que equivalen a un triángulo de la forma AΛ(t / t r ). de donde = No Ni 3BTs + 2 . Impulsos Recibidos en PDM.72) cuyo valor promedio es d n = T 1 (Ts − 2 t r ) ≈ s puesto que Ts >> 2 t r . de un rectángulo de amplitud A y duración promedio d n . 5. ya que estas señales no se solapan en el tiempo. La potencia de la señal pudiera disminuirse sin que la relación So/No cambie. En lo que se refiere a la potencia promedio en PDM. para una señal sinusoidal de prueba y máxima modulación.31.

82) . MODULACION Y TRANSMISION DE IMPULSOS So / N o 24Ts B 3 = < m 2 (t ) > Si / N i 3BTs + 2 en PDM (5.5. 5.75) Si B >> 2f m . So / N o 1 2 = βm Si / N i 4 en PDM βm − 1) 2 2 3 ( β m + 2) 2 ( en PDM (5.76) 1 (Ts − 2 t r ) ⋅ cos(ω m t ) . (5. El sistema de modulación PDM es un sistema de banda ancha que permite intercambiar ancho de banda por potencia.78) La ganancia de conversión en PDM es proporcional al cuadrado del factor de expansión del ancho de banda β m .81) En PDM: β ( m − 1) 2 So / N o 3 = βm 2 3 Si / N i 2 ( β m + 2) 2 (5. En función de la relación de expansión del ancho de banda β m = B/fm .79) (5. cuya 2 Con modulación sinusoidal y modulación máxima. se obtiene finalmente B − 1) 2 So / N o 3B 2f m 3 = = βm Si / N i 2f m ( 3B + 2) 2 2f m ( Si β m >> 2 . donde B es el ancho de banda de la banda de base. es decir. PDM y PPM En la secciones anteriores se ha determinado las ganancias de conversión para los sistemas PAM.77) (5. Reemplazando en (5. PPM y PDM.332 V. la ganancia de conversión será So / N o = 8B 2 < m 2 (t ) > Si / N i en PDM (5.3.75) con Ts = 1 / 2f m y 8 B = 1 / 2t r . se tiene En PAM: En PPM: So / N o = βm Si / N i So / N o β m β m = ( − 1) 2 4 2 Si / N i 3 So / N o β m = 16 Si / N i (5. Comparación entre las Ganancias de Conversión en Sistemas PAM. m( t ) = potencia promedio es < m 2 (t ) >= 1 (Ts − 2t r ) 2 .80) Si β m >> 2. si BTs >> 1 . En todos los casos se ha tomado la potencia de ruido a la entrada igual a ηB.

79) y (5.8 dB superior a PAM. para β m = 24 . situación que puede presentarse en sistemas con multiplex.86) El mejoramiento de la ganancia de conversión en PPM. El sistema PDM es superior a PAM para β m > 8 . ⎡So / N o ⎤ ⎡S / N o ⎤ 1 β = ( m − 1) 2 ⎢ o ⎢ ⎥ ⎥ ⎣ S i / N i ⎦ PPM 4 2 ⎣ S i / N i ⎦ PAM (5. El sistema PPM es superior a PDM para β m > 3 . En efecto. De (5.84) Por ejemplo.82). si β m = 24 . Veamos ahora la comparación entre PPM y PDM. En relación con los anchos de ban-da. se puede comparar PPM con PAM.333 V. B PPM > B PDM > B PAM (5.83) Si el ruido y el ancho de banda son los mismos en los tres sistemas. 5.85) Para β m = 24 . Comparemos ahora PDM con PAM. β ( m − 1) 2 ⎡So / N o ⎤ ⎡So / N o ⎤ 3 2 = ⎢ ⎥ ⎢ ⎥ ⎣ S i / N i ⎦ PDM 2 ( 3 β + 2 ) ⎣ S i / N i ⎦ PAM m 2 (5. los cuales tienen una cierta probabilidad de ocurrencia cuando el ruido es gaussiano. MODULACION Y TRANSMISION DE IMPULSOS Si β m >> 2. En general. El sistema PPM es superior a PAM para β m > 6 . So / N o β 2 = m 4 Si / N i (5. el mejoramiento de la ganancia de conversión en PPM es 14.80) y (5.87) Estas consideraciones se pueden apreciar mejor en la Fig.80). el mejoramiento de la ganancia de conversión en PDM sobre PAM es de 6. De (5.32. de (5. ⎡So / N o ⎤ ⎡S / No ⎤ 1 3 = ( β m + 2)⎢ o ⎢ ⎥ ⎥ ⎣ S i / N i ⎦ PPM 6 2 ⎣ S i / N i ⎦ PDM (5. .8 dB.79) y (5. es de 8 dB superior a PDM.82).88) En la determinación de las ganancias de conversión anteriores no se ha tomado en cuenta los falsos impulsos producidos por los picos de ruido. en donde se muestra la variación de las ganancias de conversión en función del factor de expansión del ancho de banda βm .62). de la expresión (5. para las ganancias de conversión y con β m > 8 se cumple que ⎡So / N o ⎤ ⎡S / N o ⎤ > ⎢ o ⎢ ⎥ ⎥ ⎣ S i / N i ⎦ PPM ⎣ S i / N i ⎦ PDM ⎡S / N o ⎤ > ⎢ o ⎥ ⎣ S i / N i ⎦ PAM (5.

MODULACION Y TRANSMISION DE IMPULSOS Cuando el ancho de banda aumenta. Modulación de Impulsos Codificados (PCM) En 1926. La transmisión de información se lleva a cabo entonces en forma analógica en tiempos o instantes discretos. donde la palabra “digital” significa “amplitud y duración discreta”. Las condiciones prácticas del medio establecerán el nivel umbral y los valores apropiados correspondientes de la relación S i / N i . DPCM) • La Modulación Delta Lineal (Delta Modulation. En este tipo de modulación cada valor de muestra de la señal mensaje se codifica en secuencias de impulsos en el sentido visto en el Capítulo IV.4. SISTEMAS DE MODULACION DIGITAL DE IMPULSOS 5. por cuestiones de tipo tecnológico. mientras que los respectivos parámetros de modulación (amplitud. En la modulación digital de impulsos el mensaje es representado por secuencias de impulsos digitales. DM) 5. Introducción En los sistemas PAM. Posteriormente. Durante más de 20 años el concepto PCM se consideró como una simple curiosidad científica. . PCM) • La Modulación Diferencial de Impulsos Codificados (Differential Pulse-Code Modulation. entonces ingeniero de la ITT en Francia.2. como podremos constatarlo a medida que avancemos en el texto. son esencialmente sistemas binarios. cuando introducimos el concepto de codificación binaria y m-aria. de los Estados Unidos. desarrolló un método para transmitir una representación de una señal continua mediante una sucesión de valores discretos de la misma señal. patentó un sistema para la transmisión de voz basado en el método de Rainey. PDM y PPM solamente el tiempo se expresa en forma discreta. Rainey.4. A.4. este umbral es uno de los factores limitativos de los sistemas de banda ancha. pues los componentes electrónicos existentes para la época no eran apropiados para la codificación digital de señales. P. Los sistemas prácticos de modulación digital de impulsos. M.1. Este sistema se conoce desde entonces con el nombre de Modulación de Impulsos Codificados (PCM). Los tres sistemas básicos de modulación digital de impulsos son: • La Modulación de Impulsos Codificados (Pulse-Code Modulation.334 V. en 1936. Reeves. 5. se llega entonces a una “región umbral” no importa si se aumenta el valor A de la amplitud de la portadora a fin de mantener una relación S i / N i fija. y fueron los dispositivos de estado sólido los que iniciaron el gigantesco desarrollo que estamos presenciando. H. el correspondiente aumento en la potencia de ruido produce una cantidad suficiente de falsos impulsos que impiden aumentar el ancho de banda. duración y posición) varían en forma continua de acuerdo con la señal mensaje.

Cuantificación y Codificación. De la expresión (4. Además.34 se muestra este proceso. En efecto. los sistemas PCM tienen un comportamiento superior al de un sistema analógico.) se pueden mezclar con señales de datos (por ejemplo. las señales de salida de los computadores digitales) y transmitirse por un canal de alta velocidad. se dice que la cuantificación es uniforme. En la Fig.34. En transmisión a larga distancia las señales PCM contaminadas con ruido se pueden regenerar y retransmitir sin mucha pérdida de calidad. Este proceso se denomina “cuantificación” y es similar al redondeamiento de los últimos dígitos en un proceso numérico. (Nótese que se utiliza la letra “m” para indicar el orden de la muestra. 5. el número de impulsos de la muestra codificada). para impulsos binarios. se le puede descomponer en una secuencia de tres operaciones distintas: Muestreo (formación de la señal PAM). en la modulación PCM cada muestra del mensaje se representa o codifica en una secuencia de impulsos . pero la modulación de impulsos codificados es completamente diferente en concepto. el número de muestras de entrada al convertidor debe ser un número finito. En relación con el ruido. por lo tanto.33 y 5. Obsérvese que los valores instantáneos de amplitud x (mTs ) se redondean al valor más cercano x q ( mTs ) de un conjunto de N niveles fijos de amplitud. El sistema PCM es el sistema de modulación de impulsos más utilizado por las muchas ventajas que ofrece. Esta técnica se denomina “multiplicidad o multicanalización por división de tiempo. etc. 5. Cuantificación y Codificación Aunque en la práctica no suele usarse. 5. En la Fig. a diferencia de algunos sistemas en los cuales el paso de cuantificación es variable. señales de control industrial.22). es necesario efectuar previamente un proceso de “redondeamiento” de los valores de amplitud para generar un conjunto finito de valores fijos o niveles. y en (b) la operación de redondeamiento efectuada. Estos valores fijos se denominan “niveles de cuantificación” y la diferencia ∆Q entre dos niveles. a fin de no confundirla con “n”. • • La desventaja principal de los sistemas PCM es que su ancho de banda es superior al de un sistema analógico similar. la probabilidad de error en el destino se puede reducir mediante la aplicación de técnicas de codificación apropiadas.335 V. como se muestra en las Figs. Las señales PCM derivadas de todos los tipos de fuentes analógicas (audio. . Cuando el paso de cuantificación es constante. (TDM)”. para comprender el mecanismo de la modulación PCM. Pero como el número de amplitudes de los impulsos PAM es teóricamente infinito. que veremos posteriormente. Las muestras del mensaje se presentan en forma de una señal PAM que se aplica a un codificador binario o convertidor cuya salida son secuencias de impulsos binarios que representan la amplitud de los impulsos PAM. de tal manera que el número de niveles sea N. Algunas de estas ventajas son: • • Los circuitos y componentes digitales utilizados son muy baratos y fáciles de adquirir. video. generalmente binarios.34(a) se muestra la característica de transferencia de un cuantificador uniforme. MODULACION Y TRANSMISION DE IMPULSOS Los tres tipos de modulación de impulsos vistos en las secciones anteriores han sido representaciones analógicas del mensaje. la relación entre el número de muestras de entrada N y el número de impulsos n de la muestra codificada es N = 2 n . “paso de cuantificación”.

También | x (mTs )| ≤ N ∆Q = 2 n −1 ∆Q 2 (5. Principio de la Cuantificación de Señales en Modulación PCM.336 V.33. 5. donde Vqmax = | x q (mTs )|max y Vmax = | x (mTs )|max son los valores máximos o pico de la señal cuantificada y de la señal muestreada PAM. Mecanismo de Generación de Señales 11∆Q / 2 9∆Q / 2 x q (mTs ) m(t) 5∆Q / 2 x q (mTs ) 2∆Q 4∆Q 3∆Q Vmax Vqmax (a) Característica de Transferencia 7∆Q / 2 3∆Q / 2 −3∆Q −5∆Q −∆Q −4∆Q −2∆Q x(mTs ) = x q (mTs ) 0 ∆Q −3∆Q / 2 −5∆Q / 2 −7∆Q / 2 −9∆Q / 2 5∆Q x (mTs ) 0 Ts ∆Q t Vqmax ∆Q Vmax e q (mTs ) ∆Q 2 −∆Q 2 ∆Q 0 x(mTs ) Niveles de Cuantificación Niveles de Comparación (c) Error de Cuantificación (b) Cuantificación de una Señal m(t) Fig. respectivamente. 3. MODULACION Y TRANSMISION DE IMPULSOS Mensaje m(t) x(mTs ) Modulación PAM Codificador Analógico-Digital x q ( mTs ) Cuantificación Codificación Salida PCM Serie Reloj Fig. Consideremos el proceso de cuantificación uniforme bipolar mostrado en la Fig. 5.34.⋅⋅⋅⋅. 5. La señal cuantificada x q (mTs ) está acotada por | x q (mTs )| ≤ (N − 1) ∆Q ∆Q = (2 n − 1) = Vqmax 2 2 (5.91) .89) y sus valores particulares vendrán dados por ∆Q N x qk (mTs ) = ± (2 k − 1) para k = 1. 2.90) (5. 2 2 Los niveles de comparación estarán a ∆Q / 2 sobre o bajo x qk (mTs ). Vqmax y n generalmente son los datos o parámetros del cuantificador. ∆Q es el paso de cuantificación.34(b). N = 2 n el número de niveles de cuantificación y n el número de impulsos de las secuencias codificadas.

Resolución R q = y en por ciento. la cuantificación transforma un conjunto infinito de amplitudes en un conjunto finito de N amplitudes. ∆Q Vqmax Vmax e max = | e q (mTs )|max = = = (5.94) (5. como consecuencia. 5. e max % = 100 ⋅ e max (5.34(c). la cual es inherente al sistema pero que podemos controlar y hacer tan pequeña como queramos. dependiendo del número de niveles de cuantificación elegidos.95) R q % = 100 ⋅ R q Asimismo. como el intervalo mínimo que el cuantificador puede discernir.92) Para que no haya saturación en el cuantificador. para lo cual debe verificarse que | x q (mTs )|max = Vqmax = 1. el “error de cuantificación.337 V. Fig. después de la conversión la señal m(t) nunca podrá ser recuperada en su forma original (aún en el caso de que el ruido de transmisión sea nulo) debido al denominado “ruido de cuantificación”. el paso de cuantificación es ∆Q = 2Vqmax N−1 = 2 Vmax N (5. 5. MODULACION Y TRANSMISION DE IMPULSOS Por consiguiente.93) En la literatura se suele definir también la “resolución del cuantificador. debe cumplirse también que | m(t )|max ≤ Vqmax + ∆Q = Vmax 2 De (5.96) Obsérvese que para algunos valores específicos de m(t) el error es cero. Los parámetros normalizados serán: Paso de cuantificación normalizado: Resolución normalizada: Resolución normalizada porcentual: 2 N −1 1 R qn = N −1 100 R qn % = N −1 ∆Q n = (5. se define en la forma e q (mTs ) = x q (mTs ) − x(mTs ) (5.100) En general.91). Vmax = Vqmax + ∆Q 2 (5. pero el error máximo es. Esto significa que la señal original puede aproximarse mediante una señal que se construye a partir de un conjunto disponible de amplitudes discretas elegidas sobre una base de error mínimo. ∆Q / 2 . el proceso de cuantificación introduce una cantidad inicial de distorsión.97a) 2 N −1 N y en por ciento. Algunas veces se prefiere normalizar los parámetros.89) o (5. de la Fig. Rq”. En efecto. ∆Q Vqmax Vmax = = 2 N−1 N (5. En este caso se supone que el rango normalizado de la señal cuantificada es −1 ≤ x q ( mTs ) ≤ 1 . e q ( mTs ) ”.34(c). es decir. por lo tanto. La existencia .98) (5.97b) Nótese que la resolución es la medida del error máximo en el cuantificador.99) (5.

se regeneran y se encuadran en los correspondientes grupos de codificación incluyendo los errores producidos por el ruido n(t).35(a). Fig. Demodulación de Señales PCM El mecanismo de recepción de señales PCM se muestra en la Fig. es decir. OFF-SET. En la Tabla. palabras o secuencias binarias de n impulsos (llamados también “dígitos binarios” y más impropiamente “bits”) cada una.35(a) se tiene unas muestras PAM cuantificadas y sus correspondientes formas codificadas en PCM (NRZ y RZ). Esta secuencia de grupos se aplica al descodificador que los convierte en las muestras de una señal PAM cuantificada (incluyendo los errores debido al ruido). 5. A cada nivel de cuantificación se asigna un grupo de codificación diferente. La codificación binaria natural es el proceso de transformación de la amplitud de la muestra PAM cuantificada en secuencias de n impulsos binarios conocidas como “grupos de codificación”. como se muestra en la Fig. 5. N = 8. En el detector/regenerador se determina si llegaron o no impulsos. La codificación binaria.). Esta señal se filtra en un filtro pasabajo de ~ ancho de banda B = f m para extraer el mensaje m(t).35. en sus distintas variedades. La señal de banda de base que llega al receptor está contaminada con ruido blanco n(t). si se asigna niveles de amplitud discreta con un espaciamiento lo suficientemente pequeño.338 V. Lógicamente. Nótese que la señal de salida m(t ) del . 5. los fabricantes de los codificadores o convertidores especifican el correspondiente código de salida (binario natural. regeneración y detección. n = 3 Secuencias PCM 4 5 6 7 Fig. se muestra la codificación empleada. y (b) que se puede tolerar grandes cantidades de ruido y distorsión en la detección de los impulsos individuales porque la selección o decisión se efectúa solamente entre dos estados: el estado “CERO” o el estado “UNO”. nótese también que el bit de menor peso se transmite de primero. y por su gran inmunidad al ruido de transmisión. 6 4 Señal PAM Cuantificada PAMq 2 t Decimal 0 1 2 3 t 0 t Binario 000 001 010 011 100 101 110 111 Ts NRZ 0 0 1 0 Ts τ 1 1 0 Ts 1 RZ τ Tn (a) Conversión PAMq/PCM. 5. Conversión Analógica-Digital (b) Codificación Binaria Natural En la Fig.36. Esta inmunidad se debe a que: (a) solamente una parte de la información total es afectada por la pérdida o distorsión de uno o más impulsos de un grupo de codificación. un código de tres dígitos será suficiente para codificación completa. MODULACION Y TRANSMISION DE IMPULSOS de un número finito de niveles de amplitud discreta es una condición básica en PCM. etc. se puede lograr que la señal cuantificada prácticamente no se distinga de la señal original. Nótese que en este caso se han empleado 8 niveles (23) para cuantificar las muestras. habrá N = 2 n grupos de codificación.5. es la más utilizada debido a su simplicidad de generación. BCD. por lo tanto. En general.35(b).

En efecto.36. Sin embargo. Nacional Semiconductor. En el caso de señales digitales en transmisión en banda de base. el transmisor/receptor sincrónico universal (USRT) y el transmisor/receptor sincrónico/asincrónico universal (USART). El empleo cada vez mayor de las señales digitales en las telecomunicaciones se basa mucho en la facilidad mediante la cual las señales digitales (impulsos discretos) se pueden regenerar y acondicionar.). está fuera de los objetivos de este texto. MODULACION Y TRANSMISION DE IMPULSOS receptor no es idéntica a m(t) debido a los efectos del ruido aditivo n(t) y del ruido de cuantificación. El tema de las repetidoras. La operación inversa en el receptor. se efectúa con un “convertidor digital-analógico. es decir. pero como la señal PCM de banda de base es una secuencia serie. etc. El número de repetidoras y el espaciado entre ellas depende de una cantidad de factores tales como el medio de transmisión (conductores metálicos. Hay que señalar que en los convertidores analógico-digitales prácticos la salida se presenta en forma paralela. se aplica luego al convertidor digital-analógico y por último se pasa por un filtro pasabajo. PCM + errores x q ( mTs ) + errores PCM + Ruido Detector/ Regenerador Descodificador Sincronización (Reloj) Filtro Pasabajo ~ m(t ) Fig. Recepción de Señales PCM. de la longitud total del enlace. como se muestra en la Fig. para cualquier valor de n y para diferentes velocidades de conversión y códigos de salida. MOS. En la práctica. 5.). . etc. en el sistema PCM la reconstrucción perfecta de una señal de variación continua es imposible aún cuando el ruido n(t) sea despreciable. en otras palabras. de la frecuencia de portadora.37(a). en el comercio se encuentran tres tipos de circuitos integrados que producen salidas serie normalizadas: el transmisor/receptor asincrónico universal (UART). de su atenuación y distorsión de fase por unidad de longitud.339 V.37(b). se utiliza estaciones repetidoras para regenerar los impulsos deformados por el ruido y por las características físicas del canal. el proceso de cuantificación y codificación es efectuado por un solo dispositivo denominado “convertidor analógico-digital. fibras ópticas. 5. RCA. (CAD)”. en el registro se transforma en PCM paralela. radio. como se muestra en la Fig. aunque interesante. La operación y descripción de estos circuitos se puede hallar en cualquier catálogo de componentes (Motorola. etc. estas repetidoras están situadas a distancias apropiadas a lo largo de la trayectoria de transmisión. 5. Para la demodulación el proceso es contrario: la señal PCM es procesada en el detector regenerador. (CDA)”. Estos dos convertidores son fácilmente disponibles a costos moderados como circuitos de mediana y gran escala de integración (MSI y VLSI). etc. es necesario efectuar una transformación paralelo/serie utilizando comúnmente registros de desplazamiento (“shift-registers”). en todas las tecnologías (TTL.). todos los canales de comunicación en mayor o menor grado atenúan y distorsionan las señales. la conversión de la señal PCM en una señal analógica PAM.

Aunque la voz contiene frecuencias superiores a los 10 kHz. el espaciado entre impulsos es uniforme a fin de ocupar el mínimo ancho de banda.37.35(a). el cual es mucho mayor que el ancho de banda nominal de 4 kHz del canal de voz. consideremos la transmisión digital de la voz en sistemas telefónicos. para 1 Ts ≤ se tiene: 2f m 1 ⎧ ⎪Ts = nτ. N = 2 n el número de niveles de cuantificación y β m la relación de expansión del ancho de banda.340 V. A este respecto.101) (5. y.2 kHz y luego se muestrea a una frecuencia de 8000 muestras por segundo. Cada muestra ha sido codificada en secuencias de n impulsos. Puesto que β m >> 2 . la señal de voz se filtra primero en un filtro pasabajo de 3. está relacionada con la exactitud con la cual se puede recobrar la señal. de 64 kHz. MODULACION Y TRANSMISION DE IMPULSOS x(mTs ) PCM Paralelo (n líneas) PCM Paralelo (n líneas) Registro x q (mTs ) CDA m(t) P A M CAD PCM Detector/ Registro Serie Regenerador ~ Filtro m(t ) Pasabajo Reloj (a) Transmisor PCM (b) Receptor PCM Fig. fm la frecuencia máxima de la señal mensaje m(t). B PCM ≥ = = log 2 N Secuencias RZ: τ Tn RT RT y βm = 2 log 2 N RT (5. 5. es decir. La importancia de estos resultados es que la relación de expansión del ancho de banda en PCM es proporcional al número de impulsos por grupo de codificación. . R T = .102) donde RT es el ciclo de trabajo. B PCM ≥ τ = 2nf m = 2f m log 2 N ⎪ Secuencias NRZ: ⎨ B ⎪ PCM = β m ≥ 2 n = 2 log 2 N ⎪ fm ⎩ 1 2 nf m 2f m τ Ts = nTn . Sistema de Transmisión y Recepción PCM Sincronizador (Reloj) Ancho de Banda y Relaciones S/N en Sistemas PCM Los impulsos transmitidos en PCM fluyen generalmente a una frecuencia constante. hay que considerar si las secuencias PCM son sin o con retorno a cero (NRZ o RZ). vemos también que el sistema PCM es un sistema de banda ancha en el cual se puede intercambiar ancho de banda por relación señal-ruido. como tal. como se muestra en la Fig. Como ejemplo de los requerimientos de ancho de banda en PCM. 5. Como norma en los sistemas telefónicos. Las muestras se cuantifican en grupos de 8 dígitos (256 niveles) y el ancho de banda de la señal PCM será. en consecuencia. de acuerdo con (5. Esta es la razón por la cual no se puede transmitir voz digitalizada en PCM por los canales telefónicos.101). la mayor parte de su energía está concentrada en la gama de 100 a 600 Hz y un ancho de banda de 3 kHz es suficiente para una buena inteligibilidad.

Cuando n ≥ 4. distorsionan la señal m(t) recuperada.103) (5. el ruido de transmisión. Sin embargo. no hay un camino continuo de transmisión para el ruido como lo hay en los sistemas de modulación analógica ya vistos.106) B β = m . < s 2 (t ) >= S o = o (∆Q) 2 2 n (2 − 1) 12 (5. De (5.341 V. la expresión (5. β m = 2n . Como en el caso de los sistemas PAM. que son de interés: uno es el ruido de transmisión. y normalmente el ruido de transmisión no se toma en cuenta en el diseño original del sistema. Como ya lo hemos señalado. ya mencionados. mientras que el ruido de cuantificación se genera únicamente en el transmisor y es llevado hasta la salida del receptor. generalmente el ruido de transmisión no aparece a la salida.101). MODULACION Y TRANSMISION DE IMPULSOS En cuanto al ruido. Estos grupos erróneos son interpretados en el descodificador como amplitudes falsas que. puede causar errores de decisión en el detector. n = . se puede caer dentro de la región umbral y los resultados de dicha expresión ya no serían válidos. para relaciones S i / N i menores.104) y < n 2 (t ) >= N o = q (∆Q) 2 12 La relación S/N de postdetección será entonces So = 2 2n − 1 = N 2 − 1 No (5. respectivamente. en los sistemas PCM hay dos tipos de ruido. la relación S/N a la salida está limitada únicamente por el ruido de cuantificación. entonces 2 2n >> 1 y So = 2 2 n = N 2 para n ≥ 4 No (5. con el resultado que éste emite la correspondiente secuencia de impulsos regenerados pero erróneos. el ruido de transmisión se hará muy pequeño en comparación con el ruido de cuantificación (caso de alta relación S/N). el efecto del ruido de transmisión es despreciable y la calidad del proceso de detección mejora rápidamente a medida que la potencia de la señal aumenta sobre la región umbral. como veremos más adelante. son. Cuando se opera con relaciones S/N de entrada muy por encima de la región umbral. El ruido de transmisión se puede introducir en cualquiera parte entre el transmisor y el receptor. y el otro el ruido de cuantificación. Aparte de estos errores ocasionales. denominado también “ruido de descodificación”.105) Para altas relaciones S i / N i en el canal (10 dB o más). esto es. 1977] que las potencias promedio de la señal PCM y del ruido de cuantificación a la salida del descodificador. en PCM binario. si consideramos que la señal es regenerada en cada estación repetidora. Asimismo. de donde 2f m 2 Consideremos secuencias PCM NRZ.105) es válida. PDM y PPM. Se ha demostrado [Gregg. sin embargo. en PCM existe también una región umbral bajo la cual el comportamiento del sistema disminuye rápidamente debido a los errores producidos por el ruido de transmisión. por supuesto. Sobre la región umbral.

etc.02 ⋅ n ⎣ N o ⎦ dB en PCM NRZ (5. que la potencia promedio del ruido de descodificación es 2 < n d (t ) >= (∆Q) 2 2 n 2 ⋅ Pe 3 (5.342 V. la relación S o / N o es prácticamente constante. de (5. La relación de postdetección S o / N o en PCM. Puede observarse el efecto del umbral para valores altos de Pe (baja relación S i / N i ).01⋅ β m = 20 ⋅ log 10 N = 6. Biglieri y Castellani. la potencia total de ruido a la salida será entonces 2 2 N o =< n q (t ) > + < n d (t ) > (5.110) donde Pe . . la probabilidad de error. para valores bajos de Pe (alta relación S i / N i ). Se demuestra [Shanmugan. Cuando se compara PCM con PAM. depende del tipo de modulación utilizado y de la relación de predetección S i / N i a la entrada del receptor. Bennet y Stein. 1987. d q El cálculo de la potencia del ruido de descodificación es complicado por el hecho de que el número de errores por grupo de codificación es aleatorio y la severidad de un error depende de si él ocurre o nó en los dígitos más significativos del grupo de codificación. 1979].38(a) se grafica la relación S o / N o en dB para diferentes valores de n. PDM o PPM. Si el ruido de descodificación no puede ser despreciado. 1966. 5. La probabilidad Pe de que el detector produzca un estado “1” cuando un estado “0” fué transmitido (o viceversa) es un parámetro necesario en el cálculo de la potencia del ruido de descodificación.110). MODULACION Y TRANSMISION DE IMPULSOS So = 2 β m = N 2 en PCM NRZ No (5. Benedetto. So 2 2n − 1 2 2n = ≈ N o 1 + 2 2 ( n +1) ⋅ Pe 1 + 2 2 ( n +1) ⋅ Pe y en dB en PCM (5. (En la referencia citada más arriba [Shanmugan. ⎡ So ⎤ ⎢ ⎥ = 3.104) y (5. véase también [Schwartz. (5.108) La relación señal/ruido de cuantificación crece exponencialmente en función de la relación de expansión del ancho de banda. pues.104). cuando se toma en cuenta el ruido de descodificación es.112) En la Fig. 1979]. se calcula la probabilidad de error Pe para diferentes esquemas de modulación PCM. El sistema PCM es. se observa que el intercambio “ancho de banda-relación S/N” es mucho más favorable en PCM que en los otros sistemas.103).109) donde < n 2 (t ) > es la potencia del ruido de descodificación y < n 2 (t ) > viene dada por (5.107) y en dB.]).02 ⋅ n − 10 log 10 1 + 2 ⎣ N o ⎦ dB [ ] en PCM (5. un sistema de banda ancha.111) ⎡ So ⎤ 2 ( n +1) ⋅ Pe ⎢ ⎥ = 6.

La expresión (5.473x10 −2 Peopt = f ⎜ ⎢ i ⎥ ⎟ = ⎜ N ⎟ 2 2n ⎝ ⎣ i ⎦ min ⎠ . Este valor de Pe corresponderá a la mínima potencia transmitida (o recibida) y se puede considerar como el valor óptimo de la probabilidad de error. es decir.343 V. 5. Si Pe = g ( ⎛⎡ S ⎤ ⎞ Si ) . MODULACION Y TRANSMISION DE IMPULSOS El umbral se define arbitrariamente [Shanmugan. En efecto.473x10 −2 2 2n para n entero (5. entonces Peopt = f ⎜ ⎢ i ⎥ ⎟ y de la expresión (5.113) ⎛ ⎡ S ⎤ ⎞ 6. y por cuanto Peopt corresponde a la mínima relación S i / N i . Puesto que la probabilidad de error Pe depende del esquema de modulación empleado y de la relación de predetección a la entrada del receptor. pues aumentos en la relación de predetección S i / N i no se traducen en aumentos en la relación de postdetección S o / N o .112). que es la misma expresión (5.113) En la Fig. de la definición de umbral se obtiene Peopt = 6.38(b) se grafica Peopt vs n. Peopt ” a partir de la expresión (5. si la probabilidad de error es una función de S i / N i .113) permite determinar rápidamente la probabilidad de error correspondiente a la mínima potencia transmitida (o recibida) para un valor dado de n y máxima relación S o / N o . En efecto. 1979] como “el valor de la probabilidad de error Pe para el cual la relación [S o / N o ] dB cae en 1 dB respecto a su valor máximo constante”. Se puede definir entonces la “probabilidad de error óptima. entonces esta relación S i / N i mínima se puede deducir a partir de la expresión (5.113).113). ⎜ N ⎟ Ni ⎝ ⎣ i ⎦ min ⎠ para n entero.

la salida cuantificada correspondiente a una entrada de -10 V tiene el valor -9..05 ⋅ Vmax = 0. mientras que el correspondiente valor mínimo de la relación S/N de predetección se puede determinar a partir de la expresión (5.05 ∆Q . Más adelante volveremos sobre este tema.344 V.531 V .114). El valor máximo de la relación S/N de postdetección será de 6. El valor límite de S o / N o dependerá solamente del número n de impulsos de las secuencias PCM. En consecuencia. siendo el nivel de comparación igual a -10. De acuerdo con la expresión (5. Cálculo de otros parámetros: Ancho de banda de la banda de base: B = 2 nf m = 2 x5x5x10 3 = 50 kHz.8 Se quiere transmitir en PCM NRZ una señal m(t) cuya frecuencia máxima es de 5 kHz y cuya amplitud varía entre -10 V y + 15 V.02n dB. al estudiar algunos esquemas de modulación de impulsos mediante portadora modulada. β m = 10 Relación S/N de postdetección: Probabilidad de error óptima: So = N 2 = 1024 = 30. N = 2 n = 32 niveles. en la Sección 5. Vmax = | m(t )|max = 15 V. La función g(.1 dB No Peopt = 6. Ts = Se quiere que e max = 1 2f m ∆Q 2n = 0. ∆Q = 2 Vmax 30 = = 0. MODULACION Y TRANSMISION DE IMPULSOS La expresión (5.89). En resumen.531 V ≤ x q (mTs ) ≤ 14. aumentos en la relación de predetección no se traducen en aumentos en la relación S/N de postdetección. También. Se desea que la resolución o error máximo esté dentro del ± 5% del valor pico de la señal mensaje. por lo tanto.938 V N 32 ∆Q = 14.93). de donde.313.) depende del esquema de modulación utilizado. 2 2 pues n es un número entero.32 x10 −5 . el cuantificador tendrá 32 niveles con una separación de 0.531 V 2 de donde 2 n = 20 → n = 5. (m(t) = -10 V). Algunas de estas funciones g(. la relación de postdetección S o / N o alcanza el valor de 6.02n dB.781 V (k = 12). que es independiente de la relación de predetección S i / N i . De (5. cuando se aumenta la potencia de la señal de entrada.. sobre el umbral.113) permite determinar la relación de predetección mínima S i / N i para un valor determinado de n. ♣ Ejemplo 5. Vqmax = (N − 1) −14.844 V (k = 11) y -10.844 V.4.90). está entre -9. el valor mínimo de m(t). Vamos a calcular todos los parámetros asociados.) las veremos más adelante.938 V entre niveles.7. De (5. De acuerdo con los datos.

5. 5. Se tiene entonces. La frecuencia máxima de la señal es de 500 Hz. ∆Q = Rq 2 Para que el cuantificador no se sature o recorte la señal. Vmax = Vqmax + ∆Q ∆Q = (2 N − 1) . 5.114) 0 ≤ m(t ) ≤ Vmax . Vamos a determinar todos los parámetros asociados y las formas de las secuencias PAMq RZ y PCM NRZ. La amplitud de m(t) varía entre 0 V y 7 V con un error máximo tolerable de 0.9 De (4. e max = 2 .5 V. Fig.39(a). Vqmax = valor máximo de la señal PAM cuantificada x q (mTs ) Vmax = valor máximo de la señal PAM muestreada x ( mTs ) ∆Q = error máximo o resolución ∆Q = paso de cuantificación. Como el sistema es Ts binario y no se especifica impulsos redundantes. Este es un caso de cuantificación uniforme unipolar y las ecuaciones que caracterizan al cuantificador son ligeramente diferentes de las determinadas para cuantificación bipolar. Para un cuantificador uniforme unipolar. a partir de la Fig. la velocidad de modulación es de 50 kbaudios.39.345 V.34. 5. ♣ ♣ Ejemplo 5. 7∆Q 6∆Q 5∆Q m(t) x q (mTs ) (a) 4∆Q 3∆Q 2∆Q ∆Q ∆Q ∆Q Vmax Vqmax t (b) PCM (NRZ) 0 1 Ts 1 0 MS 0 τ 1 1 1 0 1 0 1 0 t 0 LSB Fig. Vqmax = (N − 1)∆Q = (2 n − 1)∆Q . MODULACION Y TRANSMISION DE IMPULSOS log 2 N = 50 kbps . la cual queremos codificar en PCM NRZ. 2 2 N e max = y n son siempre números enteros (5. la velocidad de información es Vi = Sea una señal m(t) como la mostrada en la Fig.39(a). se tiene.18).

6 V. El mecanismo para disminuir la redundancia es el siguiente: en vez de codificar y transmitir cada muestra por separado. (5. τ = s . 5.4. las muestras codificadas contienen información redundante que no es absolutamente esencial para la transmisión de la información. 5. ♣ 5. siguiendo la práctica usual. 3 V. En el transmisor. Cuando estas muestras son codificadas en PCM convencional. B = = 3 kHz 3 τ En el presente ejemplo. DPCM”. En la Fig. Ts = 1 ms. Modulación Diferencial de Impulsos Codificados (DPCM) Cuando una señal de voz. 5. Fig. su velocidad de información. los valores de la señal PAM cuantificada x q (mTs ) en los instantes 0. 110. e max = Peopt = 1. que corresponden a las secuencias binarias (de tres dígitos cada una) 011. mientras que el bit de mayor peso (MSB) se transmite de último. respectivamente. la señal de entrada al cuantificador es x (mTs ) = m(mTs ) − m(mTs ) siendo su salida x q (mTs ) = [ m(mTs ) − m(mTs )] q = x (mTs ) + e q (mTs ) donde e q (mTs ) es el error de cuantificación.40(a).3.116) . MODULACION Y TRANSMISION DE IMPULSOS ∆Q = 0. en la cual. 5 V y 2 V. que en promedio la señal no varía demasiado entre una muestra y la siguiente.5 ⋅ V ∴ ∆Q = 1 V 2 ∆Q | m(t )|max = 7 = Vmax = (2 N − 1) ∴ N =8 y n=3 2 T 1 También. comparado con el sistema PCM convencional. Ts . Este esquema de modulación de impulsos se denomina “Modulación Diferencial de Impulsos Codificados.40 se muestra el diagrama de bloques funcional de un sistema (transmisor y receptor) DPCM.39(b) se muestra la forma de la señal PCM NRZ. se codifica y transmite la diferencia entre dos muestras adyacentes. pero.115) (5. esto es. 2Ts y 3Ts son. 101 y 010. La eliminación de esta redundancia permite aumentar el rendimiento del sistema. La información está contenida en esta diferencia. respectivamente.346 V. f s = 2 f m = 1 kHz. el bit de menor peso (LSB) se transmite de primero.01x10− 3 .39(a). 5. En la Fig. es decir. el número de dígitos de los grupos de codificación será menor. música o video se muestrea a frecuencias ligeramente superiores a la frecuencia de Nyquist. Vi = n = 3 kbps Ts De la Fig. se observa que la variación de amplitud entre muestras adyacentes presenta una alta correlación.

por lo menos. ~ m q (mTs ) = m(mTs ) + e q (mTs ) (5. N = 256 = 28 (código de 8 dígitos) para tener una calidad comparable. En este caso particular. ADPCM”. y la señal x (mTs ) es el “error de predicción”. pero en retorno el ancho de banda de la banda de base se reduce pues la diferencia [ m( mTs ) − m( mTs )] se puede representar con pocos niveles de cuantificación si m(t) no experimenta cambios drásticos de una muestra a la siguiente. ~ La señal cuantificada será. pues si se conoce el comportamiento anterior de una señal hasta un cierto punto en el tiempo. un sistema DPCM con N = 8 = 23 (código de 3 dígitos) es aceptable para transmitir una señal de video. Por ejemplo. A la entrada de la red de retardo Ts la señal es ~ m q ( mTs ) = m( mTs ) + x q ( mTs ) = m( mTs ) + x( mTs ) + e q ( mTs ) Reemplazando x (mTs ) dado por (5. y como m(mTs ) = m q [(m − 1)Ts ] . ≤| x q ( mTs )| ≤ ( N − 1) 2 2 { }q y tendrá Puede verse que si N > 2.722 de la UIT-T se establece una frecuencia de muestreo de 16 . En este caso el sistema se denomina “Modulación Diferencial Adaptativa de Impulsos Codificados. 5. La señal m( mTs ) es entonces una “predicción de m(mTs ) ”. x q ( mTs ) = m( mTs ) − m q [( m − 1)Ts ] valores discretos en el intervalo ∆Q ∆Q . la instrumentación en DPCM es tan compleja como en PCM convencional. ya que es la cantidad mediante la cual el filtro de predicción falla en la predicción exacta de la entrada.116).115) es la diferencia entre dos muestras consecutivas que una vez cuantificada y codificada dará origen a la señal DPCM.117) ~ La señal m q (mTs ) es entonces la versión cuantificada de la señal de entrada muestreada ~ m(mTs ) . En la Recomendación G.115). La señal x ( mTs ) dada por (5.40. de (5. es posible hacer una cierta inferencia acerca de sus valores futuros. entonces m(mTs ) representa la versión cuantificada de m(t) en el intervalo Ts anterior. MODULACION Y TRANSMISION DE IMPULSOS Modulador PAM m(mTs ) + m(mTs ) x(mTs ) _ x q (mTs ) Cuantificador + + Codificador Señal DPCM (a) Transmisor DPCM Señal DPCM Detector/ Regenerador Retardo Ts x q (mTs ) + ~ m q (mTs ) ~ m q (mTs ) + Descodificador m(mTs ) Filtro km(t) Pasabajo Retardo Ts (b) Receptor DPCM Fig. el ancho de banda de la banda de base se reduce en 3/8.347 V. mientras que en PCM convencional se necesitaría. Sistema de Modulación DPCM. La red de retardo en el lazo de retroalimentación del transmisor se puede reemplazar por un filtro predictor.

5. 5. cuando se muestrea a frecuencias normales ( f s ≥ 2f m ). con el cuantificador reemplazado por un operador signo. y cuya salida es una señal en escalera que representa una versión cuantificada de la señal de entrada.41. En el transmisor. Asimismo. Esto permite. dependiendo del . El cálculo del ancho de banda de la banda de base y de la relación S/N de cuantificación es similar al del PCM convencional y no lo discutiremos aquí. 5. m(t ) . Nótese la simplicidad en la instrumentación. El diagrama de bloques funcional de un sistema de modulación delta lineal es idéntico al del sistema DPCM mostrado en la Fig. se tiene el sistema de modulación delta lineal mostrado en la Fig. Sistema de Modulación Delta Lineal. lograr aumentar el ancho de banda de la banda de base hasta 7 kHz para transmisión de voz de alta calidad. comúnmente denominado “limitador estricto (hard limiter)”.41(a). la información a transmitir de cada muestra se puede representar en forma binaria como el sentido de la variación respecto a la muestra precedente. el sumador y el operador signo se pueden instrumentar mediante un comparador. puede ser importante y corresponder a un gran número de niveles de cuantificación. 5. pues. Fig. la señal m(t) se compara con una aproximación en escalera de ella misma. utilizando ADPCM. MODULACION Y TRANSMISION DE IMPULSOS kHz con 14 dígitos binarios por muestra.41.4. Este esquema de codificación se conoce con el nombre de “Modulación Delta Lineal” y puede considerarse como un caso especial del sistema DPCM con N = 2 . Si se aumenta la frecuencia de muestreo hasta que se esté seguro de que la diferencia de amplitud entre una muestra y la siguiente no sea mayor que un cierto paso de cuantificación. es decir. 5.4.348 V. El cuantificador es. Modulación Delta Lineal (DM) En el esquema de modulación DPCM la diferencia de amplitud entre dos muestras adyacentes. duración τ y amplitud ±A. la diferencia de amplitud entre dos muestras adyacentes se cuantifica en dos niveles +∆ ó -∆. El elemento de retardo y el sumador en el lazo de retroalimentación se pueden reemplazar por un integrador cuya entrada es una secuencia de impulsos bipolares de período Ts . un “operador signo” mucho más sencillo de instrumentar que un cuantificador multiniveles convencional. y la salida del cuantificador se representa entonces mediante un simple dígito binario que indica el signo (positivo o negativo) de la diferencia entre las muestras. Como consecuencia. como el paso de cuantificación es constante y de valor ∆. se dice entonces que éste es un sistema de modulación delta lineal.40. e(t ) = [m(t ) − m(t )] = ± ∆ Entrada Filtro m(t) Analógica Pasabajo m(t ) + _ Generador de Impulsos Bipolares fs Señal DM x ∆ (t ) (a) Transmisor DM x ∆ (t ) + Ruido Comparador Integrador Filtro Pasabajo m(t ) + Ruido Integrador km(t) (b) Receptor DM Fig. La salida del comparador serán niveles de amplitud ± ∆ .

En algún instante m(t ) se hará mayor que m(t). la salida será de nuevo un impulso positivo y el integrador incrementará otro escalón. 5. de modo que el valor promedio de la señal x ∆ (t ) es cero. El receptor DM. Si e(t) no se ha vuelto negativa. que constituye la señal de error. si se cumple ciertas condiciones que veremos más adelante. esta nueva m(t ) se vuelve a comparar con el m(t) actual. La situación se invierte cuando la pendiente es negativa. 5.41(b). La información va contenida en la operación signo. Si e(t) es positiva en un instante de muestreo dado. Fig. En la Fig. Formas de Onda en Modulación Delta Lineal. lo que ocasionará que e(t) sea negativa y en el instante de muestreo siguiente se producirá un impulso de salida negativo resultando en un decremento de m(t ) en un escalón. variando la polaridad de los impulsos de salida. hay aproximadamente igual número de impulsos positivos y negativos. Operación Normal. Nótese que cuando la pendiente de m(t) es positiva. m(t ) tiende en promedio a m(t) y el valor promedio de x ∆ (t ) será cero. se generan más impulsos positivos que negativos. 5.42 se muestran todas las formas de onda en modulación delta lineal en operación normal. período Ts y duración τ . . Esta estructura en retroalimentación minimiza la diferencia. MODULACION Y TRANSMISION DE IMPULSOS signo de e(t).118) Esta es una secuencia binaria aleatoria bipolar de amplitud ± A. m(t ) se incrementa en un escalón de amplitud ∆ . En general. tendrá entonces la forma x ∆ (t ) = n =−∞ ∑ A ⋅ sgn[m(nT ) − m(nT )] ⋅ Π( s s ∞ t − nTs ) τ (5. La señal modulada en delta. es bastante sencillo y consta de un integrador y de un filtro pasabajo. cuando este impulso se integra. se produce un impulso de amplitud A a la salida. En aquellos puntos de m(t) en los cuales la pendiente es muy pequeña.42. x ∆ ( t ) . m(t) m(t ) ∆ Ts x ∆ (t ) τ +A t -A Fig.349 V.

5. Supongamos que inicialmente m(t ) < m(t ) . El error o ruido granular se puede reducir aumentando la frecuencia de muestreo y/o disminuyendo la amplitud del paso de cuantificación ∆. de ahí el nombre de “sobrependiente”. Ruido Granular y de Sobrependiente en Modulación Delta Lineal. 5. Cuando la diferencia es mayor que ∆. se produce un incremento ∆ en m(t ) . m(t ) la sigue en forma escalonada mientras las muestras sucesivas de m(t) no sean mayores que ∆. El fenómeno de sobrependiente es una limitación básica en la modulación delta lineal. 5. Supongamos que m(t) es sinusoidal de la forma máxima de m(t) será ⎤ ⎡d = 2πf m A m ⎢ dt m(t )⎥ ⎦ max ⎣ m(t ) = A m sen(2πf m t ) . Arranque m(t) Ruido de Sobrependiente Ruido Granular ∆ Ts m(t ) Fig. m(t ) ya no puede seguir a m(t) produciéndose el fenómeno de “sobrecarga o sobrependiente”. de modo que una condición suficiente para evitar la sobrependiente es que ∆ 2πf m A m ≤ = ∆ ⋅ fs (5. Cuando este impulso se retroalimenta a través del integrador.350 V. . La pendiente (5. de (5. Cuando m(t) cambia. MODULACION Y TRANSMISION DE IMPULSOS Algunos de los problemas que ocurren cuando se utiliza la modulación delta lineal para la transmisión de señales analógicas se pueden observar en la Fig. de manera que el primer impulso de salida sea positivo. m(t ) exhibe un comportamiento de rastreo sobre m(t) lo que da origen al “error o ruido granular”. Este tipo de sobrecarga no está determinado por la amplitud de m(t) sino más bien por su pendiente. como se muestra en la Fig. 43.119) La pendiente máxima de m(t ) es ∆ / Ts . 5.43. como se muestra en la Fig. Si m(t) permanece constante.120) Ts La amplitud máxima de m(t) a partir de la cual se produce sobrependiente será.43. Vamos a determinar las condiciones necesarias para prevenir la sobrependiente.43. y se produce cuando la pendiente de m(t) es superior a la pendiente máxima de m(t ) .120). Este proceso continúa durante el “intervalo de arranque” hasta que m(t ) excede a m(t) y se produce un impulso negativo.

por ejemplo. operando sobre una secuencia de error. en la Modulación Delta de Pendiente Variable (VSD) la ganancia se ajusta sobre una base discreta. como veremos más adelante. y permanecerá en este estado mientras la variación de la señal de entrada no sobrepase el valor ∆. Por ejemplo. el rango dinámico de amplitud se puede definir en la forma Am A 1 fs RA = = m = ( ) (5. asimismo. su ancho de banda será 1 1 τ B DM ≥ . en la Modulación Delta Controlada Digitalmente (DCD) se utiliza un comparador digital que. Ancho de Banda y Relaciones S/N en Sistemas de Modulación Delta Lineal Como la señal de banda de base en modulación delta básicamente es una secuencia de impulsos de período Ts y duración τ . pero por otro lado.351 V. o aumentando el valor del paso de cuantificación ∆ o la frecuencia de muestreo f s . en la Modulación Delta de Pendiente Continuamente Variable (CVSD) el valor de la ganancia se ajusta sobre un rango continuo.121) Cuando la variación de m(t) es menor que ∆. se puede establecer un límite superior del rango de amplitudes tomando precisamente este valor como el de la mínima entrada reconocible por el codificador. el ancho de banda es del orden de 64 kHz. ver la bibliografía. denominación adoptada para distinguirla de la Modulación Delta Lineal. El mejor método para evitar la sobrependiente es la de detectar la condición de sobrecarga y ajustar el valor de ∆ haciéndolo más grande mediante un control de ganancia en el lazo de retroalimentación del modulador. La frecuencia de muestreo f s debe ser mucho mayor que la frecuencia máxima de la señal mensaje si se quiere un rango de amplitud razonable.122) A min ∆ 2π f m El rango dinámico RA puede considerarse como el número de escalones de amplitud ∆ necesarios para alcanzar la amplitud A m . m(t ) será una señal periódica rectangular de amplitud pico a pico igual a ∆. el rango de amplitud no puede ser muy alto porque ello implicaría altos anchos de banda de la banda de base. Fig. Para más información sobre las técnicas adaptativas. Si se disminuye f m o se aumenta ∆. si definimos = . Estas tres son formas de la Modulación Delta Adaptativa. en la transmisión de voz en PCM con f s = 8000 y n = 8 . MODULACION Y TRANSMISION DE IMPULSOS Am = ∆ fs ( ) 2π f m (5. entonces B DM ≥ 2f s (5.42. la resolución de la señal será muy pobre y la distorsión aumentará. Aunque en este caso la distorsión de salida es muy severa. 5. . Sea entonces A min = ∆ . controla la ganancia. el ancho de banda es mayor. El problema de la sobrependiente se puede reducir entonces disminuyendo f m mediante filtrado de m(t). para una calidad comparable. si se aumenta la frecuencia de muestreo se aumentan los requerimientos de ancho de banda de la banda de base. Los métodos de control de ganancia han dado origen a diferentes técnicas de la modulación delta.123) τ Ts 2 El ancho de banda de la banda de base es bastante grande. mientras que en la modulación delta.

es decir. MODULACION Y TRANSMISION DE IMPULSOS Veamos ahora la influencia del ruido en modulación delta lineal. La relación de postdetección So/No se puede expresar en términos de ∆ r y Fs . Fs ” en la forma ∆r = f ∆ ∆ = y Fs = s A m | m(t) |max fm (5. 1990].127b) Generalmente se define el “Escalón o Paso Relativo. La salida del demodulador difiere de la entrada del modulador debido a la presencia del ruido de cuantificación (granular) n q (t ) y del ruido de sobrependiente n s (t ). En efecto. 1 ⎧ ⎪ 5/ 2 2 ⎡ ∆ ⋅F ⎤ S o ⎪ 1.8 ⋅ ⎢1 − ⎥ 2 ⎣ 2πf m A m ⎦ (5. El valor máximo de la relación So/No será entonces .129) para ∆ r ⋅ Fs > 2π En la Fig. en función del escalón relativo ∆ r para diferentes valores de la frecuencia de muestreo normalizada Fs . de (5.125) Para simplificar el cálculo de la potencia promedio de la señal. 5. en dB.124) (5.126) En cuanto a las potencias de ruido.128) Nótese que.44(a) se grafica la relación de postdetección So/No . que N oq =< n 2 (t ) >= q y N os =< 2 n s (t ) ∆2 3 5/ 2 (5.352 V. que s o (t ) = A m sen(2πf m t ) cuya potencia promedio es S o =< s 2 (t ) >= o A2 m 2 (5. donde ∆ rop es el “escalón relativo óptimo” correspondiente.122). se demuestra [Schwartz. ∆ r es el inverso del rango dinámico RA . consideremos el peor caso en la modulación delta lineal donde toda la potencia está concentrada en la parte superior de la banda de base. esto es y( t ) = s o ( t ) + n q ( t ) + n s ( t ) La relación S/N de postdetección será entonces 2 < s o (t) > So So = = 2 2 N o < n q ( t ) > + < n s ( t ) > N oq + N os (5. ∆ r ” y la “Frecuencia de Muestreo Normalizada.127a) ⎡ ∆ ⋅ fs ⎤ A2 >= m 1.8 ⋅ ⎢1 − r s ⎥ + ∆2 ⎪ r =⎨ 2π ⎦ 3 ⎣ No ⎪ 3 ⎪ ⎪ 2∆2 ⎩ r para ∆ r ⋅ Fs ≤ 2π (5. Nótese que la relación So/No es máxima cuando ∆ rop ⋅ Fs = 2π .

MODULACION Y TRANSMISION DE IMPULSOS ⎡ So ⎤ 3 = ⎢ ⎥ 2 ⎣ N o ⎦ max 2∆ rop (5. sobre el umbral. La comparación se puede efectuar observando la curva para n = 8 de la Fig. de (5. Por consiguiente. Si el ancho de banda del canal lo permite. Se puede comparar el comportamiento de los sistemas PCM y DM en términos de la señal y de la complejidad de instrumentación. Para valores altos. 5. puesto que si se aumenta f s se reduce el paso o escalón ∆ requerido para mantener un nivel específico de ruido de sobrependiente. 5.44(b) se relacionan los parámetros Fs y ∆ rop de tal manera que. Nótese que la relación So/No mejora aumentando la frecuencia de muestreo f s (para f m constante). para un mismo ancho de banda de la banda de base. el ruido de cuantificación se reduce pero el ruido de sobrependiente aumenta rápidamente. si consideramos un sistema PCM de 8 dígitos binarios (n = 8) para transmitir una señal de f m = 4 kHz de ancho de banda. el sistema PCM está por encima del valor óptimo del sistema DM en más de 43 dB. conocido un parámetro. reduce el ruido de cuantificación. la frecuencia de muestreo normalizada en DM es Fs = 8 . Esto. Para asegurar que la comparación se efectúa en idénticas condiciones.353 V. el valor del otro para máxima relación de postdetección So/No. donde Fs es la frecuencia de muestreo normalizada en modulación delta y n el número de dígitos por grupo de codificación en modulación PCM.44(a) en DM. . el mejor compromiso en modulación delta lineal es entonces el de aumentar la frecuencia de muestreo f s (o Fs ). mientras que a la izquierda domina el ruido de sobrependiente. 5. Los valores óptimos del escalón relativo ∆r corresponden a los picos de las curvas (indicados por las líneas a trazos): a la derecha de los valores óptimos domina el ruido granular.128) y (5.101).44(a) se puede notar el angosto rango de valores del escalón relativo en el cual la relación de postdetección es máxima. el ruido de sobrependiente desaparece pero el ruido de cuantificación o granular aumenta. vamos a suponer que ambos sistemas utilizan aproximadamente el mismo ancho de banda para transmitir una señal analógica cuya frecuencia máxima es f m . Esto implica. En la Fig. a su vez. Para valores pequeños del escalón ∆r.38(a) en PCM y la curva para Fs = 8 de la Fig. se puede estimar rápidamente. que 2 f s = 2nf m o Fs = n .130) En la Fig. el comportamiento en PCM es superior al de DM. a partir de la gráfica. 5. Por ejemplo. Nótese que.

130). industriales y espaciales. los correspondientes parámetros serían: . De la forma de m(t). Esta simplicidad. de comunicaciones militares.354 V. necesita un ancho de banda de 32 kHz que es la mitad de lo requerido en PCM. En resumen. El valor máximo de la relación de postdetección se puede calcular a partir de (5. ∆ rop = 2π|m(t)|max 2π ∆ = = 0.8V Fs | m(t )|max Fs La amplitud | m(t )|max = 4 se cubrirá con 5 escalones de amplitud ∆ ≈ 0.8V . por ejemplo. se puede tomar Fs = 32. así como para otros distintos usos en muchas áreas afines.785 ≈ 0. los parámetros para transmisión en DM son: Frecuencia de muestreo: Amplitud del escalón: Relación S/N de postdetección: Ancho de banda de la banda de base: Frecuencia de muestreo: f s = 128 kHz ∆ = 0.907 = 15. y cuya relación S/N de postdetección es del mismo orden que en PCM. MC3418 que es un modulador/demodulador delta de pendiente continuamente variable que permite operar entre 9600 bps y 64 kbps. Por ejemplo. y aún más ahora que se consiguen circuitos integrados para la modulación delta adaptativa. el ancho de banda de la banda de base es B = 2 f s = 256 kHz . ⎡ So ⎤ 3 = 2 = 38.9 dB No B = 256 kHz f s = 2 f m = 8 kHz Nótese que si la transmisión fuera en PCM. ha generado un considerable interés en el uso de las técnicas de la modulación delta en sistemas de telefonía comercial.44(a). como. 5. MODULACION Y TRANSMISION DE IMPULSOS El comportamiento del sistema DM se puede mejorar considerablemente utilizando las técnicas de la Modulación Delta Adaptativa. La relación de postdetección So/No es máxima cuando Fs = 2π / ∆ rop . En cuanto a la complejidad del equipo.I.9 dB ⎢ ⎥ ⎣ N o ⎦ max 2∆ rop De (5.8 V So = 15.196 y ∆ = = 0. Vamos a determinar los parámetros necesarios para su transmisión con una relación de postdetección superior a los 15 dB. de donde f s = 32 f m = 128 kHz . A m =| m( t )| max = 4 y f m = 4 kHz . ya mencionado. En efecto.123). ♣ Ejemplo 5. para una relación S/N de 15 o más dB. entonces. combinada con una buena calidad de voz. el C.10 Se desea transmitir en DM una señal de audio de la forma m(t ) = 4 cos(8x10 3 πt ) . En primer lugar hay que determinar la frecuencia de muestreo normalizada Fs y el escalón relativo ∆ rop óptimo correspondiente. el sistema de modulación delta es mucho más sencillo que en PCM. De la Fig. en transmisión de voz el sistema CVSD.

5. La salida del modulador es una secuencia de impulsos binarios de duración τ que se aplica a un filtro lineal que modifica el perfil de los impulsos de acuerdo con las características del canal. la información digital (secuencias de impulsos) se transmite tal como se genera.5. 5. MODULACION Y TRANSMISION DE IMPULSOS Número de impulsos por grupo: Relación S/N de postdetección: n = 8 (típico) So = 2 2 n = 65536 = 48. de valor promedio cero. Introducción ♣ En general. 45. una secuencia de impulsos PCM (RZ o NRZ) que se transmite por conductores metálicos u ópticos. y (2) la degradación producida por el ruido n(t). La señal z(t) recibida puede estar degradada debido a (1) el efecto combinado de las características de los sistemas H T (f ) y H c (f ) . El canal está modelado mediante un sistema lineal invariante en el tiempo de función de transferencia H c (f ) y una fuente de ruido aditivo n(t) que podemos suponer gaussiano. la relación So/No en PCM es 32. efecto conocido con el nombre de “interferencia intersímbolo”. un sistema digital de banda de base es aquel que transmite información digital generalmente a bajas frecuencias y por canales pasabajo.45. Hay otros factores que intervienen también en menor grado en la degradación de la señal. consideremos el modelo de un sistema de transmisión binario en banda de base mostrado en la Fig. que son los que pueden transmitir señales desde CC en adelante. Transmisión Binaria en Banda de Base. Para generalizar el enfoque.165 dB No Ancho de banda de la banda de base: B = 2 nfm = 64 kHz Para este caso particular. TRANSMISION DE IMPULSOS EN BANDA DE BASE 5.3 dB superior a la de DM. La señal de banda de base será. la fluctuación de fase (“jitter”) y el desvanecimiento selectivo. 5. sin ningún otro tipo de procesamiento o codificación que no sea digital. El filtro H ( f ) de entrada al receptor debe ser diseñado entonces tomando en cuenta todos esos factores.1. entre otros la interferencia intercanal. en general. 5.355 V. (PCM) Fuente Modulador Binario "1" "0" Filtro de Transmisión H c ( f ) v(t) n(t) CANAL z(t) H T (f ) H(f) tn Reloj TRANSMISOR RECEPTOR Fig. pero solamente consideraremos la interferencia intersímbolo y el efecto del ruido. Esto lo haremos más adelante. . de densidad espectral S n ( f ) e independiente de la señal v(t).

5.46(c). costo. Técnicas de Multiplicidad por División de Tiempo (TDM) En el teorema del muestreo se demuestra que es posible transmitir la información contenida en una señal mensaje continua de banda limitada mediante la transmisión de sus muestras tomadas a intervalos regulares. El sistema TDM combina. mediante modulación y sin solapamiento. Fig. La señal PCM/TDM tendrá una configuración como la mostrada en la Fig. . La “Multiplicidad por División de Frecuencia (Frequency-Division Multiplex. 5. pudiéndose aprovechar el intervalo entre muestras para transmitir las muestras de otras señales mensaje. TDM)” 2. La “Multiplicidad por División de Tiempo (Time-Division Multiplex. de los mensajes individuales. La salida del conmutador es una señal compuesta PAM/TDM que contiene las muestras de cada una de las señales de entrada entrelazadas periódicamente en el tiempo.356 V.35(a). En esta sección haremos énfasis en la transmisión en banda de base. El proceso de operación multicanal permite. con la diferencia de que cada grupo de codificación corresponde a un mensaje diferente. mediante las técnicas llamadas de “multiplicidad”. el tiempo es compartido por las señales individuales. una ventaja de la operación multicanal es la disminución de equipo y. las cuales disponen para su transmisión de todo el ancho de banda del canal. 5. se muestrean en forma secuencial mediante un interruptor rotatorio o “conmutador”. como se muestra en la Fig. aunque mucho más complicados. “multiplex” o “multiplaje”. Como solamente se necesita un transmisor y un receptor. La transmisión de cada muestra ocupa todo el ancho de banda del canal pero sólo una parte del tiempo. en el tiempo y sin solapamiento. combinar en el transmisor los mensajes de varias fuentes de información. Cuatro señales diferentes. Esta señal PAM/TDM puede ahora modularse en cualquiera de los sistemas de modulación de impulsos vistos en las secciones anteriores. Este tipo de multicanalización lo estudiaremos con más detalle en el Capítulo VI. codificados o no. los valores de muestra.2. 5. Hay dos formas de multicanalización que son de interés: 1. MODULACION Y TRANSMISION DE IMPULSOS 5. como se muestra en la Fig. limitadas a una banda f m por los filtros pasabajo (FPB) de entrada.46 para cuatro señales diferentes. Esto se efectúa muestreando todas las señales y entrelazándolas. La banda de frecuencias o intervalo de tiempo asignado a cada mensaje individual se denomina comúnmente “canal”. Consideremos el transmisor. por supuesto. La separación de las señales individuales en el receptor se efectúa mediante circuitos de sincronización apropiados. el cual es directamente aplicable a señales continuas. en cuyo caso se tendrá un sistema PCM/TDM. los espectros de las señales mensaje individuales y formar así un espectro compuesto o señal de banda de base compuesta que se transmite. La forma más común es la modulación PCM. transmitirlos como un solo bloque y luego separarlos en el receptor.46(a). FDM)” El sistema FDM. las señales se transmiten simultáneamente pero ellas se reparten el ancho de banda disponible del canal de transmisión. Técnicas de Multicanalización o Multiplicidad En las secciones anteriores se han discutido varias de las técnicas de modulación de impulsos en términos de su habilidad para transportar información generada por una sola fuente. 5. en esencia consiste en colocar lado a lado. Pero en la práctica es necesario enviar simultáneamente una gran cantidad de mensajes diferentes por un medio de transmisión dado. El conmutador efectúa f s revoluciones por segundo y extrae una muestra de cada entrada durante una revolución.

en algunos sistemas se transmite impulsos especiales de sincronización. TM = s = = τ + τg M 2 Mf m y en PCM / TDM. También puede lograrse la sincronización mediante métodos que veremos más adelante. MODULACION Y TRANSMISION DE IMPULSOS m1(t) FPB m2(t) FPB m3(t) m4(t) FPB FPB Señal PAM/TDM Banda de Base m1(t) Señales Muestreadas PAM Conmutador Modulador de Impulsos Secundario PAM/TDM PCM/TDM Canal 0 m2(t) 0 τ (a) TRANSMISOR Señal PAM/TDM Banda de Base Demodulador de Impulsos Secundario Canal PCM/TDM PAM/TDM Sincronización FPB FPB FPB Ts m1(t) m2(t) m3(t) m4(t) 0 0 m3(t) 0 m4(t) Distribuidor FPB TM Una Trama (b) RECEPTOR Sincronización Señal Compuesta PAM/TDM (c) Entrelazado de las Muestras Fig.357 V. Entonces. Fig. de la Fig. y en PAM un impulso de duración τ y un “intervalo de guarda” de duración τ g para prevenir la interferencia mutua o solapamiento entre impulsos de canales adyacentes. τ= TM T 1 = s = n nM 2nMf m . T 1 5. El período de base Ts corresponde al intervalo de Shannon y el conjunto de impulsos en él incluidos se denomina “trama”. 5.46(b). El sincronismo entre el transmisor y el receptor debe ser exacto a fin de que no se produzca distorsión cruzada (“cross-talk”) entre los diferentes canales. 5.47 se muestra el entrelazamiento de M canales en PCM/TDM y PAM/TDM. En el receptor. el proceso es inverso: la señal PCM/TDM es demodulada y convertida en una señal PAM/TDM y mediante el “distribuidor” se separa cada una de las señales mensaje las cuales se envían a sus respectivos canales. Cada canal está asignado a un intervalo o ranura de tiempo de duración TM = Ts / M que contiene en PCM NRZ los n impulsos de duración τ por muestra.47. En la Fig. y los parámetros de interés. Sistema Multiplex por División de Tiempo (TDM). 5. incluidos en la misma señal de banda de base o por canales separados.46. lo cual permite un control exacto de la sincronización. Para lograr esta sincronización.

El producto Bτ = 1. Entrelazamiento de las Muestras en Multicanalización TDM La frecuencia f m es la frecuencia máxima de las señales de entrada. 5.131b) Si Bτ > 1. la frecuencia de muestreo f s dependerá de la mayor frecuencia presente. entonces el intervalo de muestreo Ts = 1 / 2f MAX . es decir. pero este sobremuestreo no representa ningún problema. Las señales cuyas frecuencias máximas son menores que f MAX resultarán sobremuestreadas.47. si f MAX es la frecuencia más alta del conjunto de señales de entrada. En los Ejemplos 5. si las frecuencias máximas de las señales de entrada fueran diferentes. Sin embargo. 5. Interferencia Intersímbolo Un aspecto de considerable importancia en la transmisión de impulsos en banda de base es el ancho de banda requerido para el canal de transmisión. Por ejemplo.358 V. especialmente en transmisión de señales PCM/TDM NRZ. esta frecuencia está limitada por los filtros pasabajo de entrada. A expensas de una pérdida de resolución entre impulsos adyacentes se puede disminuir el ancho de banda para tener el producto Bτ = 1/2. se suelen aplicar dos criterios para la selección del ancho de banda B: 1.12. . es decir. Si B es el ancho de banda del canal y τ la duración de los impulsos a transmitir.3.5. generalmente no hay problemas en la transmisión de impulsos en banda de base.11 y 5. B= 1 2τ (5. B= 1 τ (5. veremos algunas aplicaciones de estos conceptos. MODULACION Y TRANSMISION DE IMPULSOS 1 Canal 1 2 3 n 1 Canal 2 2 3 n 1 Canal 3 2 3 n 1/0 1 Canal M 2 3 n 1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0 τ TM = Ts / M Ts = 1 / 2fm Una Trama τ = TM / n (a) Multicanalización PCM/TDM Canal 1 Canal 2 Canal 3 Canal M TM = Ts / M τ TM τg Una Trama Ts = 1 / 2fm Ts (b) Multicanalización PAM/TDM Fig.131a) 2.

. ±1. pues resulta en distorsión cruzada o de intermodulación.. los impulsos que pueden estar bien separados en el punto de origen.. Supongamos que en el receptor se muestrea la señal recibida mediante muestreo instantáneo y que el impulso recibido tiene su valor máximo en el instante de muestreo y se hace cero en los instantes de muestreo adyacentes. en cuyo caso se tiene la relación duración-ancho de banda dada por (5. a esto hay que agregar otros factores como el perfil del impulso y el método de detección en el receptor. 5. establecidas por Nyquist.48(a).131b) marca el límite teórico del ancho de banda y está de acuerdo con la frecuencia de Nyquist. La cantidad de interferencia depende del ancho de banda del canal. Cuando el ancho de banda aumenta al doble.. resultaría en distorsión de intermodulación.48(b). se puede transmitir teóricamente 2B símbolos por segundo. como se muestra en la Fig. en efecto. para que no se produzca interferencia intersímbolo: (a) que los ceros del impulso . 5. algunas veces llamadas “ecos”. efecto que puede introducir una cierta incertidumbre respecto al instante de muestreo y producir distorsión a pesar de no existir interferencia intersímbolo. Esto significa que si se dispone de un ancho de banda B. mostrado en la Fig.48(a) o (b) para una secuencia binaria NRZ 1 1 0 1 1. no es físicamente realizable. los impulsos recibidos tendrán la forma mostrada en la Fig. es decir. En estos casos no se produce interferencia intersímbolo. En la práctica hay que utilizar anchos de banda más grandes porque la característica pasabajo ideal es imposible de realizar y también porque la inexactitud en los instantes de muestreo producida por fluctuaciones de fase. 5. presentarán una gran dispersión cuando llegan al receptor y se solaparán con los impulsos adyacentes. Nótese lo cercanos que están los impulsos en la Fig.. Esto resulta así cuando los impulsos recibidos tienen la forma a n sinc[(t − nτ ) / τ ] . persistan durante varios intervalos. 5. donde a n = 0 ó 1. dependerá de la dispersión permisible de un impulso sobre los impulsos adyacentes. B = 1/τ. aunque las colas de los impulsos. en este caso la situación ha mejorado pero ésta seguiría siendo la salida de un filtro pasabajo ideal que. No obstante.131b) o en cualquiera otra forma. y τ es la duración de los impulsos.131a) o (5. Los filtros reales deben aproximarse a esta característica ideal pero deben poseer las siguientes propiedades. la expresión (5.359 V.131b). se obtiene utilizando impulsos unitarios en el transmisor y considerando el canal como un filtro pasabajo de ancho de banda B = 1 / 2τ . ±2. pero más importante es el efecto de la amplitud de las colas. MODULACION Y TRANSMISION DE IMPULSOS La cuestión de si el ancho de banda debe ser calculado de acuerdo con (5. Este perfil. si el ancho de banda del canal es demasiado pequeño. Esta dispersión se denomina “interferencia intersímbolo” y es de particular importancia en sistemas PCM/TDM NRZ.48(a). n = 0.. como sabemos.

Igual razonamiento se aplica para la segunda forma del Filtro de Nyquist. que en la práctica las características de los canales son muy variadas y por lo general no pueden ser modificadas. en relación con la Fig.49 y no se producirá interferencia intersímbolo.48(a).48(a) o (b) decrecen solamente con 1/t. 5. Un sistema que cumple con estas características es el Filtro de Nyquist. Nótese que la forma de la salida del filtro de Nyquist tiene características similares a las de la salida ideal mostrada en la Fig. sin embargo. H (f ) = 1 ⎡ f πf ⎤ sinc(2Bt) ⎢1 + cos( B )⎥ ⋅ Π ( 2B ) ⇔ h(t) = 2B ⎣ ⎦ 1 − (2 Bt ) 2 En la Fig. que los sistemas H T ( f ). En resumen.360 V. si en el transmisor se procesan los impulsos de salida de tal manera que sus espectros sean en coseno elevado (o equivalente) con un ancho de banda B ≤ 1/ τ . las troncales telefónicas pueden tener diferentes características de fase y amplitud y pueden producir interferencia intersímbolo en la transmisión en banda de base de señales digitales. y si el canal tiene un ancho de banda B. por ejemplo. que corresponde a la expresión (5. entonces los impulsos recibidos tendrán la forma mostrada en la Fig. se muestra la forma de H(f).49 se muestra la secuencia de impulsos NRZ 1 1 0 1 1 recibida cuando se aplica el criterio de Nyquist. y (c) que el ancho de banda máximo del impulso sea B ≤ 1/ τ . Esto es así porque las colas en el filtro de Nyquist decrecen con 1/t3. 2. H c ( f ) y H ( f ) deben ser diseñados conjuntamente de acuerdo con el esquema de modulación utilizado y las normas técnicas aplicables. Nótese.20. 5.45. . pero sin las indeseables colas de los impulsos. donde B = 1/τ . donde H (f ) = 0 para | f | > B .131a). 5. La incertidumbre respecto a los instantes de muestreo es menor y no se produce interferencia intersímbolo. son: para la primera forma del Filtro de Nyquist. En la Fig. y si B = 1/ τ . 5. En este caso es necesario colocar redes ecualizadoras en los dos extremos del canal.29(a). el primer cero de h(t) estará en t = 1/B y la amplitud de las colas prácticamente es despreciable. donde τ es su duración. determinadas en el Ejemplo 2. cuyas características. (b) que la amplitud de las colas o lóbulos laterales sea muy pequeña. 5. El costo que hay que pagar es que se podrá transmitir solamente B símbolos por segundo. mientras que las colas de la Fig. MODULACION Y TRANSMISION DE IMPULSOS recibido pasen por los instantes de muestreo adyacentes. Capítulo II. Esto significa.

y la selección de un determinado código va a depender de su aplicación. lo cual produce una elevada tasa de errores. En la Fig. MODULACION Y TRANSMISION DE IMPULSOS 5. produce “derivas” en la línea de base de la señal. se calculan las densidades espectrales de potencia de algunos de estos códigos. Mientras algunos sistemas pueden transmitir directamente en binario natural. 3. entre otras. Es muy difícil que un solo código pueda satisfacer todas las condiciones anteriores. se determina la densidad espectral de algunos códigos de línea. La señal codificada debe poseer muchas transiciones o cruces por cero. 4. 5. hay que tomar en cuenta el aspecto económico.2. los cuales complican los circuitos de control automático de ganancia en el receptor. 5. Además de los aspectos puramente técnicos.9.4.2. con las siguientes condiciones: 1. deberá ser cero en los bordes de la banda y máximo en el centro de la misma. la presencia de componentes continuas produce impulsos unitarios periódicos en el espectro.50 se muestra algunos de los códigos de línea utilizados en la práctica. La componente continua. además de demandar potencia adicional. ninguna “palabra” del “alfabeto” utilizado debe ser la primera parte de otra palabra. requerimientos de ancho de banda. otros convierten las secuencias binarias originales en nuevas secuencias binarias. Para ello. Códigos de Línea Hasta ahora hemos supuesto que las señales PCM transmitidas estaban codificadas en binario natural con o sin retorno a cero. En el Capítulo III.9. los códigos de línea deben cumplir. De esta manera se asegura una mayor confiabilidad. aunque la señal original contenga largas secuencias de UNOS o CEROS. También es deseable que la descodificación pueda realizarse inmediatamente luego de recibida la secuencia.361 V. Que la señal codificada pueda ser descodificada unívocamente para permitir la recuperación fiel de la secuencia original. es decir. Es deseable que el código sea fácil de generar y detectar a fin de reducir la complejidad y costo del sistema. el código de línea debe satisfacer la “condición del prefijo”. En el Capítulo III. Que la amplitud de la componente continua sea lo más pequeña posible. Sección 3. y otros factores. Sección 3.5. . 6. El código debe ser eficiente para aprovechar al máximo la capacidad del canal y ser inmune a las interferencias y ruido. El espectro deberá estar contenido dentro de una banda restringida. Que las señales de temporización puedan ser fácilmente extraídas de la señal recibida. esto es. Que el contenido espectral sea el más adecuado según las características del medio de transmisión. Por otro lado. En general. Estas formas tienen algunas ventajas en términos de facilidad de procesamiento y sincronización. denominadas “Códigos de Línea”. 2.

Estas jerarquías se utilizan exclusivamente para la transmisión de datos. En la Fig. bajo el mismo número y a nivel mundial. deben operar únicamente a una velocidad igual o múltiplo de las velocidades jerárquicas. voz y video en una sola red.11. MODULACION Y TRANSMISION DE IMPULSOS Secuencia Binaria A Unipolar NRZ 0 A Unipolar RZ 0 A Bipolar NRZ 0 AMI RZ -A A 0 -A A MANCHESTER 0 -A A HDB3 0 RZ -A 0 1 0 1 1 0 0 0 0 1 Fig. .50. pero la tendencia actual es la de establecer una sola red por la cual se pueda transmitir voz.362 V. los CODECs de banda ancha y los equipos de línea y multicanalización. 5. La Red ISDN permitirá la integración de servicios de datos. Códigos de Línea. datos e imágenes. ISDN)”. A este efecto. 5. Jerarquías en los Sistemas de Transmisión de Datos Una Jerarquía Digital. Los bancos de canales PCM. la UIT-T ha promovido la creación de la llamada “Red Digital de Servicios Integrados (Integrated Service Digital Network. es una secuencia ordenada de velocidades de información (en bps) que constituye cada una un nivel jerárquico dado.51 se muestran las tres jerarquías actualmente en uso. ♣ Ejemplo 5. llamada también Jerarquía PCM. sobre una sola línea. Las dos primeras jerarquías han sido aprobadas por la UIT-T. Los equipos jerárquicos de multiplex combinan un número definido de señales digitales del nivel (n-1) en una señal digital con velocidad del nivel n.

51. MODULACION Y TRANSMISION DE IMPULSOS JERARQUIA EUROPEA 64 kbps 1 3 E1 2048 kbps 1 Nivel M1 2 3 4 30 Canales E2 8448 kbps 1 Nivel M2 2 3 4 120 Canales E3 34368 kbps Nivel M3 480 Canales 1 2 3 4 Nivel M4 1920 Canales E4 139264 kbps 1 2 3 4 Nivel M5 7680 Canales E5 564992 kbps JERARQUIA NORTEAMERICANA 64 kbps DS-0 1 2 DS-1 Nivel M1 24 Canales T1 1544 kbps 1 2 3 4 T2 6312 kbps 1 7 DS-2 Nivel M2 96 Canales JERARQUIA JAPONESA 64 kbps 1 2 T1 1544 kbps 1 Nivel M1 2 3 4 24 Canales T2 6312 kbps 1 Nivel M2 96 Canales 5 T3 DS-3 44736 kbps 1 T4 Nivel DS-4 274176 kbps M3 Nivel 6 M4 672 Canales 4032 Canales Nivel M3 480 Canales 32064 kbps 1 2 3 Nivel M4 1440 Canales 97728 kbps 1 2 3 4 Nivel M5 5760 Canales 397200 kbps Fig. etc.12. fundamentalmente no hay ninguna diferencia. pero pronto emergieron las técnicas PCM que ofrecían una mejor .363 V. computadoras. los “datos” son señales digitales generadas por máquinas: terminales. en general. Los Sistemas Troncales T1 y E1 El Sistema Troncal T1 Un ejemplo muy interesante de la aplicación de los sistemas PCM/TDM es el sistema de transmisión de voz y datos T1. ♣ Ejemplo 5. desarrollado por la Compañía Bell de los Estados Unidos a principios de los años 60 para interconectar centrales telefónicas separadas hasta 80 km. Jerarquías en los Sistemas de Transmisión de Datos. Conviene señalar aquí que. El Sistema Bell T1 fue inicialmente diseñado para que fuera compatible con los sistemas de comunicación analógicos existentes. por ejemplo.. Sin embargo. entre una señal de voz digitalizada en PCM y una señal digital producida por un terminal de datos. telex. teletipo. y cuyas velocidades de información van desde unos pocos bps hasta los Gigabps. Estos equipos habían sido diseñados principalmente para los enlaces telefónicos intercentrales. 5.

52(A).6477 µseg.364 V.733 de la UIT-T.24(b). La sincronización por canal se incorpora en la Trama T1 reemplazando el octavo dígito binario (el menos significativo en cada uno de los 24 canales) por un dígito de señalización cada seis tramas. denominado también CEPT-1 PCM-30 (es el Nivel 1 de la Jerarquía Europea. tiene una duración de 2 ms. La velocidad de señalización para cada uno de los 24 canales será entonces de 1333 bps. la duración de la multitrama es de 1. de acuerdo con la Recomendación G.52(B)). la transmisión de la información de señalización requerida para el control de las operaciones de conmutación telefónica era más fácil y económica en forma digital que en analógica.52(A) se muestra la configuración de la Trama T1. Como la frecuencia de muestreo es de 8000 muestras por segundo. los costos de los equipos digitales se hicieron cada vez más bajos que los analógicos. siendo 488 nanosegundos la duración de cada dígito. En consecuencia. Fig. La señal de banda de base en T1 es una secuencia AMI RZ de valores ± 3V sobre una resistencia de 100 Ohm. Además. Formato de la TRAMA T1 µseg El Sistema Troncal E1 El sistema E1. Estas señales se muestrean a 8000 muestras por segundo y las muestras resultantes se codifican en 8 dígitos binarios o “bits” con el código de línea AMI RZ formando una trama de 192 dígitos a los cuales se les agrega un dígito adicional para sincronización de trama. 5. La duración de cada trama es de 125 microsegundos. está formado por 32 canales. En el Sistema T1 se agrupan las tramas para formar multitramas de 12 tramas cada una. la señal T1 no contiene una componente continua y su espectro tiene la forma mostrada en la Fig. La trama contiene entonces 193 dígitos y la frecuencia de señalización es de 1544 kHz. TRAMA T1: 193 dígitos.647 (*) Dígito de Sincronización de Canal (cada sexta trama) Fig. . MODULACION Y TRANSMISION DE IMPULSOS inmunidad al ruido y a medida que avanzaba la tecnología de los circuitos integrados. y treinta para los canales de Voz/Datos. la multitrama. En el Sistema T1 básico se multiplexan 24 señales de voz que forman la llamada Trama T1.5 mseg. 5. el primer cero del espectro está a una frecuencia de 1544 kHz y el valor máximo está a 772 kHz. formada por 16 tramas. se utiliza el Código de Línea HDB3 RZ. El dígito de sincronización de trama en la multitrama tiene la forma 1 0 0 0 1 1 0 1 1 1 0 0 y se repite en la multitrama siguiente. el período de cada ranura es de 3906 nanosegundos. 125µseg Digito de Sincronización de Trama Canal 1 Canal 2 Canal 24 1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0 (*) (*) 1 2 3 4 5 6 7 8 1 2 3 4 5 6 7 8 1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0 (*) 1 2 3 4 5 6 7 8 0. 3. En la Fig. aunque en la práctica se dice 1544 kbps. La duración de la trama es de 125 µseg y la de cada dígito de 0. La trama contiene 32 ranuras de tiempo RT de las cuales dos son para señalización y alineación. con 8 dígitos por canal para un total de 256 dígitos por trama. la velocidad de la trama E1 es de 2048 kbps. 5.

……. .. 5. T3. se suele ponerlos a UNO. respectivamente. La palabra de alineación de trama tiene la forma 0011011 y va en la ranura de tiempo RT0 de las tramas pares.5 kbps y 28 kbps con los dígitos I y N.712 y G. sin embargo. algunas veces se pueden utilizar para transmitir información adicional.711.15 y 30. las informaciones de alineación y de señalización van en las dos primeras tramas. 4 y 19. Formato de la TRAMA E1. 256 dígitos. este es el Canal D TRAMA IMPAR RT1 2 milisegundos T0 T1 T2 T3 T4 T5 T6 T7 T8 T9 T10 T11 T12 T13 T14 T15 Dígitos de Voz/Datos 1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0 Uso Internacional RT0 Dígito de Signo RT26 RT31 MULTITRAMA RT0 TRAMA PAR RT16 RT26 RT31 Uso Internacional I 0 0 1 1 0 1 1 0 0 Pasa a "1" cuando se pierde la alineación multitrama 0 0 X Dígitos de Voz/Datos 0 X X 1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0 Alineación de Trama Palabra de Alineación Multitrama sólo en la Trama 10 Fig. respectivamente. además de una indicación de alarma. T15. Las tramas siguientes T2. La señalización para los canales 1 y 16 va en la ranura RT16 de la trama T1. MODULACION Y TRANSMISION DE IMPULSOS Una Trama.……. llevan en la correspondiente ranura la información de señalización de los canales 2 y 17. Cuando los dígitos I y N no se utilizan. Esta señal se utiliza para permitir que cada trama sea reconocida en el receptor.52(B). En el formato CEPT-1. 125 microsegundos Pasa a "1"para indicar Alarma Remota Uso Nacional I 1 0 N N N N N Señalización para los Canales 1 y 16 Canal 1 Canal 16 1/0 1/0 1/0 1/0 1/0 1/0 1/0 1/0 En Aplicaciones ISDN. Las tramas impares llevan información de Señalización Nacional e Internacional. en las ranuras RT0 y RT1. G. en este caso las velocidades de transmisión son de 1.732 de la UIT-T establecen todos los requerimientos para un comportamiento satisfactorio del sistema. El equipo E1 debe efectuar el multiplexaje TDM de los 30 canales de voz o datos agregando los sistemas de supervisión y alineamiento para transmitir la señal compuesta por una línea de transmisión de 4 conductores y a una velocidad de 2048 kbps.365 V. Un dígito de la misma ranura contiene el Dígito Internacional I. Las Recomendaciones G. 3 y 18.

El mecanismo de detección debe tomar en cuenta también los efectos del ruido aditivo que se agrega a la señal a su paso por el canal. se necesita una señal de reloj que esté sincronizada con la señal de reloj en el transmisor. Introducción Las características de la señal recibida dependen tanto del perfil de la señal transmitida como de las características físicas del canal. RECEPCION DE IMPULSOS EN BANDA DE BASE 5. MODULACION Y TRANSMISION DE IMPULSOS 5. En relación con los efectos del ruido. qué estado fue transmitido. La influencia del ruido introduce errores en las decisiones tomadas.1. sino que aporta también una cantidad de ruido aditivo de densidad espectral S n (f ) . un muestreador de retención y un elemento de decisión o detector que decide. Para la generación de los instantes de muestreo t n en el receptor. muestra a muestra y de acuerdo con algún algoritmo preestablecido. si se ha recibido el estado “CERO” o el estado “UNO”. como veremos en su oportunidad.6. el procesamiento previo al muestreo debe ser tal que el valor muestreado sea el más probable de producir una decisión correcta y esto implica disminuir los efectos indeseables del ruido aditivo o. 5. en los instantes de muestreo t n .366 V. un buen diseño de los filtros es esencial.6. lo que es lo mismo. zo (t ) = v o (t ) + n o (t ) Muestreador Elemento "1" de Decisión "0" v(t) z(t) Filtro Receptor n(t) CANAL H (f ) ⇔ h(t) tn Salida Digital (PCM) Reloj RECEPTOR Fig. la operación de detección consiste esencialmente en una toma de decisión en los instantes de muestreo t n . Esta decisión se basa en un criterio más o menos elaborado. relativa al estado (“CERO” o “UNO”) del impulso binario recibido en esos instantes. probabilidad que caracterizará en mayor o menor grado la calidad de la señal.53. En realidad. . Receptor Binario en Banda de Base. el canal puede ser en coseno elevado (o equivalente) y el impulso transmitido puede tener un espectro determinado dentro de la banda de paso del canal. aumentar la relación S/N a la salida del filtro receptor. En la Fig. pero en vez de definirse una relación S/N que tenga en cuenta la influencia de los errores sobre la señal transmitida. alternativamente. Este problema de sincronización de temporización lo trataremos más adelante. El mecanismo de recepción en un receptor binario consiste fundamentalmente en procesar en alguna forma la señal recibida y decidir.53 se muestra el modelo de un receptor binario en banda de base. El impulso transmitido puede ser en coseno elevado y el canal un filtro pasabajo. El receptor digital consta básicamente de un filtro lineal o filtro receptor. la verdadera situación es mucho más complicada. pues el canal contribuye no solamente a modificar el perfil de la señal recibida. se prefiere más bien definir la probabilidad de errores en la decisión. Sin embargo. 5. En general. que corresponden a los dos estados de la señal binaria v(t).

la salida zo(t) en un instante t = to constará de dos términos: el primer término es v o ( t o ) = ∫ V( f ) H( f ) exp( j2πft −∞ ∞ o f ) df . la probabilidad de error es muy pequeña.367 V. MODULACION Y TRANSMISION DE IMPULSOS La demodulación binaria ya no es entonces el reconocimiento de una “forma” (amplitud. 5. Para maximizar ρ. Nótese que la señal v(t) es un impulso de cualquier perfil y de duración τ. Si a la salida del filtro la relación S/N en el instante t = to se define en la forma | v o ( t o )|2 2 < n o (t o ) > ρ= = ∫ V(f )H(f ) exp( j2πt −∞ ∞ 2 o f ) df ∫ ∞ (5. S. pues para relaciones S/N de entrada razonables. cuando la señal de entrada z(t) al filtro receptor es la suma de una señal v(t) más un ruido aditivo n(t).53. posición o duración del impulso) más o menos alterada por el ruido. Una demostración muy sencilla de la desigualdad de Schwartz se encuentra en [ Roden M. Reemplazando esta expresión en (5. donde V(f) es la transformada de Fourier de v(t) y H(f) la función de transferencia del filtro receptor. se obtiene . el numerador de la expresión (5. 1988]. donde S n (f ) es su densidad espectral de potencia.2.6.134) verificándose la igualdad si y solamente si donde k es una constante cualquiera y g ∗ ( x) es el conjugado de g(x). Una propiedad muy importante del filtro acoplado es que maximiza la relación S/N a su salida.132) −∞ S n ( f )| H ( f )| df 2 la función de transferencia H(f) del filtro receptor se seleccionará de tal manera que se maximice la relación ρ. El Filtro Acoplado El filtro acoplado es una técnica para el procesamiento de una señal digital en presencia de ruido. Para maximizar ρ.132) y con ayuda de la desigualdad de Schwartz. que forma un tren de impulsos de período τ..132) se puede escribir en la forma 2 ∫ V(f )H(f ) exp( j2πt −∞ ∞ 2 o f )df = ∫ [ −∞ ∞ ⎡ V(f ) exp( j2πt o f ) ⎤ H ( f ) ⋅ S n ( f ) ⋅⎢ ⎥ df S n (f ) ⎢ ⎥ ⎣ ⎦ ] Esta representación es posible porque Sn(f) es par y positiva para todo f. entonces ∫ 2 f (x)g(x )dx ≤ ∫ | f (x)| 2 dx ⋅ | g (x )|2 dx f (x) = k ⋅ g * (x) ∫ (5.133) (5. la cual establece que si f(x) y g(x) son dos funciones complejas. Este reconocimiento puede efectuarse con gran precisión. sino más bien el reconocimiento de una “presencia”: el estado “CERO” o el estado “UNO”. En efecto. 5. En este caso el filtro receptor pasará a denominarse “filtro acoplado”. Fig. el segundo término es el ruido no(to) cuya potencia es < n 2 ( t o ) >= o ∫ ∞ −∞ S n ( f )| H ( f )|2 df . se aplica la “desigualdad de Schwartz”.

k = η/2. pero como v(t) es un impulso de duración τ. h(t ) = v( τ − t ) ⇔ H(f) = V(-f)exp(-j2 πτf) (5.137) (5. que es la convolución de v(t) y h(t). H (f ) = 2k V(− f ) exp(− j2πt o f ) η (5.140) Nótese que esta función de transferencia puede no ser físicamente realizable. El lector puede verificar fácilmente que la respuesta impulsional del filtro acoplado es h(t ) = (2 k / η) v( t o − t ) . es decir. En consecuencia.141a) η η Para simplificar (5.134).368 V. cuando ⎡ V(f ) exp( j2πt f ) ⎤ V(− f ) exp(− j2πt o f ) o H ( f ) Sn ( f ) = k ⋅ ⎢ ⎥ = k⋅ Sn ( f ) Sn ( − f ) ⎢ ⎥ ⎣ ⎦ ∗ Puesto que S n (f ) es una función par de f.135) Si el ruido es blanco de densidad espectral η/2. Nótese que (5. ρ ≤ ∫ ∞ −∞ | V( f )|2 df = 2 η ∫ ∞ −∞ | v( t )|2 dt = 2 Eb η (5. con un valor máximo . se toma este valor para to. se tiene H (f ) = k ⋅ V(− f ) exp(− j2πt o f ) S n (f ) (5. MODULACION Y TRANSMISION DE IMPULSOS ρ ≤ ∫ ∞ −∞ | H (f )|2 S n (f )df ⋅ ∫ | V(f )|2 df −∞ S n ( f ) ∞ ∫ 2 η ∞ = −∞ | H (f )| S n (f )df 2 ∫ | V(f )|2 df −∞ S n ( f ) ∞ (5.136) donde Eb es la energía del impulso v(t).141b) En esta forma. Por consiguiente. entonces 2k 2k h(t ) = v( τ − t ) ⇔ H(f) = V( − f ) exp( − j2 πτf ) (5. y con la ayuda del Teorema de Raleigh. tendrá una duración de 2τ segundos. vo(t).139) Esta es la función de transferencia del filtro acoplado. es decir. El valor máximo de ρ será entonces ρmax = ρmax = | V(f )|2 df −∞ Sn (f ) ∞ ∫ (5. tanto v(t) como h(t) tendrán una duración de τ segundos.136) es válida únicamente si el ruido es blanco. Si suponemos que el ruido es blanco de densidad espectral η/2.141a) se puede hacer (2k/η) = 1.138) 2 Eb η si el ruido es blanco Este valor máximo se obtiene a partir de la condición (5.

de donde z o (t ) = ∫ [v(t ' ) + n(t ' )] ⋅ v(t '+ τ − t )dt ' −∞ ∞ Puesto que t = τ en el instante de decisión.54. entonces z o (τ ) = ∫ [v(t ' ) + n(t ' )] ⋅ v(t ' )dt ' −∞ ∞ La suma [v(t) + n(t)] se inicia en t = 0. que veremos más adelante. El filtro acoplado se puede considerar también como una forma de correlador. z o (t ) = v o (t ) + n o (t ) = ∫ [v(t ' ) + n(t ' )] ⋅ h(t − t ' )dt ' −∞ ∞ pero h (t − t ' ) = v[τ − (t − t ' )] = v (t '+ τ − t ) . En forma similar. el impulso de salida siguiente se inicia y tiene un valor cero en t = τ. y v(t) = 0 para t > τ. este hecho es de particular importancia pues la amplitud máxima de zo(t) no depende de la forma de v(t) sino solamente de su energía. la salida total del filtro acoplado se puede determinar mediante convolución. Demostramos en esta forma que en los instantes de decisión la salida zo(t) del filtro acoplado es máxima e igual a la energía del impulso v(t). La expresión (5. .142b) expresión que está de acuerdo con (5.142a) se puede instrumentar entonces en la forma mostrada en la Fig. MODULACION Y TRANSMISION DE IMPULSOS en t = τ y simétrica respecto a t = τ. 5. entonces la salida del filtro acoplado en el instante t = τ es z o (τ ) = ∫ [v(t ) + n(t )] ⋅ v(t )dt 0 τ (5. Por lo tanto.53. entonces z o (τ ) = ∫ v( t) n( t)dt = 0 . en los instantes de muestreo t n no ocurre interferencia intersímbolo. Si se trata de un tren de impulsos. de donde 0 τ ∫ τ 0 v 2 (t )dt = E b (5. 5. La probabilidad de una decisión correcta es entonces la óptima y por esta razón a los filtros acoplados se les denomina también “filtros óptimos”.136).142a) pero como v(t) y n(t) no están correlacionados. es decir. la salida del impulso anterior termina y es cero cuando t = τ. que es equivalente a la Fig. En efecto.369 V. Los filtros óptimos son de gran aplicación en sistemas de radar y en la detección de señales digitales tanto en banda de base como en portadora modulada.

v(t) y h(t) tienen el mismo perfil. a su vez. 5. 5.54.55(d). se supone que k = η/2. .13 t−τ/2 ) .136). MODULACION Y TRANSMISION DE IMPULSOS Muestreador v(t) + n(t) ∫ v(t) τ [⋅ ⋅ ⋅] ⋅ dτ zo (t ) 0 Elemento "1" Salida de "0" Digital Decisión Correlador Reloj Fig.55(b). la respuesta τ−t−τ/2 t−τ/2 ) = AΠ ( ) cuya función de impulsional del filtro óptimo es h (t ) = v (τ − t ) = AΠ ( τ τ transferencia es H( f ) = Aτsinc( τf ) exp( − jπτf ) .141b). Nótese que en este caso en particular. De acuerdo con (5. en la que se indica también los instantes de muestreo de la señal. El comportamiento de los sistemas de modulación digital en presencia de ruido dependerá del método de detección empleado. 5. Esto. La relación S/N máxima a la salida del filtro acoplado será. El comportamiento del receptor se mide entonces en términos de la probabilidad de error y se dice que el receptor es óptimo cuando la probabilidad de error a su salida es la mínima. Nótese que v o ( t ) es máxima para t = τ. la salida del filtro tendrá la forma mostrada en la Fig. 5. Receptor Digital Correlador. ρ max = 2 η ∞ τ ∫ −∞ | v( t )|2 dt = 2 η ∫ 0 A 2 dt = 2A 2 τ η La forma de v o ( t ) nos permite deducir fácilmente la salida de un filtro acoplado cuando a su entrada se aplica una secuencia de impulsos. 5. y para caracterizar este comportamiento normalmente se utiliza las relaciones Probabilidad de Error ( Pe ) vs Ganancia de Predetección ( Si / N i ) que dependen de la forma de detección utilizada. para la secuencia de entrada AMI NRZ 1011.55(c). Por ejemplo..55(e). la cual se muestra La señal de salida del filtro será v o ( t ) = h(t ) ∗ v(t) = A 2 τΛ ( τ en la Fig. 5. t−τ/2 ) . está asociado con la presencia de un filtro acoplado colocado antes del elemento de decisión.370 V.55(a). El impulso de entrada a un filtro óptimo tiene la forma v ( t ) = AΠ ( La respuesta impulsional h(t) se muestra en la Fig. de (5. mostrada en la Fig. como se τ muestra en la Fig. ♣ Ejemplo 5.

rayos infrarrojos o láser. Como la señal PCM es una secuencia de impulsos binarios (2 estados). la frecuencia o la fase de una señal sinusoidal. fibras ópticas. la frecuencia de portadora está entre 1 y 2 kHz. de ahí que a estos procesos se les denomina también “técnicas de modulación binaria”. pero en un enlace de microondas la frecuencia de portadora puede alcanzar la gama de los Gigahertz. La modulación digital se realiza con un dispositivo denominado “MODEM” (de las palabras MOdulador y DEModulador) en el cual los impulsos PCM modulan la amplitud.55. microondas. Si la transmisión se efectúa por un canal telefónico de 4 kHz de ancho de banda. sino en forma de una señal modulada en forma analógica. en un enlace de HF la frecuencia de portadora puede ser de unos cuantos Megahertz. este tipo de transmisión se denomina “transmisión binaria mediante portadora modulada”.1. 5. En la Fig.7. un canal de radio (HF. MODULACION Y TRANSMISION DE IMPULSOS A v(t) t A h(t) t A2 τ Entrada v(t) Salida vo (t ) (a) Señal de Entrada 0 τ (b) Respuesta Impulsional 0 τ (c) Entrada y Salida del Filtro Optimo Instantes de Muestreo 0 τ t 2τ "1" 0 "0" τ 2τ "1" 3τ "1" "1" "0" "1" "1" t 4τ 0 τ t 2τ 3τ 4τ 5τ (d) Secuencia de Entrada AMI NRZ Fig. TRANSMISION Y RECEPCION DE SEÑALES BINARIAS MEDIANTE PORTADORA MODULADA 5.371 V.). . 5. El “canal” puede ser un canal telefónico. los impulsos modulan una portadora sinusoidal cuya frecuencia es compatible con el medio de transmisión utilizado. así como las señales de datos de terminales digitales y dispositivos afines.7.57 la forma de las señales binarias moduladas. Introducción Los impulsos digitales producidos por los diferentes sistemas vistos en este capítulo. en efecto. generalmente no se transmiten a gran distancia en la forma de señal de banda de base. la portadora. (e) Secuencia de Salida del Filtro Optimo ♣ 5.56 se muestra los modelos para la transmisión y recepción de señales binarias mediante portadora modulada y en la Fig. etc. Los filtros H T (f ) y el filtro receptor están incorporados en el Modem y su diseño está integrado al mismo de acuerdo con la aplicación y normas correspondientes. las magnitudes moduladas tomarán también dos valores. conductores metálicos (cable coaxial o par trenzado). 5. Por ejemplo.

FSK. PSK MODEM Rx ~ Oscilador Local MODEM Tx A cos(ω ct ) ~ Oscilador H c (f ) v(t) z(t) Receptor n(t) RECEPTOR Elemento "1" Salida de "0" Digital Decisión Muestreador n(t) CANAL A cos(ω ct ) tn Reloj (PCM) RECEPTOR (b) Recepción Binaria Fig. La Modulación Binaria de Frecuencia (Frequency-Shift Keying. Hay otros métodos más avanzados de modulación pero no los trataremos aquí. ASK) 2. FSK y PSK (DPSK).57 se muestra la forma de las señales moduladas ASK. FSK y PSK para la secuencia binaria dada. FSK) 3. Señales Binarias Moduladas ASK. MODULACION Y TRANSMISION DE IMPULSOS Las formas básicas de la modulación binaria mediante portadora modulada son: 1. . La Modulación Binaria de Fase (Phase-Shift Keying. 5. PSK) 4.56. La Modulación Binaria de Amplitud (Amplitude-Shift Keying. PSK Fuente Modulador "1" Digital "0" tn Reloj TRANSMISOR CANAL (a) Transmisión Binaria v(t) z(t) Filtro de Entrada ASK.57. (a) Secuencia Binaria (b) ASK (OOK) (c) FSK (d) PSK (DPSK) "1" "0" "1" "1" "0" "0" "0" "1" t Tb t t Fig. FSK. Transmisión y Recepción Binaria mediante Portadora Modulada En la Fig. La Modulación Binaria Diferencial de Fase (Differential PSK. 5. La forma de la señal DPSK básicamente es idéntica a la de PSK. DPSK) (PCM) ASK. 5.372 V.

Para evitar esta atenuación de la señal. Demodulación y Sincronización de Señales Binarias Moduladas Métodos de Demodulación Como mencionamos brevemente en el Capítulo II. 3. que ∆f = 0 y φ o = φ . estas señales digitales pueden ser tratadas con los métodos teóricos desarrollados en el Capítulo II aplicables a las señales moduladas y particularmente a la demodulación o extracción de la señal mensaje portadora de información. hay esencialmente dos métodos comunes de demodulación o detección de señales moduladas con portadora sinusoidal: 1.28. la frecuencia y la fase de la portadora local deben ser idénticas a las de la portadora de transmisión. La información de fase se puede obtener a partir de una portadora piloto superpuesta a la señal modulada que.58 . Como veremos más adelante. pero el sincronismo de fase es más difícil de alcanzar. la demodulación sincrónica o coherente se utiliza pues es . y mediante filtrado pasabajo se obtiene la señal original portadora de información.373 V. Hay que hacer notar que con osciladores de gran precisión puede mantenerse la igualdad entre las frecuencias. 5.7. xc (t ) = A(t ) cos(ω ct ) Filtro Pasabajo A(t) Entrada C R Salida 1 0 1 2cos(ω ct ) ~ Oscilador Local Detector Coherente 1 0 1 Detector de Envolvente (a) Detección Sincrónica o Coherente (b) Detección de Envolvente Fig. Problema de Aplicación 2. si la portadora generada localmente fuera de la forma 2 cos[2π(f c + ∆f ) t + φ o ] .2. La “Detección de Envolvente” La demodulación o detección sincrónica o coherente consiste simplemente en multiplicar la señal modulada recibida por la portadora. Los dispositivos de sincronización en el receptor deben lograr la coherencia entre las dos portadoras. MODULACION Y TRANSMISION DE IMPULSOS Como la señal digital se convierte en una señal analógica (por efecto de la multiplicación por una señal sinusoidal). una vez recuperada mediante filtrado. puede utilizarse para sincronizar el oscilador local. por ejemplo. es decir. sin embargo. cos(2πf c t + φ ) la portadora transmitida. sino que posee atributos comunes a ambas áreas. Este proceso se muestra en la Fig. puede utilizarse circuitos especiales para lograr la sincronización a partir de la señal recibida. la modulación digital no es un proceso ni puramente digital ni puramente analógico. La “Demodulación Sincrónica o Coherente” 2. generada localmente. 5. Métodos de Demodulación o Detección de Señales Moduladas Sea. particularmente en transmisión a grandes distancias. Esta situación encarece y complica el sistema. el lector puede demostrar fácilmente que la salida del detector estará multiplicada por el factor cos[2π∆ft + (φ o − φ )] que afectará seriamente la amplitud de la salida.58(a) y ya lo aplicamos en el Capítulo II. Sin embargo.

sino también la sincronización de señalización o temporización. La demodulación por detección de envolvente se efectúa con el sencillo circuito mostrado en la Fig. PLL)) que filtra y regenera las señales de portadora y/o reloj. La frecuencia puede aproximarse tanto como se quiera pues con osciladores a cristal de gran precisión se puede mantener la frecuencia con una gran estabilidad.59(a). hay que tener en cuenta que los instantes de decisión t n también necesitan sincronización para poder detectar la presencia o ausencia de los impulsos recibidos ya demodulados. FSK y PSK requiere el conocimiento de la frecuencia y la fase exactas de la portadora. según la polaridad del diodo). sincronización de dígito y sincronización de portadora. MODULACION Y TRANSMISION DE IMPULSOS superior. consideremos un sistema PCM/TDM/PSK. y (2) un dispositivo sintonizado de banda angosta (típicamente un filtro sintonizado o un enganchador de fase (phaselocked loop. En consecuencia. En efecto. La localización típica de los sincronizadores de portadora y temporización en un receptor se muestra en la Fig. en presencia de ruido. Con la detección de envolvente se evitan los problemas de sincronización de fase y de frecuencia de la detección coherente. esta operación se conoce como la “fase de seguimiento o de rastreo”. los cuales se muestran en la Fig. en este caso son necesarios cuatro niveles de sincronización: sincronización de trama. que veremos en el Capítulo VI. En un sistema de transmisión digital a menudo se necesita diferentes niveles de sincronización. La mayoría de los sistemas de modulación digital suprimen la portadora y los diferentes códigos de línea utilizados no contienen líneas espectrales a las frecuencias de reloj para la extracción de la temporización. Como su nombre lo indica. Este período se conoce con el nombre de “tiempo o fase de adquisición”. los circuitos de sincronización de portadora y de temporización estarán constituidos por dos partes conceptualmente distintas: (1) un circuito no lineal que regenera la portadora y/o el reloj a partir de la señal recibida. como veremos posteriormente. a la detección no coherente o de envolvente. Durante la transmisión es necesario mantener el desfase entre los osciladores dentro de ciertos límites específicos. sin embargo. sincronización de canal. el desfase entre los osciladores del transmisor y del receptor puede ser grande. Sincronización de Portadora y de Temporización La demodulación coherente de las señales ASK. para sincronizar sus osciladores. Por lo tanto. En estos casos los modems están desfasados y necesitan un período inicial. 5. El receptor debe poseer entonces dispositivos de sincronización tanto de portadora como de temporización. pero lo suficientemente pequeña comparada con un período Tb de la señal binaria.58(b). La constante de tiempo RC debe ser lo suficientemente grande para seguir los picos de la señal modulada de entrada. en el receptor no sólo se efectúa la sincronización de fase y de frecuencia. y la transmisión de información puede comenzar. la salida del detector representa la envolvente positiva (o negativa. la detección de envolvente no se puede aplicar en sistemas de modulación de fase. Al finalizar la fase de adquisición los osciladores quedan “enganchados” en fase y en frecuencia. 5.59(b). porque el proceso de detección de envolvente elimina la fase de la señal. Los métodos de demodulación coherente y por detección de envolvente los utilizaremos también en los sistemas de modulación de ondas continuas. sobre todo cuando los modems inician una transmisión.374 V. antes de transmitir información. en cambio. . 5. Como ejemplo.

59. 5. Sincronización de Portadora y Temporización. 5. En general. En muchas aplicaciones esta componente de auto-ruido es mucho más pronunciada que el . 5.60 se muestran dos circuitos de sincronización de portadora muy utilizados en la práctica: el sincronizador cuadrático y el denominado Lazo de Costas. La salida del sincronizador de temporización será una señal periódica (señal de reloj) de período τ y con una fase tal que indique los instantes de muestreo dentro de cada intervalo de duración τ. causada por interferencia intersímbolo y ruido en el sistema. φ π/2 VCO Filtro Pasabajo Filtro Pasabajo Filtro Pasabajo Canal Canal Salida Demodulada Detector Coherente fc .375 V. Entrada Modulada Entrada Modulada Salida Demodulada Detector Coherente fc . la señal de reloj está afectada por fluctuación de fase (jitter). llamada también “auto-ruido”. el proceso de extracción de la temporización se efectúa operando sobre la señal demodulada. que veremos en el Capítulo VI. Estos circuitos de sintonización de portadora no solamente se utilizan en los sistemas digitales sino también en los sistemas de modulación de ondas continuas. En la Fig. MODULACION Y TRANSMISION DE IMPULSOS Trama M Canales 1 m M 1 Canal Canal N Dígitos 1 n Dígito 3 N 2 Detector Coherente Filtro Receptor Filtro Pasabajo Muestreador Elemento de Decisión "1" "0" fc . fase φ c Portadora 4 (a) Niveles de Sincronización (b) Localización de los Sincronizadores de Portadora y Temporización Fig. En cuanto a la temporización.60. Circuitos de Sincronización de Portadora. φ c Sincro Portadora tn Sincro Temporización Salida Binaria frecuencia f c. φ Filtro Pasabajo Filtro Pasabanda Elevador al Cuadrado Filtro Pasabanda Filtro Pasabanda Multiplicador VCO de Frecuencia x2 Filtro Pasabajo Sincronizadores 2fc (a) Sincronización Cuadrática (b) Sincronización Mediante el Lazo de Costas Fig.

Tb es el intervalo de 1 . Este tipo de modulación se conoce también con el nombre de “modulación OOK (On-Off Keying)”. Esta decisión reposa sobre un criterio más o menos elaborado. respectivamente. 5. el estado “0” se puede transmitir como una amplitud de cero volts. se puede hallar en cualquier texto de electrónica [Miller. se verifica que f c >> f b = Tb f b es la frecuencia de señalización. la cual es igual a la velocidad de modulación Vb.57(b) para la secuencia binaria dada. . el diseño óptimo de los circuitos de sincronización es. y “Espacios” que representan el estado “0”. 1993. 5. como se muestra en la Fig. Por ejemplo. por lo tanto.376 V. muy importante para el desempeño global del sistema.143) donde si se transmite un "1" si se transmite un "0" A y fc son la amplitud y frecuencia de la portadora. En general. la amplitud de la portadora sinusoidal se conmuta entre dos valores en respuesta al código PCM.7. MODULACION Y TRANSMISION DE IMPULSOS mismo ruido gaussiano. 5. que representan el estado “1”. donde señalización y φc un desfase inicial constante.61. La señal ASK resultante consiste en impulsos modulados. La señal ASK tiene entonces la forma x ASK ( t ) = A ⎧1 bi = ⎨ ⎩0 ∞ n =−∞ ∑ b ⋅ cos(2πf t + φ ) ⋅ Π( i c c t − nTb ) Tb (5. mientras que el estado “1” se transmite como una señal sinusoidal de amplitud fija A volts. llamados “Marcas”. En la Fig. Modulación Binaria de Amplitud (ASK) En la modulación binaria de amplitud ASK. 5. La operación de demodulación consiste esencialmente en una toma de decisiones en los instantes de muestreo t n en relación con el valor o estado (“1” ó “0”) transmitido. El análisis detallado de los circuitos de sincronización anteriores. Organo de Decisión Muestreador Señal Demodulada tn Rectificador de Onda Completa Circuito Resonante RLC Amplificador y Limitador Diferenciador y Formador de Impulsos Elemento de Decisión Salida "1" Digital "0" Sincronizador Fig.3. 1980]. Gardner y Lindsey.61 se muestra un circuito de sincronización de temporización. como veremos más adelante. incluidos los PLL. Sincronización de Temporización.

62 (frecuencias positivas solamente). 5. respectivamente.145) n =−∞ ∑ b ⋅ Π( i ∞ t − nTb ) Tb es una secuencia aleatoria binaria unipolar NRZ de amplitud A. Fig. Por consiguiente.2.144) (5. En cuanto al ancho de banda en ASK.62. demostramos que la función de autocorrelación y la densidad espectral de una secuencia aleatoria binaria unipolar NRZ de amplitud A eran. x ASK (t ) = A (t ) ⋅ cos(2πf c t ) donde A (t ) = A (5. Sección 3. la potencia promedio de la señal x ASK (t ) es 1 A2 < A 2 (t ) >. Pero como < A 2 (t ) >= R A (τ )|τ = 0 = .377 V. sea B el ancho de banda que comprende el lóbulo principal de S ASK (f ) . R A (τ ) = A2 τ A2 f [1 + Λ ( )] ⇔ S A (f ) = [δ (f ) + Tb sinc 2 ( )] 4 4 Tb fb De la expresión (1.171). entonces 2 2 A2 < x 2 (t ) >= ASK 4 < x 2 (t ) >= ASK La potencia promedio de entrada o “potencia de portadora” de una señal ASK a la entrada del detector será Si = A2 4 (5.113). B = 2f b = 2 Tb (5. expresiones (3.146) Para calcular la potencia de ruido es necesario conocer las características espectrales de la señal ASK. la densidad espectral S ASK (f ) de x ASK (t ) será S ASK (f ) = 1 [S A (f + f c ) + S A (f − f c )] 4 S ASK (f ) = A2T ⎡ f+f f−f ⎤ A2 [δ (f + f c ) + δ (f − f c )] + 16 b ⎢sinc 2 ( f c ) + sinc 2 ( f c )⎥ 16 b b ⎦ ⎣ (5.170) y (3.148) . En el Capítulo III.147) y tendrá la forma mostrada en la Fig. De acuerdo con el teorema de la modulación para señales de potencia. 5. MODULACION Y TRANSMISION DE IMPULSOS Ancho de Banda y Relaciones S/N en Sistemas ASK La señal ASK se puede escribir en la forma (haciendo φc = 0).9.

378 V. por supuesto. N i = Bη = 2η = 2 ηf b Tb (5. que la potencia contenida dentro del ancho de banda B es el 95% de la potencia total de la señal ASK. en un sistema binario la velocidad de información es Vi = 1 / Tb = f b bps. Por otro lado. la potencia promedio de ruido a la entrada del detector será. donde fb es la frecuencia de señalización. de (2. nosotros utilizaremos siempre 2fb. Esto puede prestarse a confusión. ver Problema de Aplicación 5. En efecto. Rendimiento de Transmisión Desde un punto de vista más general.41. dependiendo del perfil de los impulsos. En la literatura se suele hacer η = N o . Se puede demostrar. pero . entonces la potencia promedio de la señal se puede expresar en la forma S = E b / Tb = E b Vi .149) y la relación S/N de predetección Si A 2 Tb A2 = = 8η N i 4Bη en ASK (5. por eso el lector debe verificar cómo se ha definido el ancho de banda al hablar de relación S/N a la entrada. Este valor de B será utilizado en los cálculos de la Relación Señal/Ruido (S/N). y que la mitad de la potencia de la señal ASK se consume en la transmisión de la portadora. en cuyo caso la relación de predetección es (S i / N i ) = (A 2 Tb / 12η) . la relación S/N en un sistema se puede definir a partir de parámetros comunes para cualquier sistema de modulación.150) Algunas veces el ancho de banda se define en la forma B = 3fb . si B es el ancho de banda del sistema y η/2 la densidad espectral de ruido. En general. la potencia promedio de ruido será N = ηB. Si Eb es la energía requerida para transmitir un dígito binario. el ancho de banda efectivo de una señal ASK estará entre 2fb y 3fb. Los sistemas ASK son sistemas de doble banda lateral y por lo tanto no son muy eficientes en cuanto a ancho de banda y consumo de potencia. MODULACION Y TRANSMISION DE IMPULSOS Este será entonces el ancho de banda del filtro pasabanda a la entrada del receptor y.146). el ancho de banda mínimo del canal de transmisión. Si el ruido en el canal es blanco de densidad espectral η / 2 . Nótese que Eb es diferente para cada esquema de modulación.

Eb depende del tipo de modulación empleado. vamos a investigar el comportamiento de la demodulación coherente más que todo para propósitos de comparación y fijación de conceptos. A la entrada del detector coherente se tiene la señal ASK más ruido blanco pasabanda de banda angosta y densidad espectral η/2. Como veremos más adelante. Estos conceptos los utilizaremos posteriormente.152) donde A.153a) ⎡S ⎤ +⎢ i ⎥ ⎣ N i ⎦ ASK( dB) [ γ ]ASK(dB) = 6. 1966] en la forma A 2 Tb A2 γ= = 2η 2ηf b (5. MODULACION Y TRANSMISION DE IMPULSOS este valor No lo usaremos muy poco para no confundirlo con una potencia de ruido No. pero la demodulación coherente es poco utilizada debido a los problemas de sincronización de portadora y del ajuste de umbral. la relación E b / η es la “energía por dígito binario dividida por la densidad espectral” y es una medida del consumo de potencia del sistema. (5. se define la “Relación Señal/Ruido Normalizada.02 dB (5. γ” [Schwartz y otros. y es una medida del ancho de banda requerido para una velocidad de información dada.63 se muestra el diagrama de bloques de un receptor ASK con demodulación coherente. Con el fin de comparar el comportamiento de los diferentes sistemas de modulación binaria sobre una referencia común. La relación Si/Ni de entrada o de predetección se puede escribir entonces en la forma Si E b Vi Vi E b E E S = = ⋅ = ηB b = ηB b = ηB i Ni ηB B No No η ηf b (5. x ASK (t ) = A (t ) cos(2πf c t + φ c ) n (t ) = n c (t ) cos(2πf c t + φ c ) − n s (t ) sen(2πf c t + φ c ) donde φ c es un desfase constante.151) Esta expresión muestra que la relación señal/ruido es el producto de dos cantidades muy significativas. Este valor de γ lo utilizaremos como referencia para comparar las probabilidades de error de los diferentes sistemas de modulación binaria. Específicamente. Sin embargo. . En la Fig.42). La relación S/N en ASK se puede escribir entonces en la forma ⎡ Si ⎤ γ = ⎢ ⎥ ⎣ N i ⎦ ASK 4 y en dB. fb y η son parámetros comunes a todos los sistemas en consideración. es decir. 5.153b) Demodulación Coherente de Señales ASK La razón principal de la modulación digital ASK es su simplicidad.379 V. expresión (4. La relación ηB = Vi/B es el rendimiento de trtansmisión del canal respecto al ancho de banda B.

63. φ c "1" ó "0" a t = tn Sincro Temporización Umbral de Referencia Fig. 5.) es la “función error complementaria” definida en el Apéndice D. ⎨ ⎩v d ( t n ) < Vs ===> ===> Un "1" ha sido transmitido Un "0" ha sido transmitido Como n c (t ) es un ruido blanco pasabajo cuya amplitud puede tomar cualquier valor con una probabilidad no nula. 5.380 V.154) donde erfc(.4. 1966] que la probabilidad de error en sistemas ASK con umbral de referencia optimizado es Pe = ⎛ A2T ⎞ 1 b ⎟ erfc⎜ ⎜ 2 8η ⎟ ⎝ ⎠ (5.63.155) . solamente estará presente el ruido n(t). En los instantes de decisión t n se compara vd(t) respecto a un umbral de referencia Vs. Recepción Coherente en ASK. el umbral óptimo normalizado será b on = A 2 Tb 4η (5. Si un “0” ha sido transmitido. El criterio de decisión será: ⎧v d ( t n ) ≥ Vs Si en el instante t = t n . Asimismo. el lector puede demostrar fácilmente que ⎧k ⎪ 2 [A (t ) + n c (t )] ⎪ v d (t ) = ⎨ ⎪ k n c (t) ⎪2 ⎩ si un "1" ha sido transmitido si un "0" ha sido transmitido donde k es una constante que depende de las características de los filtros. Estos errores aparecerán si v d (t n ) < Vs v d (t n ) ≥ Vs cuando un “1” fue transmitido: Error sobre los “1” cuando un “0” fue transmitido: Error sobre los “0” Se ha demostrado [Schwartz y otros. En relación con la Fig. Estas dos señales estarán presentes durante los intervalos en que un “1” ha sido transmitido. se puede presentar errores en la decisión tomada.. MODULACION Y TRANSMISION DE IMPULSOS Organo de Decisión x ASK (t ) + Ruido Blanco Detector Coherente Si / N i Muestreador Canal Filtro Pasabanda Sincro Portadora Filtro v d ( t ) Pasabajo tn Comparador + _ Vs fc .

con el No que representa una potencia de ruido de salida.159a) (3. de la densidad espectral de ruido y de la potencia de la portadora. la probabilidad de error decrecerá en función de γ hasta un cierto valor y se mantendrá constante no importa cuánto se aumente γ.152).158) donde Eb es la energía requerida para transmitir un dígito binario y No = η. pero la igualdad No = η la utilizaremos muy poco para no confundir este No. Esta es una de las principales desventajas de los sistemas ASK.78 se muestra la probabilidad de error Pe con el umbral óptimo normalizado. En la Fig. siendo la potencia promedio en ASK igual a A2/4.150). MODULACION Y TRANSMISION DE IMPULSOS De (5. para cada valor de γ hay un nivel de umbral normalizado b on que produce la mínima proba bilidad de error. Si el umbral se mantiene constante. El lector puede demostrar fácilmente que. ⎡S ⎤ [γ ] dB = 6. ⎡S ⎤ γ = 4⎢ i ⎥ ⎣ N i ⎦ ASK y en dB. 5. como ya lo hemos demostrado. pues esta última relación depende del ancho de banda. y el umbral optimizado.64 se muestra el efecto del umbral sobre la probabilidad de error. Cuanto mayor es γ. que es una densidad espectral. Nótese que en el umbral óptimo los errores ocurren predominantemente no porque la suma [señal + ruido] excede el umbral.157) γ 2 En la Fig. la probabilidad de error será ahora Pe = γ 1 erfc( ) 2 4 b on = (5. su energía será Eb = A2Tb/4.02 dB + ⎢ i ⎥ ⎣ N i ⎦ ASK ( dB) (5. para B = 2/Tb .381 V. de la expresión (5. 5.156) (5. mayor es el umbral. Entonces. pues implica circuitos de ajuste del umbral en función de la relación S/N a la entrada (circuitos de control automático de ganancia).158). sino porque el ruido excede él solo el umbral. En la literatura se suele expresar la probabilidad de error con la expresión (3. entonces γ = 2Eb /No y Pe = Eb 1 erfc( ) 2 2N o (5.159b) . junto con las correspondientes a los otros sistemas de modulación binaria para efectos de comparación. Nótese que no hay que confundir γ con la relación S i / N i de predetección.

♣ Ejemplo 5.02 dB y la densidad espectral de ruido blanco es de 10-11 W/Hz. MODULACION Y TRANSMISION DE IMPULSOS Esta última expresión nos permite leer directamente en la Fig. para una probabilidad de error Pe dada. 5. Recuérdese que en un sistema binario la velocidad de información (bps).161). Vamos a determinar en ASK coherente y no coherente: (a) la máxima frecuencia de señalización. se demuestra [Schwartz y otros. aunque sí de temporización. y la probabilidad de error.382 V. El detector de envolvente se muestra en la Fig.14 Por un canal telefónico cuyo ancho de banda útil es de 3 kHz se transmite datos binarios. 5.65. 5. 5. x ASK (t ) + Ruido Blanco Canal S i / N i Detector v d ( t ) Organo de Filtro de Pasabanda Decisión Envolvente tn "1" ó "0" a t = tn Sincronización de Temporización Fig. En la detección no coherente de señales ASK no se requiere circuitos para sincronización de portadora.58(b). las potencias individuales de portadora y de ruido. (b) repetir si la velocidad de información es de 300 bps. 1966] que Pe ≈ b ⎞ b2 ⎤ ⎛ 1 ⎡1 erfc⎜ γ − on ⎟ + exp(− on )⎥ ⎢ 2 ⎢2 2 ⎥ ⎝ 2⎠ ⎦ ⎣ Para γ > 2 y con el umbral óptimo normalizado b on .161) la expresión (5. Recepción no Coherente de Señales ASK.160) (5.64 con las mismas desventajas debidas al ajuste del umbral. 5. Demodulación no Coherente de Señales ASK En la Fig. 5.15b) se aplican también en ASK no coherente.78 se grafica (5. En cuanto a la probabilidad de error. El criterio de decisión es similar al caso de detección coherente. entonces . donde b on = 2 + γ 2 Pe ≈ E γ 1 1 exp(− ) = exp(− b ) 2 4 2 4N o (5. En la Fig.160) se reduce a El gráfico de Pe vs γ tiene la misma forma general de la Fig. (a) El ancho de banda útil del canal es B = 3 kHz. La relación S/N de predetección es de 6.159a) y (5.65 se muestra el diagrama de bloques de un receptor ASK no coherente. la frecuencia de señalización (Hz) y la velocidad de modulación (baudios) son iguales numéricamente. Las expresiones (5.78 la relación [S i / N i ] ASK ( dB) conociendo [γ]dB y viceversa.

21 dBm 4 1 En ASK coherente: Pe = erfc(4.03x10 −9 2 ♣ Para las mismas amplitud de portadora y densidad espectral de ruido. los filtros utilizados en el receptor deben ser descargados.472 ) = 1.150). N i = Bη = 600x2x10 −11 = 1. A=9. Vb = 1500 baudios 1500 La frecuencia máxima de señalización es de 1500 Hz y se puede transmitir información a una velocidad máxima de 1500 bps. MODULACION Y TRANSMISION DE IMPULSOS 1 .22 dBm 1 En ASK coherente: Pe = erfc(2 ) = 2 .2 dBm .157) y (5. sin embargo. Por otra parte. Si = Para obtener el comportamiento óptimo. el comportamiento en ASK coherente es superior al de ASK no coherente. Tb = De (5. al final de cada intervalo de señalización a fin de reducir la interferencia intersímbolo.160). 1 Tb = y B = 2f b = 600 Hz 300 Si A 2 Tb γ 9 . . A 2 = 9. el ancho de banda del filtro ya no es tan crítico respecto a la interferencia intersímbolo.8x10-4 Ni 8x1500x2x10−11 A2 = 2.02 dB = 4.4x10-7 W = -36. S Si = 6. el receptor no coherente es mucho más simple y por eso este tipo de demodulación fue en su época el más utilizado. Si la rapidez de descarga es grande. = = 20 = 13 dB −11 2η Ni 4 2 x300x2 x10 A2 = 2 . En general. Vi = 1500 bps. f b = 1500 Hz. Si = Si A2 =4= .383 V.158x10 −3 2 (b) Si la velocidad de información es de 300 bps.6x10 −7 γ= = = 80.4 x10 −7 W = -36. y de (3. Aunque el circuito resultante ya no es un filtro lineal invariante en el tiempo.2 dBm 4 N i = Bη = 3000x2 x10−11 = 6x10−8 W = -42.158a). entonces f b = 300 Hz.27x10 −10 2 1 En ASK no coherente: Pe = exp(−20) = 1.2x10 −8 W = -49. mediante circuitos auxiliares. 6x10−7 . el valor del umbral debe ser ajustado para cada valor de γ de acuerdo con las expresiones (5. γ = 4 i = 16 Ni Ni B = 3000 = 2 f b . estos filtros son filtros óptimos y pueden utilizarse también en FSK y PSK/DPSK.372 x10 −3 2 1 En ASK no coherente: Pe = exp(−4 ) = 9 . él actúa como tal entre los intervalos de descarga.

Si 2f d es la separación entre las dos frecuencias de transmisión. f d la desviación de frecuencia respecto a f c . la UIT-T establece que para transmisión de datos sobre un canal telefónico a una velocidad de modulación de 300 baudios utilizando un Módem V.67 y 5. En la Fig.21. El ancho de banda mínimo total Bc de la señal FSK se puede estimar a partir de la Fig. arbitraria.68. respectivamente.66 se muestran las densidades espectrales correspondientes (frecuencias positivas solamente) y se define algunos parámetros. podemos simplificar el problema si consideramos que la señal FSK está formada fundamentalmente por dos señales ASK de frecuencias f o y f1 . MODULACION Y TRANSMISION DE IMPULSOS 5. En este caso. el espectro de la señal FSK es esencialmente la superposición de los dos espectros ASK: uno centrado en f1 y el otro centrado en f o . f1 y f o las frecuencias de transmisión de un “1” o un “0”. 1987] y no trataremos de reproducirla aquí. Fig.162) donde si se ha transmitido un "1" si se ha transmitido un "0" Nótese que la asignación de valores para fd y fc es. 5. Sin embargo. El sistema FSK más sencillo es aquel con modulación rectangular de frecuencia. La señal FSK se puede representar entonces en la forma x FSK (t ) = A ⎧ −1 bi = ⎨ ⎩+1 n =−∞ ∑ cos[2π(f ∞ c + b i ⋅ f d )t ] ⋅ Π ( t − nTb ) Tb (5. Entonces. en efecto. Sin embargo.62. como se muestra en las Figs. y cuyos espectros ya conocemos. Benedetto y otros. las frecuencias de operación son fo = 1070 Hz y f1 = 1270 Hz (fc = 1170 Hz y fd = 100 Hz). 5. 1968.21 y Bell 103A son equivalentes pero no son compatibles. El sistema de modulación binaria FSK se basó originalmente en el simple concepto de utilizar una señal telegráfica para modular la frecuencia de una portadora sinusoidal a fin de aumentar la relación S/N en el sistema. las frecuencias utilizadas son f1 = 980 Hz y f o = 1180 Hz (fc = 1080 Hz y fd = 100 Hz). 5. Este enfoque permite considerar al receptor FSK como la combinación de dos receptores ASK. respectivamente. f c = f1 + f d = f o − f d y B c = ∆f + 2f b = 2(f d + f b ) .4. los Módems normalizados UIT-T V. Por ejemplo.7. en el Módem Bell 103A para la misma velocidad de modulación. Modulación Binaria de Frecuencia (FSK) En la modulación binaria FSK la frecuencia instantánea de la portadora se conmuta entre dos valores en respuesta al código PCM. 5. entonces la frecuencia instantánea en un intervalo Tb será f1 = f c − f d o f o = f c + f d . donde f c es la frecuencia de la portadora sin modular. En la Fig. Ancho de Banda y Relaciones S/N en Sistemas FSK La determinación exacta del ancho de banda de las señales FSK es bastante complicada [Lucky y otros. en general. podemos definir | f o − f1 | = ∆f = 2 f d . 5. Evidentemente. amplitud constante y fase continua (“fase continua” significa que en la señal modulada no se producen discontinuidades cuando cambia la frecuencia).66.57(c) se muestra la forma de una señal FSK.384 V. Nótese que los espectros para los UNOS y para los CEROS no ocurren simultáneamente.

que el área neta de cada integral en un intervalo Tb cualquiera debe ser cero. la separación entre los dos espectros aumenta y la interferencia mutua entre canales disminuye. 5. . los espectros estarán lo suficientemente separados.66. para disminuir la distorsión de intermodulación producida por las colas de un espectro sobre la gama del otro espectro.Tb].67. Tb) se verifica la integral ∫ Tb 0 s1 ( t )s 0 ( t )dt = 0 para s1(t) ≠ so(t). 2 Principio de Ortogonalidad en Señales FSK Se dice que dos funciones reales s1(t) y so(t) son ortogonales. Si k << 1. se puede tomar k ≥ 1 / 3 . entonces los dos espectros se acercan fb de tal manera que se produciría una gran interferencia mutua entre un canal y el otro. es decir. debe verificarse. En este caso el 1 ≤ k <1 ancho de banda de la señal FSK se puede calcular solamente con el método de Lucky. 1979]. MODULACION Y TRANSMISION DE IMPULSOS fd y consideremos la Fig. Si 3 [Shanmugam. de la propiedad de ortogonalidad. el ancho de banda de cada canal se puede tomar como B = (f b + f d ) . En el caso binario. las integrales deben ser cero en el intervalo [0. s1 ( t ) = A cos(2πf1 t ) y s 0 ( t ) = A cos(2πf 0 t ) = A cos[2π(f1 + ∆f ) t ] Entonces. Sea k= En resumen. A 2 ∫ cos(2πf1 t ) cos[2π(f1 + ∆f ) t ]dt = 0 0 Tb A 2 2 ∫ Tb 0 cos[2π(2f1 + ∆f ) t ]dt + A2 2 ∫ Tb 0 cos(2π∆f ⋅ t )dt = 0 Para que esta expresión se cumpla. la interferencia mutua entre canales será mínima y el ancho de banda de los canales “0” ó “1” será B = 2 f b . si dentro de un intervalo (0. Si k ≥ 1.385 V. aunque más adelante 1 demostraremos que es preferible tomar k ≥ . como se muestra en la Fig. 5.

Condiciones de Ortogonalidad en FSK. En la misma forma podemos demostrar que 2 fb fb f1 = ( n − m) y f 0 = (n + m) . 5. entonces f c = n b . 5. En condiciones de ortogonalidad. donde m y n son enteros Tb Tb f n = nf b distintos de cero y n > m. el ancho de banda Bc del canal será Bc = 2fb + mfb = (m + 2)fb. f 0 = ( n + m) b 2 2 2 2 En este caso se dice que la separación entre las frecuencias es ortogonal. asimismo. Asimismo. MODULACION Y TRANSMISION DE IMPULSOS m ciclos enteros en Tb 0 frecuencia ∆f t Tb n > m ≥1 n ciclos enteros en Tb t 0 frecuencia (2f1 + ∆f ) Fig. entonces f d = m b . que ∆f = Para una velocidad de transmisión Vb bps o frecuencia de señalización fb Hz. La ortogonalidad permite estimar la máxima velocidad de transmisión por un canal de un ancho de banda dado sin efectos interferentes entre las señales. f1 = ( n − m ) b . m n y 2f1 + ∆f = . el valor de fc (o de n) se elije de 2 6 tal manera que fc quede centrada en el ancho de banda de transmisión y que n sea un número entero > m ≥ 1. Fig. el principio de ortogonalidad en FSK binario establece entonces que: Para dos enteros n y m tal que n > m ≥ 1 .67. En este caso el ancho de banda mínimo del canal será Bc = 3fb. . Como ∆f = 2f d . la mínima separación entre las frecuencias se verifica para m = 1. Como ya lo observamos. 2f1 + 2f d = 2 Tb f y como f c = f1 + f d . Nótese que n permite ajustar la frecuencia de portadora para colocarla en el centro del ancho de banda de transmisión. 2 2 Puede observarse. bajo las condiciones de ortogonalidad.67. la máxima frecuencia de señalización en un canal de ancho de banda Bc es correspondiente será f c = n fb = Bc y la frecuencia de portadora 3 fb B = n c . f c = n b . Esto también se puede interpretar diciendo que. se tiene fd = m fb f f f .386 V.

. Ancho de Banda en FSK El ancho de banda mínimo total de la señal FSK será. en microondas. 2 2 2 2 3 En el caso especial para el cual k = 1/2 (para m = 1). Generalmente n >> m fb 600 3 fb 600 Como m no es entero. 1. es decir.. las señales s1(t) y s0(t) del MODEM V. entonces k = fb fb 2 Esto quiere decir que. del filtro de línea Asimismo.. En el caso general (sin ortogonalidad) k tendrá cualquier valor ≥ . .. k tendrá los valores fijos 1 3 5 m 1 . por supuesto. fd = 300 Hz.. Bc = 2(f b + f d ) = 2(k + 1)f b para k= y en condiciones de ortogonalidad Bc = 2(f b + f d ) = (2 + m)f b para m entero ≥ 1 (5. De donde. .. las frecuencias que satisfacen las condiciones de ortogonalidad son: fc = 1500 Hz. Por ejemplo. . en el caso (5. . en el MODEM UIT-T V. En transmisión a altas frecuencias. fd = 200 Hz. m > 2 y B = 2fb. ⎧(k + 1)f b B=⎨ ⎩ 2f b para k < 1 para k ≥ 1 Bc es el ancho de banda mínimo del canal de transmisión y. Por ejemplo. en este caso la separación mínima entre las frecuencias de transmisión es igual a la velocidad de señalización.23 se tiene fb = 600 Hz. Este filtro deberá estar centrado en la frecuencia f c = o .163b) fd 1 ≥ fb 3 (5.. el ancho de banda B de los canales individuales “1” ó “0” será. MODULACION Y TRANSMISION DE IMPULSOS ♣ Ejemplo 5. 2. fc = 1500..164a) y si hay ortogonalidad.163a) f + f1 de entrada al receptor. k > 1 . en condiciones de ortogonalidad. ∆f = f b = 2 f d . f1 = 1200 Hz y f0 = 1800 Hz ♣ Puesto que k = fd 2f m y m = d . si hacemos m = 1 y dejamos n = 5 con la misma frecuencia de señalización fb = 600 Hz. en el caso general.387 V. la separación entre las frecuencias es la mínima ortogonal. la separación ortogonal es muy utilizada en transmisión FSK m-aria.23 no son perfectamente ortogonales. f1 = 1300 Hz.15 Las frecuencias de los módems prácticos pocas veces cumplen con las condiciones de ortogonalidad. n = c = = 5 entero . 2 general. f0 = 1700 Hz.. por ejemplo. m= 2f d 400 2 2f 3000 = = ≠ entero.

01 dB+ ⎢ ⎡ Si ⎤ ⎥ ⎣ N i ⎦ FSK (dB) (5. es decir. Demodulación Coherente de Señales FSK En la Fig. Relaciones S/N en FSK Consideremos ahora la relación S/N en FSK. 5.388 V.167a) (5.68 se muestra el diagrama de bloques de un receptor FSK coherente. MODULACION Y TRANSMISION DE IMPULSOS ⎧3 ⎪ fb B = ⎨2 ⎪2f b ⎩ cuando m = 1 cuando m > 1 (5. ⎡ Si ⎤ A2 2 = = γ ⎢ ⎥ ⎣ N1 ⎦ FSK 3f b η 3 ⎡ S1 ⎤ A 2Tb γ A2 = = ⎢ ⎥ = 4η 2 ⎣ N1 ⎦ FSK 4ηf b (5.167b) Nótese que para k ≥ 1 o m > 1 . ASK.165) Cuando k ≥ 1. Nótese que la potencia recibida en FSK FSK es 3 dB mayor que en ASK.164b) Estos anchos de banda B son los utilizados para el cálculo de la relación S/N. Como una señal FSK se puede considerar como la superposición de dos sistemas ASK en donde la amplitud de las portadoras es A. Procediendo como en el caso ASK. obtenemos la relación S/N de predetección: Cuando k < 1. ⎡ Si ⎤ A2 γ = = ⎢ ⎥ ⎣ N i ⎦ FSK 2(k + 1)f b η k + 1 ⎡ Si ⎤ A2 A2 γ = = ⎢ ⎥ = ⎣ N i ⎦ FSK 2(2f b )η 4ηf b 2 (5. (5. Para m = 1. se debe mantener la ortogonalidad. El criterio de detección es el siguiente: ⎧v d1 ( t n ) ≥ v do ( t n ) Si en el instante t = t n . para un mejor comportamiento del sistema. esta es una ventaja muy significativa a favor del sistema FSK. entonces la potencia promedio de la señal FSK será de dos veces la potencia promedio de la señal 2 < x 2 (t ) >= 2 < x ASK (t ) >= A 2 / 2 .166) Si hay ortogonalidad. ⎨ ⎩v d1 ( t n ) < v do ( t n ) Habrá error en caso contrario. ⎡S ⎤ γ = 2⎢ i ⎥ ⎣ N i ⎦ FSK o también [ γ ](dB) = 3. Para m >1. ===> un "1" ha sido transmitido ===> un "0" ha sido transmitido .167c) En lo posible.

La desventaja más significativa del sistema ASK no . En general. Esta ya es otra ventaja del sistema FSK sobre el sistema ASK. El criterio de decisión es el mismo que en el caso de detección coherente.50). ancho de banda y densidad espectral de ruido son las mismas. 5. resulta que las relaciones [S i / N i ] en ASK coherente y en FSK coherente son iguales. En cuanto a la probabilidad de error. la decisión será correcta si v d1 ( t n ) ≥ v do ( t n ) . φ1 fo . entonces se producirá un error.44 y 5. la demodulación coherente de señales FSK casi no se emplea y el estudio somero que hemos presentado aquí es más que todo para reafirmar conceptos y para efectos de comparación. 1966]. 1966] que la probabilidad de error es Pe = Eb γ 1 1 erfc( ) = erfc( ) 2 2 2 2N o (5. Organo de Decisión Se demuestra [Schwartz y otros. vemos que si las condiciones de amplitud de portadora. se demuestra [Schwartz y otros. si las probabilidades de error son las mismas en ambos sistemas.161). Demodulación no Coherente de Señales FSK En la Fig. Por ejemplo.169) Nótese que si se compara este valor con el correspondiente en ASK no coherente.168) Si se compara este resultado con el correspondiente en ASK coherente.68. expresión (5. más confiable será la decisión. Nótese que v d1 (t ) y v do (t ) son las envolventes de las señales filtradas y como tales serán afectadas por el ruido aditivo. MODULACION Y TRANSMISION DE IMPULSOS x FSK (t ) + Ruido Blanco Filtro Canal de Línea Bc Filtro Pasabanda B Si / N i Detector Coherente Filtro Pasabajo v d1 (t ) Sincro Portadora f1 . Recepción Coherente en FSK. El lector puede verificar fácilmente estos resultados (Ver Problemas de Aplicación 5. pero en FSK no se necesita un umbral de detección. Si esta desigualdad se invierte. se ve que para la misma probabilidad de error en ambos sistemas las relaciones [S i / N i ] ASK y [S i / N i ] FSK son iguales.389 V. El lógico suponer entonces que cuanto mayor sea la relación S/N a la entrada de los detectores de envolvente.69 se muestra el diagrama de bloques de un receptor FSK no coherente. Sin embargo. si se ha transmitido un “1”. 5. entonces la relación [S i / N i ] FSK es 3 dB mayor que la relación [S i / N i ] ASK . pero las probabilidades de error son muy distintas. φ o Comparador tn _ Sincro Temporización Filtro Pasabajo "1" ó "0" t n Filtro Pasabanda S / N i i B v do ( t ) Detector Coherente Fig. Esto se logra cuando los filtros pasabanda de los canales “0” ó “1” son filtros óptimos. que Pe = E γ 1 1 exp(− ) = exp(− b ) 2 2 2 2N o (5.

mientras que este problema no existe en FSK. 5. ♣ Ejemplo 5. el ancho de banda de los filtros de canal. las frecuencias de transmisión son f1 = 1500 Hz y f0 = 2100 Hz. Solución: Bc = 3 kHz.021 dB y la densidad espectral de potencia de ruido es igual a 10-8 W/Hz. Se utiliza un módem que trabaja a una velocidad de modulación de 300 baudios.390 V. El ancho de banda útil del canal es de 3 kHz.169) se grafica en la Fig.70.70. el ancho de banda del filtro de entrada. Vamos a determinar la desviación de frecuencia. como se muestra en la Fig. Filtro de canal. f0 = 2100 Hz. En FSK. la frecuencia de portadora. Verificar también si la separación entre las frecuencias cumple con las condiciones de ortogonalidad. B fb B 0 1500 fc Bc Fig.021 dB = 4 . f1 = 1500 Hz. MODULACION Y TRANSMISION DE IMPULSOS coherente es la necesidad de optimizar el umbral de detección para cada valor de la relación [S i / N i ] ASK .70 2100 f Si = 6.16 Sobre un canal telefónico se transmite datos binarios en FSK. La relación S/N en el canal es de 6. 5. fb = 300 Hz.69. B = 2fb = 2x300 = 600 Hz ⎡ Si ⎤ =8 γ = 2⎢ ⎥ ⎣ Ni ⎦ FSK . la potencia "1" fb "0" 2fd de entrada y la probabilidad de error tanto en coherente como en no coherente. La expresión (5. 5. Ni η = 2 x10 −8 W/Hz De la Fig. 5. Recepción no Coherente en FSK. 5.78 Detector Filtro S i / N i de Pasabanda Envolvent e B Sincro Temporización Filtro S i / N i Pasabanda B Detector de Envolvente x FSK (t ) + Ruido Blanco Canal Filtro de Línea Bc v d1 (t ) tn Organo "1" ó "0" de t Decisión a t = n v do ( t ) Fig. fd = (2100-1500)/2 = 300 Hz fc = 1500 + 300 = 1800 Hz Filtro de entrada. Bc = 2(fb + fd) = 1200 Hz.

la frecuencia de portadora. 048 mW 2 2 La potencia de entrada será Probabilidad de error: En Coherente. n = c = = 12 entero fb 300 fb 300 m y n son enteros y n > m.8x10−3 ) 2 = = 0. Vb = 1000 bps. Solución: En condiciones de ortogonalidad.158x10−3 2 2 Veamos si cumple con las condiciones de ortogonalidad. Pe = En No Coherente. En FSK. Puesto que f c = n frecuencia de portadora quedará centrada en el canal cuando n = 3.339x10−3 2 2 1 γ Pe = exp(− ) = 9. Entonces. Filtros de canal. En este caso.391 V. fc = 3 f b = 1500 Hz .9 mV 2ηf b . Si/Ni = 4 η = 2x10 W/Hz Determine la máxima velocidad de transmisión en condiciones de ortogonalidad. la potencia de entrada y la probabilidad de error tanto en coherente como en no coherente. −8 fb = Bc f = 1000 Hz. 2 f0 = fc + fd = 2000 Hz f1 = fc – fd = 1000 Hz. B = ( k + 1)f b = 3 f b = 1500 Hz 2 ⎡S ⎤ γ = 2⎢ i ⎥ =8 ⎣ N i ⎦ FSK γ= A2 ∴ A = 2ηf b γ = 2x 2x10 −8 x1000x8 = 17. este módem cumple con las condiciones de ♣ Como ortogonalidad. la 2 La frecuencia de portadora fc debe quedar centrada en el canal. ♣ Ejemplo 5. f d = b = 500 Hz 3 2 fb . donde Bc = 3kHz. las frecuencias de los UNOS y los CEROS. la desviación de frecuencia. m= 2f d 2 x300 2f 2x1800 = = 2 entero. 1 γ erfc( ) = 2. la máxima velocidad de transmisión por un canal de ancho de banda Bc se tiene cuando m = 1 y k =1/2. MODULACION Y TRANSMISION DE IMPULSOS γ= A2 ∴ A = 2ηf b γ = 2x 2x10 −8 x 300x8 = 9. es decir.8 mV 2ηf b < x 2 (t) >= FSK A 2 (9.17 Sea el mismo canal telefónico del ejemplo anterior. el ancho de banda de los filtros de canal. cuando Bc = 3fb.

158x10−3 2 2 La potencia de entrada será < x 2 (t) >= FSK En este caso se ha hecho un uso más eficiente del canal: la velocidad de transmisión y la potencia de entrada han aumentado 3. MODULACION Y TRANSMISION DE IMPULSOS A 2 (17.2 x10 −8 γ= A 2 Tb 10 −6 = = 20.2x10 -8 W = -44. En este caso. Pe = exp( − ) = 9.392 V.16 mW 2 2 1 γ Probabilidad de error: En Coherente. Pe = erfc( ) = 2.21. Vamos a determinar todos los parámetros asociados tanto en FSK coherente como en FSK no coherente. se desea transmitir datos binarios utilizando los Módems UIT-T FSK V. pues el ancho de banda de transmisión necesario es igual al ancho de banda útil del canal disponible.164b) el ancho de banda de los canales “1” ó “0” es B = f b + f d = 1200 + 400 = 1600 Hz .2 kHz.18. (a) Transmisión con el Módem UIT-T V.33 veces. η / 2 = 10-11 W / Hz. La densidad espectral de ruido en el sistema es de 10-11 W/Hz.938 dB N i 3. Transmisión de Datos con Módems UIT-T Sobre un canal telefónico. Tb = 1 400 1 .496x10 −5 2 De (5. . Nótese que las probabilidades de error no han variado.23 y V.505x10 −6 En FSK coherente: 2 1 En FSK no coherente: Pe = exp(− γ / 2 ) = 1. Con A 2 = 10 −6 V. La amplitud de la portadora en el Módem V. ♣ ♣ Ejemplo 5.625 = 11.9x10−3 ) 2 = = 0. f b = 1200 Hz. cuyo ancho de banda útil es de 3.833 2η 2x1200x 2x10 −11 1 Pe = erfc ( γ / 2 ) = 2 .01 dBm 2 N i = Bη = 1600x2 x10 −11 = 3.23 es de 1 mV y se reduce a la mitad en el Módem V. se tiene Si = A2 = 5x10 −7 W = -33.21. f d = 400 y k = = 1200 1200 3 El ancho de banda mínimo del canal de transmisión es.95 dBm de donde Si 5x10 −7 = = 15. de (5.152).23 El Módem V. con una velocidad de modulación de 1200 baudios. 1 Bc = 2 ( + 1) ⋅ 1200 = 3200 Hz 3 Se puede efectuar la transmisión. de (5. ∆f = 2100 -1300 = 800 Hz. Puesto que k < 1.339x10−3 2 2 1 γ En No Coherente.23 transmite y recibe a las frecuencias f1 = 1300 Hz y f o = 2100 Hz .163a).

21. Tb = . es decir.25x10 −7 W = -39.833 2 2 ηf b 4x 2x300x 2 x10 −11 Si = A2 = 1. f I0 = 1248 Hz. De la Fig. γ= = = 20. Para los filtros de banda: B BI = B BS = 670 Hz .5 Hz.74 dBm . f S1 = 1583 Hz.7 x10 −9 W = -51. Banda Inferior "1" 235 200 "0" 235 235 Banda Superior "1" 200 "0" 235 B I1 745 980 1080 1180 B I0 1415 B S1 1650 1750 1850 B S0 Hz f 2085 B BI Bc B BS Fig. 10 −3 10 −6 A2 A= V. En la banda inferior las frecuencias de portadora son f1 = 980 Hz y f o = 1180 Hz . Entonces.393 V. f d = 100 Hz. 5. k = 300 3 En el presente ejemplo no vamos a utilizar fórmulas para determinar el ancho de banda de los filtros y canales. 1 1 f b = 300 Hz. Para el filtro de línea o ancho de banda total: frecuencia f c = 1415 Hz. Entonces. mientras que en la banda superior f1 = 1650 Hz y f o = 1850 Hz .71 El lector puede tomar el ancho de banda de los filtros de canal en forma diferente. ∆f = 200 Hz. 5. que estará centrado en la El ancho de banda para el cálculo de la potencia de ruido es el ancho de banda de los filtros de canal.66 = 12. Si = 18. Se obtiene así una configuración como la mostrada en la Fig.71.03 dBm 2 N i = Bη = 335x 2x10 −11 = 6. que estarán centrados en las frecuencias f I1 = 912. que estarán centrados en las frecuencias f BI = 1080 Hz.21 El Módem UIT-T V. se tiene los siguientes anchos de banda: Para los filtros de canal: B I1 = B I0 = B S1 = B S0 = 335 Hz . sino que distribuiremos uniformemente los diferentes anchos de banda de acuerdo con las frecuencias de portadora del Módem V. . f BS = 1750 Hz .21 tiene dos bandas: por una recibe y por la otra transmite. 5.71.21. B = 335 Hz.71 dB Ni Las probabilidades de error son las mismas que en el caso (a). fS0 = 1918 Hz . MODULACION Y TRANSMISION DE IMPULSOS (b) Transmisión con el Módem UIT-T V. La velocidad de modulación es de 300 baudios. Distribución de Anchos de Banda en el Módem UIT-T V. B c = 1340 Hz .

La señal PSK tiene la forma x PSK ( t ) = A ⎧0 φi = ⎨ ⎩π ∞ n =−∞ ∑ cos(2πf t − φ ) ⋅ Π( c i t − nTb ) Tb (5. el intercambio neto de datos en el Módem V. El criterio de decisión adoptado es el siguiente: ⎧v d ( t n ) ≥ 0 Si en el instante t = t n .72 se muestra el diagrama de bloques de un receptor PSK.7. esto no quiere decir que la demodulación pueda efectuarse con detección de envolvente.5.78. Existen dos tipos principales de modulación binaria de fase que dependen de si la demodulación es o no coherente. Las inversiones de fase pueden producir transientes indeseables pero. Nótese la semejanza con el receptor coherente ASK.171) ===> ===> Un "1" ha sido transmitido Un "0" ha sido transmitido Esta expresión se grafica en la Fig. por lo tanto es el más utilizado. pues el detector de envolvente elimina toda la información de fase.57(d) se muestra la forma de las señales PSK. 5.21 es un módem que puede simultáneamente transmitir por una banda y recibir por la otra.63. 5.394 V. mientras que el segundo tipo es la “Modulación Binaria Diferencial de Fase (DPSK)”. la fase de la portadora sinusoidal se conmuta entre dos valores de acuerdo con el código PCM. 5. Puesto que por cada banda se puede transmitir datos a 300 bps.170) donde si se ha transmitido un "1" si se ha transmitido un "0" En la Fig. 1966] Pe = Eb 1 1 erfc( γ ) = erfc( ) 2 2 No (5. MODULACION Y TRANSMISION DE IMPULSOS El Módem V. Demodulación de Señales PSK La demodulación de señales PSK es esencialmente coherente. que en DPSK es justamente el soporte de la información. .21 es realmente de 600 bps. en general. 5. las discontinuidades son alisadas por los filtros utilizados. pero en el receptor PSK el elemento de decisión es mucho más sencillo pues se trata de determinar la polaridad (positiva o negativa) de vd(t) en el instante de decisión. El primer tipo es la modulación binaria de fase propiamente dicha (PSK). Fig. La probabilidad de error es [Schwartz y otros. Un desfase de 180o es una selección muy conveniente porque simplifica los circuitos de modulación y demodulación. Modulación Binaria de Fase (PSK) En la modulación binaria PSK. ⎨ ⎩v d ( t n ) < 0 Habrá error en el caso contrario. 5. En la Fig. Nótese que cuando se dice que la demodulación DPSK no es coherente.

vemos que para la misma probabilidad de error. por ejemplo. mientras que un desfase de 180o puede designar un “0”. la relación [S i / N i ] PSK es 3 dB menor que la relación [S i / N i ] ASK . . entonces la fase se puede codificar. Comparando estos valores respecto a ASK coherente.73 se muestra el diagrama de bloques de un modulador DPSK. 5. 0o para un “1” y 180o para un “0”. Si las perturbaciones en el canal y otros factores como la estabilidad de los osciladores son lo suficientemente estables y no afectan la fase entre intervalos adyacentes. En la Fig. Esto es de particular importancia en sistemas en donde la potencia es el factor limitativo como. por ejemplo. φ c Organo de Decisión Filtro Pasabanda Sincro Portadora + _ "1" ó "0" a t = tn Sincro Temporización tn Fig. en transmisión por microondas.395 V. 0o de desfase desde el intervalo anterior puede designar un ”1”. MODULACION Y TRANSMISION DE IMPULSOS x PSK (t ) + Ruido Blanco Canal Si / N i Detector Coherente Filtro v d ( t ) Pasabajo fc . Recepción Coherente en PSK. la potencia necesaria para transmitir una señal ASK coherente es el doble que la necesaria para transmitir la misma información en PSK. Por ejemplo. 5.72. en estaciones remotas o en satélites de telecomunicación. o lo que es lo mismo. Modulación Binaria Diferencial de Fase (DPSK) En los sistemas de modulación binaria de fase. el cual es la combinación de un codificador diferencial y un modulador PSK. sino más bien por codificación diferencial en términos del cambio de fase entre intervalos sucesivos. no con respecto a un valor absoluto. y el receptor descodifica la información digital basada en esa diferencia de fase. la referencia de fase para la demodulación se deriva a partir de la fase de la portadora en el intervalo de señalización anterior.

Esta es otra ventaja del sistema DPSK sobre el sistema PSK. En la siguiente Tabla se muestra el mecanismo de codificación y descodificación diferencial tanto en el transmisor como en el receptor. 5. se puede utilizar en cualquier sistema digital y no es privativa del sistema DPSK. en la corta secuencia de 10 dígitos binarios la señal PSK tiene 6 transiciones y al codificarla diferencialmente el número de transiciones disminuye a cuatro.74 suponemos que la frecuencia de portadora es igual a la frecuencia de señalización. las transiciones producen transientes indeseables que pueden perjudicar la sincronización de temporización y su disminución es muy deseable. Para facilitar el dibujo de las formas de onda. 5. Nótese que la codificación diferencial. . 5.74 se muestra las formas de onda de las señales moduladas PSK y DPSK para la secuencia de entrada dada. en sí misma. Formas de las Señales Moduladas PSK y DPSK Nótese que el número de transiciones en DPSK ha disminuido en relación con el número de transiciones en PSK.396 V.74. en efecto. f c = f b . MODULACION Y TRANSMISION DE IMPULSOS En la Fig. 1 Tb 1 0 Tb 1 0 1 1 0 0 1 SECUENCIA BINARIA NORMAL (a) Señal Modulada en Fase (PSK) 1 1 0 0 1 1 1 0 1 1 SECUENCIA BINARIA CODIFICADA DIFERENCIAL (b) Señal Modulada en Fase Diferencial (DPSK) Fig. en la Fig. Como ya lo hemos señalado. es decir.

La señal DPSK recibida tiene la misma forma de la señal PSK. Esta técnica se denomina “detección por retardo” y no necesita sincronización de portadora pero sí de temporización. . 5. x DPSK (t ) + Ruido Blanco Canal Si / N i Filtro Pasabanda Retardo Tb Detector de Fase Filtro Pasabajo Sincronización de Temporización v d (t ) Organo "1" ó "0" de t Decisión a t = n tn Fig. por lo tanto.75. 5. a la salida de la red de retardo estará presente la señal DPSK correspondiente al intervalo anterior (n-1). donde t = t n . Fig. Receptor DPSK con Detección por Retardo. x DPSK (t n ) = A cos(2πf c t n − φ n ) Como el retardo es igual a Tb . de (5.75.397 V.172) φi = 0 ó π Consideremos un intervalo Tb de orden n. En ese intervalo. 5. en efecto. x DPSK ( t ) = A donde o n =−∞ ∑ Π( ∞ t − nTb )cos( 2πf c t − φ i ) Tb (5.172). x DPSK (t n −1 ) = A cos(2πf c t n −1 − φ n −1 ) El lector puede verificar fácilmente que a la salida del filtro pasabanda.75. MODULACION Y TRANSMISION DE IMPULSOS Tabla de Codificación y Descodificación DPSK Un ejemplo de la instrumentación de un receptor DPSK se muestra en la Fig.

no hay que confundir similaridad con igualdad: el sistema ASK es un esquema de modulación lineal.173) Como | ∆φ| = 0 o o π . La probabilidad de error en modulación DPSK es [Schwartz y otros. sin embargo. Nótese que la densidad espectral de potencia de la señal PSK (y DPSK) tiene la misma forma que la correspondiente en ASK.76 se muestra esta densidad espectral (frecuencias positivas solamente). lo que impide la transmisión de datos en forma asincrónica. 5. con la diferencia de que la densidad espectral PSK no contiene un impulso a la frecuencia de portadora. 5. Ancho de Banda y Relaciones S/N en Sistemas PSK y DPSK Para efectos del cálculo de la densidad espectral y de la potencia. calculamos la función de autocorrelación y la densidad espectral para este tipo de señal: R A (τ ) = A 2 Λ ( τ f ) ⇔ S A (f ) = A 2 Tb sinc 2 ( ) Tb fb y del teorema de la modulación para señales de potencia. B = 2 f b = 2 / Tb .174) Esta expresión se grafica en la Fig. es un esquema de modulación no lineal. esta desventaja se compensa con creces por el hecho de que DPSK no requiere detección coherente. la modulación PSK (y DPSK) se puede considerar como una modulación ASK donde la secuencia binaria de entrada es una señal aleatoria bipolar NRZ. Otro problema menor en DPSK es que los errores tienden a propagarse. .175). S PSK (f ) = A 2 Tb 4 ⎡ f − fc ⎤ 2 f + fc ) + sinc 2 ( )⎥ ⎢ sinc ( fb fb ⎦ ⎣ (5. En este caso la señal PSK se puede escribir en la forma x PSK (t ) = A (t ) cos(2πf c t ) (5. 5. expresión (3.175) donde A(t) es una secuencia aleatoria binaria bipolar NRZ de amplitud ±A . Sin embargo. es decir.176) En la Fig. con un período de repetición Tb. Los requerimientos de ancho de banda son los mismos que en ASK. Por otra parte. el criterio de decisión será entonces igual al del caso PSK. 1966]. es suficiente verificar el signo de vd(t). se observa que el sistema DPSK requiere un poco más de potencia que el sistema PSK. en el caso general. el sistema DPSK está “enganchado” a una frecuencia de señalización específica.78. Fig.62. Si se compara DPSK con PSK. Pe = E 1 1 exp(− γ ) = exp(− b ) 2 2 No (5. debido a la correlación entre las señales de temporización y el ruido sobre dichos intervalos. como veremos en el Capítulo VI. por lo menos a los intervalos adyacentes. debido al retardo fijo Tb en el receptor. MODULACION Y TRANSMISION DE IMPULSOS v d (t n ) = A2 A2 cos(φ n − φ n−1 ) = cos(∆φ ) 2 2 (5. En el Capítulo III.398 V. mientras que el sistema PSK.

178b) Estas expresiones son válidas también en DPSK. Utilizando esos resultados y los de la presente sección. la potencia en DPSK es la misma que la de PSK. En efecto.175).111) y (5. expresión (5. la relación S/N de predetección es igual que en el caso FSK.1 determinamos la relación S o / N o vs Pe en un sistema PCM. ⎡S ⎤ [γ ] dB = 3. ⎡ Si ⎤ A 2 Tb γ A2 = = = ⎢ ⎥ 4η 2 ⎣ N i ⎦ PSK 2 Bη y en dB. y como entre una señal PSK y una DPSK no hay diferencia desde el punto de vista espectral. pero como < A 2 (t ) >= R A (0) = A 2 .178a) (5. Consideremos ahora las relaciones S/N de postdetección. de (5.01 dB + ⎢ i ⎥ ⎣ N i ⎦ PSK(dB) (5. En la Sección 5.178a). La potencia dada por (5. de (5. vamos a determinar las relaciones [S o / N o ] vs [S i / N i ] tanto en PSK como en DPSK. a diferencia de ASK en la cual la mitad de la potencia se pierde en la transmisión de la portadora (impulso en fc). < x 2 (t ) >= < A 2 (t ) > .177) es toda potencia útil. Como B = 2 f b = 2 / Tb y la potencia de portadora es A2/2. So 2 2n = N o 1 + 2 2( n +1) Pe y γ =2 S1 Ni .111). PSK 2 2 A < x 2 (t ) >= (5.4.177) PSK 2 Esta es la potencia de portadora en PSK. entonces.399 V. En 1 efecto. es decir. MODULACION Y TRANSMISION DE IMPULSOS La potencia de la señal PSK se puede calcular en la misma forma que en el caso ASK.

693 ⋅ n ⎢ ⎥ ⎣ N i ⎦ min Debe verificarse que ⎢ en DPSK (5. MODULACION Y TRANSMISION DE IMPULSOS donde. En efecto.179b) En DPSK.180b) En la Fig.181) ⎡ Si ⎤ ⎡ Si ⎤ ⎥ ≥ ⎢ ⎥ para no caer dentro de la región umbral. el efecto del umbral tanto en PSK como en DPSK. So = No 22n 1+ 2 2 n +1 S erfc( 2 i ) Ni dB (5. de (5.174). en dB. Pe = Pe = S 1 erfc( 2 i ) 2 Ni S 1 exp(−2 i ) 2 Ni Las relaciones S/N de postdetección correspondientes serán En PSK. para diferentes valores de n.77 se grafican estas expresiones. 5.77. que es mucho más fácil de calcular. y en DPSK. .180a) y en dB.113): ⎛ ⎡ S ⎤ ⎞ 6. ⎡ So ⎤ Si 2 n +1 ⎢ ⎥ = 6. el valor de [S i / N i ] min en DPSK se puede obtener a partir de la expresión (5. S exp(−2 i ) Ni dB (5.179a) y en dB. ⎣ N i ⎦ ⎣ N i ⎦ min El valor de la probabilidad de error óptima viene dada por (5. ⎡ So ⎤ Si 2 n +1 ⎢ ⎥ = 6. Un examen más atento de las figuras muestra que el umbral en PSK está por debajo del umbral en DPSK en aproximadamente 1 dB. el valor de [S i / N i ] min será ⎡ Si ⎤ = 1. lo cual nos permite aproximar el valor de la relación [S i / N i ] min en PSK conocida la correspondiente en DPSK.022 + 0.171). en PSK.02 ⋅ n − 10 ⋅ log10 [1 + 2 erfc( 2 )] Ni ⎣ N o ⎦ dB So = No 2 2n 1+ 2 2 n +1 (5.113). la relación [S i / N i ] min en PSK es aproximadamente 1 dB menor que la relación [S i / N i ] min en DPSK.473x10 −2 ⎛⎡ S ⎤ ⎞ 1 f ⎜ ⎢ i ⎥ ⎟ = exp⎜ −2⎢ i ⎥ ⎟ = para n entero ⎟ ⎟ ⎜ ⎜ N 2 2n ⎝ ⎣ N i ⎦ min ⎠ ⎝ ⎣ i ⎦ min ⎠ 2 Resolviendo esta ecuación. 5. por lo tanto. Nótese. en la Fig. de (5.400 V.02 ⋅ n − 10 ⋅ log10 [1 + 2 exp(−2 )] Ni ⎣ N o ⎦ dB (5.

para n = 8. .401 V. A = 0. η = 2x10-12 W/Hz .174 dB ⎢ ⎥ ⎣ N i ⎦ min La relación S/N de postdetección es. n = 8. la densidad espectral de potencia del ruido es de 10-10 W/Hz y la amplitud de la portadora es de 10 milivolts. Tb = 10−6 . Las palabras binarias contienen 8 dígitos binarios.165 dB ⎢N ⎥ Si ⎣ o ⎦ 1 + 217 exp(−2 ) Ni y la relación So/No mínima.01 dBm 2η 2 −6 N i = Bη = 4x10 W = -23. (a) En DPSK A2 A 2Tb = 25.19 Por un canal de microondas cuyo ancho de banda es de 3 MHz se transmite datos binarios a una velocidad de 1 Mbps. MODULACION Y TRANSMISION DE IMPULSOS ♣ Ejemplo 5.98 dBm Si La relación S/N de predeteccion será = 12. Vamos a determinar.554 x104 = 48. entonces la relación S/N mínima de predetección es.97 dB Ni γ = Como n = 8. las relaciones S/N de pre y postdetección y constatar si el sistema está trabajando sobre o bajo el umbral.567 = 8. en DPSK y en PSK. de (5. ⎡ Si ⎤ = 6.181). f b = 106 Hz. Si = = 5x10− 5 W = −13.5 = 10. Bc = 3 MHz.01 V El ancho de banda para el cálculo de la potencia de ruido es B = 2f b = 2 MHz. ⎡ So ⎤ 216 = = 6.

en la práctica la selección de un esquema de modulación depende más bien de la aplicación correspondiente. γ y n. Comparación entre los Sistemas de Modulación Binaria ♣ En cualquier sistema de modulación digital la meta de un buen diseño es la de lograr el mejor compromiso entre la probabilidad de error Pe. Nosotros vamos a comparar los sistemas en base a la potencia. Puesto que [So/No] > [So/No]min . el sistema está trabajando sobre el umbral. la probabilidad de error Pe y las condiciones de ruido son las mismas. Sin embargo. S 1 La probabilidad de error es Pe = erfc( 2[ i ]) = 7. . ⎣ N i ⎦ min ⎡ So ⎤ ⎢ ⎥ = ⎣ N o ⎦ min 22n 1+ 2 2n +1 ⎡ ⎤ Si ⎢erfc( 2[ ]min ) ⎥ Ni ⎣ ⎦ = 47. MODULACION Y TRANSMISION DE IMPULSOS ⎡ So ⎤ 216 = = 5. obtenemos ⎡ Si ⎤ ⎢ ⎥ = 7. El eje de las abscisas debe entenderse entonces como una función de la potencia pico recibida (o transmitida) A2 . 203x104 = 47.78 en la cual se muestra Pe vs γ .944x10−12 2 Ni (b) En PSK Las relaciones Si/Ni . son las mismas que en el caso (a). Para hacer una comparación respecto a la potencia requerida. De donde.554x104 = 48. la relación S/N normalizada γ y la complejidad del equipo.402 V.162 dB ⎢ ⎥ Si ⎣ N o ⎦ min 1 + 217 exp(−2[ ]min ) Ni Nótese que esta relación está a 1 dB por debajo de So/No. a este efecto. el sistema está trabajando sobre el umbral.5231 dB = 5.165 dB Dando valores a [Si/Ni]min para que la relación [So/No]min quede a 1 dB por debajo de su valor [So/No] . de los equipos existentes.158 dB Puesto que [So/No] > [So/No]min . 687x10−13 2 Ni 5. el rendimiento de transmisión ηB . Recuérdese que la potencia promedio en ASK es A2/4. donde γ = A 2 Tb / 2η es la relación S/N normalizada. y de los requerimientos de potencia. 1 S La probabilidad de error es Pe = exp(− i ) = 6.6. ⎡ So ⎤ ⎢ ⎥= ⎣ No ⎦ 22n ⎡ S ⎤ 1 + 22n +1 ⎢erfc( 2[ i ]) ⎥ Ni ⎦ ⎣ = 6. siendo el valor pico A2 es el mismo para todos los sistemas. vamos a suponer que la frecuencia de señalización fb .653 . se puede utilizar las fórmulas dadas para el cálculo de la probabilidad de error Pe y la Fig 5.7.

la comparación se hace respecto a la potencia pico requerida y es lo que se ilustra en la Fig.78. Con este criterio. el DPSK y el FSK no coherente. Entre los sistemas no coherentes. FSK y ASK difieren muy poco en lo que se refiere al transmisor. Los modems comerciales a menudo trabajan con los tres tipos de modulación. . DPSK. 5. el sistema DPSK está a aproximadamente 1 dB por encima. entonces ASK y FSK tendrían las mismas características para un mismo Pe. ASK coherente y ASK no coherente. mientras que el sistema FSK coherente lo está a aproximadamente 4 dB. pero como el diseño. Si la comparación se hace en términos de la potencia promedio. el DPSK es menos complicado que el FSK no coherente. Por otro lado. FSK coherente. el sistema ASK casi no se emplea por la alta potencia pico que demanda y por los problemas de ajuste del umbral. si en el canal se produce “desvanecimiento (fading)” de la señal. Las curvas de la Fig. En la práctica. En cuanto a la instrumentación práctica de estos sistemas. y por supuesto el costo. Tomando como referencia el sistema PSK. MODULACION Y TRANSMISION DE IMPULSOS mientras que es A2/2 en FSK. los sistemas más utilizados son entonces el PSK. más complicada. pues la detección coherente es. seguido de DPSK. de los equipos de transmisión y recepción dependen más bien de la potencia pico que de la potencia promedio. PSK y DPSK. FSK no coherente. los sistemas PSK. que el sistema PSK es el que requiere menor potencia. 5. pero en el receptor la complejidad dependerá de si se utiliza detección coherente o no coherente. sin duda. el sistema FSK coherente tampoco se emplea debido más que todo a los problemas de sincronización de las portadoras utilizadas. para un Pe dado.78 muestran.403 V. donde A es la amplitud de la portadora a la entrada del receptor.

frecuencia o fase de una portadora sinusoidal. sobre un canal telefónico. Las técnicas M-arias en ASK y PSK no aumentan el ancho de banda requerido. Estas guías son las siguientes: (a) Si el ancho de banda es el parámetro más importante. la frecuencia de señalización está limitada a un valor del orden del ancho de banda del canal de transmisión. Los sistemas más utilizados en la práctica son el PSK M-ario. las técnicas PSK y DPSK M-arias conservan el ancho de banda aunque se aumenta el requerimiento de potencia. En un caso práctico. los sistemas no coherentes son preferibles a los coherentes. . se utiliza PSK 4-ario en el sistema SPADE para la transmisión de señales PCM mediante el satélite INTELSAT. En esta forma. las técnicas M-arias se utilizan para mejorar la inmunidad al ruido aunque se aumente la demanda de potencia. el DPSK M-ario y el FSK M-ario de Banda Ancha. estaciones remotas y comunicaciones espaciales). el Módem UIT-T V. por ejemplo.8. los sistemas DPSK y el PSK coherente son los más apropiados. Sin embargo. Cuando el ancho de banda del canal es un factor limitativo. cada baudio puede transportar más de un bit de información. Introducción La mayoría de los sistemas de transmisión de datos a baja velocidad opera bajo el principio de la codificación binaria. sobre un canal telefónico. (c) Si la complejidad del equipo es un factor limitativo y las condiciones del canal lo permite. se utilizan las técnicas M-arias para transmitir la información sobre el canal pasabanda. En la práctica pocas veces se encuentra un canal que tenga el ancho de banda exacto para transmitir una señal mediante técnicas binarias.90. deben utilizarse los sistemas coherentes ya que ellos demandan menor potencia que los no coherentes para una velocidad de señalización y probabilidad de error dadas. mientras que las técnicas FSK M-arias consumen menor potencia pero aumentan el ancho de banda requerido. si el transmisor tiene limitaciones severas en cuanto a la potencia disponible (caso de satélites.1. En los enlaces de microondas usualmente se utiliza PSK 4-ario y 8-ario. los sistemas más apropiados son el PSK coherente y el DPSK. En tales casos. pero con técnicas de compresión de datos puede llegar a 38400 bps y a 56 kbps con el Módem V. Sin embargo.404 V. Velocidades de información superiores a 14400 se pueden lograr pero solamente mediante compresión de datos. el diseñador del sistema debe ponderar cada situación y seleccionar un sistema de acuerdo con las especificaciones que se establezcan para el proyecto. Aún cuando el canal tenga un ancho de banda mayor que el requerido en modulación binaria. Utilizando las técnicas M-arias se puede transmitir información. si el nivel de ruido o cualquiera otra distorsión de la señal lo permite. 5. MODULACION Y TRANSMISION DE IMPULSOS entonces hay que utilizar sistemas no coherentes debido a la gran dificultad para establecer la sincronización local en el receptor cuando hay perturbaciones en el canal. se puede transmitir M valores de amplitud. Por ejemplo.8. MODULACION DIGITAL M-aria MEDIANTE PORTADORA MODULADA 5. es decir. podemos establecer algunos criterios o guías para simplificar el procedimiento de selección. Una fuente muy importante de información sobre los sistemas de modulación digital prácticos son los catálogos de los fabricantes de los equipos. En efecto. hasta 14400 bps con una velocidad de modulación máxima de 2400 baudios. el rendimiento del canal aumenta.32 permite la transmisión. (b) Si el consumo de potencia es lo más importante. con una velocidad de transmisión de 64 kbps y un ancho de banda de 38 kHz. a una velocidad de 9600 bps y con una velocidad de modulación máxima de 2400 baudios. mientras que en FSK M-aria el ancho de banda requerido es mayor para un mismo incremento en el “empaquetamiento” de bits. Sin embargo.

(M . frecuencia f c pero con un ángulo o desfase φ m = 2πm / M . donde M = 2 L . Modulación PSK M-aria En la modulación PSK M-aria el modulador asigna a cada bloque distinto de L dígitos y duración Ts una señal sinusoidal de amplitud A... depende de la secuencia particular de L dígitos a transmitir. hemos visto.182c) Estas expresiones nos permiten expresar la señal s m (t ) en forma fasorial.8. es decir. La duración de cada muestra de señal es también Ts y las M posibles formas de la señal sinusoidal son s m (t ) = A cos(2πf c t − 2πm / M ) para m = 0. Si A es constante. 5. la señal s m (t ) se puede escribir en la forma siguiente: s m (t ) = X m cos(2πf c t ) + Ym sen(2πf c t ) Y 2 y en forma polar. 2. el modulador M-ario procesa. el cual.405 V.79(b).182b) tiene una forma canónica que nos permite utilizar un esquema de generación de señales M-PSK de la forma mostrada en la Fig. el extremo del fasor ocupará M posiciones equidistantes en un círculo de radio A y a cada posición angular corresponderá un bloque de L dígitos.79(a). siendo la velocidad de transmisión Vi = 1 / Tb bps. El convertidor Serie/Paralelo forma bloques de L dígitos los cuales son aplicados a un codificador cuyas salidas son X m y Ym .80 para algunos valores de M y L. 1. En efecto.182a) Como el ángulo φ m se mantiene constante durante cada intervalo Ts . bloques de L dígitos binarios asignándole a cada bloque distinto una cualquiera de M señales diferentes posibles. como se muestra en la Fig. 1. para m = 0. como se muestra en la Fig 5. Las salidas X m y Ym son variables analógicas cuyos valores dependen del valor del ángulo φ m asignado.182b) (5. factores que dependerán del esquema de modulación utilizado. En los sistemas M-arios el mecanismo de modulación es similar. 2. MODULACION Y TRANSMISION DE IMPULSOS En los sistemas binarios. La expresión (5. como veremos a continuación. s m (t ) = X 2 + Ym cos(2πf c t − arctg m ) m Xm donde X m = A cos(φ m ) y Ym = A sen(φ m ) (5.. en el mismo tiempo Tb .. . (M-1) (5.2. a su vez. de acuerdo con la relación M = 2 L . 5. el modulador procesa cada dígito binario de duración Tb asignándole una cualquiera de dos señales diferentes. Modulación M-PSK . 5. 5.79.⋅⋅⋅⋅. pero se habrá introducido algunas restricciones sobre la potencia y el ancho de banda de la señal transmitida.1) . y Ym A fc φm A sen(φ m ) x Xm Entrada Binaria Xm Convertidor L Dígitos Codificador Serie/ Paralelo Ym cos(2πfc t ) sen(2πfc t ) sm (t ) 0 A cos(φ m ) fbL fs (a) Fasor M-PSK (b) Modulador M-PSK Fig. ahora es Vis = L ⋅ Vi bps. La velocidad de transmisión ha aumentado L veces.

176) calculada para PSK binario y es válida para f c ≥ 2f s . Desarrollando (5. se puede asignar bloques de L dígitos a combinaciones de amplitud y fase. En estos casos. sin embargo. cualquiera que sea el valor de L. el ancho de banda de la señal PSK M-aria es del orden de 2f s a 3f s . es muy utilizado en la práctica. el patrón de fase del Módem UIT-T V. el canal “verá” siempre la misma velocidad de modulación compatible con su ancho de banda. 5. De acuerdo con los criterios ya aplicados en relación con el ancho de banda. .184) tiene la misma forma que la (5. Esto equivale a decir que la velocidad de modulación en el canal es siempre la misma. Nótese que fbL es la frecuencia de señalización a la entrada del modulador y f s la correspondiente a la salida. denominado modulación M-QAM. es decir. entonces la señal PSK M-aria permite una reducción del ancho de banda en un factor L. MODULACION Y TRANSMISION DE IMPULSOS Cuando M > 8. 5.183). Como f s = f bL / L .81(d). por ejemplo. En este caso podemos demostrar que la densidad espectral de x Ts ( t ) es STs (f ) = A2 ⎡ f − fc ⎤ 2 f + fc ) + sinc2 ( )⎥ ⎢ sinc ( fs fs ⎦ 4 fs ⎣ (5. Estos tipos de diagrama se denominan “diagramas de Fresnel”. pero en la UIT-T estos patrones de fase han sido normalizados. La asignación mostrada es arbitraria. lo cual se verifica en la mayoría de los casos prácticos. “patrones de fase” o “constelaciones”. Ts = LTbL o f s = f bL / L pues los bloques tienen L dígitos de duración TbL cada uno. y en la Fig. los ángulos φ m se tornan muy pequeños lo que induce a errores en la recepción.80 se muestra el mecanismo de modulación M-aria.183) La información va en la secuencia de fases aleatorias {φm } También.81 unas asignaciones de L dígitos a las M fases de señales sinusoidales representadas en forma fasorial. x PSKM ( t ) = A n =−∞ ∑ [ cos(φ ∞ m ) cos( 2πf c t ) + sen( φ m ) sen( 2πf c t ) ] ⋅ Π( t − nTs ) Ts Dentro de un intervalo Ts . esta expresión se puede escribir en la misma forma que (5. .406 V. En la Fig. 5. Este tipo de esquema. dos fasores distintos pueden tener el mismo ángulo φ m pero las amplitudes son diferentes. es decir. el canal “verá” siempre una señal sinusoidal de frecuencia f c con cambios de fase cada Ts segundos. x Ts ( t ) = A[ cos( φ m ) cos( 2πf c t ) + sen( φ m ) sen( 2πf c t )] El espectro de esta expresión puede determinarse pues φm es una constante en dicho intervalo.32 tiene la forma mostrada en la Fig. La señal PSK M-aria tendrá entonces la forma x PSKM ( t ) = ∞ n =−∞ ∑ A cos(2πf t − φ c m ) ⋅ Π( t − nTs ) Ts (5. es decir.184) La expresión (5. y aumentar L veces la velocidad de información por el mismo canal en el caso binario.182b).

φ = 0o o π (a) PSK Binaria. B M y PM son los anchos de banda y potencias en binario y M-ario. 1979] es ⎡ π ⎤ Pe = erfc ⎢ γ s sen2 ( ) ⎥ M ⎥ ⎢ ⎣ ⎦ (5. L = 4 Fig. L = 3 x (b) Modulación PSK M-aria.54) que para una probabilidad de error de 10-4. M = 8. respectivamente. (d) QAM 16-aria. MODULACION Y TRANSMISION DE IMPULSOS Señal Aleatoria Binaria 1 Dígito "1" / "0" 1 y 0 x Vi1 = 1 / Tb1 A Señal 0 PSK Binaria -A Ts = Tb1 fc . Mecanismo de la Modulación PSK Binaria y M-aria. γ s ” en la forma A 2 Ts γs = = 2⋅ γ 2η donde γ ya se definió en (5.094 π ) M L ⋅ sen 2 ( ⋅ PB (5.81.407 V. para un sistema PSK M-ario la probabilidad de error Pe [Shanmugam. podemos demostrar (Problema de Aplicación 5. si B B . M = 4.185) Sería de interés comparar el sistema PSK M-ario con el sistema PSK binario para una misma probabilidad de error. L = 2 010 110 111 y 101 011 y 001 000 x 100 "1"/"0" "1"/"0" "1"/"0" "1"/"0" ViL = L ⋅ Vi1 A Señal 0 PSK M-aria -A TbL Ts = L ⋅ TbL fc . M = 16. 5. L = 1 y 01 00 x 10 11 (a) Modulación PSK Binaria Señal Aleatoria Binaria 1 2 L Dígitos 3 4 L "1"/"0" (b) PSK 4-aria. M = 2. En efecto. 5. φm = 2πm / M (c) PSK 8-aria.187) .80.186) (5. se puede definir la “relación S/N normalizada M-aria.152). Asignación de Fases en PSK M-aria Puesto que f bL = Lf s . En general. Fig. BM = PM = BB L 1. PB .

5. En cuanto a la probabilidad de error.186 PB 22. que transmite a 9600 bps por un canal telefónico.83. pues la diferencia básica entre PSK y DPSK es que este último ha experimentado un proceso previo de codificación diferencial. .84 se grafica esta probabilidad en función de γ s para algunos valores de M. la mejor selección es aquella para M = 4.4% (0. Modulación DPSK M-aria Fig.81(d) se muestra el diagrama de Fresnel del Modem UIT-T QAM V. 5. pues el ancho de banda se reduce a la mitad con un aumento de sólo el 9.82 se grafica la probabilidad de error Pe vs γ s para algunos valores de M. En este caso se utiliza el esquema M-QAM.96 dB 8. Para M > 8.094 PB 2. 5. se utiliza bastante en la práctica. 5.49 PB 7.188) En la Fig.408 V. en la Fig. denominado también QPSK (“Q” de “quadrature” u ortogonal). Evidentemente.39 dB) en la potencia.32. M 4 8 16 32 BM BB / 2 BB / 3 BB / 4 BB / 5 PM 1.78 PB PM / P B en dB 0.39 dB 3. los requerimientos de potencia se hacen excesivos y la modulación PSK M-aria no se emplea. En la Fig. 5.8. MODULACION Y TRANSMISION DE IMPULSOS En la Fig. La selección final queda a juicio del diseñador del sistema y según la aplicación deseada. por ejemplo. 5.57 dB 13. que es un esquema de modulación compuesta Amplitud-Fase.83 se muestran las relaciones entre los anchos de banda y la potencia en PSK M-ario y PSK binario para una probabilidad de error de 10-4.8. Comparación entre PSK M-ario −4 y PSK Binario para Pe = 10 Los sistemas DPSK M-arios son muy similares a los estudiados en la Sección 5. se ha demostrado [Lucky y otros. 1968] que en el sistema DPSK M-ario Pe = erfc( 2 γ s sen2 ( π )) 2M (5.57 dB Los sistemas PSK M-arios requieren una instrumentación mucho más compleja que los sistemas PSK binarios y por lo tanto su costo es mucho mayor.3. Por esta razón el sistema PSK 4-ario.2 y pueden ser representados con las mismas expresiones y gráficos.

208 dB Ni . A = 10-3 V.22) y poseen además un canal en FSK binario para trabajar a 300 bps (UIT-T V.55). Específicamente. para M = 4 (QDPSK) este aumento es de 2. La secuencia binaria de entrada al modulador tiene una velocidad de transmisión de 2400 bps. M = 4.3333 = 9.409 V. ¿Cuál será la nueva probabilidad de error y en cuantos dB aumenta la relación Si/Ni? (c) Dibuje la señal modulada DPSK de salida correspondiente a la entrada 1 0 1 1 0 1 0 0 (el dígito de la izquierda es el LSB. la amplitud de la portadora es de 1 mV y la densidad espectral de ruido es de 10-11 W/Hz. Solución: (a) Vi = 2400 bps. algunos módems comerciales transmiten a 2400 bps en QPSK (UIT-T V. pero este aumento es compensado con la simplicidad de instrumentación del sistema QDPSK. el cual se transmite de primero) Suponga que fc = 1800 Hz. a 1200 bps en QDPSK (UIT-T V. por ejemplo. η = 2x10-11 W/Hz En DPSK M-ario. Ni = ηB c = 3x10 3 x 2 x10 −11 = 6 x10 −8 W 2 2 Si = 8.20 Un sistema DPSK 4-ario está caracterizado por el diagrama de Fresnel de la figura.21).79 a 5. un aumento del 71% solamente (Ver Problema de Aplicación 5. donde γ s = 2M 2η Si = A 2 10 −6 = W. (a) Calcule la relación Si/Ni en el canal y la probabilidad de error (b) Si la amplitud de la portadora se aumenta al doble.22bis). ♣ Ejemplo 5. Las Figs. MODULACION Y TRANSMISION DE IMPULSOS Cuando se compara la proba-bilidad de error en DPSK con la de PSK. y 01 00 x 11 10 Diagrama de Fresnel Pe = erfc( 2 γ s sen 2 ( A 2 Ts π ) ). Bc = 3 kHz.32 dB. L = 2. PSK y DPSK. 5. en la práctica se utilizan ambos sistemas de modulación.81 se aplican también en DPSK M-aria. Sin embargo. se verifica que para altos valores de M el sistema DPSK M-ario requiere un aumento de potencia de aproximadamente 3 dB. El ancho de banda del canal es de 3 kHz.

8333x sen 2 ( ) = 2. Ts = 8.77x10-4 2 γ s sen 2 ( π π ) = 2 x 20. γs = 10 −6 = 20. s 2 ( t ) = A cos(ωc t + 135 o ) (dibit): 0 1 → φ 3 = +135 o . La velocidad de modulación en el canal es también de 1200 baudios. 2 x 2 x10 −11 x1200 Pe = erfc(2. fs = fb/L = 2400/2 = 1200 Hz ó 1200 bps.208 = 6. los dígitos o bits se toman de dos en dos.23 – 9.3333xsen 2 ( ) ) = 2. s1 ( t ) = A cos(ωc t + 45 o ) “ “ “ “ “ “ “ “ (dibit): 1 1 → φ 2 = −135 o .410 V.47) = 4. (c) fs = 1200 Hz.47 2M 8 (b) A = 2x10-3. Ts = 1. fc = 1800 Hz Tc = 5.556x10-4 seg. 4 x10 −6 = 83. y se supone que la señal de entrada 1 0 1 1 0 1 0 0 está ya codificada diferencialmente.02 dB. s 4 (t) = A cos(ωc t − 45o ) La señal modulada DPSK 4-aria tendrá la forma siguiente ♣ .812 x10 −12 8 γs = El aumento en la relación Si/Ni es de 15. De acuerdo con el diagrama de Fresnel. Esto equivale a un aumento de potencia de 4 veces. 2 x 2 x10 −11 x1200 π Pe = erfc( 2 x83. s 3 ( t ) = A cos(ωc t − 135 o ) “ (dibit): 0 0 → φ4 = +45o . Para su codificación DPSK y como L = 2. la codificación para la señal modulada de salida será: Para la dupla (dibit): 1 0 → φ1 = −45o . MODULACION Y TRANSMISION DE IMPULSOS fb = 2400 Hz.5 Tc La señal M-DPSK tiene la forma s m ( t ) = a cos(2πf c t − φ m ).333x10-4 seg.8333.33 .

191) L donde fb es la velocidad de señalización o de modulación a la entrada del modulador FSK M-ario. M. de modo que se puede tomar f f1 = kfs = k b para k entero y k ≥ 1 (5.. es decir.M.. La frecuencia míniL ma f1 deberá ser igual o mayor que fs . siendo fb la frecuencia de señalización a la entrada del modulador.. En la Fig. La señal FSK M-aria tendrá entonces la forma x FSKM ( t ) = n =−∞ ∑ A cos{2π[f ∞ c + (2 i − 1 − M ) f d ]t} ⋅ Π( t − nTs ) Ts (5. para j = 2.. 5.8. entonces la frecuencia instantánea en un intervalo Ts es f i = f c + (2i − 1 − M )f d .193) . 3.. 4. de la señal FSK M-aria. si 2fd = fs (separación ortogonal). a cada bloque diferente de L dígitos binarios y duración Ts se le asigna una señal sinusoidal de la forma si ( t ) = A cos(2πfi t ).. 5.. 2..189) para i = 1. Si la separación mínima entre dos frecuencias adyacentes se hace igual a la frecuencia de señalización en el canal.192) L En este caso la frecuencia de portadora será fc = (2 k + M − 1) fb 2L (5.4.. 1987].411 V. donde fc es la frecuencia de la portadora sin modular [Benedetto y otros. La duración de cada muestra de señal s i ( t ) es también de Ts segundos. con M = 2L.. Modulación FSK M-aria de Banda Ancha En la modulación FSK M-aria. 3. f La frecuencia mínima f1 vendrá dada por f1 = fc − ( M − 1) fd = fc − ( M − 1) b y cual2L fb quiera frecuencia de orden j será f j = f1 + ( j − 1) . MODULACION Y TRANSMISION DE IMPULSOS 5.M El ancho de banda mínimo de la señal xFSKM (t) se puede estimar en la forma B min = ( f M + f d ) − ( f 1 − f d ) = 2Mf d (5.190) donde f M y f1 son las frecuencias máxima y mínima.86 la distribución o asignación de las frecuencias de portadora para algunos valores de M y L. Si 2fd es la separación entre dos frecuencias adyacentes.. donde f s = 1/ Ts = f b / L es la frecuencia de señalización a la salida del modulador...85 se muestra el mecanismo de modulación FSK M-aria y en la Fig. 2. respectivamente. 3. entonces el ancho de banda mínimo en el canal será Mfb Bmin = Mfs = (5. para i = 1...

2fd = 800 Hz.412 V.. Mecanismo de la Modulación FSK Binaria y M-aria. fb = 2400 bps y k = 1. f1 = = 800 Hz.. Fig. L = 3. tienen duración Ts y todas tienen la misma energía Es.86. fs f 2400 2400 = b = = 400 Hz. se verifica que ∫ Ts 0 ⎧ A 2 Ts ⎪ = Es s i ( t ) ⋅ s j ( t ) ⋅ dt = ⎨ 2 ⎪0 ⎩ para i = j para i ≠ j (5. M = 4.85. Asignación de Frecuencias en FSK M-aria Por ejemplo.. es decir. L = 2 011 010 110 111 101 100 f ViL = L ⋅ Vi1 Señal FSK M-aria A 0 -A TbL Ts = L ⋅ TbL fi = fc + (2i − 1 − M )fd 2f d f1 f2 f3 f4 fc f5 f6 f7 (c) FSK 8-aria. Bc ≥ M fb = Mfs L Fig. L = 3 f8 (b) Modulación FSK M-aria. M = 2. la separación mínima entre dos frecuencias adyacentes será igual . 6 3 2400 f8 = 800 + 7 = 6400 Hz 3 8x2400 Bmin = = 6400 Hz 3 fd = Ortogonalidad de Señales FSK M-aria El conjunto de señales s i (t ) para i = 1. La ortogonalidad exige también que la separación entre frecuencias adyacentes sea tal que 2fd = fs . fs = = 800 Hz 3 2 2L 6 2400 2400 f c = (2 + 8 − 1) = 3600 Hz. 3. 2.5. Por lo tanto. M = 8.. M es ortogonal. L = 1 (a) Modulación FSK Binaria 00 01 11 10 f Señal Aleatoria Binaria L Dígitos 1 2 3 4 "1"/"0 "1"/"0 "1"/"0 "1"/"0 2f d L "1"/"0 000 001 f4 f1 f2 fc f3 (b) FSK 4-aria. si M = 8. MODULACION Y TRANSMISION DE IMPULSOS Señal Aleatoria Binaria 1 Dígito "1" / "0" 0 1 Vi1 = 1 / Tb1 A Señal 0 FSK Binaria -A Ts = Tb1 fo o f 1 2f d f f1 fc f2 (a) FSK Binaria..194) Las señales s i (t ) son ortogonales en el intervalo Ts . 5.

El receptor óptimo coherente para el conjunto ortogonal de señales consiste en una batería de M filtros óptimos. En general. Se demuestra [Lucky y otros. condición que hemos tomado para estimar el ancho de banda mínimo de la señal FSK M-aria. 5. y FSK M-aria cuando la potencia es el factor limitativo (como en las comunicaciones espaciales o por satélites). Este compromiso. aunque la recepción coherente casi no se utiliza.413 V. pero la ecuación de Pe es una ecuación integral de muy difícil resolución. expresión (5. En el receptor se muestrea las salidas de los filtros en los instantes nTs y el elemento de decisión selecciona cual señal s j ( t ) estaba presente en la entrada del filtro j en el intervalo de señalización n-ésimo. un aumento en la velocidad de transmisión de la información se puede lograr mediante un compromiso entre el ancho de banda y la relación S/N. en un sistema FSK M-ario el ancho de banda mínimo es Mf b / L . el precio que hay que pagar es el aumento en el ancho de banda.191). podemos mantener fijo el ancho de banda de transmisión pero la potencia transmitida aumenta en forma exponencial con L . Sin embargo. 1 Pe 10−1 10−2 −3 M= 2 M= 4 M = 16 Filtro Optimo 1 v d1(t ) s1(t ) M = 1024 M=∞ 10 M = 32 Señal + Ruido s2 (t ) Filtro 2 Optimo v (t ) d2 Selector de Salida Valores Máximos 10−4 -1. En efecto. en PSK o DPSK M-aria. 1968] que para grandes valores de γ s las curvas tienden a juntarse indicando que con solamente un aumento de 3 dB en la potencia se puede aumentar el número de niveles de 2 a 1024. 1987]. la modulación M-aria proporciona los medios para intercambiar ancho de banda por relación S/N. Por ejemplo. Receptor Optimo FSK M-ario Coherente.87. en FSK M-aria la potencia transmitida es prácticamente independiente de L. pero el ancho de banda aumenta también en forma exponencial con L. En la Fig. Fig. 1968. es decir. MODULACION Y TRANSMISION DE IMPULSOS a fs = f b / L . en dB 10 15 sM (t ) FiltroM Optimo v dM (t ) Sincro Fig. como se muestra en la Fig.88. se puede aumentar la velocidad de transmisión en un factor L = log2 M pero pagando un precio adecuado en términos de ancho de banda o de relación S/N. 5. 5. que ya hemos encontrado también en PPM. asimismo. Por consiguiente.6 dB −5 10 -1 -5 0 5 γ s . Benedetto y otros. La probabilidad de error Pe en FSK M-aria ha sido calculada [Lucky y otros.88.87 se muestra la forma aproximada de la Probabilidad de Error vs γ s para algunos valores de M. En consecuencia. Probabilidad de Error Pe vs γ s en FSK M-aria. mientras que en un sistema FSK binario el ancho de banda mínimo es 3fb . Una desventaja adicional es la creciente complejidad de los equipos de transmisión y recepción tanto en recepción coherente como no coherente. . nos permite disponer de una gran flexibilidad de intercambio entre diferentes parámetros para adecuar una fuente de información dada a un canal determinado. 5. se puede utilizar PSK M-aria o DPSK M-aria cuando el ancho de banda es limitado (como en los canales telefónicos).

parte (a). En la parte (b) se muestra la estructura de la trama transmitida por la Estación C. parte (c). se emplean en la transmisión de video digital.89.9. En el satélite se recibe una multitrama TDMA que contiene las tramas de todas las estaciones terrenas.414 V. respectivamente.89. El preámbulo.2. La multitrama TDMA.5. Sección 5. Esta trama consta de dos partes: un preámbulo. Cada estación escucha toda la multitrama pero solamente copia la información a ella dirigida. CDMA) 3. Acceso Múltiple por División de Tiempo (Time-Division Multiple Access. y los varios campos que contienen la información para las diferentes estaciones de destino. C. 5. televisión de alta definición y en la transmisión de cientos de miles de canales de voz de 64 kbps. Las técnicas TDMA se utilizan actualmente en los satélites INTELSAT VI y VSAT. una estación utiliza todo el ancho de banda del repetidor o “transpondedor” del satélite para enviar una trama que contiene la información a transmitir. un campo que contiene caracteres para activar los circuitos de sincronización de portadora y señalización. La técnica CDMA la veremos más adelante. En este caso se dice que el sistema es radiante o difusor (“broadcast”). La multitrama TDMA tiene la forma mostrada en la Fig. Acceso Múltiple por División de Frecuencia (Frequency-Division Multiple Access. En el ejemplo de la Fig. una cualquiera de estas estaciones puede actuar como estación de referencia. D. la estación C está enviando información a las estaciones A. TDMA) 2.8. Acceso Múltiple por División de Tiempo (TDMA) En algunos sistemas de comunicación muchos usuarios comparten un medio de transmisión común y el acceso a ese medio debe arbitrarse en alguna forma. que llega al satélite contiene las tramas de todas las estaciones que están transmitiendo. En la práctica a estas frecuencias se las denomina “frecuencias de subida” y “frecuencias de bajada”. Durante ese intervalo. Esta multitrama TDMA se regenera en el satélite y se retransmite a una frecuencia de portadora diferente de la frecuencia de la portadora de entrada. E y F . En el sistema TDMA. Acceso Múltiple por División de Código (Code-División Multiple Access. basado en los principios TDM. y en telefonía celular. B. incluye un intervalo de guarda. E y F. 5. MODULACION Y TRANSMISION DE IMPULSOS 5. esta asignación la efectúa una estación terrena de referencia que controla la temporización y la sincronización de las estaciones presentes en el sistema. . a cada estación terrena se le asigna un intervalo o ranura de tiempo para que ella transmita información. mientras que la técnica FDMA la estudiaremos en detalle en el Capítulo VI. parte (a). Para acceder al satélite se utilizan tres técnicas denominadas “métodos de acceso múltiple”: 1. Los sistemas TDMA trabajan generalmente en QPSK y a velocidades hasta 120 Mbps. FDMA). Esta es una situación que se presenta en los sistemas satelitales en los cuales múltiples estaciones terrenas utilizan un satélite como repetidora y el acceso a ese satélite debe ser muy bien controlado para evitar colisiones e interferencias mutuas. y un campo donde va la dirección o identificación de la estación llamante y las direcciones de las estaciones llamadas. Consideremos entonces un sistema satelital formado por un satélite y seis estaciones terrenas A.

89.9. Formato TDMA Típico 5. Que el ancho de banda de la señal transmitida sea mucho mayor que el ancho de banda de la señal mensaje m(t). FHSS). cuyos principios y mecanismo de generación se dieron en el Capítulo III. Estos objetivos se pueden optimizar aplicando las técnicas del espectro disperso (spread spectrum. .3. Existen varias técnicas de dispersión del espectro. Para ser considerado como un sistema SS. Una señal dispersora que permite cumplir con estos dos criterios es justamente la señal seudoaleatoria o secuencia PN. y que la señal s(t) se pueda reproducir en el receptor a fin de extraer la señal mensaje m(t) de la señal transmitida. Introducción En los sistemas de comunicación estudiados hasta ahora los criterios de comportamiento se expresaban en función de la utilización eficiente del ancho de banda y de la relación Señal/Ruido en el canal. MODULACION Y TRANSMISION DE IMPULSOS Multitrama (a) Desde Estación A Desde Estación B Desde Estación C Desde Estación D Desde Estación E Desde Estación F Trama Estación C (b) Preámbulo Hacia Estación A Hacia Estación E Hacia Estación F Identificación y Direcciones Preámbulo (c) Intervalo de Guarda Sincronización de Portadora y Temporización Fig. Sistemas SS de Secuencia Directa (Direct Sequence Spread Spectrum. Que la dispersión del ancho de banda de la señal transmitida sea producida por una señal s(t). TRANSMISION DE SEÑALES DIGITALES MEDIANTE DISPERSION DEL ESPECTRO (SPREAD SPECTRUM) 5. 2.9. Sección 3. SS). Existen también otras técnicas híbridas que incluyen tanto DS como FH. 2.9. Los sistemas SS de más aplicación en la práctica son: 1. 5.415 V. DSSS). el sistema debe satisfacer los criterios siguientes: 1. aspectos que son de gran importancia en las aplicaciones militares y que ahora se han llevado a aplicaciones en el dominio civil. Sistemas SS mediante Conmutación de Frecuencias (Frequency Hopping Spread Spectrum. Sin embargo.1. denominada “señal dispersora”. independiente de m(t). capacidad para acceso múltiple a un medio y baja probabilidad de intercepción. pero no las trataremos aquí. en algunas aplicaciones hay que considerar aspectos tales como la capacidad o robustez contra interferencias (espontáneas o maliciosas).

23 y cuya densidad espectral viene dada por (3. Sistemas SS de Secuencia Directa En los sistemas de espectro disperso de secuencia directa (DSSS). La señal m(t) es una secuencia PCM en banda de base que suponemos bipolar. 3. 5. la señal transmitida PSK/DSSS es perturbada por una señal interferente v j (t ) centrada en la frecuencia de portadora. la señal s(t) es una secuencia seudoaleatoria de la forma mostrada en la Fig. 5. por lo tanto. que se transmite. cuya densidad espectral se muestra en la Fig. La señal dispersada modula en PSK a una portadora de frecuencia fc y luego se transmite. x s (t ) = x r (t )2 cos(ω c t ) = 2 m(t ) ⋅ s(t ) ⋅ cos 2 (ω c t ) + 2 v j (t ) ⋅ cos 2 (ω c t ) . Si la señal x sp (t ) se multiplica por cos(ω c t ) .2.9. De la Fig.31 y cuyo ancho de banda es B ≈ Nf b . En el extremo receptor se llevan a cabo las operaciones inversas correspondientes para la recuperación de la señal mensaje m(t).416 V. (5.175) con A 2 Tb = 1 .90. MODULACION Y TRANSMISION DE IMPULSOS 5. el espectro de la señal mensaje original PCM m(t) se dispersa mediante la utilización de una secuencia PN s(t). Consideremos entonces el modelo de un sistema PSK/DSSS mostrado en la Fig. Entonces.90.90.183). Modelo de un Sistema de Espectro Disperso en Secuencia Directa (DSSS) La señal dispersa x sp (t ) tiene la forma de una secuencia aleatoria bipolar NRZ que contiene la información. de la forma mostrada en la Fig. 5. de (3. 3. x sp ( t ) = m(t ) ⋅ s(t ) m(t ) ⇒ S m ( f ) = sinc 2 ( f ) fb x d (t ) Filtro Pasabajo donde. NRZ y de amplitudes ±A . Supondremos también que la potencia de ruido en el canal es despreciable en relación con la potencia de la señal interferente.195) m(t) x sp ( t ) x t (t ) x r (t ) x s (t ) x o (t ) s(t) Generador PN s(t) cos(ω c t ) v j ( t ) cos(ω c t ) 2cos(ω ct ) CANAL Generador PN TRANSMISOR RECEPTOR Fig. la señal resultante x t (t ) . Durante la transmisión por el canal.175).27 y cuya densidad espectral viene dada por (3. será una señal PSK de frecuencia de portadora fc. Vamos a suponer que esta interferencia es intencional (jamming) y en el caso más desfavorable cuando su ancho de banda es igual al ancho de banda de la señal útil m(t). x t (t ) = m(t ) ⋅ s(t ) ⋅ cos(ω c t ) La señal recibida en el receptor será x r (t ) = m(t ) ⋅ s(t ) ⋅ cos(ω c t ) + v j (t ) ⋅ cos(ω c t ) La señal x r (t ) es demodulada mediante multiplicación por 2 cos(ω c t ) . 3.

196) donde n =−∞ ∑' ∞ indica que la sumatoria no incluye el valor n = 0. resultando en x d (t ) = x s (t ) ⋅ s(t ) = 2m(t ) ⋅ s 2 (t ) ⋅ cos 2 (ω c t ) + 2 v j (t ) ⋅ s(t ) ⋅ cos 2 (ω c t ) pero como s 2 (t ) = (±1) 2 = 1. De (5. supongamos que la densidad espectral S j (f ) S j (f ) = A 2 Π ( j f ) = A 2 para | f |≤ f b con A j << 1 j 2f b s( t ) ⋅ v j ( t ) ⇒ S jd ( f ) = S s ( f ) ∗ S j ( f ) Definamos entonces. A la salida del filtro se tendrá entonces x o (t ) = m(t ) + s(t ) ⋅ v j (t ) donde [ ] [ [ s(t ) ⋅ v j (t )] oj ] oj es la salida del espectro de s(t ) ⋅ v j (t ) para | f | ≤ f b .195) Para cuantificar el efecto de la interferencia. así como todas las componentes frecuenciales del producto s( t ) ⋅ v j ( t ) superiores a fb . La densidad espectral de potencia a la salida del filtro pasabajo será S o (f ) = S m (f ) + S oj (f ) donde S oj (f ) es la densidad espectral de s(t ) ⋅ v j (t ) de la señal interferente es [ ] oj . y que representa la interferencia a la salida. El término de alta frecuencia centrado en ±2f c es eliminado. (5.197) .196). De (3.195). MODULACION Y TRANSMISION DE IMPULSOS A esta señal se le aplica la operación de dispersión. este producto de convolución resulta en S jd (f ) = n =−∞ ∑' ∞ (N + 1)A 2 j N2 A2 f − nf o n f j ) + 2 ⋅ Π( ) sinc ( ) ⋅ Π ( 2f b 2f b N N 2 (5. podemos demostrar que ηj π ⎤ f N+1 f ⎡ 1 ) S oj ( f ) = A 2 ⎢ 2 + 2 sen 2 ( ) ⎥ ⋅ Π( ) = ⋅ Π( j 2f b 2 2f b N ⎦ π ⎣N donde ηj N+1 π ⎤ ⎡ 1 = A 2 ⎢ 2 + 2 sen 2 ( ) ⎥ j 2 N ⎦ π ⎣N (5. S oj (f ) = S jd (f ) ⋅ Π ( f ) 2f b Entonces.177) y (5. entonces x d (t ) = m(t ) + s(t ) ⋅ v j (t ) + m(t ) + v j (t ) ⋅ s(t ) ⋅ cos(2ω c t ) Esta es la señal a la entrada del filtro pasabajo.417 V. que es el ancho de banda del filtro.

198) G DS = Potencia Util de Salida Ps = Potencia Interferente Pj f A 2Tb sin c2 ( )df 0 P ∫ Sm (f )df fb = s = 0f b = fb 1 N +1 2 π Pj ∫0 Soj (f )df ∫0 A J2[ N 2 + π2 sen ( N )]df fb G DS ∫ fb Cuando De donde.171). lo cual es prácticamente imposible por lo costoso que sería. Se puede determinar la ganancia “Potencia Util/Potencia Interferente” para demostrar la robustez del sistema DSSS contra las interferencias espontáneas o maliciosas. su potencia debería aumentarse por lo menos en 470 veces. 2A 2 ⎡ 1 N +1 2 π ⎤ 1 j Nótese que para N >> 1.72 dB (470 veces) por debajo de la señal útil. la Ganancia DS será (5. Ps = 0.91 se grafica Sm(f) y S oj (f ) para N = 1000. Como hemos supuesto que el ruido interferente es mucho mayor que el ruido en el canal ( η j >> η) . Dentro de la banda de paso.4513( ) 2 Pj A j fb fb N La ganancia es directamente proporcional a N.418 V. Sección 5. (La señal S oj ( f ) ha sido multiplicada por 100 para poderla observar en el gráfico). En la práctica.4. MODULACION Y TRANSMISION DE IMPULSOS es la amplitud de la densidad espectral de la señal interferente a la salida. G DS = 26. Esto significa que para que la fuente interferente pudiera tener alguna influencia en la recepción. 5.7. N >> 1. f b = 9600 Hz y (A/Aj) = 100. cuando N = 1000.90253A 2 y Pj = 2A 2 j G DS = Ps A N = 0. Esta característica del sistema DSSS ha sido muy utilizada en los sistemas de comunicación militares contra las interferencias maliciosas (jamming). La probabilidad de error en este sistema es la misma considerada en la modulación binaria de fase. la probabilidad de error en el sistema PSK/DSSS viene dada por (5. el factor [A/Aj]2 es muy grande (>10 ). es decir. la probabilidad de error será .72 dB 4 Puede observarse que en este caso la señal interferente está a 26. Por ejemplo. fb = 9600 Hz y A j = 1. ⎢ 2 + 2 sen ( )⎥ ≈ y ηj = N π N ⎦ N N ⎣ En la Fig.

5. para ( Pi / Ps ) = 10 .92.199). valores de N superiores a 164 mantendrán la probabilidad de error por debajo de 10-5.198) en (5. la probabilidad de error Pe en PSK/DSSS se puede reducir a la forma más sencilla 1 0. En efecto. reemplazando (5. en efecto.92. cuanto más alta es esta relación. Pi = 2f b A 2 . Probabilidad Pe vs N en PSK/DSSS . la probabilidad de error en PSK/DSSS es ⎛ ⎞ ⎜ ⎟ 2 1 1 A ⎟ Pe = erfc⎜ (5. La expresión (5. más alta es la severidad de la interferencia y más alta la probabilidad de error. es decir. donde Pi es la potencia de la fuente N N entonces.201) y la Fig.200) ⎜ 4 2 1 ⎟ N +1 2 2 π A j [ 2 + 2 sen ( )]f b ⎟ ⎜ N ⎝ ⎠ N π Puesto que Ps = 0.201) nos permite observar el efecto de la ganancia de procesamiento N sobre la probabilidad de error para diferentes valores del margen de interferencia. Por ejemplo. 5.05 Pis = -10 dB 0 1 N 10 Fig. la probabilidad de error será alta también.92 se muestra la variación de la probabilidad Pe vs N para diferentes valores del margen de interferencia.92 demuestran la efectividad del sistema DSSS en la supresión de interferencias tanto espontáneas como maliciosas. MODULACION Y TRANSMISION DE IMPULSOS Pe = A2 1 ) erfc( 2η jf b 2 (5. 0.419 V.15 Probabilidad Pe 0. en la Fig. para N >> 1. Es lógico que si la relación Pi/Ps es alta. como se puede observar en la Fig. En efecto.97 dB Pis = Pi/Ps Pis = -1. vemos que la probabilidad de error dependerá también de N.1 Pis = 0 dB Pis = -0.544 N Pe = erfc( ) para N >> 1 2 Pi / Ps (5. 5. La expresión (5. j f b Pi = .90253A 2 y Pj = 2A 2 j interferente.201) A la relación Pi/Ps generalmente se la conoce con el nombre de “margen de interferencia” y es una medida de la gravedad de la interferencia. 5.199) Como η j depende de la ganancia de procesamiento N. pero esta probabilidad de error se puede disminuir aumentando la ganancia de procesamiento N.55 dB 0.

.8. La señal compuesta producida por los M transmisores en la misma banda de frecuencias es x (t ) = ∑ m (t ) ⋅ s (t ) ⋅ cos(2πf t ) i i c i =1 M −1 i =1 M Esta señal llega a los M receptores donde es multiplicada por la portadora 2 cos(2πf c t ) .202) El primer término de x ok ( t ) es la señal deseada. La potencia del término interferente es simplemente la suma de las potencias interferentes producidas por las otras (M-2) señales transmitidas. entonces la potencia total interferente será . Si Pi = Ps es la potencia de cada señal interferente. es la posibilidad de utilización de la misma banda de frecuencias para múltiples usuarios que están transmitiendo simultáneamente. El esquema de transmisión es el mismo de la Fig. por ejemplo.. 2. MODULACION Y TRANSMISION DE IMPULSOS Acceso Múltiple por División de Código (CDMA) Una de las principales aplicaciones del sistema DSSS en las comunicaciones.La señal x r ( t ) de entrada en un receptor dado será la correspondiente a (M − 1) transmisores. entonces a la salida del filtro pasabajo se tiene x ok ( t ) = m k ( t ) + M−2 i =1 ∑ m (t) ⋅ s (t) ⋅ s i i k (t ) i≠k (5.420 V. cada usuario transmite una señal m i ( t ) .5.88. un usuario particular puede extraer de la señal compuesta transmitida la señal a él dirigida utilizando la secuencia PN apropiada. M. mientras que el segundo término se puede considerar como ruido.. y aunque todos los usuarios transmiten simultáneamente por la misma banda de frecuencias. La potencia de las señales m i (t ) es la misma para todas. a una frecuencia de portadora fc común y con una secuencia PN particular s i ( t ) con i = 1. y como = (±1) 2 = 1 . . Supongamos que hay M usuarios que transmiten en un sistema PSK/DSSS/CDMA. x dk ( t ) = 2 ⋅ m k ( t ) ⋅ s 2 ( t ) ⋅ cos 2 (2πf c t ) + k s 2 (t ) k M−2 i =1 i de modo que i k ( t ) ⋅ cos 2 ∑ 2 ⋅ m (t) ⋅ s (t) ⋅ s (2πf c t ) i≠k Esta señal se pasa por el filtro pasabajo de salida que elimina los términos en ± 2fc . La idea clave en el sistema CDMA es la de que a cada usuario se le asigna una secuencia PN diferente.. Como suponemos que las secuencias PN están sincronizadas aunque no son las mismas. Vamos a suponer también que la potencia de ruido en el canal es despreciable en comparación con la potencia de las señales m i ( t ) . 5. entonces. En el receptor k esta señal se multiplica por su secuencia particular s k (t ) y la salida correspondiente será x dk ( t ) = x s ( t ) ⋅ s k ( t ) = M −1 i =1 ∑ 2 ⋅ m (t) ⋅ s (t) ⋅ s i i k ( t ) ⋅ cos 2 (2πf c t ) En el receptor k se verifica que s i (t ) = s k (t ) . x s ( t ) = x r ( t ) ⋅ 2 cos(2πf c t ) = ∑ 2 ⋅ m (t ) ⋅ s (t ) ⋅ cos (2πf t ) i i 2 c Esta señal aparece en la entrada del multiplicador de la secuencia PN de todos los receptores. 3. s 'i (t ) . Esta es la forma de acceso múltiple denominada “Acceso Múltiple por División de Código (CDMA)” que mencionamos en la Sección 5. entonces el producto s i (t ) ⋅ s k (t ) es otra secuencia PN.

201).421 V. Por ejemplo. un aumento en el número de usuarios sólo se puede lograr rediseñando el sistema. mayor será la probabilidad de error. cuanto mayor es el número de usuarios. Una vez que todas las ranuras de tiempo han sido asignadas. 5. 5. el sistema CDMA demanda un estricto control de la potencia de salida de cada transmisor a fin de asegurar que la señal de cada transmisor llegue a la antena receptora aproximadamente con la misma potencia.203) De (5. 1024 y 2048. en sistemas de localización (global positional systems. donde se muestra la variación de la probabilidad de error en función de M para N = 256. En la práctica. El lector puede verificar este fenómeno haciendo los ajustes necesarios en las expresiones (5. la probabilidad de error en el receptor k es Pe. En efecto.1 0 0 200 400 M 600 Fig. 0. k = ⎡ ⎡ N ⎤ P ⎤ 1 1 erfc⎢ 0.554 s ⎥ = erfc⎢ 0.204). El sistema CDMA se aplica en telefonía celular. . pues el comportamiento del sistema experimentará solamente una degradación de acuerdo con la expresión (5.2 0.203) y (5. es decir. la calidad de la señal en todas las estaciones se degrada rápidamente. En CDMA este problema no se presenta.554 ⎥ M−2⎥ Ptj ⎥ 2 2 ⎢ ⎢ ⎣ ⎦ ⎣ ⎦ (5. En el sistema TDMA el número de usuarios está restringido por el número de ranuras disponibles en el sistema.93. 512. en sistemas PCS (Personal Communication Systems) y en redes de área local inalámbricas.93.204).204) La probabilidad de error en CDMA depende entonces del número de usuarios M en el sistema. se verifica que para que Pe . En efecto. Esto se puede observar en la Fig.3 Probabilidad Pe N = 256 N = 512 N = 1024 N = 2048 0. se produce una degradación en la calidad de la transmisión. Probabilidad de Error en CDMA Sería interesante comparar el sistema CDMA en relación con el sistema TDMA. se puede agregar los usuarios que se quiera. MODULACION Y TRANSMISION DE IMPULSOS Ptj = (M − 2) ⋅ Pj = (M − 2) ⋅ Pi P = ( M − 2) s N N (5. Se puede aumentar el número de usuarios pero a costas de un aumento en la probabilidad de error. para una ganancia de procesamiento N = 1000. en sistemas móviles por satélite. ya estudiado. si una o más estaciones transmiten con altas potencias. GPS).k < 10 −5 el número de usuarios debe ser M < 120.

. 5. la interferencia se reduce. donde k es el número de “chips” tomados de la secuencia PN. esto quiere decir que durante un intervalo de tiempo T se utiliza una de las M frecuencias.. habrá 256 frecuencias de portadora diferentes que serán moduladas por la señal FSK o DPSK. que es una forma de FHSS Lento.. i) = n =−∞ ∑ 2 cos(2πf t) ⋅ Π( i ∞ t − nT ) T para i = 1. Las frecuencias de portadora se generan en un sintetizador de frecuencia que es controlado por k “chips” tomados de una secuencia PN. de modo que se puede escribir s h ( t .95.9.95 se muestra el modelo de un sistema FSK/FHSS con demodulación no coherente. y sistemas FHSS Rápidos cuando T < Tb . pues en el caso de existir una. a esta técnica se le suele llamar también “Dispersión de Espectro por Salto de Frecuencias”. que f1 >> f c . y en el intervalo siguiente se cambia o “salta” en forma aleatoria a cualquiera otra de las M .422 V. Vamos a suponer también que la frecuencia inferior de dispersión es mucho mayor que fc .1 frecuencias.. como se muestra en la Fig. si k = 8. Como resultado. la portadora “salta” aleatoriamente a otras de las frecuencias no conocidas por el ente interferente y como consecuencia la interferencia se reduce. La cantidad de frecuencias es igual a M = 2 k . 205) Dependiendo de la relación entre T y Tb . En la Fig 5.. generalmente FSK o DPSK. los sistemas FHSS se clasifican en sistemas FHSS Lentos cuando T ≥ Tb . vamos a considerar el caso cuando T = Tb . 2. Para simplificar el análisis. es decir. Por esta razón.3 Dispersión del Espectro mediante Conmutación de Frecuencias (FHSS) En los sistemas FHSS la señal digital a transmitir.94 se muestran los “saltos” aleatorios de frecuencia y en la en la Fig. 5. . Por ejemplo. MODULACION Y TRANSMISION DE IMPULSOS 5. vuelve a modular una portadora cuya frecuencia cambia constantemente de acuerdo con una secuencia PN. ella tendría efecto solamente en uno de los M intervalos de tiempo.. Estas frecuencias cambian cada T segundos. M (5. . en la práctica el valor de k es igual al número de etapas r del generador de las secuencias PN. Durante los M − 1 intervalos de tiempo restantes. 3.

es. 2.. Asimismo.423 V. 3. i) = x FSK ( t ) ⋅ s h ( t . es decir. M Tb (5. i) . cuya potencia. . Modelo de un Sistema de Transmisión de Espectro Disperso mediante Conmutación de Frecuencias. i) Filtro Pasabanda B Filtro Pasabanda C x f (t ) Demodulador FSK No Coherente m(t) Modulador FSK Filtro Pasabanda A m(t) sh ( t . i) = n =−∞ ∑ A cos[2π(f + b a f d + f i ) t ] ⋅ Π( t − nTb ) para i = 1. Por razones de ortogonalidad.. x FSK ( t ) = n =−∞ ∑ A cos[2π(f ∞ + b a ⋅ f d ) t ] ⋅ Π( t − nTb ) Tb t − nTb ) Tb t − nTb ) Tb Entonces. i) x r ( t . f i − f i −1 = f b . el ancho de banda de la señal FSK/FHSS es B ≈ (M − 1) ⋅ f b .. ∞ x fh ( t . En el canal aparece una señal interferente v j ( t ) .162). 5. x fh ( t . i) xrh ( t .207) . MODULACION Y TRANSMISION DE IMPULSOS x FSK (t ) x fh ( t . i) x t ( t . pero como M = 2 k y N = 2 k − 1.95. i) v j (t ) Sintetizador de Frecuencia 1 2 3 k Generador PN Convertidor T = Tb Serie / Paralelo TRANSMISOR CANAL RECEPTOR Fig. Por lo tanto.4. la separación entre dos frecuencias adyacentes debe ser como mínimo igual a fb . Sección 5.. Vamos a estimar ahora el valor aproximado del ancho de banda ocupado. de (5. i) = x fh ( t . que ya discutimos anteriormente. de modo que su salida es x t ( t . igual que en el caso DSSS. entonces el ancho de banda es B ≈ N ⋅ fb en FSK/FHSS (5.. analizaremos separadamente los efectos de la señal útil y los de la interferencia. De la Fig. c donde x FSK (t ) . i ) Sintetizador de Frecuencia 1 2 3 Generador PN k Reloj Reloj Convertidor Serie / Paralelo T = Tb s h ( t .7. 5.206) Esta es la señal FSK/FHSS que se transmite. suponemos que es mucho mayor que la potencia de ruido (η j >> η) . i) = n =−∞ ∞ n =−∞ ∑ 2A cos(2πf t) ⋅ cos[2π( f i c + b a f d ) t ] ⋅ Π( ∑ A{cos[2π(f ∞ c c + b a f d + f i ) t ] + cos[2 π ( f c + b a f d − f i ) t ]} ⋅ Π ( El filtro pasabanda A está centrado en [ fc + ba fd + fi ] .95. para T = Tb .

i) = x rh ( t . el espectro de la señal m(t) cambia aleatoriamente de frecuencia de portadora cada Tb segundos sobre un canal de ancho de banda B = M ⋅ f b . Estrictamente hablando. el espectro de la señal no se ensancha. Cuando esta señal pasa por el filtro pasabanda B del receptor. Lo que pasa es que el mecanismo de modulación hace que este espectro se desplace sobre M frecuencias de portadora ocupando un ancho de banda total B ≈ M ⋅ f b . i) . i) resultando en x rh ( t . el cual tiene las mismas características que el filtro A. La señal x t ( t . i) = n jc ( t ) ⋅ cos[2 π ( f c + b a f d + f i ) t ] − n js ( t ) ⋅ sen[ 2 π ( f c + b a f d + f i ) t ] Esta señal de ruido se multiplica por la señal dispersora s h ( t . él siempre permanece fijo y su ancho de banda generalmente es f b . Este mismo análisis se puede efectuar para una señal DPSK. o lo que es lo mismo. i) se transmite y en el receptor pasa por el filtro pasabanda B. MODULACION Y TRANSMISION DE IMPULSOS que es el mismo ancho de banda de la señal PSK/DSSS. podemos decir entonces que . de modo que su salida será x f (t) = n =−∞ ∑ A cos[2π (f ∞ + b a f d ) t ] ⋅ Π( t − nTb ) = x FSK ( t ) Tb (5. la señal interferente n =−∞ ∑ {n ∞ jc ( t ) ⋅ cos[ 2 π ( f c + b a f d ) t ] − n js ( t ) ⋅ sen[2 π ( f c + b a f d ) t ] ⋅ Π( } t − nTb ) Tb Esta es una señal pasabanda de banda angosta cuya densidad espectral de potencia es constante. Esta señal se multiplica por una réplica idéntica y sincronizada de s h ( t . El ancho espectral ocupado por los espectros de la señal FSK/FHSS es ciertamente un espectro ensanchado y es N veces el ancho de banda de la señal mensaje m(t). Consideremos ahora una señal interferente v j (t ) cuya densidad espectral es constante y mucho mayor que la densidad espectral de ruido en el canal. la cual al demodularse producirá la señal mensaje original m(t). el ruido a la salida del filtro se puede expresar en la forma canónica n j ( t . i) = x t ( t . i) = n =−∞ ∞ ∑ 2A cos[2π(f ∑ A{cos[2π(f c ∞ c + b a f d + f i ) t ] ⋅ cos(2 πf i t ) ⋅ Π( t − nTb ) Tb t − nTb ) Tb c + b a f d + 2 f i ) t ] + cos[2 π ( f c + b a f d ) t ]} ⋅ Π( n =−∞ El filtro pasabanda C deberá estar centrado en [ f c + b a f d ] .424 V. Nótese que la demodulación es no coherente para evitar los problemas de sincronización de los sintetizadores de frecuencia.208) Hemos recuperado la señal FSK. que está centrado en [ f c + b a f d ] . i) obteniéndose n jh ( t . i) = ∞ n =−∞ ∑ {n jc ( t )[cos[ 2 π ( f c + b a f d + 2 f i ) t ] + cos[2 π ( f c + b a f d ) t ]] − − n js ( t )[sen[2π( f c + b a f d + 2f i )t ] + sen[2π( f c + b a f d )t ]} ⋅ Π( será n jf ( t ) = } t − nTb ) Tb A la salida del filtro pasabanda C. de modo que x r ( t .

209) (5. en general. para Ps / Pj > 13. de (5. siendo necesario disponer en el receptor de circuitos especiales para la generación de la portadora y de la secuencia PN en perfecta sincronización con el transmisor.2 0 20 10 0 10 g En la discusión de los diferentes tipos Fig. 5. la sincronización de las secuencias PN es mucho más complicada pues requiere circuitos especiales de adquisición y rastreo.4 Pe g)0. en este caso en particular. alta. Este sistema se utiliza en telefonía celular GSM (Global System for Mobile Communications) de procedencia europea. La operación de sincronización generalmente se hace a altas velocidades y consta de dos etapas: en la primera etapa se efectúa una sincronización “gruesa” en la cual la secuencia PN del receptor difiere en uno o pocos “chips” de la secuencia PN en el transmisor. en la segunda etapa el receptor intenta mantener alineada la secuencia PN local lo más cerca posible de la secuencia PN del transmisor. Proakis. expresión (5. Alcanzada la sincronización. γ= A 2 Tb (A 2 / 2) Ps = = 2η j η jf b Pj n jf ( t ) ⇒ Snj (f ) = A 2 = j ηj para | f | ≤ Bi con A 2 << 1 j (5. Pero en la práctica la situación es muy diferente.164b). La probabilidad de error es. Para más información sobre estos sistemas. 5. aunque en algunos sistemas el transmisor envía secuencias especiales para mantener la sincronización.6 Pe 0.96 se muestra la variación de la probabilidad de error en función de la relación Ps/Pj. En particular. A continuación se realiza una sincronización “fina” que sincroniza las dos secuencias.211) exp( − ) 2 2 Pj donde Ps/Pj es la ganancia de potencia o relación entre la potencia útil y la potencia interferente.210) La probabilidad de error en el sistema FSK/FHSS será entonces 1 1 Ps (5.96. ver [Pickholts y otros. Esto completa la primera etapa. 1982. Consideraciones Finales 0.4. de (5. ésta es la denominada operación de “seguimiento o rastreo”. 5. Pe = La relación Ps/Pj es.30 ( 3 FSK / FHSS 0. Nótese que esta ganancia no depende de N.9.169).152). Ps/Pj 20 dB . En la Fig. MODULACION Y TRANSMISION DE IMPULSOS 2 donde Bi es el ancho de banda de un canal individual en FSK. la probabilidad de error Pe < 10 −5 . 1 γ Pe = exp( − ) 2 2 pero.35 dB . Probabilidad de Error vs Ps/Pj de sistemas SS siempre hemos supuesto que la portadora y las secuencias PN son idénticas y sincronizadas tanto en el transmisor como en el receptor.425 V. 1989].

La teoría del muestreo es fundamental en los sistemas digitales. En este capítulo se desarrolla. de la práctica. Dixon. En la transmisión y recepción de impulsos en banda de base se tratan algunos aspectos tales como las técnicas de multiplicidad por división de tiempo (TDM). Se ha visto. 1986] y en particular. que una señal analógica se puede modular y recuperar utilizando las técnicas de modulación analógica PAM. se explica los diferentes teoremas. MODULACION Y TRANSMISION DE IMPULSOS En general. En particular. DPCM y DM. y los sistemas m-arios PSK M-ario. se discute las ventajas y problemas de la operación de muestreo y se ilustra su aplicación mediante ejemplos sencillos. Se introduce los métodos de demodulación coherente y no coherente. la Recomendación SM. asimismo. y las técnicas de modulación digital PCM. Se analizan los correspondientes modelos de transmisor y receptor. Como primer paso se desarrolla el concepto de muestreo de señales. Una aplicación muy importante del concepto de espectro disperso es la forma de acceso múltiple CDMA. se discute los problemas de la sincronización de portadora y de temporización. Esto incluye un estudio de sus dos tipos principales: el sistema SS de secuencia directa (DSSS) y el sistema SS por conmutación de frecuencias (FHSS). 1985. En cuanto a las aplicaciones. 5. Se calcula la probabilidad de error y se demuestra que el sistema CDMA puede atender a muchos usuarios pero a costas de una disminución en la calidad de la transmisión. Este método de acceso permite la utilización de la misma banda de frecuencias para la transmisión de señales de múltiples usuarios que transmiten simultáneamente. SS) por sus características antiinterferentes y baja probabilidad de intercepción. . PSK y DPSK. PDM y PPM. y mediante el cálculo de sus propiedades espectrales se obtiene la probabilidad de error. FSK. Para más detalles sobre estos sistemas tanto en DSSS como en FHSS. con la cual se caracteriza su comportamiento. las técnicas básicas de la modulación binaria y maria. conceptos que se ilustran mediante ejemplos tomados. con énfasis en sus características espectrales para el cálculo del ancho de banda. RESUMEN Los sistemas modernos de comunicación se están digitalizando en forma acelerada y en este capítulo se dan los fundamentos de los mecanismos básicos teóricos que permiten conocer el funcionamiento.10.426 V. se estudia las características de los sistemas binarios ASK. el lector puede consultar [Ziemer y Peterson. Se han desarrollado los principios básicos de las técnicas más comunes de la modulación analógica y digital de impulsos.1055 del UIT-R. se hace continuamente referencia a las distintas normas y recomendaciones de la UIT-T y la FCC de los Estados Unidos. de las relaciones S/N y la probabilidad de error correspondientes. DPSK M-ario y FSK M-ario de Banda Ancha. la interferencia intersímbolo. y se presentan algunos circuitos de sincronización ampliamente utilizados en la práctica diaria. 1984. operación y comportamiento de los sistemas digitales comúnmente utilizados en la práctica. Entre los sistemas de modulación que están en proceso de desarrollo se destaca el sistema de modulación mediante dispersión del espectro (Spread Spectrum. en su mayoría. los códigos de línea y la teoría básica del filtro acoplado. Todos estos esquemas de modulación se tratan con cierto detalle y en particular se estudian sus características de ancho de banda y relaciones S/N. Un aspecto de considerable importancia es la transmisión de señales digitales mediante portadora modulada. por lo menos teóricamente. Cooper y McGillen. en los sistemas SS la operación de sincronización de portadora y secuencias PN es muy complicada y para ello en la práctica se ha desarrollado circuitos y técnicas especiales que permiten una sincronización más rápida y eficiente.

. La señal x (t ) = 5 cos(2πx10 3 t ) cos(600πt ) se muestrea a una frecuencia de 2100 muestras por segundo.4. los conocimientos aquí impartidos son suficientes para el estudiante de pregrado y para el ingeniero no especialista que desee una introducción no estadística a la teoría de las comunicaciones. No obstante. Sea el sistema de la Fig.1. 5. 5.427 V. El muestreo se efectúa mediante una señal periódica rectangular de amplitud unitaria y ciclo de trabajo igual 0. 5. (a) Demuestre que la señal de salida del filtro es y (t ) = 5 cos(600πt )[cos(2000πt ) + 2 cos(2200πt )] π 2 cos(1600πt )] π x(t) (b) Si la frecuencia de muestreo fuera de 1800 muestras por segundo.3.5. La señal muestreada se pasa por un filtro ideal pasabajo de ganancia unitaria y ancho de banda de 4 Hz. 2π (b) Determine el diagrama de bloques de un sistema para recuperar x(t) a partir de y(t). Determine la amplitud máxima del espectro centrado en la frecuencia de 100 Hz. Demuestre que la salida del filtro es y (t ) = 4[2 cos(πt ) + 10 cos(2πt ) + 4 cos(3πt ) + 4 cos(5πt ) + 10 cos(6πt ) + 2 cos(7πt )] 5. (a) Demuestre que y (t ) = 1 sinc(t ) cos(2πt ) . PROBLEMAS DE APLICACION 5. Grafique el espectro de la señal muestreada en el intervalo de frecuencias (-10 Hz.97. de ganancia igual a 2 y ancho de banda de 1600 Hz. de período igual al intervalo de Nyquist y relación de trabajo igual a 0. La señal x (t ) = 10 cos(2πt ) + 4 cos(5πt ) + 2 cos(7πt ) se muestrea en forma instantánea a una frecuencia de 4 Hz.97.2. demuestre que y (t ) = 5 cos(600πt )[cos(200πt ) + 5. donde x (t ) = sinc(t ). h(t) = sinc(4t) p( t ) = 2(−1) ( n −1) / 2 cos(2πnt ) nπ n =1 n impar h(t) y(t) ∑ ∞ p(t) Fig. Dibuje su espectro Y(f). La señal muestreada se pasa por un filtro ideal pasabajo. La señal x (t ) = 50sinc 2 (10t ) se muestrea mediante una señal periódica rectangular. todos los conceptos teóricos se han presentado sin profundizar demasiado en sus formas más complejas que requieren métodos de análisis mucho más avanzados desde el punto de vista matemático. MODULACION Y TRANSMISION DE IMPULSOS Dada la característica introductoria de este capítulo.2. 150 Hz).

5.. Suponga que (1/RC)=2πfm . -2B -B X(f) 1 f 2B 0 B Fig.. MODULACION Y TRANSMISION DE IMPULSOS 5. (b) f s = 500 Hz cuando el ancho de banda de la señal se calcula según la expresión (1..99.98. la salida es y( t ) = 2B2sinc(2Bt ) . 5. Dibuje el espectro de la señal muestreada entre n = −5 y n = 5. . El valor B es el ancho de banda del filtro de acuerdo con la expresión (2.9. (a) Demuestre que el espectro P(f) de p(t) viene dado por p(t) . 5. Demuestre también que si el ancho de banda del filtro es el de 3 dB. [Sugerencia: utilice la expresión (1.7. Se tiene una señal x(t) pasabajo de banda limitada f m ..115).428 V.6. Esta señal se va a emplear para muestrear la señal x (t ) = 2 x10 −3 sinc 2 (500t ). 5. Esta señal se muestrea en forma instantánea y se pasa por un filtro cuya función de transferencia es H (f ) = Π (f / 2 B). Esta señal se muestrea y se pasa por un filtro pasabajo RC de tal manera que haya una banda de guarda de ancho B g entre el valor B del ancho de banda del filtro y la frecuencia inferior del espectro centrado en f s . Demuestre que la frecuencia de muestreo necesaria es f s = 3f m + B g . t − Ts − Ts + ∆t ∆t Ts Ts + ∆t P (f ) = 2f s n =−∞ ∑ cos(nπf ∆t ) exp(− jnπf ∆t )δ (f − nf ) s s s ∞ Fig.98 se muestra el espectro de una señal dada. 5. Sea la señal periódica de la Fig. 5.79).. Demuestre que la frecuencia de muestreo mínima necesaria para muestrear la señal x (t ) = 20 cos(10 4 πt ) cos(3. En la Fig.99.. f s = 1/ Ts .105)].8. Se desea muestrear la señal x ( t ) = 15 exp(−103 | t |) . entonces la frecuencia de muestreo será f s = 2f m + B g . 5. Demuestre que si el muestreo se ha efectuado a una frecuencia de B muestras por segundo.9 x10 5 πt ) es de 20 kHz. donde 5. 5. la salida es y( t ) = 2B2sinc 2 (Bt ) .86 Hz cuando el ancho de banda de la señal es el de 3 dB. 1 0 . pero si el muestreo se ha efectuado a 2B muestras por segundo. Demuestre que el límite inferior de la frecuencia de muestreo es: (a) f s = 204 .

429 V. MODULACION Y TRANSMISION DE IMPULSOS 5. 5. 5. donde X(f) es el espectro de la señal de información x(t).403%. Utilizando (5. entonces Sx(f) reemplaza a |X(f)|2 en las expresiones anteriores. de modo que teóricamente cuando ellas se filtran para limitarlas en banda se produce distorsión.15. 2. Consideremos el espectro de la Fig. En general. Vamos a cuantificar la distorsión de solapamiento definiéndola como “la relación entre la energía de los espectros adyacentes reflejada sobre la gama de baja frecuencia y la energía de la señal dentro de esa gama”. (5. x(t) = 10exp(-104 t ) . determine el factor FB % para las siguientes señales: 1. (a) Demuestre que el “Factor de Distorsión por Limitación de Banda” viene dado por Filtro Pasabajo X(f) -B 0 B f FB % = ∫ ∫ ∞ B ∞ 0 | X(f )|2 df 100 | X(f )| df 2 Fig. 5.10.213) 2 0 | X(f )| df Si x(t) está caracterizada mediante su densidad espectral de potencia Sx(f).212) 2 2 0 | H (f )| | X(f )| df Si la ganancia del filtro es constante en la gama | f | ≤ f s / 2 .100. El área rayada representa entonces la pérdida de señal producida por la limitación de banda debida al filtro. las señales de información prácticas no son estrictamente limitadas en banda. De acuerdo con esta definición.100. con f s = 500 Hz. x ( t ) = 8sinc 2 (8x103 t ). 5. el factor de solapamiento es del 7.11.213) demuestre que cuando se muestrea la señal x (t ) = 15 exp(−10 3 | t |) . ∫ F %= ∫ s 3f s / 2 fs / 2 fs / 2 | H (f )|2 | X(f )|2 df 100 (5. demuestre que el Factor de Solapamiento debido a los espectros adyacentes se puede expresar en la forma Factor de Solapamiento. entonces ∫ F %= ∫ s 3f2 / 2 fs / 2 fs / 2 | X(f )|2 df 100 (5. Consideremos la distorsión de solapamiento mostrada en la Fig.214) (b) Si B = 5 kHz.

101.16. En el muestreo con retención se utiliza un filtro de orden cero dado por (5.430 V. Sea el sistema de la Fig. 5.11. Si se considera solamente la energía de los espectros adyacentes que pasa a la salida. (a) Demuestre que la salida y(t) es y (t ) = (b) ∞ x(t) x s (t ) n =−∞ ∑ x 2 (nTs )δ (t − nTs ) cuando δ Ts (t ) 2 Elevador al y(t ) = x s (t ) Cuadrado 1 fs = = 4 fm Ts Fig. demuestre.13. f s = 1 / Ts = 2f m .102. x(t) f s es la frecuencia de Nyquist de x(t). Sea la señal x (t ) = 8sinc 2 ( t 1. (b) Calcule el espectro de la señal muestreada y dibújelo en el intervalo (-140 kHz. 1 1 (b) Repita cuando h ( t ) = Λ ( 2f m t ). donde Ts = = y X(f) = Π ( ) . se puede cuantificar la Distorsión de Interpolación. demuestre que el factor de distorsión de interpolación producido por un filtro pasabajo RC es del 27. MODULACION Y TRANSMISION DE IMPULSOS 5.102.16. con Ts = = f s 3f m 5.25x10 −4 ) cos(1. 5. Sea el sistema mostrado en la Fig. (a) Demuestre que el espectro X i ( f ) de xi (t) es X i (f ) = 2 f m ∞ xi (t ) Filtro Pasabanda cos(2πfm t ) y(t) n =−∞ ∑ X[f − (2n + 1)f m ].14. donde δ Ts (t ) Fig. donde x(t) es una señal pasabajo de banda limitada fm . 5.215) 0 Si x ( t ) = 2f m sin c(2f m t ) . h(t) puede tener cualquier perfil. a partir de la Fig.842%. sin embargo. 5.25).12. que el “Factor de Distorsión de Interpolación” se puede expresar en la forma ∫ F%= I fs +fm fs −f m fm | H(f ) |2 | X(f − f s ) |2 df | H(f ) |2 | X(f ) |2 df ∫ 100 (5. 5.94x10 5 πt ) . (a) Si h (t ) = cos( T f πt 1 1 ) para | t| ≤ s . donde f m = 1 / 2πRC y f s = 3f m . calcule y Ts 2 f s 4f m 2f m dibuje X s (f ) en la forma mostrada en la Fig. 5. 140 kHz) 5. por ejemplo. Dibuje el espectro Y(f) x (t ) = 2 f m sinc(2f m t ) 5. 5. (a) Demuestre que la frecuencia mínima de muestreo es de 35 kHz y diga las características del filtro necesario para recobrar la señal. donde x(t) es una señal pasabajo de banda limitada fm. Igualmente que en los dos problemas anteriores.15.101.

5. y su ganancia es unitaria. 5. podemos ver que el comportamiento del sistema PPM que utiliza impulsos en coseno elevado es superior en 8. (b) Considerando la geometría de la señal vd (t). demuestre que B MIN ≈ 2 f m Vp Vp + A − | min m(t)|-Vu = β m f m . y que su período es Ts = 3 ms .70). Vp y Vu . . Suponga que |min m(t)|= A / 2 . grafique el espectro de xi (t). 5. MODULACION Y TRANSMISION DE IMPULSOS (b) Si x (t ) = sinc 2 (f m t ) .69) y (5. En la Sección 5. Fig.431 V.29 y 5. la ganancia de conversión es 2⎣ τ ⎥ τ ⎭ ⎦ ⎩ So / N o π 2 B = ( − 1) 3 3 2f m Si / N i Si B >> f m . La relación de trabajo del tren de impulsos sin modular es de 0.2.4 se calculó la ganancia de conversión en PPM suponiendo que los impulsos tenían forma trapezoidal. En un sistema PDM se observa que el ancho de los impulsos viene dado por la expresión τ (t ) = 10 −3 [1 + 0. A.3. 5. es el factor de expansión del ancho de banda.17.5 cos( 10 3 πt )] . 5.70). demuestre que cuando los impulsos tienen la forma de ⎧ A⎡ 2πt ⎤ t ⎫ coseno elevado ⎨p(t ) = ⎢1 + cos( ) Π ( )⎬ . (c) Si la banda de paso del filtro está entre 3f m y 5f m . Fig.23. La señal m(t ) = 10 cos 2 (5x10 3 πt ) se va a modular en PAM. 3 Demuestre que el ancho de banda mínimo para transmitir la señal PDM es de 2 kHz. 5.217) Comparando este resultado con (5. demuestre que y (t ) = 4 f m [2 sinc(2 f m t ) − sinc 2 (f m t )] cos(8πf m t ) cuando x (t ) = sinc 2 (f m t ) .18 dB al que utiliza impulsos trapezoidales.18. 5. y expresiones (5.30.216) (5. Determine las relaciones de expansión del ancho de banda y las ganancias de conversión correspondientes.425 seg (a) Determine los valores apropiados de los parámetros Ts .2172 para t = 1. Vp = βm [Vu + | min m(t)|-A] βm − 2 donde β m > 2 . PDM y PPM. entonces So / N o π 2 B 3 π 2 3 = ( ) = βm 24 f m 24 Si / N i (5. Utilizando el mismo procedimiento.20. La señal m( t ) = 10sinc(10 4 t ) se va a modular en PDM en la forma mostrada en la Fig.19. Note también que [min sinc(t)] ≈ -0.23.

la componente a la frecuencia fs se puede extraer de x PDM (t ) .21. (b) En el sistema PCM los impulsos PAM se cuantifican con un cuantificador bipolar de 32 niveles. de 60 kbytes. como mínimo. Una señal analógica tiene una duración de 1 minuto.219) Obsérvese que ahora A s es constante. Su contenido espectral va desde CC hasta 500 Hz.2 kHz. MODULACION Y TRANSMISION DE IMPULSOS 5.432 V. As = 2A J o (πτ 1 f s ) sen(πτ o f s ) π (5. 5. 5. en el sistema PPM hay que transmitir también la información de temporización.220) Se aplican las mismas observaciones que en la parte (b). Demuestre que el ancho de banda del sistema PCM es de 40 kHz. la información de temporización no puede extraerse de x PPM (t ) . 5. convertir en PCM binario y almacenar en la memoria de una computadora. o con el circuito de la Fig. Esta señal se muestrea a 8000 muestras por segundo y los impulsos resultantes se transmiten tanto en PAM como en PCM.218) Obsérvese que la amplitud As varía en el tiempo en función de la derivada de la señal mensaje. (b) Si cada muestra se ha codificado en 8 impulsos PCM binarios. Esto se puede efectuar mediante un filtro pasabanda muy angosto centrado en fs . (b) Demuestre en la misma forma en PDM que la amplitud de la componente a la frecuencia de portadora f s es.37 mV y que la relación de postdetección S o / N o = 48. demuestre que la resolución del cuantificador es de 31. (c) Repita la parte (b) cuando el cuantificador tiene 256 niveles. Como consecuencia.23. Si el voltaje máximo de salida del cuantificador es de ± 8V . a partir de la expresión (5. (a) Demuestre que el ancho de banda mínimo del sistema PAM es de 8 kHz. Esto quiere decir que si m' (t ) ≠ 0 .61. La señal se va a muestrear. (c) Demuestre que en PAM se cumple que As = 2A sen(πτf s ) π (5. .53). de (5.22. Una señal de audio tiene una frecuencia máxima de 3. que la amplitud de la componente a la frecuencia de portadora f s en PPM viene dada por A s = 2Af s [1 − m t m' (t )] ⋅ J o (2πf s m t ) (5. (a) Demuestre. Nótese que el ancho de banda en PCM es 5 veces mayor que el ancho de banda en PAM. demuestre que la capacidad de la memoria para almacenar la señal PCM debe ser.60). ambos NRZ. por lo tanto.16 dB . (a) Demuestre que el número mínimo de muestras que hay que tomar y almacenar para el caso de una eventual reconstrucción de la señal es de 60000 muestras.

47(b).761 dB.09817 y que la correspondiente relación So/No es de 21. A un modulador Delta se le aplica la señal m(t ) = sen(2πx10 3 t ) .05 ⋅ [1 − cos(10πt )] se aplica a un modulador Delta cuya frecuencia de muestreo es de 100 Hz. la cual es producida por una frecuencia de muestreo de 314. 5. con escalones de 10 mV de amplitud. en las condiciones dadas. Determine también la ganancia de conversión en el receptor. La señal multiplexada compuesta se pasa por un filtro pasabajo ideal antes de la transmisión. El muestreo se efectúa al doble de la frecuencia de Nyquist. (a) Demuestre que el valor del ancho de banda mínimo del filtro a fin de que las señales individuales puedan recuperarse en el receptor es B = 2Mfm.28.42. (c) Si la señal PAM se codifica (forma unipolar) en PCM de 32 niveles y resolución 0.24. La señal m(t ) = 5 + 20 cos 2 (10 4 πt ) se quiere modular en PAM (RZ) con una relación de trabajo de 0. M señales pasabajo. Por consiguiente. y determine los valores de x PAM (t ) para t = Ts y t = 2Ts . ⎡S ⎤ Grafique ⎢ o ⎥ ⎢ ⎥ ⎣ N q ⎦ PCM ( dB) Discuta los resultados.92 dB. 5. 5. La señal m(t ) = 0. todas de banda limitada f m se muestrean instantáneamente y se multiplexan en TDM. (a) Demuestre que el factor de expansión del ancho de banda es igual a 20. y ⎡ So ⎤ vs ⎢ ⎥ ⎢ ⎥ ⎣ N q ⎦ DM ( dB) βm . 5. el ancho de banda en DM es 32. 5. entre t = 0 y t = 100 ms. 5. siendo RT el ciclo de trabajo de la señal PAM/TDM [Resp.29.099 dB en ambos sistemas. Demuestre que el valor óptimo teórico de la amplitud del escalón ∆r es de 0. demuestre que BPCM = 10f m y BDM = 328. 5. (b) Demuestre que la relación So/No máxima es de 21.27. (b) Dibuje con cuidado la señal PAM entre 0 ≤ t ≤ 130 µseg. Si la relación Señal / Ruido de Cuantificación es de 30. (b) Repita (a) si las M señales se multiplexan en la forma mostrada en la Fig.: B = 2Mfm/RT] (c) Haga un diagrama de bloques del receptor para recuperar las M señales individuales.2.16 Hz. Se quiere comparar los sistemas PCM y DM mediante el factor de expansión del ancho de banda β m = B / f m . Se desea comparar los anchos de banda de transmisión requeridos en PCM y DM en el caso de modulación sinusoidal. dibuje la señal PCM entre 0 y 75 µseg .8 veces el ancho de banda en PCM.25. y calcule su ancho de banda. m(t) y x ∆ ( t ) en la forma mostrada en la Fig. (a) Dibuje cuidadosamente las señales m(t ). MODULACION Y TRANSMISION DE IMPULSOS 5.433 V. siendo la frecuencia de muestreo igual a 64 kHz.5 V.26.17f m .

37(a). (c) Grafique la forma de las secuencias PCM NRZ correspondientes a t = 0 y t = Ts.103. El error máximo tolerable en la codificación es del 0. la cual se transforma en serie mediante un registro de desplazamiento. La señal m(t ) = 10[1 + cos(10 4 πt )] se va a codificar en PCM NRZ mediante un convertidor analógico-digital de salida paralela. (b) En el registro de desplazamiento se agrega un impulso de arranque (siempre a “CERO”) y uno de pare (siempre a “UNO”). 5. Suponga que el muestreo de m(t) se ha efectuado al doble de la frecuencia de Nyquist. Este multiplexor se puede instrumentar en la práctica con circuitos integrados 4016. 5.103 se muestra un sistema TDM básico para cuatro señales. En la Fig. MODULACION Y TRANSMISION DE IMPULSOS (d) La señal PAM/TDM compuesta se codifica en ASCII sin bit de paridad. Las compuertas analógicas 4016 conducen cuando son activadas en secuencia mediante un contador cíclico. 5. 4016 4016 PAM/TDM NRZ A CODIFICADOR PCM/TDM NRZ PCM 4fs m2 (t ) f pcm D 0 0 0 1 C 0 0 1 0 B 0 1 0 0 A 1 0 0 0 m3 (t ) B A B CONTADOR C CICLICO D m4 (t ) D C 4fs fs Salidas del Contador Cíclico RELOJ f pcm Multiplexor PAM / TDM para 4 señales Fig. Vqmax . Al multiplexor entran las siguientes señales: m1 (t ) = AΛ ( t−τ/2 t−τ/2 t − 3τ / 4 ⎤ ⎡ t−τ/4 ) + Λ( ) . En este caso determine la frecuencia de reloj del registro de desplazamiento y el ancho de banda mínimo de la señal transmitida.1957% del valor máximo de m(t). m1 ( t ) ∆Q. El impulso de arranque tiene la misma duración que los impulsos PCM NRZ. (a) Determine las características del convertidor analógico-digital: Sugerencia: utilice los resultados del Ejemplo 5. m 3 (t ) = A ⎢ Λ ( τ/2 τ τ/4 τ/4 ⎥ ⎦ ⎣ . ). m 2 (t ) = AΠ ( ). mientras que en los impulsos de pare la duración es el doble. 5.434 V. Demuestre que en este caso la velocidad de modulación es Vb = 20Mf m baudios. cuya salida ABCD se muestra en la Tabla inserta.31. 5.30.9. Fig. N y n .

m 3 (t ) = 10sinc 2 (10 4 t ) y m 4 (t ) = 20 cos(10 πt ) cos(2x10 πt ) . m3(t) y m4(t). Suponga que τ = 0.100 del problema anterior. Diseñe un sistema PAM / TDM que efectúe un multiplexaje preliminar de m1(t) y m2(t) en una señal compuesta m12(t). mientras que las señales m3(t) y m4(t) tienen un ancho de banda de 1 kHz.14(b)). (b) Demuestre que el sistema de dos etapas puede procesar hasta 8 señales de 80 Hz sin variar las frecuencias de muestreo. 4 3 m 2 (t ) = 10sinc(10 4 t ) . (f) ¿Cuál es el valor de la frecuencia f pcm ? 5. 5. En un sistema de telemetría PAM / TDM se multiplexan cuatro señales pasabajo m1(t). (a) Demuestre que el ancho de banda mínimo del canal para transmitir la señal PCM es de 800 kHz. dibuje la forma de la señal PAM / TDM NRZ a la entrada del codificador PCM desde t = 0 hasta t = 4 Ts .32. (c) Diseñe un sistema de recepción para la recuperación de las diferentes señales. ¿Es diferente del ancho de banda de cuando se transmite sólo 2 señales de 80 Hz más las dos señales de 1 kHz? Explique. Suponga que las otras frecuencias de muestreo se pueden obtener mediante división por potencias de 2 a partir de 2400 Hz. se multiplexan en TDM en la forma mostrada en la Fig. Las señales m1(t) y m2(t) tienen un ancho de banda de 80 Hz.435 V. (b) Demuestre que la cantidad de información que el sistema puede transmitir en 1 minuto es de 3. (c) Determine el ancho de banda de la señal resultante PAM / TDM NRZ cuando se transmite las 8 señales de 80 Hz y las dos de 1 kHz. (c) Demuestre que el ancho de banda mínimo del canal para transmitir la señal PAM / TDM NRZ es B = 10 Hz (d) Si A = 15 V y los parámetros del codificador (unipolar) PCM son ∆Q = 1 V y N = 16. La frecuencia de muestreo para m3(t) y m4(t) es de 2400 Hz. m 4 (t ) = (a) Describa el funcionamiento del circuito completo.33. MODULACION Y TRANSMISION DE IMPULSOS 2πt A t−τ/2 [1 + cos( )] ⋅ Π ( ). (a) Demuestre que la frecuencia de muestreo para el proceso previo de m1(t) y m2(t) es de 300 Hz. Las señales m1 (t ) = 5 cos(10 4 πt ) .4. y un multiplexaje final de m12(t). (b) Si A = 1. (e) Calcule el ancho de banda mínimo del canal para transmitir la señal PCM / TDM NRZ. código ASCII sin bit de paridad (Fig. dibuje la forma de la señal PCM / TDM NRZ a la salida del codificador PCM desde t = 0 hasta t = 2Ts .36x107 bits.8 seg y que la frecuencia f s es τ 2 τ de 10 Hz. m3(t) y m4(t). y a continuación la señal PAM / TDM se codifica en PCM. 5. m2(t). .

(b) Si A = 10. 5.104.105. Se desea construir una red lineal que convierta impulsos rectangulares en impulsos coseno t elevado. 5.36. Para el filtro RC (a) Demuestre que la señal a la salida del filtro RC es t ⎤ t −T/2 t −T ⎡ ⎡ ⎤ v o ( t ) = A ⎢1 − exp(− ) Π( ) + A ⎢exp(− ) − 1⎥ u ( t − T ) RC ⎥ T RC ⎣ ⎦ ⎣ ⎦ . el ruido es blanco de T densidad espectral η/2 y k = η/2. 5. Vamos a comparar el comportamiento entre un filtro pasabajo RC y un filtro acoplado. es decir. demuestre que la relación S/N máxima a la salida del filtro acoplado es z max = 78. T = 1 seg.34.751 dB . η = 10-6 W/Hz. T donde k es la constante de la expresión (5. T (b) Si A = 10.436 V. 5.134).104. (a) Demuestre que la correspondiente función de transferencia del filtro acoplado es v(t) A t 0 H(f ) = H1 (f ) ⋅ exp(− jπTf ) donde H1 (f ) = A sen(πTf ) 2π f (1 − T 2 f 2 ) T/2 Fig. 5. (a) Demuestre que la función de transferencia del filtro acoplado es kA 1 [(1 + j2πTf ) exp(− j2πTf ) − 1] H (f ) = Sn (f ) 4T (πf ) 2 A v(t) t 0 Fig. El ruido de entrada tiene una densidad espectral de potencia S n (f ) .105 se aplica a un filtro acoplado. MODULACION Y TRANSMISION DE IMPULSOS 5. T = 1 seg.35. La señal de entrada a un filtro acoplado tiene la forma mostrada en la Fig. Demuestre que la función de transferencia de esta red es 2 τ τ 1 1 1 H (f ) = para |f|< 2 2 2 1− τ f τ 5. 5. El impulso coseno elevado de la Fig. La t −T/2 señal de entrada es un impulso de la forma v( t ) = AΠ ( ) . el ruido es blanco con η = 10-6 W/Hz y k = η/2. demuestre que la relación S/N máxima a la salida del filtro acoplado es z max = 78. una red donde la entrada sea x ( t ) = AΠ ( ) y la salida tenga la forma τ A t 2πt y (t ) = [1 + cos( )] ⋅ Π ( ) . El ruido de entrada es blanco de densidad espectral η/2 y k = η/2.37.239 dB .

En la expresión (5. se da la densidad espectral de potencia de una señal ASK para una secuencia binaria unipolar NRZ. (a) Demuestre que la velocidad de información máxima en el canal es de 1500 bps y que la probabilidad de error es de 2. Se transmite datos binarios por un canal de RF.0306x10-10 .59 dB 2 < n o (t) > Para el filtro acoplado (d) Demuestre que la función de transferencia del filtro acoplado es H (f ) = ATsinc(Tf ) exp(− jπTf ) (e) Demuestre que la relación S/N máxima a la salida del filtro acoplado.39. (a) Demuestre que la potencia contenida dentro del ancho de banda B = 2 f b . A = 10.969 dB.42 dB. es el 95% de la potencia total de la señal ASK. en dB. Sugerencia: utilice el mismo procedimiento del Ejemplo 1. para los mismos valores de la parte (c). Sobre un canal telefónico de 3 kHz de ancho de banda se transmite datos binarios. RC = 10 y η = 10-6 W/Hz.62.672 x10 −7 Pe = 1. MODULACION Y TRANSMISION DE IMPULSOS (b) Demuestre que la potencia de ruido a la salida del filtro es < n 2 (t ) >= o η 4RC (c) Si T = 1 seg. su relación S/N máxima de salida es superior en 7.38. La velocidad de información es de 4. 5. Nótese la superioridad del filtro acoplado: en las mismas condiciones que el filtro RC. 5. 5. (b) Demuestre que el 50% de la potencia total de la señal ASK se va en transmitir la componente continua o portadora.19.8 Mbps y se utiliza modulación ASK. la probabilidad de error será de 1. (a) Demuestre que las probabilidades de error son: En ASK Coherente: En ASK no Coherente: Pe = 1. . 5. es z max = 83.437 V. La amplitud de la portadora en la antena del receptor es de 1 mV y la densidad espectral de potencia del ruido es de 10-15 W/Hz.01 dB .147) y Fig. Se considera ASK Coherente.40. demuestre que la relación S/N máxima a la salida del filtro RC es z max = | v o ( T ) |2 = 75. de la relación S/N en la antena es de 10. El ancho de banda útil del canal es de 10 MHz. (b) Demuestre que si la velocidad de información se reduce a 300 bps.0206 dB.1068x10−6 (b) Demuestre que el valor. La relación S/N máxima en el canal es de 6. centrado en f c .339x10-3 .

Se utiliza un modem que trabaja a una velocidad de modulación de 300 baudios.882x10-9 . igual que el Módem UIT-T V. ⎡S ⎤ ⎡S ⎤ ⎡ Si ⎤ = 2⎢ i ⎥ =⎢ i ⎥ ⎢ ⎥ ⎣ N i ⎦ PSK ⎣ N i ⎦ ASK ⎣ N i ⎦ FSK (b) Si la relación Si /Ni en el canal es de 10 dB. f1 = 2025 Hz y fo = 2225 Hz. (c) Para la velocidad de información calculada en (b). Un canal ideal tiene un ancho de banda útil de 3 kHz. la velocidad de transmisión de 1200 bps y la densidad espectral de 10-10 W/Hz. 5. La relación S/N en el canal es de 6. fc = 1800 Hz.43. La potencia de ruido en los tres sistemas es la misma.158x10-3 Ancho de banda del filtro de entrada. La amplitud de la portadora es 0.438 V. demuestre que las probabilidades de error son: En FSK Coherente: En PSK Coherente: Pe = 2. pero sus frecuencias de operación son: en la banda inferior.42. 5.44.18. MODULACION Y TRANSMISION DE IMPULSOS 5.229x10-5 Pe = 3. parte (b). Sobre un canal se transmite datos binarios en FSK.5 mV y la densidad espectral de ruido en el sistema es de 10-11 W/Hz.339x10-3 Pe = 9. y en la banda superior. (a) Demuestre que para una misma probabilidad de error Pe y en modulación coherente.21.41. FSK y PSK. de amplitud de portadora A y frecuencia de señalización fb. B = 1200 Hz.. Las frecuencias de transmisión son f1 = 1500 Hz y fo = 2100 Hz. FSK y PSK Coherentes.0206 dB. fd = 300 Hz Pe = 2. determine la amplitud de la portadora y la probabilidad de error en ASK. Probabilidad de error en FSK Coherente: Probabilidad de error en FSK no Coherente: desviación de frecuencia. Repita para este Módem Bell los cálculos efectuados en el Ejemplo 5. (b) Se utiliza las técnicas FSK y PSK. Demuestre los siguientes resultados: frecuencia de portadora. 5. Sea los sistemas ASK. Demuestre que la velocidad de información máxima que el canal puede soportar es de 1500 bps. El Módem Bell 102/113 transmite a 300 bps. (a) Demuestre que la capacidad teórica máxima del canal es C = 9667 bps. El ancho de banda útil del canal es de 3 kHz. f1 = 1070 Hz y fo = 1270 Hz. La potencia promedio máxima permitida de la señal es de -30 dBm y en el canal la densidad espectral es de 2x10-11 W/Hz. Compare los resultados.

(b) Repita (a) si el primer dígito es un “1” y la fase es 0o.767x10-2 (d) Demuestre que la capacidad teórica máxima de este canal es C = 3170 bps. (a) Utilizando los mismos datos del problema anterior. En la Fig. x PSK (t ) Filtro Pasabanda Elevador al Cuadrado Filtro Pasabanda Divisor de Frecuencia Filtro Pasabajo v d (t ) tn Vu Sincronizador de Portadora "1" "0" 2f c ÷2 Fig.75. y por el cual se va a transmitir información binaria a 300 baudios en FSK. 5.107.107 se muestra otra forma de codificador diferencial. MODULACION Y TRANSMISION DE IMPULSOS 5. 5. 5. Determine la secuencia de salida (mensaje codificado) del codificador y las fases de la señal modulada DPSK. 5. 5.439 V. 5. 5. No se muestra el sincronizador de temporización.46. H(f) 1 f -2800 -800 0 800 2800 Fig.98 mV. fo = 2500 Hz (b) Demuestre que la amplitud de la portadora es de 0.275x10-2.45.106. Al codificador diferencial de la Fig.73 se le aplica una secuencia binaria de la forma 1101000110. Hz (a) Demuestre que los valores apropiados de la frecuencia de portadora y de las frecuencias fo y f1 son: fc = 1800 Hz. La relación S/N en el canal es igual a 3. (c) Demuestre que las probabilidades de error en FSK Coherente y no Coherente son: Coherente: Pe = 2. 5.47. No Coherente: Pe = 6. 5. construya una Tabla de valores como la mostrada en la Fig. Suponga que el primer dígito es un “0” y que la fase correspondiente es 0o . Se dispone de un canal cuya respuesta de frecuencia se muestra en la Fig.108 se muestra el diagrama de bloques de un receptor PSK binario. f1 = 1100 Hz. En la Fig.48. Q A B fb clk FF D C Entrada Salida C = A⋅ B+ A B Fig. 5. .108.106.01 dB y la densidad espectral de potencia del ruido de 2x10-10 W/Hz. 5.

“ “ “ “ “0” . (a) Demuestre que la velocidad de información de las secuencias PCM es de 56 kbps.50.5 GHz. En la Fig. como veremos en el Capítulo VI. Calcule las potencias pico y promedio de la señal. y las frecuencias de transmisión son: f1 = 1300 Hz. PSK. (a) Demuestre que el voltaje de entrada al comparador. donde φ i = 0 o si se ha transmitido un "1" ⎫ ⎪ ⎬ en un intervalo Tb dado φi = π " " " " " "0" ⎪ ⎭ Nota: Este circuito de sincronización se puede utilizar también en la recepción de señales continuas. así como las correspondientes relaciones S/N.440 V.216x10-5 . cuando se opera sobre un canal de 3 kHz de ancho de banda. y DPSK.038x10-8? El ancho de banda del canal es el calculado en (d) y la detección es no coherente [Resp. La frecuencia de muestreo de la señal es de 8000 muestras por segundo y las palabras codificadas constan de 7 dígitos binarios más un dígito de sincronización. cuando se transmite un “1” fo = 1700 Hz. 5. todos de igual duración. ¿Cuál será la potencia pico de la señal recibida FSK y la relación S/N correspondiente si la probabilidad de error es de 2.: A2 = 7.109 se muestra un receptor FSK. Un receptor de este tipo se denomina “receptor heterodino”. La señal de entrada vc (t) se puede escribir en la forma v c (t ) = A c cos[2π (f c ± f d )t ] . tanto coherente como no coherente. Una señal de voz se va a transmitir en PCM por microondas. MODULACION Y TRANSMISION DE IMPULSOS Suponga que x PSK ( t ) = A cos(2 πfc t − φ i ) . 5. Los filtros FI 1 y FI 0 son pasabanda.49. 5. donde fI0 > fI1 . en un intervalo Tb dado. Tabule y compare los resultados.496x109 Hz.309 dB] 5. centrados en las frecuencias fI1 y fI0 .504x109 Hz. en ASK. En el Capítulo VI estudiaremos este concepto con más detalle.079x10-8 W . Demuestre que el ancho de banda mínimo del canal es de 128 kHz. respectivamente. FSK. (c) Para la transmisión se utiliza modulación PSK binaria. (d) Si la transmisión se hace en FSK binaria con una desviación de frecuencia de 40 kHz y una frecuencia de portadora de 1. viene dado A3 por v d (t) = cos( φ i ) 4 (b) Establezca un algoritmo de decisión apropiado para el comparador. f0 = 1. (b) Si las secuencias son PCM NRZ demuestre que el ancho de banda de base es de 64 kHz. Si/Ni = 12. Bc = 208 kHz (e) La densidad espectral de ruido en el canal es de 10-14 W/Hz. a una velocidad de 1000 bps.51. Demuestre que las frecuencias de operación y el ancho de banda de transmisión son: f1 = 1. con una densidad espectral de ruido de 2x10-10 W/Hz y una probabilidad de error de 3.

(b) Sea PB la potencia de señal en binario y PM la correspondiente en M-ario. 109.fI1 ) < 2 kHz 5. sujeto a las condiciones siguientes: 1. Demuestre que PM = π [log 2 M]sen 2 ( ) M 1. el sistema DPSK M-ario requiere un aumento de 3 dB de potencia sobre el requerido para PSK M-ario. MODULACION Y TRANSMISION DE IMPULSOS FI v c (t ) Filtro Pasabanda cos(2πfo t ) Oscilador Local Sincro FI Detector de Envolvente "1" "0" Detector de Envolvente tn Elemento de Decisión ~ Fig. Que 2. 5.6297 para erfc(x2 ) = 10-4 → x2 ≈ 2. . demuestre que PMDPSK = 1 sen 2 (π / M ) PMPSK 2 sen 2 (π / 2M ) (b) Verifique que si M >> 1. donde fc es la frecuencia de portadora 2 1 kHz < (fI0 .52.53. Demuestre que B B = B M log 2 M .441 V. entonces PMDPSK → 2 ⋅ PMPSK .094 ⋅ PB cuando Pe = 10-4 Nota: para erfc(x1 ) = 2x10-4 → x1 ≈ 2. Sea PMPSK la potencia de señal en PSK M-ario y PMDPSK la correspondiente en DPSK Mario . (a) Sea BB el ancho de banda en binario y BM el correspondiente en M-ario. Relaciones entre PSK M-ario y PSK Binario. (a) Para una probabilidad de error Pe cualquiera. Analice el sistema y determine los valores apropiados de las frecuencias fI1 . es decir.751 5. Relaciones entre PSK M-ario y DPSK M-ario. fI0 y fo . Que f I 0 + f I1 = f c .

01 → φ 2 = 90 o . 001 → φ 2 = 0 o . 11 → φ 3 = 180 o . el ancho de banda del canal de 3 kHz. (d) Dibuje la señal DPSK 4-aria de salida correspondiente a una secuencia de entrada de la forma 0 0 0 1 1 1 1 0. el ancho de banda del canal es de 3 kHz.57. 111 → φ 8 = 180 o La frecuencia de portadora es de 1600 Hz.5f s . 10 → φ 4 = 270 o La frecuencia de portadora es de 1800 Hz. Haga el dibujo con cuidado para distinguir los cambios de fase.041x10-23 y que la relación S/N ha aumentado en 6..294x10-4 . 5. donde f s = f b / log 2 M .021 dB. (a) Dibuje el Diagrama de Fresnel correspondiente. M.55. 2. 5. (b) Dibuje la señal PSK 8-aria de salida cuando la secuencia de entrada al modulador es de la forma 001010111100. (c) Si la amplitud de la portadora aumenta al doble. para i = 1. (b) Demuestre que la relación S/N en el canal es de 9. El modulador toma bloques de L = log2 4 = 2 dígitos binarios y le asigna a cada dupla de dígitos. Elija Ud. la amplitud de la portadora de 1 mV y la densidad espectral de ruido de 10-11 W/Hz. la relación S/N de 13 dB y la densidad espectral de ruido de 10-10 W/Hz. MODULACION Y TRANSMISION DE IMPULSOS 5. 110 → φ 7 = −135 o . 5. El modulador toma bloques de L = log2 8 = 3 dígitos y le asigna a cada tripleta ángulos de desfase en la forma siguiente: 000 → φ 1 = 45 o . está trabajando. . Haga el dibujo con cuidado para poder distinguir los cambios de fase. ∆f = 1.86.442 V.208 dB y que la probabilidad de error es Pe = 7. ángulos de desfase en la forma siguiente: 00 → φ 1 = 0 o .. separadas en ∆f. . Si se considera la señal FSK M-aria como si estuviera formada por M señales de frecuencia fi . 011 → φ 4 = 135 o 100 → φ 5 = −90 o .. 010 → φ 3 = 90 o . utilice los valores aproximados de la Fig. 3.56. Por un canal de microondas se quiere transmitir datos binarios a una velocidad de 3 Mbps y se desea utilizar un modulador PSK 4-ario o uno FSK 4-ario. La velocidad de información de la secuencia binaria de entrada a un modulador PSK 8-ario es de 4800 bps. ⎡S⎤ ⎡S⎤ Determine las relaciones ⎢ ⎥ y ⎢ ⎥ y los correspondientes anchos de banda. demuestre que la nueva probabilidad de error es Pe = 5. 101 → φ 6 = −45 o . En ⎣ N ⎦ PSK ⎣ N ⎦ FSK PSK hacer B c = 2 f s y en FSK. (b) Demuestre que la amplitud de la portadora es de 4. 5.54. siendo fb la frecuencia de señalización a la entrada del modulador. La probabilidad de error debe ser de 10-5. La secuencia binaria de entrada a un modulador DPSK 4-ario tiene una velocidad de modulación de 1200 baudios.795x10-7.893 mV y que la probabilidad de error es Pe = 9. el sistema que mejor se adapte a la situación en la cual Ud. demuestre que el ancho de banda de la señal FSK M-aria se puede expresar en la forma B c ≈ (M − 1)∆f + 2f s . (a) Dibuje el Diagrama de Fresnel correspondiente..

Se desea que la probabilidad de error esté por debajo de 1.081x10-6.081x10-6. MODULACION Y TRANSMISION DE IMPULSOS 5. demuestre que con una ganancia de procesamiento de 2048 el sistema puede atender hasta 184 usuarios. Nótese entonces que para que la interferencia pueda causar algún daño se necesitan grandes potencias de transmisión. En un sistema CDMA se desea una probabilidad máxima de 1.59. a 19. donde N es la ganancia de procesamiento.58.5 dB por arriba de la potencia de la señal útil. . 5. Utilice la Tabla del Apéndice D. como mínimo.4. la potencia de la señal interferente debe estar. En particular. Demuestre que para ser efectiva.443 V. Haga una gráfica del número de usuarios M vs N. En un sistema PSK/DSSS la ganancia de procesamiento es de 1000.

MODULACION Y TRANSMISION DE IMPULSOS .444 V.

INTRODUCCION En el Capítulo V se hizo énfasis en los sistemas de comunicación digitales debido a su creciente importancia en la transmisión de información. vamos a definir la transmisión de señales analógicas como la transmisión. contienen componentes de frecuencia inferiores a 1 kHz. de una señal mensaje m(t) pasabajo. pertenecen a un conjunto numerablemente infinito de posibles mensajes cuyas formas de onda no conocemos. Si el canal es el espacio libre. y en el Capítulo V dedicamos una parte substancial a la transmisión de señales digitales mediante portadora modulada. video. por ejemplo. pero las frecuencias de portadora van de 535 hasta 1605 kHz. Esta colección de mensajes o de formas de onda se puede modelar como un proceso continuo de señales aleatorias. Las señales continuas que queremos transmitir. música. Si el canal fuera estrictamente pasabajo. la altura de las antenas está entre los 75 y los 150 m. La modulación permite. pero resulta que la mayoría de los canales (incluyendo los dispositivos electrónicos) son de naturaleza pasabanda. por ejemplo. en contraste con las señales digitales estudiadas en el Capítulo V.1. lo que hace necesario el traslado del espectro pasabajo de la señal a la banda de paso del canal. Para efectos de análisis. En la Teoría Electromagnética se demuestra que para que una antena pueda irradiar energía con alto rendimiento. sobre un canal dado. incluyendo las señales de audio.. En efecto. para su transmisión a distancia tienen que ser moduladas. El Capítulo VI estará dedicado a la modulación y transmisión de señales analógicas continuas tales como señales de voz. que veremos posteriormente. Aunque el requerimiento primario del proceso de modulación es el de traslación o conversión de frecuencias. Este proceso de traslación