Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Cap 1 Trad Sklar
Cap 1 Trad Sklar
Capitulo 1
Porque Los sistemas de comunicación, militar al igual que las comerciales utilizan digital?
Hay muchas razones: la primera de las ventajas es la facilidad de las señales digitales,
comparados con las analógicas, para ser recuperadas.
La figura 1-1 ilustra un pulso digital binario ideal que se propaga a través de una línea de
transmisión, la propagación de las ondas es afectada por 2 mecanismos básicos:
1)Como todas las líneas de transmisión y circuitos tienen algunas no linealidades en frecuencia
en su función de transferencia, existen distorsiones sobre el pulso ideal; y 2) el ruido eléctrico
introducido produce distorsión en la forma de onda del pulso.
Dado que estos mecanismos producen distorsión en el alcance del pulso en función a la longitud
de la línea, como se muestra en la figura 1-1.
El tiempo de duración del pulso transmitido, puede hacer disminuir la calidad de identificación
(algunos se degradan hasta un estado irreconocible), por lo tanto el pulso es amplificado por un
amplificador digital que reconstruye la forma de onda. El pulso es regenerado.
Los circuitos que realizan esta regeneración a intervalos regulares de longitud en un sistema de
transmisión son llamados repetidores regeneradores.
Los circuitos digitales están sujetos a distorsiones y interferencia como en los circuitos
analógicos.
Porque los circuitos operan en uno de dos estados –encendido o apagado- para tener un cambio
máximo, la distorsión a lo largo del camino puede producir cambios en el punto de operación
del circuito que nos lleva de un punto a otro. Teniendo dos puntos de operación se facilita la
regeneración de la señal y se previene el ruido y otras distorsiones a lo largo de la transmisión.
Las señales analógicas, por lo general no son señales de dos estados, produciéndose infinidades
de variaciones en su forma. Con circuitos analógicos, una gran distorsión puede dar una
reproducción de la onda con una distorsión inaceptable. Una vez que la señal analógica esta
distorsionada, la distorsión no puede ser removida por los amplificadores. Además la inserción
de ruido en sistemas analógicos es irrecuperable, y esta no puede ser perfectamente regenerada.
Con las técnicas digitales, se produce una taza de error extremadamente baja, produciendo una
señal de alta fidelidad con posibilidad de detección de error y corrección por un proceso similar
que no es compatible con los analógicos.
Hay otras importantes ventajas para las comunicaciones digitales son mas seguros y pueden ser
producidas a un costo mas bajo que los circuitos analógicos.
También, el hardware digital presenta una mayor flexibilidad para su implementación que el
hardware analógico. La combinación de señales digitales usando multiplexión por división de
tiempo (TDM) la cual es más simple que la combinación de señales analógicas usando
multiplexión por división de frecuencia (FDM).
Diferentes tipos de señales digitales pueden ser tratadas con señales similares y ser transmitidas
y switcheadas bit a bit. También por un swicht conveniente, los mensajes digitas pueden ser
transmitidos en grupos autónomos denominados paquetes. La técnica digital presenta
condiciones naturales para el procesamiento de la señal que protegen de interferencia y jaming o
para proveer encriptación y privacidad.
También, en comunicaciones entre computadoras y computadoras o entre un instrumento digital
o un terminal para computación.
¿Cuáles son los costos asociados con los atributos del sistema de comunicación digital?
Los sistemas digitales sirven para realizar un procesamiento intensivo de la señal comparado
con el analógico. También, los sistemas digitales necesitan alcanzar un alto grado de
sincronización, en donde en los sistemas analógicos esto es mucho más fácil.
Una desventaja de los sistemas digitales es la utilización de grandes anchos de banda. Cuando la
relación señal-ruido alcanza un cierto nivel, la calidad del servicio puede pasar de muy buena a
muy mala. En contraste con los sistemas de comunicación analógicos donde tenemos una
degradación más natural.
El diagrama a bloques se muestra en la figura 1-2 ilustrando la señal de entrada y los pasos de
procesamiento de la señal típico para un sistema de comunicación digital (DCS). El bloque
superior (formateo, fuente de codificación, encriptación, etc.) muestra la transformación de la
señal desde la fuente al transmisión (XMT). El bloque inferior muestra la transformación de la
señal desde el receptor (RCV) al destino, realizando el proceso inverso que en el bloque
superior. Los bloques de modulación y detección/demodulacion normalmente son llamados
MODEM. El termino MODEM se utiliza para nombrar el procesamiento de señal mostrada en
la figura 1-2, donde en este caso, el MODEM puede ser pensado como el cerebro del sistema. El
transmisor y el receptor pueden ser pensados como los músculos de los sistemas. Para
aplicaciones inalámbricas, el transmisor consiste de un conversor a frecuencia superior a radio
frecuencia, un amplificador de alta potencia y una antena. El receptor consiste de una antena
con un amplificador de bajo ruido (LNA). El conversor de frecuencia de bajada esta compuesto
en el destino de un receptor y del demodulador.
La figura 1-2 es una buena ilustración de reciprocidad entre el bloque de transmisión en la parte
superior de la figura y el receptor en la parte inferior. La señal procesada es tomada en el
transmisor donde, donde en la otra parte, es reducida en el receptor.
En la figura 1-2, la información entrante de la fuente es convertida a dígitos binarios (bits). Los
bit son agrupados para formar mensajes digitales o símbolos de mensajes.
Cada uno de los símbolos (mi, donde i:1,...,M) puede ser regenerado como un miembro de un
set alfabético finito que consta de M miembros.
Por ejemplo, para M=2, el mensaje de símbolos es binario (basta con un simple bit). La
definición general es M-ary, no obstante el nombre M-ary es normalmente apropiado para el
caso donde M>2, de acá que cada símbolo esta formado por una frecuencia de 2 o más bits
(comparando un DCS donde tenemos un numero finito de datos, en un sistema analógico, en
donde la longitud del mensaje típicamente es una secuencia de un set infinito de posiciones de
ondas).
Para los sistemas que usan canales codificados (codificación de corrección de errores), una
secuencia de los mensajes de símbolos son transformados a una secuencia del canal símbolos
(código de símbolos), donde cada canal de símbolos es llamado Ui. Porque un mensaje de
símbolos o un canal de símbolos puede consistir de un simple bit o de un grupo de bit, una
secuencia de símbolos es solo descrito como un flujo de bit, como se muestra en la figura 1-2.
Considere que en la figura solo se tiene los bloques de formateo, modulación,
demodulación/detección y sincronización, los cuales son esenciales en un DCS. El formateo
transforma los datos ingresados de información en bits, para conseguir una compatibilidad entre
la información y el procesamiento de la señal dentro del DCS. De este punto en la figura
pasamos al bloque de modulación, la información continua en forma de un tren de bit. La
modulación es el proceso por el cual el mensaje de símbolo o el canal de símbolos (cuando la
codificación de canal es usada) son convertidos a una forma de onda compatible con los
requerimientos impuestos por el canal de transmisión. La modulación por pulsos es en esencia
un paso en donde cada símbolo a ser transmitido primero es transformado a una representación
binaria (distintos niveles de voltajes representan unos o ceros binarios) para una forma de onda
en banda base. El termino banda base se refiere a una señal cuyo espectro se extiende desde (o
casi) el valor de DC hasta algún valor finito, usualmente ubicado en la banda de los megahertz.
El bloque modulador de pulso normalmente incluye filtros para minimizar las transmisiones en
ancho de banda.
Cuando se le aplica una modulación por pulso a un símbolo binario, el resultado es una forma
de onda binaria que es llamado modulación por codificación de pulsos (PCM). Hay algunos
tipos de PCM (descriptos en el capitulo 2); En aplicaciones telefónicas son habitualmente
llamadas líneas de códigos. Cuando la modulación por pulsos es aplicado a un símbolo no
binario, la forma resultante es llamada modulación por pulsos M-ary.
Hay varios tipos semejantes de estas, y ellos serán mejor vistos en el capitulo 2, en donde se
pone énfasis en la modulación por amplitud de pulso (PAM).
Después de la modulación por pulso, cada mensaje de símbolos o canal de símbolos toma la
forma de onda de una señal en banda base gi(t) donde i = 1,...,M.
En algunas implementaciones electrónicas, el flujo de bit, previo a la modulación de pulsos, es
representado como un nivel de voltaje. La primera sorpresa es que hay un bloque separado del
modulador de pulsos cuando hay diferencias entre los niveles de voltaje de los binarios cero y
uno pueden ser vistos como impulsos o como pulsos rectangulares ideales, cada pulso ocupa un
tiempo de bit. Hay dos diferencias importantes entre cada nivel de voltaje y las señales de
banda base usadas para modularlas. Primero, el bloque de modulación por pulso permite una
variedad binaria y M-ary tipos de formas de pulsos. La sección 2.8.2 describe las diferencias
útiles atribuidas a estos tipos de formas. Segundo, el filtro en el bloque de modulación por pulso
producen pulsos que ocupan mas de un tiempo de bit. El filtro produce pulsos que son
expandidos en el tiempo, así los pulsos son “mezclados” en el tiempo de bit vecino. Estos filtro
a veces son referidos como pulsos de la forma: esta es usada para contener la transmisión en un
ancho de banda dentro de algunas regiones del espectro deseadas.
Para aplicaciones que involucran transmisiones en RF, el próximo paso importante es la
modulación en banda pasante; esta es requiere cuando la transmisión media no soporta la
propagación de la señal de pulso deseada. Para cada caso, el medio requiere una forma de onda
de banda pasante si(t), donde i = 1,...,M. El termino banda pasante es usado para indicar que la
forma de onda de banda base gi(t) es trasladada en frecuencia por una señal portadora a una
frecuencia que es mucho mayor que la contenida en el espectro de gi(t). Como s(t) se propaga
sobre el canal, esta es impactada por las características de canal, que puede ser descripta por la
respuesta al impulso del canal hc(t) (ver sección 1.6.1). También, en varios puntos a lo largo de
la ruta de transmisión, se le adiciona distorsión por ruido aleatorio a la señal recibida r(t), así
que la señal recibida es una versión distorsionada de la señal si(t) que arrojara el transmisor. La
señal recibida r(t) puede ser expresada como:
r (t ) = si (t ) * hc (t ) + n(t ) i = 1,....,M
Donde * representa una operación combolución (ver apéndice A), y n(t) representa un proceso
de ruido (ver sección 1.5.5).
En la dirección reversa, la parte de adelante del receptor y/o el demodulador provee una
frecuencia de conversión baja para cada señal de banda pasante r(t). El demodulador restaura
r(t) para una optima formación del pulso en banda base z(t) en preparación para la detección.
Típicamente, este puede ser un severo filtro asociado con el receptor y el demodulador –
filtración para remover determinados términos de alta frecuencia (en la conversión se baja la
frecuencia de la forma de onda de pasa banda), y filtrado para formar pulsos.
La ecualización puede ser descripta como una filtración opcional que es usada después del
demodulador para revertir algunos efectos degradantes en la señal causados por el canal. Esta
puede volverse esencial cuando la respuesta al impulso del canal, hc(t), es tan pobre que la señal
recibida esta distorsionada.
Una ecualización es implementada para compensar (removiendo o eliminando) algunas señales
de distorsión causadas por una no ideal hc(t). Finalmente, el paso de muestreo transforma las
formas de pulsos z(t) a unas muestras z(T) y el paso de detección transforma z(T) a una
estimación de símbolos de canal ûi o una estimación del mensaje símbolo ^mi (si no hay un
canal codificado). Algunos autores usan el termino “demodulación” y “detección” similarmente.
A veces, en este libro, demodulación esta definida como la reconstrucción de la forma (pulsos
en banda base), y la detección esta definida como la decisión de crear una consideración
significativa de cada forma.
Los otros pasos para el procesamiento de señal en el MODEM son la designación de opciones
necesarias para especificar el sistema. La fuente de códigos produce la conversión de analógico
a digital (de fuentes análogas) y remueve la redundancia (innecesaria) de información. Note que
un típico DCS habría usado opcionalmente la fuente de codificación (para la digitalización y la
compresión de la fuente de información), o habría usado una simple transformación de formateo
(para digitalizar solamente). Un sistema no habría sido usado con fuente de codificación y
formateo, porque el formateo ya incluye un paso esencial de la digitalización de la información.
La encriptación, que es utilizada para proveer privacidad en la comunicación, previene el uso no
autorizado del mensaje comprimido y la inyección de falsos mensajes en el sistema. El canal de
codificación, d una dada tasa de datos, puede reducir la probabilidad de error, PE, o reducir la
relación señal-ruido de un archivo a una deseada PE a expensas de un ancho de banda de
transmision o complejidad en el decoder.
La multiplexión y los procedimientos de acceso múltiple combinan señales que pueden tener
diferentes características o originados por diferentes fuentes, así que estas pueden dividir en
porciones los recursos de comunicación (por ejemplo, espectro, tiempo). El ensanchamiento de
frecuencia puede producir señales que sean relativamente invulnerables a las interferencias
(tanto las naturales como las artificiales) y puede ser usada para mejorar la privacidad de la
comunicación. Esta es solo una de las técnicas usadas para el múltiple acceso.
El bloque de procesamiento de señal mostrado en la figura 1.2 representa un típico arreglo; sin
embargo, estos bloques son sometidos implementado en un orden diferente. Por ejemplo, la
multiplexión puede hacerse anterior al canal de codificación, o anterior a la modulación, o –con
dos pasos por el proceso de modulación (subportadora y portadora)- esta puede realizarse entre
los dos pasos de modulación. Similarmente, la expansión de frecuencia puede tomar varios
lugares de localización a lo largo de la porción superior de la figura 1.2; esta localización
depende de la técnica utilizada.
La sincronización es un elemento clave, una señal de clok, esta envuelta en el control de todo el
procedimiento de la señal con el DCS. Para amplificar, el bloque de sincronización en la figura
1.2 esta dibujado con algunas líneas salientes de conexión, donde en realidad el juega un papel
fundamental en la regulación de las operaciones de casi todos los bloques de la figura.
La figura 1.3 muestra la función del procesador de señal básico, o quizás será visto como
transformación, clasificando los dentro de los siguientes nueve grupos:
Aunque esta organización tiene algunas inherentes superposiciones, provee una útil estructura
del libro. Al comienzo del capitulo 2, las 9 transformaciones básicas son consideradas
individualmente. En el capitulo 2, las técnicas básicas de formateo de transformación de las
fuentes de información en mensajes de símbolos son discutidos, como la correcta selección de
las formas de los pulsos pasa banda y los pulsos de filtrado para confeccionar un mensaje
compatible con el transmisor en banda base.
En el receptor, los pasos de demodulación, ecualización, muestreo, y detección son descriptos
en el capitulo 3. El formateo y la fuente de codificación son procesos similares, ambos están
muy involucrados con la digitalización de datos. Sin embargo, el termino “fuente de
codificación” tiene connotación en la compresión de datos adyacentes para la digitalización,
esto lo veremos después (en el capitulo 13), como un caso especial del formateo.
En la figura 1.3, el bloque de señalización de banda base cuenta de una lista de opciones
binarias dentro de las que dirige la forma de las señales PCM o las líneas de códigos, una
categoría no binaria de formas llamadas modulación de pulsos M-ary están también listados.
Otras transformaciones en la figura 1.3, etiquetar señales pasa banda esta particionado en dos
bloques básicos, coherente y no coherente. La demodulación es típicamente perfecta con la
ayuda de las formas de referencia. Las referencias que usaremos son medidas de todas las
características de las señales (particularmente fase), este proceso es conocido como coherente;
si no usáramos la información de la fase, el proceso seria no coherente, estas técnicas se verán
en el capitulo 4.
En el capitulo 5 esta dedicado al análisis de vínculos. De las muchas especificaciones, análisis y
tabulaciones que sustentan el desarrollo de los sistemas de comunicación, el análisis de los
vínculos se halla fuera del análisis global de las señales. En el capitulo 5 expondremos todos
juntos los fundamentales vínculos que son esenciales en la mayoría de los sistemas de
comunicación.
La codificación de canal trata las técnicas usadas para intensificar señales digitales logrando así
que las señales sean menos vulnerables en los canales deteriorados con ruido, fading y jammin.
En la figura 1.3 la codificación de canal esta dividida en dos grupos, la codificación de la forma
de onda y las estructuras secuenciales.
La codificación de forma de onda involucra el uso de nuevas formas de ondas. Las estructuras
secuenciales involucran el uso de bit redundantes para determinar si ha ocurrido o no un error
debido al ruido en el canal. Una de estas técnicas, conocida como Petición de retransmisión
automática (automatic repeat request, (ARQ)) simplemente reconoce la ocurrencia de un error
y pide que sea retransmitido el mensaje; otra técnica conocida como Forward error correction
(FEC), son capaces de realizar la corrección automática del error (dentro de un limite
especificado). Dentro del encabezado de la estructura de secuencia, debemos discutir tres
prevalecientes: las técnicas de bloques, combolución y turbo codificación. En el capitulo vemos
primero la técnica teniendo en cuenta la codificación por bloques lineales. En el capitulo 7
veremos las codificaciones combolucionales. La codificación de Viterbi (y otros algoritmos de
codificación) y lo compararemos con los software que producen codificaciones. En el capitulo 8
trataremos la codificación concatenada, que tienen distintas clases de códigos conocidos como
los turbo códigos, y también examinaremos los detalle del código Reed-Salomon.
En el capitulo 9 resumiremos el diseño global de los sistemas de comunicación y presentaremos
varios trade-off de modulación y códigos que necesitaremos para hacer consideraciones en el
diseño de un sistema.
Las limitaciones teóricas, como es el criterio de Nyquist y los limites de Shannon son
discutidos. Además, los esquemas de modulación por eficiencia de ancho de banda, tales como
la modulación por trellis-coded, son examinados.
El capitulo 10 tratara la sincronización. En las comunicaciones digitales, la sincronización
maneja las estimaciones de todos los tiempos y las frecuencias. Este tema esta dividido en 5
subcategorías mostradas en la figura 1.3. Los sistemas coherentes necesitan una sincronización
en frecuencia referida con la portadora (y las posibles subportadoras) tanto en frecuencia como
en fase. Para los sistemas no coherentes, la sincronización en fase no es necesaria. Los
fundamentos de los procesos sincronizados en tiempo esta simbolizado sincrónicamente (o bit
de sincronización de símbolos binarios). En el demodulador y el detector es necesario conocer
el principio y el final del proceso de detección de símbolo y la detección de bit; un error en el
tiempo degradara la performans de la detección. El siguiente nivel de sincronización de tiempo,
la trama de sincronización, permitiendo la sincronización del mensaje. Finalmente la red
sincronizada permitirá coordinar con otros usuarios para que aumente la eficiencia del medio
usado.
En el capitulo 11 detallaremos la multiplexión y acceso múltiple. Los dos términos medios son
similares. Pero involucran la idea del respeto de los recursos. La principal diferencia entre los
dos es que la multiplexación toma un lugar concentrado (ejemplo: en un circuito impreso,
dentro de un ensamble, o incluso dentro de una instalación), y el múltiple acceso toma lugares
remotos (ejemplo: múltiple usuarios necesitan usar un transponder satelital). La multiplexión
involucra un algoritmo con una prioridad conocida; usualmente, en sistemas alámbricos. El
acceso múltiple, es generalmente adaptivo, y puede requerir de algún algoritmo con capacidades
superiores para operar. En el capitulo 11, discutiremos las clases de modos para compartir un
recurso de comunicación: división de frecuencia, división de tiempo y división por códigos.
Solo, algunas de las técnicas de acceso múltiple que tienen resurgimiento como un resultado de
las comunicaciones satelitales son consideradas.
En el capitulo 12 introduciremos una original transformación desarrollada para comunicaciones
militares llamado Expansión (Spreading). El capitulo trata de las técnicas de expansión del
espectro que son importantes para alcanzar una protección a las interferencias y privacidad. Las
señales pueden ser expandidas en frecuencia, en tiempo o en frecuencia y tiempo. Veremos
principalmente la técnica de expansión en frecuencia. El capitulo solo ilustra como las técnicas
de expansión en frecuencia es usado en una porción limitada de los recursos de ancho de banda
en la telefonía celular comercial.
El capitulo 13 trata las fuentes de codificación, que involucran las descripciones de eficiencia de
las fuentes de información. Describe como el proceso de compactación descrito por una señal o
dentro de un criterio de fidelidad especificado. La fuente de codificación puede ser aplicado a
señales digitales y analógicas: para reducir redundancia, las fuentes de códigos pueden reducir
una taza de datos del sistema. De esta manera, la principal ventaja de la codificación de fuente
es para disminuir la cantidad de recursos requeridos por el sistema (ejemplo, el ancho de banda).
El capitulo 14 detalla la encriptación y la descripción, el objetivo básico de estas son la
privacidad y autentificación de las comunicaciones. Manteniendo los medios de privacidad para
no permitir que personas no autorizadas extraigan información del canal. Estableciendo modos
de autentificación previniendo que personas no autorizadas inyecten señales espurias
(fantasmas) en el canal. En este capitulo analizaremos la encriptación de datos estándar (DES) y
una idea básica referida a un tipo de encriptación de sistemas llamada codificación publica por
encriptación de sistemas (public key cryptosystems). Algunos ejemplos de los diferentes
esquemas de Pretty Good Privacy (PGP) que es un importante método de encriptación de filas
para enviar datos a través de correo electrónico.
El capitulo final de este libro, el 15, trata el desvanecimiento del canal (fading). En este,
dereccionaremos el desvanecimiento que afectan a los sistemas móviles como son los celulares
y los sistemas de comunicación personal (PCS). El capitulo detalla las fundamentales
manifestaciones de desvanecimientos, tipos de degradación y métodos para combatir estas
degradaciones. Se examinaran dos técnicas para combatir estas: la ecualización de Viterbi
utilizada en los Sistemas de Comunicaciones Móviles Globales (GSM) y el receptor Rake
(Rastrillo, rastreador) usado por los sistemas CDMA.
1.1.3 Nomenclatura básica para los sistemas de comunicación
Las siguientes son algunas de las nomenclaturas básicas de las señales digitales que
frecuentemente aparecerán en la literatura de comunicaciones digitales:
Mensaje textual: Esta es una secuencia de caracteres. (Ver figura 1.4a) Para un
transmisor digital, el mensaje será una secuencia de dígitos o símbolos de un conjunto
finito de símbolos o alfabetos.
Hay varias estándares de códigos usados para codificación de caracteres, incluidos los
Estándares de Códigos Americanos de Intercambio de Información (ASCII), Códigos de
Extensión Binaria Decimal Intercambiable (EBCDIC), Hollerith, Baudot, Murria y
Morse.
Digito binario (bit): esta es la unidad de información fundamental para todo sistema
digital. El termino bit solo es usado como una unidad de contenido de información,
como se describe en el capitulo 9.
Secuencia de bit: Esta es una secuencia de dígitos binarios (unos y ceros). Una
secuencia de bit esta a menudo determinando una señal de banda base, que implica que
el contenido espectral contenido desde (o cerca de) dc hacia arriba hasta un valor finito,
usualmente esta se extiende hasta los Megahertz. En la figura 1.4c, el mensaje, HOW,
esta representado por un ASCII de 7 bit por código de carácter, donde la secuencia de
bit se muestra en un grafico con 2 niveles de pulsos. La secuencia de pulsos esta
dibujada empleando una forma muy estilizada (rectangular ideal) con espacios entre
losa sucesivos pulsos. En un sistema real, los pulsos nunca aparecerán como se
muestran aquí, debido a que habría una forma de servicio no conveniente. Para una taza
de bit dada, los espacios incrementan el ancho de banda necesario para la transmisión; o
para un ancho de banda dado, este incrementaría el tiempo necesario para recibir el
mensaje.
Forma de onda digital: esta es una señal de voltaje o corriente (un pulso transmitido en
banda base, o una transmisión sinusoidal en banda pasante) que representa un símbolo
digital. Las características de las señales (amplitud, ancho y posición del pulso, la
frecuencia y la fase de la sinusoidal) permiten la identificación de uno de los símbolos
dentro de un alfabeto finito de símbolos. La figura 1.4e muestra un ejemplo de una señal
de banda pasante digital. Incluso aunque la señal sea sinusoidal y en consecuencia tenga
una apariencia analógica, es conocida como señal digital debido a que esta codificada
con información digital. En la figura, durante cada intervalo de tiempo, T, una
frecuencia preasignada indica el valor de una digito.
Taza de datos: Esta medida en bit por segundos (bit/s) y esta dada por R = k/T = (1/T)
log2 M bit/s, donde k bit identifican un numero de un M = 2k de símbolos alfabéticos, y
T es la duración de k-bit de símbolos.
La principal diferencia entre los sistemas de comunicación analógicos y digital tiene que ver con
nuestra evaluación de desempeño. Los sistemas analógicos mostrados tienen una forma de onda
continua, de esta forma tenemos un conjunto que es infinito, un receptor tendrá que decidir entre
un conjunto infinito de posibilidades de señales recibidas. La figura de merito del desempeño de
un sistema de comunicaciones analógico estará ligado a un criterio de fidelidad, como la
relación señal ruido, porcentaje de distorsión, o esperar un error cuadrático medio entre las
formas de ondas transmitidas y recibidas.
Al contrario, un sistema de comunicaciones digital transmite señales que representan dígitos.
Estos dígitos forman un conjunto finito o alfabeto, y este conjunto es conocido a priori por el
receptor. La figura de merito de un sistema de comunicación digital es la probabilidad de
detectar incorrectamente un digito o la probabilidad de error (PE).
Una señal puede ser clasificada como deterministica, significa que esta incertidumbre con
respecto a este valor a cualquier tiempo, o las aleatorias, significa que esta grado de
incertidumbre ante las señales realmente ocurre. Las señales deterministicas o formas de ondas
son modeladas por una expresión matemática explicita, como x(t) = 5 cos 10t. Para una forma
de onda aleatoria, esta no es posible escribirla como una expresión explicita. Sin embargo,
cuando lo examinamos sobre una longitud del periodo, la forma de onda aleatoria, también se
refiere a esta como un proceso aleatorio, pudiendo exhibir ciertas regularidades que pueden ser
descriptas en términos de una descripción probabilística del proceso aleatorio, este es
particularmente útil para caracterizar señales y ruidos en los sistemas de comunicación.
Una señal x(t) es denominada periódica en el tiempo si existe una constante T0>0, tal que:
Donde t es denominado como tiempo. El menor valor de T0 que satisface esta condición es
conocido como el periodo de x(t). El periodo T0 define la duración completa de un ciclo de x(t).
Una señal que no cumple con la condición de la ecuación 1.2 es conocida como señal no
periódica.
Una señal analógica x(t) es una función de tiempo continua; donde, x(t) esta definida
particularmente en todo tiempo t. Una señal electrónica analógica surge cuando una señal física
(por ejemplo: la velocidad) es convertida en una señal eléctrica por medio de un trasductor. En
comparación, una señal discreta x(kT) es una que existe solo a tiempos discretos; esta
caracterizada por una secuencia de números definida para cada tiempo, kT, donde k es un entero
y T es un intervalo de tiempo fijo.
Una señal eléctrica puede ser representada como un voltaje v(t) o como una corriente i(t) con
una potencia instantánea p(t) a través de una resistencia R definida por
v 2 (t )
p (t ) = (1.3a)
R
o
p(t ) = i 2 (t ) R (1.3b)
p(t ) = x 2 (t ) (1.4)
Donde x(t) es cualquier señal de voltaje o de corriente. La energía disipada durante el intervalo
de tiempo (-T/2, T/2) por una señal real con una potencia instantánea expresada por la ecuación
1.4 puede ser escrita como
T /2
E xT = ∫x
2
(t )dt (1.5)
−T / 2
T /2
1 T 1
T −T∫/ 2
PxT = Ex = x 2 (t )dt (1.6)
T
T /2
E x = lim T →∞ ∫x
2
(t )dt
−T / 2
(1.7)
∞
= ∫x
2
(t )dt
−∞
En el mundo real, solo transmitiremos señales que tengan energía finita (0<Ex<∞).
Sin embargo, para describir una señal periódica, qué por definición ( Ecuación 1.2) existe para
todo tiempo y tiene energía infinita, y para las señales aleatorias que tienen energía infinita, es
conveniente definir una clase de señales llamadas señales de potencia. Una señal esta definida
como una señal de potencia si, y solo si, tiene una potencia finita mayor que cero (0<Px<∞) para
todo tiempo, donde
T /2
1
Px = lim T →∞ ∫ x 2 (t )dt
T −T / 2
(1.8)
La energía y la potencia clasificadas son mutuamente excluyente. Una señal de energía tiene
energía finita pero potencia promedio cero, mientras que una señal de potencia tiene una
potencia promedio finita pero energía infinita.
Una forma de onda en un sistema puede ser reprimida en cualquiera de los valores de potencia y
energía. Como una regla general, las señales periódicas y las señales aleatorias son clasificadas
como señales de potencia, mientras que las señales que son deterministicas y no periódicas son
clasificadas como señales de energía [1,2].
Las señales de energía y de potencia son parámetros importantes en la especificación de un
sistema de comunicación. La clasificación de una señal como cualquiera de las dos señales de
energía o señales de potencia es un modelo conveniente para facilitar el tratamiento matemático
de varias señales y ruidos. En la sección 3.1.5, estas ideas son desarrolladas mas extensamente,
en el contexto de un sistema de comunicación digital.
Una útil función en la teoría de las comunicaciones es el impulso unitario o la función Delta de
Dirac δ(t). La función impulso es una abstracción con una amplitud del pulso infinitamente
grande, con un ancho de pulso cero y un peso unitario (el área bajo el pulso), concentrada en el
punto donde el argumento es cero. El impulso unitario esta caracterizado por la siguiente
relación:
−∞
∫ δ (t )dt = 1 (1.9)
∫ x(t )δ (t − t
−∞
0 )dt = x(t 0 ) (1.12)
La función impulso unitario δ(t) no es una función fácil de entender. Cuando una operación
involucra δ(t), la convención es interpretar a δ(t) como un pulso de área unitaria de amplitud
finita y duración distinta de cero, y luego considerar el limite para cuando la duración del pulso
tiende a cero. δ(t-t0) se puede describir gráficamente como una punta localizada en t = t0 con
altura igual al área o la integral. Así A δ(t-t0) donde A es una constante representa una función
impulso cuya área o ancho es igual a A, que es siempre cero, excepto en t = t0.
La ecuación (1.12) es conocida como la sifting o la propiedad de muestro de la función de
impulso unitario; al multiplicar el impulso unitario se eligen unas muestras de la función x(t)
evaluada en t = t0.
La energía total de una señal de energía real estimada x(t) definida sobre un intervalo (-
∞,∞), esta descripta por la ecuación (1.7).
Usando el teorema de Perseval [1], podremos relacionar la energía de cada una de las señales
expresadas en el dominio del tiempo con la energía expresada en el dominio de la frecuencia,
como
∞ ∞
∫x ∫ X(f )
2
Ex = 2
(t )dt = df (1.13)
−∞ −∞
Donde X(f) es la transformada de FOURIER de la señale no periódica x(t). (para una revisión
de Fourier vea el apéndice A) Permitiendo una Ψx(f) denominada la magnitud cuadrática del
espectro, definida como
2
ψx(f ) = X(f ) (1.14)
El valor de Ψx(f) es la forma de onda de la densidad espectral de energía (ESD) de la señal x(t).
Por eso, por la ecuación (1.13), podemos expresar la energía total de x(t) al integrar la densidad
espectral con respecto a la frecuencia:
∞
E x = ∫ψ x ( f )df (1.15)
−∞
Estas ecuaciones exponen que la energía de una señal es igual al área bajo la curva de Ψx(f)
versus frecuencia. La densidad espectral de energía describe la señal de energía por unidad de
ancho de banda medida en joules/hertz. Hay una igual contribución de energía de ambos
componentes de frecuencia positivos y negativos, desde una señal real, x(t), |X(f)| es una
función de frecuencia de la misma. Por eso, la densidad espectral de energía es simétrica en
frecuencia con respecto al origen y por lo tanto la energía total de la señal x(t) puede ser
expresada como
∞
E x = 2 ∫ ψ x ( f )df (1.16)
0
El promedio de potencia Px de una señal con un valor real de potencia x(t) esta definida en la
ecuación (1.8). Si x(t) es una señal periódica con periodo T0, esta clasificada como una señal de
potencia. La expresión del promedio de potencia de una señal periódica tiene la forma de la
ecuación (1.6), donde el tiempo promedio es tomado sobre un periodo T0, como se muestra
T0 / 2
1
Px = ∫x
2
(t )dt (1.17a)
T0 −T0 / 2
El teorema de Perseval para una señal periódica de valor real [1] tiene la forma
T0 / 2 ∞
1
∫ x 2 (t )dt = ∑ C n
2
Px = (1.17b)
T0 −T0 / 2 −∞
Donde los términos |Cn| son los complementos de los componentes de la serie de Fourier de las
señales periódicas (ver Apéndice A).
Para aplicar la ecuación (1.17b), necesitaremos solo tener la magnitud de los coeficientes. La
densidad espectral de potencia (PSD) de la función Gs(f) de una señal periódica x(t) es real,
incluso, no es negativa la función de frecuencia que da la función de densidad de potencia de
x(t) en el dominio de la frecuencia, definido como
∞
G x ( f ) = ∑ C n δ ( f − nf 0 )
2
(1.18)
−∞
La ecuación (1.18) define la densidad espectral de potencia de una señal periódica x(t) como
una sucesión de la función Delta. Por lo tanto, la PSD de una señal periódica es una función
discreta de frecuencia. Usando la PSD definida en la ecuación (1.18), podremos rescribir la
potencia media normalizada de una señal de valor real como
∞ ∞
Px = ∫ G x ( f )df = 2∫ G x ( f )df (1.19)
−∞ 0
La ecuación (1.19) describe la PSD de un periodo de la señal (potencia). Si x(t) es una señal no
periódica pueden ser expresadas por una serie de Fourier, y si esta es una señal de potencia no
periódica (tiene energía infinita) esta no puede tener una transformada de Fourier. Sin embargo,
podemos expresar la densidad espectral de potencia de cada señal en el sentido del limite. Si
formamos una versión truncada xT(t) de una señal de potencia no periódica x(t) al observar solo
el intervalo (-T/2,T/2), entonces xT(t) tiene energía finita y tiene la propiedad de la transformada
de Fourier XT(f). Puede ser demostrado [2] que la densidad espectral de potencia de la no
periódica x(t) puede ser definida en los limites como
1 2
G s ( f ) = lim T →∞ XT ( f ) (1.20)
T
Ejemplo 1.1
1.4 Autocorrelación
∞
Rx = ∫ x(t ) x(t + τ )dt
−∞
para -∞ < t < ∞ (1.21)
∫x
2
IV. Rx(0) = (t )dt El valor en el origen es igual a la energía de la señal.
−∞
Si el ítem 1 a trabes del 3 se cumple, Rx(τ) satisface las propiedades de una función de
autocorrelación. La propiedad 4 puede ser derivada de la propiedad 3 y así no necesita ser
incluida como una prueba básica.
La función de autocorrelación de una señal de potencia de valor real x(t) esta definida como
T /2
1
T −T∫/ 2
R x (τ ) = lim T →∞ x(t ) x(t + τ )dt para -∞<t<∞ (1.22)
Donde la señal de potencia x(t) es periódica con periodo T0, el tiempo promedio en la ecuación
(1.22) podrá ser tomado sobre una solo periodo T0, y la función de autocorrelación puede ser
expresada como
T /2
1
R x (τ ) =
T0 ∫ x(t ) x(t + τ )dt
−T / 2
para -∞<t<∞ (1.23)
La función de autocorrelación de una señal periódica de valor real tiene propiedades similares a
las de una señal de energía:
∫x
2
IV. Rx(0) = (t )dt El valor en el origen es igual a la energía de la señal.
−∞
Una variable aleatoria X(A) representa la relación fundamental entre un evento aleatorio y un
numero real. Para tener una convención, designaremos a las variables aleatorias por X, y
permitiendo fundamentalmente una dependencia en A que será explicita. La variable aleatoria
puede ser discreta o continua. La función de distribución Fx(x) de la variable aleatoria esta
definida por
Fx ( x) = P( X ≤ x) (1.24)
Donde P(X ≤ x) es la probabilidad de que el valor dado por la variable aleatoria X sea menor o
igual a un numero real x. La función de distribución Fx(x) tiene las siguientes propiedades:
1. 0 ≤ Fx(x)≤ 1
2. Fx(x1)≤ Fx(x2) si x1≤ x2
3. Fx(-∞ ) = 0
4. Fx ( ∞ ) = 1
dFx ( x)
p x ( x) = (1.25a)
dx
P ( x1 ≤ X ≤ x 2 ) = P( X ≤ x 2 ) − P( X ≤ x1 ) (1.25b)
= Fx ( x 2 ) − Fx ( x1 )
x2
= ∫p
x1
x ( x)dx
P ( X = x) = p x ( x)dx (1.25d)
1. px(x) ≥ 0
∞
2. ∫p
−∞
X ( x)dx = FX (+∞) − FX (−∞) = 1
De esta manera, la función de densidad espectral es siempre una función no negativa con una
área total de uno. A lo largo de este libro usaremos la designación pX(x) para la función
densidad de probabilidad de una variable aleatoria continua. Para facilitar la notación, a menudo
omitimos el subíndice X y escribimos simplemente p(x). Usaremos la designación p(X = x) para
la probabilidad de una variable aleatorias, donde X puede tomar solo un valor discreto.
El valor medio mx, o el valor esperado de una variable aleatoria X, esta definido por
∞
m X = E X } = ∫ xp X ( x)dx (1.26)
−∞
Donde E{·}es conocida como el valor del operador esperanza. El momento nth de una
distribución de probabilidad de una variable aleatoria X esta definida por
∞
{ }= ∫ x
E X n n
p x ( x)dx (1.27)
−∞
Para los propósitos del análisis de un sistema de comunicación, el momento más importante de
X son el primer y el segundo momento. De esta manera, n = 1 en la ecuación (1.27) dará mX
como se discutió anteriormente, si n = 2 nos dará el valor cuadrático medio de X, de la forma:
∞
{ }= ∫ x
E X 2 2
p x ( x)dx (1.28)
−∞
Podremos definir también un momento central, que son los momentos de la diferencia entre X y
mX. El segundo momento central , conocido como varianza de X, esta definido como
∞
{
var( X ) = E ( X − m X ) 2
}= ∫ (x − m X ) 2 p x ( x)dx (1.29)
−∞
La varianza de X se escribe como σX2, y la raíz cuadrada de esta, σX, es conocida como la
desviación estándar de X. La varianza es una medida de la “aleatoriedad” de los variables
aleatorias X. Para especificar la varianza de una variable aleatoria, debemos restringir el ancho
de la función de densidad espectral. La varianza y el valor cuadrático medio están relacionados
por
σ X2 = E{ X 2 − 2m x X + m X2 }
= E{ X 2 } − 2m X E{ X } + m x2
= E{ X 2 } − m X2
Un proceso aleatorio X(A,t) puede ser visto como una función de dos variables: un evento A y
el tiempo. En la figura 1.5 ilustramos un proceso aleatorio.
En la figura hay N funciones de muestreo de tiempo, {Xj(t)}. Cada una de estas funciones de
muestreo pueden ser consideradas como las salidas de los distintos generadores de ruido. Para
un evento especifico Aj, tendremos una función singular de tiempos X(Aj,t)=Xj(t). La totalidad
de las funciones de muestreo son conocidas como conjunto. Para un tiempo especifico tk,
X(A,tk) es una variable aleatoria X(tk) cuyo valor depende del evento. Finalmente, para un
evento especificado, A = Aj y un tiempo especificado t = tk, X(Aj,tk) es simplemente un numero.
Para una conveniencia notacional, designaremos a los procesos aleatorios por X(t) y la
dependencia funcional en A será implícita.
Figura 1.5
Debido a que los valores de un proceso aleatorio en algún tiempo futuro es desconocido (debido
a que la identidad del evento A es desconocido), un proceso aleatorio cuya función de
probabilidades son continuas pueden ser descriptas estadísticamente por una función de
probabilidad espectral (pdf). En general, la forma de la pdf de un proceso aleatorio será
diferente a diferentes tiempos. En esta circunstancia no es practica para determinar
empíricamente la distribución de probabilidad de un proceso. Sin embargo, una descripción
particular consiste de la media y la función de autocorrelación son a menudo adecuadas para
necesidades de sistemas de comunicaciones. Definimos la media de un proceso aleatorio X(t)
como
∞
E{ X (t k )} = ∫ xp
−∞
Xk ( x)dx = m X (t k ) (1.30)
Donde X(tk) es la variable aleatoria obtenida por observación del proceso aleatorio a tiempo tk y
la pdf de X(tk), la densidad sobre el conjunto de eventos a tiempos tk, esta designada por pxk(x).
Definimos la autocorrelación de un proceso aleatorio X(t) para ser una función de dos
variables, t1 y t2, dando
R x (t1 , t 2 ) = E{ X (t1 ) X (t 2 )} (1.31)
Donde X(t1) y X(t2) son variables aleatorias obtenidas por observación de X(t) en los tiempos t1
y t2 respectivamente. La función de autocorrelación es una función de la degradación a los dos
tiempos de muestreo de algunos procesos aleatorios reconocidos.
1.5.2.2 Estacionariedad.
Un proceso aleatorio X(t) es estacionario en sentido estricto si ninguno de esta estadísticas son
afectadas por un cambio en el origen del tiempo. Un proceso aleatorio se conoce como
estacionario en amplio sentido (WSS) si dos de estas estadísticas, su media y su función de
autocorrelación no varia con un cambio en el origen del tiempo. Entonces, un proceso es WSS si
Así como la varianza nos da el promedio de aleatoriedad de una variable aleatoria, la función
de autocorrelación nos da un promedio similar para los procesos aleatorios. Para un proceso
estacionario en sentido amplio, la función de autocorrelación es solo una función de la
diferencia de tiempo τ = t1-t2, que es,
Para un proceso WSS de media cero, RX(τ) indica la extensión para cada valor aleatorio de los
procesos separados por τ segundos en tiempo y son correlacionados estáticamente. En otras
palabras, RX(τ) esta dada sobre una idea de la respuesta en frecuencia que esta asociado con un
proceso aleatorio. Si RX(τ) cambia lentamente cuando τ se incrementa desde cero a algún valor,
indica que, los valores muestreados de X(t) toman a t = t1 y t = t1+τ son casi los mismos. Así, si
lo expresamos en el dominio de la frecuencia la representación de X(t) este contendrá una
preponderancia en las bajas frecuencias. De otra manera, si RX(τ) decrece rápidamente cuando τ
se incrementa, habría que esperar que X(t) cambie rápidamente en el dominio del tiempo y por
lo tanto tendría componentes de alta frecuencia. Las propiedades dela función de
autocorrelación de un proceso estacionario en sentido amplio de valor real son las siguiente:
Para calcular mx y RX(τ) por promedio de un grupo, tendríamos que promediar todas las
funciones muestreadas de los procesos y necesitaríamos tener un completo conocimiento de el
primero y el segundo orden de la función de densidad de probabilidad. Tal conocimiento no esta
general disponible.
Cuando un proceso aleatorio pertenece a una clase especial, tal como un proceso ergódico, estos
tiempos promedios son iguales a los promedios del conjunto, y las propiedades estadísticas de
los procesos pueden ser determinados por los tiempos promedios sobre una función de muestreo
simple de los procesos. Para que un proceso aleatorio sea ergódico, este debe ser estacionario en
sentido estricto. (La conversión no es necesaria.) A veces, para los sistemas de comunicación,
donde son satisfechas todas las condiciones necesarias de los sistemas estacionarios en sentido
estricto, pondremos interés tan solo en la media y la función de autocorrelación.
Podremos decir que un proceso aleatorio es ergódico en la media si
T /2
1
T −T∫/ 2
m X = lim T →∞ X (t )dt (1.35)
T /2
1
T −T∫/ 2
R X (τ ) = lim T →∞ X (t ) X (t + τ )dt (1.36)
Un proceso aleatorio X(t) puede generalmente puede ser clasificada como una señal de potencia
teniendo una densidad espectral de potencia (PSD) GX(f) de la forma mostrada en la ecuación
(1.20). GX(f) es particularmente usada en sistemas de comunicación, porque describe la
distribución de una señales de potencia en el dominio del tiempo.
La PSD habilitada para evaluar las señales de potencia que pasan por una red tendrán
características de frecuencia conocidas.
Detallamos los principales rasgos de las PSD a continuación:
τ
1 − Para |τ| ≤ T (1.37)
R X (τ ) = T
0 Para |τ| > T
Notemos que la función de autocorrelación nos dará información de frecuencia; diciéndonos
algo sobre el ancho de banda de la señal. La autocorrelación es una función en el dominio del
tiempo; no hay términos relacionados con la frecuencia en la relación mostrada en la ecuación
(1.37).Ahora daremos información sobre el ancho de banda de la señal? Considerando que la
señal es de movimiento muy lento (bajo ancho de banda). Como al pasar la copia a lo largo de la
axisa τ en cada paso realizaremos la pregunta, “cuanto mejor es la combinación entre la origina
y la copia?” El conjunto será mejor aun. En otras palabras, la forma triangular de la función de
autocorrelación en la figura 1.6d y la ecuación (1.37) será una rampa que decrece gradualmente
con τ. Pero si tenemos un movimiento muy rápido de la señal(gran ancho de banda ), quizás un
pequeño cambio en τ resultara tener en una correlación cero. En este caso, la función de
autocorrelación tiene un apariencia muy picuda. Entonces, la relación de la forma de la función
de autocorrelación nos dirá alguna cosa fundamental sobre el ancho de banda de la señal.
Cuándo la rampa decrece suavemente? En el caso de que, nosotros estemos tratando con una
señal de ancho de banda bajo.
La función de autocorrelación permite expresar directamente una señal aleatoria de densidad
espectral de potencia. Ya que la PSD y la función de autocorrelación son transformada de
Fourier de la otra, la PSD, GX(f), de una secuencia de pulsos bipolar puede ser encontrada
usando la Tabla A1 como la transformada de RX(τ) en la ecuación (1.37).
Obsérvese que
2
senπfT
G X ( f ) = T = T sin c 2 fT (1.38)
πfT
donde
senπy
sin cy = (1.39)
πy
El termino ruido se refiere a señales no deseadas que están siempre presentes en sistemas
eléctricos. La presencia de ruido superpuesto en una señal tendera a oscurecer o a enmascarar la
señal; la habilidad del receptor para tomar una decisión correcta del símbolo limita la taza de
información del transmisor. El ruido surge de una variedad de fuentes, producidas por el hombre
y naturales. El ruido hecho por el hombre incluye cada fuente como el ruido de la bujías de
ignición, cambios transitorios y otras señales de radiaciones eléctricas. El ruido natural incluye
los elementos como la atmósfera, el sol y otras fuentes galácticas.
El plan de la ingeniería es poder eliminar muchos de los ruidos o reducir su efecto mediante
filtrado, defendiendo, los cambios en la modulación y eligiendo un sitio en el receptor optimo.
Por ejemplo, un radio sensible astronómico son típicamente colocados en localizaciones
desérticas remotas, lejos de la fuente de ruido producido por el hombre. Sin embargo, hay una
fuente natural de ruido, llamado térmico o ruido de Johnson, que no puede ser eliminada. El
ruido térmico es causado por la temperatura disipada por los movimientos de los electrones en
todos los componentes disipantes – resistores, alambres, etc. Los mismos electrones que son
responsables de la conducción eléctrica son responsables del ruido térmico.
Podemos describir al ruido térmico como un proceso aleatorio Gausiano de media cero. Un
proceso Gausiano n(t) es una función aleatoria cuyo valor n en un tiempo arbitrario t esta
caracterizado estadísticamente por la función de densidad de probabilidad Gausiana
1 −1 n 2
p ( n) = exp (1.40)
σ 2π 2 σ
1 −1 z − a 2
p( z ) = exp (1.41)
σ 2π 2 σ
La principal característica espectral del ruido térmico es que la densidad espectral de potencia es
la misma para toda frecuencia de interés en la mayoría de los sistemas de comunicación; en
otras palabras, una fuente de ruido térmico procede con la misma potencia de ruido por unidad
de ancho de banda para cualquier frecuencia – desde dc hasta los 1012 Hz. Por eso, un simple
modelo de ruido térmico asume que la densidad espectral de potencia Gn(f) es plana para toda
frecuencia, como se muestra en la figura 1.8ª y se denota como
No
Gn ( f ) = watts/hertz (1.42)
2
donde el factor 2 esta incluido para indicar que Gn(f) es una densidad espectral de potencia de
los dos lados del espectro. Cuando la potencia de ruido tiene una densidad espectral de potencia
uniforme nos referiremos a esta como Ruido Blanco. El adjetivo “Blanco” es usado en algunos
sentidos como la luz blanca, que contamina con igual cantidad en todas las frecuencias dentro
de la banda visible de radiación electromagnética.
La función de autocorrelación del ruido blanco esta dada por la inversa de la transformada de
Fourier de la densidad espectral de potencia (ver tabla A1), denotada como sigue
N0
Rn (τ ) = ℑ −1{Gn ( f )} = δ (τ ) (1.43)
2
entonces la autocorrelación del ruido blanco es una función delta acotada por un factor N0/2 y
ocurre a τ = 0, como se ve en la figura 1.8b. Note que Rn(τ) es cero para τ ≠ 0; que son, dos
muestras cualquiera diferentes de ruido blanco, no importando como se toman los tiempos, son
uncorrelated.
La potencia promedio Pn del ruido blanco es infinita debido a que el ancho de banda es infinito.
Esta puede ser obtenida al combinar la ecuación (1.19) y la (1.42) para producir
∞
N0
Pn = ∫
−∞
2
df = ∞ (1.44)
Aunque el ruido blanco es una útil abstracción, ningún proceso de ruido puede ser blanco de
verdad; sin embargo, el ruido encontrado en muchos sistemas reales pueden ser asumidos como
aproximaciones al blanco. Podremos solo observar el ruido después de que haya pasado por un
sistema real con un ancho de banda finito. Así, como el tamaño del ancho de banda del ruido es
apreciablemente mas grande que el de los sistemas, el ruido puede ser considerado con un ancho
de banda infinito.
La función delta en la ecuación (1.43) significa que la señal de ruido n(t) es totalmente
decorrelacionada en esta versión con cambios en el tiempo, para cualquier τ > 0. la ecuación
(1.43) indica que dos muestras diferentes cualquiera de un proceso de ruido blanco son no
correlacionadas. Puesto que el ruido térmico es un proceso Gausiano y las muestras son no
correlacionadas, las muestras de ruido son también independientes[3]. Por eso, el efecto en el
proceso de detección de un canal con ruido blanco aditivo Gausiano (AWGN) es por eso que el
ruido afecta cada símbolo transmitido independientemente. Semejantes canales son llamados
canales de poca memoria. El termino “aditivo” significa que el ruido esta simplemente
superpuesto o sumado a la señal – que no hay ningún organismo que lo multiplique al trabajar.
Desde que el ruido blanco se presenta en todos los sistemas de comunicaciones y es la fuente
sobresaliente de muchos sistemas, las características aditivas del ruido térmico, blanco y
Gausiano son los mas usados para modelar los ruidos en los sistemas de comunicación. Puesto
que el ruido Gausiano tiene media cero, esta totalmente caracterizado por su varianza, este
modelo es particularmente simple para el uso en detección de señales y en la designación del
receptor optimo. En este libro debemos asumirlo, a menos que se asuma otra condición, que el
sistema esta ensuciado con Ruido Aditivo Blanco Gausiano de Media Cero, incluso aunque esté
algunas veces demasiado simplificado.
Los sistemas lineales invariantes en el tiempo o las redes mostradas en la figura 1.9 están
caracterizadas en el dominio del tiempo por una respuesta al impulso h(t), qué es la respuesta
cuando la entrada es igual al impulso unitario δ(t); que es,
Conocido con el nombre de respuesta al impulso. Ese es un nombre muy apropiado para este
evento. Caracterizando un sistema lineal en términos de la respuesta al impulso tiene una franca
interpretación física. A la entrada del sistema, aplicamos un impulso unitario (una señal
normalizada, tiene amplitud infinita, ancho cero y área unitaria), como se ilustra en la figura
1.10ª. Como responde el sistema a cada uno de las fuerzas (impulsos) a la entrada. La respuesta
de salida h(t) es la respuesta al impulso del sistema (esta se describe en forma aproximada en la
figura 1.10b).
La respuesta de la red a una señal arbitraria de entrada x(t) se encuentra por la combolución de
x(t) con h(t), expresada como:
∞
y (t ) = x(t ) * h(t ) = ∫ x(τ )h(t − τ )dτ
−∞
(1.46)
Donde el operador * denota la operación combolución. (ver sección A.5). El sistema es asumido
para ser causal, qué significa que la salida no puede ser anterior al tiempo t = 0, cuando la
entrada es aplicada. Por eso, el limite inferior de la integración debe ser cambiado a cero y
podemos expresar la salida y(t) de cualquier forma
∞
y (t ) = ∫ x(τ )h(t − τ )dτ (1.47a)
0
o la forma
∞
y (t ) = ∫ x(t − τ )h(τ )dτ (1.47b)
0
Cada una de las expresiones en la ecuación (1.46) y (1.47) son llamada integral de combolución.
La combolución es una herramienta matemática básica que juega un rol importante en la
compresión de los sistemas de comunicación.
Figura 1.10
Del Libro
1.6.2 función de transferencia en frecuencia
Y ( f ) = X ( f )H ( f ) (1.48)
o
Y( f )
H( f ) = (1.49)
X(f )
H ( f ) = H ( f ) e jθ ( f ) (1.50)
Im{H ( f )}
θ ( f ) = tan −1 (1.51)
Re{H ( f )}
Donde el termino “Re” y “Im” denota “la parte real de” y “la parte imaginaria de”,
respectivamente.
La función de transferencia de frecuencia de una red lineal invariante en el tiempo puede
fácilmente ser medida en los laboratorios con un generador senoidal a la entrada de la red y un
osciloscopio a la salida. Donde la forma de onda de entrada x(t) es expresada como
x(t ) = A cos 2πf 0 t
y la salida de la red será
y (t ) = A H ( f 0 ) cos[2πf 0 t + θ ( f 0 )] (1.52)
La frecuencia de entrada f0 serán desarrollados a partir de los valores de interés; a cada paso, la
amplitud y la fase de la salida son medidas.
2
GY ( f ) = G X ( f ) H ( f ) (1.53)
La ecuación (1.53) proporciona un simple resultado de la densidad espectral de potencia de
salida de un sistema lineal invariante en el tiempo donde la entrada es un proceso aleatorio.
En el capitulo 3 y 4 consideraremos consideraremos la detección de señales con ruido Gausiano.
Si queremos utilizar una propiedad fundamental de un proceso Gausiano aplicado a un sistema
lineal, como se mostró.
Puede ser demostrado que si un proceso Gausiano X(t) es aplicado a un filtro lineal invariante
en el tiempo, el proceso aleatorio Y(t) mejorara a la salida del filtro si también es Gausiano [6].
Qué es necesario en una red para comportarse como una línea de transmisión ideal? La señal de
salida de una línea de transmisión ideal puede tener solamente retardos en el tiempo comparados
con la entrada y tener diferencias en las amplitudes con la entrada (justificada por un factor de
escala), pero por otra parte esta no debe tener distorsiones debiendo tener la misma forma que la
entrada. Por eso, para transmisores ideales de poca distorsión, puede describir la señal de salida
como
y (t ) = Kx(t − t 0 ) (1.54)
Donde K y t0 son constantes. Tomando la transformada de Fourier de ambos lados (ver sección
A.3.1), escribimos
Y ( f ) = KX ( f )e − j 2πft0 (1.55)
Sustituyendo la expresión (1.55) por Y(f) dentro de la ecuación (1.49), veremos que la función
de transferencia del sistema requerido para un transmisor de poca distorsión es
H ( f ) = Ke − j 2πft0 (1.56)
Entonces, para realizar una transmisión ideal de baja distorsión, los sistemas de repuesta global
tienen una respuesta de magnitud constante y los cambios de fase deben ser constantes con la
frecuencia. Si no es bastante con la amplificación del sistema o la atenuación de todas las
componentes iguales de frecuencia. Todas las componentes de frecuencia de las señales también
arribaran con idénticos tiempos de retardo y en el orden correcto. Ya que el tiempo de retardo t0
esta relacionado con los cambios de fase θ y la frecuencia en radianes ω=2πfby
θ (radianes)
t 0 ( segundos) = (1.57a)
2πf (radianes / segundos)
Es claro que el cambio de fase puede ser proporcional a la frecuencia en orden con el tiempo de
retardo de todas las componentes para ser idéntica. Una característica frecuentemente usada
para medir la distorsión por retardo de una señal es llamado retardo oculto o retardo de grupo,
que es definido como
1 dθ ( f )
τ( f ) = − (1.57b)
2π df
Entonces, en los transmisores de baja distorsión, un camino equivalente de caracterización de
fase será una función lineal de frecuencia y esta caracterizada por el retardo de grupo τ(f) como
una constante. En la practica, las señales solo se distorsionan en ciertas partes del sistema. La
corrección de fase o de amplitud (ecualización) en las redes puede ser introducida por otra parte
en los sistemas para la corrección de la distorsión. Las características globales de entrada y
salida de los sistemas determinan la performanse.
H ( f ) = H ( f ) e − jθ ( f ) (1.58)
donde
∫ H ( f )e
−1 j 2πft
h(t ) = ℑ {H ( f )} = df (1.61)
−∞
fu
∫e
− j 2πft 0
= e j 2πft df
− fu
o
fu
j 2πf ( t − t0 )
= ∫
− fu
e df
sen2πf u (t − t 0 )
= 2 fu
2πf u (t − t 0 )
= 2 f u sin c 2 f u (t − t 0 ) (1.62)
Los ejemplos muy simples de un filtro pasa bajo realizable esta construido con una resistencia
(R) y un capacitor (C), como se muestra en la figura 1.13ª; este es conocido como filtro RC, y la
función de transferencia puede ser expresado como [7]
1 1
H( f ) = = e − jθ ( f ) (1.63)
1 + j 2πfRC 1 + (2πfRC ) 2
Donde θ(f)=tan-1 2πfRC. La magnitud característica |H(f)| y la fase característica θ(f) son
graficadas en la figura 1.13b y c, respectivamente.
El ancho de banda de los filtros pasa bajo esta definido para ser un punto de potencia media;
este punto es la frecuencia a la cual la señal de salida tiene un decaimiento de la mitad de su
valor, o la frecuencia a la cual el voltaje de salida tiene un valor de 1 / 2 por debajo del valor
de entrada.
El punto de potencia media esta generalmente expresado en unidades de decibeles (dB) como –3
dB del punto, o el punto que esta 3 dB por debajo del máximo, donde el decibel esta definido
como la relación de dos cantidades de potencia, P1 y P2, existentes en dos puntos. Por definición
P2 V22 R2
numero de dB = 10 log = 10 log10 2 (1.64a)
P1 V1 R1
V2
| H ( f ) | dB = 20 log10 = 20 log10 H ( f ) (1.64c)
V1
1
Hn( f ) = n ≥1 (1.65)
1 + ( f / f u ) 2n
Donde fu es la frecuencia de corte donde cae 3 dB y n se refiere al orden del filtro. Los de orden
superior, son de mayor complejidad y costo para implementar el filtro. La función de magnitud,
|H(f)|, esta bosquejada con varios valores de n en la figura 1.14. Note que como n grandes, las
magnitudes características se aproximan a la de un filtro ideal. Los filtros de Butterworth son
populares debido a que hay una mayor aproximación a los filtros ideales, en el sentido de
máximo horizontalidad en la banda pasante del filtro.
Las señales son descriptas en términos de su espectro. Igualmente, las redes o circuitos tienen
que ser descriptos en términos de su características espectrales o de su función de transferencia
en frecuencia. Cómo es afectada una señal en su ancho de banda al pasar por medio de un
circuito filtrante? La figura 1.15 ilustra dos casos de interés. En la figura 1.15ª (caso 1), la señal
de entrada tiene un espectro de banda angosta, y la función de transferencia del filtro es un
función de banda angosta. De la ecuación (1.48), vemos que el espectro de la señal de salida es
simplemente el producto de estos dos espectros. En la figura 1.15ª podemos verificar que la
multiplicación de las dos funciones espectrales resultan en un espectro con un ancho de banda
aproximadamente igual a mas pequeño de los dos anchos de bandas(cuando una de las dos
funciones espectrales son iguales a cero, el resultado es cero). Por eso, para el caso 1, el
espectro de la señal de salida es restringido por el espectro de la señal de entrada solamente.
Similarmente, vemos que para el caso 2, en la figura 1.15b, donde la señal de entrada es de
banda ancha pero el filtro tiene una función de transferencia de banda angosta, el ancho de
banda de la señal de salida esta restringido por el ancho de banda del filtro; la señal de salida
será una filtrada (distorsionada) de la señal de entrada.
Los efectos de un filtro sobre la forma de onda pueden ser evidentes en el dominio del
tiempo.
Figura 1.15 (a) y (b)
La salida y(t) resulta de combolucionar un pulso de entrada ideal x(t) (teniendo amplitud Vm y
un ancho del pulso T) con la respuesta al impulso de un filtro pasa bajo RC pudiendo ser
escritas como
Vm (1 − e −t / RC ) para 0 ≤ t ≤ T
y (t ) = ' −( t −T ) / RC (1.66)
Vm e para 0 ≤ t ≤ T
donde
Vm' = Vm (1 − e −T / RC ) (1.67)
1
Wp = (1.68)
T
1
Wf = (1.69)
2πRC
El pulso de entrada ideal x(t) y su magnitud del espectro |X(f)| son mostrados en la figura 1.16.
El filtro RC y su magnitud característica |H(f)| son mostradas en las figuras 1.13a y b,
respectivamente.
Las siguientes ecuaciones (1.66) y (1.69), tres casos son ilustrados en la figura 1.17. En el
primer ejemplo se ilustra el caso donde Wp << Wf.
Notemos que la respuesta a la salida y(t) es una aproximación razonablemente buena del pulso
de entrada x(t). Esta representa un ejemplo de buena fidelidad. En el ejemplo 2, donde Wp = Wf,
podemos reconocer todavía que un pulso a sido transmitidos en la salida y(t). Finalmente, el
ejemplo 3 ilustra el caso en el que Wp >> Wf. Aquí la presencia del pulso es apenas perceptible
para y(t). Podemos pensar en una aplicación donde el largo del ancho de banda del filtro o la
buena fidelidad del ejemplo 1 sea conocido por? Una precisa aplicación oscilatoria, quizás,
donde el pulso de tiempo de arribo se traslada dentro de la distancia, necesitando un pulso con
un paso de tiempo lento. Cuál de los ejemplos caracterizan la aplicación de una comunicación
digital binaria? Es el ejemplo 2. una de los principales rasgos de las comunicaciones digitales
binarias son que cada receptor de pulsos necesita ser percibido precisamente como uno de los
dos estados, una señal de alta fidelidad no necesita ser mantenida. El ejemplo 3 tiene que ser
incluidos íntegramente; este no puede ser usado como un criterio de diseño para un sistema
practico.
1.7 Ancho de banda de los datos digitales.
Una manera fácil de trasladar el espectro de una señal pasa bajo o banda pasante x(t) a una
frecuencia alta es multiplicar o heterodizar la señal banda base con una señal portadora cos 2πfct
como se muestra en la figura 1.18. La forma de onda resultante, xc(t), es conocida como señal
modulada en doble banda lateral (DSB) y se expresa como
del teorema del cambio de frecuencia (ver sección A.3.2), el espectro de la señal DSB xc(t) esta
dada por
1
Xc( f ) = [ X ( f − f c ) + X ( f + f c )] (1.71)
2
La magnitud del espectro |X(f)| de la señal banda base x(t) tiene un ancho de banda fm y la
magnitud del espectro |Xc(f)| de la señal DSB xc(t) tiene un ancho de banda WDSB son mostradas
en la figura 1.18b y c, respectivamente. El la grafica de |Xc(f)|, las componentes espectrales
corresponden a la banda de frecuencias positivas mostradas en el rango fc a (fc+fm).
Figura 1.18
Esta parte del espectro DSB es conocida como la banda superior de paso (USB). Las
componentes espectrales correspondientes a las bandas de frecuencia negativas aparecen en el
rango que van desde (fc-fm) a fc.
Esta parte del espectro DSB es conocida como la banda inferior de paso (LSB). Reflejando las
imágenes de los espectros de la USB y la LSB aparecen en la parte negativa la mitad del
grafico. La señal portadora esta a veces a una señal de un oscilador local (LO), una señal
mezclada o una señal heterodinizada. Generalmente la frecuencia de la señal portadora es de
mucho mayor que el ancho de banda de la señal banda base; que es
f c >> f m
De la figura 1.18, podemos realizar una comparación del ancho de banda fm requerido para
transmitir la señal banda base con el ancho de banda WDSB necesario para la transmisión la señal
DSB, vemos que
WDSB = 2 f m (1.72)
Que es, el doble del ancho de banda necesario para transmitir una señal DSB al transmitir una
señal banda base completa.
2
senπ ( f − fc)T
GX ( f ) = T (1.73)
π ( f − fc)T
En este capitulo, el principal objetivo de este libro tiene que ser la definición de la nomenclatura
básica. El concepto fundamental de las señales variantes en el tiempo , como fueron
clasificadas, la densidad espectral y la correlación tienen que ser repasadas. Solo las señales
aleatorias tienen que ser consideradas, y el ruido Gausiano, es el principal modelo d ruido en los
sistemas de comunicación, tienen que ser caracterizados estáticamente y espectralmente.
Finalmente hemos tratado un área fundamental en las señales transmisiones, los sistemas
lineales y los métodos de aproximación a los sistemas ideales desarrollamos en forma íntegra el
concepto de ancho de banda, que en la vida real es necesario la utilización de un ancho
determinado para permitir el uso a distintos usuarios.