Está en la página 1de 39

Comunicaciones digitales

Capitulo 1

1-1 Procesamiento de señales digitales

1.1.1 Porque digital

Porque Los sistemas de comunicación, militar al igual que las comerciales utilizan digital?
Hay muchas razones: la primera de las ventajas es la facilidad de las señales digitales,
comparados con las analógicas, para ser recuperadas.
La figura 1-1 ilustra un pulso digital binario ideal que se propaga a través de una línea de
transmisión, la propagación de las ondas es afectada por 2 mecanismos básicos:
1)Como todas las líneas de transmisión y circuitos tienen algunas no linealidades en frecuencia
en su función de transferencia, existen distorsiones sobre el pulso ideal; y 2) el ruido eléctrico
introducido produce distorsión en la forma de onda del pulso.
Dado que estos mecanismos producen distorsión en el alcance del pulso en función a la longitud
de la línea, como se muestra en la figura 1-1.
El tiempo de duración del pulso transmitido, puede hacer disminuir la calidad de identificación
(algunos se degradan hasta un estado irreconocible), por lo tanto el pulso es amplificado por un
amplificador digital que reconstruye la forma de onda. El pulso es regenerado.
Los circuitos que realizan esta regeneración a intervalos regulares de longitud en un sistema de
transmisión son llamados repetidores regeneradores.
Los circuitos digitales están sujetos a distorsiones y interferencia como en los circuitos
analógicos.
Porque los circuitos operan en uno de dos estados –encendido o apagado- para tener un cambio
máximo, la distorsión a lo largo del camino puede producir cambios en el punto de operación
del circuito que nos lleva de un punto a otro. Teniendo dos puntos de operación se facilita la
regeneración de la señal y se previene el ruido y otras distorsiones a lo largo de la transmisión.
Las señales analógicas, por lo general no son señales de dos estados, produciéndose infinidades
de variaciones en su forma. Con circuitos analógicos, una gran distorsión puede dar una
reproducción de la onda con una distorsión inaceptable. Una vez que la señal analógica esta
distorsionada, la distorsión no puede ser removida por los amplificadores. Además la inserción
de ruido en sistemas analógicos es irrecuperable, y esta no puede ser perfectamente regenerada.

Con las técnicas digitales, se produce una taza de error extremadamente baja, produciendo una
señal de alta fidelidad con posibilidad de detección de error y corrección por un proceso similar
que no es compatible con los analógicos.
Hay otras importantes ventajas para las comunicaciones digitales son mas seguros y pueden ser
producidas a un costo mas bajo que los circuitos analógicos.
También, el hardware digital presenta una mayor flexibilidad para su implementación que el
hardware analógico. La combinación de señales digitales usando multiplexión por división de
tiempo (TDM) la cual es más simple que la combinación de señales analógicas usando
multiplexión por división de frecuencia (FDM).
Diferentes tipos de señales digitales pueden ser tratadas con señales similares y ser transmitidas
y switcheadas bit a bit. También por un swicht conveniente, los mensajes digitas pueden ser
transmitidos en grupos autónomos denominados paquetes. La técnica digital presenta
condiciones naturales para el procesamiento de la señal que protegen de interferencia y jaming o
para proveer encriptación y privacidad.
También, en comunicaciones entre computadoras y computadoras o entre un instrumento digital
o un terminal para computación.
¿Cuáles son los costos asociados con los atributos del sistema de comunicación digital?
Los sistemas digitales sirven para realizar un procesamiento intensivo de la señal comparado
con el analógico. También, los sistemas digitales necesitan alcanzar un alto grado de
sincronización, en donde en los sistemas analógicos esto es mucho más fácil.
Una desventaja de los sistemas digitales es la utilización de grandes anchos de banda. Cuando la
relación señal-ruido alcanza un cierto nivel, la calidad del servicio puede pasar de muy buena a
muy mala. En contraste con los sistemas de comunicación analógicos donde tenemos una
degradación más natural.

1.1.2 Diagramas de bloques típicos y transformaciones

El diagrama a bloques se muestra en la figura 1-2 ilustrando la señal de entrada y los pasos de
procesamiento de la señal típico para un sistema de comunicación digital (DCS). El bloque
superior (formateo, fuente de codificación, encriptación, etc.) muestra la transformación de la
señal desde la fuente al transmisión (XMT). El bloque inferior muestra la transformación de la
señal desde el receptor (RCV) al destino, realizando el proceso inverso que en el bloque
superior. Los bloques de modulación y detección/demodulacion normalmente son llamados
MODEM. El termino MODEM se utiliza para nombrar el procesamiento de señal mostrada en
la figura 1-2, donde en este caso, el MODEM puede ser pensado como el cerebro del sistema. El
transmisor y el receptor pueden ser pensados como los músculos de los sistemas. Para
aplicaciones inalámbricas, el transmisor consiste de un conversor a frecuencia superior a radio
frecuencia, un amplificador de alta potencia y una antena. El receptor consiste de una antena
con un amplificador de bajo ruido (LNA). El conversor de frecuencia de bajada esta compuesto
en el destino de un receptor y del demodulador.
La figura 1-2 es una buena ilustración de reciprocidad entre el bloque de transmisión en la parte
superior de la figura y el receptor en la parte inferior. La señal procesada es tomada en el
transmisor donde, donde en la otra parte, es reducida en el receptor.
En la figura 1-2, la información entrante de la fuente es convertida a dígitos binarios (bits). Los
bit son agrupados para formar mensajes digitales o símbolos de mensajes.
Cada uno de los símbolos (mi, donde i:1,...,M) puede ser regenerado como un miembro de un
set alfabético finito que consta de M miembros.
Por ejemplo, para M=2, el mensaje de símbolos es binario (basta con un simple bit). La
definición general es M-ary, no obstante el nombre M-ary es normalmente apropiado para el
caso donde M>2, de acá que cada símbolo esta formado por una frecuencia de 2 o más bits
(comparando un DCS donde tenemos un numero finito de datos, en un sistema analógico, en
donde la longitud del mensaje típicamente es una secuencia de un set infinito de posiciones de
ondas).
Para los sistemas que usan canales codificados (codificación de corrección de errores), una
secuencia de los mensajes de símbolos son transformados a una secuencia del canal símbolos
(código de símbolos), donde cada canal de símbolos es llamado Ui. Porque un mensaje de
símbolos o un canal de símbolos puede consistir de un simple bit o de un grupo de bit, una
secuencia de símbolos es solo descrito como un flujo de bit, como se muestra en la figura 1-2.
Considere que en la figura solo se tiene los bloques de formateo, modulación,
demodulación/detección y sincronización, los cuales son esenciales en un DCS. El formateo
transforma los datos ingresados de información en bits, para conseguir una compatibilidad entre
la información y el procesamiento de la señal dentro del DCS. De este punto en la figura
pasamos al bloque de modulación, la información continua en forma de un tren de bit. La
modulación es el proceso por el cual el mensaje de símbolo o el canal de símbolos (cuando la
codificación de canal es usada) son convertidos a una forma de onda compatible con los
requerimientos impuestos por el canal de transmisión. La modulación por pulsos es en esencia
un paso en donde cada símbolo a ser transmitido primero es transformado a una representación
binaria (distintos niveles de voltajes representan unos o ceros binarios) para una forma de onda
en banda base. El termino banda base se refiere a una señal cuyo espectro se extiende desde (o
casi) el valor de DC hasta algún valor finito, usualmente ubicado en la banda de los megahertz.
El bloque modulador de pulso normalmente incluye filtros para minimizar las transmisiones en
ancho de banda.
Cuando se le aplica una modulación por pulso a un símbolo binario, el resultado es una forma
de onda binaria que es llamado modulación por codificación de pulsos (PCM). Hay algunos
tipos de PCM (descriptos en el capitulo 2); En aplicaciones telefónicas son habitualmente
llamadas líneas de códigos. Cuando la modulación por pulsos es aplicado a un símbolo no
binario, la forma resultante es llamada modulación por pulsos M-ary.
Hay varios tipos semejantes de estas, y ellos serán mejor vistos en el capitulo 2, en donde se
pone énfasis en la modulación por amplitud de pulso (PAM).
Después de la modulación por pulso, cada mensaje de símbolos o canal de símbolos toma la
forma de onda de una señal en banda base gi(t) donde i = 1,...,M.
En algunas implementaciones electrónicas, el flujo de bit, previo a la modulación de pulsos, es
representado como un nivel de voltaje. La primera sorpresa es que hay un bloque separado del
modulador de pulsos cuando hay diferencias entre los niveles de voltaje de los binarios cero y
uno pueden ser vistos como impulsos o como pulsos rectangulares ideales, cada pulso ocupa un
tiempo de bit. Hay dos diferencias importantes entre cada nivel de voltaje y las señales de
banda base usadas para modularlas. Primero, el bloque de modulación por pulso permite una
variedad binaria y M-ary tipos de formas de pulsos. La sección 2.8.2 describe las diferencias
útiles atribuidas a estos tipos de formas. Segundo, el filtro en el bloque de modulación por pulso
producen pulsos que ocupan mas de un tiempo de bit. El filtro produce pulsos que son
expandidos en el tiempo, así los pulsos son “mezclados” en el tiempo de bit vecino. Estos filtro
a veces son referidos como pulsos de la forma: esta es usada para contener la transmisión en un
ancho de banda dentro de algunas regiones del espectro deseadas.
Para aplicaciones que involucran transmisiones en RF, el próximo paso importante es la
modulación en banda pasante; esta es requiere cuando la transmisión media no soporta la
propagación de la señal de pulso deseada. Para cada caso, el medio requiere una forma de onda
de banda pasante si(t), donde i = 1,...,M. El termino banda pasante es usado para indicar que la
forma de onda de banda base gi(t) es trasladada en frecuencia por una señal portadora a una
frecuencia que es mucho mayor que la contenida en el espectro de gi(t). Como s(t) se propaga
sobre el canal, esta es impactada por las características de canal, que puede ser descripta por la
respuesta al impulso del canal hc(t) (ver sección 1.6.1). También, en varios puntos a lo largo de
la ruta de transmisión, se le adiciona distorsión por ruido aleatorio a la señal recibida r(t), así
que la señal recibida es una versión distorsionada de la señal si(t) que arrojara el transmisor. La
señal recibida r(t) puede ser expresada como:

r (t ) = si (t ) * hc (t ) + n(t ) i = 1,....,M

Donde * representa una operación combolución (ver apéndice A), y n(t) representa un proceso
de ruido (ver sección 1.5.5).
En la dirección reversa, la parte de adelante del receptor y/o el demodulador provee una
frecuencia de conversión baja para cada señal de banda pasante r(t). El demodulador restaura
r(t) para una optima formación del pulso en banda base z(t) en preparación para la detección.
Típicamente, este puede ser un severo filtro asociado con el receptor y el demodulador –
filtración para remover determinados términos de alta frecuencia (en la conversión se baja la
frecuencia de la forma de onda de pasa banda), y filtrado para formar pulsos.
La ecualización puede ser descripta como una filtración opcional que es usada después del
demodulador para revertir algunos efectos degradantes en la señal causados por el canal. Esta
puede volverse esencial cuando la respuesta al impulso del canal, hc(t), es tan pobre que la señal
recibida esta distorsionada.
Una ecualización es implementada para compensar (removiendo o eliminando) algunas señales
de distorsión causadas por una no ideal hc(t). Finalmente, el paso de muestreo transforma las
formas de pulsos z(t) a unas muestras z(T) y el paso de detección transforma z(T) a una
estimación de símbolos de canal ûi o una estimación del mensaje símbolo ^mi (si no hay un
canal codificado). Algunos autores usan el termino “demodulación” y “detección” similarmente.
A veces, en este libro, demodulación esta definida como la reconstrucción de la forma (pulsos
en banda base), y la detección esta definida como la decisión de crear una consideración
significativa de cada forma.
Los otros pasos para el procesamiento de señal en el MODEM son la designación de opciones
necesarias para especificar el sistema. La fuente de códigos produce la conversión de analógico
a digital (de fuentes análogas) y remueve la redundancia (innecesaria) de información. Note que
un típico DCS habría usado opcionalmente la fuente de codificación (para la digitalización y la
compresión de la fuente de información), o habría usado una simple transformación de formateo
(para digitalizar solamente). Un sistema no habría sido usado con fuente de codificación y
formateo, porque el formateo ya incluye un paso esencial de la digitalización de la información.
La encriptación, que es utilizada para proveer privacidad en la comunicación, previene el uso no
autorizado del mensaje comprimido y la inyección de falsos mensajes en el sistema. El canal de
codificación, d una dada tasa de datos, puede reducir la probabilidad de error, PE, o reducir la
relación señal-ruido de un archivo a una deseada PE a expensas de un ancho de banda de
transmision o complejidad en el decoder.
La multiplexión y los procedimientos de acceso múltiple combinan señales que pueden tener
diferentes características o originados por diferentes fuentes, así que estas pueden dividir en
porciones los recursos de comunicación (por ejemplo, espectro, tiempo). El ensanchamiento de
frecuencia puede producir señales que sean relativamente invulnerables a las interferencias
(tanto las naturales como las artificiales) y puede ser usada para mejorar la privacidad de la
comunicación. Esta es solo una de las técnicas usadas para el múltiple acceso.
El bloque de procesamiento de señal mostrado en la figura 1.2 representa un típico arreglo; sin
embargo, estos bloques son sometidos implementado en un orden diferente. Por ejemplo, la
multiplexión puede hacerse anterior al canal de codificación, o anterior a la modulación, o –con
dos pasos por el proceso de modulación (subportadora y portadora)- esta puede realizarse entre
los dos pasos de modulación. Similarmente, la expansión de frecuencia puede tomar varios
lugares de localización a lo largo de la porción superior de la figura 1.2; esta localización
depende de la técnica utilizada.
La sincronización es un elemento clave, una señal de clok, esta envuelta en el control de todo el
procedimiento de la señal con el DCS. Para amplificar, el bloque de sincronización en la figura
1.2 esta dibujado con algunas líneas salientes de conexión, donde en realidad el juega un papel
fundamental en la regulación de las operaciones de casi todos los bloques de la figura.
La figura 1.3 muestra la función del procesador de señal básico, o quizás será visto como
transformación, clasificando los dentro de los siguientes nueve grupos:

1. Formateo y codificación de fuente.


2. Señal de banda base.
3. Señal de banda pasante.
4. Ecualización.
5. Codificación de canal.
6. Multiplexión y acceso múltiple.
7. Ensanchamiento.
8. Encriptación.
9. Sincronización.

Aunque esta organización tiene algunas inherentes superposiciones, provee una útil estructura
del libro. Al comienzo del capitulo 2, las 9 transformaciones básicas son consideradas
individualmente. En el capitulo 2, las técnicas básicas de formateo de transformación de las
fuentes de información en mensajes de símbolos son discutidos, como la correcta selección de
las formas de los pulsos pasa banda y los pulsos de filtrado para confeccionar un mensaje
compatible con el transmisor en banda base.
En el receptor, los pasos de demodulación, ecualización, muestreo, y detección son descriptos
en el capitulo 3. El formateo y la fuente de codificación son procesos similares, ambos están
muy involucrados con la digitalización de datos. Sin embargo, el termino “fuente de
codificación” tiene connotación en la compresión de datos adyacentes para la digitalización,
esto lo veremos después (en el capitulo 13), como un caso especial del formateo.
En la figura 1.3, el bloque de señalización de banda base cuenta de una lista de opciones
binarias dentro de las que dirige la forma de las señales PCM o las líneas de códigos, una
categoría no binaria de formas llamadas modulación de pulsos M-ary están también listados.
Otras transformaciones en la figura 1.3, etiquetar señales pasa banda esta particionado en dos
bloques básicos, coherente y no coherente. La demodulación es típicamente perfecta con la
ayuda de las formas de referencia. Las referencias que usaremos son medidas de todas las
características de las señales (particularmente fase), este proceso es conocido como coherente;
si no usáramos la información de la fase, el proceso seria no coherente, estas técnicas se verán
en el capitulo 4.
En el capitulo 5 esta dedicado al análisis de vínculos. De las muchas especificaciones, análisis y
tabulaciones que sustentan el desarrollo de los sistemas de comunicación, el análisis de los
vínculos se halla fuera del análisis global de las señales. En el capitulo 5 expondremos todos
juntos los fundamentales vínculos que son esenciales en la mayoría de los sistemas de
comunicación.
La codificación de canal trata las técnicas usadas para intensificar señales digitales logrando así
que las señales sean menos vulnerables en los canales deteriorados con ruido, fading y jammin.
En la figura 1.3 la codificación de canal esta dividida en dos grupos, la codificación de la forma
de onda y las estructuras secuenciales.

La codificación de forma de onda involucra el uso de nuevas formas de ondas. Las estructuras
secuenciales involucran el uso de bit redundantes para determinar si ha ocurrido o no un error
debido al ruido en el canal. Una de estas técnicas, conocida como Petición de retransmisión
automática (automatic repeat request, (ARQ)) simplemente reconoce la ocurrencia de un error
y pide que sea retransmitido el mensaje; otra técnica conocida como Forward error correction
(FEC), son capaces de realizar la corrección automática del error (dentro de un limite
especificado). Dentro del encabezado de la estructura de secuencia, debemos discutir tres
prevalecientes: las técnicas de bloques, combolución y turbo codificación. En el capitulo vemos
primero la técnica teniendo en cuenta la codificación por bloques lineales. En el capitulo 7
veremos las codificaciones combolucionales. La codificación de Viterbi (y otros algoritmos de
codificación) y lo compararemos con los software que producen codificaciones. En el capitulo 8
trataremos la codificación concatenada, que tienen distintas clases de códigos conocidos como
los turbo códigos, y también examinaremos los detalle del código Reed-Salomon.
En el capitulo 9 resumiremos el diseño global de los sistemas de comunicación y presentaremos
varios trade-off de modulación y códigos que necesitaremos para hacer consideraciones en el
diseño de un sistema.
Las limitaciones teóricas, como es el criterio de Nyquist y los limites de Shannon son
discutidos. Además, los esquemas de modulación por eficiencia de ancho de banda, tales como
la modulación por trellis-coded, son examinados.
El capitulo 10 tratara la sincronización. En las comunicaciones digitales, la sincronización
maneja las estimaciones de todos los tiempos y las frecuencias. Este tema esta dividido en 5
subcategorías mostradas en la figura 1.3. Los sistemas coherentes necesitan una sincronización
en frecuencia referida con la portadora (y las posibles subportadoras) tanto en frecuencia como
en fase. Para los sistemas no coherentes, la sincronización en fase no es necesaria. Los
fundamentos de los procesos sincronizados en tiempo esta simbolizado sincrónicamente (o bit
de sincronización de símbolos binarios). En el demodulador y el detector es necesario conocer
el principio y el final del proceso de detección de símbolo y la detección de bit; un error en el
tiempo degradara la performans de la detección. El siguiente nivel de sincronización de tiempo,
la trama de sincronización, permitiendo la sincronización del mensaje. Finalmente la red
sincronizada permitirá coordinar con otros usuarios para que aumente la eficiencia del medio
usado.
En el capitulo 11 detallaremos la multiplexión y acceso múltiple. Los dos términos medios son
similares. Pero involucran la idea del respeto de los recursos. La principal diferencia entre los
dos es que la multiplexación toma un lugar concentrado (ejemplo: en un circuito impreso,
dentro de un ensamble, o incluso dentro de una instalación), y el múltiple acceso toma lugares
remotos (ejemplo: múltiple usuarios necesitan usar un transponder satelital). La multiplexión
involucra un algoritmo con una prioridad conocida; usualmente, en sistemas alámbricos. El
acceso múltiple, es generalmente adaptivo, y puede requerir de algún algoritmo con capacidades
superiores para operar. En el capitulo 11, discutiremos las clases de modos para compartir un
recurso de comunicación: división de frecuencia, división de tiempo y división por códigos.
Solo, algunas de las técnicas de acceso múltiple que tienen resurgimiento como un resultado de
las comunicaciones satelitales son consideradas.
En el capitulo 12 introduciremos una original transformación desarrollada para comunicaciones
militares llamado Expansión (Spreading). El capitulo trata de las técnicas de expansión del
espectro que son importantes para alcanzar una protección a las interferencias y privacidad. Las
señales pueden ser expandidas en frecuencia, en tiempo o en frecuencia y tiempo. Veremos
principalmente la técnica de expansión en frecuencia. El capitulo solo ilustra como las técnicas
de expansión en frecuencia es usado en una porción limitada de los recursos de ancho de banda
en la telefonía celular comercial.
El capitulo 13 trata las fuentes de codificación, que involucran las descripciones de eficiencia de
las fuentes de información. Describe como el proceso de compactación descrito por una señal o
dentro de un criterio de fidelidad especificado. La fuente de codificación puede ser aplicado a
señales digitales y analógicas: para reducir redundancia, las fuentes de códigos pueden reducir
una taza de datos del sistema. De esta manera, la principal ventaja de la codificación de fuente
es para disminuir la cantidad de recursos requeridos por el sistema (ejemplo, el ancho de banda).
El capitulo 14 detalla la encriptación y la descripción, el objetivo básico de estas son la
privacidad y autentificación de las comunicaciones. Manteniendo los medios de privacidad para
no permitir que personas no autorizadas extraigan información del canal. Estableciendo modos
de autentificación previniendo que personas no autorizadas inyecten señales espurias
(fantasmas) en el canal. En este capitulo analizaremos la encriptación de datos estándar (DES) y
una idea básica referida a un tipo de encriptación de sistemas llamada codificación publica por
encriptación de sistemas (public key cryptosystems). Algunos ejemplos de los diferentes
esquemas de Pretty Good Privacy (PGP) que es un importante método de encriptación de filas
para enviar datos a través de correo electrónico.
El capitulo final de este libro, el 15, trata el desvanecimiento del canal (fading). En este,
dereccionaremos el desvanecimiento que afectan a los sistemas móviles como son los celulares
y los sistemas de comunicación personal (PCS). El capitulo detalla las fundamentales
manifestaciones de desvanecimientos, tipos de degradación y métodos para combatir estas
degradaciones. Se examinaran dos técnicas para combatir estas: la ecualización de Viterbi
utilizada en los Sistemas de Comunicaciones Móviles Globales (GSM) y el receptor Rake
(Rastrillo, rastreador) usado por los sistemas CDMA.
1.1.3 Nomenclatura básica para los sistemas de comunicación

Las siguientes son algunas de las nomenclaturas básicas de las señales digitales que
frecuentemente aparecerán en la literatura de comunicaciones digitales:

Fuente de información: este es el dispositivo que produce la información para ser


comunicado por medio de los DCS. Estas pueden ser analógicas o discretas. Las salidas
de una fuente analógica tienen que estar valuadas en un rango continuo de amplitud,
considerando que la salida de una fuente de información discreta estará valuada dentro
de un set finito. Las fuentes de información analógicas pueden ser transformadas en
fuentes de información digitales mediante el uso del muestreado y cuantificación. Las
técnicas de muestreo y cuantificación son llamadas formateo y las fuentes de códigos
(figura 1.3) son descriptas en los capítulos 2 y 13.

Mensaje textual: Esta es una secuencia de caracteres. (Ver figura 1.4a) Para un
transmisor digital, el mensaje será una secuencia de dígitos o símbolos de un conjunto
finito de símbolos o alfabetos.

Carácter: un carácter es un miembro de una alfabeto o conjunto de símbolos. (Ver


figura 1.4b) Un carácter puede ser trazado dentro de una secuencia de dígitos binarios.

Hay varias estándares de códigos usados para codificación de caracteres, incluidos los
Estándares de Códigos Americanos de Intercambio de Información (ASCII), Códigos de
Extensión Binaria Decimal Intercambiable (EBCDIC), Hollerith, Baudot, Murria y
Morse.

Digito binario (bit): esta es la unidad de información fundamental para todo sistema
digital. El termino bit solo es usado como una unidad de contenido de información,
como se describe en el capitulo 9.
Secuencia de bit: Esta es una secuencia de dígitos binarios (unos y ceros). Una
secuencia de bit esta a menudo determinando una señal de banda base, que implica que
el contenido espectral contenido desde (o cerca de) dc hacia arriba hasta un valor finito,
usualmente esta se extiende hasta los Megahertz. En la figura 1.4c, el mensaje, HOW,
esta representado por un ASCII de 7 bit por código de carácter, donde la secuencia de
bit se muestra en un grafico con 2 niveles de pulsos. La secuencia de pulsos esta
dibujada empleando una forma muy estilizada (rectangular ideal) con espacios entre
losa sucesivos pulsos. En un sistema real, los pulsos nunca aparecerán como se
muestran aquí, debido a que habría una forma de servicio no conveniente. Para una taza
de bit dada, los espacios incrementan el ancho de banda necesario para la transmisión; o
para un ancho de banda dado, este incrementaría el tiempo necesario para recibir el
mensaje.

Símbolo (Mensaje digital): un símbolo es un grupo de K bit considerado como una


unidad. Nos referimos a esta unidad como un mensaje de símbolos mi (i=1,...,M) de un
conjunto de símbolos finitos o alfabeto. (Vea figura 1.4d) El tamaño del alfabeto, M, es
M = 2k, donde k es el numero de bit en el símbolo. Para transmisiones en banda base,
cada mi símbolos serán representados por uno de un conjunto de formas de pulsos de
banda base g1(t), g2(t),...,gM(t). Cuando transmitimos una secuencia de pulsos iguales, la
unidad Baudio a veces es usada para expresar una taza de bit (taza de símbolos). Para
una típica transmisión pasa banda, cada pulso gi(t) necesita ser representada por uno de
un conjunto de formas de señales pasa banda s1(t),s2(t),...,sM(t). Por eso, para sistemas
inalámbricos, el símbolo mi es mandado por la transmisión de formas digitales si(t)
durante T segundos, el tiempo de duración del símbolo. El próximo símbolo es
transmitido durante el próximo intervalo de tiempo, T. El hecho de que los conjuntos de
símbolos transmitidos por los DCS son finitos es la principal diferencia entre un DCS y
un sistema analógico. Los receptores DCS necesitan solo decidir cuál de las M formas
de señales a sido transmitida; sin embargo, un receptor analógico tiene que ser más
capas de estimar con precisión en un rango continuo de formas de onda.

Forma de onda digital: esta es una señal de voltaje o corriente (un pulso transmitido en
banda base, o una transmisión sinusoidal en banda pasante) que representa un símbolo
digital. Las características de las señales (amplitud, ancho y posición del pulso, la
frecuencia y la fase de la sinusoidal) permiten la identificación de uno de los símbolos
dentro de un alfabeto finito de símbolos. La figura 1.4e muestra un ejemplo de una señal
de banda pasante digital. Incluso aunque la señal sea sinusoidal y en consecuencia tenga
una apariencia analógica, es conocida como señal digital debido a que esta codificada
con información digital. En la figura, durante cada intervalo de tiempo, T, una
frecuencia preasignada indica el valor de una digito.

Taza de datos: Esta medida en bit por segundos (bit/s) y esta dada por R = k/T = (1/T)
log2 M bit/s, donde k bit identifican un numero de un M = 2k de símbolos alfabéticos, y
T es la duración de k-bit de símbolos.

1.1.4 Criterios de desempeño del digital versus el analógico

La principal diferencia entre los sistemas de comunicación analógicos y digital tiene que ver con
nuestra evaluación de desempeño. Los sistemas analógicos mostrados tienen una forma de onda
continua, de esta forma tenemos un conjunto que es infinito, un receptor tendrá que decidir entre
un conjunto infinito de posibilidades de señales recibidas. La figura de merito del desempeño de
un sistema de comunicaciones analógico estará ligado a un criterio de fidelidad, como la
relación señal ruido, porcentaje de distorsión, o esperar un error cuadrático medio entre las
formas de ondas transmitidas y recibidas.
Al contrario, un sistema de comunicaciones digital transmite señales que representan dígitos.
Estos dígitos forman un conjunto finito o alfabeto, y este conjunto es conocido a priori por el
receptor. La figura de merito de un sistema de comunicación digital es la probabilidad de
detectar incorrectamente un digito o la probabilidad de error (PE).

1.2 Clasificación de las señales

1.2.1 Señales deterministicas y aleatorias

Una señal puede ser clasificada como deterministica, significa que esta incertidumbre con
respecto a este valor a cualquier tiempo, o las aleatorias, significa que esta grado de
incertidumbre ante las señales realmente ocurre. Las señales deterministicas o formas de ondas
son modeladas por una expresión matemática explicita, como x(t) = 5 cos 10t. Para una forma
de onda aleatoria, esta no es posible escribirla como una expresión explicita. Sin embargo,
cuando lo examinamos sobre una longitud del periodo, la forma de onda aleatoria, también se
refiere a esta como un proceso aleatorio, pudiendo exhibir ciertas regularidades que pueden ser
descriptas en términos de una descripción probabilística del proceso aleatorio, este es
particularmente útil para caracterizar señales y ruidos en los sistemas de comunicación.

1.2.2 Señales periódicas y no periódicas

Una señal x(t) es denominada periódica en el tiempo si existe una constante T0>0, tal que:

x(t ) = x(t + T ) para − ∞ < t < ∞ (1.2)

Donde t es denominado como tiempo. El menor valor de T0 que satisface esta condición es
conocido como el periodo de x(t). El periodo T0 define la duración completa de un ciclo de x(t).
Una señal que no cumple con la condición de la ecuación 1.2 es conocida como señal no
periódica.

1.2.3 Señales analógicas y discretas

Una señal analógica x(t) es una función de tiempo continua; donde, x(t) esta definida
particularmente en todo tiempo t. Una señal electrónica analógica surge cuando una señal física
(por ejemplo: la velocidad) es convertida en una señal eléctrica por medio de un trasductor. En
comparación, una señal discreta x(kT) es una que existe solo a tiempos discretos; esta
caracterizada por una secuencia de números definida para cada tiempo, kT, donde k es un entero
y T es un intervalo de tiempo fijo.

1.2.4 Energía y potencia de las señales

Una señal eléctrica puede ser representada como un voltaje v(t) o como una corriente i(t) con
una potencia instantánea p(t) a través de una resistencia R definida por

v 2 (t )
p (t ) = (1.3a)
R
o
p(t ) = i 2 (t ) R (1.3b)

En los sistemas de comunicación, la potencia a menudo esta normalizada asumiendo un valor


para esta de 1 Ω, aunque R pueda ser otro valor del circuito.
Si el valor actual de la potencia es necesario, es obtenido por la desnormalización del valor
normalizado. Para los caso de normalización, la ecuación 1.3a y 1.3b tienen las mismas formas.
Por eso, es indiferente si la señal es una señal de voltaje o corriente, el convenio de
normalización nos permite expresar a la potencia instantánea como

p(t ) = x 2 (t ) (1.4)

Donde x(t) es cualquier señal de voltaje o de corriente. La energía disipada durante el intervalo
de tiempo (-T/2, T/2) por una señal real con una potencia instantánea expresada por la ecuación
1.4 puede ser escrita como

T /2
E xT = ∫x
2
(t )dt (1.5)
−T / 2

y la potencia promedio disipada por la señal durante el intervalo es

T /2
1 T 1
T −T∫/ 2
PxT = Ex = x 2 (t )dt (1.6)
T

La performanse de un sistema de comunicaciones depende en el receptor de la señal recibida;


las señales de mayor energía son detectadas más confiablemente (con menos error) que las
señales con baja energía –la energía recibida hace el trabajo. Por otro lado, la potencia es la
relación de energía entregada. Esta es importante por diferentes razones. La potencia determina
el voltaje que puede ser aplicado a un transmisor y la intensidad del campo electromagnético
que puede ser contenido por un sistema de radio (ejemplo, el campo en las guías de señales que
conecta el transmisor a la antena y el campo que radian los elementos de una antena ).
En el análisis de las señales de comunicación, es a menudo deseable para el trato con las formas
de ondas de energía. Clasificaremos a x(t) como una señal de energía si, y solo si, la energía es
distinta de cero y finita (0<Ex<∞) para todo tiempo, donde

T /2
E x = lim T →∞ ∫x
2
(t )dt
−T / 2
(1.7)

= ∫x
2
(t )dt
−∞

En el mundo real, solo transmitiremos señales que tengan energía finita (0<Ex<∞).
Sin embargo, para describir una señal periódica, qué por definición ( Ecuación 1.2) existe para
todo tiempo y tiene energía infinita, y para las señales aleatorias que tienen energía infinita, es
conveniente definir una clase de señales llamadas señales de potencia. Una señal esta definida
como una señal de potencia si, y solo si, tiene una potencia finita mayor que cero (0<Px<∞) para
todo tiempo, donde

T /2
1
Px = lim T →∞ ∫ x 2 (t )dt
T −T / 2
(1.8)

La energía y la potencia clasificadas son mutuamente excluyente. Una señal de energía tiene
energía finita pero potencia promedio cero, mientras que una señal de potencia tiene una
potencia promedio finita pero energía infinita.
Una forma de onda en un sistema puede ser reprimida en cualquiera de los valores de potencia y
energía. Como una regla general, las señales periódicas y las señales aleatorias son clasificadas
como señales de potencia, mientras que las señales que son deterministicas y no periódicas son
clasificadas como señales de energía [1,2].
Las señales de energía y de potencia son parámetros importantes en la especificación de un
sistema de comunicación. La clasificación de una señal como cualquiera de las dos señales de
energía o señales de potencia es un modelo conveniente para facilitar el tratamiento matemático
de varias señales y ruidos. En la sección 3.1.5, estas ideas son desarrolladas mas extensamente,
en el contexto de un sistema de comunicación digital.

1.2.5 La función impulso unitario

Una útil función en la teoría de las comunicaciones es el impulso unitario o la función Delta de
Dirac δ(t). La función impulso es una abstracción con una amplitud del pulso infinitamente
grande, con un ancho de pulso cero y un peso unitario (el área bajo el pulso), concentrada en el
punto donde el argumento es cero. El impulso unitario esta caracterizado por la siguiente
relación:

−∞
∫ δ (t )dt = 1 (1.9)

δ (t ) = 0 para t≠0 (1.10)

δ(t) = 0 es infinito para t = 0 (1.11)

∫ x(t )δ (t − t
−∞
0 )dt = x(t 0 ) (1.12)

La función impulso unitario δ(t) no es una función fácil de entender. Cuando una operación
involucra δ(t), la convención es interpretar a δ(t) como un pulso de área unitaria de amplitud
finita y duración distinta de cero, y luego considerar el limite para cuando la duración del pulso
tiende a cero. δ(t-t0) se puede describir gráficamente como una punta localizada en t = t0 con
altura igual al área o la integral. Así A δ(t-t0) donde A es una constante representa una función
impulso cuya área o ancho es igual a A, que es siempre cero, excepto en t = t0.
La ecuación (1.12) es conocida como la sifting o la propiedad de muestro de la función de
impulso unitario; al multiplicar el impulso unitario se eligen unas muestras de la función x(t)
evaluada en t = t0.

1.3 Densidad espectral

La densidad espectral de una señal caracteriza la distribución de las señales de energía y de


potencia en el dominio de la frecuencia. Este concepto es particularmente importante cuando
consideramos filtros en los sistemas de comunicación. Necesarios para ser capaces de evaluar
las señales y los ruidos a la salida de los filtros. La densidad espectral de energía (ESD) o la
densidad espectral de potencia (PSD) son usadas en la evaluación.

1.3.1 Densidad espectral de energía

La energía total de una señal de energía real estimada x(t) definida sobre un intervalo (-
∞,∞), esta descripta por la ecuación (1.7).
Usando el teorema de Perseval [1], podremos relacionar la energía de cada una de las señales
expresadas en el dominio del tiempo con la energía expresada en el dominio de la frecuencia,
como

∞ ∞

∫x ∫ X(f )
2
Ex = 2
(t )dt = df (1.13)
−∞ −∞

Donde X(f) es la transformada de FOURIER de la señale no periódica x(t). (para una revisión
de Fourier vea el apéndice A) Permitiendo una Ψx(f) denominada la magnitud cuadrática del
espectro, definida como

2
ψx(f ) = X(f ) (1.14)

El valor de Ψx(f) es la forma de onda de la densidad espectral de energía (ESD) de la señal x(t).
Por eso, por la ecuación (1.13), podemos expresar la energía total de x(t) al integrar la densidad
espectral con respecto a la frecuencia:


E x = ∫ψ x ( f )df (1.15)
−∞

Estas ecuaciones exponen que la energía de una señal es igual al área bajo la curva de Ψx(f)
versus frecuencia. La densidad espectral de energía describe la señal de energía por unidad de
ancho de banda medida en joules/hertz. Hay una igual contribución de energía de ambos
componentes de frecuencia positivos y negativos, desde una señal real, x(t), |X(f)| es una
función de frecuencia de la misma. Por eso, la densidad espectral de energía es simétrica en
frecuencia con respecto al origen y por lo tanto la energía total de la señal x(t) puede ser
expresada como


E x = 2 ∫ ψ x ( f )df (1.16)
0

1.3.2 Densidad espectral de potencia

El promedio de potencia Px de una señal con un valor real de potencia x(t) esta definida en la
ecuación (1.8). Si x(t) es una señal periódica con periodo T0, esta clasificada como una señal de
potencia. La expresión del promedio de potencia de una señal periódica tiene la forma de la
ecuación (1.6), donde el tiempo promedio es tomado sobre un periodo T0, como se muestra

T0 / 2
1
Px = ∫x
2
(t )dt (1.17a)
T0 −T0 / 2

El teorema de Perseval para una señal periódica de valor real [1] tiene la forma

T0 / 2 ∞
1
∫ x 2 (t )dt = ∑ C n
2
Px = (1.17b)
T0 −T0 / 2 −∞

Donde los términos |Cn| son los complementos de los componentes de la serie de Fourier de las
señales periódicas (ver Apéndice A).
Para aplicar la ecuación (1.17b), necesitaremos solo tener la magnitud de los coeficientes. La
densidad espectral de potencia (PSD) de la función Gs(f) de una señal periódica x(t) es real,
incluso, no es negativa la función de frecuencia que da la función de densidad de potencia de
x(t) en el dominio de la frecuencia, definido como


G x ( f ) = ∑ C n δ ( f − nf 0 )
2
(1.18)
−∞

La ecuación (1.18) define la densidad espectral de potencia de una señal periódica x(t) como
una sucesión de la función Delta. Por lo tanto, la PSD de una señal periódica es una función
discreta de frecuencia. Usando la PSD definida en la ecuación (1.18), podremos rescribir la
potencia media normalizada de una señal de valor real como

∞ ∞
Px = ∫ G x ( f )df = 2∫ G x ( f )df (1.19)
−∞ 0

La ecuación (1.19) describe la PSD de un periodo de la señal (potencia). Si x(t) es una señal no
periódica pueden ser expresadas por una serie de Fourier, y si esta es una señal de potencia no
periódica (tiene energía infinita) esta no puede tener una transformada de Fourier. Sin embargo,
podemos expresar la densidad espectral de potencia de cada señal en el sentido del limite. Si
formamos una versión truncada xT(t) de una señal de potencia no periódica x(t) al observar solo
el intervalo (-T/2,T/2), entonces xT(t) tiene energía finita y tiene la propiedad de la transformada
de Fourier XT(f). Puede ser demostrado [2] que la densidad espectral de potencia de la no
periódica x(t) puede ser definida en los limites como

1 2
G s ( f ) = lim T →∞ XT ( f ) (1.20)
T

Ejemplo 1.1

1.4 Autocorrelación

1.4.1 Autocorrelación de una Señal de Energía

La correlación es un proceso de igualación , la autocorrelación se refiere la igualdad de una


señal con una versión retardada de esa. La función de autocorrelación de una señal de valor real
x(t) esta definida como


Rx = ∫ x(t ) x(t + τ )dt
−∞
para -∞ < t < ∞ (1.21)

La función de autocorrelación Rx(τ) produce un promedio de que estrechamente igualadas están


estas con una copia de esta una unidad de tiempo τ después. La variable τjuega el rol de un
parámetro analizador y explorador. Rx(τ) no es una función de tiempo, esta es solo función de la
diferencia de tiempo τ entre la forma de la onda y su copia cambiada.
La función de correlación de una señal de energía de valor real tiene las siguientes propiedades:

I. Rx(τ) = Rx(-τ) simétrica en τ alrededor de cero.


II. Rx(τ) ≤ Rx(0) para todo τ El valor máximo ocurre en el origen
III. Rx(τ) ↔ ψx(f) La autocorrelación y la ESD forman un conjunto
de transformadas de Fourier, indicando por el doble
encabezado.

∫x
2
IV. Rx(0) = (t )dt El valor en el origen es igual a la energía de la señal.
−∞

Si el ítem 1 a trabes del 3 se cumple, Rx(τ) satisface las propiedades de una función de
autocorrelación. La propiedad 4 puede ser derivada de la propiedad 3 y así no necesita ser
incluida como una prueba básica.

1.4.2 Autocorrelación de una señal periódica de potencia

La función de autocorrelación de una señal de potencia de valor real x(t) esta definida como

T /2
1
T −T∫/ 2
R x (τ ) = lim T →∞ x(t ) x(t + τ )dt para -∞<t<∞ (1.22)

Donde la señal de potencia x(t) es periódica con periodo T0, el tiempo promedio en la ecuación
(1.22) podrá ser tomado sobre una solo periodo T0, y la función de autocorrelación puede ser
expresada como

T /2
1
R x (τ ) =
T0 ∫ x(t ) x(t + τ )dt
−T / 2
para -∞<t<∞ (1.23)

La función de autocorrelación de una señal periódica de valor real tiene propiedades similares a
las de una señal de energía:

I. Rx(τ) = Rx(-τ) simétrica en τ alrededor de cero.


II. Rx(τ) ≤ Rx(0) para todo τ El valor máximo ocurre en el origen
III. Rx(τ) ↔ ψx(f) La autocorrelación y la ESD forman un conjunto
de transformadas de Fourier, indicando por el doble
encabezado.

∫x
2
IV. Rx(0) = (t )dt El valor en el origen es igual a la energía de la señal.
−∞

1.5 Señales aleatorias

El principal objetivo de un sistema de comunicación es el de transferir la información sobre un


canal. Toda señal de mensaje útil apareasen aleatoriamente; que es esto, el receptor no conoce a
priori, cual de las posibles formas de mensaje serán transmitidas. Solo el ruido que acompaña al
mensaje es debido a una señal aleatoria. Por esto, necesitamos ser capaces de describir en forma
efectiva las señales aleatorias.
1.5.1 Variables aleatorias.

Una variable aleatoria X(A) representa la relación fundamental entre un evento aleatorio y un
numero real. Para tener una convención, designaremos a las variables aleatorias por X, y
permitiendo fundamentalmente una dependencia en A que será explicita. La variable aleatoria
puede ser discreta o continua. La función de distribución Fx(x) de la variable aleatoria esta
definida por

Fx ( x) = P( X ≤ x) (1.24)

Donde P(X ≤ x) es la probabilidad de que el valor dado por la variable aleatoria X sea menor o
igual a un numero real x. La función de distribución Fx(x) tiene las siguientes propiedades:

1. 0 ≤ Fx(x)≤ 1
2. Fx(x1)≤ Fx(x2) si x1≤ x2
3. Fx(-∞ ) = 0
4. Fx ( ∞ ) = 1

Otra útil función relacionada con la variable aleatoria X es la función de densidad de


probabilidad (pdf), denotada

dFx ( x)
p x ( x) = (1.25a)
dx

Como en el caso de la función de distribución, la pdf es una función de un numero real x. El


numero “función de densidad” surge del hecho que la probabilidad del evento x1≤ X ≤ x2 se
igual

P ( x1 ≤ X ≤ x 2 ) = P( X ≤ x 2 ) − P( X ≤ x1 ) (1.25b)

= Fx ( x 2 ) − Fx ( x1 )

x2
= ∫p
x1
x ( x)dx

de la ecuación (1.25b), la probabilidad la probabilidad que una variable aleatoria X tenga


también un rango de valores muy estrecho entre x y x+∆x puede ser aproximado como:

P( x ≤ X ≤ x + ∆x) ≈ p x ( x)∆x (1.25c)

Así, en el limite cuando ∆x se aproxima a cero, tendremos

P ( X = x) = p x ( x)dx (1.25d)

La función de densidad de probabilidad tiene las siguientes propiedades:

1. px(x) ≥ 0

2. ∫p
−∞
X ( x)dx = FX (+∞) − FX (−∞) = 1
De esta manera, la función de densidad espectral es siempre una función no negativa con una
área total de uno. A lo largo de este libro usaremos la designación pX(x) para la función
densidad de probabilidad de una variable aleatoria continua. Para facilitar la notación, a menudo
omitimos el subíndice X y escribimos simplemente p(x). Usaremos la designación p(X = x) para
la probabilidad de una variable aleatorias, donde X puede tomar solo un valor discreto.

1.5.1.1 Conjunto promedio.

El valor medio mx, o el valor esperado de una variable aleatoria X, esta definido por

 ∞
m X = E  X } = ∫ xp X ( x)dx (1.26)
 −∞

Donde E{·}es conocida como el valor del operador esperanza. El momento nth de una
distribución de probabilidad de una variable aleatoria X esta definida por


{ }= ∫ x
E X n n
p x ( x)dx (1.27)
−∞

Para los propósitos del análisis de un sistema de comunicación, el momento más importante de
X son el primer y el segundo momento. De esta manera, n = 1 en la ecuación (1.27) dará mX
como se discutió anteriormente, si n = 2 nos dará el valor cuadrático medio de X, de la forma:


{ }= ∫ x
E X 2 2
p x ( x)dx (1.28)
−∞
Podremos definir también un momento central, que son los momentos de la diferencia entre X y
mX. El segundo momento central , conocido como varianza de X, esta definido como


{
var( X ) = E ( X − m X ) 2
}= ∫ (x − m X ) 2 p x ( x)dx (1.29)
−∞

La varianza de X se escribe como σX2, y la raíz cuadrada de esta, σX, es conocida como la
desviación estándar de X. La varianza es una medida de la “aleatoriedad” de los variables
aleatorias X. Para especificar la varianza de una variable aleatoria, debemos restringir el ancho
de la función de densidad espectral. La varianza y el valor cuadrático medio están relacionados
por

σ X2 = E{ X 2 − 2m x X + m X2 }
= E{ X 2 } − 2m X E{ X } + m x2
= E{ X 2 } − m X2

Entonces, la varianza es igual a la diferencia entre el valor cuadrático medio y el cuadrado de la


media.

1.5.2 Procesos aleatorios.

Un proceso aleatorio X(A,t) puede ser visto como una función de dos variables: un evento A y
el tiempo. En la figura 1.5 ilustramos un proceso aleatorio.
En la figura hay N funciones de muestreo de tiempo, {Xj(t)}. Cada una de estas funciones de
muestreo pueden ser consideradas como las salidas de los distintos generadores de ruido. Para
un evento especifico Aj, tendremos una función singular de tiempos X(Aj,t)=Xj(t). La totalidad
de las funciones de muestreo son conocidas como conjunto. Para un tiempo especifico tk,
X(A,tk) es una variable aleatoria X(tk) cuyo valor depende del evento. Finalmente, para un
evento especificado, A = Aj y un tiempo especificado t = tk, X(Aj,tk) es simplemente un numero.
Para una conveniencia notacional, designaremos a los procesos aleatorios por X(t) y la
dependencia funcional en A será implícita.

Figura 1.5

1.5.2.1 Promedio estadístico de un proceso aleatorio.

Debido a que los valores de un proceso aleatorio en algún tiempo futuro es desconocido (debido
a que la identidad del evento A es desconocido), un proceso aleatorio cuya función de
probabilidades son continuas pueden ser descriptas estadísticamente por una función de
probabilidad espectral (pdf). En general, la forma de la pdf de un proceso aleatorio será
diferente a diferentes tiempos. En esta circunstancia no es practica para determinar
empíricamente la distribución de probabilidad de un proceso. Sin embargo, una descripción
particular consiste de la media y la función de autocorrelación son a menudo adecuadas para
necesidades de sistemas de comunicaciones. Definimos la media de un proceso aleatorio X(t)
como


E{ X (t k )} = ∫ xp
−∞
Xk ( x)dx = m X (t k ) (1.30)

Donde X(tk) es la variable aleatoria obtenida por observación del proceso aleatorio a tiempo tk y
la pdf de X(tk), la densidad sobre el conjunto de eventos a tiempos tk, esta designada por pxk(x).
Definimos la autocorrelación de un proceso aleatorio X(t) para ser una función de dos
variables, t1 y t2, dando
R x (t1 , t 2 ) = E{ X (t1 ) X (t 2 )} (1.31)

Donde X(t1) y X(t2) son variables aleatorias obtenidas por observación de X(t) en los tiempos t1
y t2 respectivamente. La función de autocorrelación es una función de la degradación a los dos
tiempos de muestreo de algunos procesos aleatorios reconocidos.
1.5.2.2 Estacionariedad.

Un proceso aleatorio X(t) es estacionario en sentido estricto si ninguno de esta estadísticas son
afectadas por un cambio en el origen del tiempo. Un proceso aleatorio se conoce como
estacionario en amplio sentido (WSS) si dos de estas estadísticas, su media y su función de
autocorrelación no varia con un cambio en el origen del tiempo. Entonces, un proceso es WSS si

E{ X (t )} = m x = a una constante (1.32)


y
R X (t1 , t 2 ) = R X (t1 − t 2 ) (1.33)

Un sentido estacionario estricto implica un estacionario en amplio sentido, pero no se cumple la


inversa. La mayoría de los resultados son útiles en la teoría comunicacional que son predecidlos
en señales de información aleatoria y el ruido será estacionario en amplio sentido. Desde el
punto de vista practico, no es necesario que un proceso que sea estacionario durante un tiempo
sino solamente para el intervalo de interés.
Para los procesos estacionarios, la función de autocorrelación en la ecuación (1.33) no depende
tan solo del tiempo sino también de la diferencia entre los tiempos t1 y t2. Por lo tanto, todo par
de valores de X(t) en un punto separados en tiempo por τ = t1-t2 tienen algún valor de
correlación. Entonces, para sistemas estacionarios, podremos denotar a RX(t1,t2) simplemente
como RX(τ).

1.5.2.3 Autocorrelación de un proceso aleatorio estacionario en sentido amplio

Así como la varianza nos da el promedio de aleatoriedad de una variable aleatoria, la función
de autocorrelación nos da un promedio similar para los procesos aleatorios. Para un proceso
estacionario en sentido amplio, la función de autocorrelación es solo una función de la
diferencia de tiempo τ = t1-t2, que es,

R X (τ ) = E{ X (t ) X (t + τ )} para -∞<τ<∞ (1.34)

Para un proceso WSS de media cero, RX(τ) indica la extensión para cada valor aleatorio de los
procesos separados por τ segundos en tiempo y son correlacionados estáticamente. En otras
palabras, RX(τ) esta dada sobre una idea de la respuesta en frecuencia que esta asociado con un
proceso aleatorio. Si RX(τ) cambia lentamente cuando τ se incrementa desde cero a algún valor,
indica que, los valores muestreados de X(t) toman a t = t1 y t = t1+τ son casi los mismos. Así, si
lo expresamos en el dominio de la frecuencia la representación de X(t) este contendrá una
preponderancia en las bajas frecuencias. De otra manera, si RX(τ) decrece rápidamente cuando τ
se incrementa, habría que esperar que X(t) cambie rápidamente en el dominio del tiempo y por
lo tanto tendría componentes de alta frecuencia. Las propiedades dela función de
autocorrelación de un proceso estacionario en sentido amplio de valor real son las siguiente:

1. RX(τ)=RX(-τ) Simétrica alrededor de τ igual a cero


2. RX(τ)≤RX(0) para todo τ Los valores máximos ocurren en el origen
3. RX(τ)↔GX(f) La autocorrelación y la densidad espectral
de potencia forman un par de transformadas de
Fourier.
4. RX(0) = E{X2(t)} El valor al origen es igual a la potencia
promedio de la señal
1.5.3 Promediado de tiempo y Ergodicidad.

Para calcular mx y RX(τ) por promedio de un grupo, tendríamos que promediar todas las
funciones muestreadas de los procesos y necesitaríamos tener un completo conocimiento de el
primero y el segundo orden de la función de densidad de probabilidad. Tal conocimiento no esta
general disponible.
Cuando un proceso aleatorio pertenece a una clase especial, tal como un proceso ergódico, estos
tiempos promedios son iguales a los promedios del conjunto, y las propiedades estadísticas de
los procesos pueden ser determinados por los tiempos promedios sobre una función de muestreo
simple de los procesos. Para que un proceso aleatorio sea ergódico, este debe ser estacionario en
sentido estricto. (La conversión no es necesaria.) A veces, para los sistemas de comunicación,
donde son satisfechas todas las condiciones necesarias de los sistemas estacionarios en sentido
estricto, pondremos interés tan solo en la media y la función de autocorrelación.
Podremos decir que un proceso aleatorio es ergódico en la media si

T /2
1
T −T∫/ 2
m X = lim T →∞ X (t )dt (1.35)

y es ergódico en la función de autocorrelación si

T /2
1
T −T∫/ 2
R X (τ ) = lim T →∞ X (t ) X (t + τ )dt (1.36)

La comprobación de ergodicidad de un proceso aleatorio es normalmente muy difícil. En la


practica hacemos un intuitivo criterio sobre si es razonable para intercambiar los tiempos y el
promedio total. Una razonable suposición en el análisis de sistemas de comunicación es que la
forma de onda aleatorias son ergódicas en la media y en la función de autocorrelación. Puesto
que el tiempo promedio es igual al promedio total de los procesos ergódicos, los parámetros
eléctricos fundamentales en ingeniería, tales como los valores de dc, el valor rms y la potencia
promedio pueden ser relativos para los momentos de un proceso aleatorio ergódico. Las
siguientes son un resumen de estas relaciones:

1) La cantidad mX=E{X(t)}es igual al nivel de la señal.


2) La cantidad mx2 es igual a la potencia normalizada en la componente de dc.
3) El segundo momento de X(t), E{X2(t)}, es igual a el promedio total normalizado
4) La cantidad E{ X 2 (t )} es igual al valor cuadrático medio (rms) de la señal de voltaje
o corriente.
5) La varianza σX2 es igual a el promedio de potencia normalizada en la variación de
tiempo o en la componente ac de la señal.
6) Si el proceso tiene media cero, entonces σ X2 = E{ X 2 } y la varianza es igual al valor
cuadrático medio o la varianza representada por la potencia total en la carga
normalizada.
7) La desviación estándar σX es el valor rms de las componentes de ac de la señal.
8) Si mX = 0, entonces σX es el valor rms de la señal.

1.5.4 Densidad de espectral potencia y autocorrelación de un proceso aleatorio.

Un proceso aleatorio X(t) puede generalmente puede ser clasificada como una señal de potencia
teniendo una densidad espectral de potencia (PSD) GX(f) de la forma mostrada en la ecuación
(1.20). GX(f) es particularmente usada en sistemas de comunicación, porque describe la
distribución de una señales de potencia en el dominio del tiempo.
La PSD habilitada para evaluar las señales de potencia que pasan por una red tendrán
características de frecuencia conocidas.
Detallamos los principales rasgos de las PSD a continuación:

1) GX(f) ≥ 0 y es siempre un valor real


2) GX(f) = GX(-f) para un valor real de X(t)
3) GX(f) ↔RX(τ) la PSD y la autocorrelación forman parte de
la transformada de Fourier

4) PX = ∫ G X ( f )df relacionando la potencia promedio
−∞
normalizada y la PSD.

En la figura 1.6, presentamos una visualización de la autocorrelación y la función de densidad


espectral de potencia. Qué condiciones tiene la media de correlación? Cuando investigamos la
correlación entre dos fenómenos, se pide tener precisamente la correspondiente entre el
comportamiento o la apariencia, que hagan que ellos se asimilen entre si. En matemática, una
función de autocorrelación de una señal (en el dominio del tiempo) describe la correspondencia
de la señal para ser transmitida en el canal siguiente. Una copia exacta de la señal es hecha y
localizada en un tiempo menor que infinito. Entonces movemos la copia un incremento en la
dirección del tiempo positivo y hacemos la pregunta, Cuanto se asemejan (la original versus la
copia)? Movemos la copia otro paso en la dirección positiva y preguntamos, En cuanto se
asemejan ahora? Y así en adelante la correlación entre estos dos esta dibujada como una función
de tiempo, denotada como τ, que puede ser pensado como un parámetro de análisis.
La figura 1.6 a – d destacan algunos de estos pasos. En la figura 1.6ª se muestra una simple
muestra de una forma de onda de un proceso aleatorio WSS, X(t). La forma de esta es una
secuencia de pulsos aleatoria binaria con amplitud unitaria positiva y negativa (bipolar). Los
pulsos positivos y negativos ocurren con igual probabilidad. La duración de cada digito binario
es de T segundos, y el promedio o el valor dc de una secuencia aleatoria es cero. La figura 1.6b
muestra también la secuencia desplazada τ1 segundos en el tiempo; esta secuencia se denota
como X(t-τ1). Permitiendo asumir que X(t) es ergódico en la función de autocorrelación así
como puede usarse el promedio de tiempo instantáneo del promedio total para hallar RX(τ).
El valor de RX(τ) es obtenido al hacer el producto de las dos secuencias X(t) y X(t+τ) y
decidiendo el valor promedio usando la ecuación (1.36). La ecuación (1.36) es precisa para
procesos ergódicos solo en el limite. A veces, integrando sobre una numero entero de periodos
puede suministrarse una estimación de RX(τ). Nótese que RX(τ1) puede ser obtenido por un
cambio de positivo a negativo de X(t). La figura 1.6c ilustra como lo calculamos, usando una
secuencia de muestreo simple (figura 1.6a) y cambiando la replica (figura 1.6b). El producto de
las áreas bajo las curvas X(t)X(t-τ1) contribuye a los valores positivos de los productos, y el área
gris contribuye con los valores negativos. La integración de X(t)X(t-τ1) sobre varios pulsos de
tiempo producen un área que es un punto, el punto RX(τ1) de la curva RX(τ). La secuencia puede
ser extendido por τ2,τ3,....., cada cambio producirá un punto de la función de autocorrelación
global RX(τ1) mostrada en la figura 1.6d. Toda secuencia aleatoria de pulsos bipolares tienen un
grafico de autocorrelación de la forma general mostrada en la figura 1.6d. El grafico alcanza el
máximo a RX(0)[el máximo ocurre cuando τ es igual a cero, siendo RX(τ) ≤ RX(0) para todo τ],
y se declina a medida que τ se incrementa. La figura 1.6d muestra los puntos correspondientes a
RX(0) y RX(τ1).La expresión analítica para la función de autocorrelación RX(τ) mostrada
en la figura 1.6d, es [1]

 τ
1 − Para |τ| ≤ T (1.37)
R X (τ ) =  T
0 Para |τ| > T

Notemos que la función de autocorrelación nos dará información de frecuencia; diciéndonos
algo sobre el ancho de banda de la señal. La autocorrelación es una función en el dominio del
tiempo; no hay términos relacionados con la frecuencia en la relación mostrada en la ecuación
(1.37).Ahora daremos información sobre el ancho de banda de la señal? Considerando que la
señal es de movimiento muy lento (bajo ancho de banda). Como al pasar la copia a lo largo de la
axisa τ en cada paso realizaremos la pregunta, “cuanto mejor es la combinación entre la origina
y la copia?” El conjunto será mejor aun. En otras palabras, la forma triangular de la función de
autocorrelación en la figura 1.6d y la ecuación (1.37) será una rampa que decrece gradualmente
con τ. Pero si tenemos un movimiento muy rápido de la señal(gran ancho de banda ), quizás un
pequeño cambio en τ resultara tener en una correlación cero. En este caso, la función de
autocorrelación tiene un apariencia muy picuda. Entonces, la relación de la forma de la función
de autocorrelación nos dirá alguna cosa fundamental sobre el ancho de banda de la señal.
Cuándo la rampa decrece suavemente? En el caso de que, nosotros estemos tratando con una
señal de ancho de banda bajo.
La función de autocorrelación permite expresar directamente una señal aleatoria de densidad
espectral de potencia. Ya que la PSD y la función de autocorrelación son transformada de
Fourier de la otra, la PSD, GX(f), de una secuencia de pulsos bipolar puede ser encontrada
usando la Tabla A1 como la transformada de RX(τ) en la ecuación (1.37).
Obsérvese que
2
 senπfT 
G X ( f ) = T   = T sin c 2 fT (1.38)
 πfT 
donde
senπy
sin cy = (1.39)
πy

La forma general de GX(f) es ilustrada en la figura 1.6e.


Nótese que el área bajo la curva PSD representa la potencia promedio en la señal. Un convenio
de medida del ancho de banda es el ancho del lóbulo principal espectro. (ver sección 1.7.2) La
figura 1.6e muestra que el ancho de banda de una señal esta inversamente relacionado con la
duración del símbolo o el ancho del pulso. Las figuras 1.6f – j repiten los pasos mostrados en la
figura 1.6ª - e, excepto que la duración del pulso es breve. Note que la forma del pulso de poca
duración RX(τ) es estrecha, mostrada en la figura 1.6d. en la figura 1.6i, RX(τ1) = 0, un cambio
de τ1 en el caso del pulso de poca duración ejemplificado es bastante parecido a cero, o una
completa decorrelacion entre los cambios de secuencias. Dado que la duración del pulso T es
mas pequeña (la taza de pulsos es alta) en la figura 1.6f, que en la figura 1.6ª, el ancho de banda
ocupado en la figura 1.6j es mayor que el ancho de banda ocupado en la figura 1.6e por la baja
taza de pulsos.
1.5.5 El ruido en los sistemas de comunicación.

El termino ruido se refiere a señales no deseadas que están siempre presentes en sistemas
eléctricos. La presencia de ruido superpuesto en una señal tendera a oscurecer o a enmascarar la
señal; la habilidad del receptor para tomar una decisión correcta del símbolo limita la taza de
información del transmisor. El ruido surge de una variedad de fuentes, producidas por el hombre
y naturales. El ruido hecho por el hombre incluye cada fuente como el ruido de la bujías de
ignición, cambios transitorios y otras señales de radiaciones eléctricas. El ruido natural incluye
los elementos como la atmósfera, el sol y otras fuentes galácticas.
El plan de la ingeniería es poder eliminar muchos de los ruidos o reducir su efecto mediante
filtrado, defendiendo, los cambios en la modulación y eligiendo un sitio en el receptor optimo.
Por ejemplo, un radio sensible astronómico son típicamente colocados en localizaciones
desérticas remotas, lejos de la fuente de ruido producido por el hombre. Sin embargo, hay una
fuente natural de ruido, llamado térmico o ruido de Johnson, que no puede ser eliminada. El
ruido térmico es causado por la temperatura disipada por los movimientos de los electrones en
todos los componentes disipantes – resistores, alambres, etc. Los mismos electrones que son
responsables de la conducción eléctrica son responsables del ruido térmico.
Podemos describir al ruido térmico como un proceso aleatorio Gausiano de media cero. Un
proceso Gausiano n(t) es una función aleatoria cuyo valor n en un tiempo arbitrario t esta
caracterizado estadísticamente por la función de densidad de probabilidad Gausiana

1  −1 n 2 
p ( n) = exp     (1.40)
σ 2π  2  σ  

Donde σ2 es la varianza de n. La normalización o la función de densidad estandarizada


Gausiana de un proceso de media cero es obtenida al asumir a σ = 1. Esta pdf normalizada es
mostrada esquemáticamente en la figura 1.7.
Podemos representar una señal aleatoria como la suma de un ruido aleatorio variable Gausiano y
una señal de dc. Esta es,
z =a+n

Donde z es la señal aleatoria, a es la componente de dc y n es el ruido aleatorio variable


Gausiano. La pdf p(z) es expresada como

1  −1 z − a 2 
p( z ) = exp     (1.41)
σ 2π  2  σ  

Donde, como antes, σ2 es la varianza de n. La distribución Gausiana es a menudo usada como


un modelo de sistemas de ruido debido a un teorema, llamado teorema central del limite [3], qué
estado este bajo las condiciones generales de la distribución de probabilidad de la suma de los i
variables aleatorias estadísticas independientes aproximando la distribución Gausiana cuando
j → ∞, no importando como puedan ser las funciones de distribución individuales.
Por eso, incluso aunque los ruidos en forma individual tengan otras distribuciones que no sean
Gausiana, el agregado de otras funciones lo llevaran a esta forma de distribución.
1.5.5.1 Ruido blanco

La principal característica espectral del ruido térmico es que la densidad espectral de potencia es
la misma para toda frecuencia de interés en la mayoría de los sistemas de comunicación; en
otras palabras, una fuente de ruido térmico procede con la misma potencia de ruido por unidad
de ancho de banda para cualquier frecuencia – desde dc hasta los 1012 Hz. Por eso, un simple
modelo de ruido térmico asume que la densidad espectral de potencia Gn(f) es plana para toda
frecuencia, como se muestra en la figura 1.8ª y se denota como

No
Gn ( f ) = watts/hertz (1.42)
2

donde el factor 2 esta incluido para indicar que Gn(f) es una densidad espectral de potencia de
los dos lados del espectro. Cuando la potencia de ruido tiene una densidad espectral de potencia
uniforme nos referiremos a esta como Ruido Blanco. El adjetivo “Blanco” es usado en algunos
sentidos como la luz blanca, que contamina con igual cantidad en todas las frecuencias dentro
de la banda visible de radiación electromagnética.
La función de autocorrelación del ruido blanco esta dada por la inversa de la transformada de
Fourier de la densidad espectral de potencia (ver tabla A1), denotada como sigue

N0
Rn (τ ) = ℑ −1{Gn ( f )} = δ (τ ) (1.43)
2

entonces la autocorrelación del ruido blanco es una función delta acotada por un factor N0/2 y
ocurre a τ = 0, como se ve en la figura 1.8b. Note que Rn(τ) es cero para τ ≠ 0; que son, dos
muestras cualquiera diferentes de ruido blanco, no importando como se toman los tiempos, son
uncorrelated.
La potencia promedio Pn del ruido blanco es infinita debido a que el ancho de banda es infinito.
Esta puede ser obtenida al combinar la ecuación (1.19) y la (1.42) para producir


N0
Pn = ∫
−∞
2
df = ∞ (1.44)
Aunque el ruido blanco es una útil abstracción, ningún proceso de ruido puede ser blanco de
verdad; sin embargo, el ruido encontrado en muchos sistemas reales pueden ser asumidos como
aproximaciones al blanco. Podremos solo observar el ruido después de que haya pasado por un
sistema real con un ancho de banda finito. Así, como el tamaño del ancho de banda del ruido es
apreciablemente mas grande que el de los sistemas, el ruido puede ser considerado con un ancho
de banda infinito.
La función delta en la ecuación (1.43) significa que la señal de ruido n(t) es totalmente
decorrelacionada en esta versión con cambios en el tiempo, para cualquier τ > 0. la ecuación
(1.43) indica que dos muestras diferentes cualquiera de un proceso de ruido blanco son no
correlacionadas. Puesto que el ruido térmico es un proceso Gausiano y las muestras son no
correlacionadas, las muestras de ruido son también independientes[3]. Por eso, el efecto en el
proceso de detección de un canal con ruido blanco aditivo Gausiano (AWGN) es por eso que el
ruido afecta cada símbolo transmitido independientemente. Semejantes canales son llamados
canales de poca memoria. El termino “aditivo” significa que el ruido esta simplemente
superpuesto o sumado a la señal – que no hay ningún organismo que lo multiplique al trabajar.
Desde que el ruido blanco se presenta en todos los sistemas de comunicaciones y es la fuente
sobresaliente de muchos sistemas, las características aditivas del ruido térmico, blanco y
Gausiano son los mas usados para modelar los ruidos en los sistemas de comunicación. Puesto
que el ruido Gausiano tiene media cero, esta totalmente caracterizado por su varianza, este
modelo es particularmente simple para el uso en detección de señales y en la designación del
receptor optimo. En este libro debemos asumirlo, a menos que se asuma otra condición, que el
sistema esta ensuciado con Ruido Aditivo Blanco Gausiano de Media Cero, incluso aunque esté
algunas veces demasiado simplificado.

1.6 Señales transmitidas a trabes de sistemas lineales

Teniendo desarrollado un conjunto de modelos de señales y ruidos, haremos una nueva


consideración de la caracterización de sistemas y su s efectos en cada señales y ruidos. Desde
que un sistema puede ser caracterizado igualmente en el dominio del tiempo como en el
dominio de la frecuencia, la técnica será desarrollada en ambos dominios para analizar la
respuesta de un sistema lineal a una señal de entrada arbitraria. La señal, aplicada a la entrada
del sistema, como se muestra en la figura 1.9. puede ser descripta o la señal en el dominio del
tiempo, x(t), o por su transformada de Fourier, X(f). El uso del análisis en el dominio del tiempo
producirá una salida en el dominio del tiempo y(t), y ene el proceso, h(t), la característica o la
respuesta al impulso de la red será definida. Cuando la entrada esta considerada en el dominio
de la frecuencia, definimos la función de transferencia en frecuencia H(f) de los sistemas,
mientras que la salida estará en el dominio de la frecuencia Y(f). El sistema es supuesto como
lineal e invariante en el tiempo. También asumimos que no hay almacenamiento de energía en
el sistema al tiempo que la entrada es aplicada.
Figura 1.9

1.6.1 Respuesta al impulso.

Los sistemas lineales invariantes en el tiempo o las redes mostradas en la figura 1.9 están
caracterizadas en el dominio del tiempo por una respuesta al impulso h(t), qué es la respuesta
cuando la entrada es igual al impulso unitario δ(t); que es,

h(t) = y(t) cuando x(t) = δ(t) (1.45)

Conocido con el nombre de respuesta al impulso. Ese es un nombre muy apropiado para este
evento. Caracterizando un sistema lineal en términos de la respuesta al impulso tiene una franca
interpretación física. A la entrada del sistema, aplicamos un impulso unitario (una señal
normalizada, tiene amplitud infinita, ancho cero y área unitaria), como se ilustra en la figura
1.10ª. Como responde el sistema a cada uno de las fuerzas (impulsos) a la entrada. La respuesta
de salida h(t) es la respuesta al impulso del sistema (esta se describe en forma aproximada en la
figura 1.10b).
La respuesta de la red a una señal arbitraria de entrada x(t) se encuentra por la combolución de
x(t) con h(t), expresada como:


y (t ) = x(t ) * h(t ) = ∫ x(τ )h(t − τ )dτ
−∞
(1.46)

Donde el operador * denota la operación combolución. (ver sección A.5). El sistema es asumido
para ser causal, qué significa que la salida no puede ser anterior al tiempo t = 0, cuando la
entrada es aplicada. Por eso, el limite inferior de la integración debe ser cambiado a cero y
podemos expresar la salida y(t) de cualquier forma


y (t ) = ∫ x(τ )h(t − τ )dτ (1.47a)
0
o la forma

y (t ) = ∫ x(t − τ )h(τ )dτ (1.47b)
0

Cada una de las expresiones en la ecuación (1.46) y (1.47) son llamada integral de combolución.
La combolución es una herramienta matemática básica que juega un rol importante en la
compresión de los sistemas de comunicación.

Figura 1.10
Del Libro
1.6.2 función de transferencia en frecuencia

La señal de salida en el dominio de la frecuencia Y(f) es obtenida al tomar la transformada de


Fourier de ambos lados de la ecuación (1.46). dado que la combolución en el dominio del
tiempo se transforma a una multiplicación en el dominio de la frecuencia (y viceversa), la
ecuación (1.46) será

Y ( f ) = X ( f )H ( f ) (1.48)
o
Y( f )
H( f ) = (1.49)
X(f )

Proporcionando, el camino, que X(f) ≠ 0 para toda f. Aquí H ( f ) = ℑ{h(t )} , la transformada


de Fourier de la función de respuesta al impulso, es llamada función de transferencia en
frecuencia o respuesta en frecuencia de las redes. En general, H(f) es compleja y puede ser
escrita como

H ( f ) = H ( f ) e jθ ( f ) (1.50)

Donde |H(f)| es la magnitud de la respuesta. La fase de la respuesta esta definida como

Im{H ( f )}
θ ( f ) = tan −1 (1.51)
Re{H ( f )}

Donde el termino “Re” y “Im” denota “la parte real de” y “la parte imaginaria de”,
respectivamente.
La función de transferencia de frecuencia de una red lineal invariante en el tiempo puede
fácilmente ser medida en los laboratorios con un generador senoidal a la entrada de la red y un
osciloscopio a la salida. Donde la forma de onda de entrada x(t) es expresada como
x(t ) = A cos 2πf 0 t
y la salida de la red será

y (t ) = A H ( f 0 ) cos[2πf 0 t + θ ( f 0 )] (1.52)

La frecuencia de entrada f0 serán desarrollados a partir de los valores de interés; a cada paso, la
amplitud y la fase de la salida son medidas.

1.6.2.1 Procesos aleatorios y sistemas lineales.

Si un proceso aleatorio forma la entrada de un sistema lineal invariante en el tiempo, la salida


será también un proceso aleatorio. Esto es, cada función muestreada del proceso de entrada
producen una función muestreada del proceso de salida. La densidad espectral de potencia de
entrada GX(f) y la densidad espectral de potencia de salida GY(f) están relacionadas por:

2
GY ( f ) = G X ( f ) H ( f ) (1.53)
La ecuación (1.53) proporciona un simple resultado de la densidad espectral de potencia de
salida de un sistema lineal invariante en el tiempo donde la entrada es un proceso aleatorio.
En el capitulo 3 y 4 consideraremos consideraremos la detección de señales con ruido Gausiano.
Si queremos utilizar una propiedad fundamental de un proceso Gausiano aplicado a un sistema
lineal, como se mostró.
Puede ser demostrado que si un proceso Gausiano X(t) es aplicado a un filtro lineal invariante
en el tiempo, el proceso aleatorio Y(t) mejorara a la salida del filtro si también es Gausiano [6].

1.6.3 Transmisión distorsionada.

Qué es necesario en una red para comportarse como una línea de transmisión ideal? La señal de
salida de una línea de transmisión ideal puede tener solamente retardos en el tiempo comparados
con la entrada y tener diferencias en las amplitudes con la entrada (justificada por un factor de
escala), pero por otra parte esta no debe tener distorsiones debiendo tener la misma forma que la
entrada. Por eso, para transmisores ideales de poca distorsión, puede describir la señal de salida
como

y (t ) = Kx(t − t 0 ) (1.54)

Donde K y t0 son constantes. Tomando la transformada de Fourier de ambos lados (ver sección
A.3.1), escribimos

Y ( f ) = KX ( f )e − j 2πft0 (1.55)

Sustituyendo la expresión (1.55) por Y(f) dentro de la ecuación (1.49), veremos que la función
de transferencia del sistema requerido para un transmisor de poca distorsión es

H ( f ) = Ke − j 2πft0 (1.56)

Entonces, para realizar una transmisión ideal de baja distorsión, los sistemas de repuesta global
tienen una respuesta de magnitud constante y los cambios de fase deben ser constantes con la
frecuencia. Si no es bastante con la amplificación del sistema o la atenuación de todas las
componentes iguales de frecuencia. Todas las componentes de frecuencia de las señales también
arribaran con idénticos tiempos de retardo y en el orden correcto. Ya que el tiempo de retardo t0
esta relacionado con los cambios de fase θ y la frecuencia en radianes ω=2πfby

θ (radianes)
t 0 ( segundos) = (1.57a)
2πf (radianes / segundos)

Es claro que el cambio de fase puede ser proporcional a la frecuencia en orden con el tiempo de
retardo de todas las componentes para ser idéntica. Una característica frecuentemente usada
para medir la distorsión por retardo de una señal es llamado retardo oculto o retardo de grupo,
que es definido como

1 dθ ( f )
τ( f ) = − (1.57b)
2π df
Entonces, en los transmisores de baja distorsión, un camino equivalente de caracterización de
fase será una función lineal de frecuencia y esta caracterizada por el retardo de grupo τ(f) como
una constante. En la practica, las señales solo se distorsionan en ciertas partes del sistema. La
corrección de fase o de amplitud (ecualización) en las redes puede ser introducida por otra parte
en los sistemas para la corrección de la distorsión. Las características globales de entrada y
salida de los sistemas determinan la performanse.

1.6.3.1 Filtro ideal.

No podemos formar la red ideal descripta en la ecuación (1.56). El problema es que la


ecuación(1.56) implica una capacidad de ancho de banda infinito, donde el ancho de banda de
un sistema esta definido como el intervalo de las frecuencias positivas sobre la cual la magnitud
de |H(f)| permanece dentro de un valor especificado. En la sección 1.7 varias medidas del ancho
de banda son enumerados. Como una aproximación al ancho de banda infinito ideal de una red,
permitiéndonos escoger una red que truncada el paso, a menos que la distorsión , de todos los
componentes de frecuencia entre fl y fu, donde fl es la frecuencia inferior de corte y fu es la
frecuencia superior de corte, como se muestra en la figura 1.11. cada una de estas redes son
llamadas filtros ideales. Fuera del rango fl < f < fu es llamada banda de paso, el filtro ideal es
supuesto para tener una respuesta en magnitud cero. El efecto del ancho de la banda pasante esta
especificado por el ancho de banda del filtro Wf = (fu – fl) hertz.
Cuando fl ≠ 0 y fu ≠ ∞, el filtro es llamado filtro de banda pasante (BPF), mostrado en la figura
1.11ª. Cuando fl = 0 y fu tiene un valor finito, el filtro es conocido como filtro pasa bajos (LPF),
mostrado en la figura 1.11b. Cuando fl tiene un valor distinto de cero y cuando fu → ∞, el filtro
es conocido como Filtro pasa alto (HPF), mostrado en la figura 1.11c.
Continuando con la ecuación (1.56) y permitiendo K=1, para un filtro ideal pasa bajo la función
de transferencia con ancho de banda Wf = fu hertz, mostrado en la figura 1.11b, podemos
escribir la función de transferencia como

H ( f ) = H ( f ) e − jθ ( f ) (1.58)
donde

1 para |f|<fu (1.59)


H ( f ) =  para |f|≥fu
0
y
e − jθ ( f ) = e − j 2πft0 (1.60)

La respuesta al impulso de un filtro ideal pasa bajo, ilustrado en la figura 1.12, es

∫ H ( f )e
−1 j 2πft
h(t ) = ℑ {H ( f )} = df (1.61)
−∞

fu

∫e
− j 2πft 0
= e j 2πft df
− fu

o
fu
j 2πf ( t − t0 )
= ∫
− fu
e df

sen2πf u (t − t 0 )
= 2 fu
2πf u (t − t 0 )

= 2 f u sin c 2 f u (t − t 0 ) (1.62)

Donde sinc de x esta definida en la ecuación (1.39). La respuesta al impulso mostrada en la


figura 1.12 es no causal, con una medida distinta de cero a la salida previa a la aplicación de una
entrada en el tiempo t = 0. Entonces, debemos ser claros en que el filtro ideal descrito en la
ecuación (1.58) no es realizable.
1.6.3.2 Filtros realizables.

Los ejemplos muy simples de un filtro pasa bajo realizable esta construido con una resistencia
(R) y un capacitor (C), como se muestra en la figura 1.13ª; este es conocido como filtro RC, y la
función de transferencia puede ser expresado como [7]

1 1
H( f ) = = e − jθ ( f ) (1.63)
1 + j 2πfRC 1 + (2πfRC ) 2

Donde θ(f)=tan-1 2πfRC. La magnitud característica |H(f)| y la fase característica θ(f) son
graficadas en la figura 1.13b y c, respectivamente.
El ancho de banda de los filtros pasa bajo esta definido para ser un punto de potencia media;
este punto es la frecuencia a la cual la señal de salida tiene un decaimiento de la mitad de su
valor, o la frecuencia a la cual el voltaje de salida tiene un valor de 1 / 2 por debajo del valor
de entrada.
El punto de potencia media esta generalmente expresado en unidades de decibeles (dB) como –3
dB del punto, o el punto que esta 3 dB por debajo del máximo, donde el decibel esta definido
como la relación de dos cantidades de potencia, P1 y P2, existentes en dos puntos. Por definición

P2 V22 R2
numero de dB = 10 log = 10 log10 2 (1.64a)
P1 V1 R1

Donde V1 y V2 son voltajes y R1 y R2 son resistencias. Para sistemas de comunicación


normalizados en potencia es generalmente usado para el análisis; en el caso de que, R1 y R2 sean
iguales a 1 Ω, siendo
P2 V2
numero de dB = 10 log = 10 log10 22 (1.64b)
P1 V1
La respuesta en amplitud puede ser expresada en decibeles por

V2
| H ( f ) | dB = 20 log10 = 20 log10 H ( f ) (1.64c)
V1

Donde V1 y V2 son los voltajes de entrada y salida, respectivamente, y las resistencias de


entrada y salida son iguales.
De la ecuación (1.63) es fácil verificar que el punto medio de potencia del filtro pasa bajo RC
corresponde a ω = 1/RC radianes por segundos o f = 1/(2πRC) hertz. Entonces el ancho de
banda Wf en herz es 1/(2πRC). El factor de forma del filtro es una medida de cuanto se
aproxima el filtro realizable al filtro ideal. Esta es típicamente definida como la taza del ancho
de banda del filtro respondiendo en amplitud en los puntos de 60 dB y a los 6 dB. Un filtro pasa
banda de corte abrupto puede ser hecho con un factor de forma bajo por encima de 2. Por
comparación, el factor de forma de un simple filtro pasa bajos RC es de casi 600.
Hay muchas aproximaciones usadas para caracterizar un filtro pasa bajo ideal. Una de estas, el
filtro Butterworth, aproxima al filtro pasa bajo ideal mediante la función

1
Hn( f ) = n ≥1 (1.65)
1 + ( f / f u ) 2n

Donde fu es la frecuencia de corte donde cae 3 dB y n se refiere al orden del filtro. Los de orden
superior, son de mayor complejidad y costo para implementar el filtro. La función de magnitud,
|H(f)|, esta bosquejada con varios valores de n en la figura 1.14. Note que como n grandes, las
magnitudes características se aproximan a la de un filtro ideal. Los filtros de Butterworth son
populares debido a que hay una mayor aproximación a los filtros ideales, en el sentido de
máximo horizontalidad en la banda pasante del filtro.

1.6.4 Señales, circuitos y espectros.

Las señales son descriptas en términos de su espectro. Igualmente, las redes o circuitos tienen
que ser descriptos en términos de su características espectrales o de su función de transferencia
en frecuencia. Cómo es afectada una señal en su ancho de banda al pasar por medio de un
circuito filtrante? La figura 1.15 ilustra dos casos de interés. En la figura 1.15ª (caso 1), la señal
de entrada tiene un espectro de banda angosta, y la función de transferencia del filtro es un
función de banda angosta. De la ecuación (1.48), vemos que el espectro de la señal de salida es
simplemente el producto de estos dos espectros. En la figura 1.15ª podemos verificar que la
multiplicación de las dos funciones espectrales resultan en un espectro con un ancho de banda
aproximadamente igual a mas pequeño de los dos anchos de bandas(cuando una de las dos
funciones espectrales son iguales a cero, el resultado es cero). Por eso, para el caso 1, el
espectro de la señal de salida es restringido por el espectro de la señal de entrada solamente.
Similarmente, vemos que para el caso 2, en la figura 1.15b, donde la señal de entrada es de
banda ancha pero el filtro tiene una función de transferencia de banda angosta, el ancho de
banda de la señal de salida esta restringido por el ancho de banda del filtro; la señal de salida
será una filtrada (distorsionada) de la señal de entrada.
Los efectos de un filtro sobre la forma de onda pueden ser evidentes en el dominio del
tiempo.
Figura 1.15 (a) y (b)

La salida y(t) resulta de combolucionar un pulso de entrada ideal x(t) (teniendo amplitud Vm y
un ancho del pulso T) con la respuesta al impulso de un filtro pasa bajo RC pudiendo ser
escritas como

Vm (1 − e −t / RC ) para 0 ≤ t ≤ T
y (t ) =  ' −( t −T ) / RC (1.66)
Vm e para 0 ≤ t ≤ T
donde
Vm' = Vm (1 − e −T / RC ) (1.67)

permitiéndonos definir el ancho de banda del pulso como

1
Wp = (1.68)
T

y el ancho de banda del filtro RC es

1
Wf = (1.69)
2πRC

El pulso de entrada ideal x(t) y su magnitud del espectro |X(f)| son mostrados en la figura 1.16.
El filtro RC y su magnitud característica |H(f)| son mostradas en las figuras 1.13a y b,
respectivamente.
Las siguientes ecuaciones (1.66) y (1.69), tres casos son ilustrados en la figura 1.17. En el
primer ejemplo se ilustra el caso donde Wp << Wf.
Notemos que la respuesta a la salida y(t) es una aproximación razonablemente buena del pulso
de entrada x(t). Esta representa un ejemplo de buena fidelidad. En el ejemplo 2, donde Wp = Wf,
podemos reconocer todavía que un pulso a sido transmitidos en la salida y(t). Finalmente, el
ejemplo 3 ilustra el caso en el que Wp >> Wf. Aquí la presencia del pulso es apenas perceptible
para y(t). Podemos pensar en una aplicación donde el largo del ancho de banda del filtro o la
buena fidelidad del ejemplo 1 sea conocido por? Una precisa aplicación oscilatoria, quizás,
donde el pulso de tiempo de arribo se traslada dentro de la distancia, necesitando un pulso con
un paso de tiempo lento. Cuál de los ejemplos caracterizan la aplicación de una comunicación
digital binaria? Es el ejemplo 2. una de los principales rasgos de las comunicaciones digitales
binarias son que cada receptor de pulsos necesita ser percibido precisamente como uno de los
dos estados, una señal de alta fidelidad no necesita ser mantenida. El ejemplo 3 tiene que ser
incluidos íntegramente; este no puede ser usado como un criterio de diseño para un sistema
practico.
1.7 Ancho de banda de los datos digitales.

1.7.1 Banda base versus banda pasante.

Una manera fácil de trasladar el espectro de una señal pasa bajo o banda pasante x(t) a una
frecuencia alta es multiplicar o heterodizar la señal banda base con una señal portadora cos 2πfct
como se muestra en la figura 1.18. La forma de onda resultante, xc(t), es conocida como señal
modulada en doble banda lateral (DSB) y se expresa como

xc (t ) = x(t ) cos 2πf c t (1.70)

del teorema del cambio de frecuencia (ver sección A.3.2), el espectro de la señal DSB xc(t) esta
dada por

1
Xc( f ) = [ X ( f − f c ) + X ( f + f c )] (1.71)
2

La magnitud del espectro |X(f)| de la señal banda base x(t) tiene un ancho de banda fm y la
magnitud del espectro |Xc(f)| de la señal DSB xc(t) tiene un ancho de banda WDSB son mostradas
en la figura 1.18b y c, respectivamente. El la grafica de |Xc(f)|, las componentes espectrales
corresponden a la banda de frecuencias positivas mostradas en el rango fc a (fc+fm).

Figura 1.18

Esta parte del espectro DSB es conocida como la banda superior de paso (USB). Las
componentes espectrales correspondientes a las bandas de frecuencia negativas aparecen en el
rango que van desde (fc-fm) a fc.
Esta parte del espectro DSB es conocida como la banda inferior de paso (LSB). Reflejando las
imágenes de los espectros de la USB y la LSB aparecen en la parte negativa la mitad del
grafico. La señal portadora esta a veces a una señal de un oscilador local (LO), una señal
mezclada o una señal heterodinizada. Generalmente la frecuencia de la señal portadora es de
mucho mayor que el ancho de banda de la señal banda base; que es

f c >> f m

De la figura 1.18, podemos realizar una comparación del ancho de banda fm requerido para
transmitir la señal banda base con el ancho de banda WDSB necesario para la transmisión la señal
DSB, vemos que

WDSB = 2 f m (1.72)

Que es, el doble del ancho de banda necesario para transmitir una señal DSB al transmitir una
señal banda base completa.

1.7.2 El dilema del ancho de banda.

Un teorema muy importante de los teoremas de comunicación y información son basados en la


Asunción de canales con bandas limitadas estrictamente, significando que no cualquiera de las
señales de potencias permiten la banda definida. Nosotros nos enfrentamos con el dilema
estricto de que señales de banda limitada, como describe el espectro |X1(f)| en la figura 1.19b,
son no realizables, debido a que significa una duración infinita, como se observa por x1(t) en la
figura 1.19a (la inversa de la transformada de Fourier de X1(f)). Las señales de duración
limitada, como se observa en x2(t) en la figura 1.19c, puede ser razonable. Sin embargo, cada
señal son solo irrazonable, dado que la transformada de Fourier contiene energía arbitraria en
las componentes de alta frecuencia como es descrito por el espectro |X2(f)|. En resumen, de
todos los espectros de banda limitada, las formas de ondas son no razonables, y para todas las
formas de ondas razonables, el ancho de banda absoluto es infinito. La descripción matemática
de una señal real no permite a la señal tener una duración limite estricta y un ancho limitado
estricto. Aquí, los modelos matemáticos son abstractos, no es sorprendente que no haya una
simple definición de ancho de banda.
Todos los criterios de ancho de banda tienen un criterio en común el esfuerzo para especificar
una medida del ancho, W, de un valor no negativo real de la densidad espectral definida por
todas las frecuencias |f| < ∞.La figura 1.20 ilustra algunas de las mas comunes definiciones de
ancho de banda; en general, los varios criterios nos son intercambiables. El espectro de densidad
de potencia de simple lado para un simple pulso heterodinizado xc(t) toma la forma analítica
siguiente

2
 senπ ( f − fc)T 
GX ( f ) = T   (1.73)
 π ( f − fc)T 

Donde fc es la frecuencia de la señal portadora y T es la duración del pulso. Esta densidad


espectral de potencia, cuya apariencia se muestra en la figura 1.20, también caracteriza una
secuencia de pulsos aleatorios, asumiendo que el tiempo promedio es de longitud relativa a la
duración del tiempo. El grafico consiste de un lóbulo principal y pequeños semi-lobulos
simétricos. La forma general del grafico son correctas para muchas de las formas de modulación
digital; algunos formatos, a veces, no tienen un lóbulo bien definido.
Los criterios de ancho de banda descriptos en la figura 1.20 se detallan a continuación:

a) Ancho de banda de media potencia: este es el intervalo entre la frecuencia a la cual


Gf(x) tiene una caída a potencia media, o 3 dB por debajo del valor máximo.
b) Equivalencia rectangular o ruido equivalente de ancho de banda: el ruido equivalente de
ancho de banda era originalmente concebido a permitir una computación rápida del
ruido de potencia de salida de un amplificador con un ruido de entrada banda ancha; el
concepto puede ser similar al aplicado en señales de banda angosta. El ruido equivalente
de banda ancha Wn de una señal es definida por la relación W N = PX G X ( f c ) , donde
PX es la potencia total de la señal sobre todas las frecuencias y GX(fc) es al valor de
GX(f) 3en el centro de la banda (asumiendo a este como el valor máximo de todas las
frecuencias).
c) Ancho de banda de nulo a nulo: es el mas popular de las medidas de ancho de banda de
las comunicaciones digitales es el ancho del lóbulo principal del espectro, donde
muchas de las señales de potencia están contaminadas. Este criterio esta incompleto
generalmente ya que algunos formatos de modulación le falta definir bien su lóbulo
principal.
d) Contaminación en el ancho de banda por fraccionamiento de potencia. Este criterio de
banda ancha ha sido adoptado por la comisión federal de comunicaciones y la condición
es que el ancho de banda ocupado en la banda aquel nivel sea del 0.5% de la señal de
potencia sobre el limite superior de la banda y un 0.5 % del nivel de la señal de potencia
por debajo del limite inferior de la banda. El restante 99% de la señal de potencia este
dentro de la banda ocupada.
e) Densidad espectral de potencia limitada. Un popular método de especificación del
ancho de banda es el que para cada estado por donde quiera dentro de la banda
especificada, GX(f) debe tener una caída menor a un cierto nivel del estado debajo del
cual este la función en el centro. Una atenuación típica de este nivel es de 35 o 50 dB.
f) Ancho de banda absoluto. Este es el intervalo entre las frecuencias, fuera del cual el
espectro es cero. Este tiene un uso abstracto. Sin embargo, de todas las formas de ondas
realizables, el ancho de banda absoluto es infinito.
1.8 Conclusiones

En este capitulo, el principal objetivo de este libro tiene que ser la definición de la nomenclatura
básica. El concepto fundamental de las señales variantes en el tiempo , como fueron
clasificadas, la densidad espectral y la correlación tienen que ser repasadas. Solo las señales
aleatorias tienen que ser consideradas, y el ruido Gausiano, es el principal modelo d ruido en los
sistemas de comunicación, tienen que ser caracterizados estáticamente y espectralmente.
Finalmente hemos tratado un área fundamental en las señales transmisiones, los sistemas
lineales y los métodos de aproximación a los sistemas ideales desarrollamos en forma íntegra el
concepto de ancho de banda, que en la vida real es necesario la utilización de un ancho
determinado para permitir el uso a distintos usuarios.

También podría gustarte