Explora Libros electrónicos
Categorías
Explora Audiolibros
Categorías
Explora Revistas
Categorías
Explora Documentos
Categorías
¿Te imaginas un mundo sin teléfonos, radio y televisión? Sin embargo, cuando lo piensa, la mayoría
de estos sistemas de comunicación modernos se inventaron y desarrollaron durante el siglo pasado.
A continuación, presentamos una breve revisión histórica de los principales desarrollos en los
últimos doscientos años que han tenido un papel importante en el desarrollo de sistemas de
comunicación modernos.
RESEÑA HISTÓRICA
Telegrafía y Telefonía. Uno de los primeros inventos de mayor importancia para las comunicaciones
fue el invento de la batería eléctrica por Alessandro Volta en 1799. Este invento hizo posible que
Samuel Morse desarrollara el telégrafo eléctrico, que demostró en 1837. La primera línea de
telégrafo unió Washington con Baltimore y comenzó a funcionar en mayo de 1844. Morse ideó el
código binario de longitud variable que se da en la Tabla 1.1, en el que las letras del alfabeto inglés
estaban representadas por una secuencia de puntos y guiones (palabras clave). En este código, las
letras que aparecen con más frecuencia se representan mediante palabras de código cortas,
mientras que las letras que aparecen con menos frecuencia se representan con palabras de código
más largas.
El código Morse fue el precursor de los métodos de codificación de fuente de longitud variable que
se describen en el Capítulo 6. Es notable que la forma más temprana de comunicaciones eléctricas
que fue desarrollada por Morse, a saber, la telegrafía, fue un sistema de comunicación digital binario
en el que el las letras del alfabeto inglés se codificaron eficazmente en las correspondientes palabras
de código de longitud variable que tenían elementos binarios.
Casi cuarenta años después, en 1875, Emile Baudot desarrolló un código para telegrafía en el que
cada letra se codificaba en palabras de código binario de longitud fija de longitud 5. En el código de
Baudot, los elementos del código binario tienen la misma longitud y se designan como marca y
espacio.
Un hito importante en la telegrafía fue la instalación del primer cable transatlántico en 1858 que
unía Estados Unidos y Europa. Este cable falló después de unas cuatro semanas de funcionamiento.
Un segundo cable se colocó unos años más tarde y entró en funcionamiento en julio de 1866.
La telefonía nació con la invención del teléfono en la década de 1870. Alexander Graham Bell
patentó su invención del teléfono en 1876 y en 1877 estableció la Bell Telephone Company. Las
primeras versiones de los sistemas de comunicación telefónica eran relativamente simples y
brindaban servicio a lo largo de varios cientos de millas. Los avances significativos en la calidad y la
gama de servicios durante las dos primeras décadas del siglo XX fueron el resultado de la invención
del micrófono de carbono y la bobina de inducción.
La invención del amplificador de triodo por Lee De Forest en 1906 hizo posible introducir la
amplificación de la señal en los sistemas de comunicación telefónica y, por lo tanto, permitir la
transmisión de la señal telefónica a grandes distancias. Por ejemplo, la transmisión telefónica
transcontinental comenzó a funcionar en 1915.
Dos guerras mundiales y la Gran Depresión durante la década de 1930 deben haber sido un
impedimento para el establecimiento del servicio telefónico transatlántico. No fue hasta 1953,
cuando se colocó el primer cable transatlántico, que el servicio telefónico estuvo disponible entre
los Estados Unidos y Europa.
Durante los últimos treinta años ha habido numerosos avances significativos en las comunicaciones
telefónicas. Los cables de fibra óptica están reemplazando rápidamente al cable de cobre en la
planta telefónica y los interruptores electrónicos han reemplazado los viejos sistemas
electromecánicos.
En 1894, su inventor Oliver Lodge utilizó un dispositivo sensible que podía detectar señales de radio,
llamado cohesor, para demostrar la comunicación inalámbrica a una distancia de 150 yardas en
Oxford, Inglaterra. A Guglielmo Marconi se le atribuye el desarrollo de la telegrafía inalámbrica.
Marconi demostró la transmisión de señales de radio a una distancia de aproximadamente 2
kilómetros en 1895. Dos años más tarde, en 1897, patentó un sistema de radiotelegrafía y estableció
Wireless Telegraph and Signal Company. El 12 de diciembre de 1901, Marconi recibió una señal de
radio en Signal Hill en Terranova, que se transmitió desde Cornwall, Inglaterra, a una distancia de
aproximadamente 1700 millas.
La invención del tubo de vacío fue fundamental para el desarrollo de los sistemas de comunicación
por radio. El diodo de vacío fue inventado por Fleming en 1904 y el amplificador de triodo de vacío
fue inventado por De Forest en 1906, como se indicó anteriormente. La invención del triodo hizo
posible la transmisión por radio a principios del siglo XX. La transmisión de modulación de amplitud
(AM) se inició en 1920 cuando la estación de radio KDKA, Pittsburgh, salió al aire. A partir de esa
fecha, la transmisión de radio AM creció rápidamente en todo el país y en todo el mundo. El receptor
de radio AM superheterodino, como lo conocemos hoy, fue inventado por Edwin Armstrong durante
la Primera Guerra Mundial. Otro desarrollo significativo en las comunicaciones por radio fue el
invento de modulación de frecuencia (FM), también de Armstrong. En 1933, Armstrong construyó y
demostró el primer sistema de comunicación FM. Sin embargo, el uso de FM se desarrolló
lentamente en comparación con la transmisión de AM. No fue hasta el final de la Segunda Guerra
Mundial que la transmisión de FM ganó popularidad y se desarrolló comercialmente.
El primer sistema de televisión fue construido en los Estados Unidos por V. K. Zworykin y
demostrado en 1929. La transmisión de televisión comercial comenzó en Londres en 1936 por la
British Broadcasting Corporation (BBC). Cinco años después, la Comisión Federal de Comunicaciones
(FCC) autorizó la transmisión de televisión en los Estados Unidos.
Los últimos cincuenta años. El crecimiento de los servicios de comunicaciones durante los últimos
cincuenta años ha sido fenomenal. La invención del transistor en 1947 por Walter Brattain, John
Bardeen y William Shockley; el circuito integrado en 1958 de Jack Kilby y Robert Noyce; y el láser de
Townes y Schawlow en 1958, han hecho posible el desarrollo de circuitos electrónicos de pequeño
tamaño, baja potencia, bajo peso y alta velocidad que se utilizan en la construcción de sistemas de
comunicación por satélite, sistemas de radio de microondas de banda ancha, y sistemas de
comunicación por ondas luminosas que utilizan cables de fibra óptica. Un satélite llamado Telstar I
se lanzó en 1962 y se utilizó para transmitir señales de televisión entre Europa y Estados Unidos. Los
servicios comerciales de comunicaciones por satélite comenzaron en 1965 con el lanzamiento del
satélite Early Bird.
Hay varios tratamientos históricos en el desarrollo de la radio y las telecomunicaciones que abarcan
el siglo pasado. Citamos los libros de McMahon, titulados The Making of a Profession: A Century of
Electrical Engineering in America (IEEE Press, 1984); Ryder y Fink, titulado Engineers and Electronics
(IEEE Press, 1984); y S. Millman, Ed., titulado A History of Engineering and Science in the Bell
System—Ciencias de la comunicación (1925-1980) (AT & T Bell Laboratories, 1984).
Los sistemas de comunicación eléctrica están diseñados para enviar mensajes o información desde
una fuente que genera los mensajes a uno o más destinos. En general, un sistema de comunicación
se puede representar mediante el diagrama de bloques funcional que se muestra en la Figura 1.1.
La información generada por la fuente puede ser en forma de voz (fuente de voz), una imagen
(fuente de imagen) o texto sin formato en algún idioma en particular, como inglés, japonés, alemán,
francés, etc. Una característica esencial de cualquier la fuente que genera información es que su
salida se describe en términos probabilísticos; es decir, la salida de una fuente no es determinista.
De lo contrario, no sería necesario transmitir el mensaje.
Por lo general, se requiere un transductor para convertir la salida de una fuente en una señal
eléctrica que sea adecuada para la transmisión. Por ejemplo, un micrófono sirve como transductor
que convierte una señal acústica de voz en una señal eléctrica, y una cámara de video convierte una
imagen en una señal eléctrica. En el destino, se requiere un transductor similar para convertir las
señales eléctricas que se reciben en una forma adecuada para el usuario; por ejemplo, señales
acústicas, imágenes, etc.
El corazón del sistema de comunicación consta de tres partes básicas, a saber, el transmisor, el canal
y el receptor. Las funciones realizadas por estos tres elementos se describen a continuación.
El transmisor. El transmisor convierte la señal eléctrica en una forma adecuada para la transmisión
a través del canal físico o medio de transmisión. Por ejemplo, en la transmisión de radio y televisión,
la Comisión Federal de Comunicaciones (FCC) especifica el rango de frecuencia para cada estación
transmisora. Por lo tanto, el transmisor debe traducir la señal de información a transmitir al rango
de frecuencia apropiado que coincida con la asignación de frecuencia asignada al transmisor. Por lo
tanto, las señales transmitidas por múltiples estaciones de radio no interfieren entre sí. Se realizan
funciones similares en los sistemas de comunicación telefónica en los que las señales de voz
eléctricas de muchos usuarios se transmiten por el mismo cable.
En general, el transmisor realiza la correspondencia de la señal del mensaje con el canal mediante
un proceso llamado modulación. Por lo general, la modulación implica el uso de la señal de
información para variar sistemáticamente la amplitud, la frecuencia o la fase de un portador
sinusoidal. Por ejemplo, en la transmisión de radio AM, la señal de información que se transmite
está contenida en las variaciones de amplitud de la portadora sinusoidal, que es la frecuencia central
en la banda de frecuencia asignada a la estación de transmisión de radio. Este es un ejemplo de
modulación de amplitud. En la transmisión de radio FM, la señal de información que se transmite
está contenida en las variaciones de frecuencia de la portadora sinusoidal. Este es un ejemplo de
modulación de frecuencia. La modulación de fase (PM) es un tercer método para imprimir la señal
de información en una portadora sinusoidal.
El canal. El canal de comunicaciones es el medio físico que se utiliza para enviar la señal del
transmisor al receptor. En la transmisión inalámbrica, el canal suele ser la atmósfera (espacio libre).
Por otro lado, los canales telefónicos generalmente emplean una variedad de medios físicos, que
incluyen líneas fijas, cables de fibra óptica e inalámbricos (radio de microondas). Cualquiera que sea
el medio físico para la transmisión de la señal, la característica esencial es que la señal transmitida
se corrompe de manera aleatoria por una variedad de posibles mecanismos. La forma más común
de degradación de la señal viene
en forma de ruido aditivo, que se genera en el extremo frontal del receptor, donde se realiza la
amplificación de la señal. Este ruido a menudo se denomina ruido térmico. En la transmisión
inalámbrica, las perturbaciones aditivas adicionales son el ruido provocado por el hombre y el ruido
atmosférico captado por una antena receptora. El ruido de encendido de un automóvil es un
ejemplo de
El ruido provocado por el hombre y las descargas eléctricas de rayos de tormentas eléctricas es un
ejemplo de ruido atmosférico. La interferencia de otros usuarios del canal es otra forma de ruido
aditivo que a menudo surge en los sistemas de comunicación tanto inalámbricos como alámbricos.
En algunos canales de comunicación por radio, como el canal ionosférico que se utiliza para la
transmisión de radio de onda corta y largo alcance, otra forma de degradación de la señal es la
propagación por trayectos múltiples. Dicha distorsión de la señal se caracteriza como una
perturbación de la señal no aditiva que se manifiesta como variaciones de tiempo en la amplitud de
la señal, lo que generalmente se denomina desvanecimiento. Este fenómeno se describe con más
detalle en la Sección 1.3.
Las distorsiones de señal tanto aditivas como no aditivas se caracterizan generalmente como
fenómenos aleatorios y se describen en términos estadísticos. El efecto de estas distorsiones de la
señal debe tenerse en cuenta en el diseño del sistema de comunicación.
El receptor. La función del receptor es recuperar la señal de mensaje contenida en la señal recibida.
Si la señal del mensaje se transmite mediante modulación de portadora, el receptor realiza la
demodulación de portadora para extraer el mensaje de la portadora sinusoidal. Dado que la
demodulación de la señal se realiza en presencia de
ruido aditivo y posiblemente otra distorsión de la señal, la señal del mensaje demodulado
generalmente se degrada en cierta medida por la presencia de estas distorsiones en la señal
recibida. Como veremos, la fidelidad de la señal del mensaje recibido es función del tipo de
modulación, la fuerza del ruido aditivo, el tipo y la fuerza de cualquier otra interferencia aditiva y el
tipo de cualquier interferencia no aditiva.
Además de realizar la función principal de demodulación de la señal, el receptor también realiza una
serie de funciones periféricas, incluido el filtrado de la señal y la supresión de ruido.
Sistema de comunicación digital
Hasta este punto, hemos descrito un sistema de comunicación eléctrica en términos bastante
amplios basados en el supuesto implícito de que la señal del mensaje es una forma de onda continua
que varía en el tiempo. Nos referimos a tales formas de onda de señal de tiempo continuo como
señales analógicas y a las fuentes de información correspondientes que producen tales señales
como fuentes analógicas. Las señales analógicas se pueden transmitir directamente mediante
modulación de portadora a través del canal de comunicación y demodularse en consecuencia en el
receptor. A este sistema de comunicación lo llamamos sistema de comunicación analógico.
Alternativamente, una salida de fuente analógica puede convertirse en una forma digital y el
mensaje puede transmitirse mediante modulación digital y demodularse como una señal digital en
el receptor. Existen algunas ventajas potenciales de transmitir una señal analógica mediante
modulación digital. La razón más importante es que la fidelidad de la señal se controla mejor
mediante transmisión digital que mediante transmisión analógica. En particular, la transmisión
digital nos permite regenerar la señal digital en la transmisión de larga distancia, eliminando así los
efectos del ruido en cada punto de regeneración. Por el contrario, el ruido agregado en la
transmisión analógica se amplifica junto con la señal cuando los amplificadores se utilizan
periódicamente para aumentar el nivel de la señal en la transmisión a larga distancia. Otra razón
para elegir la transmisión digital en lugar de la analógica es que la señal de mensaje analógica puede
ser altamente redundante. Con el procesamiento digital, la redundancia se puede eliminar antes de
la modulación, conservando así el ancho de banda del canal. Sin embargo, una tercera razón puede
ser que los sistemas de comunicación digital suelen ser más baratos de implementar.
La figura 1.2 ilustra el diagrama funcional y los elementos básicos de un sistema de comunicación
digital. La salida de la fuente puede ser una señal analógica, como una señal de audio o video, o una
señal digital, como la salida de una computadora que es discreta en el tiempo y tiene un número
finito de caracteres de salida. En un sistema de comunicación digital, los mensajes producidos por
la fuente generalmente se convierten en una secuencia de dígitos binarios. Idealmente, nos gustaría
representar la salida de origen (mensaje) con la menor cantidad de dígitos binarios posible. En otras
palabras, buscamos una representación eficiente de la salida de origen que dé como resultado poca
o ninguna redundancia. El proceso de convertir eficientemente la salida de una fuente analógica o
digital en una secuencia de dígitos binarios se denomina codificación de fuente o compresión de
datos. Describiremos los métodos de codificación de fuente en el Capítulo 6.
La secuencia de dígitos binarios del codificador de origen, que llamamos secuencia de información,
se pasa al codificador de canal. El propósito del codificador de canal es introducir, de manera
controlada, cierta redundancia en la secuencia de información binaria que se puede utilizar en el
receptor para superar los efectos del ruido y la interferencia que se encuentran en la transmisión
de la señal a través del canal. la redundancia adicional sirve para aumentar la confiabilidad de los
datos recibidos y mejora la fidelidad de la señal recibida. En efecto, la redundancia en la secuencia
de información ayuda al receptor a decodificar la secuencia de información deseada. Por ejemplo,
una forma (trivial) de codificación de la secuencia de información binaria es simplemente repetir
cada dígito binario m veces, donde m es un número entero positivo. La codificación más sofisticada
(no trivial) implica tomar k bits de información a la vez y mapear cada secuencia de k bits en una
secuencia única de n bits, llamada palabra de código. La cantidad de redundancia introducida al
codificar los datos de esta manera se mide por la relación n / k. El recíproco de esta relación, a saber,
k / n, se llama la tasa del código o, simplemente, la tasa del código.
La secuencia binaria en la salida del codificador de canal se pasa al modulador digital, que sirve como
interfaz para el canal de comunicaciones. Dado que casi todos los canales de comunicación que se
encuentran en la práctica son capaces de transmitir señales eléctricas (formas de onda), el propósito
principal del modulador digital es mapear la secuencia de información binaria en formas de onda de
señal. Para desarrollar este punto, supongamos que la secuencia de información codificada debe
transmitirse un bit a la vez a una velocidad uniforme R bits / s. El modulador digital puede
simplemente mapear el dígito binario 0 en una forma de onda s0 (t) y el dígito binario 1 en una
forma de onda s1 (t). De esta manera, cada bit del codificador de canal se transmite por separado.
A esto lo llamamos modulación binaria. Alternativamente, el modulador puede transmitir b bits de
información codificados a la vez utilizando M = 2b formas de onda distintas si (t), i = 0, 1, ..., M −1,
una forma de onda para cada uno de los 2b posibles b bits secuencias. A esto lo llamamos
modulación M-aria (M> 2). Tenga en cuenta que una nueva secuencia de b bits entra en el
modulador cada b / R segundos. Por lo tanto, cuando la tasa de bits del canal R es fija, la cantidad
de tiempo disponible para transmitir una de las M formas de onda correspondientes a una secuencia
de b bits es b veces el período de tiempo en un sistema que usa modulación binaria.
datos, el decodificador intenta completar las posiciones donde ocurrieron borrados. Viendo el
proceso de decisión realizado por el demodulador como una forma de cuantificación, observamos
que las decisiones binarias y ternarias son casos especiales de un demodulador que cuantifica a
niveles Q, donde Q ≥ 2. En general, si el sistema de comunicaciones digitales emplea M-ary
modulación, donde m = 0, 1, ..., M −1 representan los M posibles símbolos transmitidos, cada uno
correspondiente ab = log2 M bits, el demodulador puede tomar una decisión Q-aria, donde Q ≥ M.
En el extremo caso en el que no se realiza la cuantificación, Q = ∞.
Cuando no hay redundancia en la información transmitida, el demodulador debe decidir cuál de las
M formas de onda se transmitió en un intervalo de tiempo determinado. En consecuencia, Q = M, y
dado que no hay redundancia en la información transmitida, no se utiliza ningún decodificador de
canal discreto después del demodulador. Por otro lado, cuando hay redundancia introducida por un
codificador de canal discreto en el transmisor, la salida Qary del demodulador que ocurre cada b /
R segundos se alimenta al decodificador, que intenta reconstruir la secuencia de información
original a partir del conocimiento del código. utilizado por el codificador de canal y la redundancia
contenida en los datos recibidos.
Una medida de qué tan bien funcionan el demodulador y el codificador es la frecuencia con la que
ocurren los errores en la secuencia decodificada. Más precisamente, la probabilidad media de un
error de bit en la salida del decodificador es una medida del rendimiento de la combinación
demodulador-decodificador. En general, la probabilidad de error es función de las características
del código, los tipos de formas de onda utilizadas para transmitir la información por el canal, la
potencia del transmisor, las características del canal; es decir, la cantidad de ruido, la naturaleza de
la interferencia, etc., y el método de demodulación y decodificación. Estos elementos y su efecto
sobre el rendimiento se analizarán en detalle en los capítulos 7 a 9.
Como paso final, cuando se desea una salida analógica, el descodificador de fuente acepta la
secuencia de salida del descodificador de canal y, a partir del conocimiento del método de
codificación de fuente utilizado, intenta reconstruir la señal original a partir de la fuente. Debido a
los errores de decodificación del canal y la posible distorsión introducida por el codificador de fuente
y, quizás, el decodificador de fuente, la señal en la salida del decodificador de fuente es una
aproximación a la salida de fuente original. La diferencia o alguna función de la diferencia entre la
señal original y la señal reconstruida es una medida de la distorsión introducida por el sistema de
comunicaciones digitales.
Si bien Morse es responsable del desarrollo del primer sistema de comunicación digital eléctrica
(telegrafía), los inicios de lo que ahora consideramos comunicaciones digitales modernas se derivan
del trabajo de Nyquist (1924), quien investigó el problema de determinar la tasa máxima de
señalización que se puede utilizar en un canal telegráfico de un ancho de banda determinado sin
interferencia entre símbolos. Formuló un modelo de un sistema de telégrafo en el que una señal
transmitida tiene la forma general
donde g (t) representa una forma de pulso básica y {an} es la secuencia de datos binarios de {± 1}
transmitida a una velocidad de 1 / T bits / seg. Nyquist se propuso determinar la forma de pulso
óptima que estaba limitada en banda a W Hz y maximizó la tasa de bits 1 / T bajo la restricción de
que el pulso no causaba interferencia entre símbolos en los tiempos de muestreo k / T, k = 0, ± 1, ±
2 , .... Sus estudios lo llevaron a concluir que la frecuencia máxima de pulso 1 / T es de 2W pulsos /
seg. Esta tasa ahora se llama tasa de Nyquist. Además, esta frecuencia de pulso se puede lograr
utilizando los pulsos g (t) = (sin 2πW t) / 2πW t. Esta forma de pulso permite la recuperación de los
datos sin interferencia entre símbolos en los instantes de muestreo. El resultado de Nyquist es
equivalente a una versión del teorema de muestreo para señales de banda limitada, que luego fue
establecido con precisión por Shannon (1948). El teorema de muestreo establece que una señal s
(t) de ancho de banda W se puede reconstruir a partir de muestras tomadas a la tasa de Nyquist de
2W muestras / seg utilizando la fórmula de interpolación
A la luz del trabajo de Nyquist, Hartley (1928) consideró el problema de la cantidad de datos que se
pueden transmitir de manera confiable a través de un canal de banda limitada cuando se utilizan
múltiples niveles de amplitud. Debido a la presencia de ruido y otras interferencias, Hartley postuló
que el receptor puede estimar de manera confiable la amplitud de la señal recibida con cierta
precisión, digamos Aδ. Esta investigación llevó a Hartley a concluir que existe una velocidad máxima
de datos que se puede comunicar de manera confiable a través de un canal de banda limitada,
cuando la amplitud máxima de la señal está limitada a Amax (restricción de potencia fija) y la
resolución de amplitud es Aδ.
Otro avance significativo en el desarrollo de las comunicaciones fue el trabajo de Wiener (1942)
quien consideró el problema de estimar una forma de onda de señal deseada s (t) en presencia de
ruido aditivo n (t), basándose en la observación de la señal recibida r ( t) = s (t) + n (t). Este problema
surge en la demodulación de la señal. Wiener determinó el filtro lineal cuya salida es la mejor
aproximación del cuadrado medio a la señal deseada s (t). El filtro resultante se denomina filtro
lineal óptimo (Wiener).
Los resultados de Hartley y Nyquist sobre la tasa máxima de transmisión de información digital
fueron precursores del trabajo de Shannon (1948a, b) quien estableció las bases matemáticas de la
teoría de la información y derivó los límites fundamentales para los sistemas de comunicación
digital. En su trabajo pionero, Shannon formuló el problema básico de la transmisión confiable de
información en términos estadísticos, utilizando modelos probabilísticos para fuentes de
información y canales de comunicación. Basado en tal formulación estadística, adoptó una medida
logarítmica para el contenido de información de una fuente. También demostró que el efecto de
una restricción de potencia del transmisor, una restricción de ancho de banda y el ruido aditivo
pueden asociarse con el canal e incorporarse en un solo parámetro, llamado capacidad del canal.
Por ejemplo, en el caso de una interferencia de ruido gaussiano blanco aditivo (espectralmente
plano), un canal de ancho de banda con límite de banda ideal W tiene una capacidad C dada por
donde P es la potencia media transmitida y N0 es la densidad espectral de potencia del ruido aditivo.
El significado de la capacidad del canal es el siguiente: si la tasa de información R de la fuente es
menor que C (R <C), entonces teóricamente es posible lograr una transmisión confiable a través del
canal mediante la codificación apropiada. Por otro lado, si R> C, la transmisión confiable no es
posible independientemente de la cantidad de procesamiento de señal realizado en el transmisor y
el receptor. Así, Shannon estableció límites básicos en la comunicación de información y dio origen
a un nuevo campo que ahora se llama teoría de la información.
Otra razón fue la complejidad relativamente grande y, por lo tanto, el alto costo del hardware digital
requerido para lograr la alta eficiencia y la alta confiabilidad predichas por la teoría de Shannon.
El aumento de la demanda de transmisión de datos durante las últimas tres décadas, junto con el
desarrollo de circuitos integrados más sofisticados, ha llevado al desarrollo de sistemas de
comunicaciones digitales muy eficientes y confiables. En el curso de estos desarrollos, los resultados
originales de Shannon y la generalización de sus resultados sobre los límites máximos de transmisión
en un canal y sobre los límites del rendimiento alcanzado, han servido como puntos de referencia
con respecto a los cuales se compara cualquier diseño de sistema de comunicaciones dado. Los
límites teóricos derivados por Shannon y otros investigadores que contribuyeron al desarrollo de la
teoría de la información sirven como un objetivo final en los esfuerzos continuos para diseñar y
desarrollar sistemas de comunicaciones digitales más eficientes. Siguiendo las publicaciones de
Shannon vino el trabajo clásico de Hamming (1950) sobre códigos de detección y corrección de
errores para combatir los efectos perjudiciales del ruido del canal. El trabajo de Hamming estimuló
a muchos investigadores en los años siguientes y se descubrió una variedad de códigos nuevos y
poderosos, muchos de los cuales se utilizan hoy en la implementación de sistemas de comunicación
modernos.
Los efectos del ruido pueden minimizarse aumentando la potencia en la señal transmitida. Sin
embargo, el equipo y otras limitaciones prácticas limitan el nivel de potencia en la señal transmitida.
Otra limitación básica es el ancho de banda del canal disponible. Una restricción de ancho de banda
generalmente se debe a las limitaciones físicas del medio y los componentes electrónicos utilizados
para implementar el transmisor y el receptor. Estas dos limitaciones dan como resultado la
limitación de la cantidad de datos que se pueden transmitir de forma fiable a través de cualquier
canal de comunicaciones. Los resultados básicos de Shannon relacionan la capacidad del canal con
la potencia transmitida disponible y el ancho de banda del canal. A continuación, describimos
algunas de las características importantes de varios canales de comunicación.
Canales alámbricos. La red telefónica hace un uso extensivo de líneas de cable para la transmisión
de señales de voz, así como para la transmisión de datos y video. Líneas de cable de par trenzado y
el cable coaxial son básicamente canales electromagnéticos guiados que proporcionan anchos de
banda relativamente modestos. El cable telefónico generalmente utilizado para conectar a un
cliente a una oficina central tiene un ancho de banda de varios cientos de kilohercios (KHz). Por otro
lado, el cable coaxial tiene un ancho de banda utilizable de varios megahercios (MHz). La figura 1.3
ilustra el rango de frecuencia de los canales electromagnéticos guiados que incluye guías de ondas
y fibras ópticas.
Las señales transmitidas a través de dichos canales se distorsionan tanto en amplitud como en fase
y se corrompen aún más por el ruido aditivo. Los canales alámbricos de par trenzado también son
propensos a la interferencia de diafonía de canales físicamente adyacentes. Porque los canales
alámbricos transportan un gran porcentaje de nuestras comunicaciones diarias en todo el país y
Canales de fibra óptica. Las fibras ópticas ofrecen al diseñador del sistema de comunicaciones un
ancho de banda de canal que es varios órdenes de magnitud mayor que los canales de cable coaxial.
Durante la última década se han desarrollado cables de fibra óptica que tienen una atenuación de
señal relativamente baja y se han desarrollado dispositivos fotónicos altamente fiables para la
generación y detección de señales. Estos avances tecnológicos han dado como resultado un rápido
despliegue de canales de fibra óptica tanto en sistemas de telecomunicaciones domésticos como
para comunicaciones transatlánticas y transpacíficas. Con el gran ancho de banda disponible en los
canales de fibra óptica, las compañías telefónicas pueden ofrecer a los suscriptores una amplia gama
de servicios de telecomunicaciones, que incluyen voz, datos, fax y video.
El transmisor o modulador en un sistema de comunicación de fibra óptica es una fuente de luz, ya
sea un diodo emisor de luz (LED) o un láser. La información se transmite variando (modulando) la
intensidad de la fuente de luz con la señal del mensaje. La luz se propaga a través de la fibra como
una onda de luz y se amplifica periódicamente (en el caso de la transmisión digital, es detectada y
regenerada por repetidores) a lo largo de la ruta de transmisión para compensar la atenuación de
la señal. En el receptor, la intensidad de la luz es detectada por un fotodiodo, cuya salida es una
señal eléctrica que varía en proporción directa a la potencia de la luz que incide en el fotodiodo.
Se prevé que los canales de fibra óptica reemplazarán a casi todos los canales alámbricos de la red
telefónica en los próximos años.
La figura 1.4 ilustra las distintas bandas de frecuencia del espectro electromagnético El modo de
propagación de las ondas electromagnéticas en la atmósfera y en el espacio libre puede subdividirse
en tres categorías, a saber, propagación de ondas terrestres, propagación de ondas celestes y
propagación de línea de visión (LOS). En las bandas de frecuencia VLF y ELF, donde las longitudes de
onda superan los 10 km, la tierra y la ionosfera actúan como guías de ondas para la propagación de
ondas electromagnéticas. En estos rangos de frecuencia, las señales de comunicación se propagan
prácticamente por todo el mundo. Por esta razón, estas bandas de frecuencia se utilizan
principalmente para proporcionar ayudas a la navegación desde la costa a los barcos de todo el
mundo. Los anchos de banda de canal disponibles en estas bandas de frecuencia son relativamente
pequeños (generalmente del 1 al 10% de la frecuencia central) y, por lo tanto, la información que
se transmite a través de
estos canales tienen una velocidad relativamente lenta y, en general, se limitan a la transmisión
digital. Un tipo de ruido dominante en estas frecuencias se genera a partir de la actividad de
tormentas eléctricas en todo el mundo, especialmente en las regiones tropicales. La interferencia
resulta de los muchos usuarios de estas bandas de frecuencia.
La propagación de las ondas del cielo, como se ilustra en la Figura 1.6, resulta de las señales
transmitidas que se reflejan (dobladas o refractadas) de la ionosfera, que consta de varias capas de
partículas cargadas que varían en altitud entre 30 y 250 millas sobre la superficie de la tierra.
Durante las horas del día, el calentamiento de la atmósfera inferior por el sol provoca la formación
de las capas inferiores en altitudes inferiores a 75 millas. Estas capas inferiores, especialmente la
capa D, sirven para absorber frecuencias por debajo de 2 MHz, limitando así severamente la
propagación de ondas celestes de la transmisión de radio AM. Sin embargo, durante las horas
nocturnas, la densidad de electrones en las capas inferiores de la ionosfera cae bruscamente y la
absorción de frecuencia que ocurre durante el día se reduce significativamente. Como
consecuencia, las potentes estaciones de radiodifusión AM pueden propagarse a grandes distancias
a través de ondas celestes sobre la capa F de la ionosfera, que se extiende desde 90 a 250 millas
sobre la superficie de la tierra.
Un problema que ocurre con frecuencia con la propagación de ondas electromagnéticas a través de
ondas del cielo en el rango de frecuencia de HF es la señal de trayectos múltiples. La señal
multitrayecto ocurre cuando la señal transmitida llega al receptor a través de múltiples rutas de
propagación con diferentes retrasos. La señal de trayectos múltiples generalmente da como
resultado una interferencia entre símbolos en un sistema de comunicación digital. Además, los
componentes de la señal que llegan a través de diferentes rutas de propagación pueden agregar
destructivamente, dando como resultado un fenómeno llamado desvanecimiento de la señal, que
la mayoría de la gente ha experimentado al escuchar una estación de radio distante por la noche,
cuando la onda del cielo es el modo de propagación dominante. El ruido aditivo en HF es una
combinación de ruido atmosférico y voz térmica.
En general, el área de cobertura para la propagación de LOS está limitada por la curvatura de la
tierra. Si la antena transmisora está montada a una altura de h pies sobre la superficie de la tierra,
la distancia al horizonte de radio, asumiendo que no hay obstrucciones físicas como montañas, es
aproximadamente d = √2h millas. Por ejemplo, una antena de TV montada en una torre de 1000
pies de altura proporciona una cobertura de aproximadamente 50 millas. Como otro ejemplo, los
sistemas de retransmisión de radio por microondas que se utilizan ampliamente para la transmisión
de video y teléfono a frecuencias superiores a 1 GHz tienen antenas montadas en torres altas o en
la parte superior de edificios altos.
El ruido dominante que limita el rendimiento de los sistemas de comunicación en los rangos de
frecuencia VHF y UHF es el ruido térmico generado en la parte frontal del receptor y el ruido cósmico
captado por la antena. En frecuencias en la banda SHF por encima de 10 GHz, las condiciones
atmosféricas juegan un papel importante en la propagación de la señal. La Figura 1.7 ilustra la
atenuación de la señal en dB / milla debido a la precipitación para frecuencias en el rango de 10–
100 GHz. Observamos que las fuertes lluvias introducen pérdidas de propagación extremadamente
elevadas que pueden resultar en cortes de servicio (avería total en el sistema de comunicaciones).
A frecuencias por encima de la banda EHF, tenemos las regiones de luz visible e infrarroja del
espectro electromagnético que se pueden utilizar para proporcionar comunicación óptica LOS en el
espacio libre. Hasta la fecha, estas bandas de frecuencia se han utilizado en sistemas de
comunicación experimentales, como los enlaces satélite a satélite.
Canales acústicos subacuáticos. Durante las últimas décadas, la actividad de exploración oceánica
ha aumentado constantemente. Junto con este aumento en la exploración del océano está la
necesidad de transmitir datos, recopilados por sensores colocados bajo el agua, a la superficie del
océano. Desde allí, es posible transmitir los datos a través de un satélite a un centro de recopilación
de datos.
profundidad, que es la distancia a la que una señal se atenúa en 1 / e. Para el agua de mar, la
profundidad de la piel δ = 250 / √ f, donde f se expresa en Hz y δ en metros. Por ejemplo, a 10 kHz,
la profundidad de la piel es de 2,5 m. Por el contrario, las señales acústicas se propagan a distancias
de decenas e incluso cientos de kilómetros.
Un canal acústico de aguas poco profundas se caracteriza por ser un canal multitrayecto debido a
los reflejos de la señal desde la superficie y el fondo del mar. Debido al movimiento de las ondas,
los componentes de trayectos múltiples de la señal sufren retrasos de propagación variables en el
tiempo que dan como resultado el desvanecimiento de la señal. Además, existe una atenuación
dependiente de la frecuencia, que es aproximadamente proporcional al cuadrado de la frecuencia
de la señal. El ruido acústico ambiental del océano es causado por camarones, peces y varios
mamíferos. Cerca de los puertos, también hay ruido acústico creado por el hombre además del ruido
ambiental.
A pesar de este entorno hostil, es posible diseñar e implementar sistemas de comunicación acústica
subacuática eficientes y altamente confiables para transmitir señales digitales a grandes distancias.
El ruido aditivo generado por los componentes electrónicos y la interferencia de pistas adyacentes
generalmente está presente en la señal de lectura de un sistema de almacenamiento, al igual que
en el caso de un teléfono o un sistema de comunicación por radio.
La cantidad de datos que se pueden almacenar generalmente está limitada por el tamaño del disco
o la cinta y la densidad (número de bits almacenados por pulgada cuadrada) que pueden lograr los
sistemas y cabezales electrónicos de escritura / lectura. Por ejemplo, una densidad de empaque de
109 bits / sq. in. se ha demostrado recientemente en un sistema de almacenamiento en disco
magnético experimental. (Los productos de almacenamiento magnético comerciales actuales
alcanzan una densidad mucho menor). La velocidad a la que se pueden escribir datos en un disco o
cinta y la velocidad a la que se pueden leer también está limitada por los subsistemas mecánicos y
eléctricos asociados que constituyen una información. sistema de almacenamiento.
El canal de ruido aditivo. El modelo matemático más simple para un canal de comunicación es el
canal de ruido aditivo, ilustrado en la Figura 1.8. En este modelo, la señal transmitida s (t) se
corrompe por un proceso de ruido aleatorio aditivo