Universidad Alejandro de Humboldt
Carrera Ingeniería en Informática
Asignatura Teoría de la Comunicación Digital
Sección: DCM0801IIV1
SISTEMA DE COMUNICACIONES. TRANSMISIÓN Y
COMUNICACIÓN DE DATOS. TEORÍA DE LA INFORMACIÓN
Profesor: Alumno:
Ing. Alexander Moya Victor Quintero V-25.795.583
Caracas, 10 de septiembre de 2024
INDICE
INTRODUCCIÓN....................................................................................................1
SISTEMAS DE COMUNICACIONES....................................................................2
CONCEPTOS BÁSICOS.........................................................................................2
TRANSMISIÓN Y COMUNICACIÓN DE DATOS............................................12
TRANSMISIÓN SINCRÓNICA Y ASINCRÓNICA...........................................18
FORMAS DE ONDAS DE LA COMUNICACIÓN DIGITAL............................23
TEORIA DE LA INFORMACIÓN........................................................................27
LA AUTOINFORMACIÓN DE UNA FUENTE..................................................30
ENTROPÍA Y VELOCIDAD DE UNA ENTROPÍA DE UNA FUENTE...........32
CAPACIDAD DE CANALES DISCRETOS Y CONTINUOS.............................35
CODIFICACIÓN....................................................................................................40
CONCLUSIÓN.......................................................................................................46
REFERENCIAS......................................................................................................47
INTRODUCCIÓN
La comunicación digital es el pilar de los sistemas modernos de transmisión de
información, donde los datos son enviados a través de canales que varían en
características y medios. Este proceso involucra una serie de elementos
interconectados, desde la generación de señales digitales hasta su codificación y
transmisión por medios físicos. El estudio de la teoría de la información, con
conceptos como la entropía y la capacidad de canal, nos permite comprender los
límites y la eficiencia de la transmisión de datos. Además, la codificación de fuente
optimiza la representación de la información, mientras que la codificación de canal
protege contra los errores durante la transmisión. Esta combinación de conceptos
asegura que la información sea transmitida de manera efectiva, eficiente y confiable
en una variedad de entornos de comunicación.
1
SISTEMAS DE COMUNICACIONES
Un Sistema de Comunicaciones es un conjunto de componentes que permite la
transferencia de información desde un emisor hasta un receptor a través de un medio
de transmisión. Estos sistemas son fundamentales en la era digital, ya que facilitan la
comunicación entre dispositivos y personas, permitiendo la transferencia de datos,
voz, video, y otros tipos de información.
CONCEPTOS BÁSICOS
ELEMENTOS
Un sistema de comunicaciones está compuesto por varios elementos clave:
1. Fuente de Información: Genera el mensaje a transmitir (datos, audio, video,
etc.).
2. Transmisor: Convierte y modula el mensaje en una señal adecuada para el
canal de comunicación.
3. Canal de Comunicación: Medio (cable, aire, fibra óptica) que transporta la
señal; puede introducir ruido.
4. Ruido: Interferencia no deseada que afecta la calidad de la señal.
5. Receptor: Demodula y decodifica la señal recibida para recuperar el mensaje
original.
6. Destino: Punto final donde se utiliza la información recibida.
2
7. Codificación/Decodificación: Procesos que adaptan y recuperan la
información para transmisión eficiente y con menor error.
8. Modulación/Demodulación: Adaptan la señal de información a las
características del canal.
9. Control y Sincronización: Garantizan la correcta transmisión y recepción
alineando temporalmente el sistema.
10. Procesamiento de Señales: Mejora la eficiencia y calidad de la transmisión
mediante técnicas de filtrado y compresión.
Estos elementos trabajan en conjunto para asegurar la transmisión eficiente y
precisa de la información desde el emisor hasta el receptor.
LA SEÑAL DIGITAL
La señal digital en los sistemas de comunicaciones es una representación discreta
de la información, donde los datos se codifican en un conjunto de valores finitos,
típicamente como secuencias de bits (0s y 1s). A diferencia de las señales analógicas,
que varían de manera continua, las señales digitales son más resistentes al ruido y
pueden ser transmitidas, procesadas y almacenadas de manera más eficiente.
Características de la Señal Digital
1. Discretización: La señal digital se obtiene mediante la discretización de una
señal analógica, lo que significa que la señal se muestrea en intervalos de
tiempo regulares y se cuantiza en niveles de amplitud finitos.
3
2. Codificación Binaria: La información se codifica en bits (0s y 1s). Cada bit
representa un valor binario, y múltiples bits juntos pueden representar
caracteres, números, imágenes, sonido, etc.
3. Transmisión en Pulsos: La señal digital se transmite como una serie de
pulsos eléctricos, ópticos, o de radio, que corresponden a los valores binarios
de los bits.
Ventajas de la Señal Digital
1. Resistencia al Ruido: Las señales digitales son más robustas frente al ruido
que las señales analógicas. Esto se debe a que incluso si el ruido afecta la
señal, mientras los niveles de voltaje se mantengan dentro de un umbral
aceptable, la señal digital puede ser recuperada sin errores.
2. Facilidad de Procesamiento: Las señales digitales pueden ser fácilmente
procesadas, comprimidas, y encriptadas utilizando algoritmos matemáticos.
3. Multiplexación: Es más fácil combinar múltiples señales digitales en un solo
canal mediante técnicas de multiplexación por división de tiempo (TDM).
4. Corrección de Errores: Los sistemas digitales pueden utilizar técnicas de
codificación de canal para detectar y corregir errores durante la transmisión.
4
Modulación Digital
En sistemas de comunicaciones digitales, la modulación digital es el proceso de
modificar una señal portadora en función de la secuencia de bits a transmitir. Los
principales tipos de modulación digital incluyen:
1. Modulación por Desplazamiento de Amplitud (ASK):
La amplitud de la señal portadora varía según los bits transmitidos (0 o
1).
2. Modulación por Desplazamiento de Frecuencia (FSK):
La frecuencia de la señal portadora cambia según los bits.
3. Modulación por Desplazamiento de Fase (PSK):
La fase de la señal portadora se altera en función de los bits. Una
forma común es la BPSK (modulación por desplazamiento de fase
binaria), donde un bit cambia la fase de la señal portadora entre dos
estados posibles.
4. Modulación de Amplitud en Cuadratura (QAM):
Combina ASK y PSK para transmitir dos señales modulares en la
misma frecuencia portadora, permitiendo una mayor eficiencia
espectral.
5
Ejemplo de Transmisión Digital
Consideremos un sistema que utiliza BPSK. En este caso, la señal modulada es:
s(t) = A cos (2πfct + π (1 − bk))
Donde:
A es la amplitud de la portadora.
fc es la frecuencia de la portadora.
bk es el bit a transmitir, con valores 0 o 1.
Detección y Decodificación
Al recibir la señal digital, el receptor debe detectar los bits transmitidos. Esto se
hace comparando la señal recibida con los valores esperados y decodificando la
secuencia de bits. Técnicas como la detección de errores (CRC) y la corrección de
errores (códigos Hamming) son usadas para mejorar la fiabilidad de la transmisión.
LA TRANSMISIÓN DIGITAL EN LAS TELECOMUNICACIONES
La transmisión digital en las telecomunicaciones se refiere al proceso de enviar
información codificada digitalmente (como secuencias de bits) a través de un medio
de comunicación. Esta tecnología es la base de las comunicaciones modernas, ya que
6
permite una transmisión más eficiente, confiable y robusta en comparación con la
transmisión analógica.
Características de la Transmisión Digital
1. Codificación Digital:
La información, ya sea voz, datos o video, se convierte en una
secuencia de bits (0s y 1s). Esta conversión se realiza a través de
procesos de muestreo y cuantización en el caso de señales analógicas,
o directamente en el caso de datos digitales.
2. Uso de Señales Digitales:
Las señales digitales se caracterizan por tener valores discretos en
lugar de continuos. Esto significa que las señales son representadas
como una serie de pulsos, donde cada pulso tiene un valor que
representa un bit (0 o 1).
3. Mayor Inmunidad al Ruido:
Las señales digitales son más resistentes al ruido y a las interferencias,
lo que permite una transmisión más precisa y con menos errores.
Incluso si el ruido afecta la señal, mientras los niveles estén dentro de
un rango aceptable, los datos pueden ser recuperados correctamente.
4. Técnicas de Modulación Digital:
7
Para transmitir señales digitales a través de medios analógicos (como
cables, ondas de radio, fibra óptica), se utilizan técnicas de modulación
digital, como la Modulación por Desplazamiento de Amplitud (ASK),
Modulación por Desplazamiento de Frecuencia (FSK), Modulación
por Desplazamiento de Fase (PSK), y Modulación en Amplitud en
Cuadratura (QAM).
Ventajas de la Transmisión Digital
1. Alta Calidad y Fiabilidad:
La transmisión digital permite la regeneración de señales a lo largo del
canal, lo que significa que las señales pueden ser amplificadas sin
degradación. Esto asegura que la información llegue con alta calidad,
incluso a largas distancias.
2. Corrección de Errores:
Los sistemas de transmisión digital pueden emplear técnicas de
corrección de errores, como códigos de corrección (por ejemplo,
códigos Hamming, códigos Reed-Solomon), que permiten detectar y
corregir errores que ocurren durante la transmisión.
3. Compresión de Datos:
La transmisión digital permite la compresión de datos, lo que reduce el
ancho de banda necesario para transmitir grandes cantidades de
información, como en el caso de video y audio.
8
4. Multiplexación Eficiente:
Es más fácil combinar múltiples señales digitales en un solo canal
mediante técnicas como la multiplexación por división de tiempo
(TDM), lo que maximiza el uso del ancho de banda disponible.
5. Seguridad y Encriptación:
La transmisión digital facilita la implementación de técnicas de
encriptación para proteger la información durante la transmisión, lo
que es esencial en aplicaciones de telecomunicaciones como la banca
en línea y las comunicaciones militares.
Procesos Clave en la Transmisión Digital
1. Muestreo y Cuantización:
En el caso de señales analógicas, como la voz, el primer paso es el
muestreo, que consiste en tomar muestras discretas de la señal a
intervalos regulares. Luego, estas muestras se cuantizan, asignándoles
valores binarios.
La frecuencia de muestreo debe ser al menos el doble de la frecuencia
máxima de la señal (criterio de Nyquist) para evitar la aliasing.
9
2. Codificación:
La información cuantizada se codifica en secuencias de bits que
pueden ser fácilmente transmitidas y procesadas. En
telecomunicaciones, se pueden usar diferentes tipos de codificación,
como:
Codificación NRZ (Non-Return to Zero).
Codificación Manchester.
Codificación RZ (Return to Zero).
3. Modulación Digital:
La señal binaria resultante se modula en una portadora de frecuencia
adecuada para la transmisión a través del medio. Dependiendo del
sistema y el medio, se pueden usar varias técnicas de modulación:
ASK (Amplitude Shift Keying): Modificación de la amplitud
de la portadora.
FSK (Frequency Shift Keying): Cambio en la frecuencia de
la portadora.
PSK (Phase Shift Keying): Cambio en la fase de la portadora.
10
QAM (Quadrature Amplitude Modulation): Combina ASK
y PSK para una transmisión más eficiente.
4. Multiplexación:
En sistemas de telecomunicaciones, se pueden combinar múltiples
señales digitales para ser transmitidas a través de un solo canal
mediante técnicas de multiplexación, como TDM (Time Division
Multiplexing).
5. Transmisión y Regeneración:
La señal digital modulada se transmite a través del canal. A medida
que la señal viaja, puede ser regenerada en puntos intermedios para
restaurar los niveles de señal y eliminar el ruido acumulado.
6. Demodulación y Decodificación:
En el receptor, la señal digital se demodula para recuperar la secuencia
de bits original. Luego, se decodifica y, si es necesario, se
descomprime y se aplican técnicas de corrección de errores para
obtener la información transmitida.
Ejemplo: Transmisión Digital en Redes de Telecomunicaciones
Un ejemplo típico es la transmisión de datos en una red de telecomunicaciones
como el internet. Los datos (por ejemplo, una página web) se dividen en paquetes, se
11
codifican en bits y se transmiten a través de una serie de routers y switches que
regeneran y encaminan los datos hasta su destino final, donde son decodificados y
reensamblados.
TRANSMISIÓN Y COMUNICACIÓN DE DATOS
La transmisión y comunicación de datos se refiere al proceso de enviar
información de un punto a otro a través de un medio de comunicación, utilizando
técnicas específicas para garantizar que los datos lleguen de manera precisa, eficiente
y segura. Este proceso es fundamental en las redes de telecomunicaciones, Internet,
redes de área local (LAN), y otros sistemas de comunicación.
Conceptos Clave en la Transmisión y Comunicación de Datos
1. Datos y Señales:
Datos: La información que se desea transmitir, que puede ser texto,
números, imágenes, audio o video.
Señal: La forma física en la que se transmiten los datos a través de un
medio. Las señales pueden ser analógicas o digitales.
2. Transmisión de Datos:
Involucra el envío de datos desde un emisor (transmisor) hasta un
receptor a través de un medio de comunicación (canal). Puede ser
transmisión analógica o transmisión digital.
12
3. Modos de Transmisión:
Simplex: La transmisión se realiza en una sola dirección (por ejemplo,
la transmisión de televisión).
Half-Duplex: La transmisión se realiza en ambas direcciones, pero no
simultáneamente (por ejemplo, radios de dos vías).
Full-Duplex: La transmisión se realiza en ambas direcciones
simultáneamente (por ejemplo, llamadas telefónicas).
4. Medios de Transmisión:
Los datos se transmiten a través de diversos medios, que pueden ser
guiados (cables de cobre, fibra óptica) o no guiados (ondas de radio,
microondas, satélite).
TRANSMISIÓN SERIAL O PARALELA
La transmisión serial y paralela son dos métodos diferentes para enviar datos
entre dispositivos o a través de un canal de comunicación. Cada método tiene sus
propias ventajas y desventajas, y se utilizan en diferentes contextos dependiendo de
los requisitos de velocidad, distancia y costo.
1. Transmisión Serial
En la transmisión serial, los datos se envían bit por bit a través de un único canal
de comunicación, uno tras otro, en una secuencia. Es el método más común utilizado
13
en la mayoría de las comunicaciones a larga distancia y en interfaces modernas como
USB, RS-232, y Ethernet.
Características
Canales: Utiliza un solo canal para la transmisión de datos.
Velocidad de Transmisión: Generalmente más lenta que la transmisión
paralela en distancias cortas, pero más eficiente para largas distancias.
Sincronización: Requiere menos problemas de sincronización, ya que solo
hay un flujo de datos.
Aplicaciones: Ideal para comunicaciones a larga distancia, como las redes de
computadoras (por ejemplo, Ethernet), conexiones de periféricos (USB), y
transmisiones de datos entre chips.
Ventajas
Costo: Es menos costosa debido a que requiere menos cables.
Interferencia Electromagnética (EMI): Menor susceptibilidad a
interferencias y crosstalk (interferencia entre líneas) en distancias largas.
Simplicidad: La configuración y el manejo son más simples que en la
transmisión paralela.
14
Velocidades Altas: Tecnologías modernas como USB y SATA han
aumentado significativamente la velocidad de la transmisión serial.
Desventajas
Velocidad: En general, puede ser más lenta que la transmisión paralela para
transferencias de datos en distancias cortas.
Complejidad de Implementación: Aunque la transmisión en sí es más
simple, la necesidad de un mayor procesamiento para empaquetar y
desempacar los datos puede agregar complejidad al sistema.
Ejemplo
USB (Universal Serial Bus): Un estándar de transmisión serial utilizado para
conectar dispositivos periféricos a una computadora. Transmite datos en serie
a alta velocidad.
2. Transmisión Paralela
En la transmisión paralela, múltiples bits se transmiten simultáneamente a través
de varios canales (o líneas de datos). Cada bit tiene su propio canal de comunicación,
lo que permite enviar un grupo de bits (normalmente 8, 16 o 32) al mismo tiempo.
Características
15
Canales: Utiliza múltiples canales para transmitir varios bits
simultáneamente.
Velocidad de Transmisión: Puede ser más rápida en distancias cortas, ya que
más datos se transmiten simultáneamente.
Sincronización: Requiere una sincronización cuidadosa para asegurar que
todos los bits lleguen al mismo tiempo.
Aplicaciones: Se utiliza principalmente en conexiones internas de un
dispositivo o en aplicaciones donde la distancia es corta, como en buses de
datos internos de una computadora (por ejemplo, el bus de memoria).
Ventajas
Velocidad: Puede ser más rápida que la transmisión serial en distancias cortas
debido a la transmisión simultánea de múltiples bits.
Uso en Hardware Interno: Ideal para la comunicación de alta velocidad
entre componentes internos de un sistema, como entre la CPU y la memoria.
Desventajas
Costo: Es más costosa debido al mayor número de cables y la necesidad de
sincronización precisa.
Interferencia y Crosstalk: Mayor susceptibilidad a interferencias y crosstalk,
especialmente en distancias largas, lo que puede afectar la integridad de los
datos.
16
Distancia Limitada: No es adecuada para transmisiones a larga distancia
debido a los problemas de sincronización y crosstalk.
Ejemplo
Conexión Paralela (Impresoras): El puerto paralelo, utilizado en impresoras
antiguas, transmitía 8 bits simultáneamente a través de 8 líneas de datos.
Comparación entre Transmisión Serial y Paralela
Aspecto Transmisión Serial Transmisión Paralela
Número de Canales 1 canal Múltiples canales (8, 16, 32,
etc.)
Velocidad en Cortas Generalmente más Generalmente más rápida
Distancias lenta
Velocidad en Largas Más eficiente y Mayor debido al número de
cables y la necesidad de
Distancias rápida sincronización
Costo Menor Mayor debido al número de
cables y la necesidad de
sincronización
Aplicaciones Comunicaciones de Conexiones de corta
larga distancia (USB, distancia, principalmente
Ethernet) dentro de dispositivos
17
(buses de datos)
Interferencia Menor Mayor susceptibilidad a
susceptibilidad crosstalk e interferencias
TRANSMISIÓN SINCRÓNICA Y ASINCRÓNICA
La transmisión sincrónica y asincrónica son dos métodos utilizados para enviar
datos entre dispositivos en sistemas de comunicación digital. Estos métodos difieren
principalmente en cómo se sincronizan los datos entre el emisor y el receptor, lo que
afecta la eficiencia, la velocidad y la complejidad de la transmisión.
1. Transmisión Asincrónica
En la transmisión asincrónica, los datos se envían bit por bit, y cada grupo de
bits (generalmente un carácter) es precedido por un bit de inicio (start bit) y seguido
por uno o más bits de parada (stop bits). No se requiere una sincronización continua
entre el emisor y el receptor.
Características
Sincronización: La sincronización se realiza para cada carácter, no se
mantiene una sincronización continua durante toda la transmisión.
18
Bits de Control: Utiliza bits de inicio y parada para indicar el comienzo y el
final de un carácter, lo que permite que el receptor sepa cuándo comenzar y
detener la lectura de los datos.
Velocidad de Transmisión: Generalmente más lenta que la transmisión
sincrónica debido al sobrecosto de los bits de control.
Uso Común: Se utiliza en comunicaciones donde la transmisión de datos no
es continua, como en conexiones de terminales a computadoras, módems, y
algunos protocolos de comunicaciones seriales (por ejemplo, RS-232).
Ventajas
Simplicidad: Es más simple de implementar porque no requiere una
sincronización continua entre el emisor y el receptor.
Flexibilidad: Los datos se pueden enviar a intervalos irregulares, lo que es
útil en aplicaciones donde los datos no se transmiten constantemente.
Desventajas
Eficiencia: Menos eficiente en el uso del ancho de banda debido al sobrecosto
de los bits de inicio y parada.
Velocidad: Generalmente más lenta en comparación con la transmisión
sincrónica, especialmente en aplicaciones que requieren grandes volúmenes
de datos.
Ejemplo
19
RS-232: Es un estándar de transmisión asincrónica utilizado para la
comunicación entre una computadora y dispositivos como módems o
impresoras.
2. Transmisión Sincrónica
En la transmisión sincrónica, los datos se envían en un flujo continuo sin bits de
inicio y parada adicionales. Tanto el emisor como el receptor están sincronizados
utilizando una señal de reloj compartida o una señal de sincronización, lo que permite
una transmisión más eficiente y rápida.
Características
Sincronización: Requiere una sincronización continua entre el emisor y el
receptor, lo que se logra mediante una señal de reloj común o mediante bits de
sincronización periódicos.
Flujo Continuo de Datos: Los datos se transmiten en bloques grandes o
frames sin necesidad de bits de inicio y parada para cada carácter.
Velocidad de Transmisión: Más rápida y eficiente que la transmisión
asincrónica, especialmente para grandes volúmenes de datos.
Uso Común: Se utiliza en aplicaciones donde se requiere alta velocidad y
eficiencia, como en redes de área local (LAN), transmisión de datos en redes
de computadoras, y tecnologías como Ethernet, USB, y SATA.
Ventajas
20
Eficiencia: Mayor eficiencia en el uso del ancho de banda debido a la
ausencia de bits de inicio y parada adicionales.
Velocidad: Permite transmisiones más rápidas y es adecuada para grandes
volúmenes de datos.
Fiabilidad: La sincronización continua reduce el riesgo de errores de
transmisión.
Desventajas
Complejidad: Más compleja de implementar porque requiere una
sincronización continua entre el emisor y el receptor.
Requisitos de Sincronización: Depende de una señal de reloj o un
mecanismo de sincronización fiable, lo que puede ser un desafío en ciertas
aplicaciones.
Ejemplo
Ethernet: Es un ejemplo de transmisión sincrónica utilizada en redes de
computadoras, donde los datos se transmiten en frames sin necesidad de bits
de inicio y parada para cada byte.
21
Comparación entre Transmisión Asincrónica y Sincrónica
Aspecto Transmisión Asincrónica Transmisión Sincrónica
Sincronización Sincronización solo al Sincronización continua
inicio de cada carácter durante toda la transmisión
Bits de Control Requiere bits de inicio y No requiere bits de inicio y
parada para cada carácter parada adicionales
Velocidad Generalmente más lenta Generalmente más rápida
Eficiencia Menos eficiente debido al Más eficiente en el uso del
sobrecosto de bits de ancho de banda
control
Complejidad Más simple de Más compleja debido a la
implementar necesidad de sincronización
22
continua
Aplicaciones Comunicaciones Comunicaciones de alta
intermitentes, dispositivos velocidad, grandes
con bajo volumen de datos volúmenes de datos
(RS-232, terminales) (Ethernet, USB, redes LAN)
FORMAS DE ONDAS DE LA COMUNICACIÓN DIGITAL
En la comunicación digital, las formas de ondas (o señales de ondas) son
representaciones gráficas de cómo varía la señal eléctrica o electromagnética en
función del tiempo. Estas formas de onda son esenciales para transmitir información
digital a través de un medio de comunicación, y su diseño impacta directamente en la
eficiencia, la robustez y la velocidad de la comunicación.
1. Señales Digitales Básicas
Las señales digitales transmiten datos utilizando dos niveles distintos de voltaje,
que representan los valores binarios 0 y 1. Las formas de onda más comunes
incluyen:
a. Non-Return to Zero (NRZ)
23
NRZ-L (Non-Return to Zero Level): En esta codificación, un "1" se
representa por un nivel alto constante de voltaje y un "0" por un nivel bajo
constante. No hay transiciones entre bits a menos que cambie el valor de los
datos.
Forma de onda:
Para una secuencia de bits 10110, la señal se mantiene alta para el
primer 1, baja para 0, y así sucesivamente.
NRZ-I (Non-Return to Zero Inverted): Aquí, un "1" causa un cambio en el
nivel de voltaje (una transición), mientras que un "0" no produce ningún
cambio.
Forma de onda:
Para la misma secuencia 10110, el primer 1 provoca una transición de
baja a alta, el 0 mantiene el nivel, el siguiente 1 provoca otra
transición, y así sucesivamente.
b. Return to Zero (RZ)
En RZ, la señal vuelve a cero (nivel base) entre cada bit, independientemente
de si es un 1 o un 0. Esto implica que un 1 se representa con una transición de
bajo a alto y de nuevo a bajo dentro del mismo intervalo de bit, mientras que
un 0 se representa simplemente permaneciendo en el nivel bajo.
Forma de onda:
24
Para la secuencia 10110, la señal sube y baja para cada 1 y permanece
en cero para cada 0.
c. Manchester Encoding
En la codificación Manchester, cada bit tiene una transición en el medio del
intervalo de bit: un 1 se representa por una transición de alto a bajo, y un 0 se
representa por una transición de bajo a alto. Esta codificación es
autosincronizada y facilita la detección de errores.
Forma de onda:
Para la secuencia 10110, se ve una transición descendente en la mitad
del intervalo para 1 y una transición ascendente para 0.
2. Modulación de Señales Digitales
Para transmitir señales digitales a través de medios analógicos, se utilizan técnicas
de modulación que transforman la forma de onda digital en una forma de onda
adecuada para la transmisión.
a. Amplitude Shift Keying (ASK)
En ASK, la amplitud de la señal portadora cambia según los datos. Un "1"
podría representarse por una amplitud alta, mientras que un "0" por una
amplitud baja.
Forma de onda:
25
Se alterna entre amplitudes altas y bajas, correspondientes a los
valores binarios transmitidos.
b. Frequency Shift Keying (FSK)
En FSK, la frecuencia de la señal portadora varía entre dos valores distintos
para representar 0 y 1. Un 1 puede corresponder a una frecuencia más alta y
un 0 a una frecuencia más baja.
Forma de onda:
La señal oscila más rápido para un 1 y más lentamente para un 0.
c. Phase Shift Keying (PSK)
En PSK, la fase de la señal portadora cambia para representar los datos. Un
cambio de fase puede representar un 1, mientras que la ausencia de cambio
puede representar un 0.
Forma de onda:
Cada 1 provoca un cambio en la fase de la señal, mientras que los 0 no
alteran la fase.
3. Consideraciones de Diseño de Formas de Onda
26
Ancho de Banda: Las formas de onda más complejas, como las que implican
cambios rápidos en la señal, requieren más ancho de banda para transmitirse
de manera efectiva.
Resistencia al Ruido: Codificaciones como Manchester son más resistentes al
ruido, ya que incluyen transiciones que permiten al receptor sincronizarse y
detectar errores.
Velocidad de Transmisión: Formas de onda como NRZ son más simples y
pueden ofrecer velocidades de transmisión más altas, pero son más
susceptibles a la pérdida de sincronización en largas distancias.
TEORIA DE LA INFORMACIÓN
La Teoría de la Información es una rama de las matemáticas y la ingeniería que
estudia la cuantificación, almacenamiento y transmisión de la información. Fue
desarrollada principalmente por Claude Shannon en 1948, y es fundamental para
comprender cómo se comunican los datos en sistemas digitales, cómo se pueden
optimizar estas comunicaciones, y cómo se puede garantizar la integridad de los datos
en presencia de ruido o errores.
1. Conceptos Básicos
27
a. Información
La información se refiere a la medida de la incertidumbre o sorpresa asociada a un
conjunto de posibles eventos o resultados. En un contexto de comunicación, la
información cuantifica el contenido informativo de un mensaje.
b. Entropía
La entropía es una medida de la cantidad promedio de información contenida en
un mensaje. En términos más técnicos, es una medida de la incertidumbre de una
fuente de información. La entropía H(X) de una variable aleatoria X que puede tomar
valores x1, x2, …, xn con probabilidades P(x1), P(x2), …, P(xn) se define como:
n
H(X) = - ∑ P(xi) log2 P(xi)
i=1
Donde:
P(xi) es la probabilidad de que ocurra el evento xi.
La entropía se mide en bits si el logaritmo es base 2.
Una mayor entropía significa mayor incertidumbre o mayor cantidad de
información promedio por símbolo.
c. Redundancia
28
La redundancia se refiere a la cantidad de información adicional en un mensaje
que no es necesaria para su comprensión pero que ayuda a corregir errores. Es
esencial en los sistemas de comunicación para mejorar la fiabilidad en presencia de
ruido.
d. Capacidad de Canal
La capacidad de un canal es la máxima tasa a la que se puede transmitir
información a través de un canal con una probabilidad arbitrariamente pequeña de
error. Se mide en bits por segundo (bps). Shannon demostró que esta capacidad
depende del ancho de banda del canal y de la relación señal-ruido (SNR).
2. Teorema de Shannon
El Teorema de Shannon, también conocido como el teorema de la codificación
de canal, establece que para cualquier canal con una capacidad C, es posible
transmitir datos a una tasa R (medida en bits por segundo) con una probabilidad de
error tan baja como se desee, siempre que R≤C. Si R>C, la probabilidad de error no
puede ser reducida a un valor arbitrariamente pequeño.
S
C = B log2 (1 + )
N
Donde:
C es la capacidad del canal en bits por segundo (bps).
B es el ancho de banda del canal en Hertz (Hz).
29
S es la potencia de la señal.
N es la potencia del ruido.
S
es la relación señal-ruido (SNR).
N
Este teorema es fundamental porque establece un límite teórico sobre la cantidad
de información que se puede transmitir de manera fiable a través de un canal ruidoso.
3. Codificación de la Información
a. Codificación de Fuente
La codificación de fuente se refiere a la compresión de datos para reducir la
redundancia sin pérdida de información. Ejemplos incluyen Huffman y Lempel-Ziv-
Welch (LZW), que se utilizan en formatos de archivo como ZIP.
b. Codificación de Canal
La codificación de canal agrega redundancia a los datos para protegerlos contra
errores durante la transmisión. Ejemplos comunes incluyen los códigos de corrección
de errores como los códigos de Hamming, Reed-Solomon, y los códigos
convolucionales.
LA AUTOINFORMACIÓN DE UNA FUENTE
La autoinformación (o información propia) de una fuente se refiere a la cantidad
de información contenida en un mensaje o evento individual. Es una medida de
cuánto "sorpresa" o incertidumbre proporciona un evento específico cuando ocurre.
30
Este concepto es clave para entender cómo se cuantifica la información en la teoría de
la información.
1. Definición de Autoinformación
La autoinformación de un evento x se define como la cantidad de información que
se obtiene al conocer que dicho evento ha ocurrido. Para un evento x con una
probabilidad P(x), la autoinformación I(x) se calcula utilizando la siguiente fórmula:
I(x) = − log2P(x)
Donde:
I(x) es la autoinformación del evento x.
P(x) es la probabilidad de que ocurra el evento x.
El logaritmo se toma en base 2, por lo que la autoinformación se mide en bits.
2. Interpretación de la Autoinformación
Eventos de Alta Probabilidad: Para eventos que ocurren con alta
probabilidad, la autoinformación es baja. Esto es porque un evento que es
muy probable proporciona menos sorpresa cuando ocurre. Por ejemplo, si un
evento tiene una probabilidad de 0.9, su autoinformación es baja:
I(x) = − log2 0.9 ≈ 0.15 bits
Eventos de Baja Probabilidad: Para eventos que ocurren con baja
probabilidad, la autoinformación es alta. Un evento raro proporciona más
31
sorpresa y, por ende, más información. Por ejemplo, si un evento tiene una
probabilidad de 0.01, su autoinformación es alta:
I(x) = − log2 0.01 = 6.64 bits
3. Ejemplo de Cálculo de Autoinformación
Supongamos que tenemos una fuente que emite cuatro eventos con probabilidades
diferentes: A, B, C y D con probabilidades P(A) = 0.5, P(B) = 0.25, P(C) = 0.125, y
P(D) = 0.125. Calculamos la autoinformación para cada evento:
Para el evento A:
I(A) = − log2 0.5 = 1 bit
Para el evento B:
I(B) = − log2 0.25 = 2 bits
Para el evento C:
I(C) = −log2 0.125 = 3 bits
Para el evento D:
I(D) = − log2 0.125 = 3 bits
4. Relación con la Entropía
32
La autoinformación de un evento es un caso específico del concepto general de
entropía. Mientras que la autoinformación mide la cantidad de información de un
único evento, la entropía mide la cantidad promedio de información o incertidumbre
en una fuente de datos completa, tomando en cuenta la distribución de probabilidad
de todos los eventos posibles.
La entropía H(X) se define como el valor esperado de la autoinformación,
calculado como:
H(X) = − ∑ P(xi) log2 P(xi)
i
Donde la suma se realiza sobre todos los eventos posibles xi de la fuente X.
ENTROPÍA Y VELOCIDAD DE UNA ENTROPÍA DE UNA FUENTE
La entropía y la velocidad de entropía son conceptos clave en la teoría de la
información que permiten medir la cantidad promedio de información que una fuente
de datos genera por símbolo o por unidad de tiempo. Estos conceptos son
fundamentales para diseñar sistemas de comunicación eficientes y para entender la
capacidad de los canales en transmitir información de manera óptima.
1. Entropía de una Fuente
La entropía es una medida de la incertidumbre o el contenido promedio de
información que una fuente de datos genera. Matemáticamente, se define como el
valor esperado de la autoinformación de los símbolos que genera una fuente de
información.
33
Si una fuente genera n símbolos x1, x2, …, xn con probabilidades P(x1), P(x2),…,
P(xn), la entropía H(X) de la fuente X se calcula mediante la siguiente fórmula:
n
H(X) = - ∑ P(xi) log2 P(xi)
i=1
Donde:
P(xi) es la probabilidad de que ocurra el símbolo xi.
El logaritmo es en base 2, lo que implica que la entropía se mide en bits.
Interpretación:
Mayor Entropía: Cuanto mayor es la entropía, más incertidumbre hay en el
mensaje y mayor cantidad de información por símbolo. Esto ocurre cuando
los eventos son igualmente probables.
Menor Entropía: Cuando la entropía es baja, los eventos son más predecibles
(menos inciertos), por lo que cada símbolo aporta menos información.
Ejemplo de Cálculo de Entropía
Consideremos una fuente de información con tres símbolos A, B, y C con
probabilidades P(A) = 0.5, P(B) = 0.25, y P(C) = 0.25. La entropía se calcula como:
H(X) = − [P(A)log2 P(A) + P(B)log2 P(B) + P(C)log2P(C)]
H(X) = − [0.5log20.5 + 0.25log20.25 + 0.25log20.25]
H(X) = − [0.5(−1) + 0.25(−2) + 0.25(−2)]
34
H(X) = 1 + 0.5 + 0.5 = 2 bits
Esto significa que, en promedio, cada símbolo generado por esta fuente contiene 2
bits de información.
Velocidad de Entropía de una Fuente
La velocidad de entropía o tasa de entropía de una fuente de información mide
la cantidad promedio de información generada por la fuente por unidad de tiempo o
por símbolo emitido. Se utiliza cuando la fuente produce símbolos de forma
secuencial o en serie a lo largo del tiempo.
Si una fuente genera un mensaje compuesto por N símbolos por segundo, y la
entropía de cada símbolo es H(X), la velocidad de entropía R de la fuente se define
como:
R = H(X) × N
Donde:
H(X) es la entropía de la fuente en bits por símbolo.
N es la cantidad de símbolos generados por segundo.
R es la velocidad de entropía, medida en bits por segundo (bps).
Ejemplo de Velocidad de Entropía
Supongamos que una fuente genera 100 símbolos por segundo y que la entropía de
cada símbolo es de 2 bits. Entonces, la velocidad de entropía sería:
35
R = 2bits/símbolo × 100símbolos/segundo = 200bits/segundo
Esto significa que la fuente está generando 200 bits de información por segundo.
Importancia de la Entropía y Velocidad de Entropía
Compresión de datos: La entropía es la base teórica para la compresión de
datos. Si conocemos la entropía de una fuente, podemos diseñar esquemas de
codificación que aproximen la longitud mínima de los mensajes sin perder
información.
Capacidad de canal: La velocidad de entropía es crucial para saber cuánto
ancho de banda se necesita para transmitir la información de manera efectiva.
Un canal de comunicación debe tener una capacidad igual o superior a la
velocidad de entropía para transmitir los datos sin pérdidas.
CAPACIDAD DE CANALES DISCRETOS Y CONTINUOS
La capacidad de un canal es una medida fundamental en la teoría de la
información que define la tasa máxima a la que se pueden transmitir datos a través de
un canal de comunicación con una probabilidad arbitrariamente baja de error. Existen
dos tipos de canales que se estudian comúnmente: los canales discretos y los canales
continuos, y la capacidad de ambos se determina utilizando diferentes enfoques.
1. Capacidad de un Canal Discreto
Un canal discreto es aquel en el que tanto la entrada como la salida consisten en
un conjunto finito de símbolos. La capacidad de un canal discreto mide cuánta
36
información (en bits por símbolo) puede ser transmitida a través del canal de manera
confiable.
a. Modelo de Canal Discreto
Un canal discreto suele representarse mediante una matriz de probabilidad de
transición P(y∣x), que describe la probabilidad de recibir un símbolo de salida y dado
que se envió un símbolo de entrada x. Este modelo incluye canales con ruido, donde
los errores pueden ocurrir durante la transmisión.
b. Capacidad de Canal (Shannon)
La capacidad de un canal discreto se puede calcular a partir de la entropía y la
información mutua entre los símbolos de entrada y salida. La información mutua
(X;Y) mide la cantidad de información que una variable aleatoria X (entrada) revela
sobre otra variable aleatoria Y (salida).
La capacidad de canal C se define como el máximo de la información mutua
sobre todas las distribuciones posibles de la entrada X:
max
C= I(X;Y)
P (X )
Donde I(X;Y) es la información mutua entre la entrada X y la salida Y, y se
calcula como:
I(X;Y) = H(Y) − H(Y∣X)
H(Y) es la entropía de la salida.
37
H(Y∣X) es la entropía condicional que mide la incertidumbre de la salida dada
la entrada.
El valor resultante de C se mide en bits por símbolo. El canal discreto más simple
es el canal binario simétrico (BSC), donde la capacidad depende de la probabilidad
de error del canal.
Ejemplo: Canal Binario Simétrico (BSC)
En un canal binario simétrico con una probabilidad ppp de error por bit, la
capacidad se puede calcular como:
C = 1 − H(p)
Donde H(p) es la entropía binaria de la probabilidad de error:
H(p) = − plog2 p − (1−p) log2(1−p)
2. Capacidad de un Canal Continuo
Un canal continuo es aquel en el que la entrada y/o la salida pueden tomar un
número infinito de valores. Un ejemplo común es un canal de comunicación
analógica o un canal digital que se modela como continúo debido a la transmisión de
señales a través de medios físicos.
a. Modelo de Canal Continuo
El modelo más común de un canal continuo es el canal con ruido aditivo
gaussiano blanco (AWGN, por sus siglas en inglés). En este modelo, la señal
transmitida se ve afectada por ruido gaussiano con una media de 0 y una varianza
38
finita N0/2. La señal de entrada X(t) y la señal recibida Y(t) están relacionadas de la
siguiente manera:
Y(t) = X(t) + N(t)
Donde N(t) es el ruido gaussiano.
b. Capacidad de Canal (Shannon-Hartley)
La capacidad de un canal continuo con ruido aditivo gaussiano depende del ancho
S
de banda B del canal y de la relación señal-ruido (SNR), que se denota como ,
N
donde S es la potencia de la señal y N es la potencia del ruido. La fórmula de
Shannon-Hartley para la capacidad de un canal continuo se expresa como:
S
C = Blog2 (1 + )
N
Donde:
C es la capacidad del canal en bits por segundo (bps).
B es el ancho de banda del canal en Hertz (Hz).
S
es la relación señal-ruido (SNR), una medida de la calidad de la señal en
N
comparación con el ruido.
Interpretación:
39
Si la SNR es alta (baja cantidad de ruido), la capacidad del canal aumenta,
permitiendo una transmisión de datos más rápida.
Si la SNR es baja (alta cantidad de ruido), la capacidad disminuye, limitando
la tasa de transmisión de datos.
Ejemplo de Cálculo de Capacidad
Si un canal tiene un ancho de banda de B = 1 MHz (1 millón de Hertz) y una
S
relación señal-ruido = 10 (10 dB), la capacidad del canal sería:
N
C = 1 × 106log2 (1 + 10)
C = 1 × 106log2(11) ≈ 1 × 106 × 3.46 = 3.46 Mbps
Este canal puede transmitir hasta 3.46 Megabits por segundo de manera confiable.
Comparación entre Canales Discretos y Continuos
Capacidad en Canales Discretos: Se mide en bits por símbolo. Está
determinada por la probabilidad de transición entre símbolos y maximiza la
información mutua entre la entrada y la salida del canal.
Capacidad en Canales Continuos: Se mide en bits por segundo. Depende
del ancho de banda del canal y la relación señal-ruido. Utiliza la fórmula de
Shannon-Hartley para su cálculo.
40
CODIFICACIÓN
La codificación es un proceso esencial en los sistemas de comunicación que
consiste en transformar la información en una secuencia de símbolos o señales que
puedan ser transmitidos eficientemente a través de un canal de comunicación. Existen
varios tipos de codificación, dependiendo del propósito que se desee lograr, como la
codificación de fuente para reducir la redundancia y la codificación de canal para
proteger los datos contra errores.
1. Codificación de Fuente
La codificación de fuente se refiere al proceso de representar los datos de una
manera que minimice la cantidad de bits necesarios para transmitirlos, eliminando
redundancias. Este tipo de codificación es fundamental para la compresión de datos,
y tiene como objetivo representar la información de la forma más eficiente posible sin
pérdida de datos (en el caso de compresión sin pérdidas) o con una pérdida
controlada de calidad (en el caso de compresión con pérdidas).
a. Compresión sin pérdidas
41
En la compresión sin pérdidas, los datos originales pueden ser recuperados
exactamente a partir de los datos codificados. Algunos algoritmos comunes son:
Codificación de Huffman: Asigna códigos más cortos a los símbolos más
probables y códigos más largos a los menos probables, logrando una
representación eficiente. Se basa en la probabilidad de aparición de los
símbolos.
Codificación de Shannon-Fano: Es un algoritmo similar a Huffman, donde
se crean códigos binarios para cada símbolo, basados en su probabilidad de
aparición.
Ejemplo de Codificación de Huffman: Supongamos que tenemos un mensaje
con los símbolos A, B, C y D con las siguientes probabilidades:
P(A) = 0.4
P(B) = 0.3
P(C) = 0.2
P(D) = 0.1
Podemos crear un árbol de Huffman que asigna códigos binarios a cada símbolo:
A: 0
B: 10
C: 110
42
D: 111
Esto minimiza la longitud media de los códigos, reduciendo la cantidad de bits
necesarios para representar el mensaje.
b. Compresión con pérdidas
En la compresión con pérdidas, parte de la información se descarta para reducir
significativamente el tamaño de los datos. Se usa en aplicaciones como la compresión
de imágenes, video y audio (JPEG, MP3, etc.). La calidad puede verse degradada,
pero la tasa de compresión es mucho mayor que en los métodos sin pérdida.
2. Codificación de Canal
La codificación de canal se utiliza para proteger los datos durante la transmisión,
garantizando que los errores causados por el ruido en el canal puedan ser detectados y
corregidos. La información original se transforma añadiendo redundancia
controlada que permite al receptor detectar y corregir errores sin necesidad de
retransmitir los datos.
a. Detección de Errores
Permite al receptor detectar si los datos recibidos contienen errores. Los métodos
más comunes son:
Chequeo de paridad: Se añade un bit extra que indica si el número de bits 1
en el mensaje es par o impar.
43
CRC (Cyclic Redundancy Check): Se utiliza para verificar la integridad de
los datos mediante la división de los datos entre un polinomio generador. El
resultado se adjunta a los datos transmitidos para su verificación en el
receptor.
b. Corrección de Errores
Los métodos de codificación de corrección de errores permiten no solo detectar
los errores, sino también corregirlos sin necesidad de retransmisión. Algunos de los
métodos más utilizados son:
Códigos de Hamming: Añaden bits de paridad a los datos, permitiendo
corregir errores de un solo bit y detectar errores de dos bits.
Códigos convolucionales: Cada bit de entrada afecta no solo el bit actual de
salida, sino también varios bits de salida consecutivos, proporcionando
redundancia que ayuda a corregir errores.
Códigos LDPC (Low-Density Parity-Check): Utilizados en sistemas de
comunicación modernos (como Wi-Fi y 5G), permiten corregir errores con
una alta eficiencia de corrección.
Ejemplo de Códigos de Hamming: En un código Hamming (7,4), se envían 7
bits, de los cuales 4 son datos y 3 son bits de paridad. Si se produce un error en uno
de los bits transmitidos, el receptor puede identificar la posición exacta del bit
erróneo y corregirlo.
c. Capacidad del canal y codificación
44
El teorema de Shannon establece que, si la tasa de transmisión de datos es menor
que la capacidad del canal (medida en bits por segundo), existe un esquema de
codificación que permite transmitir datos sin errores, incluso en presencia de ruido.
3. Codificación de Línea
La codificación de línea se refiere a cómo se representan las señales digitales en
una forma que sea adecuada para la transmisión a través de un medio físico (como
cables o fibra óptica). Aquí, los datos binarios se convierten en señales eléctricas o
ópticas.
Algunos esquemas de codificación de línea comunes incluyen:
NRZ (Non-Return-to-Zero): Representa los bits 0 y 1 con dos niveles de
voltaje diferentes, sin retornar a un nivel neutro entre bits.
Manchester: Un esquema que garantiza una transición de voltaje en cada bit,
lo que facilita la sincronización entre transmisor y receptor.
Codificación diferencial: La transmisión de un bit depende del valor del bit
anterior, lo que mejora la robustez frente a errores.
4. Codificación Modulación
Cuando los datos digitales se transmiten a través de un canal analógico, como en
las comunicaciones inalámbricas o la fibra óptica, se requiere un proceso llamado
modulación. La modulación digital es un tipo de codificación en la que los datos
45
binarios se utilizan para modificar las propiedades de una señal portadora (frecuencia,
amplitud o fase).
Algunos tipos comunes de modulación digital son:
ASK (Amplitude Shift Keying): La amplitud de la señal portadora se
modifica según los datos digitales.
FSK (Frequency Shift Keying): La frecuencia de la señal portadora cambia
según los bits transmitidos.
PSK (Phase Shift Keying): La fase de la señal portadora se cambia en
función de los datos.
5. Codificación de Fuente y de Canal Combinadas
En muchos sistemas de comunicación, se utilizan tanto la codificación de fuente
como la codificación de canal. La codificación de fuente se utiliza para comprimir
los datos, y la codificación de canal se emplea para protegerlos contra errores. El
reto es diseñar un sistema que optimice el uso del ancho de banda y minimice la
probabilidad de error en la transmisión, al mismo tiempo que garantiza que los datos
se transmitan lo más eficientemente posible.
46
CONCLUSIÓN
La teoría de la comunicación digital abarca aspectos esenciales como los
elementos de un sistema de comunicaciones, la transmisión y codificación de datos, y
la teoría de la información. La señal digital y la transmisión digital son claves para
enviar información de manera eficiente y confiable, permitiendo la transmisión en
modos seriales o paralelos, y de forma sincrónica o asincrónica. Las formas de onda
son cruciales para representar los datos en medios físicos. La teoría de la información,
con conceptos como la entropía y la autoinformación, mide la incertidumbre de una
fuente y su eficiencia. La capacidad de un canal, ya sea discreto o continuo,
determina la tasa máxima de transmisión de datos. La codificación, tanto de fuente
como de canal, optimiza la representación de los datos y protege la información
contra errores. En resumen, estos conceptos permiten diseñar sistemas de
comunicación que balancean eficiencia, confiabilidad y uso óptimo de recursos,
garantizando la integridad y transmisión efectiva de la información.
47
REFERENCIAS
Claude E. Shannon (1948). "A Mathematical Theory of Communication". The
Bell System Technical Journal, Vol. 27, pp. 379-423, 623-656.
Obra pionera que introdujo la teoría de la información y estableció conceptos
clave como la entropía, la capacidad de canal y la información mutua.
Simon Haykin (2001). Communication Systems. 4th Edition. John Wiley & Sons.
Este libro es una referencia clave sobre sistemas de comunicación, abordando
tanto la transmisión digital como la codificación de fuente y canal.
John G. Proakis y Masoud Salehi (2007). Digital Communications. 5th Edition.
McGraw-Hill.
Una obra completa sobre comunicaciones digitales que cubre los aspectos
teóricos y prácticos de la codificación, modulación, y los principios
fundamentales de los sistemas de comunicación.
Andrea Goldsmith (2005). Wireless Communications. Cambridge University
Press.
Este libro ofrece una visión detallada sobre las comunicaciones inalámbricas y
los conceptos de transmisión y capacidad de canal en entornos tanto discretos
como continuos.
48
49