0% encontró este documento útil (0 votos)
55 vistas51 páginas

Teoria de La Comunicación Digital

Cargado por

daniel.quin97
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd
0% encontró este documento útil (0 votos)
55 vistas51 páginas

Teoria de La Comunicación Digital

Cargado por

daniel.quin97
Derechos de autor
© © All Rights Reserved
Nos tomamos en serio los derechos de los contenidos. Si sospechas que se trata de tu contenido, reclámalo aquí.
Formatos disponibles
Descarga como DOCX, PDF, TXT o lee en línea desde Scribd

Universidad Alejandro de Humboldt

Carrera Ingeniería en Informática

Asignatura Teoría de la Comunicación Digital

Sección: DCM0801IIV1

SISTEMA DE COMUNICACIONES. TRANSMISIÓN Y

COMUNICACIÓN DE DATOS. TEORÍA DE LA INFORMACIÓN

Profesor: Alumno:

Ing. Alexander Moya Victor Quintero V-25.795.583


Caracas, 10 de septiembre de 2024

INDICE

INTRODUCCIÓN....................................................................................................1

SISTEMAS DE COMUNICACIONES....................................................................2

CONCEPTOS BÁSICOS.........................................................................................2

TRANSMISIÓN Y COMUNICACIÓN DE DATOS............................................12

TRANSMISIÓN SINCRÓNICA Y ASINCRÓNICA...........................................18

FORMAS DE ONDAS DE LA COMUNICACIÓN DIGITAL............................23

TEORIA DE LA INFORMACIÓN........................................................................27

LA AUTOINFORMACIÓN DE UNA FUENTE..................................................30

ENTROPÍA Y VELOCIDAD DE UNA ENTROPÍA DE UNA FUENTE...........32

CAPACIDAD DE CANALES DISCRETOS Y CONTINUOS.............................35

CODIFICACIÓN....................................................................................................40

CONCLUSIÓN.......................................................................................................46

REFERENCIAS......................................................................................................47
INTRODUCCIÓN

La comunicación digital es el pilar de los sistemas modernos de transmisión de

información, donde los datos son enviados a través de canales que varían en

características y medios. Este proceso involucra una serie de elementos

interconectados, desde la generación de señales digitales hasta su codificación y

transmisión por medios físicos. El estudio de la teoría de la información, con

conceptos como la entropía y la capacidad de canal, nos permite comprender los

límites y la eficiencia de la transmisión de datos. Además, la codificación de fuente

optimiza la representación de la información, mientras que la codificación de canal

protege contra los errores durante la transmisión. Esta combinación de conceptos

asegura que la información sea transmitida de manera efectiva, eficiente y confiable

en una variedad de entornos de comunicación.

1
SISTEMAS DE COMUNICACIONES

Un Sistema de Comunicaciones es un conjunto de componentes que permite la

transferencia de información desde un emisor hasta un receptor a través de un medio

de transmisión. Estos sistemas son fundamentales en la era digital, ya que facilitan la

comunicación entre dispositivos y personas, permitiendo la transferencia de datos,

voz, video, y otros tipos de información.

CONCEPTOS BÁSICOS

ELEMENTOS

Un sistema de comunicaciones está compuesto por varios elementos clave:

1. Fuente de Información: Genera el mensaje a transmitir (datos, audio, video,

etc.).

2. Transmisor: Convierte y modula el mensaje en una señal adecuada para el

canal de comunicación.

3. Canal de Comunicación: Medio (cable, aire, fibra óptica) que transporta la

señal; puede introducir ruido.

4. Ruido: Interferencia no deseada que afecta la calidad de la señal.

5. Receptor: Demodula y decodifica la señal recibida para recuperar el mensaje

original.

6. Destino: Punto final donde se utiliza la información recibida.

2
7. Codificación/Decodificación: Procesos que adaptan y recuperan la

información para transmisión eficiente y con menor error.

8. Modulación/Demodulación: Adaptan la señal de información a las

características del canal.

9. Control y Sincronización: Garantizan la correcta transmisión y recepción

alineando temporalmente el sistema.

10. Procesamiento de Señales: Mejora la eficiencia y calidad de la transmisión

mediante técnicas de filtrado y compresión.

Estos elementos trabajan en conjunto para asegurar la transmisión eficiente y

precisa de la información desde el emisor hasta el receptor.

LA SEÑAL DIGITAL

La señal digital en los sistemas de comunicaciones es una representación discreta

de la información, donde los datos se codifican en un conjunto de valores finitos,

típicamente como secuencias de bits (0s y 1s). A diferencia de las señales analógicas,

que varían de manera continua, las señales digitales son más resistentes al ruido y

pueden ser transmitidas, procesadas y almacenadas de manera más eficiente.

Características de la Señal Digital

1. Discretización: La señal digital se obtiene mediante la discretización de una

señal analógica, lo que significa que la señal se muestrea en intervalos de

tiempo regulares y se cuantiza en niveles de amplitud finitos.

3
2. Codificación Binaria: La información se codifica en bits (0s y 1s). Cada bit

representa un valor binario, y múltiples bits juntos pueden representar

caracteres, números, imágenes, sonido, etc.

3. Transmisión en Pulsos: La señal digital se transmite como una serie de

pulsos eléctricos, ópticos, o de radio, que corresponden a los valores binarios

de los bits.

Ventajas de la Señal Digital

1. Resistencia al Ruido: Las señales digitales son más robustas frente al ruido

que las señales analógicas. Esto se debe a que incluso si el ruido afecta la

señal, mientras los niveles de voltaje se mantengan dentro de un umbral

aceptable, la señal digital puede ser recuperada sin errores.

2. Facilidad de Procesamiento: Las señales digitales pueden ser fácilmente

procesadas, comprimidas, y encriptadas utilizando algoritmos matemáticos.

3. Multiplexación: Es más fácil combinar múltiples señales digitales en un solo

canal mediante técnicas de multiplexación por división de tiempo (TDM).

4. Corrección de Errores: Los sistemas digitales pueden utilizar técnicas de

codificación de canal para detectar y corregir errores durante la transmisión.

4
Modulación Digital

En sistemas de comunicaciones digitales, la modulación digital es el proceso de

modificar una señal portadora en función de la secuencia de bits a transmitir. Los

principales tipos de modulación digital incluyen:

1. Modulación por Desplazamiento de Amplitud (ASK):

 La amplitud de la señal portadora varía según los bits transmitidos (0 o

1).

2. Modulación por Desplazamiento de Frecuencia (FSK):

 La frecuencia de la señal portadora cambia según los bits.

3. Modulación por Desplazamiento de Fase (PSK):

 La fase de la señal portadora se altera en función de los bits. Una

forma común es la BPSK (modulación por desplazamiento de fase

binaria), donde un bit cambia la fase de la señal portadora entre dos

estados posibles.

4. Modulación de Amplitud en Cuadratura (QAM):

 Combina ASK y PSK para transmitir dos señales modulares en la

misma frecuencia portadora, permitiendo una mayor eficiencia

espectral.

5
Ejemplo de Transmisión Digital

Consideremos un sistema que utiliza BPSK. En este caso, la señal modulada es:

s(t) = A cos (2πfct + π (1 − bk))

Donde:

 A es la amplitud de la portadora.

 fc es la frecuencia de la portadora.

 bk es el bit a transmitir, con valores 0 o 1.

Detección y Decodificación

Al recibir la señal digital, el receptor debe detectar los bits transmitidos. Esto se

hace comparando la señal recibida con los valores esperados y decodificando la

secuencia de bits. Técnicas como la detección de errores (CRC) y la corrección de

errores (códigos Hamming) son usadas para mejorar la fiabilidad de la transmisión.

LA TRANSMISIÓN DIGITAL EN LAS TELECOMUNICACIONES

La transmisión digital en las telecomunicaciones se refiere al proceso de enviar

información codificada digitalmente (como secuencias de bits) a través de un medio

de comunicación. Esta tecnología es la base de las comunicaciones modernas, ya que

6
permite una transmisión más eficiente, confiable y robusta en comparación con la

transmisión analógica.

Características de la Transmisión Digital

1. Codificación Digital:

 La información, ya sea voz, datos o video, se convierte en una

secuencia de bits (0s y 1s). Esta conversión se realiza a través de

procesos de muestreo y cuantización en el caso de señales analógicas,

o directamente en el caso de datos digitales.

2. Uso de Señales Digitales:

 Las señales digitales se caracterizan por tener valores discretos en

lugar de continuos. Esto significa que las señales son representadas

como una serie de pulsos, donde cada pulso tiene un valor que

representa un bit (0 o 1).

3. Mayor Inmunidad al Ruido:

 Las señales digitales son más resistentes al ruido y a las interferencias,

lo que permite una transmisión más precisa y con menos errores.

Incluso si el ruido afecta la señal, mientras los niveles estén dentro de

un rango aceptable, los datos pueden ser recuperados correctamente.

4. Técnicas de Modulación Digital:

7
 Para transmitir señales digitales a través de medios analógicos (como

cables, ondas de radio, fibra óptica), se utilizan técnicas de modulación

digital, como la Modulación por Desplazamiento de Amplitud (ASK),

Modulación por Desplazamiento de Frecuencia (FSK), Modulación

por Desplazamiento de Fase (PSK), y Modulación en Amplitud en

Cuadratura (QAM).

Ventajas de la Transmisión Digital

1. Alta Calidad y Fiabilidad:

 La transmisión digital permite la regeneración de señales a lo largo del

canal, lo que significa que las señales pueden ser amplificadas sin

degradación. Esto asegura que la información llegue con alta calidad,

incluso a largas distancias.

2. Corrección de Errores:

 Los sistemas de transmisión digital pueden emplear técnicas de

corrección de errores, como códigos de corrección (por ejemplo,

códigos Hamming, códigos Reed-Solomon), que permiten detectar y

corregir errores que ocurren durante la transmisión.

3. Compresión de Datos:

 La transmisión digital permite la compresión de datos, lo que reduce el

ancho de banda necesario para transmitir grandes cantidades de

información, como en el caso de video y audio.

8
4. Multiplexación Eficiente:

 Es más fácil combinar múltiples señales digitales en un solo canal

mediante técnicas como la multiplexación por división de tiempo

(TDM), lo que maximiza el uso del ancho de banda disponible.

5. Seguridad y Encriptación:

 La transmisión digital facilita la implementación de técnicas de

encriptación para proteger la información durante la transmisión, lo

que es esencial en aplicaciones de telecomunicaciones como la banca

en línea y las comunicaciones militares.

Procesos Clave en la Transmisión Digital

1. Muestreo y Cuantización:

 En el caso de señales analógicas, como la voz, el primer paso es el

muestreo, que consiste en tomar muestras discretas de la señal a

intervalos regulares. Luego, estas muestras se cuantizan, asignándoles

valores binarios.

 La frecuencia de muestreo debe ser al menos el doble de la frecuencia

máxima de la señal (criterio de Nyquist) para evitar la aliasing.

9
2. Codificación:

 La información cuantizada se codifica en secuencias de bits que

pueden ser fácilmente transmitidas y procesadas. En

telecomunicaciones, se pueden usar diferentes tipos de codificación,

como:

 Codificación NRZ (Non-Return to Zero).

 Codificación Manchester.

 Codificación RZ (Return to Zero).

3. Modulación Digital:

 La señal binaria resultante se modula en una portadora de frecuencia

adecuada para la transmisión a través del medio. Dependiendo del

sistema y el medio, se pueden usar varias técnicas de modulación:

 ASK (Amplitude Shift Keying): Modificación de la amplitud

de la portadora.

 FSK (Frequency Shift Keying): Cambio en la frecuencia de

la portadora.

 PSK (Phase Shift Keying): Cambio en la fase de la portadora.

10
 QAM (Quadrature Amplitude Modulation): Combina ASK

y PSK para una transmisión más eficiente.

4. Multiplexación:

 En sistemas de telecomunicaciones, se pueden combinar múltiples

señales digitales para ser transmitidas a través de un solo canal

mediante técnicas de multiplexación, como TDM (Time Division

Multiplexing).

5. Transmisión y Regeneración:

 La señal digital modulada se transmite a través del canal. A medida

que la señal viaja, puede ser regenerada en puntos intermedios para

restaurar los niveles de señal y eliminar el ruido acumulado.

6. Demodulación y Decodificación:

 En el receptor, la señal digital se demodula para recuperar la secuencia

de bits original. Luego, se decodifica y, si es necesario, se

descomprime y se aplican técnicas de corrección de errores para

obtener la información transmitida.

Ejemplo: Transmisión Digital en Redes de Telecomunicaciones

Un ejemplo típico es la transmisión de datos en una red de telecomunicaciones

como el internet. Los datos (por ejemplo, una página web) se dividen en paquetes, se

11
codifican en bits y se transmiten a través de una serie de routers y switches que

regeneran y encaminan los datos hasta su destino final, donde son decodificados y

reensamblados.

TRANSMISIÓN Y COMUNICACIÓN DE DATOS

La transmisión y comunicación de datos se refiere al proceso de enviar

información de un punto a otro a través de un medio de comunicación, utilizando

técnicas específicas para garantizar que los datos lleguen de manera precisa, eficiente

y segura. Este proceso es fundamental en las redes de telecomunicaciones, Internet,

redes de área local (LAN), y otros sistemas de comunicación.

Conceptos Clave en la Transmisión y Comunicación de Datos

1. Datos y Señales:

 Datos: La información que se desea transmitir, que puede ser texto,

números, imágenes, audio o video.

 Señal: La forma física en la que se transmiten los datos a través de un

medio. Las señales pueden ser analógicas o digitales.

2. Transmisión de Datos:

 Involucra el envío de datos desde un emisor (transmisor) hasta un

receptor a través de un medio de comunicación (canal). Puede ser

transmisión analógica o transmisión digital.

12
3. Modos de Transmisión:

 Simplex: La transmisión se realiza en una sola dirección (por ejemplo,

la transmisión de televisión).

 Half-Duplex: La transmisión se realiza en ambas direcciones, pero no

simultáneamente (por ejemplo, radios de dos vías).

 Full-Duplex: La transmisión se realiza en ambas direcciones

simultáneamente (por ejemplo, llamadas telefónicas).

4. Medios de Transmisión:

 Los datos se transmiten a través de diversos medios, que pueden ser

guiados (cables de cobre, fibra óptica) o no guiados (ondas de radio,

microondas, satélite).

TRANSMISIÓN SERIAL O PARALELA

La transmisión serial y paralela son dos métodos diferentes para enviar datos

entre dispositivos o a través de un canal de comunicación. Cada método tiene sus

propias ventajas y desventajas, y se utilizan en diferentes contextos dependiendo de

los requisitos de velocidad, distancia y costo.

1. Transmisión Serial

En la transmisión serial, los datos se envían bit por bit a través de un único canal

de comunicación, uno tras otro, en una secuencia. Es el método más común utilizado

13
en la mayoría de las comunicaciones a larga distancia y en interfaces modernas como

USB, RS-232, y Ethernet.

Características

 Canales: Utiliza un solo canal para la transmisión de datos.

 Velocidad de Transmisión: Generalmente más lenta que la transmisión

paralela en distancias cortas, pero más eficiente para largas distancias.

 Sincronización: Requiere menos problemas de sincronización, ya que solo

hay un flujo de datos.

 Aplicaciones: Ideal para comunicaciones a larga distancia, como las redes de

computadoras (por ejemplo, Ethernet), conexiones de periféricos (USB), y

transmisiones de datos entre chips.

Ventajas

 Costo: Es menos costosa debido a que requiere menos cables.

 Interferencia Electromagnética (EMI): Menor susceptibilidad a

interferencias y crosstalk (interferencia entre líneas) en distancias largas.

 Simplicidad: La configuración y el manejo son más simples que en la

transmisión paralela.

14
 Velocidades Altas: Tecnologías modernas como USB y SATA han

aumentado significativamente la velocidad de la transmisión serial.

Desventajas

 Velocidad: En general, puede ser más lenta que la transmisión paralela para

transferencias de datos en distancias cortas.

 Complejidad de Implementación: Aunque la transmisión en sí es más

simple, la necesidad de un mayor procesamiento para empaquetar y

desempacar los datos puede agregar complejidad al sistema.

Ejemplo

 USB (Universal Serial Bus): Un estándar de transmisión serial utilizado para

conectar dispositivos periféricos a una computadora. Transmite datos en serie

a alta velocidad.

2. Transmisión Paralela

En la transmisión paralela, múltiples bits se transmiten simultáneamente a través

de varios canales (o líneas de datos). Cada bit tiene su propio canal de comunicación,

lo que permite enviar un grupo de bits (normalmente 8, 16 o 32) al mismo tiempo.

Características

15
 Canales: Utiliza múltiples canales para transmitir varios bits

simultáneamente.

 Velocidad de Transmisión: Puede ser más rápida en distancias cortas, ya que

más datos se transmiten simultáneamente.

 Sincronización: Requiere una sincronización cuidadosa para asegurar que

todos los bits lleguen al mismo tiempo.

 Aplicaciones: Se utiliza principalmente en conexiones internas de un

dispositivo o en aplicaciones donde la distancia es corta, como en buses de

datos internos de una computadora (por ejemplo, el bus de memoria).

Ventajas

 Velocidad: Puede ser más rápida que la transmisión serial en distancias cortas

debido a la transmisión simultánea de múltiples bits.

 Uso en Hardware Interno: Ideal para la comunicación de alta velocidad

entre componentes internos de un sistema, como entre la CPU y la memoria.

Desventajas

 Costo: Es más costosa debido al mayor número de cables y la necesidad de

sincronización precisa.

 Interferencia y Crosstalk: Mayor susceptibilidad a interferencias y crosstalk,

especialmente en distancias largas, lo que puede afectar la integridad de los

datos.

16
 Distancia Limitada: No es adecuada para transmisiones a larga distancia

debido a los problemas de sincronización y crosstalk.

Ejemplo

 Conexión Paralela (Impresoras): El puerto paralelo, utilizado en impresoras

antiguas, transmitía 8 bits simultáneamente a través de 8 líneas de datos.

Comparación entre Transmisión Serial y Paralela

Aspecto Transmisión Serial Transmisión Paralela

Número de Canales 1 canal Múltiples canales (8, 16, 32,

etc.)

Velocidad en Cortas Generalmente más Generalmente más rápida

Distancias lenta

Velocidad en Largas Más eficiente y Mayor debido al número de


cables y la necesidad de
Distancias rápida sincronización

Costo Menor Mayor debido al número de

cables y la necesidad de

sincronización

Aplicaciones Comunicaciones de Conexiones de corta

larga distancia (USB, distancia, principalmente

Ethernet) dentro de dispositivos

17
(buses de datos)

Interferencia Menor Mayor susceptibilidad a

susceptibilidad crosstalk e interferencias

TRANSMISIÓN SINCRÓNICA Y ASINCRÓNICA

La transmisión sincrónica y asincrónica son dos métodos utilizados para enviar

datos entre dispositivos en sistemas de comunicación digital. Estos métodos difieren

principalmente en cómo se sincronizan los datos entre el emisor y el receptor, lo que

afecta la eficiencia, la velocidad y la complejidad de la transmisión.

1. Transmisión Asincrónica

En la transmisión asincrónica, los datos se envían bit por bit, y cada grupo de

bits (generalmente un carácter) es precedido por un bit de inicio (start bit) y seguido

por uno o más bits de parada (stop bits). No se requiere una sincronización continua

entre el emisor y el receptor.

Características

 Sincronización: La sincronización se realiza para cada carácter, no se

mantiene una sincronización continua durante toda la transmisión.

18
 Bits de Control: Utiliza bits de inicio y parada para indicar el comienzo y el

final de un carácter, lo que permite que el receptor sepa cuándo comenzar y

detener la lectura de los datos.

 Velocidad de Transmisión: Generalmente más lenta que la transmisión

sincrónica debido al sobrecosto de los bits de control.

 Uso Común: Se utiliza en comunicaciones donde la transmisión de datos no

es continua, como en conexiones de terminales a computadoras, módems, y

algunos protocolos de comunicaciones seriales (por ejemplo, RS-232).

Ventajas

 Simplicidad: Es más simple de implementar porque no requiere una

sincronización continua entre el emisor y el receptor.

 Flexibilidad: Los datos se pueden enviar a intervalos irregulares, lo que es

útil en aplicaciones donde los datos no se transmiten constantemente.

Desventajas

 Eficiencia: Menos eficiente en el uso del ancho de banda debido al sobrecosto

de los bits de inicio y parada.

 Velocidad: Generalmente más lenta en comparación con la transmisión

sincrónica, especialmente en aplicaciones que requieren grandes volúmenes

de datos.

Ejemplo

19
 RS-232: Es un estándar de transmisión asincrónica utilizado para la

comunicación entre una computadora y dispositivos como módems o

impresoras.

2. Transmisión Sincrónica

En la transmisión sincrónica, los datos se envían en un flujo continuo sin bits de

inicio y parada adicionales. Tanto el emisor como el receptor están sincronizados

utilizando una señal de reloj compartida o una señal de sincronización, lo que permite

una transmisión más eficiente y rápida.

Características

 Sincronización: Requiere una sincronización continua entre el emisor y el

receptor, lo que se logra mediante una señal de reloj común o mediante bits de

sincronización periódicos.

 Flujo Continuo de Datos: Los datos se transmiten en bloques grandes o

frames sin necesidad de bits de inicio y parada para cada carácter.

 Velocidad de Transmisión: Más rápida y eficiente que la transmisión

asincrónica, especialmente para grandes volúmenes de datos.

 Uso Común: Se utiliza en aplicaciones donde se requiere alta velocidad y

eficiencia, como en redes de área local (LAN), transmisión de datos en redes

de computadoras, y tecnologías como Ethernet, USB, y SATA.

Ventajas

20
 Eficiencia: Mayor eficiencia en el uso del ancho de banda debido a la

ausencia de bits de inicio y parada adicionales.

 Velocidad: Permite transmisiones más rápidas y es adecuada para grandes

volúmenes de datos.

 Fiabilidad: La sincronización continua reduce el riesgo de errores de

transmisión.

Desventajas

 Complejidad: Más compleja de implementar porque requiere una

sincronización continua entre el emisor y el receptor.

 Requisitos de Sincronización: Depende de una señal de reloj o un

mecanismo de sincronización fiable, lo que puede ser un desafío en ciertas

aplicaciones.

Ejemplo

 Ethernet: Es un ejemplo de transmisión sincrónica utilizada en redes de

computadoras, donde los datos se transmiten en frames sin necesidad de bits

de inicio y parada para cada byte.

21
Comparación entre Transmisión Asincrónica y Sincrónica

Aspecto Transmisión Asincrónica Transmisión Sincrónica

Sincronización Sincronización solo al Sincronización continua

inicio de cada carácter durante toda la transmisión

Bits de Control Requiere bits de inicio y No requiere bits de inicio y

parada para cada carácter parada adicionales

Velocidad Generalmente más lenta Generalmente más rápida

Eficiencia Menos eficiente debido al Más eficiente en el uso del

sobrecosto de bits de ancho de banda

control

Complejidad Más simple de Más compleja debido a la

implementar necesidad de sincronización

22
continua

Aplicaciones Comunicaciones Comunicaciones de alta

intermitentes, dispositivos velocidad, grandes

con bajo volumen de datos volúmenes de datos

(RS-232, terminales) (Ethernet, USB, redes LAN)

FORMAS DE ONDAS DE LA COMUNICACIÓN DIGITAL

En la comunicación digital, las formas de ondas (o señales de ondas) son

representaciones gráficas de cómo varía la señal eléctrica o electromagnética en

función del tiempo. Estas formas de onda son esenciales para transmitir información

digital a través de un medio de comunicación, y su diseño impacta directamente en la

eficiencia, la robustez y la velocidad de la comunicación.

1. Señales Digitales Básicas

Las señales digitales transmiten datos utilizando dos niveles distintos de voltaje,

que representan los valores binarios 0 y 1. Las formas de onda más comunes

incluyen:

a. Non-Return to Zero (NRZ)

23
 NRZ-L (Non-Return to Zero Level): En esta codificación, un "1" se

representa por un nivel alto constante de voltaje y un "0" por un nivel bajo

constante. No hay transiciones entre bits a menos que cambie el valor de los

datos.

Forma de onda:

 Para una secuencia de bits 10110, la señal se mantiene alta para el

primer 1, baja para 0, y así sucesivamente.

 NRZ-I (Non-Return to Zero Inverted): Aquí, un "1" causa un cambio en el

nivel de voltaje (una transición), mientras que un "0" no produce ningún

cambio.

Forma de onda:

 Para la misma secuencia 10110, el primer 1 provoca una transición de

baja a alta, el 0 mantiene el nivel, el siguiente 1 provoca otra

transición, y así sucesivamente.

b. Return to Zero (RZ)

 En RZ, la señal vuelve a cero (nivel base) entre cada bit, independientemente

de si es un 1 o un 0. Esto implica que un 1 se representa con una transición de

bajo a alto y de nuevo a bajo dentro del mismo intervalo de bit, mientras que

un 0 se representa simplemente permaneciendo en el nivel bajo.

Forma de onda:

24
 Para la secuencia 10110, la señal sube y baja para cada 1 y permanece

en cero para cada 0.

c. Manchester Encoding

 En la codificación Manchester, cada bit tiene una transición en el medio del

intervalo de bit: un 1 se representa por una transición de alto a bajo, y un 0 se

representa por una transición de bajo a alto. Esta codificación es

autosincronizada y facilita la detección de errores.

Forma de onda:

 Para la secuencia 10110, se ve una transición descendente en la mitad

del intervalo para 1 y una transición ascendente para 0.

2. Modulación de Señales Digitales

Para transmitir señales digitales a través de medios analógicos, se utilizan técnicas

de modulación que transforman la forma de onda digital en una forma de onda

adecuada para la transmisión.

a. Amplitude Shift Keying (ASK)

 En ASK, la amplitud de la señal portadora cambia según los datos. Un "1"

podría representarse por una amplitud alta, mientras que un "0" por una

amplitud baja.

Forma de onda:

25
 Se alterna entre amplitudes altas y bajas, correspondientes a los

valores binarios transmitidos.

b. Frequency Shift Keying (FSK)

 En FSK, la frecuencia de la señal portadora varía entre dos valores distintos

para representar 0 y 1. Un 1 puede corresponder a una frecuencia más alta y

un 0 a una frecuencia más baja.

Forma de onda:

 La señal oscila más rápido para un 1 y más lentamente para un 0.

c. Phase Shift Keying (PSK)

 En PSK, la fase de la señal portadora cambia para representar los datos. Un

cambio de fase puede representar un 1, mientras que la ausencia de cambio

puede representar un 0.

Forma de onda:

 Cada 1 provoca un cambio en la fase de la señal, mientras que los 0 no

alteran la fase.

3. Consideraciones de Diseño de Formas de Onda

26
 Ancho de Banda: Las formas de onda más complejas, como las que implican

cambios rápidos en la señal, requieren más ancho de banda para transmitirse

de manera efectiva.

 Resistencia al Ruido: Codificaciones como Manchester son más resistentes al

ruido, ya que incluyen transiciones que permiten al receptor sincronizarse y

detectar errores.

 Velocidad de Transmisión: Formas de onda como NRZ son más simples y

pueden ofrecer velocidades de transmisión más altas, pero son más

susceptibles a la pérdida de sincronización en largas distancias.

TEORIA DE LA INFORMACIÓN

La Teoría de la Información es una rama de las matemáticas y la ingeniería que

estudia la cuantificación, almacenamiento y transmisión de la información. Fue

desarrollada principalmente por Claude Shannon en 1948, y es fundamental para

comprender cómo se comunican los datos en sistemas digitales, cómo se pueden

optimizar estas comunicaciones, y cómo se puede garantizar la integridad de los datos

en presencia de ruido o errores.

1. Conceptos Básicos

27
a. Información

La información se refiere a la medida de la incertidumbre o sorpresa asociada a un

conjunto de posibles eventos o resultados. En un contexto de comunicación, la

información cuantifica el contenido informativo de un mensaje.

b. Entropía

La entropía es una medida de la cantidad promedio de información contenida en

un mensaje. En términos más técnicos, es una medida de la incertidumbre de una

fuente de información. La entropía H(X) de una variable aleatoria X que puede tomar

valores x1, x2, …, xn con probabilidades P(x1), P(x2), …, P(xn) se define como:

n
H(X) = - ∑ P(xi) log2 P(xi)
i=1

Donde:

 P(xi) es la probabilidad de que ocurra el evento xi.

 La entropía se mide en bits si el logaritmo es base 2.

Una mayor entropía significa mayor incertidumbre o mayor cantidad de

información promedio por símbolo.

c. Redundancia

28
La redundancia se refiere a la cantidad de información adicional en un mensaje

que no es necesaria para su comprensión pero que ayuda a corregir errores. Es

esencial en los sistemas de comunicación para mejorar la fiabilidad en presencia de

ruido.

d. Capacidad de Canal

La capacidad de un canal es la máxima tasa a la que se puede transmitir

información a través de un canal con una probabilidad arbitrariamente pequeña de

error. Se mide en bits por segundo (bps). Shannon demostró que esta capacidad

depende del ancho de banda del canal y de la relación señal-ruido (SNR).

2. Teorema de Shannon

El Teorema de Shannon, también conocido como el teorema de la codificación

de canal, establece que para cualquier canal con una capacidad C, es posible

transmitir datos a una tasa R (medida en bits por segundo) con una probabilidad de

error tan baja como se desee, siempre que R≤C. Si R>C, la probabilidad de error no

puede ser reducida a un valor arbitrariamente pequeño.

S
C = B log2 (1 + )
N

Donde:

 C es la capacidad del canal en bits por segundo (bps).

 B es el ancho de banda del canal en Hertz (Hz).

29
 S es la potencia de la señal.

 N es la potencia del ruido.

S
 es la relación señal-ruido (SNR).
N

Este teorema es fundamental porque establece un límite teórico sobre la cantidad

de información que se puede transmitir de manera fiable a través de un canal ruidoso.

3. Codificación de la Información

a. Codificación de Fuente

La codificación de fuente se refiere a la compresión de datos para reducir la

redundancia sin pérdida de información. Ejemplos incluyen Huffman y Lempel-Ziv-

Welch (LZW), que se utilizan en formatos de archivo como ZIP.

b. Codificación de Canal

La codificación de canal agrega redundancia a los datos para protegerlos contra

errores durante la transmisión. Ejemplos comunes incluyen los códigos de corrección

de errores como los códigos de Hamming, Reed-Solomon, y los códigos

convolucionales.

LA AUTOINFORMACIÓN DE UNA FUENTE

La autoinformación (o información propia) de una fuente se refiere a la cantidad

de información contenida en un mensaje o evento individual. Es una medida de

cuánto "sorpresa" o incertidumbre proporciona un evento específico cuando ocurre.

30
Este concepto es clave para entender cómo se cuantifica la información en la teoría de

la información.

1. Definición de Autoinformación

La autoinformación de un evento x se define como la cantidad de información que

se obtiene al conocer que dicho evento ha ocurrido. Para un evento x con una

probabilidad P(x), la autoinformación I(x) se calcula utilizando la siguiente fórmula:

I(x) = − log2P(x)

Donde:

 I(x) es la autoinformación del evento x.

 P(x) es la probabilidad de que ocurra el evento x.

 El logaritmo se toma en base 2, por lo que la autoinformación se mide en bits.

2. Interpretación de la Autoinformación

 Eventos de Alta Probabilidad: Para eventos que ocurren con alta

probabilidad, la autoinformación es baja. Esto es porque un evento que es

muy probable proporciona menos sorpresa cuando ocurre. Por ejemplo, si un

evento tiene una probabilidad de 0.9, su autoinformación es baja:

I(x) = − log2 0.9 ≈ 0.15 bits

 Eventos de Baja Probabilidad: Para eventos que ocurren con baja

probabilidad, la autoinformación es alta. Un evento raro proporciona más

31
sorpresa y, por ende, más información. Por ejemplo, si un evento tiene una

probabilidad de 0.01, su autoinformación es alta:

I(x) = − log2 0.01 = 6.64 bits

3. Ejemplo de Cálculo de Autoinformación

Supongamos que tenemos una fuente que emite cuatro eventos con probabilidades

diferentes: A, B, C y D con probabilidades P(A) = 0.5, P(B) = 0.25, P(C) = 0.125, y

P(D) = 0.125. Calculamos la autoinformación para cada evento:

 Para el evento A:

I(A) = − log2 0.5 = 1 bit

 Para el evento B:

I(B) = − log2 0.25 = 2 bits

 Para el evento C:

I(C) = −log2 0.125 = 3 bits

 Para el evento D:

I(D) = − log2 0.125 = 3 bits

4. Relación con la Entropía

32
La autoinformación de un evento es un caso específico del concepto general de

entropía. Mientras que la autoinformación mide la cantidad de información de un

único evento, la entropía mide la cantidad promedio de información o incertidumbre

en una fuente de datos completa, tomando en cuenta la distribución de probabilidad

de todos los eventos posibles.

La entropía H(X) se define como el valor esperado de la autoinformación,

calculado como:

H(X) = − ∑ P(xi) log2 P(xi)


i

Donde la suma se realiza sobre todos los eventos posibles xi de la fuente X.

ENTROPÍA Y VELOCIDAD DE UNA ENTROPÍA DE UNA FUENTE

La entropía y la velocidad de entropía son conceptos clave en la teoría de la

información que permiten medir la cantidad promedio de información que una fuente

de datos genera por símbolo o por unidad de tiempo. Estos conceptos son

fundamentales para diseñar sistemas de comunicación eficientes y para entender la

capacidad de los canales en transmitir información de manera óptima.

1. Entropía de una Fuente

La entropía es una medida de la incertidumbre o el contenido promedio de

información que una fuente de datos genera. Matemáticamente, se define como el

valor esperado de la autoinformación de los símbolos que genera una fuente de

información.

33
Si una fuente genera n símbolos x1, x2, …, xn con probabilidades P(x1), P(x2),…,

P(xn), la entropía H(X) de la fuente X se calcula mediante la siguiente fórmula:

n
H(X) = - ∑ P(xi) log2 P(xi)
i=1

Donde:

 P(xi) es la probabilidad de que ocurra el símbolo xi.

 El logaritmo es en base 2, lo que implica que la entropía se mide en bits.

Interpretación:

 Mayor Entropía: Cuanto mayor es la entropía, más incertidumbre hay en el

mensaje y mayor cantidad de información por símbolo. Esto ocurre cuando

los eventos son igualmente probables.

 Menor Entropía: Cuando la entropía es baja, los eventos son más predecibles

(menos inciertos), por lo que cada símbolo aporta menos información.

Ejemplo de Cálculo de Entropía

Consideremos una fuente de información con tres símbolos A, B, y C con

probabilidades P(A) = 0.5, P(B) = 0.25, y P(C) = 0.25. La entropía se calcula como:

H(X) = − [P(A)log2 P(A) + P(B)log2 P(B) + P(C)log2P(C)]

H(X) = − [0.5log20.5 + 0.25log20.25 + 0.25log20.25]

H(X) = − [0.5(−1) + 0.25(−2) + 0.25(−2)]

34
H(X) = 1 + 0.5 + 0.5 = 2 bits

Esto significa que, en promedio, cada símbolo generado por esta fuente contiene 2

bits de información.

Velocidad de Entropía de una Fuente

La velocidad de entropía o tasa de entropía de una fuente de información mide

la cantidad promedio de información generada por la fuente por unidad de tiempo o

por símbolo emitido. Se utiliza cuando la fuente produce símbolos de forma

secuencial o en serie a lo largo del tiempo.

Si una fuente genera un mensaje compuesto por N símbolos por segundo, y la

entropía de cada símbolo es H(X), la velocidad de entropía R de la fuente se define

como:

R = H(X) × N

Donde:

 H(X) es la entropía de la fuente en bits por símbolo.

 N es la cantidad de símbolos generados por segundo.

 R es la velocidad de entropía, medida en bits por segundo (bps).

Ejemplo de Velocidad de Entropía

Supongamos que una fuente genera 100 símbolos por segundo y que la entropía de

cada símbolo es de 2 bits. Entonces, la velocidad de entropía sería:

35
R = 2bits/símbolo × 100símbolos/segundo = 200bits/segundo

Esto significa que la fuente está generando 200 bits de información por segundo.

Importancia de la Entropía y Velocidad de Entropía

 Compresión de datos: La entropía es la base teórica para la compresión de

datos. Si conocemos la entropía de una fuente, podemos diseñar esquemas de

codificación que aproximen la longitud mínima de los mensajes sin perder

información.

 Capacidad de canal: La velocidad de entropía es crucial para saber cuánto

ancho de banda se necesita para transmitir la información de manera efectiva.

Un canal de comunicación debe tener una capacidad igual o superior a la

velocidad de entropía para transmitir los datos sin pérdidas.

CAPACIDAD DE CANALES DISCRETOS Y CONTINUOS

La capacidad de un canal es una medida fundamental en la teoría de la

información que define la tasa máxima a la que se pueden transmitir datos a través de

un canal de comunicación con una probabilidad arbitrariamente baja de error. Existen

dos tipos de canales que se estudian comúnmente: los canales discretos y los canales

continuos, y la capacidad de ambos se determina utilizando diferentes enfoques.

1. Capacidad de un Canal Discreto

Un canal discreto es aquel en el que tanto la entrada como la salida consisten en

un conjunto finito de símbolos. La capacidad de un canal discreto mide cuánta

36
información (en bits por símbolo) puede ser transmitida a través del canal de manera

confiable.

a. Modelo de Canal Discreto

Un canal discreto suele representarse mediante una matriz de probabilidad de

transición P(y∣x), que describe la probabilidad de recibir un símbolo de salida y dado

que se envió un símbolo de entrada x. Este modelo incluye canales con ruido, donde

los errores pueden ocurrir durante la transmisión.

b. Capacidad de Canal (Shannon)

La capacidad de un canal discreto se puede calcular a partir de la entropía y la

información mutua entre los símbolos de entrada y salida. La información mutua

(X;Y) mide la cantidad de información que una variable aleatoria X (entrada) revela

sobre otra variable aleatoria Y (salida).

La capacidad de canal C se define como el máximo de la información mutua

sobre todas las distribuciones posibles de la entrada X:

max
C= I(X;Y)
P (X )

Donde I(X;Y) es la información mutua entre la entrada X y la salida Y, y se

calcula como:

I(X;Y) = H(Y) − H(Y∣X)

 H(Y) es la entropía de la salida.

37
 H(Y∣X) es la entropía condicional que mide la incertidumbre de la salida dada

la entrada.

El valor resultante de C se mide en bits por símbolo. El canal discreto más simple

es el canal binario simétrico (BSC), donde la capacidad depende de la probabilidad

de error del canal.

Ejemplo: Canal Binario Simétrico (BSC)

En un canal binario simétrico con una probabilidad ppp de error por bit, la

capacidad se puede calcular como:

C = 1 − H(p)

Donde H(p) es la entropía binaria de la probabilidad de error:

H(p) = − plog2 p − (1−p) log2(1−p)

2. Capacidad de un Canal Continuo

Un canal continuo es aquel en el que la entrada y/o la salida pueden tomar un

número infinito de valores. Un ejemplo común es un canal de comunicación

analógica o un canal digital que se modela como continúo debido a la transmisión de

señales a través de medios físicos.

a. Modelo de Canal Continuo

El modelo más común de un canal continuo es el canal con ruido aditivo

gaussiano blanco (AWGN, por sus siglas en inglés). En este modelo, la señal

transmitida se ve afectada por ruido gaussiano con una media de 0 y una varianza

38
finita N0/2. La señal de entrada X(t) y la señal recibida Y(t) están relacionadas de la

siguiente manera:

Y(t) = X(t) + N(t)

Donde N(t) es el ruido gaussiano.

b. Capacidad de Canal (Shannon-Hartley)

La capacidad de un canal continuo con ruido aditivo gaussiano depende del ancho

S
de banda B del canal y de la relación señal-ruido (SNR), que se denota como ,
N

donde S es la potencia de la señal y N es la potencia del ruido. La fórmula de

Shannon-Hartley para la capacidad de un canal continuo se expresa como:

S
C = Blog2 (1 + )
N

Donde:

 C es la capacidad del canal en bits por segundo (bps).

 B es el ancho de banda del canal en Hertz (Hz).

S
 es la relación señal-ruido (SNR), una medida de la calidad de la señal en
N

comparación con el ruido.

Interpretación:

39
 Si la SNR es alta (baja cantidad de ruido), la capacidad del canal aumenta,

permitiendo una transmisión de datos más rápida.

 Si la SNR es baja (alta cantidad de ruido), la capacidad disminuye, limitando

la tasa de transmisión de datos.

Ejemplo de Cálculo de Capacidad

Si un canal tiene un ancho de banda de B = 1 MHz (1 millón de Hertz) y una

S
relación señal-ruido = 10 (10 dB), la capacidad del canal sería:
N

C = 1 × 106log2 (1 + 10)

C = 1 × 106log2(11) ≈ 1 × 106 × 3.46 = 3.46 Mbps

Este canal puede transmitir hasta 3.46 Megabits por segundo de manera confiable.

Comparación entre Canales Discretos y Continuos

 Capacidad en Canales Discretos: Se mide en bits por símbolo. Está

determinada por la probabilidad de transición entre símbolos y maximiza la

información mutua entre la entrada y la salida del canal.

 Capacidad en Canales Continuos: Se mide en bits por segundo. Depende

del ancho de banda del canal y la relación señal-ruido. Utiliza la fórmula de

Shannon-Hartley para su cálculo.

40
CODIFICACIÓN

La codificación es un proceso esencial en los sistemas de comunicación que

consiste en transformar la información en una secuencia de símbolos o señales que

puedan ser transmitidos eficientemente a través de un canal de comunicación. Existen

varios tipos de codificación, dependiendo del propósito que se desee lograr, como la

codificación de fuente para reducir la redundancia y la codificación de canal para

proteger los datos contra errores.

1. Codificación de Fuente

La codificación de fuente se refiere al proceso de representar los datos de una

manera que minimice la cantidad de bits necesarios para transmitirlos, eliminando

redundancias. Este tipo de codificación es fundamental para la compresión de datos,

y tiene como objetivo representar la información de la forma más eficiente posible sin

pérdida de datos (en el caso de compresión sin pérdidas) o con una pérdida

controlada de calidad (en el caso de compresión con pérdidas).

a. Compresión sin pérdidas

41
En la compresión sin pérdidas, los datos originales pueden ser recuperados

exactamente a partir de los datos codificados. Algunos algoritmos comunes son:

 Codificación de Huffman: Asigna códigos más cortos a los símbolos más

probables y códigos más largos a los menos probables, logrando una

representación eficiente. Se basa en la probabilidad de aparición de los

símbolos.

 Codificación de Shannon-Fano: Es un algoritmo similar a Huffman, donde

se crean códigos binarios para cada símbolo, basados en su probabilidad de

aparición.

Ejemplo de Codificación de Huffman: Supongamos que tenemos un mensaje

con los símbolos A, B, C y D con las siguientes probabilidades:

 P(A) = 0.4

 P(B) = 0.3

 P(C) = 0.2

 P(D) = 0.1

Podemos crear un árbol de Huffman que asigna códigos binarios a cada símbolo:

 A: 0

 B: 10

 C: 110

42
 D: 111

Esto minimiza la longitud media de los códigos, reduciendo la cantidad de bits

necesarios para representar el mensaje.

b. Compresión con pérdidas

En la compresión con pérdidas, parte de la información se descarta para reducir

significativamente el tamaño de los datos. Se usa en aplicaciones como la compresión

de imágenes, video y audio (JPEG, MP3, etc.). La calidad puede verse degradada,

pero la tasa de compresión es mucho mayor que en los métodos sin pérdida.

2. Codificación de Canal

La codificación de canal se utiliza para proteger los datos durante la transmisión,

garantizando que los errores causados por el ruido en el canal puedan ser detectados y

corregidos. La información original se transforma añadiendo redundancia

controlada que permite al receptor detectar y corregir errores sin necesidad de

retransmitir los datos.

a. Detección de Errores

Permite al receptor detectar si los datos recibidos contienen errores. Los métodos

más comunes son:

 Chequeo de paridad: Se añade un bit extra que indica si el número de bits 1

en el mensaje es par o impar.

43
 CRC (Cyclic Redundancy Check): Se utiliza para verificar la integridad de

los datos mediante la división de los datos entre un polinomio generador. El

resultado se adjunta a los datos transmitidos para su verificación en el

receptor.

b. Corrección de Errores

Los métodos de codificación de corrección de errores permiten no solo detectar

los errores, sino también corregirlos sin necesidad de retransmisión. Algunos de los

métodos más utilizados son:

 Códigos de Hamming: Añaden bits de paridad a los datos, permitiendo

corregir errores de un solo bit y detectar errores de dos bits.

 Códigos convolucionales: Cada bit de entrada afecta no solo el bit actual de

salida, sino también varios bits de salida consecutivos, proporcionando

redundancia que ayuda a corregir errores.

 Códigos LDPC (Low-Density Parity-Check): Utilizados en sistemas de

comunicación modernos (como Wi-Fi y 5G), permiten corregir errores con

una alta eficiencia de corrección.

Ejemplo de Códigos de Hamming: En un código Hamming (7,4), se envían 7

bits, de los cuales 4 son datos y 3 son bits de paridad. Si se produce un error en uno

de los bits transmitidos, el receptor puede identificar la posición exacta del bit

erróneo y corregirlo.

c. Capacidad del canal y codificación

44
El teorema de Shannon establece que, si la tasa de transmisión de datos es menor

que la capacidad del canal (medida en bits por segundo), existe un esquema de

codificación que permite transmitir datos sin errores, incluso en presencia de ruido.

3. Codificación de Línea

La codificación de línea se refiere a cómo se representan las señales digitales en

una forma que sea adecuada para la transmisión a través de un medio físico (como

cables o fibra óptica). Aquí, los datos binarios se convierten en señales eléctricas o

ópticas.

Algunos esquemas de codificación de línea comunes incluyen:

 NRZ (Non-Return-to-Zero): Representa los bits 0 y 1 con dos niveles de

voltaje diferentes, sin retornar a un nivel neutro entre bits.

 Manchester: Un esquema que garantiza una transición de voltaje en cada bit,

lo que facilita la sincronización entre transmisor y receptor.

 Codificación diferencial: La transmisión de un bit depende del valor del bit

anterior, lo que mejora la robustez frente a errores.

4. Codificación Modulación

Cuando los datos digitales se transmiten a través de un canal analógico, como en

las comunicaciones inalámbricas o la fibra óptica, se requiere un proceso llamado

modulación. La modulación digital es un tipo de codificación en la que los datos

45
binarios se utilizan para modificar las propiedades de una señal portadora (frecuencia,

amplitud o fase).

Algunos tipos comunes de modulación digital son:

 ASK (Amplitude Shift Keying): La amplitud de la señal portadora se

modifica según los datos digitales.

 FSK (Frequency Shift Keying): La frecuencia de la señal portadora cambia

según los bits transmitidos.

 PSK (Phase Shift Keying): La fase de la señal portadora se cambia en

función de los datos.

5. Codificación de Fuente y de Canal Combinadas

En muchos sistemas de comunicación, se utilizan tanto la codificación de fuente

como la codificación de canal. La codificación de fuente se utiliza para comprimir

los datos, y la codificación de canal se emplea para protegerlos contra errores. El

reto es diseñar un sistema que optimice el uso del ancho de banda y minimice la

probabilidad de error en la transmisión, al mismo tiempo que garantiza que los datos

se transmitan lo más eficientemente posible.

46
CONCLUSIÓN

La teoría de la comunicación digital abarca aspectos esenciales como los

elementos de un sistema de comunicaciones, la transmisión y codificación de datos, y

la teoría de la información. La señal digital y la transmisión digital son claves para

enviar información de manera eficiente y confiable, permitiendo la transmisión en

modos seriales o paralelos, y de forma sincrónica o asincrónica. Las formas de onda

son cruciales para representar los datos en medios físicos. La teoría de la información,

con conceptos como la entropía y la autoinformación, mide la incertidumbre de una

fuente y su eficiencia. La capacidad de un canal, ya sea discreto o continuo,

determina la tasa máxima de transmisión de datos. La codificación, tanto de fuente

como de canal, optimiza la representación de los datos y protege la información

contra errores. En resumen, estos conceptos permiten diseñar sistemas de

comunicación que balancean eficiencia, confiabilidad y uso óptimo de recursos,

garantizando la integridad y transmisión efectiva de la información.

47
REFERENCIAS

Claude E. Shannon (1948). "A Mathematical Theory of Communication". The

Bell System Technical Journal, Vol. 27, pp. 379-423, 623-656.

 Obra pionera que introdujo la teoría de la información y estableció conceptos

clave como la entropía, la capacidad de canal y la información mutua.

Simon Haykin (2001). Communication Systems. 4th Edition. John Wiley & Sons.

 Este libro es una referencia clave sobre sistemas de comunicación, abordando

tanto la transmisión digital como la codificación de fuente y canal.

John G. Proakis y Masoud Salehi (2007). Digital Communications. 5th Edition.

McGraw-Hill.

 Una obra completa sobre comunicaciones digitales que cubre los aspectos

teóricos y prácticos de la codificación, modulación, y los principios

fundamentales de los sistemas de comunicación.

Andrea Goldsmith (2005). Wireless Communications. Cambridge University

Press.

 Este libro ofrece una visión detallada sobre las comunicaciones inalámbricas y

los conceptos de transmisión y capacidad de canal en entornos tanto discretos

como continuos.

48
49

También podría gustarte