Está en la página 1de 117

UNIVERSIDAD DE CONCEPCIÓN

FACULTAD DE INGENIERÍA
DEPARTAMENTO DE INGENIERÍA ELÉCTRICA

APUNTES
COMUNICACIONES DIGITALES
Cod. 549 175 - Ingenierı́a Civil en Telecomunicaciones

Prof. Sebastián E. Godoy

Tercera Edición
July 23, 2010
Prólogo

El presente apunte, nace bajo la necesidad de lograr un mejor entendimiento de los alumnos que
toman la asignatura de Comunicaciones Digitales, obligatoria para la carrera de Ingenierı́a
Civil en Telecomunicaciones de la Facultad de Ingenierı́a, Universidad de Concepción.
Esta asignatura es planteada con la concepción original de que el alumno maneja los con-
ceptos de los sistemas de comunicación analógicos (“Sistemas de Comunicación” Cod. 549
164) y principalmente de estadı́stica y procesos aleatorios (“Procesos Aleatorios” y “Estadı́stica
Aplicada” Cods. 549 150, 549 103 respectivamente) cursados como requisitos previos de la
presente.
Sinceramente, quisiera agradecer a todos los alumnos que han cursado la asignatura ya que
en forma directa o indirecta han aportado al desarrollo de este documento mediante sugerencias,
comentarios o apoyo en la escritura.
El documento está totalmente escrito utilizando LATEX mediante la interfaz gráfica Kile
para Ubuntu Linux. El formato utilizado en el desarrollo de este documento, está basado en
los apuntes del Prof. José Espinoza, con las respectivas modificaciones conforme el curso lo
requiere.

Sebastián E. Godoy
Ingeniero Civil Electrónico
Magister en Ing. Eléctrica
Colaborador Académico
Departamento de Ing. Eléctrica
Facultad de Ingenierı́a
Universidad de Concepción
Casilla 160-C, Correo 3
Concepción, CHILE
Tel: +56 (41) 2203633
Fax: +56 (41) 2246999
e-mail: segodoy@udec.cl
web: http://www.udec.cl/~segodoy

i
Índice General

Prólogo i

1 Introducción 1
1.1 Sistema de Comunicaciones Digitales . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1 ¿Por qué comunicaciones digitales? . . . . . . . . . . . . . . . . . . . . . 2
1.2 Probabilidades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.1 Revisión Básica de Conceptos . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2.2 Variables Aleatorias . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.2.3 Valor Esperado . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3 Procesos Aleatorios . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.3.1 Estacionalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.4 Transformada y Series de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.1 Series de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8
1.4.2 Transformada de Fourier . . . . . . . . . . . . . . . . . . . . . . . . . . . 10
1.5 Densidad Espectral . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5.1 Señales de Energı́a y Potencia . . . . . . . . . . . . . . . . . . . . . . . . 13
1.5.2 Teorema de Parseval . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14
1.5.3 Densidad Espectral de Energı́a (ESD) . . . . . . . . . . . . . . . . . . . . 14
1.5.4 Densidad Espectral de Potencia (PSD) . . . . . . . . . . . . . . . . . . . 15
1.6 Conversión Analogo-Digital . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.6.1 Muestro de una Señal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18
1.6.2 Cuantización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18

2 Teorı́a de la Información 21
2.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2 Modelo de las Fuentes de Información . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.1 Concepto de Información . . . . . . . . . . . . . . . . . . . . . . . . . . . 21
2.2.2 Medida de la Información . . . . . . . . . . . . . . . . . . . . . . . . . . 22
2.2.3 Entropı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23
2.2.4 Entropı́a Conjunta y Condicional . . . . . . . . . . . . . . . . . . . . . . 24
2.2.5 Información Mutua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3 Teorema de Codificación de la Fuente . . . . . . . . . . . . . . . . . . . . . . . . 26
2.3.1 Código Huffman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 27
2.3.2 Código Lempel-Ziv . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

ii
2.3.3 Código ASCII . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
2.4 Representación de Canales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 31
2.4.1 Canales con Ruido Aditivo Gaussiano . . . . . . . . . . . . . . . . . . . . 33
2.4.2 Canales con Ruido y Filtro . . . . . . . . . . . . . . . . . . . . . . . . . . 34
2.5 Capacidad del Canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
2.5.1 Capacidad de Canal Gaussiano . . . . . . . . . . . . . . . . . . . . . . . 36

3 Modulación en Banda Base 38


3.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2 Muestreo de Señales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
3.2.1 Recuperación de Señales Muestreadas . . . . . . . . . . . . . . . . . . . . 38
3.2.2 Errores en el Muestreo . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
3.2.3 Muestreo Natural . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 42
3.2.4 Sample-and-Hold . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
3.3 Cuantización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.1 Cuantización Escalar . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
3.3.2 Cuantización Vectorial . . . . . . . . . . . . . . . . . . . . . . . . . . . . 52
3.4 Codificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.5 Fuentes de Corrupción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 54
3.5.1 Efectos del Muestreo y la Cuantización . . . . . . . . . . . . . . . . . . . 54
3.5.2 Efectos del Canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
3.6 Pulse-Amplitude Modulation (PAM) . . . . . . . . . . . . . . . . . . . . . . . . 55
3.7 Pulse-Code Modulation (PCM) . . . . . . . . . . . . . . . . . . . . . . . . . . . 56
3.7.1 Representación de Dı́gitos Binarios . . . . . . . . . . . . . . . . . . . . . 57
3.7.2 Tipos de Cuantizadores . . . . . . . . . . . . . . . . . . . . . . . . . . . . 61
3.7.3 PCM Diferencial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
3.8 Modulación Delta . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 65
3.8.1 Modulación Delta Adaptiva . . . . . . . . . . . . . . . . . . . . . . . . . 67

4 Modulaciones Digitales Pasabanda 69


4.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 69
4.2 Señales y Ruido . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 70
4.2.1 Ruido en Sistemas de Comunicaciones . . . . . . . . . . . . . . . . . . . 70
4.2.2 Representación Geométrica de Señales . . . . . . . . . . . . . . . . . . . 71
4.3 Técnicas de Modulación Digital Pasabanda . . . . . . . . . . . . . . . . . . . . . 76
4.3.1 Amplitude Shift Keying (ASK) . . . . . . . . . . . . . . . . . . . . . . . 77
4.3.2 Frequency Shift Keying (FSK) . . . . . . . . . . . . . . . . . . . . . . . . 77
4.3.3 Phase Shift Keying (PSK) . . . . . . . . . . . . . . . . . . . . . . . . . . 77
4.3.4 Amplitude Phase Shift Keying (APK) . . . . . . . . . . . . . . . . . . . 78
4.4 Detección de Señales en la presencia de AWGN . . . . . . . . . . . . . . . . . . 79
4.4.1 Región de Decisión . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 79
4.4.2 Receptor de Correlación . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
4.4.3 Detector por Matched-Filter . . . . . . . . . . . . . . . . . . . . . . . . . 84
4.5 Detección Coherente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 86

iii
4.5.1 Detección Coherente para PSK . . . . . . . . . . . . . . . . . . . . . . . 86
4.5.2 Detección Coherente para PSK Múltiple . . . . . . . . . . . . . . . . . . 87
4.5.3 Detección Coherente de FSK . . . . . . . . . . . . . . . . . . . . . . . . . 89
4.6 Detección No-Coherente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
4.6.1 Detección No-Coherente de FSK . . . . . . . . . . . . . . . . . . . . . . . 90
4.6.2 Detección de PSK Diferencial . . . . . . . . . . . . . . . . . . . . . . . . 94
4.7 Desempeño de Error en Sistemas Binarios . . . . . . . . . . . . . . . . . . . . . 96
4.7.1 Probabilidad de Error de Bit para BPSK Coherente . . . . . . . . . . . . 97
4.7.2 Probabilidad de Error de Bit para DPSK . . . . . . . . . . . . . . . . . . 99
4.7.3 Probabilidad de Error de Bit para FSK Coherente . . . . . . . . . . . . . 99
4.7.4 Probabilidad de Error de Bit para FSK No-Coherente . . . . . . . . . . . 100

5 Introducción a la Codificación 103


5.1 Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 103
5.2 Códigos Lineales por Bloque . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
5.2.1 Matrices de Generación y Paridad . . . . . . . . . . . . . . . . . . . . . . 109
5.3 Códigos Convolucionales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111

iv
Capı́tulo 1

Introducción

1.1 Sistema de Comunicaciones Digitales


En el curso anterior de Sistemas de Comunicaciones, se introdujo el concepto básico de un sis-
tema de comunicación. Éste consta de tres partes fundamentales: transmisor, canal y receptor.
A su vez, el transmisor está compuesto por el codificador y el modulador. El canal es aquel que
agrega atenuación, ruido, distorsión e interferencia que deben ser “compensadas” en el receptor
mediante el proceso de detección (demodulación y decoficación) y posiblemente un proceso de
filtrado (ecualización).
Resulta importante recordar que las limitaciones que se tienen para obtener comunicaciones
confiables en un sistema de transmisión de señales análogas, están determinadas por el canal
de comunicación. En particular, dicho canal debe permitir el paso de la señales, teniendo un
ancho de banda limitado para tales efectos.
El concepto de comunicaciones digitales nace de la necesidad de transmitir información que
no se encuentra como señales continuas sino como un mensaje binario. Cuando se habla de
mensaje binario se hace referencia a una secuencia de dos tipos de pulsos de forma conocida
ocurriendo en intervalos regulares de tiempo, T . A pesar de que la forma de dichos pulsos es
conocida a-priori, la ocurrencia de ceros o unos es desconocida por lo que se consideran señales
no determinı́sticas. La tasa a la que se muestran los pulsos es a R = T1 , siendo T la duración
de cada pulso tal como se dijo anteriormente.
El presente curso tiene entonces por objetivo, familirizar a los alumnos con el concepto de
enviar información en forma digital. Para lograr esto, el curso se subdividirá en dos grandes
partes. La primera parte considerará como llegar de una señal análoga a una digital pasando por
el proceso de muestreo, cuantización y codificación. Esto se logra aplicando teorı́a estadı́stica
sobre las fuentes de información y el canal, para fijar las cotas que se puedan lograr de la
comunicación en sı́. Entiéndase como cotas, la máxima compresión de datos y máxima tasa
de bits por segundo. Esta parte se concluye estudiando los modelos clásicos para realizar esta
conversión análogo-digital, como lo son PCM o PAM.
La segunda gran etapa del curso incluye la transmisión de esta información mediante canales
pasabanda, de manera similar a lo que se estudió en comunicaciones análogas. Esto quiere decir
que se estudiará la modulación y demodulación digital en amplitud, frecuencia y fase (ASK,
FSK y PSK respectivamente), para concluir con una introducción a la codificación que es muy

1
CAPÍTULO 1. INTRODUCCIÓN

importante al momento de hablar de una transmisión segura de datos.

1.1.1 ¿Por qué comunicaciones digitales?


Existen muchas razones que hacen preferibles las comunicaciones digitales frente a las análogas.
La primera ventaja es que las señales digitales, a diferencia de las análogas, pueden ser recon-
struı́das (regeneradas) utilizando repetidores. Estos vuelven a amplificar la señal recuperando
las modificaciones y la degradación que pudo haber sufrido dicha señal en el canal de trans-
misión. Por otra parte, los circuitos digitales son más faciles de reproducir, más económicos
y más flexibles, pues sin importar si la señal es de televisión, teléfono o telégrafo, siempre se
tratará de la misma forma para la transmisión ya que un bit es un bit. Además los circuitos
digitales son menos propensos a distorciones de interferencia que los análogos dados los rangos
que existen para cada estado digital; a esto se agrega que existen metodologı́as para detectar
errores en la transmisión.
Las principales ventajas y desventajas que presentan las Comunicaciones Digitales se mues-
tran en la Tabla 1.1.

Tabla 1.1: Ventajas y Desventajas de las Comunicaciones Digitales


Ventajas Desventajas

• Generalmente los errores pueden • Generalmente se requiere un


ser corregidos. mayor ancho de banda que con
comunicaciones análogas.
• Resulta sencillo implementar la
encriptación. • Requieren sincronización.

• Se puede tener un alto rango


dinámico de los datos.

1.2 Probabilidades
Como se dijo en la sección anterior, dado que no se conoce a-priori la ocurrencia de ceros o unos
en una seña digital, entonces no se puede tratar como una señal determinı́stica. Por lo tanto, es
necesario recordar algunos conceptos de estadı́stica como variables y procesos aleatorios, valor
esperado, autocorrelación y estacionalidad de procesos aleatorios.

1.2.1 Revisión Básica de Conceptos


Se llama Evento a un resultado en particular de un experimento, Espacio Muestral Ω a la
colección de todos los resultados de eventos posibles.

2
CAPÍTULO 1. INTRODUCCIÓN

La probabilidad de que ocurra un evento A denotada por P (A), está definida como
nA
P (A) = lim
n→∞ n

en donde nA es al número de veces que A aparece en los n intentos en que se realizó el ex-
perimento. Ası́, P será una probabilidad si es una función de eventos y satisface las siguientes
condiciones:

1. P (A) ≥ 0 para cualquier evento A.

2. P (Ω) = 1.
Pn
3. Si A1 , A2 , . . . , An son eventos disjuntos, entonces P (A1 A2 · · · An ) = i=1 P (Ai )

4. P (A) < 1 para cualquier evento A.

El concepto de Probabilidad Condicional, busca cuantificar la probabilidad de que ocurra


un evento A, dado que ya ocurrió un evento B. Se denota por P (A|B) y está definida por:

P (A, B)
P (A|B) = (1.1)
P (B)

en donde p(B) 6= 0.
Por otro lado, el Teorema de Bayes dice que:

P (A, B) = P (B|A)P (A) = P (A|B)P (B) (1.2)

Luego, la probabilidad condicional estará dada por

P (B|A)P (A)
P (A|B) =
P (B)

Se dice que dos eventos A y B son independientes si y solo si

P (A|B) = P (A) ∧ P (B|A) = P (B)

Ejemplo 1.1 - Probabilidad de Error.


Considere el canal de comunicación digital de 1 bit. Determine la probabilidad del evento error,
considerando que el transmisor tiene la misma probabilidad de enviar un cero o un uno.
Sol. Los resultados posibles son: recibir un cero cuando se envio un cero o cuando se envió un
uno, o recibir un uno cuando se envió un cero o un uno, lo que podrı́a ser resumido en Ω =
{(0t, 0r), (0t, 1r), (1t, 0r), (1t, 1r)}. Ası́ el evento error estará determinado por el subconjunto
E = {(0t, 1r), (1t, 0r)}. Asumiendo que la probabilidad de recibir un error puntual es p, entonces
P (0r|1t) = P (1r|0t) = p, luego se tiene por Teorema de Bayes que P (0t, 1r) = P (0r|1t)P (0t) =
0.5p y de igual forma P (1t, 0r) = 0.5p. Ahora bien, la probabilidad del evento error será
P (E) = P [(0t, 1r), (1t, 0r)] = P (0t, 1r) + P (1t, 0r) = 0.5p + 0.5p = p. 

3
CAPÍTULO 1. INTRODUCCIÓN

1.2.2 Variables Aleatorias


Una variable aleatorioa X(A) corresponde a una relación funcional entre un evento aleatorio
A y un número real. En general por notación simplemente se utiliza solo X como designación
para la variable aleatoria, dejando la relación con el evento A de forma implı́cita.
La Función de Distribución de Probabilidad denotada por FX (x) de la variable aleato-
ria X está determinada por:
FX (x) = P (X ≤ x) (1.3)
en dónde P (X ≤ x) es la probabilidad de que el valor de la variable aleatoria sea menor o igual
que el número real x. La función de distribución tiene las siguientes propiedades:

1. 0 ≤ FX (x) ≤ 1.

2. FX (x1 ) ≤ FX (x2 ), si x1 ≤ x2 .

3. FX (−∞) = 0.

4. FX (+∞) = 1.

La Función de Densidad de Probabilidad (PDF) denotada por fX (x) está definida por:

dFX (x)
fX (x) = (1.4)
dx
y recibe su nombre en base a que la probabilidad del evento x1 ≤ X ≤ x2 es:

P (x1 ≤ X ≤ x2 ) = P (X ≤ x2 ) − P (X ≤ x1 )
= FX (x2 ) − FX (x1 )
Z x2
= fX (x) dx
x1

La PDF tiene las siguientes propiedades:

1. Es siempre una función no negativa: fX (x) ≥ 0.


R∞
2. Tiene un área total unitaria: −∞ fX (x) dx = FX (+∞) − FX (−∞) = 1

1.2.3 Valor Esperado


Se define el Valor Esperado o esperanza de una variable aleatoria continua X como
Z ∞
E {X} = x pX (x) dx (1.5)
−∞

y a la vez corresponde a la media de X, mX , o primer momento. El operador E {.} tiene las


siguientes propiedades

4
CAPÍTULO 1. INTRODUCCIÓN

Linealidad. Si Xi , i = 1, 2, . . . , n son diferentes variables aleatorioas y ai son escalares deter-


minı́sticos, entonces ( )
X X
E ai X i = ai E {Xi }
i i

Transformación Lineal. Sean A y B matrices determinı́sticas, entonces


E {AX} = A E {X}
E {XB} = E {X} B

Invarianza de Transformación. Sea Y = g(X) una función evaluada sobre el vector de


variables aleatoria X, entonces
Z +∞ Z +∞
Y pY (Y ) dY = g(X)pX (X) dX ,
−∞ −∞

por lo que
E {Y } = E {g(X)} ,
aun cuando las integrales sean calculadas sobre diferentes funciones de densidad de prob-
abilidad.
Se define también el n-ésimo momento de la variable aleatoria mediante:
Z ∞
n
E {X } = xn pX (x) dx (1.6)
−∞

en donde se puede notar que la media corresponde al primer momento (n = 1) y la media


cuadrática será el segundo momento. Además se pueden definir los Momentos Centrales que
corresponden a los momentos de la diferencia entre X y su media mX . La Varianza de X
corresponde al segundo momento central, por lo que está definida por:
Z ∞
2
(x − mX )2 pX (x) dx

var {X} = E (X − mX ) = (1.7)
−∞
2
la que también se denota por σX . Su raiz cuadrada, σX , corresponde a la llamada desviación
estándar de X. La relación que existe entre la varianza y el valor medio cuadrático está dada
por:
2
= E (X − mX )2 = E X 2 − 2mX X + m2X = E X 2 − E {X}2 ,
  
σX (1.8)
por lo que en variables de media nula, la varianza corresponde a la esperanza del valor cuadrático
de la variable en sı́. Para cualquier constante a, se verifican para la varianza:
1. var {aX} = a2 var {X}
2. var {a} = 0
3. var {X + a} = var {X} .
Es importante mencionar que para variables aleatorias independientes, el valor esperado será
dado por el producto de los valores esperados individuales, E {XY } = E {X} E {Y }.

5
CAPÍTULO 1. INTRODUCCIÓN

1.3 Procesos Aleatorios


Un proceso aleatorio puede ser visto como una función de dos variables: un evento A y el
tiempo, por lo que para cada instante de tiempo se tienen diferentes funciones. Ası́ para un
instante tk , la función X(A, t) es una variable aleatoria X(tk ). Por notación, simplemente se
hablará de procesos aleatorios marcando la dependencia del tiempo, vale decir X(A, t) ≡ X(t)
dejando la dependencia funcional al evento A de forma implı́cita.
Dada la incertidumbre envuelta en los procesos aleatorios, solo se puede dar una descripción
parcial de ellos. Para esto se utiliza el concepto de la media y de la función de autocorrelación.
La media de un proceso aleatorio en tiempo continuo está definido por la Ecuación (1.5); para el
caso de procesos aleatorios en tiempo discreto, la integral cambia a sumatoria finita, y se tiene
que considerar que se evalúa en el instante tk , vale decir se calcula mX (tk ). Indirectamente, esto
quiere decir que la variable aleatoria X corresponde a la observación del proceso aleatorio en el
instante tk .
La autocorrelación de un proceso aleatorio se estudia en la siguiente sección.

Ejemplo 1.2 - Procesos Aleatorios.


Considere un detector inalámbrico que se modela linealmente por la ecuación Y (t) = aX(t)+b+
U (t) en donde a y b son constantes determinı́sticas; X(t) es una variable aleatoria uniformemente
distribuida en el rango [Xmin , Xmax ]. Considerando que U (t) es un ruido Gaussiano con media
nula y varianza conocida, se pide encontrar las constantes a y b.
Sol. Asumiendo que los procesos aleatorios son estacionarios, la media estará determinada
por E {Y } = E {aX(t) + b + U (t)} = aE {x} + b. p Por otra parte, su varianza estará dada
2 2 2 2
por σY = a σX + σu . Ası́, la ganancia será a = σY2 − σu2 /σX , y el offset se puede despejar
directamente y obtener b = E {y} − aE {x}. Esto es válido pues los valores de E {x} y σX son
conocidas desde la distribución uniforme. 

1.3.1 Estacionalidad
Autocorrelación de Procesos Aleatorios
La autocorrelación de un proceso aleatorio X(t) se define como

R (t1 , t2 ) = E {X(t1 )X(t2 )} (1.9)

en donde X(t1 ) y X(t2 ) corresponden a la observación del proceso aleatorio en los instante t1 y
t2 respectivamente.

Definición de Estacionalidad
Un proceso aleatorio X(t) es llamado Estacionario en el Sentido Estricto si ninguna de sus es-
tadı́sticas dependen de ninguna forma del tiempo. Un proceso aleatorio es llamado Estacionario
en Sentido Amplio (wide-sense stationary, WSS) si su media y su función de autocorrelación no

6
CAPÍTULO 1. INTRODUCCIÓN

varı́an ni dependen del tiempo. Ası́ un proceso es WSS si:

E {X(t)} = mX y, RX (t1 , t2 ) = RX (t2 − t1 ) .

Considerando que para un proceso aleatorio WSS, la autocorrelación dependerá solo de


la diferencia temporal y no del instante de tiempo en sı́, cualquier par de valores de X(t)
que estén separados en el tiempo por τ = t2 − t1 tienen el mismo valor de correlación. Ası́,
para sistemas estacionarios la autocorrelación se expresa mediante la relación R (t1 , t2 ) ≡ R (τ ).
Luego, para un proceso aleatorio real y WSS, su función de autocorrelación, R (τ ), tiene las
siguientes propiedades:

1. Es simétrica con respecto al origen: R (τ ) = R (−τ ).

2. El máximo ocurre en el origen: R (τ ) ≤ R (0) , ∀τ .

3. El valor en el origen corresponde a la energı́a/potencia de la señal

No resulta dificil notar que si un proceso es estrictamente estacionario, también lo es en


sentido amplio, pero no viceversa. En el presente curso se utilizará el concepto de estacionalidad
para hablar de procesos WSS, dejando en forma explı́cita cuando se hable de estacionalidad
estricta.

Ejemplo 1.3 - Proceso Aleatorio Estacionario.


Sea el siguiente proceso aleatorio X(t) = A cos(ω0 t + θ), con A y ω0 constantes y θ ∼ U [0, 2π].
Determine su estacionalidad.
Sol. La media del proceso es E {X} = E {A cos(ω0 t + θ)} = 0 ya que se calcula la integral
sobre un periodo completo de la fase. La función de autocorrelación para este proceso está
determinada por

R(t1 , t2 ) = E {A cos(ω0 t1 + θ)A cos(ω0 t2 + θ)}


 
2 1 1
= AE cos[ω0 (t1 − t2 )] + cos[ω0 (t1 + t2 ) + 2θ]
2 2
2
A
= cos[ω0 (t1 − t2 )] ,
2
pues el segundo término corresponde al cálculo de la integral sobre el periodo completo de la
fase y se hace nulo. Dado que la función de autocorrelación depende de la diferencia de tiempo
y no del valor absoluto, entonces corresponde a un proceso aleatorio estacionario. 

Las cantidades y parámetros eléctricos fundamentales pueden ser relacionados con los mo-
mentos de un proceso aleatorio de la siguiente manera

1. La media mX es igual al valor DC de la señal.

2. La cantidad m2X es igual a la potencia normalizada de la componente continua.

7
CAPÍTULO 1. INTRODUCCIÓN

3. El segundo momento de X(t), E {X 2 (t)}, es igual a la potencia normalizada total.


p
4. La cantidad E {X 2 (t)} es igual al valor rms de la señal de corriente o voltaje.

5. La varianza es igual a la potencia normalizada promedio en la componente AC de la señal.

6. La desviación estándar es el valor RMS de la componente alterna de la señal.

1.4 Transformada y Series de Fourier


1.4.1 Series de Fourier
Las series de Fourier permiten descomponer cualquier señal periódica x(t) en una sumatoria
de exponenciales complejas (senos y cosenos), lo que es de gran ayuda en comunicaciones al
realizar análisis de sistemas lineales e invariantes en el tiempo (LTI). Una serie de Fourier es la
expansión ortogonal de una señal periódica con periodo T0 , cuando el set de señales {ejnω0 t }∞
n=−∞
es utilizado como base para dicha expansión. Nótese que ω0 = 2πf0 = 2π T10 . Con esta base,
cualquier señal periódica1 x(t) puede ser expresada como

X
x(t) = xn ejnω0 t , (1.10)
n=−∞

en donde los términos xn son llamados coeficientes de la serie de Fourier de la señal x(t), y
están definidos por Z α+T0
1
xn = x(t)e−jnω0 t dt , (1.11)
T0 α
La variable α es cualquier número real elegido correctamente. La frecuencia f0 es llamada
frecuencia fundamental de la señal periódica, y las frecuencias fn = nf0 son llamados los n-
ésimos armónicos. En la mayorı́a de los casos, tanto α = 0 como α = −T0 /2 son buenas
elecciones dependiendo de la paridad de la señal.
Este tipo de series de Fourier es conocido como forma compleja de la series de Fourier, y
puede ser aplicada tanto en señales reales como complejas, mientras estas sean periódicas. En
general, los coeficientes de la serie de Fourier {xn } son números complejos aun cuando x(t) sea
una señal real.

Ejemplo 1.4 - Series Complejas de Fourier.


A , t ∈ (2k T20 , (2k + 1) T20 ]

Para la la señal w(t) = en donde el parámetro k asume los
0 , i.o.c.
valores k = 0, ±1, ±2, . . . , se pide encontrar su serie de Fourier.
R T0
Sol. Se comienza calculando el valor continuo: c0 = TA0 0 2 dt = A2 . Ahora, los otros valores de
1
En rigor, la condición suficiente para la existencia de una serie de Fourier, es que la señal w(t) satisfaga las
condiciones de Dirchlet. Para más información consultar este link.

8
CAPÍTULO 1. INTRODUCCIÓN

R T0
los coeficientes serán: cn = TA0 0 2 e−jnω0 t dt = j 2πn
A
(e−jnπ − 1). Dado que para n par, e−jnπ = 1
y para n impar e−jnπ = −1, los coeficientes están dados por:
 A
 2 , n=0
A
cn = −j nπ , n impar . 
0 , n par

En el ejemplo anterior, se obtuvo que el valor continuo de la señal es la mitad de la amplitud


máxima de la señal cuadrada, lo que es concordante con la intuición referente al valor medio
2
de dicha señal. Si se considera que A = 2, T0 = 20[ms], entonces x0 = 1, xn = −j nπ para
1
múltiplos impares de la frecuencia fundamental f0 = T0 = 50[Hz], y cero para el resto. Este
resultado se puede apreciar en la Fig. 1.1, en dónde se ha despreciado el término de fase −j y
sólo se dibuja el valor absoluto del espectro.

Fig. 1.1: Señal y espectro discreto obtenido mediante la serie de Fourier del Ejemplo 1.4

Se puede demostrar que para una señal periódica real, x−n = x∗n . En efecto, se tiene que
Z α+T0
1
x−n = x(t)e−j(−n)ω0 t dt
T0 α
Z α+T0
1
= x(t)ejnω0 t dt
T0 α
Z α+T0
1 ∗
x(t) e−jnω0 t dt

=
T0 α
= x∗n .

Ahora bien, como el n-ésimo coeficiente es complejo, se puede descomponer en su parte real y

9
CAPÍTULO 1. INTRODUCCIÓN

compleja como sigue


an − jbn
xn = .
2
Ası́, la parte negativa estará determinada por x−n = x∗n = an +jb 2
n
. Luego de usar la relación de
−jnω0 t
Euler dada por e = cos nω0 t − j sin nω0 t , entonces se obtiene que
Z α+T0
2
an = x(t) cos nω0 t dt (1.12)
T0 α
Z α+T0
2
bn = x(t) sin nω0 t dt , (1.13)
T0 α
y, por lo tanto

a0 X
x(t) = + an cos nω0 t + bn sin nω0 t . (1.14)
2 n=1

Nótese que para n = 0, siempre se tiene que b0 = 0, entonces a0 = 2w0 . Esta relación se conoce
como la serie de Fourier
p trigonométrica.
Definiendo cn = a2n + b2n y θn = − tan−1 abnn , y usando la relación a cos φ + b sin φ =

a2 + b2 cos φ − tan−1 ab , entonces la Ecuación (1.14) se puede escribir de la forma



a0 X
x(t) = + cn cos(nω0 t + θn ) , (1.15)
2 n=1

que es la tercera forma de la expansión en series de Fourier para señales reales periódicas.
Es importante considerar que si x(t) es real y par, vale decir x(−t) = x(t), entonces bn = 0,
por lo que todos los coeficientes xn son reales y la serie trigonométrica está dada solamente por
la suma de cosenos. Similarmente, para una señal real e impar, an = 0 por lo que todos los xn
son imaginarios y la serie está determinada por la suma de senos.
La suma del producto entre los coeficientes de la serie de Fourier y las exponenciales es
teoricamente infinita, lo que resulta imposible de conseguir en la realidad. Es por esto que
en general se utilizan aproximaciones de la representación en series con un número finito de
armónicos. La Fig. 1.2 muestra distintas aproximaciones del pulso rectangular para diferentes
valores de armónicos. A medida que el número de armónicos se incrementa, menos error se tiene
entre ambas señales. Las oscilaciones que presenta la señal aproximada en cada canto recibe
el nombre de fenómeno de Gibbs 2 y se origina porque la n-ésima suma parcial de la serie de
Fourier tiene grandes oscilaciones cerca del salto, lo que a su vez incrementa el máximo valor
de la suma sobre el de la función.

1.4.2 Transformada de Fourier


La transformada de Fourier corresponde a una extensión de las series de Fourier para señales
no periódicas. La transformada de Fourier de una señal denotada por x(t) que satisface las
2
Para más información, ud. puede visitar este link.

10
CAPÍTULO 1. INTRODUCCIÓN

Fig. 1.2: Aproximaciones para un pulso rectangular del Ejemplo 1.4, usando series de Fourier

condiciones de Dirichlet se denota por X(f ), o, equivalentemente, F [x(t)], y está definida por
Z ∞
F [X(t)] ≡ X(f ) = x(t)e−j2πf t dt . (1.16)
−∞

La transformada de Fourier inversa está dada por


Z ∞
−1
F [X(f )] ≡ x(t) = X(f )ej2πf t df . (1.17)
−∞

Si la señal x(t) es real, entonces su transformada de Fourier X(f ) satisface la simetrı́a


Hermitiana, es decir X(−f ) = X ∗ (f ). Las propiedades de la transformada de Fourier se listan
a continuación.
1. Linealidad. La transformada de Fourier de una combinación lineal de dos o más señales,
es la combinación lineal de las correspondientes transformadas de Fourier:
" #
X X
F αi xi (t) = αi F [xi (t)] .
i i

2. Dualidad. Si X(f ) es la transformada de Fourier de x(t), entonces

F [X(t)] = x(−f ) .

3. Corrimiento en el tiempo. Un desplazamiento en el dominio del tiempo, resulta en un


desplazamiento en la fase del dominio de la frecuencia:

F [x(t − t0 )] = e−j2πf t0 F [x(t)]

11
CAPÍTULO 1. INTRODUCCIÓN

4. Escalamiento. Una expansión en el dominio del tiempo resulta en una contracción en el


dominio de la frecuencia, y viceversa:
1
F [x(at)] = F [x(t)] , a 6= 0
|a|

5. Modulación. La multiplicación por una exponencial en el dominio del tiempo, se mani-


fiesta como un desplazamiento en el dominio de la frecuencia.

F ej2πf0 t x(t) = X(f − f0 )


 

6. Derivación. La derivación en el dominio del tiempo corresponde a la multiplicación por


jω en el dominio de la frecuencia:
 n 
d
F n
x(t) = (j2πf )n F [x(t)]
dt

7. Convolución. La convolución en el dominio del tiempo es equivalente a la multiplicación


en el dominio de la frecuencia, y viceversa.

F [x(t) ∗ y(t)] = F [x(t)] F [y(t)]

F [x(t)y(t)] = F [x(t)] ∗ F [y(t)]

Para una señal periódica x(t) con periodo T0 , cuyos coeficientes de Fourier son denominados
por xn , vale decir
X∞
x(t) = xn ejnω0 t ,
n=−∞

tiene por transformada de Fourier


" ∞
#
X
X(f ) = F xn ejnω0 t
n=−∞

X
xn F ejnω0 t
 
=
n=−∞
X∞
= xn δ (f − nf0 ) .
n=−∞

En otras palabras, la transformada de Fourier de una señal periódica consiste en impulsos a los
multiplos enteros de la frecuencia fundamental (armónicos) de la señal original, con un peso igual
al valor de los coeficientes de Fourier. En conclusión, para una señal periódica, su transformada
de Fourier corresponden a los coefficientes xn ubicados en los armónicos correspondientes al
n-ésimo múltiplo de la frecuencia fundamental.

12
CAPÍTULO 1. INTRODUCCIÓN

1.5 Densidad Espectral


La densidad espectral de una señal, caracteriza la distribución de la energı́a o potencia de
dicha señal en el dominio de la frecuencia, dependiendo si se trabaja con señales de energı́a o
potencia, respectivamente. Este concepto se torna muy importante con la presencia de filtros
en los sistemas de comunicaciones, pues se requerirá evaluar la señal y el ruido a la salida de
un filtro. Para realizar esta tarea, se utiliza la Densidad Espectral de Energı́a (ESD, Energy
Spectral Density) o la Densidad Espectral de Potencia (PSD, Power Spectral Density).

1.5.1 Señales de Energı́a y Potencia


Una señal eléctrica puede ser representada como un voltaje v(t) o una corriente i(t), con una
potencia instantanea p(t) a través del resistor R, definida por p(t) = v 2 (t)R−1 = i2 (t)R. En
sistemas de comunicaciones se trabaja con el concepto de “potencia normalizada” que involucra
asumir que el valor de la resistencia R es unitario (R=1Ω), por lo que ambos lados de la ecuación
anterior tienen la misma forma sin importar si se habla de señales de voltaje o de corriente.
Entonces, el concepto de potencia normalizada permite expresar la potencia instantanea de la
forma
p(t) = x2 (t) (1.18)
en dónde x(t) representa indistintamente una señal de voltaje o de corriente.
La energı́a y la potencia promedio disipada durante el intervalo de tiempo ] − T2 , T2 [ por una
señal real con potencia instantánea expresada por la Ecuación (1.18), puede ser escrita como:
Z T Z T
2
2 1 2
ET , x (t) dt y, PT , x2 (t) dt
− T2 T − T2

El desempeño de un sistema de comunicaciones depende de la energı́a de la señal detectada.


Mientras mayor sea la energı́a de las señales detectadas, el proceso de detección se hará con
menos errores que si las señales fueran de energı́a más baja. Por otro lado, la potencia es la
tasa a la cual la energı́a es entregada y es importante porque determina las condiciones de
transmisión/recepción de las señales. Entonces, en el análisis de señales de comunicaciones,
resulta preferible trabajar con señales de energı́a. La señal x(t) será considerada una señal de
energia si y solo si 0 < E < ∞, en donde
Z T Z ∞
2
2
E , lim x (t) dt = x2 (t) dt (1.19)
T →∞ − T2 −∞

En el mundo real todas las señales tienen energı́a finita, sin embargo como consecuencia de la
definición matemática de las señales periódicas, estas existen para todo tiempo por lo que tienen
energı́a infinita. Además, las señales aleatorias también tienen energı́a infinita, por lo que se
requiere definir una clase de señales llamadas señales de potencia, que serán aquellas señales
no nulas que tienen potencia promedio finita para todo el tiempo, en sı́mbolos 0 < P < ∞, en
donde: Z T
1 2
P , lim x2 (t) dt (1.20)
T →∞ T − T
2

13
CAPÍTULO 1. INTRODUCCIÓN

Las definiciones de señales de energı́a y potencia son mutuamente excluyentes, ya que una
señal de energı́a tiene energı́a finita pero potencia media nula, en cambio una señal de potencia
tiene potencia media finita pero energı́a infinita. Como norma general, las señales periódicas y
las señales aleatorias son consideradas de potencia. Por otro lado, las señales que a la vez son
no periódicas y determinı́sticas son clasificadas como señales de energı́a.

1.5.2 Teorema de Parseval


Dada la importancia de este teorema en las señales utilizadas en comunicaciones, es necesario
enunciarlo en forma independiente y en forma previa a las definiciones de ESD y PSD.
Este teorema está dado por:
Z ∞ Z ∞
2
|x(t)| dt = |X(f )|2 df (1.21)
−∞ −∞

en donde X(f ) es la transformada de Fourier de la señal no periódica x(t). Nótese que el lado
izquierdo de la ecuación del teorema corresponde a la definición de energı́a media definida en la
Ecuación (1.19)
La interpretación de la Ecuación (1.21) y del teorema en sı́, es que la energı́a total contenida
en la señal x(t) sumada a lo largo de todo el tiempo t es igual a la energı́a total de la transformada
de Fourier de x(t), X(f ), sumada a lo largo de todas las componentes de frecuencia f .

1.5.3 Densidad Espectral de Energı́a (ESD)


La energı́a total de una señal real x(t) definida para todos los números reales, está dada por la
Ecuación (1.19). Utilizando el Teorema de Parseval, se puede relacionar la energı́a de dicha señal
expresada en el dominio del tiempo, con la energı́a expresada en el dominio de la frecuencia,
luego Z ∞
E = |X(f )|2 df .
−∞

Esto significa que la energı́a media de una señal x(t) está dada por el área bajo la curva |X(f )|2 .
Como consecuencia, la función en frecuencia |X(f )|2 define como la energı́a se distribuye para
todas las componentes de frecuencia f . Ası́, en palabras más formales, si se define la magnitud
al cuadrado del espectro como:
ξ(f ) , |X(f )|2 , (1.22)
entonces la cantidad ξ(f ) es la forma de onda de la Densidad Espectral del Energı́a (ESD) de
la señal x(t).
Nótese que esta definición de ESD requiere que la transformada de Fourier de la señal
exista, lo que matemáticamente implica que las señales sean integrables cuadráticamente. Por
esta razón, es más común hablar de densidad espectral de potencia (PSD) que describe como
la potencia de la señal está distribuı́da en las distintas frecuencias.

14
CAPÍTULO 1. INTRODUCCIÓN

1.5.4 Densidad Espectral de Potencia (PSD)


La PSD es particularmente importante en sistemas de comunicaciones pues describe la dis-
tribución de una señal de potencia en el dominio de la frecuencia, permitiendo determinar como
dicha señal pasa através de una red de comunicaciones de respuesta en frecuencia conocida.
La potencia promedio P de una señal real de potencia x(t) está definita por la Ecuación (1.20).
Tomando el teorema de Parseval sobre señales reales y periódicas se obtiene la relación
Z T0 ∞
1 2
2
X
x (t) dt = |xn |2 , (1.23)
T0 T
− 20 n=−∞

en donde el lado izquierdo correspnde a la definición de la potencia media de una señal periódica
y los términos |xn | son los coeficientes complejos de la serie de Fourier de dicha señal. Nueva-
mente, planteando esta igualdad, se tiene que la potencia media de la señal estará dada por
suma de todas las componentes espectrales de ella a lo largo de la frecuencia. En sı́mbolos

X
P = |xn |2 .
n=−∞

Ası́, se define la Densidad Espectral de Potencia (PSD) de la señal periódica x(t) mediante
+∞
X
ρ(f ) , |xn |2 δ(f − nf0 ) . (1.24)
n=−∞

Nótese que ρ(f ) es una función discreta en frecuencia, real, par y no-negativa
Para señales no-periódicas se requiere definir una versión truncada de la señal, mediante:

x(t) , − T2 < t < T2


  
t
xT (t) , = w(t) Π .
0 , i.o.c. T

Ahora, usando la Ecuación (1.20) y el teorema de Parseval dado por la Ecuacion (1.21) se
tiene que la potencia normalizada promedio está determinada por:
1 ∞ 2 1 ∞
Z ∞
|XT (f )|2
Z Z
2
P = lim xT (t) dt = lim |XT (f )| df = lim df
T →∞ T −∞ T →∞ T −∞ −∞ T →∞ T
Entonces, utilizando el mismo principio explicado para el caso de señales periódicas, se define
la PSD de una señal no-periódica de una señal como:
|XT (f )|2
ρ(f ) = lim , (1.25)
T →∞ T
de donde se puede extraer directamente que la potencia promedio de la señal estará determinada
por el cálculo de la integral de la PSD a lo largo de todas las frecuencias. Este resultado es
de vital importancia para señales aleatorias en dónde no se puede calcular la transformada de
Fourier pero si su PSD mediante la función de autocorrelación como se verá en la siguiente
sección.

15
CAPÍTULO 1. INTRODUCCIÓN

Ejemplo 1.5 - PSD señal periódica.


Encuentre la potencia promedio normalizada de la señal x(t) = A cos(ω0 t) usando el promedio
temporal y en base a las series de Fourier.
T
2 R 0 2
Sol. Usando la Ecuación (1.23), se tiene P = AT0 2T0 cos2 (ω0 t) dt = A2 . Por otra parte, al
− 2
usar la definición de una PSD para señal periódica dada por la Ecuación (1.24), se obtiene
por mediante las series de Fourier que x1 = x−1 = A2 y xn = 0, ∀ n = 0, ±2, ±3, . . . . Luego
2 R∞ 2
ρ(f ) = A4 [δ(f + f0 ) + δ(f − f0 )], entonces P = −∞ ρ(f ) = A2 , que es el mismo valor encontrado
mediante el cálculo del valor medio. 

Ejemplo 1.6 - PSD, Potencia media y valor RMS.


Determine la PSD, la potencia media y el valor RMS de la señal x(t) = A sin(ω0 t), mediante el
uso de la función de autocorrelación.
A2
Sol. La función de autocorrelación estará determinada
h por R
i (τ ) = 2 cos(ω0 τ ), entonces su
A2 2
PSD estará determinada por ρ(f ) = F [R (τ )] = F 2
cos(ω0 τ ) = A4 [δ(f + f0 ) + δ(f − f0 )]. La
A2

potencia media será P = R (0) = 2
y el valor RMS xRM S = P = √A2 . 

PSD de un Proceso Aleatorio


Anteriormente se dijo que un proceso aleatorio X(t) se clasificaba como una señal de potencia,
por lo que tendrá una PSD caracterı́stica ρX (f ) que está descrita por la Ecuación (1.25). El
problema con dicha definición, es que requiere el cálculo de transformada de Fourier del proceso
aleatorio, cosa que normalmente es imposible pues no se tiene una descripción en el tiempo
que permita el cálculo de la integral. Por esta razón se necesita recordar que la PSD y la
autocorrelación se relacionan mediante la transformada de Fourier como lo sentencia el Teorema
de Wiener-Khinchin.

Teorema Wiener-Khinchin. Para un proceso aleatorio estacionario X(t), su densidad es-


pectral de potencia (PSD) corresponde a la transformada de Fourier de la función de
autocorrelación, es decir
ρX (f ) = F [RX (τ )] . (1.26)

Entonces, la PSD de una secuencia aleatoria de digitos binarios puede ser obtenida mediante
la transformada de fourier de la función de autocorrelación. Debe recordarse que el área bajo
la curva de la PSD corresponde a la potencia promedio de la señal.

Ejemplo 1.7 - PSD proceso aleatorio estacionario.


Sea el siguiente proceso aleatorio X(t) = A cos(ω0 t + θ), con A y ω0 constantes y θ ∼ U [0, 2π].
Determine la PSD de dicho proceso.
Sol. Anteriormente se obtuvo que la media del proceso es E {X} = 0 y que la función de

16
CAPÍTULO 1. INTRODUCCIÓN

(a) Señal original y contaminada con ruido blanco (b) PSD de la señal

Fig. 1.3: Estimación de la PSD de una señal determinı́stica contaminada con ruido blanco.

autocorrelación para este proceso es R (t1 , t2 ) = 21 A2 cos[ω0 (t2 − t1 )] = 12 A2 cos ω0 τ , por lo


que corresponde a un proceso estacionario. Entonces la PSD estará determinada por ρ(f ) =
A2
4
[δ(f − f0 ) + δ(f + f0 )]. 

Aparte de permitir realizar análisis espectral de los procesos aleatorios, la PSD permite tra-
bajar con señales determinı́sticas contaminadas con ruido aleatorio. Por ejemplo, para una señal
dada por x(t) = cos(2π50t) + cos(2π250t) que se contamina con ruido blanco como se muestra
en la Fig. 1.3(a), la información a priori de las componentes espectrales resulta practicamente
imposible de obtener. Al calcular la función de autocorrelación de la señal y tomar la transfor-
mada de Fourier de dicho resultado, se obtiene la estimación de la PSD de la señal. Cómo se
puede observar en la Fig. 1.3(b), se logran visualizar claramente las componentes espectrales en
50[Hz] y 250[Hz] conforme a la señal original, a pesar de la presencia de ruido aleatorio en la
señal a procesar.

1.6 Conversión Analogo-Digital


Hasta el momento, se ha hablado de conceptos y definiciones sobre señales definidas en tiempo
y amplitud continuo, pudiendo esta última asumir infinitos valores. El problema con estas
señales es que no pueden ser transmitidas en su forma natural mediante un sistema digital,
por lo que deben ser muestreadas (llevar las señales de tiempo continuo a tiempo discreto) y
cuantizadas (llevar los valores de amplitud a un numero finito). Este proceso se explicará en
las siguientes secciones. Como resultado se tiene una señal en tiempo y amplitud discretos que
puede codificarse como se verá en el siguiente capı́tulo.

17
CAPÍTULO 1. INTRODUCCIÓN

1.6.1 Muestro de una Señal


Conforme a la experiencia previa, se puede decir que el muestrear una señal, corresponde a
multiplicarla por un tren de impulsos discretos con periodo Ts (o frecuencia de muestreo f s =
1
Ts
). Ası́, considerando la función impulso unitario, δ(t), la señal x(t) muestreada cada Ts
unidades de tiempo, estará dada por

X
xs (t) = x(t)δ(t − nTs ) . (1.27)
n=−∞

Considerando que x(t) no depende de n y puede salir de la sumatoria, se aplica la trans-


formada de Fourier a ambos lados de la Ecuación (1.27), para obtener el espectro de la señal
muestrada.
" ∞ #
X
Xs (f ) = X(f ) ∗ F δ(t − nTs )
n=−∞

1 X
= X(f ) ∗ δ(f − nfs )
Ts n=−∞

1 X
= X(f − nfs ) (1.28)
Ts n=−∞

en dónde ∗ representa la convolución en tiempo-discreto, y se utilizó la propiedad de la con-


volución de la señal impulso, que dice: X(f ) ∗ δ(f − nfs ) = X(f − nfs ). Este resultado muestra
que el espectro de la señal muestreada Xs (f ) es una replica de la transformada de Fourier de la
señal original que se repite a una tasa de fs [Hz] y que se atenúa en un factor de fs .
En la Fig. 1.4 se pueden observar las etapas en el proceso de muestreo ideal mediante la
utilización de la función impulso unitario. La señal análoga de la Fig. 1.4(a) es una señal de
banda limitada ya que se hace nula fuera del intervalo −15 < f < 15, como se puede observar en
la Fig. 1.4(b). Esto implica que el ancho de banda de la señal es W = 15[Hz]. Utilizando una
frecuencia de muestreo de fs = 100[Hz] el criterio de Nyquist se satisface de forma completa,
por lo que no existirá aliasing tal como se puede observar en la Fig. 1.4(f). Esta misma figura
ratifica el hecho de que en la señal muestreada el espectro se repite cada fs [Hz] como se demostró
matemáticamente.

1.6.2 Cuantización
Después del proceso de muestreo, se tiene una señal de tiempo discreto, sin embargo las am-
plitudes aún son continuas y puede asumir cualquier valor real dentro de los lı́mites propios de
la señal. Dado que la transmisión de números reales en número de base 2 tienen largo infinito,
la transmisión de esta señal se hace imposible. Por esta razón, posterior al muestreo se realiza
el proceso de cuantización. En este proceso se realiza la discretización de la amplitud de las
señales, lo que permite representar la señal de forma válida con valores binarios de largo finito.
La forma más básica de realizar el proceso de cuantización es mediante la subdivisión del
rango dinámico de la señal muestreada en un número finito de valores. En términos coloquiales,

18
CAPÍTULO 1. INTRODUCCIÓN

(a) Señal Análoga Original (b) Espectro Señal Análoga

(c) Tren de Impulsos (d) Espectro Tren de Impulsos

(e) Señal Muestreada (f) Espectro Señal Muestreada

Fig. 1.4: Diferentes etapas del muestreo de una señal análoga.

19
CAPÍTULO 1. INTRODUCCIÓN

es como posicionar la señal sobre un cuaderno de lineas. Ası́ los valores que la señal asume en los
distintos instantes de tiempo, se redondean a un valor máximo o mı́nimo de dicha subdivisión.
Mediante esta técnica se logran resultados aceptables, pero intuitivamente se puede decir que
se agregan errores propios al redondeo de valores. Este método de cuantización ası́ como otros
más avanzados se estudiarán con más detalle a partir de la sección 3.3.1.

20
Capı́tulo 2

Teorı́a de la Información

2.1 Introducción
La Teorı́a de la Información busca contestar dos preguntas fundamentales en la teorı́a de las
comunicaciones: Cuál es la máxima compresión de datos (Respuesta: La entropı́a, H) y cuál es
la máxima tasa de transmisión de la comunicación (Respuesta: La capacidad del canal, C). Por
esta misma razón, la teorı́a de la información se considera como una sub-materia de la teorı́a de
las comunicaciones, sin embargo resulta ser un área muchı́simo más grande pues tiene mucho que
aportar en otras áreas como Fı́sica Estadı́stica (Termodinámica), Ciencias de la Computación
(Complejidad de Kolmogorov), Inferencia Estadı́stica, Probabilidad y Estadı́stica entre otras
materias.

2.2 Modelo de las Fuentes de Información


Acá, se estudiarán solamente modelos simples para las fuentes de información ya que fuentes
complejas involucran matemáticas avanzadas que escapan del fin del curso. Sin embargo, estos
modelos simples igualmente permiten definir en forma precisa una medida de la información y
de los lı́mites en la compresión y transmisión de la información.
El modelo más simple para una fuente de información es la fuente discreta sin memoria, Dis-
crete Memoryless Source (DMS), que es un proceso aleatorio en tiempo discreto y de amplitud
discreta en el cual todos los Xi ’s son generados en forma independiente y con la misma dis-
tribución. Por lo tanto, un DMS genera una secuencia de variables aleatorias i.i.d. (independent
and identically distributed ), que toman valores en un set discreto de posibilidades.
Permı́tase definir dicho set discreto de posibilidades que tomará la variable aleatoria mediante
A = {a1 , a2 , . . . , aM }, y la función de probabilidades correspondientes denotadas por pi =
P (X = ai ), para i = 1, 2, . . . , M . Una descripción completa de una DMS está determinada por
el set A , llamado alfabeto, y el set de probabilidades {pi }M i=1 .

2.2.1 Concepto de Información


La información –de forma general– corresponde a un conocimiento especı́fico o dato de interés,
que agrupado con un conjunto de datos extras constituye un mensaje sobre un determinado

21
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN

ente o fenómeno. En otras palabras, se puede decir que el concepto de mensaje, viene a ser
como una materialización de la información.
La información es transferida desde una fuente a un destinatario, sólo si este último no la
conocı́a previamente. Por ejemplo, considere el escenario en que un grupo de gente mira por
la ventana. Esto involucra que todos saben (tienen la información) que el dı́a está soleado. Si
alguien dice “El dı́a está soleado” no es información, pues no aporta ningún dato nuevo a lo
que todos conocen. Por otro lado si alguien dice “En la noche lloverá” para muchos si será
información pues no necesariamente todos sabrán dicho dato.
Pensando en señales de voltaje, una baterı́a de 1.5 volts no tiene mucha información que
aportar, pues una vez sabido su voltaje mediante un voltı́metro, este seguirá constante por
muchı́simo tiempo lo que no aporta ningún dato nuevo → La información está relacionada con
cambios.
Por otro lado, una señal sinusoidal de voltaje varı́a en el tiempo, sin embargo una vez que está
se ha caracterizado midiendo su amplitud, frecuencia y fase, no existe ninguna información nueva
que ésta señal pueda aportar → La información está relacionada con cambios impredecibles.

2.2.2 Medida de la Información


La cantidad de información sobre un evento se relaciona estrechamente con la probabilidad de
su ocurrencia. Los mensajes que contienen noticias de gran probabilidad de ocurrencia, es decir
que indican muy poca incertidumbre en el resultado, llevan relativamente poca información.
Por otro lado, aquellos mensajes que contienen noticias con baja probabilidad de ocurrencia
conducen grandes cantidades de información. Ası́ mismo, un evento totalmente cierto (es decir
con probabilidad unitaria) lleva cero información; en cambio un evento improbable (probabilidad
casi nula), su ocurrencia lleva una cantidad infinita de información. Sobre esta base, la medida
de información asociada a un evento A que ocurre con una probabilidad PA se define como:
1
IA = log = − log PA (2.1)
PA
La Ecuación (2.1) se conoce como self-information y fue derivada por Claude E. Shannon
en 1948. Es importante tener en cuenta, que la definición está hecha con logaritmo en base 2,
por lo tanto la unidad de medida de IA es bits. Si se utiliza logaritmos naturales (base e), la
unidad será nat y para logaritmo en base 10, se dice que se mide en hartley.

Ejemplo 2.1 - Autoinformación.


Considerando el experimento de lanzar una moneda, la probabilidad de tener “sello” es 0.5.
Una vez que esto haya sucedido, se tiene Isello = − log2 (0.5) = 1 bit de información. 

Ejemplo 2.2 - Autoinformación.


Considerando el experimento de lanzar un dado, la probabilidad de que salga cualquier número
es 1/6. Suponiendo que salió un 4, la cantidad de información es: I4 = log2 (6) = 2.5850 bits de
información. 

22
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN

Ejemplo 2.3 - Autoinformación.


Los sı́mbolos A, B, C y D ocurren con probabilidades 1/2, 1/4, 1/8 y 1/8 respectivamente.
Calcule la información en el mensaje de tres sı́mbolos X = BDA suponiendo que estos son
estadı́sticamente independientes.
Sol. Como los eventos son estadı́sticamente independientes, la medida de información (por
ser logarı́tmica) resulta aditiva, luego: IX = − log2 (PX ) = − log2 (PB PD PA ) = − log2 (PB ) −
log2 (PD ) − log2 (PA ) = log2 4 + log2 8 + log2 2 = 2 + 3 + 1 = 6 bits de información. 

2.2.3 Entropı́a
Lo anteriormente discutido, define la medida de la información para el caso en que todos los
mensajes son igualmente probables, lo que resulta ser sólo un caso particular. A modo de
generalización se define una “información promedio” de cada mensaje, llamada Entropı́a, H.
La entropı́a corresponde a una medida de la incertidumbre de una variable aleatoria. Defı́nase
X como una variable aleatoria discreta con alfabeto A y función de probabilidad p(x) = P (X =
x). Ası́, se define la Entropı́a H(X) de la variable aleatoria discreta X como:
X
H(X) = − p(x) log p(x) (2.2)
x∈A

en donde el logaritmo se utiliza en base 2 a menos que se especifique lo contrario, y se asume


por convención que 0 log 0 = 0, lo que se puede justificar por que la relación x log x → 0 cuando
x → 0.
La entropı́a de X también puede ser interpretada como el valor esperado de − log p(X) lo
que equivale a la esperanza de la self-information del mensaje, luego
 
1
H(X) = E {IX } = E log
p(X)
que está relacionada con la definición de entropia en termodinámica.

Ejemplo 2.4 - Entropı́a.


Considere la variable aleatoria X ∈ {0, 1}. Calcule la entropı́a de X, considerando que la fuente
de información es sin-memoria.
Sol. Considerando que la probabilidad de que X = 1 es p, la probabilidad de que X = 0 será
1 − p. Entonces su entropı́a será H(X) = −p log p − (1 − p) log(1 − p) , H(p). Esta función es
conocida como la Función de Entropı́a Binaria y se muestra en la Fig. 2.1. 

En particular H(p) = 1 bit cuando p = 0.5. Si la función H(p) se grafica con respecto a
p se puede notar una de las propiedades básicas de la entropı́a: es una función cóncava de la
distribución y nula para p = 0 ó 1. Además el máximo ocurre cuando p = 0.5 lo que es claro
pues corresponde al punto de máxima incertidumbre. Esto se puede corroborar observando la
Fig. 2.1.

23
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN

Fig. 2.1: La función de entropı́a binaria H(p)

Ejemplo 2.5 - Entropı́a de DMS.


Una fuente con ancho de banda de 4kHz se muestrea en forma óptima. Asumiendo que la
secuencia resultante se puede modelar como una fuente DMS con alfabeto A = {−2, −1, 0, 1, 2}
y con probabilidades correspondientes dadas por 12 , 41 , 18 , 16
1 1

, 16 , determine la tasa de la fuente
en bits por segundo.
Sol. La entropı́a estará dada por H(X) = 15 8
bits por muestra. Dado que el muestreo óptimo se
logra con la frecuencia de Nyquist, entonces la frecuencia de muestreo es fs = 2 · 4k = 8[kHz], o
en otras palabras, se tomarán 8000 muestras por segundo. Ası́ la fuente producirá información
a una tasa de 8000 15
8
= 15 · 103 bits por segundo. 

Ejemplo 2.6 - Entropı́a de DMS Equiprobable.


Una fuente de información discreta sin memoria tiene un alfabeto de tamaño N y las salidas
son equiprobables. Encuentre la entropia de esta fuente.
Sol. Como los eventos son equiprobables, todos tienen una probabilidad de N1 , luego H(x) =
− N 1 1
P
i=1 N log N = log N . 

2.2.4 Entropı́a Conjunta y Condicional


Cuando se trabaja con 2 o más variables aleatorias, se introduce el concepto de entropia condi-
cional y conjunta de la misma forma en que se habla de probabilidades condicionales y conjuntas.
Este concepto es principalmente importante cuando se trabaja con fuentes con memoria.

24
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN

Ası́, se define la Entropia Conjunta de dos variables aleatorias discretas (X, Y ) como:
X
H(X, Y ) = − p(x, y) log p(x, y) (2.3)
x,y

lo que también puede expresarse mediante H(X, Y ) = E {log p(X, Y )}.


Para el caso de m variables aleatorias X = (X1 , X2 , . . . , Xm ), se tiene:
X
H(X) = − p(x1 , x2 , . . . , xm ) log p(x1 , x2 , . . . , xm )
x1 ,x2 ,...,xm

por lo que se puede decir que la entropia conjunta es simplemente la entropia de una variable
aleatoria vectorial.

Ejemplo 2.7 - Entropia Conjunta.


Dos variables aleatorias binarias X e Y están distribuı́das de acuerdo a una PMF conjunta dada
por P (X = 0, Y = 0) = 41 , P (X = 0, Y = 1) = 14 y P (X = 1, Y = 1) = 21 . Determine los valores
de H(X), H(Y ) y H(X, Y ).
Sol. Dada la distribución, se tiene que P (X = 1, Y = 0) = 0. Ası́ P (X = 0) = P (X = 0, Y =
0) + P (X = 0, Y = 1) = 21 , entonces se tiene que P (X = 1) = 21 , luego H(X) = − log 21 = 1.
Por otra parte, P (Y = 0) = 14 , lo que implica que P (Y = 1) = 43 , luego H(Y ) = 0.8113. Ahora
bien, H(X, Y ) = − 41 log 14 − 21 log 12 − 14 log 41 = 32 . 

La Entropia Condicional de la variable aleatoria X, dada la variable aleatoria Y , expre-


sada como H(X|Y ) puede ser definida como
X
H(X|Y ) = − p(x, y) log p(x|y) (2.4)
x,y

En general, se tiene que


X
H(Xm |X1 , X2 , . . . , Xm−1 ) = − p(x1 , x2 , . . . , xm ) log p(xn |x1 , x2 , . . . , xm−1 )
x1 ,x2 ,...,xm

El Teorema de la Regla de la Cadena, permite comprobar que


H(X, Y ) = H(X) + H(Y |X) (2.5)
lo que a su vez, como corolario, dice que esto se cumple en forma inversa, vale decir
H(X, Y ) = H(Y ) + H(X|Y ) .
Para comprobar esto, se puede considerar la definición de probabilidad condicional
p(X, Y ) = p(X)p(Y |X)
log p(X, Y ) = log[p(X)p(Y |X)]
= log p(X) + log p(Y |X)
ahora, tomando la esperanza en ambos lados de la ecuación, se obtiene el resultado esperado.

25
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN

Ejemplo 2.8 - Entropı́a Condicional.


Para el Ejemplo 2.7, calcule H(X|Y ) y H(Y |X).
Sol. Se tiene que H(Y |X) = H(X, Y ) − H(X) = 12 , y H(X|Y ) = 1.5 − 0.8113 = 0.6887. 

2.2.5 Información Mutua


Para variables aleatorias discretas, H(X|Y ) denota la entropı́a (o incertidumbre) de la variable
aleatoria X, luego de que la variable aleatoria Y es conocida. Ası́, dado que la entropı́a de la
variable X es H(X), la cantidad H(X) − H(X|Y ) representa la cantidad de incertidumbre que
ha sido removida al revelar la variable aleatoria Y . Esta cantidad juega un rol importante tanto
en la codificaciones de canales como de fuentes y es llamada Información Mutua entre las 2
variables aleatorias.
Entonces, la información mutua entre dos variables aleatorias discretas X e Y , es denotada
por I(X; Y ) y está definida por
I(X; Y ) = H(X) − H(X|Y ) (2.6)
por simetrı́a, también se tiene que I(X; Y ) = H(Y ) − H(Y |X). Ası́ se puede considerar que X
dice tanto de Y como Y lo dice de X.
Considerando ahora que H(X, Y ) = H(X) + H(Y |X), entonces la información mutua
también puede ser calculada por:
I(X; Y ) = H(X) + H(Y ) − H(X, Y ) (2.7)
Finalmente, se puede notar que
I(X; X) = H(X) − H(X|X) = H(X)

2.3 Teorema de Codificación de la Fuente


La entropı́a de una fuente de información, da una cota acerca de la tasa a la cuál la fuente
puede ser comprimida para una reconstrucción exitosa. Esto significa que a tasas superiores
a la entropı́a es posible diseñar un código con una probabilidad de error tan pequeña como se
quiera, por otro lado, a tasas inferiores a la entropı́a dicho código no existe.
Esto se justifica en el Teorema de Códificación de la Fuente, propuesto por Shannon en 1948
y que dice:
Teorema de Codificación de la Fuente. Una fuente de información con entropı́a (o tasa de
entropı́a) H, puede ser codificada con una probabilidad de error arbitrariamente pequeña
a cualquier tasa R [bits/simbolo], siempre que R > H. Consecuentemente, si R < H,
el error será muy lejano a cero, independiente de la complejidad utilizada en la codifi-
cación/decodificación.
A pesar de la importancia de este resultado, éste no da ningún algoritmo para diseñar
códigos que se aproximen a esta condición, por lo que se estudiarán algunas alternativas que
implementan esta idea.

26
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN

2.3.1 Código Huffman


El objetivo del código Huffman es asignar una secuencia de bits a cada una de las posibles
salidas de una fuente discreta. En forma intuitiva, se basa en la probabilidad de ocurrencia de
dichas salidas para realizar la asignación de cada palabra, dándo a las salidas más probables las
palabras más cortas (con menos bits) y a las menos frecuentes las palabras más largas. Este
código busca ser de decodificación única, instantáneo y de menor largo medio de palabra, que
está determinado por X
R̄ = p(x)l(x) , (2.8)
x

en donde l(x) es el largo del código de palabra asignado a la salida x. Se puede demostrar que
R̄ satisface la relación:
H(X) ≤ R̄ < H(X) + 1 .
Además, como se dijo que la entropı́a representa la cota mı́nima de compresión de datos, la
eficiencia del código Huffman está dado por:

H(X)
η = .

Algoritmo del Código Huffman


El algoritmo se puede describir mediante los siguientes pasos:

1. Ordenar las salidas de la fuente en orden de probabilidades decrecientes

2. Agrupar los menos probables y generar una nueva salida cuya probabilidad es la suma de
las probabilidades correspondientes a las salidas agrupadas

3. Si quedan 2 salidas disponibles, ir al paso 4; sino, volver al paso 1.

4. Asignar 0 y 1 como códigos de palabra a las 2 salidas. Por acuerdo, se asignará un 0 a la


salida menos probable de las 2 disponibles.

5. Recorrer el arbol en forma inversa, asignando 0 o 1 a cada rama. Repetir hasta llegar a
las salidas originales.

Para clarificar el algoritmo, se plantea el siguiente ejemplo.

Ejemplo 2.9 - Código Huffman.


Considere una fuente de 5 sı́mbolos {a1 , a2 , a3 , a4 , a5 } con probabilidades { 21 , 41 , 18 , 16
1 1
, 16 } respec-
tivamente. Encuentre el código Huffman para dicha fuente. Calcule además el largo promedio,
y la eficiencia del código encontrado.
Sol. Las probabilidades se mantienen en orden, pues fueron asignadas en forma decreciente,
luego:
que corresponde al código originalmente dado. El largo medio será R̄ = 0.5 · 1 + 0.25 · 2 +
0.125 · 3 + 0.0625 · 4 + 0.0625 · 4 = 1.8750. La entropı́a de la fuente está dada por H(X) =

27
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN

a1 ( 12 ) → a1 ( 12 ) → a1 ( 12 ) → a1 ( 21 ) 0 0
a2 ( 14 ) → a2 ( 14 ) → a2 ( 14 ) 0e a2345 ( 12 ) 1 10
a3 ( 18 ) → a3 ( 18 ) 0e a345 ( 14 ) 1c 110
1
a4 ( 16 ) 0e a45 ( 18 ) 1c 1110
1
a5 ( 16 ) 1c 1111

−0.5 log 0.5 − 0.25 log 0.25 − 0.125 log 0.125 − 0.0625 log 0.0625 − 0.0625 log 0.0625 = 1.875, ası́
la eficiencia será η = 100%. 

A pesar de que el código Huffman es óptimo en el sentido de que entrega palabras con un
largo medio mı́nimo, presenta dos grandes problemas en su implementación:
1. El diseño del código depende fuertemente de las probabilidades (estadı́sticas), las que se
debe saber con anterioridad. Esto implica que el código Huffman se debe realizar en dos
pasos: primero se estiman las estadı́sticas de la fuente de información y luego se realiza la
codificación en si.
2. El otro problema que presenta el código Huffman es que se diseña sobre bloques de la
fuente de largo uno, solo emplea variaciones en la frecuencia de las salidas de la fuente
y no la memoria. Si se quisiera utilizar también la memoria de la fuente, se requerirı́a
utilizar bloques de largo 2 o más, lo que incrementa en forma exponencial la complejidad
del algoritmo.

2.3.2 Código Lempel-Ziv


El algoritmo de Lempel-Ziv pertenece a la clase de algoritmos de codificación de fuente uni-
versales, es decir, algoritmos que son independientes de las estadı́sticas de la fuente. Para una
ristra de bits, el algoritmo se procede como sigue
1. Se identifican frases del mı́nimo largo que no hayan aparecido anteriormente en la ristra.
2. Mientras la nueva salida de la fuente despues de la última frase coincida con una de las
existentes, no se introduce una nueva frase y se considera una nueva letra de la fuente.
3. Apenas la nueva salida sea diferente de las frases previas, se reconoce como una nueva
frase y se codifica. En términos intuitivos se puede notar entonces que la nueva frase
corresponde a una frase previa más algún bit de innovación.
4. La codificación se realiza concatenando la posición de la frase previamente encontrada con
el bit de innovación.

Ejemplo 2.10 - Código Lempel-Ziv.


Codifique mediante Lempel-Ziv la ristra dada por

01000011000010100000101000001100000101000010 .

28
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN

Sol. En base a las reglas anteriores, se debe realizar la separación en frases diferentes, luego

0|1|00|001|10|000|101|0000|01|010|00001|100|0001|0100|0010 ,

que involucra tener 15 frases, con lo que, para representar cada salida de la fuente de información,
se requieren 4 bits por frase más el bit de innovación. Entonces, se genera la tabla de asignación
de posiciones para determinar la codificación que se muestra a continuación:

Ubicación Contenido Código


1 0001 0 0000 0
2 0010 1 0000 1
3 0011 00 0001 0
4 0100 001 0011 1
5 0101 10 0010 0
6 0110 000 0011 0
7 0111 101 0101 1
8 1000 0000 0110 0
9 1001 01 0001 1
10 1010 010 1001 0
11 1011 00001 1000 1
12 1100 100 0101 0
13 1101 0001 0110 1
14 1110 0100 1010 0
15 1111 0010 0100 0

Por lo que el problema se considera resuelto. 

La representación obtenida en el ejemplo, dificilmente se pueden considerar como compresión


de datos ya que 44 bits fueron mapeados en una secuencia de 75 bits. Sin embargo al momento
de trabajar con ristras de bits mucho más grandes, la compresión se torna más evidente.
Un problema que presenta la codificación LZ es con respecto a qué número de frases se deben
elegir, ya que cualquier número fijo de frases eventualmente será insuficiente para una fuente
continua de bits, produciéndose overflow. Una forma de solucionarlo es que el par codificador-
decodificador debe eliminar de sus diccionarios las frases obsoletas y substituirlos por nuevos
elementos.
La decodificación, se realiza simplemente considerando que en la ubicación 0 siempre irán
los dı́gitos binarios 0 ó 1 y el bit de innovación determinará a cuál corresponde. Posteriormente
se realiza la recuperación traduciendo la mezcla ubicación + bit de innovación para armar la
ristra original de bits.
El algoritmo LZ es ampliamente utilizado en la práctica para comprimir archivos. Los
comandos compress y uncompress del sistema operativo UNIX, ası́ como tambien programas
de compresión (zip, gzip, etc) son implementaciones de diferentes versiones de este algoritmo.

29
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN

2.3.3 Código ASCII


ASCII son las siglas de American Standar Code for Information Interchange. Su uso primordial
es facilitar el intercambio de información entre sistemas de procesamiento de datos y equipos
asociados y dentro de sistemas de comunicación de datos.
En un principio cada carácter se codificaba mediante 7 dı́gitos binarios y fue creado para el
juego de caracteres ingleses más corrientes, por lo que no contemplaba ni caracteres especiales
ni caracteres especı́ficos de otras lenguas. Esto hizo que posteriormente se extendiera a 8 dı́gitos
binarios. El código ASCII se resume en la Tabla 2.1.

Tabla 2.1: Código ASCII


0 1 2 3 4 5 6 7
0 NUL DLE SPC 0 @ P ‘ p
1 SOH DC1 ! 1 A Q a q
2 STX DC2 ” 2 B R b r
3 ETX DC3 # 3 C S c s
4 EOT DC4 $ 4 D T d t
5 ENQ NAK % 5 E U e u
6 ACK SYN & 6 F V f v
7 BEL ETB ’ 7 G W g w
8 BS CAN ( 8 H X h x
9 HT EM ) 9 I Y i y
A LF SUB * : J Z j z
B VT ESC + ; K [ k {
C FF FS , < L \ l |
D CR GS - = M ] m }
E SO RS . > N ∧ n ∼
F SI US / ? O o DEL

30
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN

Tabla 2.2: Código ASCII (continuación)


NUL Null, or all zeros DC1 Device Control 1
SOH Start of heading DC2 Device Control 2
STX Start of text DC3 Device Control 3
ETX End of text DC4 Device Control 4
EOT End of transmision NAK Negative acknowledge
ENQ Enquiry SYN Synchronous idle
ACK Acknowledge ETB End of trasmision block
BEL Bell o alarma CAN Cancel
BS Backspace EM End of medium
HT Horizontal tabulation SUB Substitute
LF Line feed ESC Escape
VT Vertical tabulation FS File separator
FF Form feed GS Group separator
CR Carriage Return RS Record separator
SO Shift out US Unit separator
SI Shift in SP Space
DLE Data link escape DEL Delete

Ejemplo 2.11 - Código ASCII.


Considere que se quiere enviar la palabra “HOLA!” usando el código ASCII de 8 bits. Se pide
encontrar la representación en dı́gitos 32-ários y sus respectivas formas de onda.
Sol. Conforme a la Tabla 2.1, se tiene que H:84x0, O:F4x0, L:C4x0, A:14x0 y !:12x0, entonces en
H O L A !
z }| {z }| {z }| {z }| {z }| {
binario, el mensaje será 1000010011110100110001000001010000010010 . Ası́, si se considera que
se quiere utilizar dı́gitos 32-ários, entonces la secuencia de dı́gitos será 16,19,26,12,8,5,9,18. 

2.4 Representación de Canales


En esta sección, se estudiará el canal de comunicación que es uno de las partes más importantes
de las comunicaciones pues resulta ser el factor limitante a la hora de lograr una buena tasa de
transmisión.
Como se dijo anteriormente, un canal de comunicación corresponde a cualquier medio sobre
el cual puede ser transmitida información, o en el que información puede ser almacenada. Ası́,
ejemplos de canales de comunicaciones serı́an: cables coaxiales, propagación por la ionósfera,
espacio libre, fibra óptica, discos magnéticos u ópticos, etc. Lo que resulta común en estos
ejemplos, es que ellos reciben señales en sus entradas y entregan señales en sus salidas en un
tiempo posterior (almacenamiento) o en otra ubicación (transmisión). Por lo mismo, los canales
de comunicación son modelados mediante la relación entrada-salida que tengan; en este sentido,
un canal de comunicación puede ser considerado como un sistema.
Existen variados factores que producen que la salida de un canal de comunicación sea difer-

31
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN

ente a su entrada, tales como atenuación, nolinealidades, limitaciones de ancho de banda, ruido,
etc. Todo esto contribuye a una relación entrada-salida bastante compleja, que generalmente
tiene que ser considerada como una relación estocástica.
Al considerar el canal como un sistema con entrada X y salida Y , las probabilidades condi-
cionales p(Y |X) y p(X|Y ) son conocidas como Probabilidad de Transición y Probabilidad
de Unión, respectivamente. A su vez, la entropı́a de entrada H(X) corresponde a la incer-
tidumbre promedio de la fuente de información y la entropı́a de la salida H(Y ) corresponde a
la incertidumbre promedio de la recepción de un sı́mbolo. Para el caso de las entropı́as condi-
cionales, se tiene que H(Y |X) corresponde a la incertidumbre promedio respecto de que el sı́mbolo
que se recibe, dado que se ha transmitido X. La entropı́a H(X|Y ) serı́a la Entropı́a de Equivo-
cación, que corresponde a la incertidumbre promedio de qué sı́mbolo será transmitido después
de haber recibido un sı́mbolo X. La entropı́a conjunta H(X, Y ) es la incertidumbre promedio
del sistema de comunicaciones como un todo.
Considere un canal sin memoria, lo que implica que la salida depende de la entrada en ese
momento y no de las previas a él. Este tipo de canales, están definidos por un conjunto de
probabilidades condicionadas que relacionan la probabilidad de cada estado a la salida, con la
probabilidad de la entrada. Suponga un canal con dos entradas x1 y x2 , y con tres salidas y1 ,
y2 e y3 , como lo muestra la Fig 2.2.

Fig. 2.2: Canal de comunicaciones de 2 entradas y 3 salidas modelado como un sistema.

Las rutas entrada-salida se indican como una probabilidad condicional Pij = P (yj |xi ), repre-
sentando la probabilidad de obtener a la salida yj , dado que a la entrada xi . Esta probabilidad
recibe el nombre de Probabilidad de Transición del Canal.

Fig. 2.3: Rutas entrada-salida para el canal de comunicaciones de 2 entradas y 3 salidas.

A menudo, se prefiere especificar al canal por su Matriz de Probabilidades de Tran-


sición, denotada por P(Y|X) = [P (yj |xi )], que para el caso particular que se está evaluando
estará dada por:  
P (y1 |x1 ) P (y2 |x1 ) P (y3 |x1 )
P(Y|X) = .
P (y1 |x2 ) P (y2 |x2 ) P (y3 |x2 )

32
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN

Por otra parte, cada una de las entradas debe siempre conducir a una salida, por lo que la
suma de cada fila de la matriz debe ser igual a 1. En sı́mbolos,

P (y1 |x1 ) + P (y2 |x1 ) + P (y3 |x1 ) = P (y1 |x2 ) + P (y2 |x2 ) + P (y3 |x2 ) = 1 .

La Matriz del canal es útil para encontrar probabilidades de salida de acuerdo a las probabil-
idades de entrada. Considere la matriz fila de n entradas dada por P(X) = [P (x1 ) · · · P (xn )].
Para una matriz de transición dada por P(Y|X), la matriz de m salidas estará dada por

P(Y) = P(X) P(Y|X)

Resulta interesante mencionar que si la matriz P(X) es escrita en forma diagonal, el producto
dado por diag[P(X)]P(Y|X) define la Matriz de Unión de Probabilidades y es denotada
por P(X, Y). En palabras simples, el término P (xi , yj ) representa la probabilidad de unión de
transmitir xi y recibir yj . Matemáticamente la matriz de unión está dada por:
  
P (x1 ) 0 ··· 0 P (y1 |x1 ) P (y2 |x1 ) · · · P (ym |x1 )
 0 P (x2 ) · · · 0    P (y1 |x2 ) P (y2 |x2 ) · · · P (ym |x2 ) 
 
P(X, Y) =   .

.. .. ... ..  .. .. ... ..
 . . .  . . . 
0 0 0 P (xn ) P (y1 |xn ) P (y2 |xn ) · · · P (ym |xn )

Ejemplo 2.12 - Representación de Canales.


Considere un canal binario de dos entradas y dos salidas, en donde la fuente es equiprobable y
la matriz de transición está uniformemente distribuı́da al transmitir sin error. Se pide encontrar
la matriz de transición, la matriz de salida, la matriz de unión y la probabilidad de error.
Sol. Dada la equiprobabilidad de la fuente, la matriz de entrada está dada por P(X) =
[0.5 0.5]. Considerando
 que
 P (1|0) = P (0|1) = , la matriz de transición estará dada por
1− 
P(Y|X) = . Ası́, la matriz de salida será P(Y) = [0.5 0.5]. La matriz de unión
 1 −  
0.5 0
será P(X, Y) = P(Y|X) = 0.5 P(Y|X). La probabilidad de transmisión con error
0 0.5
estará dada por P (E) = P (0r, 1t) + P (1r, 0t) = P (1)P (0|1) + P (0)P (1|0) = 0.5 + 0.5 = . 

2.4.1 Canales con Ruido Aditivo Gaussiano


Cuando se habla de canales de comunicación, se puede hacer referencia a cualquiera de las
muchas formas en que se puede realizar una transmisión de datos tanto digitales como análogos.
Por ejemplo se habla de cablados, fibras ópticas, canales inalámbricos por ondas electromagnéticas
o incluso canales subacuáticos por ondas acústicas.
Resulta evidente entonces, que los canales reales agregan siempre componentes de ruido que
no dependen de los datos que se estén transmitiendo. La principal componente que se da en
todo canal es el ruido aditivo, que tiene caracter aleatorio en el tiempo.
Entonces, considere que la señal transmitida se representa por s(t) y que se contamina por un
proceso aleatorio de ruido aditivo n(t). Si este ruido es introducido por los elementos presentes,

33
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN

entonces se habla de Ruido Térmico. El ruido térmico está determinado por el movimiento
aleatorio de los portadores dentro de cualquier elemento electrónico en general producido por
la influencia de agentes externos. En términos más técnicos, el ruido térmico recibe el nombre
de rudo Johnson. El voltaje aleatorio producido a través de los terminales en circuito abierto
del dispositivo, tiene una distribución Gaussiana con media nula.
Entonces, el modelo matemático que describe al canal de comunicación con ruido aditivo
gaussiano está determinado por
r(t) = αs(t) + n(t) , (2.9)
en donde α es la atenuación del canal y r(t) es la señal recibida a la salida del canal.

Ejemplo 2.13 - Canal Gaussiano.


Considerando que se envia una señal s(t) con función de autocorrelación dada por Rs (τ ) =
2 exp(−|τ |) a través de un canal Gaussiano, se pide encontrar la potencia de la señal recibida.
Sol. Se sabe con anterioridad que la función de autocorrelación de un proceso AWGN es
Rn (τ ) = σ 2 δ(τ ), siendo δ(τ ) la función impulso unitario. Entonces, la función de autocorrelación
de la señal recibida, r(t) = s(t) + n(t), está determinada por:
Rr (τ ) = E {r(t)r(t + τ )}
= E {[s(t) + n(t)][s(t + τ ) + n(t + τ )]}
= E {s(t)s(t + τ )} + E {s(t)n(t + τ )} + E {n(t)s(t + τ )} + E {n(t)n(t + τ )}
= Rs (τ ) + Rn (τ )
= 2e−|τ | + σ 2 δ(τ ) .
Ası́, la potencia de la señal recibida será Rr (0) = 2 + σ 2 , en donde σ 2 es la varianza del ruido
Gaussiano. 

2.4.2 Canales con Ruido y Filtro


Por otra parte, al trabajar con lı́neas telefónicas se debe incluir el uso de un filtro lineal para no
exceder las limitaciones de ancho de banda, por lo que al ruido se suma la presencia de dicho
filtro.
Considérese que el filtro tiene una respuesta a entrada impulso dada por c(t), entonces el
modelo matemático que describe la salida del canal es
r(t) = s(t) ∗ c(t) + n(t) , (2.10)
en donde ∗ representa la convolución de señales.
En general, la respuesta impulso del filtro no es invariante en el tiempo por lo que se debe
incluir una variable de edad, τ . Ası́, se tiene que la respuesta es c(t, τ ). Por ejemplo, un buen
modelo para multitrayectorias (ionosfera f < 30M Hz, canales de radio celulares en móviles,
etc) es de la forma
XL
c(t, τ ) = ai (t) δ(t − τi ) ,
i=1

34
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN

en donde ai (t) son las posibles atenuaciones variantes en el tiempo, y τi corresponden a los
retardos de cada una de dichas trayectorias. Por lo tanto, para este caso particular, el modelo
matemático a utilizar está determinado por
L
X
r(t) = ai (t) s(t − τi ) + n(t) .
i=1

2.5 Capacidad del Canal


Ya se ha discutido que H(X) define el lı́mite fundamental de la tasa a la que una fuente discreta
puede ser codificada sin errores en su reconstrucción, y también se comentó en un principio de
que el canal posee su propio lı́mite fundamental para la transmisión de información a través de
él.
Evidentemente, el objetivo principal cuando se transmite información sobre cualquier canal
de comunicación es la confianza, la que puede ser medida por la probabilidad de una recepción
correcta en el receptor. Un resultado muy importante de la teorı́a de la información, es que
las comunicaciones confiables –Se entiende por comunicación confiable como aquella en que
la transmisión se logra con una probabilidad de error inferior a un valor pre-establecido– son
posibles sobre canales ruidosos, mientras la tasa de transmisión sea menor que cierto valor,
llamado Capacidad del Canal. Este importante resultado, fué dado a conocer inicialmente
por Shannon (1948) y es conocido como el Noisy Channel Coding Theorem. Éste teorema
enuncia que la limitación básica que el ruido provoca en un canal de comunicación no es en la
confiabilidad de la comunicación, sino en la velocidad de dicha comunicación.
Se definió anteriormente un canal discreto como un sistema con alfabeto de entrada X,
alfabeto de salida Y , y matriz de probabilidades de transición P(Y|X), que expresa la proba-
bilidad de observar un sı́mbolo y a la salida, dado que se envió un sı́mbolo x. Un canal se dice
sin-memoria si la distribución de probabilidades de la salida depende solo de la entrada en ese
tiempo y es condicionalmente independiente de las entradas o salidas anteriores.
Ası́, se define la Capacidad del Canal de información de un canal discreto y sin memoria
(DMC) mediante la relación:
C = max I(X; Y ) (2.11)
p(x)

en donde el máximo es tomado sobre todas las posibles distribuciones de la entrada p(x). Se
debe entender por esta definición que corresponde al máximo valor de la información mutua, que
es la información promedio máxima por sı́mbolo que puede ser transmitido a través del canal.
Nótese entonces, que si la tasa de transmisión, R, es menor que la capacidad del canal, C,
entonces la comunicación confiable a una tasa R es posible; por otro lado, si R > C, entonces
una comunicación confiable a una tasa R es imposible. Tanto la tasa como la capacidad se
miden en bits por transmisión, o bits por uso del canal.
La maximización que se debe hacer, es con respecto a las probabilidades de la fuente, puesto
que las probabilidades de transición son fijadas por el canal. Sin embargo, la capacidad de canal
es una función solamente de las probabilidades de transición del canal, puesto que el proceso de
la maximización elimina la dependencia de sobre las probabilidades de la fuente.

35
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN

Ejemplo 2.14 - Capacidad del Canal Binario.


Encuentre la capacidad del canal para un canal binario simétrico, en donde la probabilidad de
recepción erronea es p y la probabilidad de que se envie un cero es α.
P P I(X; Y ) = H(Y )−H(Y |X). La entropı́a
Sol. Para calcular la capacidad del canal, se maximiza
condicional está determinada por H(Y |X) = − i j p(xi , yj ) log p(yj |xi ) = −α(1 − p) log(1 −
p)−(1−α)p log p−αp log p−(1−α)(1−p) log(1−p) = H(p), considerando la definición de H(p)
dada en el Ejemplo 2.4. Ası́ I(X; Y ) = H(Y ) − H(p). Entonces, la información mutua será
máxima cuándo la entropı́a de Y sea máxima, caso que se dá para una distribución uniforme de
los sı́mbolos. En pocas palabras, H(Y ) ≤ 1, por lo que I(X; Y ) ≤ 1 − H(p), y C = 1 − H(p). 

Considerando este último ejemplo, los resultados obtenidos implican que si p = 0 ó p = 1 la


salida del canal está completamente determinado por la entrada, y la capacidad será de 1 bit
por sı́mbolo. Por otro lado, si p = 0.5, un sı́mbolo en la entrada nos lleva a cualquier salida con
igual probabilidad y la capacidad del canal es nula. Además, la probabilidad del error estará
determinada por
X X
PE = p(xi , e) = p(xi )p(e|xi ) = [p(x1 ) + p(x2 )]p = p
i i

lo que establece que la probabilidad de error no condicional PE , es igual a la probabilidad de


error condicional p(yj |xi ), ∀i 6= j.

Ejemplo 2.15 - Capacidad del Canal DMC sin ruido.


Encuentre la Capacidad del Canal para un DMC sin ruido.
Sol. Para un canal sin memoria y sin ruido, las probabilidades de error son nulas, lo que equivale
a decir que la conexión es uno-a-uno entre las entradas y salidas. Luego p(xi |yj ) = 0 ∀i 6= j y por
lo mismo p(xi |yj ) = 1 ∀i = j. Considerando que H(X|Y ) = − N
P PN
i=1 j=1 p(xi , yj ) log p(xi |yj ),
se tiene que H(X|Y ) = 0. Ası́, la información mutua será I(X; Y ) = H(X) − H(X|Y ) = H(X).
Para maximizar la entropı́a de la fuente, anteriormente se dijo que todos Plos sı́mbolos de la fuente
N
debı́an ser equiprobables, entonces C = Imax (X; Y ) = Hmax (X) = − i=1 N1 log N1 = log N , en
donde N es el número de sı́mbolos de la fuente. 

2.5.1 Capacidad de Canal Gaussiano


La relación entrada-salida para un canal Gaussiano discreto con potencia limitada está dada
por
Y =X +Z ,
en donde Z es una variable aleatoria Gaussiana de media cero y varianza σZ2 . Shannon demostró
que el número de mensajes que pueden ser confiablemente transmitidos está determinado por
la razón que existe entre los volúmenes de hiperesferas, y llegó al resultado que la capacidad del
canal Gaussiano está determinada por

36
CAPÍTULO 2. TEORÍA DE LA INFORMACIÓN

 
P
C = W log 1 + bits/seg. , (2.12)
N0 W
N0
en donde W es el ancho de banda del canal, P es la potencia de la señal y 2
es la densidad
espectral de potencia del ruido del canal.

37
Capı́tulo 3

Modulación en Banda Base

3.1 Introducción
Como se mencionó en el Capı́tulo 1, la transmisión de información es mejor realizarla en forma
digital que hacerlo de forma análoga, por lo que el transformar una señal análoga en una digital
es un tarea de vital importancia en el curso. Para realizar esta tarea, se deben realizar tres
etapas: La señal análoga debe ser muestreada en el tiempo, por lo que se genera una señal de
tiempo discreto y amplitud continua. Se dice que la amplitud es continua pues su valor puede
tener cualquier número real dentro del rango en el que se mueve la señal análoga original. La
siguiente etapa corresponde a la cuantización de estos valores reales a un número finito de
posibles valores, con el fin de poder representarlos mediante números binarios. Ambas etapas
fueron introducidas en el Capı́tulo 1 de este curso.
La tercera etapa en el proceso de conversión análogo-digital es la codificación, en donde
una secuencia de bits es asignada a cada uno de los diferentes valores posibles de la salida del
cuantificador, como se estudió en el Capı́tulo 2. Dado que el número de salidas es finito, cada
muestra puede ser representada por un número finito de bits; por ejemplo 256 valores posibles
podrán ser representados por 8 bits (256 = 28 ), razón por la cual se utiliza un número de niveles
que sea potencia de dos. A continuación se retomarán los conceptos de muestreo, cuantización
y codificación, ahondando más en ellos y presentando alternativas que materializan esta labor.

3.2 Muestreo de Señales


3.2.1 Recuperación de Señales Muestreadas
Si se considera que la señal x(t) es de espectro acotado con ancho de banda W , y se elige la
frecuencia de muestro como fs = 2W , cada una de las réplicas estará separada de sus vecinas
por una banda de frecuencias exáctamente igual a fs [Hz], tal como se observa en la Fig. 1.4(f).
Resulta entonces evidente, que si la frecuencia de muestreo es fs < 2W , los espectros se
traslaparán y la reconstrucción de la señal original será imposible. Esta distorsión es conocida
como aliasing. Si se garantiza una frecuencia de muestreo superior al doble del ancho de banda,
este fenómeno no ocurre y la reconstrucción de la señal se puede realizar fácilmente con el filtro
apropiado, ya que las réplicas espectrales se alejan entre sı́. Cuando se utiliza exactamente el

38
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

doble del ancho de banda de la señal, se dice que se trabaja con la Frecuencia de Muestreo
de Nyquist.
En efecto, para recuperar la señal original, basta que el filtro tenga una respuesta dada por

Ts , | f |< W
H(f ) = (3.1)
0 , | f |≥ fs − W

Para el rango W ≤| f |< fs − W , el filtro puede tener cualquier caracterı́stica que permita una
fácil implementación, siendo un filtro pasabajos ideal el método menos práctico en términos de
simplicidad, pero el más sencillo para realizar un estudio de desempeño. Entonces, considérese
que el filtro tiene una respuesta en frecuencia dada por
 
f
LP F (f ) = Ts Π
2W 0

con W 0 como ancho de banda y que satisface la relación W ≤ W 0 < fs − W . Ahora bien, la
reconstrucción de la señal se logrará tomando la convolución entre la señal discreta y dicho filtro
en el tiempo, por lo tanto en el plano de la frecuencia se tiene,
 
f
X(f ) = Xs (f ) Ts Π .
2W 0

Tomando la transformada de Fourier inversa, se tiene:



X
0 0
x(t) = xs (t) ∗ 2W Ts sinc(2W t) = 2W 0 Ts x(t) sinc(2W 0 (t − nTs )) (3.2)
n=−∞

en dónde sinc(t) = sinπtπt . La relación dada por la Ecuación (3.2), demuestra que la recon-
strucción de la señal puede ser perfectamente hecha al utilizar la función sinc() para la inter-
polación.
En sistemas prácticos, el muestreo siempre se realiza a frecuencias superiores a la tasa de
Nyquist, lo que a su vez implica un diseño de filtro mucho más relajado. En dichos casos la
distancia entre dos espectros replicados, que está dada por (fs − W ) − W = fs − 2W es conocida
como banda de guarda. Por lo tanto, en sistemas con banda de guarda, la frecuencia de
muestreo está dada por fs = 2W + WG , en dónde W es el ancho de banda de la señal de banda
limitada. Al observar la Fig. 1.4(f), se puede notar que para el ejemplo, la banda de guarda
será de WG = 70[Hz].

3.2.2 Errores en el Muestreo


De acuerdo a lo visto hasta ahora, una señal x(t) puede ser perfectamente recuperada de sus
muestras siempre cuando esta sea de espectro acotado y se realice el muestreo a una tasa superior
al doble de su ancho de banda. Esto se conoce en la literatura con el nombre de Teorema del
Muestreo. El teorema del muestreo es llamado también Teorema de Shannon o Teorema de
Kotelnikov, y su demostración más simple es la realizada en la sección anterior mediante la
utilización de la transformada de Fourier de la señal muestreada.

39
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

En la práctica, el muestreo tiene tres grandes fuentes de errores: redondeo, truncamiento y


aliasing. Los errores de redondeo ocurren cuando varios valores de muestras son redondeados
en un sistema de comunicación. Este error recibe el nombre formal de ruido de cuantización y
se estudiará con más detalle en los próximos capı́tulos. El teorema del muestreo requiere que
las muestras sean tomadas durante un tiempo infinito, por lo que cada una de estas muestras es
utilizada para la reconstrucción de cualquier valor de la señal en cualquier instante de tiempo.
Sin embargo, en sistemas reales las señales son observadas durante un intervalo finito de tiempo,
apareciendo el error de truncamiento; para realizar un análisis de este error, normalmente se
define un funcional de error como la diferencia entre la señal reconstruı́da y la señal original,
permitiendo definir cotas superiores en el error y como consecuencia, intervalos de tiempo de
observación mı́nimos requeridos.
Un tercer error ocurre cuando la frecuencia de muestreo no es lo suficientemente alta. Este
recibe el nombre técnico de aliasing y como se explicó anteriormente corresponde al traslape
que existe en los espectros de la señal original y sus réplicas originadas por el muestreo. Existen
principalmente dos formas de solucionar este problema. La primera es aumentar la frecuencia de
muestreo a un valor muy por encima de la frecuencia de Nyquist con el fin de alejar lo suficiente
cada una de las réplicas del espectro original. Como ejemplo observe la Fig. 3.1; si al muestrear
a fs se produce aliasing, al aumentar la frecuencia de muestreo a fs0 > fs entonces las réplicas
se alejarán lo suficiente para eliminar el problema.

Fig. 3.1: Solución inmediata al aliasing mediante el muestreo a frecuencias superiores

Otra solución es incluir un filtro antialiasing cuando la frecuencia de muestreo no se puede


modificar por alguna razón puntual como, por ejemplo, disponibilidad técnica. La primera
forma es realizar un prefiltrado para reducir el ancho de banda de la señal original de W a
W 0 de tal forma que para el mismo fs se cumpla que fs < 2W , pero fs ≥ 2W 0 . Esta es una
buena práctica de ingenierı́a, sin embargo, dependiendo de las caracterı́sticas de la señal original,
puede haber pérdida importante de información. Esta solución se representa en la Fig. 3.2 en
donde la linea segmentada corresponde a la señal original y su espectro muestreado sin realizar
el prefiltrado. La otra forma de implementar un filtro es realizando un postfiltrado en el cual se
realiza el muestreo a la tasa disponible y luego se filtra el espectro en W 00 , hasta justo antes de
que se tenga aliasing. Resulta claro que W 00 tiene que ser menor que fs − W . Igualmente para
esta solución, se tiene pérdida de información por lo que la frecuencia de muestreo, el ancho
de banda de corte y el tipo del filtro seleccionado para una señal particula están estrictamente
relacionados.

40
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

Fig. 3.2: Filtrado de la señal original para eliminar el aliasing. Señal continua y muestrada
luego del muestreo

Fig. 3.3: Filtrado de la señal muestreada para eliminar el aliasing.

41
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

3.2.3 Muestreo Natural


A pesar que el muestreo instantáneo mediante impulsos es un modelo conveniente para entender
el concepto, una forma más práctica de implementación es mediante la multiplicación de la señal
análoga x(t) por un tren de pulsos xp (t), mostrada en la Fig. 3.4(a). Cada pulso en xp (t) tiene un
ancho Tp , una amplitud 1/Tp y evidentemente su duración total es Ts . Esta multiplicación puede
ser vista como el proceso de apertura/cerrado de un switch. La señal muestreada resultante
xs (t) se muestra en la Fig. 3.4(c) y se puede expresar mediante la relación

xs (t) = x(t) xp (t) . (3.3)

Acá se habla de muestreo natural pues cada pulso mantiene la forma de su segmento análogo
correspondiente durante el intervalo de duración de cada uno de los pulsos. Utilizando series de
Fourier, el tren de pulsos se puede representar mediante

X
xp (t) = xn ejnωs t ,
n=−∞

en dónde ωs = 2πfs , siendo fs = 1/Ts la frecuencia de muestreo que se elige igual a 2W para
satisfacer el 
criterio
 de Nyquist. Los coeficientes de Fourier, xn , estarán determinados por
1 nTp
xn = Ts sinc Ts . Su representación en el plano de la frecuencia se puede ver en la Fig. 3.4(b)
en donde se ha marcado la envolvente de magnitud con una lı́nea segmentada (función |sinc()|).
Combinando esta expansión en series de Fourier con la definición de xs (t) se tiene

X
xs (t) = x(t) xp (t) = x(t) xn ejnωs t .
n=−∞

Tomando la transformada de Fourier a esta última definición, el espectro de la señal muestrada


en forma natural, Xs (f ), se puede calcular mediante
" ∞
#
X
Xs (f ) = F x(t) xn ejnωs t
n=−∞

X
xn F x(t) ejnωs t
 
=
n=−∞
X∞
= xn X(f − nfs ) , (3.4)
n=−∞

en donde se utilizó el hecho de que, para sistemas lineales, se puede intercambiar las operaciones
de suma y transformada de Fourier. Al igual que la Ecuación (1.28), la Ecuación (3.4) demuestra
que Xs (f ) es un réplica de X(f ) repetida periódicamente cada fs [Hz]. Sin embargo  al realizar

el muestreo natural, las amplitudes están atenuadas por la envolvente xn = T1s sinc nT Ts
p
como
se observa en la Fig. 3.4(d). Se puede demostrar que en el lı́mite, mientras el ancho del pulso Tp
tiende a cero, xn tiende a 1/Ts para todos los valores posibles de n, por lo tanto la Ecuación (3.4)
tiende a la Ecuación (1.28).

42
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

(a) Tren de Pulsos (b) Espectro Tren de Pulsos

(c) Señal Muestreada (d) Espectro Señal Muestreada

Fig. 3.4: Muestreo natural de señal análoga mediante tren de pulsos

3.2.4 Sample-and-Hold
El más simple y más popular método de muestreo y cuantización conocido como Sample-and-
Hold (muestreo y retención) puede ser descrito mediante la convolución de la señal muestreda
dada en la Fig. 1.4(e) con un pulso rectangular de amplitud unitaria y ancho de pulso Ts , p(t).
Esta convolución en el tiempo se puede expresar de la forma
xsh (t) = p(t) ∗ xs (t) = p(t) ∗ [x(t)xδ (t)]
" ∞
#
X
= p(t) ∗ x(t) δ(t − nTs ) .
n=−∞

Estos resultados se puden observar en la Fig. 3.5(a). La transformada de Fourier de la señal S/H
se ve afectada por la presencia del pulso p(t) y su transformada de Fourier dada por Ts sinc(f Ts ).
Ası́, el espectro resultante tiene una apariencia similar al espectro del muestreo natural, tal como
se puede observar en la Fig. 3.5(b).

43
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

(a) Operación Sample-and-Hold (b) Espectro señal Sample-and-Hold

Fig. 3.5: Sample-and-Hold para la señal análoga

3.3 Cuantización
Como se explicó anteriormente, en este proceso se realiza la discretización de la amplitud de las
señales, lo que permite representar la señal de forma válida con valores binarios de largo finito.
En la presente sección se estudiará la cuantización escalar uniforme y no-uniforme, además de
la cuantización vectorial.

3.3.1 Cuantización Escalar


En la cuantización escalar cada muestra es cuantificada como un valor puntual dentro de un
rango finito de valores posibles, lo que se traduce en una acción de redondeo de las cifras.
Para esto, el espacio de números reales < se particiona en M subconjuntos denotados por
Rm , 1 ≤ m ≤ M que se llamarán Regiones de Cuantización. Asociado a cada subset Rm , un
Punto de Representación x̂m es elegido, vale decir que para el instante k, si la muestra x(k)
pertenece a Rm , entonces es redondeado al valor x̂m .
Dado que se tienen M posibles valores de cuantización, entonces se requieren log2 M bits
para poder hacer la codificación en secuencias binarias. De igual forma, el número de bits que
se requieren para transmitir cada muestra de la fuente, será: v = log2 M bits.
Resulta fácil notar que al incluir estos redondeos, la señal resultante tiene cierta distorsión
con respecto a la señal original, tal como se discutió anteriormente. Este error recibe el nombre
de error de cuantización. Para su descripción, es necesario considerar la función de cuantización
definida por
Q(x) = x̂i , ∀x ∈ Ri ,
que resume el hecho de que si el valor a cuantizar, x, cae dentro de la i-ésima región Ri =
(ai−1 , ai ], entonces se aproximará (redondeará) por el valor x̂i . En general, al definir un error
se considera la diferencia cuadrática entre una referencia y el valor bajo estudio que para este
caso están dados por el valor sin cuantizar y cuantizado respectivamente. Por esto, el error, que

44
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

recibe el nombre de error cuadrático de distorsión, está definido por


d(xi , x̂i ) = (xi − x̂i )2 . (3.5)
Considerando que d(xi , x̂i ) es la distorsión medida por letra, entonces la distorsión entre una
secuencia de n muestras, Xn , y sus correspondientes n muestras cuantizadas, X̂n , está deter-
minada por el promedio sobre las n muestras de las salidas de la fuente, es decir,
n
1X
d(Xn , X̂n ) = d(xi , x̂i ) .
n i=1

Dado que las salidas de la fuente, Xn , son variables aleatorias, entonces d(Xn , X̂n ) también
es una variable aleatoria. Ası́, para tener una cantidad representativa para todas las posibles sal-
idas es necesario especificar el error cuadrático de distorsión medio. Este error está determinado
por
n
n o 1X
D = E d(Xn , X̂n ) = E {d(xk , x̂k )} = E {d(xk , x̂k )} . (3.6)
n k=1
lo que es válido al considerar que se trabaja con una fuente estacionaria.
En la Figura 3.6 se puede ver un ejemplo de un esquema de cuantización de 8 niveles, en
los cuales la variable x es seccionada en sus respectivas aproximaciones x̂1 , x̂2 , . . . , x̂8 , para los
subintervalos dados por R1 = (−∞, a1 ], R2 = (a1 , a2 ], . . . , R8 = (a7 , +∞) respectivamente. No
resulta dificil notar que este gráfico corresponde a la representación de la función de cuantización
Q(x).

Ejemplo 3.1 - Error de Distorsión.


Considere una fuente X(t), Gaussiana, con media cero, estacionaria y con una PSD dada por:

2 , | f |< 100Hz
ρX (f ) =
0 , i.o.c.
Esta fuente es muestrada a la frecuencia de Nyquist y que cada muestra está cuantizada
usando un cuantizador de ocho niveles como en la Figura 3.6. Los niveles utilizados son
ai ∈ {−60, −40, −20, 0, 20, 40, 60}, que se redondean a x̂i ∈ {−70, −50, −30, −10, 10, 30, 50, 70}.
Se pide calcular la distorsión y tasa resultante.
Sol. Dado el ancho de banda de la fuente, su frecuencia de muestreo será fs = 2W = 200Hz
para satisfacer la condición de muestreo a la frecuencia de Nyquist. Considerando entonces
un cuantizador de 8 niveles, entonces se requieren 3 bits para realizar la descripción de cada
2
muestra. Ası́, la tasa estará dada por R = 3fs = 600 bits/s. La varianza de la fuente es σX =
2
R +∞ R 100
E {X } = R (0) = −∞ ρX (f )df = −100 2df = 400, ya que es un proceso con media cero. Esto
1 x2
permite definir la función de distribución de probabilidad dada por fX (x) = √2π400 exp(− 800 ),
pues es una fuente Gaussiana. Ahora bien, la distorsión estará dada por:
n o Z +∞ X8 Z
2 2
D = E (X − X̂) = (x − Q(x)) fX (x) dx = (x − Q(x))2 fX (x) dx
−∞ i=1 Ri
Z a1 Z a2 Z +∞
2 2
= (x − x̂1 ) fX (x) dx + (x − x̂2 ) fX (x) dx + · · · + (x − x̂8 )2 fX (x) dx.
−∞ a1 a7

45
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

Fig. 3.6: Ejemplo de un esquema de cuantización de 8 niveles

Reemplazando los valores de ai , xi y utilizando la definición de fX (x) se obtiene que D ≈


33.345. 

Es muy interesante comparar el resultado anterior con la distorsión máxima que se podrı́a
obtener en el mismo sistema. Dicha distorsión máxima se logra al no utilizar ningún bit por
cada salida de la fuente, caso en el cual la señal reconstruida será siempre cero. Ası́, la máxima
distorsión será Dmax = E {(X − 0)2 } = E {X 2 } = σX 2
= 400. Este último resultado permite
deducir que al utilizar 3 bits por salida de la fuente, la distorsión se ha reducido en un factor
de 12.
A pesar de lo descriptivo del error de cuantización, existe una métrica más exacta pues
está normalizada con respecto a la potencia de la señal original. Recibe el nombre de Razón
Señal-Ruido de Cuantización (SQNR, Signal-to-Quantization Noise Ratio) y se basa en
la comparación anteriormente hecha con respecto a la distorsión máxima. Esta métrica está
definida por:
E {X 2 }
SQN R = . (3.7)
E {(X − Q(X))2 }
Cabe destacar que considerando las definiciones de potencia de la señal original y de la cuanti-
zada, el SQNR está determinado por la razón entre la potencia de la señal (PX ) y la potencia
de la señal obtenida al realizar la diferencia entre la señal original y la cuantizada (PX̃ ), con
X̃ = X − X̂.

46
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

Ejemplo 3.2 - Razón Señal-Ruido de Cuantización.


Determine el SQNR para el esquema de cuantización
R utilizado en el Ejemplo 3.1.
Sol. Se determinó previamente que PX = ρX (f ) df = 400. Además la potencia del ruido de
cuantización está dado por PX̃ = 33.345, entonces SQN R = 400/33.345 = 11.995 ≈ 10.79dB. 

Cuantización Uniforme
La cuantización uniforme es la más simple de todas las técnicas de cuantización ya que todas
las particiones, excepto R1 y RM , están equidistante en un valor denotado por ∆, por lo que el
i-ésimo borde estará dado por ai = a1 + (i − 1)∆. En general y por simplicidad, se asume que
los niveles de cuantización se encuentran a una distancia de ∆2 de los M − 1 bordes, luego los
niveles de cuantización están dados por x̂i = ai − ∆2 = a1 + (i − 32 )∆. Se puede notar que la
Figura 3.6 muestra un ejemplo de un cuantizador uniforme ya que cumple las condiciones recién
expuestas. En un cuantizador uniforme, el error de distorsión medio está determinado por
M Z
X
D = [x − Q(x)]2 fX (x) dx
i=1 Ri
Z a1 M
X −2 Z ai+1 Z ∞
2 2
= [x − x̂1 ] fX (x) dx + [x − x̂i+1 ] fX (x) dx + [x − x̂M ]2 fX (x) dx
−∞ i=1 ai aM

a1 
Z  2 M −2 Z a1 +i∆   2
∆ X ∆
= x − a1 − fX (x) dx + x − a1 + i∆ − fX (x) dx +
−∞ 2 i=1 a1 +(i−1)∆ 2
Z ∞   2

x − a1 + (M − 2)∆ + fX (x) dx . (3.8)
a1 +(M −2)∆ 2

Conforme a esto, el error de distorsión será una función de dos parámetros a1 y ∆, por lo
que para obtener un diseño óptimo del cuantizador uniforme se debe minimizar este funcional
D ≡ D(a1 , ∆). La minimización se realiza tomando derivadas parciales del funcional con
respecto a ambas variables e igualando a cero. En general esta es una tarea compleja por lo que
se realiza mediante métodos númericos. En la Tabla 3.1 se muestra el espaciado óptimo de los
niveles de cuantización para una fuente aleatoria Gaussiana con media nula y varianza unitaria.

Cuantización No-uniforme
Si se relaja la condición de que la separación sea igual para todas las regiones, entonces se logra
minimizar la distorsión con menos apremios. Ası́, el cuantizador no-uniforme tiene un mejor
rendimiento que el uniforme para un mismo número de niveles. Primero que todo, se verá
intuitivamente el porqué.
Suponga una pieza musical en donde su forma de onda se mueve en un rango de voltajes de
-2 a 2[V]. Suponga además que se utilizan 3 bits en la cuantización de dicha señal análoga. Si
se realiza cuantización uniforme, entonces todos los voltajes entre 0 y 0.5[V] serán codificados
como 100, que corresponde a un valor de reconstrucción de 0.25[V]. De igual forma, todas las

47
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

Tabla 3.1: Cuantizador Uniforme Óptimo para una fuente Gaussiana


Niveles de Cuantización Espaciado entre bordes Error medio cuadrático Entropı́a
M ∆ D H(X̂)
1 – 1.000 0.0
2 1.596 0.3634 1.000
4 0.9957 0.1188 1.904
8 0.5860 0.03744 2.761
16 0.3352 0.01154 3.602
32 0.1881 0.003490 4.449

muestras entre 1.5 y 2[V] se codificarán como 111, que se reconstruirá como 1.75[V]. Ahora
bien, durante pasajes suaves de música en donde la señal análoga no supere los 0.5[V], se tendrá
una gran pérdida de la definición de la música. En otras palabras, la cuantización otorga la
misma resolución tanto para altos como para bajos niveles, aun cuando el oido humano es
menos sensible a los cambios que se producen en altos niveles. Dado que la respuesta del oido
humano es no-lineal, entonces es preferible tener una cuantización de pasos pequeños a bajos
niveles y con pasos más grandes en los niveles más altos.
Considerando que se quiere diseñar un cuantizador de M niveles, óptimo en el sentido del
error medio cuadrático, se tiene que la distorsión media es:
Z a1 M
X −2 Z ai+1 Z +∞
2 2
D= (x − x̂1 ) fX (x) dx + (x − x̂i+1 ) fX (x) dx + (x − x̂M )2 fX (x) dx ,
−∞ i=1 ai aM −1

en donde existen 2M − 1 variables de las que D depende: (a1 , a2 , . . . , aM −1 , x̂1 , x̂2 , . . . , x̂M ) y la
minimización del error D se tiene que hacer con respcto a estas variables. Tomando derivadas
parciales con respecto a todos los ai e igualando a cero, se tiene
∂D
= fX (ai ) (ai − x̂i )2 − (ai − x̂i+1 )2 = 0
 
∂ai
lo que resulta en
x̂i + x̂i+1
ai = (3.9)
2
Este resultado significa que en un cuantizador óptimo los bordes de las regiones de cuanti-
zación son los puntos medio de los niveles de cuantización. Dado que la cuantización se realiza
basándose en una mı́nima distancia entonces cada valor de x es cuantizado al {x̂i }M i=1 más
cercano.
Para determinar los niveles de cuantización x̂i , se toman derivadas parciales con respecto a
todos los x̂i , se definen a0 = −∞ y aM = +∞ y se iguala a cero para obtener
Z ai
∂D
= 2(x − x̂i )fX (x) dx = 0
∂ai ai−1

lo que resulta en R ai
a
xfX (x) dx
x̂i = R i−1
ai . (3.10)
f (x) dx
ai−1 X

48
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

Esto significa que para un cuantizador óptimo, el valor de cuantización para una región, debe
ser elegido como el centroide de dicha región. Ambas condiciones impuestas para el cuantizador
escalar óptimo se conocen como las condiciones de Lloyd-Max y pueden ser resumidas como
1. Los bordes de las regiones de cuantización son los puntos medios de los valores de cuan-
tización correspondientes (ley del vecino más cercano)
2. Los valores de cuantización son los centroides de las regiones de cuantización.
A pesar de que estas reglas son muy sencillas, no resultan ser soluciones analı́ticas para
el diseño de un cuantizador óptimo. El método usual para diseñar un cuantizador óptimo es
comenzar con un set de regiones de cuantización y luego usar el segundo criterio para encontrar
los valores de cuantización. Luego se realiza el cálculo de las nuevas regiones de cuantización
para los valores antes encontrados y se procede repetidamente haste que la distorsión no cambie
significativamente entre un paso y otro. Utilizando este método se puede diseñar el cuantizador
no-uniforme óptimo para diferentes fuentes aleatorias. La Tabla 3.2 muestra el cuantizador
nouniforme óptimo para varios niveles de cuantización de una fuente Gaussiana de media cero y
varianza unitaria. En caso de trabajar con con una fuente Gaussiana con media µ y varianza σ 2
entonces los valores de ai y de x̂i deben ser reemplazados por µ + σai y µ + σx̂i respectivamente
y el valor del error de distorsión medio, D, debe ser reemplazado por σ 2 D.

Tabla 3.2: Cuantizador No-uniforme Óptimo para una fuente Gaussiana


Niveles Bordes Valores Distorsión Entropı́a
M ±ai ±x̂i D H(X̂)
1 – 0 1 0
2 0 0.7980 0.3634 1
0 0.4528
4 0.1175 1.911
0.9816 1.510
0 0.2451
0.5006 0.7560
8 0.03454 2.825
1.050 1.344
1.748 2.152
0 0.1284
0.2582 0.3881
0.5224 0.6568
0.7996 0.9424
16 0.009497 3.765
1.099 1.256
1.437 1.618
1.844 2.069
2.401 2.733

En general, la cuantización no uniforme presenta menor error de distorsión principalmente


por que las regiones no son estrictas y se pueden adecuar mejor a las aplicaciones particulares
que exige cada señal. En la Fig. 3.7 se muestra la comparación entre una señal débil y una
fuerte, utilizando para ambas las dos opciones de cuantización; a la izquierda se usa cuantización

49
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

uniforme y a la derecha no-uniforme. Se puede observar que para ambas señales, se logra una
mejor aproximación mediante la cuantización nouniforme. Por esta razón, se estudia el concepto
de Companding en la siguiente sección.

Fig. 3.7: Comparación entre Cuantización Uniforme y No-uniforme

Ejemplo 3.3 - Cuantización No-uniforme.


Basándose en el resultado del Ejemplo 3.1, se pide estudiar el SQNR al utilizar un cuantizador
no-uniforme para la misma fuente Gaussiana.
Sol. Para realizar la comparación se utilizarán los mismos niveles de cuantización (M = 8) en
la Tabla 3.2. Como la fuente es Gaussiana y se obtuvo anteriormente que µ = 0 y σ 2 = 400,
entonces los valores de ai y x̂i se deberán multiplicar por σ = 20 y la distorsión debe multiplicarse
por 400. Ası́ los valores obtenidos serán: a1 = −a7 = 34.96; a2 = −a6 = −21; a3 = −a5 =
−10.012; y a4 = 0 para los bordes de las regiones, y x̂1 = −x̂8 = −43.04; x̂2 = −x̂7 = −26.88;
x̂3 = −x̂6 = −15.12; y x̂4 = −x̂5 = 4.902 para los valores de cuantización. La distorsión será
D = 13.816 lo que es significativamente menor a lo obtenido para el cuantizador uniforme. El
SQNR será
σ2 400
SQN R = = = 28.95 ≈ 14.62dB ,
D 13.816
que es 3.84 dB mejor que el SQNR de un cuantizador uniforme. 

Companding
La forma más común de realizar cuantización no-uniforme es conocida como companding, nom-
bre que se origina por la combinación de los términos comprensión-expansión en inglés. Su

50
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

funcionamiento se puede ejemplificar como la conexión en cascada de un amplificador de com-


presión, F (x) y un cuantizador; para la recuperación se tendrá un decodificador y un amplifi-
cador de expansión, F −1 (x). Se entenderá entonces que la señal original es comprimida usando
un dispositvo no-lineal y sin memoria. Ası́, antes de realizar la cuantización, la señal se distor-
ciona por una función similar a la que se muestra en la Fig. 3.8. Esta operación comprime los
valores extremos de la forma de onda, mientras que mejora los valores pequeños en el mismo
sistema de ejes. Ahora, si la señal análoga comprimida es cuantizada en forma uniforme, el
resultado es equivalente a cuantizar con pequeños pasos en valores bajos de la señal y pasos
más grandes para los valores superiores.

Fig. 3.8: Curva tı́pica de compresión

La principal aplicación de companding se da en la transmisión de señales de voz o audio


en general. Como antecedente, se deja constancia de que el sistema Dolby Noise Reduction
corresponde a una implementación de esta técnica. En USA y Japón se adoptó como estándar
de compresión la llamada ley-µ, en cambio en Europa se utilizó el estándar conocido como ley-A.
La fórmula de compresión de la ley-µ está determinada por
ln (1 + µ|x|)
F (x) = sgn(x) , (3.11)
ln (1 + µ)
y su curva para distintos valores de µ se muestra en la Fig. 3.9. Nótese que el valor de µ = 0
corresponde a una situación sin compresión. Un valor utilizado con frecuencia es el de µ = 255
(8 bits) ya que presenta una alta compresión, sin embargo la aplicabilidad dependerá de las
condiciones de contorno fijadas por la señal a tratar.
Por su parte, la fórmula de compresión de la ley-A está determinada por
, |x| < A1

1 A |x|
F (x) = sgn(x) , (3.12)
1 + lnA 1 + ln (A |x|) , A1 ≤ |x| ≤ 1
en donde A es el parámetro de compresión. En Europa es frecuente utilizar A = 87.7 como
estándar de compresión.

51
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

Fig. 3.9: Curva de Compresión de la Ley-µ

3.3.2 Cuantización Vectorial


En el proceso de cuantización escalar, se toma cada una de las salidas de la fuente en tiempo
discreto y se cuantiza en forma separada. En esta sección se estudiará la cuantización conjunta
de un bloque de muestras que recibe el nombre de cuantización vectorial o por bloque y que
es ampliamente utilizada en codificación de la voz para sistemas de celulares digitales. Uno de
los puntos más importantes a considerar, es que la cuantización vectorial, en general, presenta
mejor desempeño que la cuantización escalar aun cúando la fuente de amplitud continua no
posea memoria. Además, si por alguna razón las muestras son estadı́sticamente dependientes,
al utilizar cuantización vectorial se puede aprovechar dicha condición; lo que equivale a decir
que al cuantizar un conjunto de muestras se logrará una mejor eficiencia (menor tasa de bits)
que al hacerlo en forma independiente mediante cuantización escalar
La cuantización vectorial puede ser formulada como sigue. Considérese que el espacio m-
dimensional se subdivide en M regiones o celdas distintas que se notarán por Ci . Considérese
también un vector m-dimensional de dicho espacio x = [x1 x2 . . . xm ] con componentes reales
y de amplitud continua. Este vector representa uno de los bloques de salida de la fuente y
está decrito por la PDF conjunta p(x1 , x2 , . . . , xm ). El vector x es cuantizado en otro vector
m-dimensional denotado por x̂ = [x̂1 x̂2 . . . x̂m ] bajo la condición de que si x ∈ Ci , entonces
es cuantizado en Q(x) = x̂i . Básicamente la cuantización vectorial puede ser vista como un
problema de reconocimiento de patrones, que involucra la clasificación de bloques de datos en
un número discreto de categorı́as (celdas), con el fin de optimizar algún criterio de calidad (error
de distorsión cuadrático medio).
Por ejemplo, considere la cuantización de vectores bidimensionales x = [x1 x2 ]. El espacio
de dos dimensiones es particionado en celdas como se muestra en la Fig. 3.10, en donde se
eligió arbitrariamente una forma hexagonal para las celdas {Ci }. Todos los vectores de entrada
que caigan dentro de la i-ésima celda Ci serán cuantizados en el vector x̂i que en la figura se

52
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

Fig. 3.10: Cuantización vectorial para espacio bidimensional

representan como el centro de cada hexágono. En este ejemplo existen L = 37 vectores, uno
para cada una de las 37 celdas en que se ha particionado el espacio bidimensional, por lo que
las posibles salidas del cuantizador vectorial se representan por {x̂i }Li=1 .
Conforme a lo explicado anteriormente y lo estudiado para cuantización escalar, la cuanti-
zación de un vector m-dimensional x en otro x̂ generará un error de cuantización d(x, x̂) cuyo
valor medio sobre el set de vectores de entrada x será:
XL L
X Z
D= P (x ∈ Ci )E {d(x, x̂i )|x ∈ Ci } = P (x ∈ Ci ) d(x, x̂i )p(x) dx , (3.13)
i=1 i=1 x∈Ci

en donde P (x ∈ Ci ) es la probabilidad de que el vector x caiga en la celda Ci y p(x) es la PDF


conjunta que define las m variables aleatorias anteriormente descrita. Tal como se realizó para
cuantización escalar, para una PDF dada se puede realizar la minimización de D seleccionando
las celdas {x̂i }Li=1 .
Una medida de distorsión comúnmente utilizada es el error medio cuadrático con norma 2
definido por
m
1 1 X
d2 (x, x̂) = (x − x̂)T (x − x̂) = (xi − x̂i )2 ,
m m i=1
o, mas generalmente, el error medio cuadrático ponderado

d2W (x, x̂) = (x − x̂)T W (x − x̂)

en donde W es una matriz de ponderación definida positiva. Usualmente W se elige como la


inversa de la matriz de covarianza del vector de datos de entrada x. En la codificación de la
voz, una medida apropiada para la distorsión fue propuesta por Itakura y Satio (1968, 1975) y
corresponde a elegir la matriz de ponderación como la matriz de autocorrelación normalizada
de los datos observados.

53
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

3.4 Codificación
El proceso de codificación o encoding, corresponde a la asignación de una secuencia de bits a
los diferentes niveles de cuantización. Dado que se tiene un total de M = 2v niveles, entonces v
bits son suficientes para el proceso de encoding. Basado en lo mismo, como se tienen v bits por
muestra, que se tomó a un frecuencia de muestreo de fs [Hz], entonces la tasa de bits está dada
por R = vfs bits por segundo, tal como se obtuvo en el Ejemplo 3.1.
La asignación de bits a los niveles de cuantización puede ser realizada de diferentes maneras.
En cuantización escalar, una forma natural de realizar el encoding, es asignando valores de 0 a
M − 1 a los diferentes niveles de cuantización comenzando desde el nivel más bajo hacia el más
alto de manera creciente. Esto implica que el nivel más bajo tendrá el valor 00. . . 0 y el más
alto de 11. . . 1, ambos de largo v. Esta asignación, recibe el nombre de Codificación Binaria
Natural. A pesar de ello existen técnicas mejoradas como la Codificación Grey, que se estudió
en cursos anteriores.

3.5 Fuentes de Corrupción


Hasta ahora, se ha centrado el estudio en la señal análoga que se muestrea, cuantiza y codifica
para ser transmitida mediante el canal digital. De la secuencia de bits recibidos, se generará
una señal análoga tipo escalera que corresponde a la señal recuperada en el receptor. Esta
señal recuperada puede estar corrupta por múltiples fuentes presentes tanto en el proceso de
muestreo-cuantización, como en el canal por el que la secuencia de bits fue transmitida. A
continuación se presentan los efectos más importantes.

3.5.1 Efectos del Muestreo y la Cuantización


Aparte de los problemas que se estudiaron en la Sección 3.2.2, existen errores asociados al
cuantizador, que se mencionarán a continuación.

Ruido de Cuantización
La distorsión inherente en la cuantización es el error de redondeo o truncamiento. El proceso
de transformar una señal de amplitud continua en una señal con un número finito de posibles
valores hace que cierta información se deseche. Esta distorsión, que en definitiva es agregada
por la necesidad de trabajar con amplitud discreta, recibe el nombre de Ruido de Cuantización,
como se ha estudiado hasta ahora. Resulta intuitivo notar que la cantidad de este ruido es
inversamente proporcional al número de niveles utilizados en el proceso de cuantización.

Saturación del Cuantizador


El cuantizador asigna M niveles a la tarea de aproximar el rango continuo de entradas con un
número finito de salidas. El rango de entradas para los cuales la diferencia entre la entrada y la
salida del cuantizador es pequeña, recibe el nombre de rango de operación de dicho cuantizador.
Si la entrada excede tal rango, la diferencia entre la entrada y la salida crecerá y el convertidor

54
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

análogo-digital estará en saturación. En general los errores de saturación son más problemáticos
que el ruido de cuantización, por lo que preferentemente se utiliza un control de automático de
ganancia (AGC, en inglés) que extiende efectivamente el rango de operación del convertidor.

3.5.2 Efectos del Canal


Ruido del Canal
El ruido térmico, la interferencia desde otros usuarios y la interferencia desde un circuito de
switching pueden producir errores en la detección de los pulsos que llevan las muestras digital-
izadas, como se observa en la Fig. 3.11. Los errores introducidos por el canal, que reciben el
nombre de efecto umbral, pueden degradar la calidad de la señal reconstruı́da muy rápido.

Fig. 3.11: Distorsión de un pulso al transmitirlo por un canal ruidoso

Si el ruido del canal es pequeño no habrán problemas al momento de detectar las señales, sin
embargo si el ruido del canal es tan grande para afectar la habilidad de detectar las formas de
onda, la detección resultante tendrá errores de reconstrucción. Más aun, por pequeños cambios
en los niveles de ruido de un canal, se pueden tener grandes diferencias en el comportamiento
de dicho canal.

Interferencia entre Sı́mbolos


El canal siempre es de banda limitada por lo que dispersa o extiende a los pulsos que pasan
a través de él. Cuando el ancho de banda del canal es mucho más grande que el del pulso,
entonces la extensión del pulso es leve; sin embargo cuando ambos ancho de banda son cercanos,
la extensión sobrepasará la duración de los sı́mbolos y hará que los pulsos se traslapen. Este
traslape es llamado interferencia entre sı́mbolos (ISI, en inglés). Como cualquier otra fuente
de interferencia la ISI produce degradación del sistema (altas tasas de error), pero resulta muy
caracterı́stica pues el aumentar la potencia de la señal no mejorará el desempeño frente al error.
La forma en que se maneja las ISI se verá más adelante.

3.6 Pulse-Amplitude Modulation (PAM)


En la modulación de amplitud de pulso (PAM, pulse-amplitude modulation), la amplitud de
un tren de pulsos de ancho constante varı́a en proporción a los valores muestreados de una
señal moduladora. En general, los pulsos se toman en intervalos de tiempo equidistantes. En
primera instancia se considera la señal naturalmente muestrada (sin S/H) como lo muestra la
Fig. 3.4(c). Resulta evidente que esta señal no es compatible con un canal digital pues existen

55
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

infinitos valores posibles para la amplitud de los pulsos, ya que varı́an proporcionalmente a
los valores de las muestras de la señal moduladora. De manera especı́fica, las pendientes de
las crestas de los pulsos varı́an con las pendientes de la señal moduladora en los puntos de
muestreo. A diferencia del muestreo natural, en PAM las crestas de los pulsos deben ser planas;
esto mismo implica que se requiere incluı́r un proceso de cuantización posterior para llevar estos
valores a M valores posibles de amplitud que se puedan representar por v = log M bits. Por
ejemplo, se habla de una modulación PAM-4 al trabajar con 2 bits, y de PAM-16 al trabajar
con 4 bits, etc.
Todo el análisis teórico realizado para el proceso de muestreo natural y para S/H resulta
aplicable en modulación PAM, por lo que su espectro corresponde al de la Fig. 3.4(d) para una
señal naturalmente muestreada o al de la Fig. 3.5(b) para un esquema con S/H. Al evaluar esta
respuesta espectral, se puede notar que la demodulación se debe implementar mediante un
filtro pasa bajos como primera etapa. Como el espectro está afectado por la presencia del tren
de pulsos, entonces es necesario agregar un ecualizador con respuesta en frecuencia dada por
Xp−1 (f ), en donde Xp (f ) es la transformada de Fourier de tren de pulsos de la Ecuación 3.3.
A pesar de que esto es bastante dificil de implementar, en la práctica solo se requiere una
ecualización para el rango de frecuencias en que el mensaje es válido: [−W, +W ]. Ası́, el diseño
es mucho más relajado y la dificultad de implementación se ve reducida.
Por otra parte, si el tiempo de duración del pulso Tp es lo suficientemente pequeño con
respecto al periodo de éste, T , entonces cada pulso se asemeja a un impulso y la señal de salida
del modulador será cada vez más parecida a un sistema de muestreo mediante impulsos, caso
en el que no se requiere ecualización. Por esto, se asume como cota para requerir o no un
ecualizador, que la relación TTp sea menor al 1%.

3.7 Pulse-Code Modulation (PCM)


La idea de la codificación por forma de onda, es reproducir una forma de onda de la fuente
en el destino con la menor distorsión posible. En estas técnicas no se presta atención en la
manera en que se produce la forma de onda, sino que todos los esfuerzos son dedicados en la
reproducción filedigna de la forma de onda de la fuente. Por lo mismo, los codificadores de
forma de onda pueden ser utilizados con una gran variedad de formas de onda, mientras que
éstas tengan ciertas similitudes.
La modulación PCM es el más simple y viejo esquema de codificación por forma de onda.
Consiste básicamente en tres secciones: un sampleador, un cuantizador y un codificador. En
PCM se realizan las siguientes suposiciones:

1. La señal es de banda limitada, con una frecuencia máxima de W , por lo que puede ser
completamente reconstruı́da de muestras tomadas a una tasa fs ≥ 2W .

2. La señal tiene amplitud finita, vale decir que existe un máximo de amplitud xmax tal que
| x(t) |≤ xmax < ∞.

3. La cuantización se realiza para un número alto de niveles de cuantización M , que es una


potencia de 2 (M = 2v ).

56
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

Muestreo de Señal Análoga. El muestreo se realiza de la forma en que se estudió en el


presente capı́tulo. Dado que la señal debe ser de banda limitada, para poder trabajar
con señales periódicas, se necesita incluir un LPF con ancho de banda W a la entrada del
muestreador, evitando ası́ armónicos sobre dicha frecuencia.

Cuantización. Dependiendo del cuantizador utilizado, uniforme o nouniforme, se tiene una


modulación PCM uniforme o nouniforme y esto se selecciona dependiendo de las carac-
terı́sticas de la salida de la fuente.
Dentro del proceso de cuantización, se debe tener en mente que mientras más niveles
se utilicen para realizar PCM, más cercana resulta ser la señal aproximada. En otras
palabras, el número de niveles utilizados determina la resolución de la señal. Esto es, la
medida de cuan pequeño puede ser el cambio en la señal original para poder ser visto en
la cuantización.

Codificación. Una vez que se ha realizado el proceso de muestreo y redondeo a un número


apropiado de niveles, se necesita realizar la transmisión. Esta transmisión debe ser solo
de la información justa, que permita que el receptor pueda comprender que nivel de señal
se está enviando. Por esto, en PCM se codifica cada uno de los niveles en números bina-
rios, para luego enviarlos dependiendo del nivel que vaya presentando la señal. Además
considerando la suposición 3, siempre se tendrán una represencación mediante v bits, con
v ∈ Z.

Los números binarios resultantes, pueden ser transmitidos con gran variedad de técnicas
y representaciones. Por ejemplo se pueden tener representaciones unipolares, bipolares, con
o sin retorno a cero, etc. Resulta claro entonces, que un modulador PCM viene a ser un
conversor Analogo-Digital (A/D). Ası́, la demodulación (en rigor, decodificación) se realiza con
un conversor Digital-Análogo (D/A).

3.7.1 Representación de Dı́gitos Binarios


Los digitos binarios obtenidos tras un modulador PCM necesitan ser representados mediante
pulsos eléctricos de forma de transmitirlos por un canal en banda base. Una representación de
esto se muestra en la Fig. 3.12, en donde se muestran las palabras generadas por PCM y dos
alternativas de representación. Los slot de tiempo de palabra se muestran en la Fig. 3.12(a),
en donde el largo de cada una de estas palabras es 4 bits por muestra quantizada. En la
Fig. 3.12(b), cada 1 binario es representado por un pulso de duración T 0 y cada cero binario es
representado por la ausencia de dicho pulso; ası́, una secuencia de pulsos eléctricos teniendo el
patrón mostrado en esta figura puede ser usado para transmitir la información de cada stream
de bits PCM, y, por lo tanto, la información de las muestras cuantizadas del mensaje.
En el receptor, se debe realizar una determinación de la presencia o ausencia de un pulso por
cada unidad de tiempo T . Como se verá más adelante, la probabilidad de detectar correctamente
la presencia de un pulso es una función de la energı́a de dicho pulso (es decir, del área bajo el
pulso); entonces es una ventaja hacer el pulso tan ancho como sea posible. Si dicho pulso se
incrementa al máximo posible, vale decir a la duración del bit, T , entonces se obtiene la forma
de onda dada en la Fig. 3.12(c). En vez de ser descrita como una ausencia-presencia de pulsos

57
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

(a) Secuencia PCM

(b) Representación pulsatil de PCM

(c) PCM mediante transiciones entre dos niveles

Fig. 3.12: Ejemplos de representación para digitos binarios en PCM

–a diferencia de la forma de onda anterior– esta forma de onda puede ser descrita como una
secuencia de transiciones entre dos niveles: cuando se ocupa el valor más alto de voltaje se está
representando un 1 binario y cuando se utiliza el más bajo se representa un cero.
En la Fig. 3.13 se ilustran las formas de onda más utilizadas en PCM, las que pueden
clasificarse en los siguientes grupos:

Sin retorno a cero (NRZ). El grupo NRZ es probablemente el grupo más utilizado en modu-
lación PCM. Puede ser subdividido en: NRZ por nivel (NRZ-L), NRZ por marca (NRZ-M)
y NRZ por espacio (NRZ-S). NRZ-L es usado extensamente en lógica digital. Un uno dig-
ital es representado por un nivel y un cero por otro nivel, por lo que habrá un cambio
ya sea que se pase de uno a cero o de cero a uno. Con NRZ-M, el uno (o marca) es
representado con un cambio de nivel, y el cero (o espacio) es representado sin un cambio
de nivel. Esto comunmente es conocido como codificación diferencial y es utilizado prin-
cipalmente en grabaciones en cintas magnéticas. En el caso de NRZ-S se realiza la acción
complementaria de NRZ-M: el uno se representa sin cambios y el cero por un cambio en
el nivel.

Con retorno a cero (RZ). Las formas de onda con retorno a cero consisten en la unipolar-
RZ, la bipolar-RZ y RZ-AMI. Todas estas alternitivas se utilizan en transmisión en banda
base y grabación magnética. En la unipolar-RZ, el uno es representado por un pulso de
un ancho igual a la mitad del tiempo que dura un bit, y el cero se representa por la
ausencia de tal pulso. Con la bipolar-RZ, los unos y ceros se representan por pulsos en

58
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

Fig. 3.13: Formas de onda más comunes utilizadas en la modulación PCM

niveles opuestos con una duración de la mitad del tiempo disponible por bit, por lo que
existe un pulso presente en cada intervalo de bit. El caso de RZ-AMI recibe su nombre
de inversión alternada de marca (alternate mark inversion, AMI) y es un esquema de
codificación usado principalmente en sistemas de telemetrı́a. Los unos son representados
por pulsos alternados de igual amplitud y los ceros por la ausencia de pulsos.

Fase codificada. El grupo de fase codificada consiste en bi-fase por nivel (bi-φ-L), mejor cono-
cida por codificación Manchester ; bi-fase por marca (bi-φ-M); bi-fase por espacio (bi-φ-S);
y modulación por retardo (DM), o codificación Miller. El grupo de fase codificada es us-
ado en sistemas de grabación magnética, en comunicaciones ópticas y en algunos enlaces
de telemetrı́a satelital. Al trabajar con bi-φ-L, el uno es representado por un pulso de la
mitad del ancho disponible, ubicado en la primera mitad del tiempo de duración; el cero se
representa por el mismo pulso pero ubicado en la segunda mitad del intervalo del bit. Con

59
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

bi-φ-M, ocurre una transición al comienzo de cada intervalo de bit; el uno es representado
por una segunda transición en el punto medio del intervalo, y el cero se representa sin
realizar esta transición media. Para el caso de bi-φ-S también se producen transiciones
al comienzo de cada intervalo, sin embargo el uno se representa sin transición media y el
cero se hace mediante una transición en el punto medio del intervalo. En la modulación
por retardo, el uno se representa por una transición en el punto medio del intervalo; el
cero es representado sin transición a menos que sea seguido por otro cero, caso en el cual
se incluye una transición al final del intervalo del primer cero.

La razón por la que existen tantas formas de onda posibles para realizar la transmisión de
datos PCM es que cada una de estas formas de onda tiene un desempeño caracterı́stico para una
aplicación en particular. Al momento de elegir el esquema de codificación para esta aplicación,
los parámetros que deben examinarse son los siguientes:

• Componente DC. Al eliminar la componente DC de la PSD de la señal puede originar


problemas en sistemas con alta sensibilidad a las bajas frecuencias, por lo que se puede
perder información de baja frecuencia.

• Autosincronización. En cualquier sistema de comunicación digital se requiere sicronización


por sı́mbolo o por bit. Algunos códigos PCM tienen una sincronización inherente o car-
acterı́sticas de sincronización que ayudan en la recuperación del reloj de la señal. Por
ejemplo, el código Manchester tiene una transición en el medio de cada intervalo ya sea
que se envio un cero o un uno, lo que provee una señal de sincronización.

• Detección de errores. Algunos esquemas de codificación proveen los medios de detectar


errores sin introducir bits adicionales para la detección de errores.

• Compresión del ancho de banda. Existen esquemas que incrementan la eficiencia del ancho
de banda ya que permiten una reducción del ancho de banda requerido por una tasa de
datos dada. Ası́, más información es transmitida por unidad de ancho de banda.

• Codificación diferencial. Realizar la codificación de alguna forma diferencial es útil pues


permite invertir la polaridad de las formas de onda codificadas sin afectar la detección
de datos. Esto es una ventaja en sistemas de comunicación en donde las formas de onda
pueden sufrir inversión.

• Inmunidad al ruido. Las distintas formas de onda de PCM pueden ser caracterizadas por
la probabilidad de error versus la razón señal-a-ruido (signal-to-noise ratio, SNR). Algunos
de los esquemas son más inmunes que otros al ruido; por ejemplo, las formas de onda NRZ
tienen mejor desempeño de error que las formas de onda RZ unipolar.

En definitiva, la forma de onda que es seleccionada para cada aplicación dependerá de


factores importantes como la caracterı́stica espectral, capacidad de sincronización de bit, ca-
pacidades de detección de errores, inmunidad a la interferencia o al ruido, y costo/complejidad
de implementación.

60
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

3.7.2 Tipos de Cuantizadores


Existen tres formas genéricas de cuantizadores:
1. Cuantizadores por conteo, que cuentan uno a uno los niveles de cuantización.

2. Cuantizadores Seriales, que generan un código de palabra bit-a-bit desde el bit más signi-
ficativo (MSB) hasta el menos significativo (LSB).

3. Cuantizadores Paralelos, que generan todos los bits en forma simultanea.

Cuantizadores por Conteo


El cuantizador por conteo basa su funcionamiento en un contador binario capaz de llevar la
cuenta desde 0 hasta v bits y en un Sample-and-Hold. El diagrama en bloques de este cuanti-
zador se muestra en la Figura 3.14.

Fig. 3.14: Cuantizador por conteo

El generador de rampa comienza a cada punto de muestreo y el contador binario es si-


multáneamente iniciado. La salida del bloque S/H corresponde a una salida “tipo escalera”,
en donde cada uno de los escalones permanece en el valor muestrado para cada intervalo de
muestreo. El tiempo de duración de la rampa -y por ende del contador binario- es proporcional
al valor de la muestra, pues la pendiente de la rampa permanece constante. Consideando que
la frecuencia de reloj es tal, que permite que el contador alcance su máxima cuenta (111. . . 1)
para un tiempo de duración de la rampa correspondiente al máximo valor muestreado, entonces
la cuenta final en el contador corresponderá a los niveles de cuantización.

Ejemplo 3.4 - Cuantizador por conteo.


Considere que se está diseñando un cuantizador por conteo, con un generador de rampa con
pendiente 106 V/s. La señal de entrada varı́a de 0 a 10V y se tiene un contador binario de 4
bits. Calcule la frecuencia del reloj para cuantizar una señal de voz.

61
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

Sol. En general, se puede considerar que la voz alcanza valores máximos cercano a los 3kHz,
por lo que trabajamos con una señal de banda limitada. Ası́, la frecuencia de muestreo para
reconstrucción perfecta deberá ser de a lo menos 6kHz, lo que equivale a un periodo de muestreo
de 16 ms. Dado que la rampa alcanza los 10V en tmax = 1010V6 V /s = 0.01ms < Ts , entonces tenemos

suficiente tiempo para evitar problemas de sobrecarga. El contador deberá contar desde 0000
hasta 1111 en este tiempo, y dado que se tienen 16 valores posibles, tcount = 160.01ms
valores
; en otras
−1
palabras, se requiere una fCLK = tcount = 1.6M Hz. 

Cuantizadores Serial
El cuantizador serial, divide sucesivamente la entrada en mitades, determinando en qué mitad
se encuentra dicha entrada. En el primer paso, la entrada se divide a la mitad y se observa si
se encuentra en la mitad superior o inferior. El resultado de esta observación, genera el bit más
significativo del código de palabra.
La mitad en la cual se encuentre la muestra, se vuelve a subdividir en 2 regiones y nuevamente
se realiza la comparación, esto genera el siguiente bit. Ası́, el proceso se repite tantas veces como
bits se utilicen en el encoding.
La Fig. 3.15 muestra un cuantizador serial de 3 bits. Los rombos representan comparadores,
que realizan una comparación de su entrada con un valor fijo, dando una salida si la entrada
excede dicho valor, u otra salida diferente si es menor. Es importante tener en mente que esta
figura está pensada para una señal con valores entre 0 y 1, por lo que en el caso de no tener esta
condición, se requiere una normalización previa. De necesitar más (o menos) bits, los bloques
comparativos pueden ser fácilmente agregados (o quitados).

Fig. 3.15: Cuantizador Serial de 3 bits

Para la Fig. 3.15, el bit b1 es el primer bit de la ristra y corresponde al bit más significativo
(most significant bit, MSB), por lo que b3 es el bit menos significativo (least significant bit,
LSB).

Ejemplo 3.5 - Cuantizador Serial.


Ilustre la operación del cuantizador serial de la Fig. 3.15 para los valores de entrada de 0.2V y
0.8V.
Sol. Para 0.2V, la primera comparación resulta en un NO por respuesta, por lo que b1 = 0.

62
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

De la misma forma, la segunda comparación da un NO, por lo que b2 = 0. Para la tercea


comparación, el resultado es SI, teniendo que b3 = 1. Ası́, el código para el valor 0.2V es 001.
Para los 0.8V, la primera comparación da un SI por respuesta, por lo que b1 = 1 y se le restan
0.5, teniendo 0.3V para la segunda etapa. En esta, el resultado también es SI, entonces b2 = 1
y la señal es 0.05. La tercera comparación resulta en NO, por lo que b3 = 0. Entonces el código
para 0.8V es 110. 

Cuantizadores Paralelo
El cuantizador paralelo es el cuantizador más rápido pues genera todos los bits del código de
palabra en forma simultánea. Lamantablemente resulta ser el más complejo de todos, ya que
requiere un gran número de comparadores –por ejemplo, para M -niveles de comparación, se
requieren M − 1 comparadores–. Además, se necesita un codificador de M = 2v entradas y v
salidas, que a pesar de ser un simple circuito combinacional, agrega complejidad y retardo al
bloque total.
La Fig. 3.16 muestra un diagrama de bloques de un cuantizador paralelo de 3 bits. El bloque
marcado como “Codificador” toma la salida de los 7 comparadores y genera el número binario
correspondiente. Por ejemplo para un valor de señal superior a 87 V, todos los comparadores
tendrán sus salidas en “1” (SI). El codificador deberá entonces generar el código 111.

Fig. 3.16: Cuantizador Paralelo de 3 bits

Dadas las condiciones del problema, el diseño del “Codificador” es muy sencilla, pues solo 8
de los 128 (28 ) opciones posibles de entrada se utilizan: una señal no podrá ser mayor que un
valor, pero menor que otro nivel inferior.
Mientras que los cuantizadores seriales toman ventaja de la estructura de los números bina-
rios cuando se cuentan en secuencia, el cuantizador paralelo no requiere dicha estructura. De
hecho, el código para regiones de cuantización puede ser asignado de cualquier forma que resulte
cómoda y útil para la aplicación particular. Un problema con la asignación secuencial es que
la transmisión de errores en los bits genera errores de reconstrucción no-uniforme, y particular-

63
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

mente si dicho error se produce en el MSB. Por esto, es preferible que en muchos casos se utilice
el código Gray, en donde solo se produce un cambio de estado por cada una de las salidas.

3.7.3 PCM Diferencial


Como se discutió anteriormente, en un sistema PCM, luego de muestrear la señal de información,
cada muestra es cuantizada independientemente usando un cuantizador escalar. Esto significa
que la muestra anterior no tiene ningún efecto sobre la cuantización de las muestras nuevas. Sin
embargo, cuando un proceso aleatorio de banda limitada es muestreado a una frecuencia igual
o superior a la de Nyquist, los valores de las muestras son variables aleatorias correlacionadas1 .
Esto significa que en la gran mayorı́a de los casos, las muestras anteriores dan algun tipo
de información acerca de las venideras; información que puede ser utilizada para mejorar el
desempeño de un sistema PCM. Por ejemplo, si la muestra anterior tenı́a un valor pequeño
existe una alta probabilidad de que el valor de la siguiente muestra sea también pequeño, por
lo que no es necesario cuantizado un alto rango de valores para tener un buen desempeño.
En la forma más sencilla de implementar esta modulación PCM diferencial (DPCM), se
cuantizan las diferencias entre dos muestras adyacentes Xk −Xk−1 . Dado que estas dos muestras
adyacentes están altamente correlacionadas, su diferencia tiene variaciones pequeñas; por lo
tanto, para lograr un cierto nivel de performance, solo se requieren unos pocos niveles (y por
ende, unos pocos bits) en la cuantización. En palabras simples, DPCM logra un determinado
desempeño a una tasa de bits menor que lo que necesitarı́a PCM.
En la Fig.(Hecha en clases) se muestra una forma de realizar DPCM de una manera simple.
Como se puede observar en dicha figura, la entrada en el cuantizador no es Xk − Xk−1 sino que
0 0
Yk = Xk − Ŷk−1 , en donde Ŷk−1 es una variable altamente relacionada con Xk−1 como se verá a
continuación. La ventaja de la utilización de esta nueva variable es que previene la acumulación
de ruido de cuantización. La entrada del cuantizador, Yk se cuantiza en forma escalar (uniforme
o no uniforme) para generar Ŷk en base a las relaciones
0
Yk = Xk − Ŷk−1 , (3.14)
Ŷk0 = Ŷk + Ŷk−1
0
. (3.15)

El error de cuantización entre la entrada y salida del cuantizador estará determinada por
0
Ŷk − Yk = Ŷk − (Xk − Ŷk−1 )
0
= Ŷk − Xk + Ŷk−1
= Ŷk0 − Xk (3.16)

La salida del receptor está dada por la relación

X̂k = Ŷn + X̂k−1 . (3.17)

Comparando las Ecuaciones (3.15) y (3.17) se puede ver que Ŷk0 y X̂k satisfacen la misma
ecuacion de diferencias con la misma función de exitación, Ŷk . Por lo tanto, si las condiciones
1
La única excepción a esto se produce cuando el espectro del proceso es plano dentro de su ancho de banda.

64
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

inciales de Ŷk0 y X̂k son elegidas iguales, éstas también serán iguales para todo tiempo k. En
0
efecto, al juntar ambas ecuaciones se obtiene la relación X̂k = Ŷk0 − Ŷk−1 + X̂k−1 por lo que al
0
fijar, por ejemplo, Ŷ−1 = X̂−1 = 0 se tiene:
X̂0 = Ŷ00 − Ŷ−1
0
+ X̂−1 = Ŷ00
X̂1 = Ŷ10 − Ŷ00 + X̂0 = Ŷ10
..
.
X̂k = Ŷk0 − Ŷk−1
0
+ X̂k−1 = Ŷk0 .
Reemplazando este resultado en la Ecuación (3.16) se obtiene que el ruido de cuantización que
estaba dado por Ŷk − Yk cumple la relación
Ŷk − Yk = X̂k − Xk . (3.18)
Esto demuestra que el error de cuantización que existe entre la muestra Xk y su réplica
en el receptor X̂k es la misma que el error de cuantización entre la entrada y la salida del
cuantizador. Sin embargo, el rango de variación que normalmente presenta Yk es mucho menor
que el presentado por Xk , por lo que Yk se cuantiza con menos bits.

3.8 Modulación Delta


De acuerdo a lo estudiado de PCM, el código binario resultante debe ser capaz de proveer una
medida de la muestra dentro de todo el rango dinámico de la señal. Por ejemplo, al trabajar con
señales en un rango -5V a +5V, el código digital debe ser capaz de indicar muestras sobre un
rango de 10V. Además, el ruido de cuantización resultante es proporcional al rango dinámico
de los datos originales por lo que rangos menores son siempre preferibles. Por ende, si de
alguna forma se pudiese reducir el rango dinámico de los números que se tratan de comunicar,
el performance frente al ruido se mejorarı́a también. La Modulación Delta es una técnica
sencilla para realizar esta tarea. En vez de enviar el valor de cada una de las muestras, se envia
la diferencia entre la muestra y el valor previo. Si el muestreo se está realizando a la frecuencia
de Nyquist, esta diferencia tiene un rango dinámico igual al de las muestras originales, por lo
que cada muestra es independiente de la anterior. En caso contrario, al muestrear a frecuencias
superiores a la de Nyquist, las muestras resultan ser dependientes entre ellas, por lo que el rango
dinámico de la diferencia entre 2 muestras puede ser menor que el de las muestras como tales.
Ası́, al aumentar la frecuencia de muestreo se logra una reducción en el rango dinámico, por lo
que se puede enviar la misma información usando una menor cantidad de digitos binarios para
el mismo ruido de cuantización. Dado esto, se lograrı́a una mejora en la transmisión.
En otras palabras, la modulación delta es una técnica de conversión analogo-digital usada
para la transmisión de información en la cual la calidad de las señales no es de vital importancia,
permitiendo realizar una reducción del rango dinámico. Por lo mismo, su utilidad principal es
con señales de voz. Esta modulación reduce el proceso de cuantización a 1 bit. Por ejemplo un
“1” representa una diferencia positiva y un “0” una diferencia negativa. Esto a su vez involucra
que solo se trabaja con 2 niveles de codificación, a los que se referenciará como +∆ ó −∆. En
términos generales, la señal solo podrá aumentar o disminuir en ∆ unidades.
Sus principales caracterı́sticas en la generación de la ristra de bits son:

65
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

1. La señal análoga es aproximada en una serie de segmentos.

2. Cada segmento de la señal aproximada, es comparada con la señal original para determinar
aumento o disminución en la ampliud relativa.

3. Los bits sucesivos se determinan conforme a esta comparacion.

4. Solo el cambio de información es enviada. Esto quiere decir que solo se realiza un cambio
del estado anterior si la señal de entrada decrece o aumenta, ya que una condición de
no-cambio involucra la continuidad del “0” o “1” de la muestra anterior.
La Fig. 3.17 muestra una señal análoga y la aproximación mediante Modulación Delta. Dado
que la cuantización solo se puede incrementar o decrementar en ∆ en cada punto de muestreo,
se trata de realizar la aproximación a la señal original mediante una señal “tipo escalera”.

Fig. 3.17: Forma de onda análoga (rojo) y su aproximación en la Modulación Delta (azul).

Como se dijo con anterioridad, se realiza la comparación entre ambas señales: si la escalera
está bajo la muestra de la señal análoga, entonces se debe incrementar positivamente en una
unidad; si se encuentre sobre la muestra de la señal, entonces se debe decrementar en una
unidad. Asumiendo que se realiza la asociación de que los incrementos valen “1”, la ristra de
bits para la figura, está dada por:

111111111000000011111111111000 · · ·

Ası́, se tiene que la implementación de la modulación Delta es realmente sencilla, pues está
compuesta por un comparador y un generador de señal escalera, como se muestra en la Fig. 3.18.
Resulta evidente que existe una clara dependencia entre la calidad de la codificación con el
valor del incremento ∆. De hecho, para usar efectivamente la modulación delta se debe realizar
una elección inteligente de dos parámetros: valor del incremento, ∆, y tasa de muestreo, Ts . La
elección debe ser realizada de tal forma que la señal escalera sea una buena aproximación de la
señal análoga original. Dado que la señal tiene una frecuencia máxima conocida, entonces se

66
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

Fig. 3.18: Diagrama de Bloques de un conversor Delta A/D

sabe a la máxima tasa a la cual esta puede cambiar, lo que permite elegir apropiadamente una
buena frecuencia de muestreo. Ahora bien, si el paso es demasiado pequeño, se experimenta
el problema de sobrecarga de pendiente en dónde la escalera no es capaz de seguir los rápidos
cambios que presenta la señal análoga. Este problema se muestra en la Fig. 3.19(a). Por otra
parte, si el paso es demasiado grande se tendrán considerables sobrepasos durante periodos
en los que la señal se mantiene practicamente constante. Para este caso, se tiene un ruido
de cuantización muy grande, y se conoce como Ruido Granular. Este problema se puede
observar en la Fig. 3.19(b). El resultado de una buena elección del parámetro de incremento
para el mismo tiempo de muestreo se puede observar en la Fig. 3.19(c), en donde se observa
que la señal escalera sigue bien a la original y se puede considerar una buena aproximación.

3.8.1 Modulación Delta Adaptiva


La modulación delta adaptiva es un esquema en el cual se permite un ajuste del valor de
incremento dependiendo de las caracterı́sticas de la señal análoga. Es, por supuesto, de caracter
crı́tico que el receptor sea capaz de adaptar el valor de los pasos exactamente de la misma
forma en que lo hace el transmisor, ya que si no se da esta situación, nunca se podrá hacer una
buena recuperación de la señal original cuantizada (función tipo escalera). Dado que todo es
transmitido a través de una serie de dı́gitos binarios, el tamaño del paso debe ser derivado de
dicho tren de bits.
Si un string de bits de largo dado contiene un número casi igual de ceros y unos, se puede
asumir que la escalera está oscilando en torno a una señal análoga de variación muy lenta; en
este caso, se podrı́a reducir el tamaño del paso. Por otra parte, un exceso de ceros o unos dentro
del string de bits podrı́a indicar que la escalera está tratando de alcanzar la función; en este
caso, se podrı́a incrementar el tamaño del paso. En una implementación el control del tamaño
del paso se obtiene por un integrador digital, que suma los bits sobre un periodo fijo. Si la suma
se desvı́a de aquella que corresponde a un número igual de ceros y unos, entonces se realiza la
modificación del tamaño del paso.
Existen muchos algoritmos de modulación delta adaptiva que son más sencillos de imple-
mentar que el discutido arriba. Por ejemplo dos implementaciones son el algoritmo song y el
algoritmo space shuttle.
El algoritmo song compara el bit transmitido con el anterior; si son iguales el paso se

67
CAPÍTULO 3. MODULACIÓN EN BANDA BASE

(a) Pasos muy pequeños (b) Pasos muy grandes

(c) Elección Óptima

Fig. 3.19: Consecuencias de una buena o mala elección del valor del incremento ∆.

incrementa en una cantidad fija, ∆. Si los dos bits son difentes entonces el paso de disminuye
en la misma cantidad fija, ∆. Ası́ el tamaño del paso está siempre cambiando y puede crecer y
crecer sin lı́mite si es necesario. Un caso extremo de esta implementación es cuando se quiere
seguir una función escalón, ya que al alcanzar la señal, se debe volver en cantidades fijas por lo
que existe una pequeña oscilación en torno al valor máximo. Ası́, si se espera que una función
tenga varios cambios abruptos, entonces dicha oscilación del algortimo song puede resultar
problemática.
El algoritmo space shuttle es una modificación del algoritmo song y busca eliminar dichas
oscilaciones. Al igual que antes, cuando dos bits son iguales, se realiza el incremento en el valor
fijo, ∆. Sin embargo, cuando los bits son distintos, el tamaño del paso se reinicia inmediatamente
a su mı́nimo valor, que también es ∆. Resulta de interés entonces, notar de que este algoritmo
se ajustará mejor en casos de tener una función escalón.

68
Capı́tulo 4

Modulaciones Digitales Pasabanda

4.1 Introducción
La modulación pasabanda de señales tanto análogas como digitales es un proceso por el cuál
una señal de información es contenida en una forma sinusoidal que sea capaz de transmitirse en
un canal con respuesta pasabanda. Para el caso de las modulaciones digitales, estos sinusoides
de duración T son referidos como sı́mbolos digitales. Ası́, el modulador en un sistema de
comunicación digital, mapea las secuencias de dı́gitos binarios en sus correspondientes formas
de onda para ser transmitidos en un canal pasabanda.
Cómo se estudió en cursos anteriores, una señal sinusoidal tiene tres parámetros que iden-
tifican una señal de otra: amplitud, frecuencia y fase. Ası́, la modulación pasabanda se puede
definir como el proceso por el cual la amplitud, la frecuencia o la fase de una señal portadora,
o una combinación de ellos, es variada conforme con la información que quiere ser transmitida.
La forma general de una señal portadora está determinada por

s(t) = A(t) cos[ωc t + φ(t)]

en donde A(t) es la amplitud variante en el tiempo, ωc = 2πfc es la frecuencia angular de la


portadora, y φ(t) es la fase.
Los tipos básicos de modulación y demodulación digitales se muestra en la Tabla 4.1. Cuando
el receptor explota cierto conocimiento de la fase de la portadora para realizar el proceso de
detección de la señal, se habla de detección coherente; por otro lado, si no se utiliza ese tipo de
información, el proceso es llamado detección no-coherente. Bajo el alero de comunicaciones
con detección coherente, en la columna izquierda de la Tabla 4.1 se listan Phase Shift Keying
(PSK), Frecuency Shift Keying (FSK), Amplitude Shift Keying (ASK), Modulación de Fase
Continua (CPM) y combinaciones hı́bridas. La demodulación no-coherente se refiere a sistemas
que emplean demoduladores que están diseñados para operar sin conocimiento de la fase de
la señal de entrada, por lo que no se requiere estimación de la fase. Ası́, la ventaja de un
sistema no-coherente frente a uno coherente es su menor complejidad, pero al precio de tener una
probabilidad de error mayor. En la columna derecha de la Tabla 4.1 se listan las demodulaciones
no-coherentes: DPSK y versiones de FSK, ASK, CPM e hı́bridos que son similares a las listadas
en la columna de coherentes. Resulta interesante decir que la detección de DPSK se realiza
mediante la información de la fase del sı́mbolo anterior, lo que da origen a su nombre.

69
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

Tabla 4.1: Modulaciones Digitales Pasabanda Básicas


Detección Coherente Detección No-Coherente
Phase shift keying (PSK) Differential shift keying (DPSK)
Frecuency shift keying (FSK) Frecuency shift keying (FSK)
Amplitude shift keying (ASK) Amplitude shift keying (ASK)
Continous phase modulation (CPM) Continous phase modulation (CPM)
Hı́bridos Hı́bridos

En general, en comunicaciones digitales, los términos demodulación y detección son utilizados


indistintamente, sin embargo la demodulación corresponde a la remoción de la portadora, y
detección incluye además el proceso de decisión de sı́mbolos. Ası́, en un proceso de detección
coherente ideal, en el receptor se tiene disponible una réplica o prototipo de cada señal posible.
Estos prototipos son correlacionado con la señal entrante de manera de detectar concordancia
de sı́mbolos y poder identificar qué es lo que el emisor transmitió.

4.2 Señales y Ruido


4.2.1 Ruido en Sistemas de Comunicaciones
La tarea del demodulador o detector es entregar la secuencia de bits correspondiente a la forma
de onda de la entrada con el menor error posible, sin importar lo alterada que se encuentre
dicha señal de entrada. Existen dos posibles causas para dicha alteración de la señal: El
primero es el efecto de filtrado que experimenta la señal producto del transmisor, de el canal
y del receptor. La segunda causa es el ruido producido por distintas fuentes como el ruido
galaxial, el ruido terrestre, el ruido de amplificación y señales no deseadas de otras fuentes. Una
causa de error que resulta imposible de dejar de lado es el movimiento aleatorio y térmico de
los electrones en cualquier medio de conducción. Este movimiento produce el conocido ruido
térmico en amplificadores y circuitos, corrompiendo la señal en una forma aditiva; esto quiere
decir, que la señal recibida r(t), es la suma de una señal transmitida, s(t), y el ruido térmico
n(t). Las estadı́sticas del ruido térmico se han desarrollado usando mecánica cuántica y están
bien descritos1 .
La caracterı́stica estadı́stica primaria del ruido térmico es que su amplitud está distribuı́da
de acuerdo a una distribución Gaussiana de media cero; es decir la función de densidad de
probabilidades (pdf) está determinada por

n2
 
1
p(n) = √ exp − 2 , (4.1)
2πσ 2 2σ

en donde σ 2 es la varianza del ruido. La distribución Gaussiana es comunmente utilizada como


modelo del ruido de un sistema por el teorema del lı́mite central. Este teorema establece que,
bajo condiciones muy generales, la distribución de probabilidades de la suma de k variables
1
Nyquist, H., “Thermal Agitation of Electric Charge in Conductors”, Phys. Rev., vol 32, Julio de 1928, pp
110-113

70
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

aleatorias estadı́sticamente independientes se aproxima a una distribución Gaussiana a medida


que k → ∞, sin importar la distribución individual de cada variable. Por lo tanto, aun cuando
mecanı́smos individuales puedan tener distribuciones diferentes a la Gaussiana, el conjunto de
todos aquellos mecanı́smos tenderá igualmente a una distribución Gaussiana.
La caracterı́stica espectral primaria del ruido térmico es que su densidad espectral de poten-
cia bilateral, ρn (f ) es plana para todas las frecuencias de interés para sistemas de comunicación
por radio, hasta una frecuencia alrededor de los 1012 [Hz], luego
N0
ρn (f ) = ,
2
en donde el factor de 2 es incluı́do para indicar que ρn (f ) es una PSD bilateral. Dado que su
densidad espectral de potencia es constante, se refiere al ruido térmico como un ruido blanco.
La función de autocorrelación del ruido blanco, está determinada por la transformada inversa
de Fourier de la PSD, luego
N0
Rn (τ ) = F−1 [ρn (f )] = δ(τ ) .
2
Ası́, como la función de autocorrelación es nula para τ 6= 0, se puede concluir que sin importar
cuan cerca en el tiempo estén dos muestras tomadas, ellas siempre serán no-correlacionadas.
La potencia promedio del ruido blanco, Pn , es infinita pues su ancho de banda es infinito.
A pesar de que el ruido blanco es una abstracción útil, ningun proceso de ruido puede ser
realmente blanco; sin embargo en muchı́simos sistemas se puede asumir que el ruido presente
puede ser aproximadamente blanco, ya que su espectro es practicamente constante en el rango
de frecuencias de interés. Además, como el ruido térmico está presente en todos los sistemas
de comunicaciones y es la fuente de ruido predominante en la mayorı́a de los sistemas, las
caracterı́sticas del ruido blanco (aditivo, blanco y Gaussiano) se utilizan para modelar el ruido
en el proceso de detección y en el diseño de receptores óptimos.
Por ende, el modelo matemático que se utiliza para representar los efectos del ruido en una
señal transmitida por un canal pasabanda está determinada por la relación
r(t) = si (t) + n(t) . (4.2)
Sin embargo, un modelo más descriptivo incluirı́a las modificaciones dadas por la respuesta
espectral del canal, hc (t), que se reflejarı́an como la convolución entre si (t) y dicha respuesta.
Como resultado de esta consideración se tendrá una entrada en el receptor dado por la relación
r(t) = si (t) ∗ hc (t) + n(t). En este curso se obviarán las modificaciones producidas por el canal
con la base de que –en la mayorı́a de los casos– esta respuesta es conocida.

4.2.2 Representación Geométrica de Señales


Se sabe con anterioridad de que una base de un espacio tiene que cumplir dos condiciones: que
sus elementos sean linealmente independientes y a su vez que generen de alguna forma dicho
espacio. Ası́, se estudió en el curso de algebra lineal que el conjunto {(1, 0, 0), (0, 1, 0), (0, 0, 1)}
correspondı́a a la base canónica de R3 y que en general cualquier conjunto ordenado de n-uplas
{e1 , e2 , . . . , en } donde ei es uno en la i-ésima posición y cero en el resto, es la base canónica de
Rn . Adicionalmente se obtuvo que las funciones2 también poseen un conjunto base, tal como
2
Funciones en matemática, señales en ingenierı́a.

71
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

se ve en el siguiente ejemplo.

Ejemplo 4.1 - Base de señales.


Determine si el conjunto {1, t, t2 } corresponde a una base de los polinomios de orden menor o
igual a dos con coeficientes reales.
Sol. Se puede observar que el conjunto dado genera a cualquier polinomio de la forma a+bt+ct2 .
Además no existe ninguna combinación lineal que relacione algún elemento del conjunto con
sus pares, por lo que son linealmente independientes. Entonces, refiriéndose a la definición, el
conjunto dado si corresponde a una base. 

Procedimiento de Gram-Schmidt
Suponga que tiene un set de señales con energı́a finita {si (t) , i = 1, 2, . . . , M }, del cual
quiere encontrar su base; es decir quiere encontrar un set ortonormal de señales, {ψj (t) , j =
1, 2, . . . , N }, en base al set original. El procedimiento de Gram-Schmidt permite realizar dicha
labor mediante pasos simples y fáciles de seguir: Se comienza la primera forma de onda s1 (t)
con energı́a E1 ; la primera señal ortonormal simplemente se construye mediante la relación
1
ψ1 (t) = √ s1 (t) .
E1
La segunda señal ortonormal se construye desde s2 (t), proyectando ψ1 (t) sobre ella mediante
Z ∞
a21 = s2 (t)ψ1 (t) ,
−∞

para luego aplicar la relación


ψ20 (t) = s2 (t) − a21 ψ1 (t) .
Esta señal es ortogonal a ψ1 (t) pero no necesariamente tendrá energı́a unitaria por lo que se
normaliza por su energı́a E2 para tener
ψ 0 (t)
ψ2 (t) = √2 .
E2
Generalizando el procedimiento, se puede obtener que la ortogonalización de la l-ésima
función está determinada por
1
ψl (t) = √ ψl0 (t) , (4.3)
El
en donde
l−1
X
ψl0 (t) = sl (t) − alj ψj (t) . (4.4)
j=1

Entonces, defı́nase un espacio ortogonal N -dimensional como un espacio caracterizado por


un set de N funciones linealmente independientes, {ψj (t)}, j = 1, 2, . . . , N , llamadas funciones

72
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

base. Las funciones base satisfacen las siguientes condiciones


Z T
0≤t≤T
ψj (t)ψk (t) dt = Kj δjk , , (4.5)
0 j, k = 1, 2, . . . , N
siendo δjk (t) el operador conocido como Función Delta de Kronecker, y que está definido por

1 , j=k
δjk = . (4.6)
0 , i.o.c.
Cuando las constantes Kj son distintas de cero, el espacio de señales es llamado ortogonal.
Cuando las funciones están normalizadas de forma que cada Kj = 1, entonces el espacio es
llamado ortonormal. El proceso de ortogonalidad se puede entender que cualquier función ψj (t)
debe ser mutuamente perpendicular a cada una de las otras ψk (t), con k 6= j.
Conforme al procedimiento anteriormente explicado, se puede demostrar que cualquier set
de señales {si (t)}, i = 1, 2, . . . , M , en donde cada miembro del set puede ser fisicamente real-
izable y de una duración T , puede ser expresada como una combinación lineal de N funciones
ortogonales, ψ1 (t), ψ2 (t), . . . , ψN (t), con N ≤ M , vale decir
N
X i = 1, 2, . . . , M
si (t) = aij ψj (t), , (4.7)
N ≤M
j=1

en donde
Z T i = 1, 2, . . . , M
1
aij = si (t)ψj (t) dt, j = 1, 2, . . . , N . (4.8)
Kj 0 0≤t≤T

Ejemplo 4.2 - Ortogonalización de Gram-Schmidt.


Considere las señales dadas por

  1 , t ∈ [0, 1] 
1 , t ∈ [0, 2] 1 , t ∈ [0, 2]
s1 (t) = , s2 (t) = −1 , t ∈]1, 2] , s3 (t) = , s4 (t) = −1 ,
0 , i.o.c. −1 , i.o.c.
0 , i.o.c.

todas de duración T = 3. Se pide ortonormalizar el set de señales.


Sol. La primera señal ortonormal está siempre determinada por la normalización de la señal
original, por lo tanto ψ1 (t) = s√1E(t)1 = s√1 (t)
. El coeficiente necesario para la segunda señal
RT 2
ortonormal se calcula mediante a21 = 0 s2 (t)ψ1 (t) dt = 0, por lo tanto ψ2 (t) = s√ 2 (t)
. Para
√ 2
la tercera señal se calcula a31 = 2 y a32 = 0, luego ψ30 (t) = s3 (t) − a31 ψ1 (t) − a32 ψ2 (t) =
s3 (t) − s1 (t). Como esta señal resultante tiene energı́a unitaria, no se requiere dividir por√la
energı́a de la señal, por lo tanto ψ3 (t) =√s3 (t) − s1 (t). Similarmente, se obtiene a41 = − 2,
a42 = 0 y a43 = 1, luego ψ40 (t) = s4 (t) + 2ψ1 (t) − ψ3 (t) = 0. Este resultado implica que s4 (t)
es una combinación lineal de ψ1 (t) y ψ3 (t), por lo que ψ4 (t) = 0. 

Dado que, para un set fijo de señales las funciones base serán las mismas, el set completo
{si (t)} puede ser visto como un set de vectores {si } = {ai1 , ai2 , . . . , aiN }, ya que cada señal

73
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

transmitida estará completamente determinado por dicho vector de coeficientes. Estos se cono-
cen como las coordenadas de la señal en dicha base. En sı́mbolos
si = [ai1 , ai2 , . . . , aiN ] , i = 1, 2, . . . , M . (4.9)
La razón principal de enfocar el estudio en el espacio ortogonal de funciones, es por que las
medidas de las distancias Euclidianas –que resultan fundamentales en el proceso de detección–
son formuladas de manera más sencilla en dicho espacio. Lo importante es que con lo visto
anteriormente, cualquier set de señales se puede llevar a un esquema de señales ortogonales
utilizando el procedimiento de ortogonalización de Gram-Schmidt.

Energı́a de Señales
La energı́a Ei que posee cada señal si (t), sobre el intervalo del sı́mbolo T , se puede obtener en
función de las componentes ortogonales de si (t). En efecto:
Z T Z T "X #2
Ei , s2i (t) dt = aij ψj (t) dt
0 0 j
Z T X X
= aij ψj (t) aik ψk (t) dt
0 j k
XX Z T
= aij aik ψj (t)ψk (t) dt
j k 0
XX
= aij aik Kj δjk
j k
X
Ei = a2ij Kj i = 1, 2, . . . , M . (4.10)
j

La Ecuación (4.10) es un caso especial del teorema de Parseval, que relaciona la integral del
cuadrado de una forma de onda, con la suma del cuadrado de coeficientes ortogonales. Como
en la mayorı́a de los casos se trabaja con bases ortonormales, el cálculo de la energı́a se limita
a la sumataria del cuadrado de los coeficientes ortonormales.

Representación del Ruido Blanco


Utilizando como base el set de señales {ψj }, el ruido Gaussiano blanco aditivo (AWGN) también
puede ser representado como una combinación lineal de ellas, de la misma forma en que se
representan las señales {si (t)}. Sin embargo, como el ruido no tiene inferencia en la obtención
de las señales base, no necesariamente podrá ser completamente representado por dicha base.
Esto quiere decir que existirá una parte del ruido que caerá dentro del espacio de señales generado
por {ψj } y otra parte que no. Por lo mismo es conveniente definir
n(t) = n̂(t) + ñ(t) , (4.11)
en donde n̂(t) es la componente del ruido que cae dentro del espacio de señales y ñ(t) aquella
parte que cae fuera. Decir que una parte del ruido cae dentro del espacio de señales equivale a

74
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

decir que corresponde a la proyección del ruido en las coordenadas de señales ψ1 (t),. . . ,ψN (t).
Entonces, n̂(t) está determinada por la relación:
N
X
n̂(t) = nj ψj (t) ,
j=1

y, por ende, ñ(t) = n(t) − n̂(t) será el ruido fuera del espacio de señales. Se puede inferir de lo
explicado
RT anteriormente que la relación entre el ruido vestigial y las señales base está dado por
0
ñ(t)ψj (t) dt = 0.
Dado que n(t) es un proceso aleatorio Gaussiano con media nula, entonces las componentes
de ruido nj también son Gaussianas de media nula. En efecto
 Z T  Z T
1 1
E {nj } = E n(t)ψj (t) dt = E {n(t)} ψj (t) dt = 0 ,
Kj 0 Kj 0

para todo j.
Además, estas componentes no están mutuamente correlacionadas lo que se puede demostrar
calculando la covarianza
 Z TZ T 
1 1
E {nj nk } = E n(t)n(τ )ψj (t)ψk (τ ) dt dτ
Kj Kk 0 0
Z TZ T
1 1
= E {n(t)n(τ )} ψj (t)ψk (τ ) dt dτ
Kj K k 0 0
N0
= δjk .
2
En resumen, las N componentes del ruido son variables aleatorias Gaussianas de media cero y
no correlacionadas con varianza común dada por N20 .
Como se demostrará más adelante, al utilizar un esquema de correlacionador en la detección
de señales, el remanente de ruido, ñ(t), es rechazado efectivamente por el detector en sı́; entonces,
n̂(t) será el ruido que afectará directamente el proceso de detección. Por lo tanto, de ahora en
adelante la porción de ruido n̂(t) será referenciado simplemente como n(t), y se podrá representar
mediente su vector de coeficientes de forma similar a lo que se dijo para las señales, luego

n = [n1 , n2 , . . . , nN ] , (4.12)

en donde n es un vector aleatorio con media cero y distribución Gaussiana, en la que las
componentes nj , j = 1, . . . , N son independientes.
Ası́, la señal recibida a la entrada del detector también podrá representarse mediante un
vector r de la forma r = si + n. El problema tı́pico de la detección se ve convenientemente
en término de estos vectores como se muestra en la Fig. 4.1. Los vectores sj y sk representan
prototipos o señales de referencia pertenecientes al set de M señales {si (t)}. El receptor sabe,
a priori, la ubicación de cada una de estos prototipos en el espacio de señales. Durante la
transmisión de cualquiera de estas señales, éstas se perturban por el ruido generando una difusión
en torno a la posición original; por lo mismo el vector resultante corresponde a una versión

75
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

Fig. 4.1: Señal y ruido en un espacio de señales tridimensional

perturbada de las señales originales (es decir sj + n ó sk + n). Dado que el ruido es aditivo
y Gaussiano, la posible señal recibida se enmarca dentro de una “nube” de puntos en torno a
los puntos sj y sk . Dicha nube es densa en el centro y se esparce al ir aumentando la distancia
del prototipo, manteniendo la forma de una distribucion Gaussiana. El vector marcado como
r corresponde a un vector de señal que puede llegar al receptor durante algun intervalo de
tiempo. La tarea del receptor será entonces decidir cuál de las dos señales prototipo tiene
más “semejanza” con esta señal recibida. Una forma de medir esta similitud es mediante la
distancia que existe entre cada uno de estos vectores. Más adelante se estudiará la forma en
que este concepto de distancia se aplica para elegir la forma de onda más parecida a la recibida,
permitiendo decidir si el vector entrante pertenece a la misma clase que su vecino más cercano
(vector prototipo más cercano).

4.3 Técnicas de Modulación Digital Pasabanda


Al transmitir información digital sobre un canal de comunicación, el modulador es quien mapea
la información digital en formas de onda análogas que cuadren con las carecterı́sticas del canal.
Generalmente, este mapeo es realizado tomando bloques de v = log2 M digitos binarios a la
vez de la secuencia de información {xk }, y seleccionando una de las M = 2v formas de onda
{si (t) , i = 1, 2, . . . , M }, que tienen energı́a finita y son determinı́sticas. Cuando este mapeo
se realiza asociando cada forma de onda con la que se transmitió en forma previa, se habla
que el modulador tiene memoria. En caso contrario se habla de modulación sin memoria. En
particular en este capı́tulo se estudiarán modulaciones sin memoria en las que se modifican
amplitud (ASK), fase (FSK, PSK) o ambas (QAM, APK). En todos los casos se asume que
la secuencia de digitos binarios en la entrada del modulador llega a una tasa de R bits por
segundo.

76
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

4.3.1 Amplitude Shift Keying (ASK)


La modulación digital en amplitud ASK tiene una expresión analı́tica dada por:
r
2Ei (t)
si (t) = cos(ωc t + φ), i = 1, 2, . . . , M (4.13)
T
en donde T espel tiempo de duración del sı́mbolo a enviar, por lo que 0 ≤ t ≤ T . El término
de amplitud 2Ei (t)/T tendrá M posibles valores discretos y la fase, φ, es una constante
arbitraria.
Nótese que el término Ei (t) representa la energı́a de la señal. En efecto, al considerar que
la potencia de una sinusoidal está dada por A2 /2, entonces se tiene Pcos = Ei (t)/T . Se utiliza
esta notación, pues la energı́a es el parámetro clave al momento de determinar el performance
de error del proceso de detección.
p En el caso particular de elegir un valor de M = 2, se tienen dos formas de onda posibles:
2E/T y cero. Dado el resultado de la modulación ASK binaria, comunmente es referida como
On-Off Keying (OOK). Ésta fue una de las primeras modulaciones digitales ya que su principio
se utilizaba en comunicaciones con radiotelégráfos.
Esta modulación no se tratará en mayor detalle, ya que actualmente no es utilizada en
sistemas de comunicacion digitales.

4.3.2 Frequency Shift Keying (FSK)


La forma analı́tica general para la modulación FSK está dada por
r
2E i = 1, 2, . . . , M
si (t) = cos(ωi t + φ), (4.14)
T 0≤t≤T

en donde el término de frecuencia, ωi , puede asumir M valores discretos, el término de fase,


φ, es una constante arbitraria. El valor de M es generalmente fijado en potencias de dos que
son distintas de cero (2, 4, 8, 16, . . . ). El set de señales está caracterizado por las coordinadas
cartesianas, por lo que cada eje mutuamente perpendicular representa un sinusoide con una
frecuencia diferente.

4.3.3 Phase Shift Keying (PSK)


La modulación en fase, es ampliamente utilizada en comunicaciones comerciales y militares. Su
expresión analı́tica general está determinada por:
r
2E i = 1, 2, . . . , M
si (t) = cos[ωc t + φi (t)], (4.15)
T 0≤t≤T

en dónde el término de fase asume solo M posibles valores discretos, que en general están dados
por la forma
2πi
φi (t) = , i = 1, 2, . . . , M . (4.16)
M

77
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

El parámetro E también representa la energı́a y T es el tiempo de duración del sı́mbolo, al igual


que para los casos anteriores.
En las modulaciones PSK binarias, la señal moduladora cambia la fase de las formas de
onda, si (t) en dos estados: cero o π, lo que se traduce en un cambio de fase muy abrupto; si la
secuencia de bits moduladores se alterna entre 0 y 1, entonces se tendrán cambios abruptos en
cada transición.
Los cambios de fase de las señales pueden ser fácilmente representados mediante vectores
en un plano polar. El largo del vector corresponde a la amplitud de la señal y la dirección del
vector, para una modulación M -ária, corresponde a la fase de las señales, relativa a las otras
M − 1 señales en el set. Para el caso de BPSK, la representación se logra mediante dos vectores
separados en 180o . Las señales que pueden ser representadas con tales vectores opuestos son
llamadas set de señales antipodales.

4.3.4 Amplitude Phase Shift Keying (APK)


Esta modulación realiza una combinación de ASK y PSK, de donde se obtiene su nombre (APK).
Su forma analı́tica general, esta dada por:
r
2Ei (t) i = 1, 2, . . . , M
si (t) = cos[ωc t + φi (t)], . (4.17)
T 0≤t≤T

La Ecuación (4.17) ilustra que se realiza una indexación del término de la amplitud y de la fase.
La forma de onda de una señal APK permite visualizar cambios de amplitud y fase simultáneos.
Por ejemplo, si se trabajara con M = 8, entonces cuatro vectores tendrı́an una misma amplitud y
los otros cuatro tendrı́an una amplitud diferente, con cada uno de los vectores separados en 45o .
Cuando un set de M posibles sı́mbolos en un espacio de señal bidimensional es ubicado en una
constelación rectangular, las señales son referidas como una quadrature amplitud modulation
(QAM) que se estudiará más adelante.
Las representaciones vectoriales de cada una de estas técnicas de modulación están carac-
terizadas por un plano polar para representar amplitud y fase. Caso contrario con lo sucedido
para la modulación FSK para el que es un plano de coordenadas cartesianas en donde cada eje
es un tono del set de M posibles tonos ortogonales.

Retomando la definición analı́tica para la modulación PSK dada en la Ecuación (4.15), se


puede considerar que el ángulo del coseno está compuesto por la suma de dos ángulos. Utilizando
la identidad trigonométrica correspondiente, se tiene que:
r  
2E 2πi
si (t) = cos ωc t +
T M
r     
2E 2πi 2πi
= cos ωc t cos − sin ωc t sin
T M M
r r
2E 2E
= Amc cos ωc t − Ams sin ωc t (4.18)
T T
en dónde indirectamente se ha definido Amc = cos 2πi
   2πi 
M
y A ms = sin M
.

78
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

De la Ecuación (4.18), se puede obtener que una señal digital modulada en √ fase, puede
representarse geométricamente como vectores bidimensionales con componentes E cos 2πi

y
√  2πi  v
M
E sin M . La asignación de los v bits a cada uno de los M = 2 posibles valores de fase,
se puede realizar de distintas maneras, pero la forma preferida es utilizando codificación Gray.
Esto consiste en que los puntos adyacentes solo cambian de un dı́gito binario a la vez.

Se puede probar que la mı́nima distancia entre dos puntos adyacentes está dada por
√ π
dmin = 2 E sin (4.19)
M
y su importancia es que juega un papel importante en la determinación del desempeño de la
tasa de error (error-rate performance) de un receptor que detecta la señal PSK con presencia
de ruido gaussiano aditivo (AWGN).

Ejemplo 4.3 - Distancia Mı́nima.


Determine la distancia mı́nima para modulaciones PSK-2, 4 y 8 considerando que todas tienen
la misma energı́a transmitida E. Además, calcule en cuántos decibeles se debe incrementar la
señal de energı́a para que PSK-8
√ tenga el mismo performance
√ que PSK-4. √
Sol. Para M = 2, dmin2 = 2 E. Para M = 4, dmin4 = 2E y para M = 8, dmin8 = 0.5858E.
Para mantener la misma distancia mı́nima entre 4 y 8 niveles, se requiere incrementar la energı́a
en un factor de 2/0.5858 = 3.4142. En dB, esto es 5.33dB. 

π π
Para valores grandes de M , se puede realizar la aproximación sin M ≈M , luego la distancia
mı́nima será aproximadamente
2π √
dmin ≈ E, M >> 2 (4.20)
M
Consecuentemente, al aumentar M al doble -lo que permite enviar un bit más de información
por cada sı́mbolo– entonces la energı́a debe ser aumentada en ∼6dB para asegurar la misma
distancia mı́nima entre puntos adyacentes.

4.4 Detección de Señales en la presencia de AWGN


4.4.1 Región de Decisión
Considere un espacio bidimensional como el dado en la Fig. 4.2 en las que se tiene dos prototipos
corruptos por ruido (s1 + n) y (s2 + n). El vector de ruido, n, es un vector aleatorio de media
nula, por lo que el vector de recepción, r, es un vector aleatorio de media s1 o s2 . La tarea
del receptor, luego de recibir r es decidir cuál de las señales fue originalmente transmitida. El
método para esta decisión usualmente corresponde a decidir cuál de las señales especificadas
arroja la menor probabilidad de error, sin embargo existen otras formas de realizarlo.
Para el caso de M = 2 en donde ambas señales posibles son equiprobables y sobre el cuál
el ruido es un proceso de ruido aditivo Gaussiano (AWGN), se puede demostrar que el error

79
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

Fig. 4.2: Espacio de señales bidimensional, con vectores arbitarios de igual amplitud s1 y s2

mı́nimo de decisión se logra al elegir la clase de señal en la que la distancia d(r, si ) =kr − si k
es minimizada, en donde k.k representa la norma del vector. Esta regla es usualmente fijada en
términos de regiones de decisión, como se muestra en la Fig. 4.2.

4.4.2 Receptor de Correlación


La detección de señales pasabanda utiliza el mismo principio de señales en banda base cuando
se realiza el análisis en presencia de ruido AWGN. El enfoque se dará principalmente en la real-
ización de un filtro “encuadrado” (matched filter ) conocido como correlacionador (correlator ).
Se considerará que la única fuente de degradación será por AWGN, por lo que la señal recibida
estará dada por
r(t) = si (t) + n(t) (4.21)
para un intervalo de tiempo 0 ≤ t ≤ T . Dada la señal recibida, el proceso de detección se
realiza en dos pasos. En el primero, la señal es reducida a una variable aleatoria única, z(T ),
o a un set de variables aleatorias, zi (T ), i = 1, 2, . . . , M que se origina a la salida del (los)
correlacionador(es) al instante de tiempo t = T . En el segundo paso, se realiza el proceso de
decisión, comparando dicha variable aleatoria con un cierto umbral o eligiendo el zi (T ) máximo,
como se verá a continuación. El primer paso puede ser pensado como una transformación de la
señal en un punto en el plano de decisión, y el segundo como el determinar en cuál región de
decisión se encuentra dicho punto.
Se puede comprobar que el matched filter asegura un SNR máximo a la salida para el
instante t = T . El correlacionador es una realización de dicho filtro, y por ende, el receptor de
correlación se puede definir como M correlacionadores que transforman la señal de entrada r(t)
en una secuencia de M números zi (T ), i = 1, 2, . . . , M . Cada correlacionador es caracterizado
por el producto-e-integración de la señal recibida:
Z T
zi (T ) = r(t)si (t) dt, i = 1, 2, . . . , M (4.22)
0

Ası́, una regla de decisión razonable es elegir el máximo valor de zi (T ) pues cuadra mejor
con alguna forma de onda conocida a priori, o en otras palabras, tienen la mayor correlación.

80
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

Fig. 4.3: Receptor de Correlación con {si (t)} como señales de referencia

La Fig. 4.3 muestra el diagrama de bloques del receptor correlacionador en donde se utiliza el
set {si (t)} como señales de referencia para realizar el proceso de decisión.
Para el caso de detección binaria, lo normal serı́a tener dos correlacionadores con prototipos
s1 (t) y s2 (t) respectivamente y una etapa de decisión que decida entre el mayor valor de zi (T ).
Esto se puede mejorar al tomar la diferencia de los correlacionadores z(T ) = z1 (T ) − z2 (T )
y alimentar la etapa de decisión. Si se ha transmitido s1 (t) entonces z(T ) será positiva y en
caso contrario será negativa, por lo que se puede implementar la detección binaria mediante la
utilización de un solo correlacionador, en donde se compara la señal entrante con la diferencia
de los prototipos originales, vale decir s1 (t) − s2 (t). En efecto,
Z T Z T Z T
z(T ) = z1 (T ) − z2 (T ) = r(t)s1 (t) dt − r(t)s2 (t) dt = r(t)[s1 (t) − s2 (t)] dt
0 0 0

Tomando este resultado y recordando que para una modulación binaria se trabaja en torno
a una sola función base, ψ(t), entonces se plantea la opción de realizar el proceso de detección
mediante la comparación con esta señal, en sı́mbolos
Z T Z T
z(T ) = r(t)ψ(t) dt = [si (t) + n(t)]ψ(t) dt = ai (T ) + n0 (T ) .
0 0

Si no se tuviese ruido, una señal de entrada si (t) originarı́a en la salida del correlacionador sola-
mente una componente de señal, zi (T ) = ai (T ). Dado que el correlacionador es un dispositivo
lineal y el ruido de entrada es un proceso aleatorio Gaussiano, el ruido de salida también será
un proceso aleatorio Gaussiano. Ası́ la salida del correlacionador en presencia de ruido será
z(T ) = ai (T ) + n0 (T ), para i = 1, 2. La variable n0 (T ) corresponde a la componente de ruido.
En base al análisis estadı́stico previo, es sencillo visualizar que z(T ) será también una variable
aleatoria Gaussiana con media en a1 ó a2 , dependiendo si se envió un cero o un uno.
Es importante considerar que cualquier set de señales {si (t)}, i = 1, 2, . . . , M puede ser
expresada en función a otro set de funciones base {ψj (t)}, j = 1, 2, . . . , N tal como se explicó
anteriormente. Ası́, si se considera la Ecuación (4.7), el banco de M correlacionadores de
la Fig. 4.3 puede ser reemplazado por un banco de N correlacionadores en donde se utilizan

81
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

las señales {ψj (t)} como referenciales. La salida de los correlacionadores estará determinada
entonces por la generalización de la relación antes mencionada
Z T
zj (T ) = r(t)ψj (t) dt (4.23)
0

Para la etapa de decisión, este receptor elige la señal si (t) de acuerdo al mejor acierto de los
coeficientes aij con el set de salidas {zj (T )}. En el caso de que se trabaje con señales {si (t)}
no-ortogonales, la implementación con las funciones base es más efectivo en términos de costos.
Tal como se explicó con anterioridad, la señal de ruido remanente ñ(t) = n(t) − n̂(t) corre-
sponde a un ruido Gaussiano de media cero que no se puede expresar mediante las funciones
base. Anteriormente se demostró que las componentes de ruido nj son Gaussianas, de media
cero y no correlacionadas entre sı́, teniendo una varianza común dada por N20 . Ahora bien,
usando un esquema de N correlacionadores con funciones base {ψj (t)}, se tiene que la salida
del set de correlacionadores está determinada por
Z T Z T
zj (T ) = r(t)ψj (t) dt = [si (t) + n(t)]ψj (t) dt
0 0
Z T Z T
= si (t)ψj (t) dt + n(t)ψj (t) dt
0 0
= aij + nj ,

en donde se utilizó la definición de los coeficientes dada anteriormente. Ahora bien, la idea es
demostrar que el ruido remanente ñ(t) es irrelevante cuando se necesita decidir cuál señal fue
transmitida. Consecuentemente, la decisión estará determinada completamente por la salida del
correlacionador zj (T ) = aij + nj . En palabras simples, se busca demostrar que ningún tipo de
información adicional se puede extraer del ruido remanente. De hecho, ñ(t) es completamente
no correlacionado con las salidas de los N correlacionadores.

E {ñ(t) zj (T )} = E {ñ(t) [aij + nj ]} = E {ñ(t) aij } + E {ñ(t) nj }


= E {ñ(t) nj }
(" # )
X
= E n(t) − nj ψj (t) nj
j
( )
X
= E {n(t) nj } − E nk ψk (t) nj
k
( )
 Z T  X
= E n(t) n(t)ψj (t) dt − E nk ψk (t) nj
0 k
Z T X
= E {n(τ ) n(t)} ψj (t) dt − E {nk nj } ψk (t)
0 k
= 0.

Dado que ñ(t) y {zj (T )} son gaussianos y no correlacionados, entonces también son es-
tadı́sticamente independientes. Consecuentemente, ñ(t) no contiene ninguna información que

82
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

sea relevante en la decisión de la señal transmitida; es decir, toda la información está contenida
en las salidas del correlacionador.

Ejemplo 4.4 - Correlacionador.


Considere que se recibe un pulso rectangular, g(t), de amplitud a y tiempo de duración T .
Determine la función base de este pulso, considerando que se ha generado en base a una señal
pasabanda PAM. Además, considerando un ruido aditivo gaussiano de media nula, estime la
salida de un demodulador tipo correlacionador y la función de densidad de probabilidad de
dicha salida. RT
Sol. La energı́a del pulso será E = 0 g 2 (t) dt = a2 T , luego como la generación se realizó
 1
1

T
0≤t≤T
mediante modulación PAM, la función base será ψ(t) = √a2 T g(t) = . Ahora,
0 i.o.c.
RT RT
la salida del correlacionador, estará determinado por r = 0 r(t)ψ(t) dt = √1T 0 r(t) dt. Reem-
plazando r(t) = si (t) + n(t), se obtiene que r = si + n. Dado que E {n} = 0, entonces
E {r} = E {si } = si , pues si es determinı́stica. La varianzah σr2 = σn2i = 12 N0 , por lo que final-
2
mente la función de probabilidades será p(r|si ) = √1
N0 π
exp − (r−s
N0
i)
por la gaussianeidad del
proceso. 

Receptor de Correlación Binario


Como se estudió anteriormente, la estadı́stica de prueba será una variable aleatoria Gaussiana
con media a1 o a2 dependiendo si se envió un 0 o un 1 binario. Considerando que el ruido tiene
varianza σ02 , entonces las funciones de densidad de probabilidades (pdfs) estarán determinadas
por
(z − a1 )2
 
1
p(z|s1 ) = p exp − (4.24)
2πσ02 2σ02
(z − a2 )2
 
1
p(z|s2 ) = p exp − . (4.25)
2πσ02 2σ02

Gráficamente, ambas pdfs están entrelazadas por lo que debe haber un criterio de decisión
conforme a realizar una buena elección del sı́mbolo, determinando en qué región se encuentra la
señal recibida. En la Fig. 4.4 se puede observar esto, marcando las regiones, la linea de decisión
y el umbral (denotado por γ0 ).
Para obtener el valor del umbral, se requiere considerar que la decisión se toma en torno a
las probabilidades conjuntas p(z, si ). Esto quiere decir que una buena regla de decisión es: si
p(z, s1 ) > p(z, s2 ) entonces lo más probable es que se haya transmitido s1 (t); en caso contrario,
lo más probable es que se haya transmitido s2 (t). Matemáticamente esto se puede representar
mediante la relación
p(z, s1 ) ≷ss12 p(z, s2 ) .
Ahora bien, al utilizar el teorema de Bayes y la condición de que la probabilidad de que se
transmita s1 (t) es q, es decir p(s1 ) = q y p(s2 ) = 1 − q, entonces se tiene que p(z, s1 ) =

83
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

Fig. 4.4: Funcion de Densidad de Probabilidades Condicionales. p(z|s1 ), p(z|s2 )

p(s1 )p(z|s1 ) = qp(z|s1 ) y p(z, s2 ) = p(s2 )p(z|s2 ) = (1 − q)p(z|s2 ). Aplicando esto a la regla de
decisión se tiene
p(z, s1 ) ≷ss12 p(z, s2 )
(z − a1 )2 (z − a2 )2
   
1 s 1
qp exp − ≷s2 (1 − q) p
1
exp −
2πσ02 2σ02 2πσ02 2σ02
 
2 2 s1 2 1−q
2z(a1 − a2 ) − (a1 − a2 ) ≷s2 2σ0 ln ,
q
h i
por lo que si las señales son equiprobables, entonces ln 1−q q
= 0 y por ende
a1 + a2
z ≷ss12= γ0 , (4.26)
2
lo que quiere decir que para señales equiprobables, la mejor alternativa para tomar la decisión es
mediante la elección del punto medio de las medias como el umbral de decisión. Ası́, se plantea
la regla de decisión dada por
a1 + a2
z(T ) ≷HH2
1
= γ0 (4.27)
2
que determina que la hipótesis H1 debe ser seleccionada3 si z(T ) > γ0 , e hipótesis H2 deberá
seleccionarse4 si z(T ) < γ0 . Para el caso de trabajar con señales antipodales, entonces s1 (t) =
−s2 (t), y a1 = −a2 , por lo que el umbral queda determinado por
z ≷ss12 0 ,
tal como se discutió anteriormente al realizar la detección mediante un solo correlacionador.

4.4.3 Detector por Matched-Filter


En vez de utilizar un banco de N correlacionadores para generar las variables de decisión, se
puede utilizar un banco de N filtros lineales. Para entender esto de forma especı́fica, suponga
que la respuesta a entrada impulso de cada uno de esos filtros es
hj (t) = ψj (T − t) , 0 ≤ t ≤ T
3
Equivalente a decir que la señal s1 (t) fue enviada.
4
Equivalente a decir que la señal s2 (t) fue enviada.

84
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

en donde {ψj (t)} corresponden a las N funciones base, y hj (t) = 0 fuera del intervalo 0 ≤ t ≤ T .
La salida de los filtros está determinada por la convolución entre la entrada del filtro (la señal
recibida, r(t)) y la respuesta impulso; entonces
Z t
yj (t) = r(τ )hj (t − τ ) dτ
0
Z t
= r(τ )ψj (T − t + τ ) dτ , j = 1, 2, . . . , N
0

Ahora, muestreando las salidas de estos filtros en el tiempo t = T , se obtienen exactamente


cada uno de los valores que también se obtienen a la salida de los correlacionadores, {zj (T )}.
Z T
zj (T ) = yj (t = T ) = r(τ )ψj (τ ) dτ .
0

Un filtro cuya respuesta a entrada impulso sea de la forma h(t) = f (T − t), en donde f (t)
se asume que se confina al rango 0 ≤ t ≤ T , se le llama matched-filter (filtro encuadrado) a la
señal f (t). La respuesta a la señal f (T ), es
Z t
y(t) = f (τ )f (T − t + τ )dτ ,
0

que es básicamente la autocorrelación temporal de la señal f (t), cuyo máximo se logra en t = T .


Una de las propiedades más importantes de esta forma de solucionar el problema es que
si una señal f (t) se corrompe por AWGN, el filtro con una respuesta impulso encuadrada a
f (t), maximiza la razón señal-ruido (SNR) a la salida. Para demostrar esto, asuma que la señal
recibida r(t) = s(t) + n(t) se hace pasar por un filtro con respuesta impulso h(t) y luego se
muestrea en t = T . Entonces, la salida del filtro + muestreador será:
Z t
y(T ) = y(t)|t=T = r(τ )h(t − τ ) dτ |t=T
0
Z t Z t
= s(τ )h(t − τ ) dτ |t=T + n(τ )h(t − τ ) dτ |t=T
0 0
Z T Z T
= s(τ )h(T − τ ) dτ + n(τ )h(T − τ ) dτ
0 0
= ys (T ) + yn (T ) ,

en donde ys (T ) corresponde a la componente de la señal y yn (T ) a la componente del ruido. El


problema consiste entonces en seleccionar la respuesta a entrada impulso del filtro de forma que
ys2 (T )
maximice el SNR a su salida, que estará determinado por la razón SN Ro = E{y 2 , pues se
n (T )}
evaluan la señal y el ruido a la salida de dicho filtro.El denomidador corresponde simplemente
a la varianza de la componente de ruido a la salida del filtro, luego
(Z
T 2 ) Z T
 2 2
h2 (T − t) dt .

E yn (T ) = E n(τ )h(T − τ ) dτ = σ0
0 0

85
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

Reemplazando este resultado en la definición del SNR de la salida del filtro, se tiene
hR i2 hR i2
T T
2
ys (T ) 0
s(τ )h(T − τ ) dτ 0
h(τ )s(T − τ ) dτ
SN Ro = 2
= RT = RT ;
E {yn (T )} σ02 2
h (T − t) dt σ02 h2 (T − t) dt
0 0

dado que el denominador depende de la energı́a en h(t), el máximo SNR sobre h(t) se obtiene
maximizando el numerador con el respaldo de que el denominador se mantiene constante. Esta
maximización se puede realizar utilizando la inecuación de Cauchy-Schwarz, la que indica que,
en general, si g1 (t) y g2 (t) son señales de energı́a finita, entonces
Z ∞ 2 Z ∞ Z ∞
2
g1 (t)g2 (t) dt ≤ g1 (t) dt g22 (t) dt ,
−∞ −∞ −∞

siendo iguales cuando se satisface que g1 (t) = Cg2 (t), para una constante arbitraria C. Fijando
entonces g1 (t) = h(t) y g2 (t) = s(T − t), resulta claro que el SNR es máximo cuando h(t) =
Cs(T − t), vale decir cuando el filtro está encuadrado a s(t).
Luego, el máximo SNR a la salida estará determinado por
Z T
1 2E
SN Rmax = 2 s2 (t) dt = , (4.28)
σ0 0 N0
en donde E es la energı́a de la señal de entrada s(t).
Es interesante notar que para la elección de h(t) = ψ(T − t), entonces h(T − τ ) = ψ(τ ),
luego el SNR estará determinado por la razón
hR i2 hR i2
T T
0
s(τ )h(T − τ ) dτ 0
s(τ )ψ(τ ) dτ a2i
SN Rmax = = = ,
T T
σ02
R R
σ02 0 h2 (T − t) dt σ02 0 ψ 2 (τ ) dτ

pues es un sistema base ortonormal y ψ(τ ) genera los coeficientes de la señal transmitida s(t).

4.5 Detección Coherente


4.5.1 Detección Coherente para PSK
El detector de la Fig. 4.3 puede ser utilizado para detección coherente de cualquier forma de
onda que se tenga en la entrada. Para ejemplificar esto, se considera el ejemplo de modulación
BPSK, cuyas señales, por definición, serán
r
2E
s1 (t) = cos(ωc t + φ), 0 ≤ t ≤ T ,
r T r
2E 2E
s2 (t) = cos(ωc t + φ + π) = − cos(ωc t + φ), 0 ≤ t ≤ T ,
T T
por lo que se tiene que s1 (t) = −s2 (t). El ruido n(t) es un proceso AWGN. El término de fase φ
es una constante arbitaria, por lo que el análisis no se verá afecto al asumirla cero. El parámetro

86
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

E es la energı́a por sı́mbolo, y T es la duración de dicho sı́mbolo. Dada la forma de las señales,
solo se requiere una función base que está determinada por:
r
2
ψ(t) = cos ωc t . (4.29)
T
Ası́, las señales transmitidas pueden ser expresadas mediante

s1 (t) = a1 ψ(t) = Eψ(t)

s2 (t) = a2 ψ(t) = − Eψ(t)

Las señalesqprototipo en el receptor son la misma que la función base, pero normalizada
2
por el factor T
, lo que implica que la señal prototipo del correlacionador 1, será ψ(t) y la
del correlacionador 2, será −ψ(t). Ahora, asumiendo que se transmite s1 (t), entonces r(t) =
s1 (t) + n(t), y los valores esperados a tener a la salida del integrador son:
Z T  Z T 
E {z1 |s1 } = E r(t)ψ(t) dt = E [s1 (t) + n(t)] ψ(t) dt
0 0
√ 2
Z T 
= E Eψ (t) + n(t)ψ(t) dt
0
2√ √
Z T 
E{n(t)}=0 2
= E E cos ωc t dt = E .
0 T

Similarmente, la salida del correlacionador 2 es


Z T  Z T 
E {z2 |s1 } = E r(t)[−ψ(t)] dt = E [s1 (t) + n(t)] [−ψ(t)] dt
0 0
√ 2
Z T 
= E − Eψ (t) − n(t)ψ(t) dt
0
2√ √
Z T 
E{n(t)}=0 2
= E − E cos ωc t dt = − E .
0 T
La etapa de decisión debe elegir cuál señal fue transmida q mediente la determinación de la
ubicación en el espacio de las señales. La elección de ψ(t) = T2 cos ωc t normaliza las salidas

de los correlacionadores, por lo que el valor medio obtenido será siempre E {zi } = ± E. La
etapa de decisión elige la señal con el mayor valor de zi (T ), por lo que para este ejemplo, a la
salida se tendrá s1 (t).

4.5.2 Detección Coherente para PSK Múltiple


PSK Múltiple (M-ária PSK, MPSK) es expresada conforme a la Ecuación (4.18). Asumiendo
un espacio ortonormal para las funciones base, de acuerdo a la Ecuación (4.7) se pueden elegir
convenientemente los ejes: r
2
ψ1 (t) = cos ωc t
T

87
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

r
2
ψ2 (t) = sin ωc t
T
q
en dónde la amplitud T2 se elige para mantener la salida normalizada conforme a lo estudiado
anteriormente. Ahora, el set completo de señales se puede expresar de la forma

i = 1, 2, . . . , M
si (t) = ai1 ψ1 (t) + ai2 ψ2 (t),
0≤t≤T
√ √
= E cos φi ψ1 (t) + E sin φi ψ2 (t) (4.30)

con φi = 2πiM
. Nótese que la Ecuación (4.30) describe un set de M señales de fase múltiple
(intrinsecamente no-ortogonales) en términos de solo dos componentes portadores ortogonales.
El caso de M = 4 (QPSK, quadriphase shift keying) es único dentro de las señales MPSK en el
sentido de que las formas de onda QPSK son representadas por una combinación de miembros
antipodales y ortogonales. Los contornos de decisión dividen el espacio de las señales en M = 4
regiones. La regla de decisión para el detector es decidir que s1 (t) fue transmitida si el vector
de la señal recibida cae en la región 1, que se transmitió s2 (t) si cae en la región 2, etc. En
otras palabras, se debe elegir la i-ésima forma de onda si zi (T ) es la máxima salida de los
correlacionadores, conforme a lo estudiado anteriormente.
La forma del correlacionador de la Fig. 4.3, muestra que siempre se requieren M correla-
cionadores de producto al demodular señales MPSK. Sin embargo, como se discutió anterior-
mente, en la práctica la demodulación MPSK se implementa con N = 2 correlacionadores dado
que la base de la modulación es conforme a las funciones base ψ1 (t) y ψ2 (t). La señal recibida,
r(t), puede ser expresada como
r
2E
r(t) = [cos φi cos ωc t + sin φi sin ωc t] + n(t) (4.31)
T
en donde n(t) es un proceso de ruido blanco Gaussiano con media cero. La Fig. 4.5 ilustra el
demodulador con las consideraciones hechas. Las señales X y Y corresponden al cálculo de los
correlacionadores superior e inferior respectivamente, y se definen mediante:
Z T
X= r(t)ψ1 (t) dt (4.32)
0
Z T
Y = r(t)ψ2 (t) dt . (4.33)
0

La variable φ̂ es la estimación ruidosa 5 de la fase real transmitida φi . La forma en la


que se ha implementado en el demodulador es mediante el cálculo de la arcotangente de las
componentes en fase (X) y en cuadratura (Y ) del vector de la señal recibida r. El resultado
obtenido de dicho cálculo es comparado con cada una de los prototipos almacenados, φi . El
demodulador elige el φi más cercano al ángulo estimado. En otras palabras, el demodulador
calcula la distancia | φi − φ̂ | para cada protoripo y elige el ángulo φi que arroje la menor salida.
5
Denominada ası́, por la presencia del ruido AWGN en la entrada del demodulador.

88
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

Fig. 4.5: Demodulador para señales MPSK

4.5.3 Detección Coherente de FSK


La modulación FSK está caracterizada por modificar la frecuencia del carrier, conforme a lo
estudiado anteriormente y que se presentó en la Ecuación (4.14) mediante la definición de las
funciones analı́ticas tı́picas. El término de fase, φ, es considerado nulo ya que es simplemente
una constante arbitraria al momento de hablar de detección coherente en fase. Esto implica que
la fase se estima de forma preliminar a la detección mediante —por ejemplo– un lazo PLL.
Asumiendo que el set de funciones base ψ1 (t), . . . , ψN (t) corresponden a un set ortogonal, la
forma más útil de definirlas es mediante
r
2
ψj (t) = cos ωj t, j = 1, 2, . . . , N (4.34)
T
para lograr una salida esperada normalizada, al igual que lo visto para la modulación PSK.
De la Ecuación (4.8) se puede escribir:
Z Tr r  √
2E 2 E ,i = j
aij = cos ωi t cos ωj t dt = . (4.35)
0 T T 0 , i.o.c.

En otras palabras, el i-ésimo vector √ del prototipo de la señal, está ubicado en i-ésimo eje
coordenado a un desplazamiento de E desde el origen en el espacio de señales. En este
esquema, para el caso general de MFSK, la distancia entre dos vectores de prototipos si y sj es
constante: √
d(si , sj ) =ksi − sj k = 2E, ∀i 6= j .
La Fig. 4.6 muestra los vectores de las señales prototipo y las regiones de decisión para un
sistema FSK-3 coherentemente detectado. Como en el caso de PSK, el espacio de las señales es
particionado en M regiones distintas, cada una conteniendo un vector de señal prototipo; acá,
dado que las regiones de decisión son tridimensionales, los lı́mites de decisión son planos en vez
de lı́neas. La regla de decisión óptima es decidir que la señal transmitida pertenece a la clase
cuyos ı́ndices corresponden a la región en donde la señal recibida se encuentra. Por ejemplo, en
la Fig. 4.6, el vector de la señal recibida r está en la región 2. Utilizando la regla de decisión
impuesta arriba, el detector clasifica r como la señal s2 .
Dado que el ruido es un vector aleatorio Gaussiano, existe una probabilidad mayor que cero
de que r pueda haberse producido por una señal distinta a s2 . Por ejemplo, si el transmisor

89
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

Fig. 4.6: Particionado del espacio de señales para señales FSK-3

envió s2 , entonces r será la suma de la señal más ruido, s2 + na , y la decisión de haber elegido
s2 es correcta. Sin embargo, si el transmisor envió s3 , el vector r podrı́a ser la suma de la señal
más ruido, s3 + nb y la decisión de elegir s2 será un error. El desempeño de error para sistemas
FSK coherentemente detectada será tratada más adelante.
En la detección coherente de FSK, la señal recibida, r(t), se correlaciona con cada una de
las M posibles señales, asumiendo que la fase fue correctamente estimada. Este requerimiento
hace que la demodulación coherente FSK sea extremadamente compleja y poco práctica, espe-
cialmente cuando se trabaja con muchas señales. Por lo mismo, no se considera como un punto
importante de estudio dentro del curso, y se hará más incapié en la detección no-coherente de
FSK en la siguiente sección.

4.6 Detección No-Coherente


4.6.1 Detección No-Coherente de FSK
En este curso, se estudiará la detección de la señal FSK usando filtros pasabanda y detectores
de envolvente, al igual que para el caso análogo. El demodulador consta de M filtros centrados
ωi
en fi = 2π y con un ancho de banda de Wf = T1 . Posteriormente, los detectores de envolvente
consisten en un rectificador seguido de un filtro pasa bajo. Los detectores están concentrados en
la envolvente de cada señal y no en las señales en sı́. La fase de la portadora no es importancia
en la definición de una envolvente, por lo tanto no se utiliza información de esta variable.
Para el caso de FSK binaria, la decisión de si se recibió un cero o un uno es hecha en base
a cuál de los dos detectores de envolvente tiene la mayor amplitud al momento de tomar la

90
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

Fig. 4.7: Detección no-coherente para modulación FSK usando detector de envolvente

medida. Similarmente, para sistemas FSK múltiple (MFSK), la decisión acerca de cuál de las
M señales fue transmitida es hecha en base a cual de los detectores de envolvente presenta la
máxima salida.

Espacio Mı́nimo de tonos para FSK


La modulación FSK es normalmente implementada mediante espacios ortogonales, en donde
cada tono (sinusoidal) en el set de señales no puede interferir con ninguno de los otros tonos.
Entonces, aparece de forma natural la pregunta ¿Cuál es la distancia en frecuencia mı́nima
requerida, ωi+1 − ωi , para asegurar la ortogonalidad del set de señales? Para responder esta
pregunta, considere dos señales cos(ω1 t+φ) y cos ω2 t, en donde φ será una constante arbitaria en
el intervalo [0, 2π], que cuantificará la diferencia de fase entre ambos tonos y no necesariamente
la fase particular de la primera señal. La idea, es encontrar alguna restricción sobre ambas
frecuencias ω1 = 2πf1 y ω2 = 2πf2 que permita asegurar la ortogonalidad del espacio generado.
Considere además que f1 > f2 y que la duración de cada tono (sı́mbolo) es T segundos; luego
la tasa de sı́mbolos será 1/T sı́mbolos por segundo. Entonces, ambas señales serán ortogonales
si y solo si Z T
I= cos(ω1 t + φ) cos ω2 t dt = 0 ,
0
entonces, resolviendo la integral se tiene
Z T
I = cos(ω1 t + φ) cos ω2 t dt
0
Z T Z T
= cos φ cos ω1 t cos ω2 t dt − sin φ sin ω1 t cos ω2 t dt
0 0
 
1 sin(ω1 + ω2 )T sin(ω1 − ω2 )T
= cos φ + ...
2 ω1 + ω2 ω1 − ω2
 
1 cos(ω1 + ω2 )T − 1 cos(ω1 − ω2 )T − 1
+ sin φ + .
2 ω1 + ω2 ω1 − ω2

Asumiendo que f1 + f2 >> 1, se puede realizar la aproximación

sin(ω1 + ω2 )T cos(ω1 + ω2 )T
≈ ≈0,
ω1 + ω2 ω1 + ω2

91
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

lo que al reemplazar e igualar con cero, permite obtener


cos φ sin(ω1 − ω2 )T + sin φ[cos(ω1 − ω2 )T − 1] = 0 . (4.36)
Para obtener el resultado final, se deben analizar dos casos: FSK coherente y no coherente.
Para el caso de FSK no-coherente, no se puede realizar ninguna consideración sobre la fase φ,
por lo que ambos términos solo podrán sumar cero cuando ambos sean cero, es decir
sin(ω1 − ω2 )T = 0 ∧ cos(ω1 − ω2 )T = 1
(ω1 − ω2 )T = nπ ∧ (ω1 − ω2 )T = 2kπ n, k ∈ Z
(ω1 − ω2 )T = 2kπ
k
f1 − f2 = ,
T
por lo tanto el mı́nimo se logra con k = 1, dando un espaciado mı́nimo de f1 − f2 = T1 , que
corresponde a la tasa de sı́mbolos.
Para el caso de FSK coherente, se tendrá algun conocimiento sobre la fase de la señal
utilizando, por ejemplo, un lazo PLL. Dado dicho conocimiento, la etapa de correlación se hará
con la señal de referencia de fase conocida, lo que permite fijar φ = 0 sin pérdida de generalidad.
Reemplazando esto en la Ecuación (4.36), la igualdad a cero se traduce en sin(ω1 − ω2 )T = 0.
n
Entonces f1 − f2 = 2T , con n ∈ Z, por lo que el mı́nimo espaciado requerido está determinado
1
por f1 −f2 = 2T . Por lo tanto, para la misma tasa de sı́mbolos, la modulación FSK detectada en
forma coherente, puede ocupar menos ancho de banda que la detectada en forma no-coherente,
y aun asi mantener el requerimiento sobre la ortogonalidad de las señales. Se puede decir, que
FSK coherente es más eficiente en ancho de banda que FSK no-coherente.
A modo de explicar este resultado en forma más práctica, considere un tono con frecuencia
fi que es encendido por un intervalo de tiempo de duración T y luego es apagado. Luego está
descrito por la relación  
t
si (t) = cos(ωi t) rect ,
T
en donde
1 , − T2 ≤ t ≤ T2
  
t
rect = .
T 0 , | t |> T2
La transformada de Fourier de la señal si (t) será entonces F [si (t)] = T sinc[(f − fi )T ]. Ahora
bien, si se graficaran dos tonos adyacentes de frecuencias f1 y f2 , como en la Fig. 4.8, entonces
la atención se centra en que ambos no se interfieran entre sı́ durante la detección. Esto se logra
si el valor peak del tono 1 coincide con uno de los puntos en que el espectro del tono 2 se hace
cero, y similarmente, que el peak del espectro del tono 2 coincida con una de las pasadas por
cero del espectro del tono 1. Entonces, la distancia que existe entre lóbulo principal y el primer
cruce con cero, representa el espaciado mı́nimo requerido. Esto dice que la separación mı́nima
entre los tonos debe ser de T1 Hertz, tal como se obtuvo anteriormente.

Detección en Cuadratura de FSK


El método de detección de envolvente es una solución bastante simple, pero el uso de filtros
usualmente resulta en mayores costos y peso que otras metodologı́as como el detector por

92
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

Fig. 4.8: Espaciado mı́nimo entre tonos para detección no-coherente de FSK ortogonal

cuadratura, que en general pueden ser implementados digitalmente. El detector por cuadratura
para FSK no-coherente corresponde a una realización particular de la versión utilizada en PSK
coherente, en donde la detección se realizaba mediante la comparación directa con señales
cosenoidales y senoidales. Considere que la señal recibida es de la forma
r
2E
r(t) = si (t) + n(t) = cos(ωi t + φ) + n(t) ,
T
en donde φ representa la fase desconocida y n(t) es un proceso AWGN. La comparación de
esta señal recibida se realiza mediante 2M correlacionadores que utilizan señales prototipo
en cuadratura. q Por ejemplo, para el k-ésimo par de correlacionadores
q las señales prototipo
están dadas por T2 cos ωk t para la componente en lı́nea, y T2 sin ωk t para la componente en
cuadratura. Entonces, la salida del k-ésimo par se puede inferir del resultado anterior, y será
Z T r Z T "r #r
(I) 2 2E 2
zk = r(t) cos ωk t dt = cos(ωi t + φ) + n(t) cos ωk t dt
0 T 0 T T
√ 2 Z T Z T
 
= E cos(ωi t + φ) cos ωk t dt + n(t) cos ωk t dt
T 0 0
√  Z T Z T 
2 E (I)
= cos φ cos ωi t cos ωk t dt − sin φ sin ωi t cos ωk t dt + nk
T 0 0

 
sin(ωi − ωk )T cos(ωi − ωk )T − 1 (I)
= E cos φ − sin φ + nk ,
(ωi − ωk )T (ωi − ωk )T

para la componente en lı́nea, y



 
(Q) cos(ωi − ωk )T − 1 sin(ωi − ωk )T (Q)
zk = E cos φ + sin φ + nk ,
(ωi − ωk )T (ωi − ωk )T
(I) (Q)
para la componente en cuadratura. Los términos nk y nk denotan las componentes de ruido
Gaussiano en la salida del correlacionador. Es fácil observar que cuando i = k, entonces los

93
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

√ (I)
√ (Q)
valores de las muestras en el detector son E cos φ + nk y E sin φ + nk , mientras que
para i 6= k, las componentes practicamente desaparecen independiente del valor que tenga la
diferencia de fase φ. Esto último se da por que la separación frecuencial entre muestras se elige
como múltiplos de la tasa de bits, conforme a lo que se estudió anteriortemente. Entonces, para
el resto de los 2(M − 1) correlacionadores, la salida será simplemente la componente de ruido
en fase y cuadratura.
En base a estos resultados, se incluye la etapa de decisión posteror al banco de estos cor-
relacionadores, eligiendo evidentemente el par de correlacionadores con mayor salida.

4.6.2 Detección de PSK Diferencial


El nombre PSK diferencial en ocaciones necesita ser clarificado pues se puede estar haciendo
referencia a dos aspectos diferentes en el proceso de modulación/demodulación: el encoding
y la detección. El término encoding difencial se refiere al proceso por el cual el encoding se
realiza de forma tal, que la presencia de un uno o un cero se manifiestra como una similitud
o diferencia de sı́mbolos cuando se compara con el sı́mbolo anterior. El término detección
coherente diferenciada de una modulación PSK con encoding diferencial es el significado común
de DPSK. Ésta se refiere a un esquema de detección clasificado como no-coherente pues no
requiere fase de referencia para la portadora del receptor. A pesar de ello, una señal PSK con
encoding diferencial, también puede ser coherentemente detectada.
En sistemas no-coherentes, no se realiza ningún esfuerzo en estimar el valor actual de la fase
de la señal entrante. Por lo tanto, si la forma de la señal transmitida es
r
2E
si (t) = cos[ωc t + θi (t)] ,
T
entonces la señal recibida estará caracterizada por
r
2E i = 1, 2, . . . , M
r(t) = cos[ωc t + θi (t) + α] + n(t), ,
T 0≤t≤T

en donde α es una constante arbitaria y tı́picamente es asumida como una variable aleatoria
uniformemente distribuı́da entre cero y 2π; en sı́mbolos, α ∼ U [0, 2π]. El término n(t) es un
proceso AWGN.
Si se asume que α varı́a lentamente con respecto al tiempo de dos periodos, 2T , entonces la
diferencia de fase entre dos señales de entrada consecutivas, θj (T1 ) y θk (T2 ) resulta ser indepen-
diente de α, esto es:

[θk (T2 ) + α] − [θj (T1 ) + α] = θk (T2 ) − θj (T1 ) = φi (T2 ) . (4.37)

La fase de la portadora del intervalo anterior, se puede usar como referencia de fase para
la demodulación. Su uso requiere un encoding diferencial de la secuencia del mensaje en el
transmisor, dado que la información es acarreada por diferencias de fases entre dos formas
de onda consecutivas. Ası́, para enviar el i-ésimo mensaje (i = 1, 2, . . . , M ), la señal actual
debe tener un incremento de φi = 2πi/M radianes por sobre la señal previa. El detector, en
general, calcula las coordenadas de la señal entrante correlacionándola con las señales internas

94
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

p p
2/T cos ωc t y 2/T sin ωc t; luego mide el ángulo entre el vector de la señal actualmente
recibida y el vector de la señal previa.
En general, DPSK presenta menos eficiencia que PSK, pues los errores tienden a propagarse
entre tiempos de sı́mbolos adyacentes dada la correlación entre las formas de onda. Una forma
de ejemplificar esta diferencia, es que PSK compara con una señal pura, en cambio en DPSK
dos señales ruidosas son comparadas entre si. Se podrı́a decir que existe el doble de ruido
aproximadamente en DPSK, por lo que a primera vista, la estimación de DPSK se manifiesta
con una degradación de aproximadamente 3dB en comparación con la modulación PSK. Esta
degradación aumenta drásticamente con el incremento del SNR. A pesar de esta pérdida de
performance, se gana al tener un sistema con una complejidad menor.

PSK Diferencial Binaria


La escencia de la detección coherente diferencial en DPSK es que la identidad de los datos es
inferida desde cambios que existan en la fase entre sı́mbolo y sı́mbolo. Por lo mismo, dado que
los datos se detectan examinando la onda en forma diferencial, entonces primero la información
debe ser codificada de en una forma también diferencial. En la Tabla 4.2 se ilustra el encoding
diferencial de un mensaje binario, m(k), siendo k la unidad de tiempo. El encoding diferencial
comienza (tercera fila en la Tabla) con el primer bit del la secuencia, c(k = 0), elegido en forma
arbitraria (en este caso se consideró como un uno). Ası́, la secuencia de bits codificados pueden,
en general, ser codificados de dos formas:

c(k) = c(k − 1) ⊕ m(k) , (4.38)

ó,
c(k) = c(k − 1) ⊕ m(k) , (4.39)
en donde el sı́mbolo ⊕ representa la suma en módulo 2 y la barra superior representa el com-
plemento. En la Tabla 4.2 el encoding diferencial se ha obtenido utilizando la Ecuación (4.39).
En palabras, el bit de código actual, c(k), es uno si el bit del mensaje, m(k), y el bit de código
anterior, c(k − 1), son iguales, en otro caso, c(k) es cero. La cuarta fila traduce el bit de la
secuencia en el corrimiento de fase requerido, θ(k), en donde un uno está caracterizado por un
corrimiento de 180o y un cero por uno de 0o .

Tabla 4.2: Encoding Diferencial para modulación DPSK binaria


Índice de Muestreo, k 0 1 2 3 4 5 6 7 8 9 10
Mensaje de Información, m(k) 1 1 0 1 0 1 1 0 0 1
Encoding Diferencial del mensaje, c(k) 1 1 1 0 0 1 1 1 0 1 1
Fase, θ(k) π π π 0 0 π π π 0 π π

En la Fig. 4.9 se muestra el diagrama en bloques de un demodulador DPSK binario. Nótese


que el multiplicador-integrador similar al utilizado en la Fig. 4.3, es la escencia de este proceso
de detección; como en PSK coherente, aun se trata de correlacionar la señal entrante con alguna
señal de referencia. La diferencia interesante, es que aquı́ la señal de referencia es simplemente
una versión retardada de la señal entrante en T unidades de tiempo, con T como la duración

95
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

de cada sı́mbolo. En otras palabras, durante cada duración de sı́mbolo, estamos comparando
un sı́mbolo recibido con el sı́mbolo recibido anteriormente, para luego mirar la correlación o la
anticorrelación.

Fig. 4.9: Demodulador para DPSK utilizando detección coherente diferencial

Considere la señal recibida con fase θ(k) en la entrada del detector de la Fig. 4.9 con la
ausencia de ruido. La fase θ(k = 1) es comparada con su valor anterior, θ(k = 0), y como ambas
tienen el mismo valor π, entonces el primer bit detectado es m̂(k = 1) = 1. Luego se compara
θ(k = 2) con θ(k = 1) y como nuevamente tienen el mismo valor, entonces m̂(k = 2) = 1. Luego
se compara θ(k = 3) con θ(k = 2) pero ahora tienen valores diferentes, por lo que m̂(k = 3) = 0,
y ası́ sucesivamente.
Conforme a la literatura, el esquema planteado no es óptimo en términos de performance de
error, ya que una versión óptima requiere la referencia de la portadora en frecuencia, pero no
necesarimente tiene que ser en fase con el carrier entrante. La Fig. 4.10 muestra el diagrama
q de
2
bloques que safisface dicho requerimiento. Nótese que la función ψ(t) corresponde a T
cos ωc t.

Fig. 4.10: Demodulador Óptimo en términos de performance del error para DPSK utilizando
detección coherente diferencial

4.7 Desempeño de Error en Sistemas Binarios


Una medida importante del performance de un sistema digital corresponde a la probabilidad de
error, ya que es utilizada en la comparación de esquemas de modulaciones digitales. El cálculo
para obtener dicha probabilidad puede ser visto como un problema geométrico que envuelve
encontrar la probabilidad de que, dado un vector de una señal particular transmitida, digamos
s1 , el vector de ruido n, dará origen a una señal recibida que cae fuera de la región de decisión
correspondiente, en este caso, la región 1. Ası́, la probabilidad de que el detector realice una
mala decisión es conocida como la probabilidad de error de sı́mbolo (probability of symbol error )
y se representa como PE .

96
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

4.7.1 Probabilidad de Error de Bit para BPSK Coherente


Por conveniencia, en esta sección se tratará la detección coherente de modulación BPSK. Para
este caso, el error de sı́mbolo es el error de bit. Asuma que las señales son igualmente probables
y que la señal si (t), i = 1, 2 es transmitida. La señal recibida será r(t) = si (t) + n(t), en donde
n(t) es un proceso AWGN. Las señales antipodales s1 (t) y s2 (t), pueden ser caracterizadas en
un espacio de señal unidimensional conforme a lo descrito en la Ecuación (4.29), luego

s1 (t) = E ψ(t) (4.40)

s2 (t) = − E ψ(t) (4.41)

en donde 0 ≤ t ≤ T . La etapa de decisión del detector, escogerá la señal si (t) que entregue la
mayor correlación zi (T ) a la salida del correlacionador, o en este caso simplemente se deberá
implementar la regla de decisión de la Ecuación (4.27). En esta etapa se pueden cometer dos
errores posibles. El primero coresponde a que se envió la señal s1 (t) pero el ruido es tal, que
el detector mide valores negativos de z(T ), eligiendo la hipótesis H2 . La otra opción, es que
ocurra lo contrario: se eliga H1 a pesar de que se transmitió s2 (t). Ası́ la probabilidad de error
estará determinada por

PB = P [(H2 , s1 ), (H1 , s2 )]
= P (H2 , s1 ) + P (H1 , s2 )
= P (H2 |s1 )P (s1 ) + P (H1 |s2 )P (s2 )
1 1
PB = P (H2 |s1 ) + P (H1 |s2 ) (4.42)
2 2
en donde se ha considerado que la transmisión de las señales es equiprobable.
Dada la naturaleza de las señales recibidas (variables aleatorias Gaussianas con media nula y
varianza fija) y la simetrı́a de sus funciones de densidad de probabilidad en la Fig. 4.4, entonces
se puede decir que:
PB = P (H2 |s1 ) = P (H1 |s2 ) .
Ası́, la probabilidad de error de bit es numericamente igual al área bajo la “cola” de alguna de
las pdf, p(z|s1 ) o p(z|s2 ) que cae en el lado “incorrecto” del umbral (área achurada en Fig. 4.4).
En otras palabras, el cálculo de PB se hace integrando p(z|s1 ) entre los lı́mites −∞ y γ0 ó, como
se muestra acá, integrando p(z|s2 ) entre los lı́mites γ0 y ∞. Luego
Z ∞
PB = p(z|s2 ) dz
γ0

en donde p(z|s2 ) tiene distribución Gaussiana con media ai , y el umbral óptimo, γ0 , está dado
por (a1 + a2 )/2 como se demostró anteriormente.
Se puede demostrar que
Z ∞  2  
1 u a1 − a2
PB = √ exp − du = Q (4.43)
(a1 −a2 )/2σ0 2π 2 2σ0

97
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

en donde σ0 es la desviación estándar del ruido fuera del correlacionador. La función Q(x) es
llamada función de error complementario o función de co-error, y se define mediante:
Z ∞  2
1 u
Q(x) = √ exp − du . (4.44)
2π x 2
Para señales
√ antipodales de igual energı́a, como √ el caso de BPSK, las salidas del receptor
son a1 = Eb cuando s1 (t) fue enviada y a2 = − Eb cuando se envió s2 (t), en donde Eb es
la energı́a de la señal por sı́mbolo binario. Para AWGN, la varianza se puede reemplazar por
N0 /2 como se demostró anteriormente. Entonces, se puede obtener que
r !
2Eb
PB = Q . (4.45)
N0

Ejemplo 4.5 - Probabilidad de Error de Bit para BPSK.


Encuentre la probabilidad de error para un sistema BPSK con un bit rate de 1Mbit/s. Las
formas de onda recibidas tienen una amplitud de 10mV y se detectan de forma coherente.
Asuma que la PSD del ruido es 10−11 W/Hz y tanto la potencia de las señales como la energı́a
por bit están normalizadas a una carga de 1Ω.
Sol. Dado que la tasa de bits es 1Mbit/s, el tiempo de duración porqsı́mbolo está determinado
por T = 1/R = 1µs. La amplitud de la señal está determinada por 2E T
b
= 10−2 , por lo que se
q 
2Eb

obtiene que Eb = 5 · 10−11 J. Ahora, PB = Q N0
= Q( 10) = 8 · 10−4 . 

Ejemplo 4.6 - Probabilidad de Error BPSK.


Encuentre el número de bits erroneos en un dı́a para un receptor BPSK coherente con las
siguientes caracterı́sticas: Tasa de bits: 5000 bits por segundo, formas de onda de entrada
s1 (t) = A cos ω0 t y s2 (t) = −A cos ω0 t, con A = 1mV . La densidad espectral de potencia del
ruido es N0 = 10−11 W/Hz. Asuma que la potencia de las señales como la energı́a por bit están
normalizadas a una carga de 1Ω. q   
A2 2Eb A
Sol. La energı́a por bit es Eb = P · T = 2 T , luego PB = Q N0
= Q N0 R =


Q( 20) ≈ 4.05 · 10−6 errores por bit. Ahora, el número totales de bits errados en un dı́a es:
5000 bit
s
s
· 86400 dia · 4.05 · 10−6 = 1750 bits erroneos en un dı́a de transmisión. 

Ejemplo 4.7 - Probabilidad de Error BPSK.


Un sistema de detección coherente para BPSK de operación continua, tiene errores a una tasa
media de 100 errores por dı́a. Asumiendo una tasa de datos de 1000 bits por segundo y una
potencia de ruido de N0 = 10−10 W/Hz, calcule la probabilidad de error de bit promedio.
Sol. El número total de bits por dı́a que recibe el sistema está dado po 1000 bit
s
s
· 86400 dia =
7 bit
8.64 · 10 dia . Entonces, la probabilidad de error por bit promedio estará determinada por
100 errores −6
7 bit = 1.1574 · 10
PB = 8.64·10dia errores por bit. 
dia

98
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

4.7.2 Probabilidad de Error de Bit para DPSK


La probabilidad de error de bit para PSK codificada en forma diferencial y detectada en forma
coherente está determinada por
r !" r !#
2Eb 2Eb
PB = 2Q 1−Q , (4.46)
N0 N0
y dada lo complejo de la demostración6 , escapa a los alcances de este curso por lo que solo se
dejará planteada.

4.7.3 Probabilidad de Error de Bit para FSK Coherente


La Ecuación (4.45) describe la probabilidad de error de bit para detección coherente de señales
antipodales. Dicha ecuación fue directamente obtenida de la Ecuación (4.43), que a su vez se
obtuvo en base a la consideración del umbral óptimo γ0 . Para lograr minimizar la probabilidad
de error, que es lo que necesitarı́a para optimizar una transmisión, se requiere maximizar el
argumento de la función de co-error, Q(x). Para realizar esto, se necesita una forma mas
generalizada del argumento a12σ−a0 2 . Resulta interesante notar que el valor (a1 − a2 )2 corresponde
a la energı́a de la diferencia de las señales s1 (t) y s2 (t); en efecto, al considerar que s1 (t) = a1 ψ(t)
y s2 (t) = a2 ψ(t), entonces
Z T Z T
2 2
Ed = [s1 (t) − s2 (t)] dt = (a1 − a2 ) ψ 2 (t) dt = (a1 − a2 )2 .
0 0
Por lo tanto, el numerador del argumento original corresponde a la raiz de la energı́a Ed .
Recordando que σ02 es la varianza del ruido AWGN y que N0 /2 es su densidad espectral
q de
Ed
potencia, entonces la razón del argumento de la función de coerror es simplemente 2N0
.
Entonces, en términos más generales la Ecuación (4.43) se puede expresar de la forma
r !
Ed
PB = Q . (4.47)
2N0
Para generalizar aún mas este resultado y poder aplicarlo en señales que no necesariamente
son antipodales, se trabaja directamente sobre la energı́a de la diferencia de señales. Anteri-
ormente se dijo que era normal elegir un set de señales con la misma energı́a, por lo que el
desarrollo de la energı́a diferencial es
Z T
Ed = [s1 (t) − s2 (t)]2 dt
0
Z T Z T Z T
2 2
= s1 (t) dt + s2 (t) dt − 2 s1 (t)s2 (t) dt
0 0 0
Z T
= 2Eb − 2 s1 (t)s2 (t) dt
0
= 2Eb (1 − ρ) ,
6
Disponible en: Lindsey and Simon, Telecommunication Systems Engineering, Prentice-Hall, Inc., Englewood
Cliffs, 1973

99
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

en donde se ha considerado que Es1 = Es2 = Eb , y el parámentro


Z T
1
ρ= s1 (t)s2 (t) dt (4.48)
Eb 0

es el coeficiente de correlación cruzada en el tiempo. Este coeficiente de correlación, es una


medida de la similitud que existe entre las señales binarias, por lo que −1 ≤ ρ ≤ 1. En términos
de vectores de señales, el coeficiente de correlación cruzada puede ser expresado como ρ = cos θ,
siendo θ el ángulo que existe entre los vectores s1 y s2 . Utilizando la expresión generalizada
dada en la Ecuación (4.47) y lo obtenido para la energı́a diferencial en la Ecuación (4.48) se
obtiene la forma generalizada del cálculo de la probabilidad de error de bit no limitada solo a
señales antipodales. Esta ecuación queda determinada entonces por
r ! s 
Ed (1 − ρ)Eb 
PB = Q = Q . (4.49)
2N0 N0

Para ρ = 1 (equivalentemente θ = 0) las señales son perfectamente correlacionadas (son


idénticas). Para ρ = −1 (equivalentemente θ = π) las señales son anticorrelacionadas (antipo-
dales). Dado que las señales de PSK binario son antipodales entonces se puede fijar ρ = −1,
y la Ecuación (4.49) se convierte en la Ecuación (4.45). Para señales ortogonales como FSK
binaria (BFSK) θ = π/2, pues los vectores s1 y s2 son perpendiculares entre sı́. Ası́, ρ = 0 y se
obtiene r !
Eb
PB = Q . (4.50)
N0
en donde la función de co-error está definida por la Ecuación (4.44).
Como dato al margen, es interesante notar que para la modulación OOK, la probabilidad de
error de bit descrita por la Ecuación (4.50), es identica al performance de error para detección
coherente de señales OOK.

4.7.4 Probabilidad de Error de Bit para FSK No-Coherente


Considere el set de señales equiprobables para FSK binaria, {si (t)}, que fueron previamente
definidas por la Ecuación (4.14). Al trabajar con FSK no coherente el término de fase, φ, es
desconocido pero se asume constante. El detector estará caracterizado por M = 2 canales de
filtros pasabanda y detectores de envolvente, como se mostró en la Fig. 4.7. La entrada del
detector corresponde a la señal recibida, dada por la ecuación r(t) = si (t) + n(t), como se ha
discutido hasta ahora, en donde el término n(t) es un proceso AWGN con densidad espectral
de potencia N0 /2. Asumiendo que las señales están lo suficientemente separadas en frecuencia
para que el traslape sea despreciable, se puede plantear la probabilidad de error de igual forma
como se comenzó para la modulación PSK:

1 γ0 1 +∞
Z Z
1 1
PB = P (H2 |s1 ) + P (H1 |s2 ) = p(z|s1 ) dz + p(z|s2 ) dz
2 2 2 −∞ 2 γ0

100
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

Conforme a lo estudiado anteriormente, para FSK también se puede probar que el umbral
óptimo de decisión es γ0 = 0. Esto implica que existe una simetrı́a entre ambas pdfs y se
relacionan mediante p(z|s1 ) = p(−z|s2 ), por lo tanto se puede escribir
Z +∞
PB = p(z|s2 ) dz = P (z1 > z2 |s2 ) (4.51)
0

en donde z1 y z2 corresponden a las salidas de z1 (T ) y z2 (T ) de las detectores de envolvente de


la Fig. 4.7. Lo obtenido por la Ecuación (4.51) se traduce en decidir por la hipótesis H1 , cuando
en realidad se ha transmitido la señal s2 (t), tal como se estudió recientemente.
Ahora bien, si se ha transmitido la señal s2 (t), entonces la salida del correlacionador 1,
z1 (T ) será netamente una variable aleatoria de ruido Gaussiano, ya que no tendrá componente
de señal. Cuando una variable aleatoria con distribución Gaussiana se hace pasar a través de un
detector de envolvente no lineal, se origina una variable aleatorioa que sigue una distribución
de Rayleigh a la salida, dada por
(  2
z1 z
σ02
exp − 2σ12 , z1 ≥ 0
p(z1 |s2 ) = 0 (4.52)
0 , z1 < 0

en donde σ02 es el ruido a la salida del filtro. Por otra parte, dado que la entrada al detector de
envolvente 2 es una sinusoidal más ruido, z2 (T ) tendrá una distribución Rician dada por
(  2 2  
z2 z +A
σ02
exp − 12σ2 I0 zσ22A , z2 ≥ 0
p(z2 |s2 ) = 0 0 (4.53)
0 , z2 < 0
p
en donde A = 2E/T . La función I0 (x) es conocida como la función de Besel modificada de
primera clase y orden cero, y está definida por
Z 2π
1
I0 (x) = √ exp[x cos θ] dθ . (4.54)
2π 0
Realizando la integración de la Ecuación (4.51) en base a la definición dada por las Ecua-
ciones (4.52) y (4.53), se obtiene que la probabilidad de error de bit para esta modulación está
determinada por
A2
 
1
PB = exp − 2 (4.55)
2 4σ0
Utilizando el hecho de que la varianza del ruido puede ser calculada mediante σ02 = 2 N20 Wf , con
Wf como el ancho de banda del filtro del demodulador de la Fig. 4.7, se obtiene

A2
 
1
PB = exp − , (4.56)
2 4N0 Wf

en dónde se puede notar que el performance de error depende del ancho de banda del filtro
pasabanda, teniendo una disminución del error a medida que Wf disminuye. Este resultado
es válido solo si no existe interferencia entre sı́mbolos (o al menos es despreciable) como fue

101
CAPÍTULO 4. MODULACIONES DIGITALES PASABANDA

postulado al comienzo del desarrollo en la primera parte de esta sección. Se puede demostrar que
dicha condición se logra para un Wf mı́nimo de R = 1/T bits por segundo. Ası́ la Ecuación (4.56)
puede ser reescrita mediante
A2 T
   
1 1 1 Eb
PB = exp − = exp − . (4.57)
2 4N0 2 2 N0
En la Fig. 4.11 se muestra una comparación de las probabilidades de error de bit para
distintas técnicas de modulación binaria. Nótese que el factor Eb /N0 puede se expresado como
la razón entre la potencia promedio de la señal y la potencia promedio del ruido (SNR), por lo
que existe una relación directa dada por:
Eb S·T S S·W SW W
= = = = = SN R
N0 N0 R · N0 R · N0 · W N R R
en donde W es el ancho de banda de la señal, S la potencia promedio de la señal modulante, T
la duración de cada sı́mbolo, R = 1/T la tasa de bits y N = N0 W .

Fig. 4.11: Probabilidad de Error de Bit para diferentres tipos de sistemas binarios

Tabla 4.3: Probabilidad de Error para modulaciones binarias estudiadas


Modulación PB 
q
2Eb
PSK Coherente Q
 N0 
Eb
DPSK No-Coherente 12 exp − N
q 0
Eb
FSK Coherente Q
 N0 
1 Eb
FSK No-Coherente 2
exp − 21 N 0

102
Capı́tulo 5

Introducción a la Codificación

5.1 Introducción
En el presente capı́tulo se presentan métodos para codificación, con el fin último de alcanzar
los lı́mites para el canal impuestos por Shanon que se estudiaron en el Capı́tulo 2 del curso;
es decir, se quiere alcanzar la capacidad del canal. El problema es que lograr la capacidad del
canal es mucho más dificil que diseñar buenos códigos para la fuente.
La introducción general de objetivo del capı́tulo, se hará mediante un ejemplo particular,
para demostrar que la codificación logra mejorar la probabilidad de error en comunicaciones
digitales. Considere entonces un sistema de comunicaciones digital con potencia del transmisor
P y tasa de la fuente R. El sistema emplea una modulación PSK con M = 4 (QPSK), en el que
los pares de bits son mapeados en cualquiera de las cuatro señales dadas por la constelación
√ de la
Fig. 5.1. La energı́a de cada señal determina el radio de la circunferencia mediante E. Nótese
que por trabajar con QPSK, esta energı́a corresponde
√ a la energı́a por cada dos bits, por lo que
el radio del cı́rculo está determinado por 2Eb , en donde Eb representa la energı́a por bit. Lo
interesante de expresarla de esta forma es que la energı́a por bit está determinada por el producto
de la tasa de bits por segundo y la potencia del transmisor, en sı́mbolos Eb = P T = P/R.

ψ2 (t)

s2 s1

2Eb
ψ1 (t)

s3 s4

Fig. 5.1: Constelación de las señales para QPSK

103
CAPÍTULO 5. INTRODUCCIÓN A LA CODIFICACIÓN


La distancia Euclidiana entre señales adyacentes está determinada por 2 Eb , por ende la
mı́nima distancia cuadrática para esta modulación es
P
d2min = 4Eb = 4 . (5.1)
R
Considere que ahora que en vez de transmitir una señal QPSK (que es bidimensional), se utilizan
3 señales ortonormales para transmitir los mismos 2 bits. Por ejemplo se puede asumir que dicho
set está dado por ψ(t), ψ(t−T ), y ψ(t−2T ), en donde ψ(t) es nula fuera del intervalo de tiempo
RT
[0, T ], y además que 0 ψ 2 (t) dt = 1. Al tener tres señales ortonormales, las señales se pueden
ubicar en una esfera de forma similar al cı́rculo obtenido en el espacio bidimensional. Ası́, el
cuadrado formado por QPSK puede reemplazarse por un cubo, en donde cada una de las señales
se ubicará en alguno de los 8 vértices. Entonces, al utilizar esta nueva base, las cuatro señales
originales quedan –por ejemplo– determinadas por

s1 (t) = E[+ψ(t) + ψ(t − T ) + ψ(t − 2T )]

s2 (t) = E[+ψ(t) − ψ(t − T ) − ψ(t − 2T )]

s3 (t) = E[−ψ(t) − ψ(t − T ) + ψ(t − 2T )]

s4 (t) = E[−ψ(t) + ψ(t − T ) − ψ(t − 2T )]

ó equivalentemente, en notación vectorial,



s1 = E(+1, +1, +1)

s2 = E(+1, −1, −1)

s3 = E(−1, −1, +1)

s4 = E(−1, +1, −1) ,

tal como lo muestra la Fig. 5.2. Ahora bien, la distancia Eucludiana entre esta nueva realización
será, en todos los casos, la diagonal de las caras. √Como estas señales tienen una energı́a E,
entonces la distancia al origen de cada vértice será E, por lo que la distancia cuadrática entre
señales será
d2i,j = ||si − sj ||2 = 8E, ∀i 6= j .
Para este caso, la energı́a E se relaciona con la energı́a por bit, al considerar que cada señal
transmite 2 bits y a su vez cada señal se representa por la combinación de 3 señales base, luego
2Eb = 3E; entonces E = 2Eb /3 = (2/3)(P/R), lo que implica que
16 P
d2i,j = , ∀i 6= j . (5.2)
3 R
Comparando las Ecuaciones (5.1) y (5.2), se puede observar que la distancia mı́nima se ha visto
aumentada por un factor de
d2i,j 16 P
3 R 4
2
= P
= .
dQP SK 4R 3
Dado que la probabilidad de error es una función decreciente de la distancia Euclidiana mı́nima,
se ha reducido la probabilidad de error al emplear este nuevo esquema. De hecho, se puede decir

104
CAPÍTULO 5. INTRODUCCIÓN A LA CODIFICACIÓN

s4 ψ(t − T )

s1

ψ(t)
s2

s3
ψ(t − 2T )

Fig. 5.2: Codificación en los vértices de un cubo para QPSK

que la disminución resultante en la probabilidad de error es equivalente a la obtenida por un


incremento de la potencia en un factor de 43 , lo que se traduce en 1.25dB de ganancia de
potencia. Evidentemente esta ganancia no se logró gratis, ya que ahora durante la duración
de dos sı́mbolos, 2/R = 2T , se deben transmitir tres señales, reduciendo el tiempo disponible
de cada señal en un factor de 32 lo que se traduce en un aumento de 23 en el ancho de banda
requerido para la transmisión. Un segundo problema que se obtiene con el esquema planteado,
es que tiene que ser mucho más elaborado y el esquema de decodificación resulta más complejo.

Los resultados anteriores ejemplifican lo que un código busca lograr: disminuı́r la probabili-
dad de error (lo que es equivalente a una SNR efectiva mayor) al costo de incrementar el ancho
de banda y la complejidad del sistema. Sin embargo, es importante mencionar que existen
esquemas de codificación-modulación que incrementan la distancia Euclidiana entre los códigos
de palabra sin el costo del ancho de banda. En palabras más simples, para el ejercicio previo,
se realizó un mapeo de un espacio bidimensional (QPSK) a uno tridimensional, equivalente a:
(+1, +1) → (+1, +1, +1)
(+1, −1) → (+1, −1, −1)
(−1, −1) → (−1, −1, +1)
(−1, +1) → (−1, +1, −1)
en donde se puede observar que el rol de este mapeo es incluir un bit de paridad a los dos bits de
información. Esta paridad es agregada contal de que el número de +1 en la palabra codificada
sea siempre impar (o equivalentemente, que el número de −1s sea un número par).
En forma más general, un esquema de codificación de forma de onda toma secuencias de
largo k = RT de la fuente y los mapea en secuencias de largo n de la forma

si = E (±1, ±1, . . . , ±1) ,
| {z }
n

105
CAPÍTULO 5. INTRODUCCIÓN A LA CODIFICACIÓN


en donde cada uno de estos puntos se ubican en los vértices de un hipercubo de distancia 2 E.
La razón entre k y n,
k
Rc = ,
n
es conocida como la tasa del código (code rate). Dado que se mapea en un espacio n-dimensional,
existen 2n vértices posibles del hipercubo, de los cuales se deben elegir M = 2k vértices como
códigos de palabra. Evidentemente se quieren elegir aquellos 2k vértices que se encuentran lo
más lejanos posibles entre sı́, pues eso entrega una distancia Euclidiana grande, reduciendo ası́
la probabilidad de error. Para el caso anterior, se tenı́a k = 2 y n = 3, y se eligen 2k = 4 puntos
de los 23 = 8 posibles vértices que posee el cubo tridimensional. La tasa de dicho código es de
Rc = 2/3.
Asuma que se han elegido 2k vértices del hipercubo como códigos de palabra y que cada
palabra se encuentra al menos a una distancia de dH min de las otras componentes. El parámetro
dH
min es llamada la distancia de Hamming mı́nima para el código. La distancia Hamming entre
dos códigos ci y cj es el número de componentes en las cuales ambos códigos difieren, es decir
cuando un código es 1 y el otro es cero. La relación que existe entre la distancia Euclidiana y
la distancia Hamming se puede obtener mediante la relación
2
dE
ij = 4dH
ij E ,

2
lo que significa que las distancias mı́nimas se pueden relacionar mediante dEmin = 4dH
min E.
Asumiendo que se transmitió la señal si , se puede demostrar que la probabilidad de error
de código está acotada por
s 
H
 H 
4d min E M −d min E
PM i ≤ M Q  ≤ exp ,
2N0 2 N0

en donde se ha utilizado la cota propia de la función de coerror anteriormente definida. Notando


que el contenido de energı́a de cada palabra del código es nE, y tiene que ser igual al producto
P T , entonces como Eb = P/R se tiene

PT RT k
E= = Eb = Eb = Rc Eb ,
n n n
en donde Rc es la tasa del código. Entonces, como la cota no depende del valor de i, se tiene la
cota general dada por  H 
M −dmin Rc Eb
PM ≤ exp .
2 N0
Ahora bien, de no haber utilizado codificación –es decir se habrian utilizado los k vértices del
hipercubo k-dimensional y no k vértices en un hipercubo n-dimensional– se tendrı́a la siguiente
probabilidad de error !
r  
2Eb M Eb
PM ≤ M Q ≤ exp − .
N0 2 N0

106
CAPÍTULO 5. INTRODUCCIÓN A LA CODIFICACIÓN

Comparando estas dos cotas, se puede concluir que la ganancia en potencia obtenida con la
codificación es equivalente a
G = dHmin Rc , (5.3)
que es conocida como ganancia asintótica del código, o, simplemente, ganancia del código. En
general, Rc < 1 y dH min ≥ 1, por lo que la ganancia puede ser tanto menor como mayor a 1.
Resulta obvio que pueden haber muchos códigos que generan buenas ganancias. La relación que
define la ganancia del código enfatiza que dados n y k, el mejor código será aquel que genere la
distancia Hamming más alta.
Con respecto al requerimiento de ancho de banda de la señal, se tiene que al no utilizar
codificación la duración de cada uno de los k sı́mbolos es T = 1/R, sin embargo cuando existe
codificación en dicho tiempo se tienen que enviar n pulsos, por lo que se produce una reducción
del tiempo por sı́mbolo de k/n = Rc . Ası́, la razón de expansión del ancho de banda es dado
por
Wc 1 n
B= = = (5.4)
Wnc Rc k
en donde Wc y Wnc representan los anchos de banda con y sin código respectivamente.
Se puede demostrar que en un canal AWGN, existe una secuencia de códigos con parámetros
(ni , ki ) con un tasa fija (Rc = ki /ni , ∀i) que satisface la relación
 
1 P
Rc < log 1 + , (5.5)
2 N0 W
en donde el lado derecho de la ecuación es la capacidad del canal en bits por transmisión
conforme a la Ecuación (2.12). Para esta capacidad la probabilidad de error tiende a cero a
medida que ni se vuelve cada vez más grande.
En este curso se estudian las formas básicas de codificación, dividiendo el estudio en códigos
por bloques y convolucionales. En codificación por bloque (como el ejemplo estudiado) las
secuencias de información se dividen en bloques de largo k, y cada uno de estos bloques se
mapea en bloques de largo n. Este mapeo es independiente del bloque anterior, por lo que no
tienen memoria. En códigos convolucionales, se utiliza un registro de desplazamiento de largo
k0 L, como se muestra en la Fig. 5.3. Los k0 bits de información entran en el registro por vez;
luego n0 bits que son una combinación lineal de varios registros se transmiten por el canal.
Estos n0 bits no solo dependen de los k0 bits recientes, sino también de los (L − 1)k0 anteriores
en el registro que constituyen su estado. El número de estados en un código convolucional es
2(L−1)k0 y su tasa se define como Rc = k0 /n0 . La principal diferencia que existe entre los códigos
por bloques y convolucionales es la existencia de memoria en estos últimos.

Fig. 5.3: Codificador Convolucional

5.2 Códigos Lineales por Bloque


Un código de bloque (n, k) es una colección de M = 2k secuencias binarias, cada una de largo
n, llamadas palabras de códigos. Un código C consta de M palabras ci , para 1 ≤ i ≤ 2k . En

107
CAPÍTULO 5. INTRODUCCIÓN A LA CODIFICACIÓN

sı́mbolos,
C = {c1 , c2 , . . . , cM } ,
en donde cada ci es una secuencia de largo n con componentes iguales a 0 o 1. La colección de
palabras se llama bloque del código o, simplemente, código.
Se dice que un código es lineal si la suma en módulo 2 de cualquiera de sus palabras, es
también una palabra. Es decir, si ci y cj son palabras del código, entonces ci ⊕ cj también debe
ser una palabra del código. Con esta definición se puede notar que un código lineal por bloque es
un subespacio k-dimensional de un espacio n-dimensional. Además, de esta definición se deriva
que la palabra compuesta solo de ceros (que se denotará por 0) es una palabra de cualquier
código lineal, dado que se puede escribir ci ⊕ ci para cualquier palabra ci . Si se considera que
la secuencia de información x1 (de largo k) se mapea en la palabra de código c1 (de largo n),
y que la secuencia de información x2 se mapea en la palabra de código c2 , entonces x1 ⊕ x2 se
mapeará en c1 ⊕ c2 .

Ejemplo 5.1 - Codido Lineal.


Un código (5,2) es definido, por ejemplo mediante las siguientes palabras

C1 = {00000, 10100, 01111, 11011} ,

en donde el mapeo de la información se hace de la siguiente forma:

00 → 00000
01 → 01111
10 → 10100 (5.6)
11 → 11011 .

Es sencillo verificar el código es lineal, sin embargo el código dado por

C2 = {00000, 11100, 01111, 11011} ,

no lo es pues la suma de la segunda y tercera palabra no es una palabra del código. 

Se entenderá por distancia Hamming entre dos palabras del código ci y cj , como el número
de componentes a las cuales 2 palabras de código difieren, es decir el número de componentes
en dónde una de las palabras es 1 y la otra es 0. La distancia Hamming será denotada por
d(ci , cj ), a diferencia de la distancia Euclidiana en donde se hará la diferencia con el superı́ndice
E
, llamándola dE . La distancia mı́nima de un código, corresponde a la mı́nima distancia de
Hamming entre dos palabras diferentes, es decir

dmin = min d(ci , cj ) . (5.7)


ci , cj
i 6= j

El peso de Hamming o, simplemente, el peso de una palabra ci , corresponde al número


de unos en la palabra, y se denota por w(ci ). Además se hablará del peso mı́nimo de un código

108
CAPÍTULO 5. INTRODUCCIÓN A LA CODIFICACIÓN

como el valor mı́nimo de todos los pesos, sin incluir la palabra compuesta solo de ceros, 0.

wmin = min w(ci ) (5.8)


ci 6=0

Asuma un código lineal en donde c es una palabra de dicho código; luego no es dificil
notar que la relación w(c) = d(c, 0) es válida para cualquier palabra. Además si ci y cj son
palabras del mismo código lineal y c = ci ⊕ cj entonces d(ci , cj ) = w(c). Esto implica que
en cualquier código lineal, correspondientemente a cualquier peso de una palabra, existe una
distancia Hamming entre dos palabras, y, correspondientemente a cualquier distancia Hamming,
existe un peso de una palabra. En particular, esto demuestra que en cualquier código lineal,
dmin = wmin .

5.2.1 Matrices de Generación y Paridad


En un código lineal de (n, k) considere las secuencias de información e1 = (1000 · · · 0), e2 =
(0100 · · · 0), e3 = (0030 · · · 0), . . . , ek = (0000 · · · 1) que se mapean en las palabras g1 , g2 , g3 ,
. . . , gk , respectivamente, en donde cada gi es una secuencia binaria de largo n. Ahora, cualquier
secuencia de información x = (x1 , x2 , x3 , . . . , xk ) puede ser escrito de la forma
k
X
x= xi ei , (5.9)
i=1

por lo que cada una de las palabras del código en forma correspondiente serán
k
X
c= xi g i . (5.10)
i=1

Si se define la Matriz de Generación para el código como


   
g1 g11 g12 g13 · · · g1n
 g2   g21
   g22 g23 · · · g2n 

4 
G= g 3
  g31
= g32 g33 · · · g3n 
 (5.11)
 ..   .. .. .. . . . .. 
 .   . . . . 
gk gk1 gk2 gk3 · · · gkn

entonces, de la Ecuación (5.10), se puede escribir

c = xG (5.12)

en donde x es vector fila de k componentes, y G es la matriz de generación, con dimensiones


k ×n. Esto demuestra que cualquier combinación linear de las filas en la matriz de generación es
una palabra del código. Nótese que el rango de la matriz de generación es k ya que por definición,
k es la dimensión del subespacio. Dado que la matriz de generación describe completamente un
código, entonces al conocerla, la estructura del encoder es realmente sencilla.

109
CAPÍTULO 5. INTRODUCCIÓN A LA CODIFICACIÓN

Ejemplo 5.2 - Código Lineal y Matriz de Generación.


Determinar la matriz de generación para el código C = {00000, 10100, 01111, 11011} y determine
la secuencia de generación de las palabras.
Sol. Primero, es necesario determinar la linealidad del código. Para esto, se realiza la suma
componente a componente. Entonces, como c1 ⊕ci = ci , ∀i y ci ⊕ci = 0 = c1 , solo resta evaluar
los siguientes elementos: c2 ⊕c3 = 11011 = c4 , c2 ⊕c4 = 01111 = c3 , y c3 ⊕c4 = 10100 = c2 , por
lo que el código es lineal. Dado el mapeo del código de la Ecuación (5.6), se tiene que los valores
de g1 y g2 están dados por los códigos de 10 y 01, vale decir  10100 y 01111 respectivamente.
10100
Ası́ la matriz de generación esta determinada por G = . Para las secuencias de
01111
información (x1 , x2 ), las palabras del código están dadas por la relación c = xG, que para este
ejemplo será (c1 , c2 , c3 , c4 , c5 ) = (x1 , x2 )G = [x1 , x2 , x1 ⊕ x2 , x2 , x2 ]T , lo que implica que c1 = x1 ,
c2 = x 2 , c3 = x 1 ⊕ x 2 , c4 = c5 = x 2 . 

El código utilizado en el Ejemplo 5.2, posee la propiedad que la palabra correspondiente a


cada secuencia de información comienza con una réplica de dicha secuencia seguida por bits
extras. Éste tipo de códigos son llamados códigos sistemáticos y los bits extras se les llama bits
de chequeo de paridad. Una condición necesaria y suficiente para que un código sea sistemático
es que la matriz de generación sea de la forma

G = [Ik | P ]

en dónde Ik es la matriz identidad de dimensión k × k y P es una matriz binaria de k × (n − k).


En un código sistemático, se tiene

xi ,1 ≤ i ≤ k
ci = Pk
j=1 pji xj , k + 1 ≤ i ≤ n .

Por definición un código lineal C es un subespacio de dimensión k de un espacio de di-


mensión n. Del algebra lineal, se sabe que al tomar todas las secuencias de largo n que son
ortogonales a todos los vectores del subespacio k-dimensional, el resultado será un subespacio
lineal de dimensión (n − k) y que recibirá el nombre de complemento ortogonal del subespacio
de dimensión k. Este nuevo subespacio (n − k)-dimensional define un nuevo código lineal de
(n, n − k) que recibe el nombre de codigo dual del código (n, k) original y se denota por C > .
Resulta evidente que las palabras del código original C y las del código dual C > son ortogonales
entre si. En particular, si se denota por H a la matriz de generación del código dual, esta tendrá
una dimensión (n − k) × n, y cualquier palabra del código original será ortogonal con todas las
filas de H, es decir
cH T = 0, ∀ c ∈ C . (5.13)
La matriz H que es la matriz generadore del código dual C > , es llamada matriz de chequeo
de paridad del código original C . Dado que todas las filas de una matriz de generación son
palabras del código, se tiene que
GH T = 0 . (5.14)

110
CAPÍTULO 5. INTRODUCCIÓN A LA CODIFICACIÓN

En el caso especial de códigos sistemáticos, se puede demostrar que

H = [P T | In−k ] . (5.15)

Ejemplo 5.3 - Matriz de Paridad.


Encuentre la matriz deparidad del código utilizado en el Ejemplo 5.2.  
10100 10
Sol. Dado que G = , se puede hacer la descomposición en Ik = y P =
01111   01 
  11 11100
100
. Entonces, al tomar la traspuesta P T =  01 , se puede obtener H =  01010 . 
111
01 01001

Ejemplo 5.4 - Ecuaciones de Paridad.


Encuentre las ecuaciones de paridad para el Ejemplo 5.3.
Sol. Las ecuaciones se obtienen de la Ecuación (5.13), cH T = 0, luego se obtiene

c1 ⊕ c2 ⊕ c3 = 0
c2 ⊕ c4 = 0
c2 ⊕ c5 = 0 . 

5.3 Códigos Convolucionales

111
Libros de Referencia.

La información contenida en el presente texto, ha sido extraı́da de variados textos escritos


que posee en DIE, el Laboratorio de Transmisión y simplemente yo. Toda la información acá
expresada tiene caracter netamente educacional y no pretende ser en ninguna forma un atentado
contra los derechos de copia ni de autor de cada uno de los libros que acá se citan. El contenido
grueso de esta obra es de autorı́a de:

• “Fundamentals of Communication Systems”, John Proakis, Masoud Salehi.


c 2005,
Pearson Education, Inc.

• “Introducción a los Sistemas de Comunicaciones”, F. G. Stremler.


c 1993, Addi-
son Wesley Iberoamericana, S.A.

• “Digital Communications - Fundamentals and Applications”, Bernard Sklar.



c 1998, Pretince-Hall Inc.

• “Elements of Information Theory”, Thomas Cover, Joy Thomas.


c 1999, John
Wiley & Sons, Inc.

• “Elementary Statistics”, Paul Hoel.


c 1976, John Wiley & Sons, Inc.

112

También podría gustarte