Está en la página 1de 117

DEPARTAMENTO DE ELÉCTRICA Y ELECTRÓNICA

Carrera de Ingenierı́a en Electrónica y Telecomunicaciones

COMUNICACIÓN Y CODIFICACIÓN DIGITAL

TEMA: Cuaderno

Integrantes del grupo:

Glenn Chulde
Andrés Ulloa
Leonardo Tayupanta
Marı́a Fernanda Vásquez
Jorge Yandun

Profesor:
Ing. Paul Bernal Oñate MsC.

Curso académico 201720


Índice general

1. MODULACIONES M-ARIAS 1
1.1. Esquemas de Modulación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. PAM(Modulación por amplitud de Pulso) . . . . . . . . . . . . . . . . . . . . 2
1.2.1. Constelación PAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Ortogonalidad de señales base . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4. QAM(Modulación por amplitud y cuadratura) . . . . . . . . . . . . . . . . . 10
1.5. Esquemas de modulación multidimensional . . . . . . . . . . . . . . . . . . . 14
1.6. FSK(Frequency Shift Keying) . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7. Matriz de HADAMARD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.8. Receptor óptimo canal AWGN . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.9. Demostración de la Pr de Probabilidad de Error(BPSK) . . . . . . . . . . . . 25
1.10. Detectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.11. ASK y PAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.12. M-PSK . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.13. QAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.14. Teorı́a de la Información . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.14.1. Información . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.14.1.1. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.14.2. Entropı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.14.3. Entropı́a de la Fuente . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.15. Código Morse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1.16. Códigos de Huffman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
1.16.1. Árbol de Huffman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
1.17. Canales Discretos Sin Memoria . . . . . . . . . . . . . . . . . . . . . . . . . . 48
1.18. Canal Simétrico Binario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
1.19. Información Mutua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
1.19.1. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50

ii
2. Teoria de la Codificación del Canal 53
2.1. Capacidad de Canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.2. Teorı́a de la codificación de Canal . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.2.1. Entropı́a diferencial e Información . . . . . . . . . . . . . . . . . . . 54
2.2.2. Diferencial Fundamental . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.2.3. Información Mutua . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.2.4. Entropı́a diferencial condicional . . . . . . . . . . . . . . . . . . . . . 55
2.3. Codificación de Canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.3.1. Códigos de lı́nea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.3.2. Códigos Cı́clicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.3.3. Verificación de Paridad . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.3.4. Códigos de longitud máxima . . . . . . . . . . . . . . . . . . . . . . . 68
2.3.5. Códigos Convolucionales . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.4. Cuantificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
2.4.1. Corrección de errores en un canal uniforme . . . . . . . . . . . . . . . 84

3. Tercer Parcial 90
3.1. Ecualización de Canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
3.2. Matriz de auto correlación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3.2.1. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.2.2. Conditional Number . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.3. Filtro de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.3.1. Algoritmos para hallar la solución de Wiener . . . . . . . . . . . . . . 97
3.4. Least Mean Square (LMS) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.4.0.1. NMLS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.5. Algoritmo RLS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
3.6. Matriz Computacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.7. TDMA vs FDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.7.1. Equivalencia de Tasa de bits . . . . . . . . . . . . . . . . . . . . . . . 103
3.7.2. Equivalencia con retardos . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.7.2.1. FDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.7.3. TDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.7.4. Frequency - Flat Fading . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.7.5. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.8. Técnica DS-SS (Spread Spectrum de secuencia directa) . . . . . . . . . . . . . 105
3.9. Probabilidad de Error de BPSK . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3.10. Margen de Perturbación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107

iii
3.11. Secuencia de Walls . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3.12. Demostración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.13. Sobrecarga . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
3.14. Sectorización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
3.15. Media . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
3.16. Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112

iv
Capı́tulo 1

MODULACIONES M-ARIAS

1.1. Esquemas de Modulación


Modulación engloba el conjunto de técnicas que se usan para transportar información sobre
una onda portadora tı́picamente una onda sinusoidal. Estas técnicas permiten un mejor
aprovecamiento del canal de comunicación lo que posibilita transmitir más información en
forma simultánea además de mejorar la resistencia contra posibles ruidos e interferencias.

1.1.1. Definiciones

k : Bits de información.

M = 2k

Sm(t); 1 ≤ m ≤ Marias : Conjunto (set)

Ts : Tiempo de transmisión.

Tasa de sı́mbolo(bits por segundo):


1
Rs =
Ts

Tiempo de bit:
Ts Ts
Tb = =
k los2 M
R: Rata de bit:
R = kRs = Rs .log2 M

Energı́a promedio:
M
X
Eavg = Pm Em
m=1

1
CAPÍTULO 1. MODULACIONES M-ARIAS

Probabilidad de ocurrecia de cada señal Pm es equiprobable:


1
Pm =
M

Energı́a promedio para M-PSK:


M
1 X
Eavg = Em
M
m=1

Energı́a de bit de promedio:


Eavg Eavg
Ebavg = =
k log2 M

Potencia Promedio
Eavg
Pavg =
Tb

1.2. PAM(Modulación por amplitud de Pulso)


Es la más sencilla de las modulaciones digitales. Consiste en cambiar la amplitud de una
señal, de frecuencia fija, en función del sı́mbolo a transmitir.
En la modulación por amplitud de pulsos, la señal no necesariamente es de dos niveles, sino
que el nivel de la señal puede tener cualquier valor real, si bien la señal es discreta, en el
sentido de que se presenta a intervalos definidos de tiempo, con amplitudes, frecuencias, o
anchos de pulso variables.

Sm (t) = Am · p(t)

Donde:

Am: Valores de Amplitud(valores discretos 1,2,3,4...).

p(t): pulso real de duración T (señal continua)

1 ≤ m ≤ M → Banda Base

Am = 2m − 1 − M ; m = 1, 2, 3..., M

2m − 1 → ]Impar → Am es impar

Sm = ±1, ±3, ±5, ... ± (M − 1)

2
CAPÍTULO 1. MODULACIONES M-ARIAS

Z +∞ Z +∞
Em = A2m p2 (t)dt = A2m p2 (t)dt = A2m Ep
−∞ −∞

Donde:

Ep : Energı́a de pulso

M
Ep X 2 Ep 2
Eavg = Am = (1 + 32 + ... + (M − 1)2 )
M M
m=1

2Ep M (M 2 − 1) (M 2 − 1)Ep
= · =
M 6 3

(M 2 − 1)Ep
Eavg = → Energia Promedio en PAM
3
(M 2 − 1)Ep
Ebavg = → Energı́a de bit promedio
3log2 M

Por lo tanto una representación mas general serı́a:

Sm (t) = Re[Sm (t)ej2πfc t ] → Banda Pasante

Sm (t) = Re[Am · g(t)ej2πfc t ] → Banda Pasante

Si:
ejθ = cos θ + j sin θ

Entonces:
Z ∞
Em = A2m g 2 (t)cos2 (2πfc t)dt
−∞

(M 2 − 1) · Eg
Eavg =
6

(M 2 − 1) · Eg
Ebavg =
6 · log2 M

3
CAPÍTULO 1. MODULACIONES M-ARIAS

1.2.1. Constelación PAM

En función del número de sı́mbolos o amplitudes posibles se llama a la modulación N-PAM.


Ası́ podemos tener 2PAM, 4PAM, 260PAM. Este tipo de modulación recoge información
análoga, la muestra , y genera una serie de pulsos basados en los resultados de la prueba,
de la correcta elección de los puntos de la constelación (amplitudes) depende la inmunidad
a ruido (distancia entre puntos) o la energı́a por bit (distancia al origen). En la Modulación
por amplitud de pulsos (PAM), la señal original se muestra a intervalos iguales, ésta usa una
técnica llamada probada y tomada, donde en un momento dado el nivel de la señal es leı́do
y retenido brevemente.

1.3. Ortogonalidad de señales base


El adjetivo ortogonal proviene del griego orthos (recto) y gonia (angulo). Este denota
entonces la perpendicularidad entre dos elementos: dos calles que se cruzan en un ?angulo
recto presentan una configuracion ortogonal. La ortogonalidad es un concepto fundamental
para la comprension del an?alisis de funciones por medio de las transformadas de Fourier,
Laplace y la transformada z.

S2 (t) 3
φ2 (t) = → √
||S2 (t)|| 3 2
1/2
2 √
Z
2
||S2 (t)|| = (3) d(t) =3 2
0

4
CAPÍTULO 1. MODULACIONES M-ARIAS

g3 (t) = S3 (t) − α32 φ2 (t)

Z ∞
α32 = S3 (t)φ2 (t)dt = 0 → g3 (t) = S3 (t)
−∞

g3 (t) 3
φ3 (t) = = √
||g3 (t)|| 3 2
1/2
4 √
Z
2
||g3 (t)|| = (3) d(t) =3 2
2


S2 (t) = 3 2φ2 (t)

S3 (t) = 3 2φ3 (t)
√ √
S1 (t) = S1 (t) + S3 (t) = 3 2φ2 (t) + 3 2φ3 (t)

5
CAPÍTULO 1. MODULACIONES M-ARIAS

p
Sm (t) = Am Ep φ(t) → Banda Base
r
Eg
Sm (t) = Am φ(t) → Banda Pasante
2

Donde

Am = ±1, ±3, ±5, ..., ±(M − 1)

Banda Base

p(t)
φ(t) = p
Ep
Banda Pasante
s
2
φ(t) = g(t)cos(2πfc t)
Eg

MODULACIÓN POR DESPLAZAMIENTO DE AMPLITUD ASK

La modulación por desplazamiento de amplitud, en inglés Amplitude-shift keying (ASK), es


una forma de modulación en la cual se representan los datos digitales como variaciones de
amplitud de la onda portadora en función de los datos a enviar.
La amplitud de una señal portadora analógica varı́a conforme a la corriente de bit (modulando
la señal), manteniendo la frecuencia y la fase constante. El nivel de amplitud puede ser usado
para representar los valores binarios 0s y 1s. Podemos pensar en la señal portadora como un
interruptor ON/OFF. En la señal modulada, el valor lógico 0 es representado por la ausencia
de una portadora, ası́ que da ON/OFF la operación de pulsación y de ahı́ el nombre dado.
Diagrama de Constelación

6
CAPÍTULO 1. MODULACIONES M-ARIAS

Para saber a donde pertenecen los puntos se usa distancias euclideanas

p p q
dmn = ||Sm − Sn ||2 = |Am − An | Ep = |Am − An | Eg /2

Distancia mı́nima:

q p p
dmin = 2 Eg /2 = 2Eg = 2 Ep

r
12 · log2 M
dmin = Ebavg
M2 − 1

PM (MODULACIÓN POR FASE)

Es una modulación que se caracteriza porque la fase de la onda portadora varı́a en forma
directamente proporcional de acuerdo con la señal modulante. La modulación de fase no
suele ser muy utilizada porque se requieren equipos de recepción más complejos que los de
frecuencia modulada. Además puede presentar problemas de ambigüedad para determinar si
una señal tiene una fase de 0o o 180o .

2π(m−1)
h i
Sm (t) = Re g(t) · ej M · ej2πfc t ; m = 1, 2, 3, .., M
 
2π(m − 1)
= g(t) cos 2πfc t +
M
   
(m − 1) (m − 1)
= g(t) cos(2πfc t) cos 2π − g(t) sin(2πfc t) sin 2π
M M

Señales Ortogonales:
s
2
φ1 (t) = g(t)cos(2πfc t)
Eg
s
2
φ2 (t) = − g(t)sen(2πfc t)
Eg

Al no variar la amplitud, la potencia es constante:

Eavg = Em

Ebavg = Eb

7
CAPÍTULO 1. MODULACIONES M-ARIAS

Por lo tanto la formula general para un esquema PM que utiliza portadora PDK es:

r   r  
Eg 2π Eg 2π
Sm (t) = cos (m − 1) φ1 (t) + sen (m − 1) φ2 (t)
2 M 2 M

Diagrama de constelación para:

 s  
p 2π
dmin = ||Sm − Sn ||2 =Eg 1 − cos (m − n)
M
r π r  π 
= 2Eg sin 2 =2 log2 M · sin2 Eb
M M

r
π π π 2 log2 M
sin( ) ≈ → dmin = 2 Eb
4 4 M2

Ejercicios

1. Determine la representacion de espacio de las señales para 4 señales S1 , S2 , S3 , S4


mostradas en la figura. Usando las funciones basicas ortonormales φ1 (t), φ2 (t). Grafique la

8
CAPÍTULO 1. MODULACIONES M-ARIAS

constelacion y comparar si es equivalente a 4-PSK

2. Para un esquema de modulación 8-PSK de radio r y distacina entre los puntos A unidades.
Encontrar el valor del radio r y la potencia promedio de transmision 8-PSK.

A2 = 2r2 − 2r2 cos(45◦ )

A2 A2
r2 = = √
2(1 − cos(45◦ ) 2− 2

9
CAPÍTULO 1. MODULACIONES M-ARIAS

A
r=p √
2− 2
Para Ts = 1s
!2
1 A A2
P8−P SK =8· p √ = √
8 2− 2 2− 2

1.4. QAM(Modulación por amplitud y cuadratura)


Modulación de amplitud en cuadratura QAM (Quadrature Amplitude Modulation). Consiste
en modular por desplazamiento en amplitud ( ASK) de forma independiente, dos señales
portadoras que tienen la misma frecuencia pero que están desfasadas entre sı́ 90o .

La señal modulada QAM es el resultado de sumar ambas señales ASK. Estas pueden operar
por el mismo canal sin interferencia mutua porque sus portadoras al tener tal desfase, se
dice que están en cuadratura. Estas dos ondas generalmente son señales sinusoidales en la
cuál una onda es la portadora y la otra es la señal de datos.

Sm (t) = Re[(Ami + jAmq )g(t)ej2πfc t ]


= Re[rm ejθm g(t)ej2πfc t ]
= Ami g(t)cos(2πfc t) − Amq g(t)sin(2πfc t)

Representación con señales ortonormales


r r
Eg Eg
Sm (t) = Ami φ1 (t) + Amq φ2 (t)
2 2

10
CAPÍTULO 1. MODULACIONES M-ARIAS

A partir de 8-QAM y 8-PSK existe diferencia:


p
dmin = 2Eg
p
= ||Sm − Sn ||2
r
Eg
= (Ami − Ani )2 + (Amq − Anq )2
2
Energı́a Promedio:
Eg 2
Em = ||Sm ||2 = (Ami − A2nq )
2
√ √
M M
1 Eg X X 2 Eg (M − 1)
Eavg = (Am − A2n ) =
M 2 3
m=1 n=1

Solo se utiliza para una constelación cuadrada, sino lo es, la energı́a promedio se debe
calcular punto a punto.

Energı́a de bit promedio:

M −1
Ebavg =
3log2 M
Dinstacia mı́nima de una constalación QAM cuadradda:
r
6log2 M
dmin = Ebavg
M −1
Ejercicio.
1. Para un esquema de modulación 8-QAM como se muestra en la figura, la distancia entre
los vecinos mas cercanos es A unidades. Determine los valores de a y b en función de A y la
potencia total transmitida.

11
CAPÍTULO 1. MODULACIONES M-ARIAS


2 2 2 2
A = b + a − 2ab
2


A=a 2

A
a= √
2

A2
A2 = b2 + − Ab
2

A2
b2 − Ab − =0
2

A √
b= (1 + 3)
2
Potencia total transmitida:

√ !2 √ !2
2 2 1+ 3 2
PT = 4 A +4 A
2 2

PT = 2A2 + (1 + 3)2 A2 → QAM
8A2
PT = √ → P SK
2− 2
Para determinar que tipo de modulación requiere mas potencia realizamos lo siguiente:
 
PP SK
dB = 10log
PQAM

12
CAPÍTULO 1. MODULACIONES M-ARIAS

8A2
 

 2 2 
dB = 10log 
 2 √ 2 
2A + 1 + 3 A 2 

dB = 1, 6dB

Si la tasa de bit es de 90 Mbps ¿ Cual es la tasa de sı́mbolo?

Rb = 90M bps
90M bps
Rs = = 30M bps
log2 8

2. Calcular la potencia total de las siguientes constelaciones.¿Cuál es la más eficiente?.Si la


distancia entre los puntos adyacentes es 2A.

(a) 8-QAM (b) 8-AM

Constelación 8-QAM:

PT = 4(2A)2 + 4(2 2A)2
= 16A2 + 32A2
= 48A2

48A2
Pm =
8
= 6A2

13
CAPÍTULO 1. MODULACIONES M-ARIAS

Constelación 8-AM:
p √
a= 3A2 + 4A2 = 7A

√ √
PT = 2(A)2 + 2(2 3A)2 + 4( 7A)2
= 2A2 + 6A2 + 28A2
= 36A2

36A2
Pm =
8
= 4,5A2

Por lo tanto el que presenta mayor eficiente es la modulación 8-QAM.

1.5. Esquemas de modulación multidimensional


La modulación por amplitud de pulsos (Pulse Amplitude-Modulation) es la más sencilla
de las modulaciones digitales. Consiste en cambiar la amplitud de una señal, de frecuencia
fija, en función del sı́mbolo a transmitir. Esto puede conseguirse con un amplificador de
ganancia variable o seleccionando la señal de un banco de osciladores. (incluir dibujo de un
modulador con amplificador variable) (incluir dibujo de un banco de osciladores) Dichas
amplitudes pueden ser reales o complejas. Si representamos las amplitudes en el plano
complejo tenemos lo que se llaman constelaciones de señal (incluir dibujo). En función del
número de sı́mbolos o amplitudes posibles se llama a la modulación N-PAM. Ası́ podemos
tener 2PAM, 4PAM, 260PAM. De la correcta elección de los puntos de la constelación
(amplitudes) depende la inmunidad a ruido (distancia entre puntos) o la energı́a por bit
(distancia al origen).

La modulación por desplazamiento de fase o PSK (Phase Shift Keying) es una forma
de modulación angular que consiste en hacer variar la fase de la portadora entre un número
de valores discretos. La diferencia con la modulación de fase convencional (PM) es que
mientras en ésta la variación de fase es continua, en función de la señal moduladora, en la
PSK la señal moduladora es una señal digital y, por tanto, con un número de estados limitado.

QAM Es una técnica de modulación digital avanzada que transporta datos, mediante la
modulación de la señal portadora de información tanto en amplitud como en fase. Esto se

14
CAPÍTULO 1. MODULACIONES M-ARIAS

consigue modulando una misma portadora, desfasando 90o la fase y la amplitud. La señal
modulada en QAM está compuesta por la suma lineal de dos señales previamente moduladas
en DBL-PS (Doble Banda Lateral - con Portadora Suprimida) Se asocian a esta tecnologı́a
aplicaciones tales como:

Modems telefónicos para velocidades superiores a los 2400bps.

Transmisión de señales de televisión, microondas, satélite (datos a alta velocidad por canales
con ancho de banda restringido).

Modulación TCM (Trellis Coded Modulation), que consigue velocidades de transmisión muy
elevadas combinando la modulación con la codificación de canal.

Módems ADSL que trabajan en el bucle de abonado, a frecuencias situadas entre 24KHz
y 1104KHz, pudiendo obtener velocidades de datos de hasta 9Mbps, modulando en QAM
diferentes portadoras.

P AM → 1
P SK → 2
QAM → 3

N: señales.
1. Dominio del tiempo (slots = ranuras).
2. Dominio de la frecuencia (f).

φ(j), 1 ≤ j ≤ N

S1 (t)
φj = √ , 1 ≤ j ≤ N
E

15
CAPÍTULO 1. MODULACIONES M-ARIAS


S1 = ( E, 0, 0, ..., 0)

S2 = (0, E, 0, ..., 0)
..
.

Sn = (0, 0, 0, ..., E)

1.6. FSK(Frequency Shift Keying)


La Modulación por desplazamiento de frecuencia o FSK,(Frequency Shift Keying) es una
técnica de transmisión digital de información binaria (ceros y unos) utilizando dos frecuencias
diferentes. La señal moduladora solo varı́a entre dos valores de tensión discretos formando un
tren de pulsos donde un cero representa un ”1.o ”marca el otro representa el ”0.o .espacio”.
2

En la modulación digital, a la relación de cambio a la entrada del modulador se le llama


bit-rate y tiene como unidad el bit por segundo (bps). A la relación de cambio a la salida
del modulador se le llama baud-rate. En esencia el baud-rate es la velocidad o cantidad de
sı́mbolos por segundo.

16
CAPÍTULO 1. MODULACIONES M-ARIAS

Sm (t) = Re[Sm (t)ej2πfc t ]; 1 ≤ m ≤ M ; 0 ≤ t, ≤ T


r
2E
= cos(2πfc t + 2π∆f t)
T
r
2E j2π∆f t
= e
T

Para demostrar que son ortogonales (varı́a la frecuencia):


2E T j2π(m−n)∆f t
Z
< Sm (t), Sn (t) > = e dt
T 0

Aplicando Eculer y separando la parte real tenemos:

2E · sen(2πT (m − n)∆f )
< Sm (t), Sn (t) > = = 2E · sinc(2T (m − n)∆f )
2πT (m − n)∆f

1.7. Matriz de HADAMARD


En matemáticas, una matriz Hadamard, llamada ası́ por el matemático francés Jacques
Hadamard, es una matriz cuadrada cuyas entradas son +1 o -1 y cuyas filas son mutuamente
ortogonales. En términos geométricos, esto significa que cada par de filas en una matriz
Hadamard representa dos vectores perpendiculares, mientras que en términos combinatorios,
significa que cada par de filas tiene entradas coincidentes en exactamente la mitad de sus
columnas y entradas no coincidentes en las columnas restantes. Es una consecuencia de esta
definición que las propiedades correspondientes son válidas tanto para columnas como para
filas.

Ho = [1]
" #
1 1
H1 =
1 −1
 
1 1 1 1
 
1 −1 1 −1
H2 = 
 

1 1 −1 −1
 
1 −1 −1 1

17
CAPÍTULO 1. MODULACIONES M-ARIAS

Genera las señales:

h√ √ √ √ i
S1 = E, E, E, E

h√ √ √ √ i
S2 = E, − E, E, − E

h√ √ √ √ i
S3 = E, E, − E, − E

h√ √ √ √ i
S4 = E, − E, − E, E

Ejercicio.
t 1

1. Un sistema PAM de niveles esta definido por Si (t) = Ai rect T − 2 donde: Ai =
±1, ±3, ±5, ±7. Hallar la constelación y graficar.

1/2
T √
Z
||S1 (t)|| = A2i dt = Ai T
o

2. En las figuras se muestra las formulas de onda de 4 señales: S1 (t), S2 (t), S3 (t), S4 (t)

18
CAPÍTULO 1. MODULACIONES M-ARIAS

Usando el procedimiento de ortogonalizacion de Gram-Schmidt, encuentre los bases


ortonormales para este set de señales.

Grafique la constelación.

S1 (t) 1
φ1 (t) = =p
||S1 (t)|| T /3
"Z #1/2
T /3 p
2
||S1 (t)|| = (1) d(t) = T /3
0

g2 (t) = S2 (t) − α21 φ1 (t)

Z T /3 Z T /3 p p p p
α21 = S2 (t)φ1 (t)dt = 3/T dt = 3/T · T /3 = T /3
0 0

g2 (t)
φ2 (t) =
||g2 (t)||

p
||g2 (t)|| = T /3

19
CAPÍTULO 1. MODULACIONES M-ARIAS

g3 (t) = S3 (t) − α31 φ1 − α32 φ2 (t)

Z T /3
α31 = S3 (t)φ1 (t)dt = 0
0

Z 2T /3 Z 2T /3 p p
α32 = S3 (t)φ2 (t)dt = 3/T dt = T /3
T /3 T /3

g3 (t) p
φ3 (t) = ; ||g3 (t)|| = T /3
||g3 (t)||

1/2
4 √
Z
2
||g3 (t)|| = (3) d(t) =3 2
2

p
S1 (t) = T /3φ1 (t)
p p
S2 (t) = T /3φ1 (t) + T /3φ2 (t)
p p
S3 (t) = T /3φ2 (t) + T /3φ3 (t)
p p p
S4 (t) = S1 (t) + S3 (t) = T /3φ1 (t) + T /3φ2 (t) + T /3φ3 (t)

20
CAPÍTULO 1. MODULACIONES M-ARIAS


3. Una señal PSK esta definida por S(t) = Ac · k · sin(2πfc t) ± Ac 1 − k 2 cos(2πfc t) con
0 ≤ t ≤ Tb . El signo + corresponde al sı́mbolo 1 y el signo - corresponde al sı́mbolo 0, k es
un parámetro entre 0 y 1, el primer termino de S(t) representa la portadora que es incluida
como una propuesta para el sincronismo en el receptor. Grafique el espacio de señales que
representa este esquema y que observaciones puede dar usted acerca de este diagrama.

p
S(t) = Ac · k · sin(2πfc t) ± Ac 1 − k 2 cos(2πfc t)

p
S1 (t) = Ac · k · sin(2πfc t) + Ac 1 − k 2 cos(2πfc t)

p
S2 (t) = Ac · k · sin(2πfc t) − Ac 1 − k 2 cos(2πfc t)

φ1 = cos(2πfc t)

φ2 = sin(2πfc t)

A2
P∞ = (A · cosX) = = P (A · senX)
2

21
CAPÍTULO 1. MODULACIONES M-ARIAS

E
P = ; E = P · Tb
Tb
Calculamos la energı́a:

√ p
S(t) = E = P · Tb
r
A2c (1 − k 2 )Tb
=
r 2
2 2
Ac · k · Tb
=
2r
Tb
= Ac · k ·
2

4. Dada la secuencia binaria 11/00/10/00/10 bosqueje las formas de onda de los componentes
en fase y cuadratura de una onda modulada utilizando Q-PSK de acuerdo a la constelación
mostrada en la figura, adicionalmente realice el gráfico de la señal modulada.

5. Una señal es muestrada a una tasa de 8 kHz y es codificada usando 8 bits por muestra la
resultante tasa binaria es trasmitida sobre un canal AWGN en banda base usado M niveles
de PAM. Determine el ancho de banda requerido para la trasmisión usando M=4, M=8,

22
CAPÍTULO 1. MODULACIONES M-ARIAS

M=16.

Ancho de banda :

R
W =
2 · log2 M

R = (8000) ∗ (8) = 64000 [bit/s]

Entonces para:

64000
M = 4: W= 4 = 16000Hz
64000
M = 8: W = 8 = 10666,67Hz
M = 16: W = 64000
8 = 8000Hz

6. Una representación de un PAM, equivalente es usar un filtro pasabajos que se lo define


como la señal:
X
u(t) = In · g(t − nT )
n

suponga que g(t) es un pulso rectangular In = an − an−2 donde es una secuencia binaria
descorrelacionada con valores de -1 a 1

Determine la función de autocorrelacion de la secuencia In

Determine la densidad espectral de potencia de u(t)

Solución:

rxx (n) = E[x[n] · x[n − m]]

rii [n] = E[In+m · In ]

rii [n] = E[(an+m − an+m−2 )(an − an−2 )]

rii [n] = E[an+m · an ] − E[an+m · an−2 ] − E[an+m−2 · an ] + E[an+m−2 · an−2 ]

rii [n] = δ(m) − δ(m − 2) − δ(m + 2)


 2; m=0


rii [n] = -1; m = ±2 (1.1)


 0; otrocaso

23
CAPÍTULO 1. MODULACIONES M-ARIAS

7. Calcular el mı́nimo teórico del ancho de banda de un sistema para transmitir 10 Mbps si
se usa 16 niveles de PAM y sin la presencia de ISI

10 · 106
W = = 1, 25M Hz
2 · log2 16

1.8. Receptor óptimo canal AWGN

El receptor óptimo se determina bajo las siguientes premisas: Se asume que a la entrada del
receptor llega una señal que es el pulso modificado por transmisor y canal y (p(t)) y el ruido
(n(t)). Al pulso modificado por el filtro HR lo llamaremos y(t),mientras que al ruido filtrado
por HR lo llamaremos nout..

Probabilidad de Error

P e[m 6= m]
b

Mx = 0
No
σ2 =
2
r = Sm + n

Descorrolacionados

Función de densidad de probabilidad:

(x−mx )2
1 − 2
fx (x) = p e 2σx → F uncionN ormal
2πσx2
2
||n||2

1
fx (x) = √ e No
πNo

24
CAPÍTULO 1. MODULACIONES M-ARIAS

1.9. Demostración de la Pr de Probabilidad de Error(BPSK)

El parámetro que mide la calidad de un sistema de transmisión digital es la probabilidad


de error en el sı́mbolo P Para el cálculo de la probabilidad de error es necesario conocer la
función de densidad de probabilidad que caracteriza a los fenómenos aleatorios (ruido térmico,
ruido shot e interferencia entre sı́mbolos) que aparece n en el sistema. En comunicaciones por
fibra óptica resulta extraordinariamente complejo el encontrar dicha función de densidad de
probabilidad debido a : 1.- La naturaleza no estacionaria del ruido shot. 2.- La dependencia
del ruido shot con el mensaje digital transmitido . 3.- La presencia de la interferencia entre
sı́mbolos (ISI) En consecuencia se han desarrollado numerosos estudios destinados a encontrar
una solución que permita la obtención de la probabilidad de error en el sı́mbolo sin necesidad
de conocer de una forma explı́cita la función de densidad de probabilidad.
Plano de solución del esquema de modulación: RN (No se puede representar para N > 3).

P [Decisión Correcta |r] = P[Enviada m|r]


b
R
P [Decisión Correcta |r] f(r) dr

b = gopt (r) argmax P[Sm |r]


b = gopt (r) argmax P[m|r] m
m

Para el primer receptor la probabilidad de que ocurra un sı́mbolo sera:

P mf (r|Sm )
m
b = argmax
f r(r)
m
b = argmaxP mf (r|Sm )

Son equiprobables: Se usa ML

m
b = argmaxf (r|Sm )

Para el caso de BPSK, el esquema de modulacion mas simple es:

25
CAPÍTULO 1. MODULACIONES M-ARIAS

Este método se fundamenta en la evaluación de la integral de probabilidad, expresión , de


una forma suficientemente precisa mediante un proceso de integración numérica. Para ello
utiliza una generalización del método de integración de Newton, que consiste en sustituir la
función a integrar por un polinomio de interpolación de grado n tal que tenga n+l puntos
comunes con la función en el intervalo de integración. Dado que el método de integración de
Gauss permite una distribución de puntos de interpolación variable, podemos satisfacer al
menos 2n condiciones independientes.
Analizando:

r(t) = Sm (t) + n(t)

N
X
n1 = nj φj ; nj =< n(t), φj (t) >
j−1

N
X
Sm (t) = Smj φj (t); Smj =< n(t), φj (t) >
j−1

N
X
r(t) = (nj + Smj )φj + n2 (t); rj = nj + Smj
j−1

rj =< Sm (t), φj (t) > + < n(t), φj (t) >

rj =< r(t), φj (t) >

26
CAPÍTULO 1. MODULACIONES M-ARIAS

Entonces:

N
X
r(t) = rj φj (t) + r2 (t)
j−1
Z ∞
nj = n(t)φj (t)dt
−∞
Las medias en cada una de las direcciones son cero:

E[nj ] = 0
cov[ni nj ]
k(x, y) = E[(x − mx )(y − my )]
k(x, y) = E[xy] − E[x] − E[y]
k(x, y) = E[ni nj ]

Entonces: Z ∞ Z ∞ 
E[ni nj ] = E n(t)φi (t)dt n(s)φj (s)ds
−∞ −∞

m
b = argmax[Pm f (r|Sm )]

m
b = argmax[Pm f (r|Sm )]
" N #
||r−Sm ||2

1
= argmax Pm f ( √ e− No
πNo

Observaciones:

27
CAPÍTULO 1. MODULACIONES M-ARIAS

 N
√1 → Constante positiva, no se considera
πNo

||r−Sm ||2
 
− ||r−Sm ||2
argmax e No → ln(P m) − No

No
2 Siempre va a ser positivo

Como el segundo termino de la siguiente ecuación no depende de Sm

||r−Sm ||2 ||r − Sm ||2


 
No
m
b = ln(Pm ) ∗ e− No −
2 2
No Em
ηm = ln(Pm ) −
2 2
b = [ηm + r ∗ Sm ]
m

El caso más habitual en un sistema digital de comunicaciones es el caso en que todos los
sı́mbolos se transmiten con la misma probabilidad (sı́mbolos equiprobables). En ese caso, el
criterio general para el diseño del decisor se simplifica y recibe habitualmente un nombre
especı́fico. Indique cuál es el nombre del criterio de diseño en ese caso particular, y en que se
traduce en relación con la distribución de la observación a la salida del demodulador.

Caso mas genérico de modulación con ruido

Se pierde la simetrı́a

BPSK: El caso más habitual en un sistema digital de comunicaciones es el caso en que todos
los sı́mbolos se transmiten con la misma probabilidad (sı́mbolos equiprobables).
En ese caso, el criterio general para el diseño del decisor se simplifica y recibe habitualmente
un nombre especı́fico. Indique cuál es el nombre del criterio de diseño en ese caso particular, y
en que se traduce en relación con la distribución de la observación a la salida del demodulador.

28
CAPÍTULO 1. MODULACIONES M-ARIAS

Decisión

√ √
 
No 1 No 1
D1 = r : r Eb + ln(p) − Eb > −r Eb + ln(1 − p) − Eb
2 2 2 2

 q 
ln(1 − p)
= r : r > −r 4 Eb + → Mayor: 1 , Menor:0
p
= {r : r > r + h}

Probabilidad de error

2
X X Z
Pe = Pm f (r|Sm )
m=1 1≤m≤2 Dm
Si mando 1
Z √ Z √
= f (r|Sm = Eb) + (1 − p) f (r|Sm = − Eb)
Dm Dm
x − mx
Función Q :
σ
√ √ !
Eb − rth rth − Eb
= Q p + (1 − p) p
No /2 No /2
√ !
Eb
Pe = Q p
No /2

Formas de calcular Q:

1 2
Q(x) ≈ √ e−x /2
x 2
Bit Error Rate analysis tool

Eb
= 16dB → dB = 10log(Eb/No )
No

Eb
1,6 = 10log(Eb/No ) → = 39,8
No
Matlab → Curva Gausiana bajo ciertas caracterı́sticas
Z ∞
2 2
erf c = √ e−t dt
π x

29
CAPÍTULO 1. MODULACIONES M-ARIAS

 
1 x
Q(x) = erf c √
2 2


erf c(x) = 2Q(x)( 2x)

Cuando los sı́mbolos tienen todos la misma probabilidad de ser transmitidos, y además
se asume una transmisión sobre un canal gausiano (la única distorsión que sufre la señal
transmitida durante su transmisión es la suma de ruido gausiano), el criterio de diseño del
decisor se simplifica notablemente. Indique cuál es en ese caso el criterio más sencillo para
realizar el diseño del decisor.

Ejercicio

Dado el ejercicio anterior de una señal PSK.

a) Demuestre que en presencia de AWGN de medio 0 y densidad espectral de potencia


No /2, la probabilidad de error es:
r !
1 Eb
Pe = erf c (1 − k 2 )
2 No

b) Suponga que el 10 % de la potencia de la señal transmitida se asigna a la componente


de la portadora, determine la energı́a de bit a ruido para originar la probabilidad de
error de 10−4

Solución

a)

30
CAPÍTULO 1. MODULACIONES M-ARIAS

p
r(t) = Ac k sin(2πfc ) ± Ac 1 − k 2 cos(2πfc t) + n(t)
p
= Ac k sin(2πfc t) cos(2πfc t) ± Ac 1 − k 2 cos2 (2πfc t) + n(t) cos(2πfc t)
Ac k Ac p
= (sin(4πfc t) + sin(0)) ± 1 − k 2 (1 + cos(4πfc t)) + n(t) cos(2πfc t)
2 √ 2
Ac p A c 1 − k2
= ± 1 − k2 + n(t) cos(2πfc t)
2 2
Z Tb Z Tb √
Ac p 2
Ac 1 − k 2
= ± 1 − k dt + n(t) cos(2πfc t)dt
0 2 0 2

Tb

Ac 1 − k 2
Z
Eb = n(t) cos(2πfc t)dt
0 2
A2c T2
= (1 − k 2 ) b
4 Tb
Por lo tanto
v  
u
A 2
c 2 )T

u s 
r ! u 2 (1 k b  2
2Eb 4  = Q  Eb (1 − k ) 
t 
Q= = Q
No 
 No 
 No

s  s 
1 2E (1 − k 2) 1 E (1 − k 2)
b b
Pe = erf c   = erf c  
2 2No 2 No

b)
1 2
Pe = √ e−x /2 = 10−4 → x = 3,8753
x 2
r
2Eb
No Eb
3,8753 = → = 8,3433
0,9 No

Ejercicio

En sistema de comunicación transmite 1 de 3 mensajes m1 , m2 , m3 . Usando 3 señales:


S1 (t), S2 (t), S3 (t). Si S3 (t) = 0 y S1 (t) y S2 (t) se muestran en la figura. El canal empleado
es AWGN con media 0 y densidad espectral de potencia No /2.

a) Determine el conjunto de señales básicas ortonormales y grafique la constelación.

b) Si los tres mensajes son equiprobables, cual serı́a la regla de decisión más adecuada
para este sistema.

c) Si las tres señales son equiprobables, exprese la probabilidad de error del detector óptimo
en términos de la relación señal a ruido por bit promedio.

31
CAPÍTULO 1. MODULACIONES M-ARIAS

d) Asumiendo que el sistema transmite 3000 sı́mbolos/s. ¿Cuál es la tasa de transmisión


en bits/s?

Solución

a)
1/2 √
T √
Z
S1 (t) 2
φ1 (t) = ; ||S1 (t)|| = A dt = A2 T = A T
||S1 (t)|| 0


S1 (t) = A T φ1 (t)

S2 (t) = 2A T φ1 (t)
S3 (t) = 0φ1 (t)

b)
3 √
 
D1 = r : r > A T
2
1 √ 3 √
 
D2 = r : A T < r < A T
2 2

 
1
D3 = r : r < A T
2
c)
d212 A2 T
   
Pb = Q =Q
2No 2No

32
CAPÍTULO 1. MODULACIONES M-ARIAS

d)
3000 · log2 3 = 4754

1.10. Detectores
Los códigos detectores y correctores de error se refieren a los errores de transmisión en
las lı́neas.Se deben a diversos factores, como el ruido térmico, ruido impulsivo y ruido de
intermodulación. Dependiendo del medio de transmisión y del tipo de codificación empleado,
se pueden presentar otros tipos de anomalı́as como ruido de redondeo y atenuación, ası́ como
cruce de lı́neas y eco durante la transmisión.

1. Receptor de Correlación

2. Receptor de Matched filter: Similar al mostrado en la figura pero este no tiene correlator
y se filtra de manera desplazada.

La corrección de errores se puede tratar de dos formas:


Cuando se detecta el error en un determinado fragmento de datos, el receptor solicita al emisor
la retransmisión de dicho fragmento de datos. El receptor detecta el error, y si están utilizando
información redundante suficiente para aplicar el método corrector, automáticamente aplica
los mecanismos necesarios para corregir dicho error. Bits redundantes. Teóricamente es posible
corregir cualquier fragmento de código binario automáticamente. Para ello, en puesto de
los códigos detectores de errores utilizando los códigos correctores de errores, de mayor
complejidad matemática y mayor número de bits redundantes necesarios. La necesidad de
mayor número de bits redundantes hace que a veces la corrección de múltiples bits sea
inviable e ineficiente por el elevado número de bits necesarios. Por ello normalmente los

33
CAPÍTULO 1. MODULACIONES M-ARIAS

códigos correctores de error se reducen a la corrección de 1,2 o 3 bits. Distancia Hamming.


La distancia Hamming H entre dos secuencias binarias S( 1) y S2 S( 1) y S2 de la misma
longitud, viene definida por el número de bits en que difieren. Código Hamming. Es un
código corrector y detector de errores, desarrollado por R.W. Hamming en 1950, y se basa
en los conceptos de bits redundantes y Distancia Hamming. Hoy, el código de Hamming).
El código de Hamming agrega tres bits adicionales de comprobación por cada cuatro bits de
datos del mensaje. El algoritmo de Hamming (7.4) puede corregir cualquier error de un solo
bit, pero cuando hay errores en más de un bit, la palabra transmitida se confunde con otra
con error en un sólo bit, siendo corregida, pero de forma incorrecta, es decir que la palabra
que se corrige es otra distinta a la original, y el mensaje final será incorrecto sin saberlo.

1.11. ASK y PAM

 
1 dmin
Peo = Pe = Q √
2 2N
 o 
2(M − 1) dmin
= Q √
M 2No
s 
 
1 6 log2 M Ebavg 
Pe = 2 1 − Q ·
M M2 − 1 No
 
6 log2 M Ebavg
Pe = 2Q · → En el caso de que M es muy grande
M2 − 1 No

1.12. M-PSK
Normalmente se usa coordenadas polares.
En el caso que M = 4 → 4 − P SK
r !" r !#
2Eb 1 2Eb
Pe = 2Q 1− Q
No 2 No

En el caso M-ario r !
πE
b
Pe = 2 log2 M sin2
M No
Pe
Pb ≈
k

34
CAPÍTULO 1. MODULACIONES M-ARIAS

1.13. QAM
Para un esquema de constelación rectangular.
s  s 
    
1 3 log2 M E b 1 3 log2 M Eb
Pe = 4 1 − √ Q · avg  ·Q 1 − 1 − √ ·Q  · avg 
M M − 1 N o M M − 1 N o

s 
3 log2 M Ebavg 
Pb ≤ 4Q  ·
M −1 No

Ejercicio

Suponga que un esquema binario PSK es usado para transmitir información sobre un canal
AWGN, con densidad espectral de potencia No /2 = 10−10 W/Hz. La señal de transmisión
tiene una energı́a Eb = A2 T /2, donde T es el intervalo de bit y A es la amplitud de la señal.
Determine el valor de A requerido para alcanzar una probabilidad de error de 10−6 cuando
la tasa de Datos es:

a) 10 kbits/s

b) 100 kbits/s

c) 1M bit/s

Solución

Pe = 10−6 = Q(x) → x = 4,76


s
A2 T 4,76
x= →A= r
No T
2 · 10−10
a) A = 6,73 · 10−6

b) A = 21,28 · 10−6

c) A = 67,31 · 10−9

Ejercicio

Considere la señal de entrada a un detector como:

r = ±A + n

Donde +A y −A ocurre con igual probabilidad y n es variable que representa ruido y está
caracterizado por una función de probabilidad laplaciana como se indica en la figura.

35
CAPÍTULO 1. MODULACIONES M-ARIAS

a) Determine la probabilidad de error en función de A y σ

b) Determine la SNR requerida para una probabilidad de 10−5

1 √ λ −|x|λ
fn (n) = √ e−|n| 2/σ ; fx (x) = e
2σ 2

Solución

a)
1 1
Pe = P (0|1) + P (1|0)
2 2
Z 0
1
= (0|1)
2 −∞
1 0 λ −λ|r−A| 1 ∞ λ −λ|r+A|
Z Z
= e dr + e dr
2 −∞ 2 2 0 2
λ −A −λ|x| λ ∞ −λ|x|
Z Z
= e dx + e dx
4 −∞ 4 A
e−λA + e−λA 1 √
= = e−A 2/σ
4 2

b)
Z ∞
λ
σn2 = x2 e−λ|x| dx
−∞ 2
Z ∞
= λ x2 e−λx dx
0
 2 −λx ∞
x e 2xe−λx 2e−λx
= λ − −
−λ λ2 λ3 0
2
=
λ2

36
CAPÍTULO 1. MODULACIONES M-ARIAS

Como:
A2
= SN R
σ2
Entonces
1 √
Pe = e SN R = 10−5 → SN R = 58,53 → 17,674dB
2

Ejercicio

Un sistema de comunicaciones utiliza el esquema de constelaciones mostrado en la figura, los


16 sı́mbolos son equiprobables, el canal es AWGN con densidad espectral de potencia No /2

a) Usando los valores de los puntos de la constelación encuentre la Pe de este canal en


términos de A y No .

b) Determine SN Ravg por bit para este canal.

c) Exprese lo encontrado en la parte 1 en términos de SN Rbavg /bit

d) Compare la eficiencia de potencia de este sistema con un 16 PAM.

Solución

a) s 
d2min 
PM ≤ (M − 1)Q 
2No

37
CAPÍTULO 1. MODULACIONES M-ARIAS

s 
2∗ A2
≤ (15)Q  
No

b)
ET = E1 + E2 + E3 = 4(2A2 ) + 8(10A2 ) + 4(18A2 ) = 160A2
160 2
Eavg = A = 10A6
16
Eavg
Ebavg = = 2,5A2
log2 M
Donde
A2 2Ebavg
=
No 5No
c) s 
d2min 
PM ≤ (M − 1)Q 
2No
s !
4Ebavg
PM ≤ 15Q
5No

d)  
6log2 M Ebavg
Pe = 2Q
M 2 − 1 No
M = 16
 
8 Ebavg
Pe = 2Q
85 No
Comparando con 16QAM:
4Ebavg
16 − QAM 5N0 17
= =
16 − P AM 8Ebavg 2
85No
17
10log10 = 9,29dB
2
QAM es 9.29 veces más eficiente

1.14. Teorı́a de la Información


La teorı́a de la información, también conocida como teorı́a matemática de la comunicación
(Inglés: mathematical theory of communication) o teorı́a matemática de la información, es
una propuesta teórica presentada por Claude E. Shannon y Warren Weaver a finales de la
década de los años 1940. Esta teorı́a está relacionada con las leyes matemáticas que rigen la
transmisión y el procesamiento de la información y se ocupa de la medición de la información

38
CAPÍTULO 1. MODULACIONES M-ARIAS

y de la representación de la misma, ası́ como también de la capacidad de los sistemas de


comunicación para transmitir y procesar información.1? La teorı́a de la información es una
rama de la teorı́a matemática y de las ciencias de la computación que estudia la información
y todo lo relacionado con ella: canales, compresión de datos y criptografı́a, entre otros.

Información: Caracterı́sticas que catalogan un fenómeno binario: 0,1.


Creada en 1948 por Shannon.

Transmisor → Canal → Receptor


Información Analógica se transforma en Digital, donde el sistema que produce las
señales analógicas se la conoce como Fuente de Información, y esto se lo digitaliza
para enviarlo al transmisor.

Necesita de tres procesos fundamentales:

• Codificación de Fuente
• Codificación de Canal
• Capacidad de Canal
◦ Incertidumbre: No conocer el resultado
◦ Información: Evitar que la información sea negativa
◦ Entropı́a: Medida de la información

Esto se da en:
Señales Determinı́sticas

Señales No determinı́sticas

1.14.1. Información

La información contenida en un mensaje es proporcional a la cantidad de bits que se requieren


como mı́nimo para representar al mensaje. El concepto de información puede entenderse
más fácilmente si consideramos un ejemplo. Supongamos que estamos leyendo un mensaje
y hemos leı́do cadena de c; la probabilidad de que el mensaje continúe con caracteres
es muy alta. Ası́, cuando efectivamente recibimos a continuación caracteres la cantidad de
información que nos llegó es muy baja pues estábamos en condiciones de predecir qué era lo
que iba a ocurrir. La ocurrencia de mensajes de alta probabilidad de aparición aporta menos
información que la ocurrencia de mensajes menos probables. Si luego de cadena de c leemos
himichurri la cantidad de información que estamos recibiendo es mucho mayor.
 
1
I(Sk ) = log → Entre más probable menos información
Pk

39
CAPÍTULO 1. MODULACIONES M-ARIAS

1.14.1.1. Propiedades

I(Sk ) = 0 ↔ Pk = 1

I(Sk ) ≥ 0 ↔ 0 ≤ Pk ≤ 1

I(Sk ) > I(Si ) ↔ P (Si ) > P (Sk )

P (A + B) = P (A) + P (B) − P (A) ∩ P (B)

I(Sk ; Si ) = I(Sk ) + I(Si ) → Estadı́sticamente Independiente

1.14.2. Entropı́a

La información es tratada como magnitud fı́sica, caracterizando la información de una


secuencia de sı́mbolos utilizando la entropı́a. Es parte de la idea de que los canales no son
ideales, aunque muchas veces se idealicen las no linealidades, para estudiar diversos métodos
de envı́o de información o la cantidad de información útil que se pueda enviar a través de un
canal.
k−1
X
H(S) = E[I(Sk )] = Pk ∗ I(Sk )
k=0
  
1 1
= Po log2 + P1 log2
Pk Pk
   
1 1 1 1
= log2 + log2 =1
2 1/2 2 1/2

Ejercicio

Una fuente emite 4 sı́mbolos con probabilidad: 0,4; 0,3; 0,2; 0,1. Encuentre la entropı́a de la
fuente.

Solución

   
5 3 10 1 1
H(S) = 0,4 log2 + log2 + log2 5 + log2 (10)
2 10 3 5 10
H(S) = 1,346 bits

Ejercicio

Suponga que cierto curso se dan igual número de calificaciones con las letras, A,B,C,D y F.

a) ¿Cuánta información en bits recibe un estudiante cuando el instructor le dice que su


calificación no es F?

b) ¿Cuánta información adicional requiere este estudiante para determinar su calificación.

40
CAPÍTULO 1. MODULACIONES M-ARIAS

Solución

a)  
1
IS = log2 = 0,32 bits
4/5

b)  
1
IS = log2 = 2,32 bits
1/5
Se necesita 2 bits mas de información.

Ejercicio

En un mazo de 52 cartas se extrae una al azar.

a) Determinar la información en bits que recibe un jugador si saco una carta de


corazón, de figura y de figura de corazón.
b) Si se le dice que la carta es una de figura roja, cuanta información adicional se
necesita para identificar la carta.

Solución
1
• Carta de Corazón: P1 =
2
15 4
• Carta de Figura: P2 = =
52 13

4 1 2
• Carta de Figura de Corazón: P3 = · =
13 2 13
a)
IS1 = log2 (2) = 1 bit
 
13
IS2 = log2 = 1,7 bits
14
 
13
IS3 = log2 = 2,7 bits
2
b)
IS4 = log2 (52) = 5,7 bits
 
52
IS5 = log2 = 2,7bits
8

Debe conocer 3.7 bits más adicionalmente.

41
CAPÍTULO 1. MODULACIONES M-ARIAS

Ejercicio

Calcule la cantidad de información necesaria para abrir una cerradura cuya combinación
consta de 3 enteros del 00 al 99.

Solución

 
1
I(S) = log2 = 20M bps
1/1000000

Ejercicio

Calcule la entropı́a de la fuente discreta y sin memoria que tiene 6 sı́mbolos con probabilidades
PA = 1/2, PB = 1/4, PC = 1/8, PD = PE = 1/20, PF = 1/40.

Solución

1 1 1 2 1
H(S) = log2 (2) + log2 (4) + log2 (8) + log2 (20) + log2 (40) = 1,94 bits
2 4 8 20 40

Ejercicio

Con respecto al ejercicio anterior, cual es la cantidad de información en el mensaje ABABBA


y FDDFDF.

Solución

I1 = log2 (2 · 4 · 2 · 16 · 2) = 9 bits

I2 = log2 (40 · 20 · 20 · 40 · 20 · 40) = 28,93 bits

Ejercicio

Cierta información tiene 8 sı́mbolos y entre datos en bloques de 3 sı́mbolos con la tasa de 1000
bloques por segundo, el primer sı́mbolo en cada bloque es siempre el mismo para propósito
de sincronización, los otros dos lugares los ocupan cualquiera de los ocho sı́mbolos con igual
probabilidad. Determine la tasa de transferencia de la información de la fuente.

42
CAPÍTULO 1. MODULACIONES M-ARIAS

Solución

 
1
H = log2 = 6 bits/bloque
1/64
bits bloques
6 · 1000 = 6000 bps
bloque seg

1.14.3. Entropı́a de la Fuente

De acuerdo a la teorı́a de la información, el nivel de información de una fuente se puede


medir según la entropı́a de la misma. Los estudios sobre la entropı́a son de suma importancia
en la teorı́a de la información y se deben principalmente a C. E. Shannon. Existe, a su
vez, un gran número de propiedades respecto de la entropı́a de variables aleatorias debidas
a A. Kolmogorov. Dada una fuente F que emite mensajes, resulta frecuente observar que
los mensajes emitidos no resulten equiprobables sino que tienen una cierta probabilidad de
ocurrencia dependiendo del mensaje. Para codificar los mensajes de una fuente intentaremos
pues utilizar menor cantidad de bits para los mensajes más probables y mayor cantidad de
bits para los mensajes menos probables, de forma tal que el promedio de bits utilizados para
codificar los mensajes sea menor a la cantidad de bits promedio de los mensajes originales.
Esta es la base de la compresión de datos. A este tipo de fuente se la denomina fuente
de orden-0, pues la probabilidad de ocurrencia de un mensaje no depende de los mensajes
anteriores. A las fuentes de orden superior se las puede representar mediante una fuente
de orden-0 utilizando técnicas de modelización apropiadas. Definimos la probabilidad de
ocurrencia de un mensaje en una fuente como la cantidad de apariciones de dicho mensaje
dividido entre el total de mensajes. Supongamos que Pi es la probabilidad de ocurrencia
del mensaje-i de una fuente, y supongamos que Li es la longitud del código utilizado para
representar a dicho mensaje. La longitud promedio de todos los mensajes codificados de la
fuente se puede obtener como:

1. H(L) = 0; P (Sk ) = 1
1
2. H(L) = log2 (k) ↔ P (Sk ) =
k

43
CAPÍTULO 1. MODULACIONES M-ARIAS

1  
X 1
H(L) = P (Sk ) log2
P (Sk )
k=0
   
1 1
= P (S0 ) log2 + P (S1 ) log2
P (S0 ) P (S1 )
   
1 1
= P (S0 ) log2 + (1 − P (S0 )) log2
P (S0 ) P (S1 )
= P (S0 ) log2 (P (S0 )) − (1 − P (S0 )) log2 (1 − P (S0 ))

P1 + P2 = 1
   
1 1
H(L) = P1 log2 + P2 log2
P1 P2
   
1 1
= P1 log2 + (1 − P1 ) log2
P1 1 − P1
= −P1 log2 (P1 ) − (1 − P1 ) log2 (1 − P1 )

∂H(L) 1
= − log2 P1 + log2 (1 − P1 ) = 0 → P1 =
∂P1 2
P1 + P2 + P3 = 1

P3 = 1 − 2P1
   
1 1
H(L) = 2P1 log2 + P3 log2
P1 P3
= −2P1 log2 (P1 ) − (1 − 2P1 ) log2 (1 − 2P1 )

∂H(L) 1 1 −2 1 1
= −2P1 · · − 2 log2 P1 − (1 − 2P1 ) · · + 2 log2 (1 − 2P1 ) = 0 → P1 =
∂P1 P1 ln 2 1 − 2P1 ln 2 3

1.15. Código Morse


El código morse, también conocido como alfabeto morse o clave morse, es un sistema de
representación de letras y números mediante señales emitidas de forma intermitente.

E = ” − ” → Más usado

E = ” − − · −” → Menos usado

44
CAPÍTULO 1. MODULACIONES M-ARIAS

k−1
X
I= P (Sk )Ik → Tamaño promedio del código
i=0

Lmin
η= → Eficiencia de codificación
I
I ≥ Lmin

I ≥ H(L) → Teorema de la codificación


H(L)
η=
I

1.16. Códigos de Huffman


En ciencias de la computación y teorı́a de la información, la codificación Huffman es un
algoritmo usado para compresión de datos. El término se refiere al uso de una tabla de códigos
de longitud variable para codificar un determinado sı́mbolo (como puede ser un carácter en
un archivo), donde la tabla ha sido rellenada de una manera especı́fica basándose en la
probabilidad estimada de aparición de cada posible valor de dicho sı́mbolo. Fue desarrollado
por David A. Huffman mientras era estudiante de doctorado en el MIT, y publicado en A
Method for the Construction of Minimum-Redundancy Codes.
La codificación Huffman usa un método especı́fico para elegir la representación de cada
sı́mbolo, que da lugar a un código prefijo (es decir, la cadena de bits que representa a un
sı́mbolo en particular nunca es prefijo de la cadena de bits de un sı́mbolo distinto) que
representa los caracteres más comunes usando las cadenas de bits más cortas, y viceversa.
Huffman fue capaz de diseñar el método de compresión más eficiente de este tipo: ninguna
representación alternativa de un conjunto de sı́mbolos de entrada produce una salida media
más pequeña cuando las frecuencias de los sı́mbolos coinciden con las usadas para crear el
código. Posteriormente se encontró un método para llevar esto a cabo en un tiempo lineal
si las probabilidades de los sı́mbolos de entrada (también conocidas como ”pesos”) están
ordenadas.

1.16.1. Árbol de Huffman

Si los pesos correspondientes a las entradas (ordenadas alfabéticamente) están en orden


numérico, los códigos de Huffman tienen la misma longitud que los códigos alfabético óptimos,
ası́ que pueden calcularse como estas últimas, haciendo que la codificación Hu-Tucker sea
innecesaria. El código resultante de las entradas (re) ordenadas numéricamente se conoce
como código canónico de Huffman y es el código que normalmente se usa en la práctica, dada
su facilidad para codificar y decodificar. La técnica para encontrar este código se conoce como

45
CAPÍTULO 1. MODULACIONES M-ARIAS

codificación de Huffman-Shannon-Fano, ya que es óptima como la codificación de Huffman,


y alfabética según la probabilidad de los pesos, como la codificación de Shannon-Fano.
De esta manera, el método de codificación de Huffman-Shannon-Fano ira asignando
gradualmente los códigos prefijo más cortos a aquellos sı́mbolos de mayor peso, y los más
largos a los de menor peso. Es Decir, ordenará descendentemente los sı́mbolos según su
peso, luego codificará según el método de Codificación Shannon-Fano, una vez obtenida la
codificación se procede al armado del un Diagrama de flujo que comienza preguntando si el
valor del primer bit del prefijo obtenido para el sı́mbolo buscado es 0, del cual salen las 2
ramas, una para la afirmación y otra para la negación; luego seguirá preguntando para el
segundo bit y derivará, para cada rama, a otra decisión o a un sı́mbolo, según corresponda.

Probabilidad del mayor a menor.

Se codifica los que tienen menos probabilidad primero.

S0 00
S1 10
S2 11
S3 010
S4 011
Tamaño promedio del código
k−1
X
I= P (Sk )Ik = 0,4(2) + 0,2(2) + 0,2(2) + 0,1(3) + 0,1(3) = 2,2 bits
i=0

Entropı́a de la Fuente
 
5
H(L) = 0,4 log2 + 0,4 log2 (5) + 0,2 log2 (10) = 2,12 bits
2
Eficiencia de Codificación
2
η= = 0,9
2,2

46
CAPÍTULO 1. MODULACIONES M-ARIAS

Varianza
σ12 = 0,4(2 − 2,2)2 + 0,4(2 − 2,2)2 + 0,2(3 − 2,2)2 = 0,16

σ1 = 0,4

En el caso de que no se sigan los parámetros antes expuestos se tiene:

S0 1
S1 01
S2 000
S3 0010
S4 0011
Tamaño promedio del código

I = 0,4(1) + 0,2(2) + 0,2(3) + 0,1(4) + 0,1(4) = 2,2 bits

Eficiencia de Codificación
1
η= = 0,45
2,2
Varianza

σ22 = 0,4(1 − 2,2)2 + 0,2(2 − 2,2)2 + 0,2(3 − 2,2)2 + 0,2(4 − 2,2)2 = 1,36

σ2 = 1,166

No realizar los pasos propuestos hace que necesite más potencia.


La codificación aritmética puede considerarse como una generalización de la codificación
de Huffman, de hecho, en la práctica la codificación Aritmética viene precedida por la
codificación de huffman, pues es más fácil encontrar una aritmética para una entrada binaria
que para una no binaria. Por otra parte aunque la codificación de compresión ofrece mejor
rendimiento que la codificación de Huffman, la codificación de Huffman se encuentra todavı́a
en uso generalizado debido a su simplicidad, alta velocidad, y falta de problemas de patentes.

47
CAPÍTULO 1. MODULACIONES M-ARIAS

La codificación de Huffman se utiliza a menudo en algún otro método de compresión. Como


la deflación y códec multimedia como JPEG y MP3 que tienen una cuantificación digital
basada en la codificación de Huffman.

Ejercicio

Dado el siguiente alfabeto hacer la codificación de Huffman, A = 0,1, I = 0,1, L = 0,2, M =


0,1, N = 0,1, O = 0,2, P = 0,1, Y = 0,1

Solución

O 000
L 001
A 010
I 011
M 100
N 101
P 110
Y 111
Tamaño promedio del código

I = 3(10,2 + 0,2 + 0,1 + 0,1 + 0,1 + 0,1 + 0,1 + 0,1) = 3 bits

Eficiencia de Codificación
3
η= =1
3

1.17. Canales Discretos Sin Memoria


En Teorı́a de la Información, la capacidad de un canal de comunicación es la cantidad
máxima de información que puede transportar dicho canal de forma fiable, es decir, con

48
CAPÍTULO 1. MODULACIONES M-ARIAS

una probabilidad de error tan pequeña como se quiera. Normalmente se expresa en bits/s
(bps).

El mensaje a ser transmitido es un proceso estacionario X y el proceso Y es la salida. La


salida Y depende únicamente de la entrada X pero también de la naturaleza del canal. Para
definir la naturaleza del canal se puede hacer la siguiente clasificación:

1. El canal es sin memoria, si el valor de Y depende únicamente del valor presente de X.

2. La entrada X presenta ruido blanco que se expande en todas las frecuencias.

3. El canal es binario (BSC), si las entradas y salidas X, Y solo pueden tomar el valor de
0 y 1.

Matriz de Canal P, Matriz de transición.


 
P (Y0 |X0 ) P (Y1 |X0 ) · · · P (Yk−1 |X0 )
 
 P (Y0 |X1 ) P (Y1 |X1 ) · · · P (Yk−1 |X1 ) 
P=
 
.
.. .. .. 

 . . 

P (Y0 |XJ−1 ) P (Y1 |XJ−1 ) · · · P (Yk−1 |XJ−1 )

1.18. Canal Simétrico Binario

" # " #
P (Y0 |X0 ) P (Y1 |X0 ) 1−p p
P= →
P (Y0 |X1 ) P (Y1 |X1 ) p 1−p

49
CAPÍTULO 1. MODULACIONES M-ARIAS

1.19. Información Mutua

j−1  
X 1
H(H|YYk ) = p(Xj |Yk ) log2
p(Xj |Yk )
i=0

k−1
X
H(H|Y ) = H(Y = Yk )p(Yk )
i=0
j−1
k−1 X  
X 1
= p(Xj |Yk )p(Yk ) log2
p(Xj |Yk )
k=0 j=0
j−1
k−1 X  
X 1
= p(Xj Yk ) log2
p(Xj |Yk )
k=0 j=0

1.19.1. Propiedades
j−1
k−1 X  
X p(Yk |Xj )
1. I(H; Y ) = p(Xj ; Yk )p(Yk ) log2
P (Yk )
k=0 j=0

2. I(H; Y ) ≥ 0

3. I(H; Y ) = H(H) + H(Y ) − H(H, Y )

50
CAPÍTULO 1. MODULACIONES M-ARIAS

Si P (X0 ) = P (X1 )
1 X
1  
X p(yk |xj )
I(H; Y ) = p(xj ; yk )p(Yk ) log2
P (yk )
k=0 j=0
1   X 1  
X p(yk |x0 ) p(yk |x1 )
= p(x0 ; yk ) log2 + p(x1 ; yk ) log2
p(yk ) p(yk )
k=0 k=0
   
p(y0 |x0 ) p(y1 |x0 )
= p(x0 , y0 ) log2 + p(x0 , y1 ) log2 +
p(y0 ) p(y1 )
   
p(y0 |x1 ) p(y1 |x1 )
p(x1 , y0 ) log2 + p(x1 , y1 ) log2
p(y0 ) p(y1 )
   
1−p p
= p(x0 )(1 − p) log2 + p(x0 )p log2 +
p(x0 ) p(x0 )
   
p 1−p
p(x0 )p log2 + p(x0 )(1 − p) log2
p(x0 ) p(x0 )
    
1−p p
= 2p(X0 ) (1 − p) log2 + p log2
p(x0 ) p(x0 )
Como p(x0 ) = 1/2
= (1 − p) log2 [2(1 − p)] + p log2 [2p]
= 1 + (1 − p)log2 [1 − p] + p log2 [p] = C → Capacidad del Canal

Hallar la capacidad del canal de la siguiente figura:

p(y0 ) = p(x0 )(1 − p2 ) + p(x0 )p2 + 2p(x1 )p(1 − p)

p(y0 |x0 ) = p(x0 )[(1 − p)2 + p2 ] = 1 − 2p + 2p2 → (1 − p)0 = 1 − 2p(1 − p)

p(y0 |x1 ) = p(x1 )[p(1 − p) + (1 − p)p] = 2p − 2p2 → p0 = 2p(1 − p)

51
CAPÍTULO 1. MODULACIONES M-ARIAS

p(y1 |x0 ) = p(x0 )[p(1 − p) + (1 − p)p] = 2p − 2p2

p(y1 |x1 ) = p(x1 )[(1 − p)2 + p2 ] = 1 − 2p + 2p2

C = 1 + (1 + 2p(1 − p)) log2 [1 − 2p(1 − p)] + 2p(1 − p) log2 2p(1 − p)


= 1 + (1 − 2p(1 − p)) log2 [1 − 2p(1 − p)] + 2p(1 − p) + 2p(1 − p)[log2 (p) + log2 (1 − p)]
= 1 + 2p − 2p2 + [1 − 2p + 2p2 ] log2 [1 − 2p + 2p2 ] + 2p(1 − p) log2 p + 2p(1 − p) log2 (1 − p)

52
Capı́tulo 2

Teoria de la Codificación del Canal

2.1. Capacidad de Canal

C = maxp(xj) I(H; y)

p(yo ) = p(xo )(1 − p2 ) + p(xo )p2 + 2p(x1 )p(1 − p)

p(yo /xo ) = p(xo )[(1 − p)2 + p2 ] = 1 − 2p + 2p2 → (1 − p)−1 = 1 − 2p(1 − p)

p(yo /x1 ) = p(x1 )[(1 − p) + p(1 − p)] = 2p − 2p2 → p0 = 2p(1 − p)

p(y1 /xo ) = p(xo )[p(1 − p) + p(1 − p)] = 2p − 2p2

p(y1 /x1 ) = p(x1 )[(1 − p)2 + p2 ] = 2p + 2p2

C = 1 + (1 − 2p(1 − p)) log2 [1 − 2p(1 − p)] + 2p(1 − p) log2 [2p(1 − p)]

C = 1 + (1 − 2p(1 − p)) log2 [1 − 2p(1 − p)] + 2p(1 − p) + 2p(1 − p)[log2 p + log2 (1 − p)]

C = 1 + 2p − 2p2 + [1 + 2p − 2p2 ] log2 [1 + 2p − 2p2 ] + 2p(1 − p) log2 p + 2p(1 − p) log2 (1 − p)

53
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

2.2. Teorı́a de la codificación de Canal


Fuente de información → Codificación de Canal → Canal → Decodificador → Destino

H(Z) C

Ts Tc
Dónde:

C:Tasa critica

Tc : Tiempo de utilización

Tc
R= R≤C
Ts

2.2.1. Entropı́a diferencial e Información

Z ∞  
1
h(x) = f x(x) log2 dx
−∞ f x(x)

∞  
X 1
H(x) = lı́m f x(x)∆x log2
∆x→0 f x(x)
k=−∞
" ∞   #
X 1
= lı́m f x(x) log2 ∆x
∆x→0 f x(x)
k=−∞

" #
X
− lı́m log2 ∆x f x(x)∆x
∆x→0
k=−∞
= h(x) − lı́m log2 ∆x
∆x→0

Z a
1
h(x) = log2 [a]dx
−a a
1
= log2 [a] · a
a
= log2 [a]

2.2.2. Diferencial Fundamental

k−1  
X qk
PR log2 ≤0
pk
k=0

Sean X1 Y v.a → fy (x)fx (y)

54
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

Z ∞ 
f x(x)
fy (x) log2 dx ≤ 0
−∞ f y(x)
Z ∞ Z ∞
fy (x) log2 f y(x)dx ≤ − fy (x) log2 f x(x)dx
−∞ −∞
Z ∞
h(y) ≤ − fy (x) log2 f x(x)dx
−∞
Z ∞
(x − µ)2
√ 
h(y) ≤ − log2 e fy (x) − 2
− log2 2πσ dx
−∞ 2σ 2
1
h(y) ≤ log2 (2πeσ 2 )
2
1
h(a) = 2 log2 (2πeσ 2 ) → Cuando se tiene una función Gaussiana

2.2.3. Información Mutua

Z ∞ Z ∞  
f x(x|y)
I(x; y) = fxy (x; y) log2 dx
−∞ −∞ f x(x)
I(x; y) = I(y; x)

I(x; y) ≥ 0

I(x; y) = h(x) − h(x|y) = h(x) − h(y|x)

2.2.4. Entropı́a diferencial condicional

Z ∞ Z ∞  
1
h(x|y) = fxy (x; y) log2 dx
−∞ −∞ f x(x|y)
No
AWGN → ;0
2

No
σ2 = · 2B = No · B
2

55
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

E = [x2k ] = P ; k = 1, 2, 3, ...

C = maxf x(x) {I(xk |yk )E[x2k ] = P }

I(xk |yk ) = h(yk ) − h(yk |xk )

I(xk |yk ) = h(yk ) − h(Nk )

Dónde:

1
h(yk ) = log2 [2πe(P + σ 2 )]
2
1
h(Nk ) = log2 [2πeσ 2 ]
2
 
1 P
C = log2 1 + 2
2 σ
C = B log2 (1 + SN R)

Ejercicio
Un canal tienen un ancho de banda = 3.4 kHz

1. Calcule la capacidad de información del canal para una relación de S/N = 30 dB

2. SNR mı́nimo que se requiere para soportar la Tx de información a través de un canal


de 9600 bp/s

C = 3,4x103 log2 (1 + 103 ) = 33,88bps

9600 = 3,4103 log2 (1 + SN R)

SN R = 7,88dB → Máximo

4800 = 3,4103 log2 (1 + SN R)

SN R = 2,2dB → Mı́nimo

Ejercicio

Una imagen de TV en blanco y negro puede considerarse como si estuviera compuesta


aproximadamente 3x105 elementos, cada uno de los cuales quizas ocupe 1 de 10 niveles
distintos de brillantes con igual probabilidad. Suponga que:

56
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

1. Velocidad de Tx a 30 cuadros de imag / s

2. SNR, corresponde a 30dB. Calcule el ancho de banda mı́nimo para soportar la calidad
de vı́deo resultante

img 3x105 elem b


80 · = 90x105 · 3,33 = 29,88M bps
s 1img s s

29,88x106
B= = 2,99M Hz(M ax) → 1,49M Hz(M in)
log2 (1 + 1000)
SN R = 30dB

Determinar la h de v.a x y funcion de densidad de probabilidad

P (x = k) = p(1 − p)k−1 , k = 1, 2, 3, ..

∞  
X
k−1 1
h(x) = p(1 − p) log2
(1 − p)k−1
k=1
X∞
= − p(1 − p)k−1 log2 ((1 − p)k−1 )
k=1

X
= − p(1 − p)k−1 (log2 p + (k − 1) log2 (1 − p))
k=1

X ∞
X
k−1
= −p log2 p p(1 − p) − p log2 p(1 − p) p(1 − p)k−1 (k − 1)
k=1 k=1
= − log2 p − (1 − p) log2 (1 − p)

1 −|x|/λ
f x(x) = e ,λ > 0

Z ∞  
1 −|x|/λ 1 −|x|/λ
h(x) = − e log2 e dx
−∞ 2λ 2λ
Z 0   Z ∞  
1 −|x|/λ 1 −|x|/λ 1 −|x|/λ 1 −|x|/λ
= − e log2 e dx − e log2 e dx
−∞ 2λ 2λ 0 2λ 2λ
Z 0  Z ∞  
1 x x/λ x/λ
 x x/λ x/λ
= − e − e ln(2λ) dx − e − e ln(2λ) dx
2λln(2) −∞ λ 0 λ
1
= − [λ − ln(2λ) + λ + ln(2λ)]
2λln(2)
log2 2λ
=

57
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

AWGN
mn = 0; σn2 = 1
w0
. Lxx =
2
Coloreado
Se coloca un filtro en la región de interés
Es limitado en banda

SN (t)
SN 0 (f ) =
|H(f )|2
Respuesta en magnitud del canal
Lk = xk (t) + nk (t); k = 1, 2, 3, · · · N
Para conocer el canal → Primera potencia

Pk = Sx (fk )δf

Sn (f )
σ2 = · δf
|H(f )|2

1  pk 
Ck = (δf ) log2 1 + 2 ; k = 1, 2, ..., N
2 σ

58
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

N  
1X pk
Ck ≈ (δf ) log2 1 + 2
2 σk
k=1
Umbral→ punto medio para cada canal
λ → valores propios de la matriz del canal

σ2
u= al final todos transmiten al mismo canal
λ
1 ∞ |H(f )|2
Z  
C= log2 k df
2 −∞ SN (t)
pk + σk2 = kδf

Matemáticamente funciona, no se conoce caracterı́sticas del canal

2.3. Codificación de Canal

Detección de errores

Corrección de errores

Insertar bits de redundancia

Errores de ráfaga: si hay un error se va todo un segmento

FEC: Foward Error Correction


ARQ: Aknowlege Request to Send

59
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

Módulo 2
0+0=0
0+1=1
1+0=1
1+1=0
n-k k
b0 b1 bn−k−1 m0 m1 mk−1
paridad mensaje
| {z }

2.3.1. Códigos de lı́nea

m = [m0 , m1 , · · · , mk−1 ]
b = [b0 , b1 , · · · , bn−k−1 ]

c = [c0 , c1 , · · · , cn−1 ]

b = mP

 
P P01 P0n−k−1
 00 
 
P =
 

 
 
Pk−10 Pk−1,n−k−1

 
..
c = b.m
 
..
c = m P .Ik
 
..
G = P .Ik

C = m · G → Trasmisión

H → MAtriz de verificacion de paridad


.
H = [I n−k ..P T ]

60
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

 
PT
.
H · GT = [I n−k ..P T ] 
 
...
 

Tk

cH T = mGH T = 0

. .
G = [1111..1] = [Pk,n−k ..k]

 .. 
1 0 0 0 . 1
..
 
 
0 1 0 0 . 1
H=
 ..


0 0 1 0 . 1
 
.
0 0 0 1 .. 1
Cuando se produce un error se genera un Sindrome

S = rH T ; r = c + e

S = [c + e]H T = eH T

Por lo que el sı́ndrome depende del error.

Distancias entre códigos

Distancia de Hamming
Peso de Hamming → Numero de elementos 6= 0 . n Ej: C1 = 01010100 → n =
9, ones = 3 . n Distancia de Hamming → Distancia mas pequeña entre cualquier
par de vectores de codigo en el codigo . n Ej: C2 = 010111011 → n = 9, ones = 6

dmin(C1 , C2 ) = min(6, 3) = 3

Concepto de t → Se tiene (n,k) → capacidad de corregir, siendo t la capacidad de los que


puede corregir

61
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

1
t ≤ [ (dmin − 1)] = 1
2
Código de Hamming
Hamming (7,4)

n = 24 − 1

k = 2n − m − 1

n−k =m

 . 
1 1 0 .. 1 0 0 0
.
 
0 1 1 .. 0
 
1 0 0
G=

.

1 1 1 .. 0

 0 1 0

.
1 0 1 .. 0 0 0 1
Hamming (n,k)
Caracterı́stica del código Hamming dmin = 3 → puede detectar 3 errores y corregir 1.
 
0 0 0 0
 
0 0 0 1
 
 
0 0 1 0
 
0 0 1 1
 
 
0 1 0 0
 
 
0 1 0 1
 
0 1 1 0
 
 
0 1 1 1
m=
 

1 0 0 0
 
1 0 0 1
 
 
1 0 1 0
 
 
1 0 1 1
 
 
1 1 0 0
 
1 1 0 1
 
 
1 1 1 0
 
1 1 1 1

62
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

   
0 0 0 0 0 0 0 0 0 0 0
   
0 0 0 1 1 0 1 0 00 1
   
   
0 0 1 0 1 1 1 0 0 1 0
   
0 0 1 1 0 1 0 0 0 1 1
   
   
0 1 0 0 0 1 1 0 10 0 
   
   
0 1 0 1
  . 1
  1 0 0 1 0 1
1 0 .. 1
 
0 1 1 0 1 0 0 0 1 0 0 0 1 1 0
   
 
.
1 1 .. 0
     
0 1 1 1 0 1 0 0 0 0 1 0 1 1 1
 
c=mG= · =
 
.   
1 0 0 0 1 1 .. 0 1 1 0 1 0 0 0

  1 0 1 0
  
  .
1 0 0 1 0 1 1 1 0 0 1
  
  1 0 1 .. 0 0 0 1  
1 0 1 0 0 0 1 1 0 1 0
   
   
1 0 1 1 1 0 0 1 0 1 1
   
   
1 1 0 0 1 0 1 1 1 0 0
   
1 1 0 1 0 0 0 1 1 0 1
   
   
1 1 1 0 0 1 0 1 1 1 0
   
1 1 1 1 1 1 1 1 1 1 1

 
1 0 0 1 0 1 1
 
H=
0 1 0 1 1 1 0

0 0 1 0 1 1 1
Al recibir el código 1110010
 
1 0 0
 
0 1 0
 
 
0 0 1
 h i h i
H T = 1 1 0 1 1 1 0 0 1 0 = 0 0 0
 
 
0 1 1
 
 
1 1 1
 
1 0 1
Dónde se comprueban que no existen errores.
h i
Con el código 1100010 se obtiene 001 se puede obtener el error

63
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

....
 
0 0 0 .. 0 0 0 0 0 0 0

1 .... 
 0 0 .. 1 0 0 0 0 0 0


0 .... 
 1 0 .. 0 1 0 0 0 0 0


0 .... 
 0 1 .. 0 0 1 0 0 0 0


1 .... 
 1 0 .. 0 0 0 1 0 0 0

 .... 
0 1 1 .. 0 0 0 0 1 0 0
 
 .... 
1 1 1 .. 0 0 0 0 0 1 0
 
....
 
1 0 1 .. 0 0 0 0 0 0 1

c = r + Pe

h i h i
c= 1 1 1 0 0 1 0 + 0 0 0 0 0 0 0

h i h i
c= 1 1 0 0 0 1 0 + 0 0 1 0 0 0 0

GH T = 0

2.3.2. Códigos Cı́clicos

Propiedades

1. Linealidad.- La suma de cualesquiera de dos palabras de código en el código es también


es una palabra de código.

64
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

2. Cualquier corrimiento cı́clico de una palabra de código en el código también es una


palabra de código.

C(x) = (Co + C1 x + C2 x2 + ... + +Cn−1 xn−1 )xP

xi C(x) = Co xi + C1 xi+1 + C2 xi+2 + ... + +Cn−1 xn−1+i

C(x) = q(x)g(x)

Polinomio generador → xn + 1

g(x) → grado → n/k/xn + 1


n−k+1
X
g(x) = 1 + gi xi + xn−k
i=1

c(x) = a(x)g(x)

b0 b1 bn−k−1 m0 m1 mk−1
paridad mensaje
| {z }
. n

m(x) = mo + m1 x + ... + mk−1 xk−1

b(x) = bo + b1 x + ... + bn−k−1 xn−k−1

C(x) = b(x) + xn−k−1 m(x)

a(x)g(x) = b(x) + xn−k−1 m(x)

xn−k−1 m(x) b(x)


= a(x) ·
g(x) g(x)
Pasos para generar:

1 Multiplicar al polinomio del mensaje m(x) por xn−k .

2 Se divide xn−k ∗ m(x) entre el polinomio g(x).

3 c(x) = b(x) + xn−k ∗ m(x)

65
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

Ejemplo

x7 + 1 = (x + 1)(1 + x2 + x3 )(1 + x + x3 )

g(x) = 1 + x + x3

(7; 4) → n − k = 3

1001 → m(x) = 1 + x3

xn−k m(x) = xn−k + xn−k+3 = (x3 + x6 )/(1 + x + x3 )

b = x + x2 ; c(x) = b(x) + xn−k m(x) = [0111001]

n−k−1
X
g(x) = 1 + gi xi + xn−k
i=1
n−k−1
X
h(x) = 1 + hi x i + x k
i=1

x + 1 = (1 + x)(1 + x + x2 )

h(x) = 1 + x + x2 + x4

g(x) = 1 + x + x3

xg(x) = x + x2 + x4

x2 g(x) = x2 + x3 + x5

x3 g(x) = x3 + x4 + x6

Matriz Sistematica
 
1 1 0 1 0 0 0
 
0 1 1 0 1 0 0
0

G =


0 0 1 1 0 1 0
 
0 0 0 1 1 0 1
Se suma la fila F2, el primer mas tercer reglón.
Se suma las dos primeras filas y eso a la cuarta

66
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

 
1 1 0 1 0 0 0
 
0 1 1 0 1 0 0
0

G =


1 1 1 0 0 1 0
 
1 0 1 0 0 0 1
Se obtiene la Matriz no Sistematica

2.3.3. Verificación de Paridad

Tener igual caracterı́sticas.

k−1
X
h(x) = hi ∗ x i + x k
i=1

g(x)h(x)mod(xn + 1) = 0
g(x)h(x) = xn + 1

x4 h(x−1 ) = x4 + x3 + x2 + 1

x5 h(x−1 ) = x5 + x4 + x3 + x

x6 h(x−1 ) = x6 + x5 + x4 + x2

r(x) = c(x) + e(x)

e(x) = c(x) + r(x)

e(x) = µ(x)g(x) + r(x)

67
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

µ(x) = a(x) + q(x)

Ejemplo
Considérese el código de Hamming (7;4) definido por g(x) = 1 + x + x2 la palabra codigo
0111001 se envı́a por un canal ruidoso produciendo la palabra recibida 0101001, que tiene un
solo error. Determine el polinomio sindrome S(i) de la palabra recibida y demuestre que es
identico al polinomio del error.

0101001 → x + x3 + x6

x + x3 + x6
= x3 + x Residuo = x2 = S(x)
1 + x + x3

e(x) = r(x) + c(x)

e(x) = x + x2 + x3 + x6 + x + x3 + x6

e(x) = x2

S(x): El sindrome de un polinomio de la palabra recibida es igual al sindrome del polinomio


error.

2.3.4. Códigos de longitud máxima

Longitud del bloque n = 2m − 1

Número de bits del mensaje b = m

Número de paridad dmin = 2m − 1

1 + x2
g(x) =
h(x)
Hamming dmin = 3
Verificación de redundancia (CRC)
CRC 12 Polinomio Generador 1 + x + x2 + x3 + x11 + x12 donde; n − k = 12
CRC 16 Polinomio Generador 1 + x2 + x15 + x16 donde; n − k = 16
CRC TTU Polinomio Generador 1 + x5 + x12 + x16 donde; n − k = 16

68
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

Errores que pueden identificar los CRC:

Todas las ráfagas de errores de longitud n − k o inferiores.

Una fracción de ráfagas de errores de longitud igual a n − k + 1, la fracción es igual a


1 − 2−(n−k−1) .

Una fracción de ráfagas de errores de longitud mayor a n − k + 1, la fracción es igual a


1 − 2−(n−k−1) .

Todas las combinaciones de la dmin − 1 o menores de errores.

Todos los patrones de errores con números impar de errores si el polinomio generador
g(x) para el código tiene un numero par de coeficientes distinto de cero.

2.3.5. Códigos Convolucionales

En las transmisiones digitales actuales la codificación es un proceso muy elaborado, con un


diagrama de bloques general que mostramos en la siguiente figura.

Este sistema contiene dos codificadores propiamente dichos: uno exterior de bloques, y
uno interior convolucional. Estos dos codificadores introducen redundancia en los datos con
objeto de poder detectar o corregir errores de transmisión. El sistema contiene además dos
entrelazados cuyo objetivo es hacer que bloques correlativos de bits no se transmitan juntos.
Este es el esquema de codificación empleado en la televisión digital DVB (Digital Video
Bradcasting). El esquema de codificación utilizado en la telefonı́a móvil GSM es similar, pues
usa un codificador de bloques, un codificador convolucional y un entrelazado.
Los códigos convolucionales son adecuados para usar sobre canales con mucho ruido (alta

69
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

probabilidad de error). Los códigos convolucionales son códigos lineales, donde la suma de
dos palabras de código cualesquiera también es una palabra de código. Y al contrario que
con los códigos lineales, se prefieren los códigos no sistemáticos. El sistema tiene memoria: la
codificación actual depende de los datos que se envı́an ahora y que se enviaron en el pasado.
Un código convolucional queda especificado por tres parámetros (n,k,m):
n es el número de bits de la palabra codificada
k es el número de bits de la palabra de datos
m es la memoria del código o longitud restringida
La codificación convolucional es una codificación continua en la que la secuencia de bits
codificada depende de los bits previos. El codificador consta de un registro de desplazamiento
de K segmentos de longitud k (en total kK) que se desplaza k posiciones por ciclo y genera
n funciones EXOR también por ciclo. La tasa de codificación es, entonces, R=k/n.

Códigos que proveen correción de errores

Aparece el concepto el concepto de Tasa de codificación

L bits
r=
n(L + M simbolo

1 bits
L≥M →r=
n simbolo
Existen 4 formas de representación:

1. Diagrama de bloques

2. Diagrama de estados

3. Diagrama de árbol

4. Diagrama de enramado

Ejercicio Considere el codificador de la figura, el cual tiene dos trayectorias numeradas 1 y


2 para una referencia conveniente.

70
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

La respuesta al impulso de la trayectoria 1 es (1,1,1) por lo tanto

g1 (x) = 1 + x + x2

La respuesta al impulso de la trayectoria 2 es (1,0,1). De este modo el polinomio generador

correspondiente se define mediante:

g2 (x) = 1 + x2

Para la secuencia de mensaje (10011), tenemos la representación Entrada: 1 + x3 + x4

Salida: Como con la transformada de Fourier, la convolución en el dominio del tiempo se


transforma en multiplicación en el dominio D. De esa manera, el polinomio de salida de la
trayectoria 1 está dado por:

(1 + x3 + x4 )(1 + x + x2 ) = 1 + x + x2 + x3 + x6

(1 + x3 + x4 )(1 + x2 ) = 1 + x2 + x3 + x4 + x5 + x6

A partir de esto deducimos de inmediato que la secuencia de salida de la trayectoria 1 es


(1111001).
La secuencia de la salida de la trayectoria 2 es entonces (1011111).
Por ultimo, al multiplezar las dos secuencias de salida de las trayectorias 1 y2, obetendremos
la secuencia codificada.

R{(1, 1)(1, 0)(1, 1)(1, 1)(0, 1)(0, 1)(1, 1)}

Representación Mediante Máquinas Secuanciales Finitas

71
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

Las máquinas de estados finitos suelen denominarse máquinas secuenciales ya que a partir de
un estado inicial y de una secuencia ordenada de eventos de entrada, generan una secuencia
de estados por los que pasa la máquina, y a su vez una secuencia de acciones de salida.
Las máquinas secuenciales son un poderoso modelo para implementar esquemas de control
secuencial (dependientes de la historia pasada), tanto en hardware como en software. El
modelo de máquina secuencial también facilita el diseño de la programación de sistemas
multitareas, en tiempo real, utilizando microcontroladores. El modelo de máquina secuencial
se emplea en Teorı́a de lenguajes formales y tiene importantes aplicaciones en reconocimiento
de patrones y analizadores léxicos y sintácticos, por mencionar algunas.

Tabla de Estados Información equivalente al diagrama de estados en forma de tabla de


doble entrada (filas y columnas)
Posibles estados en filas.
Posibles valores de entradas en columnas.
Próximo estado y salida en cada celda.
Cada nodo del diagrama y los arcos que salen de él se corresponden a una fila de la tabla de
estados. Pasar del diagrama de estados a la tabla de estados y viceversa es inmediato.

A B µ A’ B’ g1 g2
0 0 0 0 0 0 0
0 0 1 1 0 1 1
0 1 0 0 0 1 1
0 1 1 1 0 0 0
1 0 0 0 1 1 0
1 0 1 1 1 0 1
1 1 0 0 1 0 1
1 1 1 1 1 1 0

Encoder Diagrama de Estados

72
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

Información equivalente al diagrama de estados en forma de tabla de doble entrada (filas y


columnas)
Posibles estados en filas.
Posibles valores de entradas en columnas.
Salida asociada al estado en la última columna (opcionalmente misma salida para cada
entrada al estilo Mealy). Cada nodo del diagrama y los arcos que salen de él se corresponden
a una fila de la tabla de estados.
Pasar del diagrama de estados a la tabla de estados y viceversa es inmediato.

Un codificador convolucional tiene un registro de corrimiento sencillo con 2 etapas (es decir
longitud de restricción k = 3), 3 sumadores módulo 2 y un multiplexor de salida, las secuencias
del generador del codificador son:

g1 = [1, 0, 1]

g2 = [1, 1, 0]

g3 = [1, 1, 1]

73
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

Dibuje el diagrama de bloques del codificador y realice el diagrama de estados.

Figura 2.1: Diagrama para el ejercicio

A B µ A’ B’ g1 g2 g3
0 0 0 0 0 0 0 0
0 0 1 1 0 1 1 1
0 1 0 0 0 1 0 1
0 1 1 1 0 0 1 0
1 0 0 0 1 0 1 1
1 0 1 1 1 1 0 0
1 1 0 0 1 1 1 0
1 1 1 1 1 0 0 1

Ejercicio
En la figura se muestra el codificador para un código convolucional de tasa 1/2, longitud de
restricción k = 4. Determine la salida del codificador producida por la secuencia del mensaje:
10111.

g1 (x) = 1 + x + x2 + x3

g2 (x) = 1x + x3

m(x) = 1 + x2 + x3 + x4 + ...

c1 (x) = m(x) · g1 (x)

74
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

Figura 2.2: Diagrama para el ejercicio

c1 (x) = (1 + x2 + x3 + x4 + ...) · (1 + x + x2 + x3 )

c1 (x) = 1 + x + x3 + x4 + x5 + x7 + ...

c2 (x) = m(x) · g2 (x)

c1 (x) = (1 + x2 + x3 + x4 + ...) · (1x + x3 )

c2 (x) = 1 + x + x2 + x3 + x6 + x7 + ...

cT = {11; 11; 01; 11; 10; 10; 01; 11; · · · }

75
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

Este se puede comprobar a través de la siguiente tabla y con las siguientes especificaciones:

A0 = µ

B0 = A

C0 = B

g1 = µ + A + B + C

g2 = µ + A + C

A B C µ A’ B’ C’ g1 g2
0 0 0 0 0 0 0 0 0
0 0 0 1 1 0 0 1 1
1 0 0 0 0 1 0 1 1
0 1 0 1 1 0 1 0 1
1 0 1 1 1 1 0 1 1
1 1 0 1 1 1 1 1 0

Cuadro 2.1: Tabla de estados

Ejercicio Considere el codificador convolucional de tasa 2/3 como se muestra en la figura,


este codificador tiene k = 2 bits, y la salida del codificador N = 8, realice el diagrama de
estados y el de enramado.

g1 = µ1 + A + B

76
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

g2 = µ1 + µ2 + B

g 3 = µ1 + A

A B µ1 µ2 A’ B’ g1 g2 g3
0 0 0 0 0 0 0 0 0
0 0 0 1 0 1 0 1 0
0 0 1 0 1 0 1 1 1
0 0 1 1 1 1 1 0 1
0 1 0 0 0 0 1 1 0
0 1 0 1 0 1 1 0 0
0 1 1 0 1 0 0 0 1
0 1 1 1 1 1 0 1 1
1 0 0 0 0 0 1 0 1
1 0 0 1 0 1 1 1 1
1 0 1 0 1 0 0 1 0
1 0 1 1 1 1 0 0 0
1 1 0 0 0 0 0 1 0
1 1 0 1 0 1 0 0 0
1 1 1 0 1 0 1 0 1
1 1 1 1 1 1 1 1 1

Cuadro 2.2: Tabla de estados

Ejercicio

77
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

g1 = x + x2

g2 = 1 + x

g3 = 1 + x + x2

78
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

µ = 1011

79
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

2.4. Cuantificación
La cuantificación se encarga de convertir una sucesión de muestras de una determinada señal
análogica con amplitud continua en una sucesión de valores discretos, preestablecidos según
el código utilizado.
Durante el proceso de cuantificación se mide el nivel de tensión de cada una de las muestras,
obtenidas en el proceso de muestreo, y se les atribuye un valor finito (discreto) de amplitud,
seleccionado por aproximación dentro de un margen de niveles previamente fijado.
Los valores preestablecidos para ajustar la cuantificación se eligen en función de la propia
resolución que utilice el código empleado durante la codificación. Si el nivel obtenido no
coincide exactamente con ninguno, se toma como valor el inferior más próximo.

Cuantificadores

Los cuantificadores son sı́mbolos utilizados para indicar cuántos o qué tipo de elementos de
un conjunto dado cumplen con cierta propiedad (por ejemplo, pertenencia, equivalencia u
orden). Existen muchos tipos de cuantificadores, entre los más utilizados están:

80
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

Uniformes

Logarı́tmicos

Adaptativos

Diferenciales

Vectoriales

Proceso no lineal: x
b(n) = Q[x(n)]; x(n) está discretizado.
∆: Paso de cuantificaión; cambio valores de voltaje.
2Xm → Voltaje pico-pico.

2Xm
∆=
2#

81
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

Siendo # el número de bits que uso para cuantificar.


Ejemplo: Si Vpp = 5v ⇒

2(5)
∆= = 19,53mV
28

Intervalo del error de cuantificación: −∆/2 ≤ e(n) ≤ ∆/2

e(n) = x(n) − x
b(n)

∆2
Ruido de cuantificación: → σe2 = 12

Figura 2.3: Ruido de cuantificación

σe2 = E[x2 ] − m2x

Z ∞
E[x] = xfx (x)dx
−∞

Z ∞
2
E[x ] = x2 fx (x)dx
−∞

Z ∆/2
1 2
E[x2 ] = x dx
−∆/2 ∆

1 ∆3
E[x2 ] = dx
∆ 12

82
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

∆2
E[x2 ] =
12

Cuantificador Logarı́tmico:
Usa la Ley µ más un codificador uniforme.

Cuantificadores Adaptativos:
Los cuantificadores adaptativos son aquellos en los que la librerı́a de códigos varia a lo largo
del tiempo (o de las variables independientes existentes) para adecuarse a la estadı́stica local
observada a la entrada. Por otro lado hay cuantificadores que unen estos conceptos con los
esquemas de la cuantificación estrecha, de forma que existen cuantificadores en los que se
van adaptando las medias, o las ganancias, etc.

Ya no es uniforme.

Usan estocásticos.

Ejemplo:
5 min→ fs = 44100 Hz→ 16 bits, estéreo.
5min · 60seg · 44100Hz · 16bits · 2
= 50,46M bytes
1min · 8 · 1024 · 1024

Proceso para cuantificar:

Tener la fuente de información.

Medidas.

Procesamiento.

Transformación.

Extracción de información.

83
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

2.4.1. Corrección de errores en un canal uniforme

El control de errores mediante codificación de canal:

Códigos de bloque.
Códigos convolucionales.
Códigos combinados.

implica
Una reducción en la relación SN requerida o Ganancia de Codificación Gc (dB).
Un incremento del ancho de banda (por tasa binaria) o Se incrementa (a igualdad de sistema
de modulación) por un factor de Rc.
Todo esto es aplicable en sistemas con suficiente ancho de banda (comunicaciones espaciales)
pero no es sistemas con ancho de banda restringido (lı́nea telefónica).

y(n) = x(n) − 0,5x(n − 1)


1
Y (z) = X(z) − z −1 X(z)
2
 
1 −1
Y (z) = X(z) 1 − z
2
Y (z) 1
H(z) = = 1 − z −1
X(z) 2
Filtros FIR son estables y se los usa en el campo de las telecomunicaciones.

2 − z −1 = 0

2 = z −1
1
=2
z
1
z=
2

84
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

Si se realiza el proceso inverso:


1
1 − 12 z −1
1
2−z −1
2
2
2 − z −1

y[n] = x[n] − 0,5x[n − 1]

Función de cuantificación
Q(y[n]) = Q(x[n]) − Q(0,5x[n − 1])
b[n] − (0,5b
yb[n] = x x[n − 1] − ηm [n])

MSE→ Error cuadrático medio→ E[e2 [n]]


∆y[n] = y[n] − yb[n]
E[∆2 y[n]] = E[{y[n] − yb[n]}2 ]
x[n] − 0,5x[n − 1] − x x[n − 1] − ηm [n]
b[n] + 0,5b

∆x[n] − 0,5∆x[n − 1] − ηm [n]

E[∆2 y[n]] = E[(∆x[n] − 0,5∆x[n − 1] − ηm [n])2 ]


= E ∆2 x[n] + 0,52 ∆2 x[n − 1] + ηm
2 [n] − ∆x[n]∆x[n − 1] − 2∆x[n]η [n] + ∆x[n − 1]η [n]
 
m m

= E[∆2 x[n]] − E[∆x[n]∆x[n − 1]] − 2E[∆x[n]ηm [n]] + 0,25E[∆2 x[n − 1]] + E[∆x[n − 1]ηm [n]]
≈ 1,25E[∆2 x[n]] − 2E[∆x[n]ηm [n]] + E[∆x[n − 1]ηm [n]] + E[ηm
2 [n]]

≈ 1,25E[∆2 x[n]] + E[ηm


2 [n]]

≈ 2,25E[∆2 x[n]] → 2,861 × 10−6

En simulación → 3,5 × 10−6

Ejercicio
Dado una forma de onda analógica que ha sido muestreada a una frecuencia de Nyquist fs
usando muestreo natural. Pruebe que una forma de onda proporcionada a la forma de onda

85
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

original puede ser recuperada de las muestras usando las técnicas de recuperación mostradas
en la figura, el parámetro MFS es la frecuencia de oscilador local donde M es un entero.

X0 (t) = X(t) + Xp (t)


1
X
C0 (t) =
m=−∞

X0 (t) = X(t) + Xp (t)


( ∞ )
X
X0 (t) = X(t) Cm ∗ ej2πmfs t
m=−∞


( )
X
X0 (t) = X(t) C0 Cm cos(2πfs mt)
m=1

X1 (t) = X(t) cos(2πfs mt)


 
 ∞
X 
X1 (t) = X(t) cos(2πmfs t)2 + Cn cos(2πfs nt) cos(2πfs mt) + 2Cm cos2 (2πmfs t)
 
n=−1,m6=n

86
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

1 1

X0 (t) = X(t) 2Cm 2 + 2 ∗ cos(4πfs t)

X0 (t) = Cm X(t)

Ejercicio
Una forma de onda X(t) = 10 cos(1000t+ π3 )+20 cos(2000+ π6 ) es uniformemente muestreada
para una transmisión digital.

1. ¿Cuál es la máxima separación entre las muestras para que exista una reconstrucción
perfecta?

2. Si se desea reproducir una hora esta forma de onda ¿cuánta capacidad en disco se
requiere?

X(t) = 10 cos(1000t + π3 ) + 20 cos(2000 + π6 )


2000 1000
1. f = 2π = π = 318, 31Hz ≈ 320
f = 1000 500
2π = π = 159, 24Hz ≈ 160
1000
fm = 2π∗(2) = 636, 62Hz ≈ 640
1
maximaseparacion = 640 = 1, 5625ms
60min∗60seg∗640∗8bits
2. 8bits(1024)(1024) = 2, 19M bytes
Si se usa un canal stereo se multiplica por 2

Ejercicio
Un conversor lineal de analógica a digital de 16 bits está operando sobre un rango de ±5.

1. Determine el paso del cuantificador.

2. Determine el ruido de cuantificación y el ruido RMS de cuantificación con el voltaje

16bits ± 5V

2Xm 2(5)
1. S = 2n = 216
= 0, 1526mV

2
∆2
2. σc2 = = (0,15mV
12 12
)
= 1, 94 ∗ 10−9
q
2 −6
2
σRM S = ∆ √∆
12 = 12 = 44, 05 ∗ 10
2
σRM S : respecto a la media

87
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

Ejercicio
Considere un cuantificador de tres niveles, cuyo funcionamiento se indica en la figura, suponga
que la entrada x al cuantificador es una variable aleatoria uniforme en el intervalo (-1,1),
determine el valor del parámetro a de manera a minimizar el error cuadrático medio producido
por el error de cuantificación.

1 1 1
f x(x) = = =
b−a 1 − (−1) 2
e = x − Q(x)
E[e2 ] = E[(x − Q(x))2 ]
R∞
E(e2 ) = −∞ x2 f x(x)dx
1 R −1/2 1 R 1/2 1 R1
= −1 (x + a)2 dx + −1/2 (x)2 dx + (x − a)2 dx
2 2 2 1/2
1 x3 −1/2 1 x3 1/2 1 x3
= [ + ax2 + a2 x]−1 + [ ]−1/2 + [ − ax2 + a2 x]11/2
2 3 2 3 2 3
1 1 1 a a 2 1 1 1 a a2 1
= [ − a + a2 − + − + + − + − + − a + a2 ]
2 3 24 4 2 24 24 24 4 2 3
1 2 a 2 1 2 3a 2 1 3a a2
= [ + + a − 2a] = [ − +a ]= − +
2 3 2 2 3 2 3 4 2
3 3
a− =0⇒a=
4 4
Ejercicio
Un conversor de 10 bits con ley µ opera sobre una escala de ±5V . Si µ = 100 determine la
salida del cuantificador si la entrada 5V de una senal sinusoidal.

10bits

Ymax = 5V

µ = 100

|X| = 5

Ley µ

88
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL

Y = Ymax ln[1+µ(|X|)]
ln(1+µ) sgn(X)

sgn(X) es positivo, que indica que la entrada es de 5V

Y = 5 ln[1+100(|5|)]
ln(1+10)

Y = 6, 73V

Ejercicio
Un filtro lineal es diseñado como un predictor final con 2 tabs o coeficientes de filtro, para
b(n) = a1 x(n − 1) + a2 x(n − 2).
operar en un sistema DPSM, el predictor tiene la forma x
Determine los valores de a1 y a2 de manera de minimizar el error cuadrático medio de la
predicción.

b(n) = a1 x(n − 1) + a2 x(n − 2)


x
e2 (n) = [x(n) − a1 x(n − 1) + a2 x(n − 2)]2
E[e2 (n)] = σe2 = R(0)[1 + a21 + a22 ] + R(1)2a1 a2 − R(1)2a1 − R(2)2a2
R(0)R(1) − R(1)R(2)
aopt
1 =
R2 (0) − R2 (1)
R(0)R(2) − R(1)R(1)
aopt
2 =
R2 (0) − R2 (1)
R(1) R(2)
Entonces C(1) = y C(2) =
R(0) R(0)
opt C(1) − C(1)C(2)
a1 =
1 − C 2 (1)
C(2) − C 2 (1)
aopt
2 =
1 − C 2 (1)

89
Capı́tulo 3

Tercer Parcial

3.1. Ecualización de Canal

Filtros adaptativos: Coeficientes se adaptan a las condiciones del problema.

LMS

NLMS

Se trabajan como filtros FIR, varias aplicaciones en donde se pueden aplicar son en Realce
de Señales

90
CAPÍTULO 3. TERCER PARCIAL

3.2. Matriz de auto correlación

R = E[X(k)XH (k)]

Donde:  
x0 (k)
 
 x1 (k)  h i
X(k) =  ; XH (k) = x∗0 (k) x∗1 (k) ··· x∗n (k)
 
.. 

 . 

xn (k)

91
CAPÍTULO 3. TERCER PARCIAL

Por lo tanto   
x0 (k)
  
 x1 (k) h i
R = E   x∗0 (k) x∗1 (k) · · · x∗n (k) 
  
..

 . 



xn (k)
 
E[|x0 (k)|2 ] E[x0 (k)x∗1 (k)] · · · E[x0 (k)x∗n (k)]
 
 E[x1 (k)x∗ (k)] E[|x1 (k)|2 ] ··· E[x1 (k)x∗n (k)]
0
R=
 
.. .. .. .. 

 . . . . 

E[xn (k)x∗0 (k)] E[xn (k)x∗1 (k)] · · · E[|xn (k)|2 ]

3.2.1. Propiedades

Matriz semidefinida positiva: Tiene inversa

Matriz Hermı́tica: R = RH

Matriz de Toeplitz:

• El proceso a trabajar es WSS (Estacionario en sentido amplio)


• Cuando elementos de diagonales secundarios son retardos de la diagonal principal

3.2.2. Conditional Number

λmax
C=
λmin
Donde:

λmax : Valor propio más grande

λmin : Valor propio más pequeño

Suponga que la señal de entrada es un vector compuesto por sus propios retardos de tal forma
que:  
x(k)
 
 x(k − 1) 
X(k) = 
 
.. 

 . 

x(k − N )

Ejercicios

Dado que x(k) = n(k), donde n(k) es ruido blanco de media 0 y varianza σn2 . Encontrar la
matriz de auto correlación cuando n = 3.

92
CAPÍTULO 3. TERCER PARCIAL

Solución

 
x(k)
 
 x(k − 1) 
X(k) = 
 

 x(k − 2) 
 
x(k − 3)
Por lo tanto
  
x(k)
  
 x(k − 1)  h i
R = E  x∗0 (k) x∗ (k − 1) x∗ (k − 2) x∗ (k − 3) 
  

 x(k − 2)  
  
x(k − 3)
 
E[|x(k)|2 ] E[x(k)x∗ (k − 1)] E[x(k)x∗ (k − 2)] E[x(k)x∗ (k − 3)]
 
E[x(k − 1)x∗ (k)] E[|x(k − 1)|2 ] E[x(k − 1)x∗ (k − 2)] E[x(k − 1)x∗ (k − 3)]
= 
 
E[x(k − 2)x∗ (k)] E[x(k − 2)x∗ (k − 1)] 2 ∗

 E[|x(k − 1)| ] E[x(k − 2)x (k − 3)]
E[x(k − 3)x∗ (k)] E[x(k − 3)x∗ (k − 1)] ∗
E[x(k − 3)x (k − 2)] 2
E[|x(k − 3)| ]
 
E[n2 (k)] E[n(k)n∗ (k − 1)] E[n(k)n∗ (k − 2)] E[n(k)n∗ (k − 3)]
 
E[n(k − 1)n∗ (k)] E[n2 (k − 1)] E[n(k − 1)n∗ (k − 2)] E[n(k − 1)n∗ (k − 3)]
= 
 
E[n(k − 2)n∗ (k)] E[n(k − 2)n∗ (k − 1)] 2 ∗

 E[n (k − 1)] E[n(k − 2)n (k − 3)]
E[n(k − 3)n∗ (k)] E[n(k − 3)n∗ (k − 1)] ∗
E[n(k − 3)n (k − 2)] 2
E[n (k − 3)]
Dado que mn = 0 y σn2 = E[n2 (k)] − m2n
 
σ 2 0 0 0
 n 
 0 σ2 0 0 
n
R=
 
2

0 0 σ n 0 
 
0 0 0 σn2
Para x(k) = acos(wo k) + n(k)

E[x2 (k)] = E[(acos(wo k) + n(k))2 ]


= E[a2 cos2 (wo k) + 2acos(wo k)n(k) + n(k)2 ]
= a2 cos2 (wo k) + σ 2

R = E[x(k − b)x(k)] = E[(acos(wo k − b) + n(k − b))(acos(wo k) + n(k))]


= E[a2 cos(wo (k − b))cos(wo k)] + E[acos(wo (k − b))n(k)]
+ E[acos(wo (k))n(k − b)] + E[n(k − b)n(k)]
= a2 cos(wo (k − b))cos(wo k) + E[n(k − b)n(k)]

93
CAPÍTULO 3. TERCER PARCIAL

 
R R01 R02 R03
 00 
R R11 R12 R13 
 10
R=


R20 R21 R22 R23 
 
R30 R31 R32 R33

R00 = a2 cos2 (wo k) + σ 2


R11 = a2 cos2 (wo (k − 1)) + σ 2
R22 = a2 cos2 (wo (k − 2)) + σ 2
R33 = a2 cos2 (wo (k − 3)) + σ 2

3.3. Filtro de Wiener


El filtro de Wiener es un filtro propuesto por Norbert Wiener en la década de 1940 y
publicado en 1949. Su propósito es, utilizando métodos estadı́sticos, reducir el ruido presente
en la señal de entrada de tal modo que la señal de salida del filtro se aproxime lo más posible
(en el sentido cuadrático medio) a una señal deseada (sin ruido).

Los filtros de Wiener son los mejores filtros lineales de mı́nimos cuadrados, que pueden ser
usados para predicción, estimación, interpolación, filtrado de señal y ruido, etc.

Función de error: F {e[k]} = ξ(k) = E[e2 (k)] = E[(d(k) − y(k))2 ]

94
CAPÍTULO 3. TERCER PARCIAL

E[d2 (k)] − 2d(k)wT (k)x(k) + wT (k)x(k)xT (k)w(k)

E[d2 (k)] − 2E[d(k)wT (k)x(k)] + E[wT (k)x(k)xT (k)w(k)]

En el momento en el que w(k) ya no varı́e

E[d2 (k)] − 2E[d(k)wT (k)x(k)] + E[wT (k)x(k)xT (k)w(k)]

E[d2 (k)] − 2wT (k)E[d(k)x(k)] + wT (k)E[x(k)xT (k)w(k)]

Donde

P = E[d(k)x(k)]

y
R = E[x(k)xT (k)w(k)]

E[d2 (k)] − 2wT (k)P + wT (k)Rw]

∂ξ(k)
 
 ∂wo 
 ∂ξ(k) 
 
ξ(k)  ∂w1 

=
∂w  ... 
 
 
 ∂ξ(k) 
∂wn

95
CAPÍTULO 3. TERCER PARCIAL

Donde

−2P + 2Rw = 0

P = Rw

w = R−1 P

x(k) = a1 x(k − 1) + n(k)

x(z) = a1 z −1 x(z) + N (z)


N (z)
x(z) = → x[n] = n(z)(−a1 )−1 µ[n]
a1 z −1

Ejercicios

La señal de entrada de un filtro adaptativo de primer orden está descrita por


x(k) = α1 x1 (k) + α2 x2 (k) donde x1 (k) y x2 (k) son dos procesos AR de primer orden
que son mutuamente descorrelacionados, ambos tienen la varianza.

1. La señal es generada aplicando distinto ruido blanco sobre en filtro de primer orden, cuyos
polos se encuentran en −S1 y −S2 respectivamente. Calcule la matriz de autocorrelación y
calcule la solución de Wienner si la señal deseada es X2 (k)

x(k) = α1 x1 (k) + α2 x2 (k)

xi (k) = −Si xi (k − 1) + ki ni (k)


(−Si )−1 2
E[xi (k)xi (k − 1)] = ki2 ·σ
1 − Si2
Si l=0

1
E[x2i (k)] = 1 = ki2 · · σ2
1 − Si2
r
1 − Si2
ki =
σ2

E[x2 (k)] = α12 x21 (k) + 2α1 x1 (k)α2 x2 (k) + α22 x22 (k)
= α12 (1) + α22 (1)

" #
α12 + α22 −S12 α12 − −S22 α22
R=
−S12 α12 − −S22 α22 α12 + α22

96
CAPÍTULO 3. TERCER PARCIAL

Wo = R−1 P

P = E[d(k)x(k)]
" #
α1 x1 (k) + α2 x2 (k)
P = E x2 (k)
α1 x1 (k − 1) + α2 x2 (k − 1)
" #
α2
P =
−α2 S2
" #−1 " #
α12 + α22 −S12 α12 + −S22 α22 α2
Wo =
−S12 α12 + −S22 α22 α12 + α22 −α2 S2
" #
1 α12 α2 + α23 − S1 S22 α12 α2 − S22 α23
Wo = 2
(α1 + α22 )2 − (S12 α12 + −S22 )2 S1 α12 + S2 α23 − S22 α12 α2 − S22 α23

3.3.1. Algoritmos para hallar la solución de Wiener

1. Consistencia y BIAS

2. Algoritmos de Newton

3. Algoritmos Stepost - Descent

w(k + 1) = w(k) − µgw (k)

w(k + 1) = w(k) − 2µRw(k) + 2µP

∆w(k + 1) = w(k) − wo

∆w(k + 1) = ∆w(k) − 2µ[Rw(k) − Rwo ]


= ∆w(k) − 2µR∆w(k)
= (I − µR)∆w(k)
= (I − µR)k+1 ∆w(0) 0 ≤ µ ≤ 1

3.4. Least Mean Square (LMS)


El algoritmo LMS se usa en filtros adaptativos para encontrar los coeficientes del filtro que
permiten obtener el valor esperado mı́nimo del cuadrado de la señal de error, definida como
la diferencia entre la señal deseada y la señal producida a la salida del filtro.

97
CAPÍTULO 3. TERCER PARCIAL

Su importancia radica en que es un algoritmo muy simple. No requiere medidas de las


funciones de correlación, ni tampoco inversión de la matriz de correlación.
El algoritmo LMS es un algoritmo de filtrado lineal adaptativo que, en general, consiste de
dos procesos básicos:

Un proceso de filtrado, que implica el cálculo de la salida generada por un filtro


transversal, y la generación de una estimación del error comparando esta salida con
la respuesta deseada.

Un proceso adaptativo, que realiza el ajuste automático de los coeficientes del filtro de
acuerdo con la estimación del error.

wo = R−1 P

R = E[x(k)xT (k)]

P = E[d(k)x(k)]

b = x(k)xT (k)
R

Pb = d(k)x(k)

w(k + 1) = w(k) − µb
gw (k)

w(k + 1) = w(k) − 2µRw(k)


b + 2µPb

gbw (k) = −2d(k)x(k) + 2x(k)xT (k)w(k)


= 2x(k)(−d(k) + xT (k)w(k))
= −2e(k)x(k)

w(k + 1) = w(k) − 2µe(k)x(k)

1. Estabilidad
1
0≤µ≤
λmax
Análisis de estabilidad de matriz de covarianza

1
0≤µ≤
tr[R]
0≤µ≤1

98
CAPÍTULO 3. TERCER PARCIAL

2. Desajuste (Misadjustment)

µtr[R]
M≈
1 − µtr[R]
3. Cálculo computacional
Señal deseada → Estacionario
Si el modelo es no estacionario →

s
(N + 1)σ 2
µopt
4σ 2 tr[R]
w(k + 1) = w(k) + µe ∗ (k)x(k)

3.4.0.1. NMLS

Inicialización

x(0) = w(0)

e(k) = d(k) − wT (k)x(k)


un e(k)
w(k + 1) = w(k) +
δ + pT (k)x(k)
Ejercicio
Suponga que el filtro adaptativo trabaja en un cuya entrada consiste de x(k) = ejwo k + n(k)
y su señal deseada esta dada por d(k) = ejwo (k+1) , donde n(k) es ruido blanco uniformemente

distribuido con varianza σ 2 = 0,1 y wo = M, M=8. Determine la matriz de auto correlación
para un filtro adaptativo de primer orden y determine el rango de trabajo de u si se quiere
aplicar un algoritmo LMS.


x(k) = ejwo k + n(k) = ej 8 k + n(k)
π
" #
ej 4 k + n(k)
x(k) = j π (k−1)
e 4 + n(k − 1)
π
"" # #
ej 4 k + n(k) h π π
i
R=E π e−j 4 k + n(k) e−j 4 (k−1) + n(k − 1)
ej 4 (k−1) + n(k − 1)
" #
E[|x(k)|2 ] E[x(k)x(k − 1)]
R=
E[x(k − 1)x(k)] E[|x(k − 1)|2 ]
" √ √ #
2 2
1,1 2 + j 2
R = √2 √
2
2 +j 2 1,1

99
CAPÍTULO 3. TERCER PARCIAL

tr[R] = 2, 2
1 1
0≤µ≤ →0≤µ≤
tr[R] 2,2

3.5. Algoritmo RLS


El algoritmo RLS se usa en filtros adaptativos para encontrar los coeficientes del filtro que
permiten obtener el mı́nimo cuadrado de la señal de error (definida como la diferencia entre la
señal deseada y la señal producida a la salida del filtro) en forma recursiva. Es una extensión
de el algoritmo mı́nimo cuadrado, el cual disminuye el número de interacciones para llegar a
su convergencia, permitiendo utilizar los valores obtenidos anteriormente en la convergencia
para hallar el próximo valor y no solamente la diferencia de error como hace el mı́nimo
cuadrado.
Recursive Least Squares
Función error recursivo

k
X
ξα = λk−i E 2 (i)
i=0
k
X
= λk−i [d(i) − xT (i)w(i)]2
i=0

Error a posteriori → ξ Error a priori → e(k)

∂ξ d (k)
 
 ∂w 
o 
∂ξ d (k)  . 
=  .. 
∂w(k)  
 ∂ξ d (k) 
∂w(n
Derivando
 
k
0
X .. 
λk−i [d(i) − xT (i)w(i)] = 

2 .

i=0
0
" k #−1 k
X X
k−i T
w(k) = λ x(i)x (i) λk−i x(i)d(i)
i=0 i=0

w(k) = R−1
o Po

100
CAPÍTULO 3. TERCER PARCIAL

3.6. Matriz Computacional


Método de inversión de Lehman

So (k − 1)x(k)xT (k)
 
1
S ∆ (k) = R−1
∆ (k) = So (k − 1)
λ λ + xT (k)So (k − 1)x(k)
Inicialización

S ∆ (−1) = δ T

δ → Estimativa de la inversión de la potencia de la señal de entrada.


para k0 6= 0 → S ∆ (k)

P ∆ (k) = λP ∆ (k − 1) + d(k)x(k)

w(k) = S ∆ P ∆

Si es necesario el error → E(k) = d(k) − y(k)

c(k) < E(k) →

Caso de RLS
Hacer ecualización para 32 QAM
Perdidas por propagación
 n Q
r X
Lp (dB) = β(dB) + 10log + F AF (q)
ro
q=1

Tx β
= n
TR r
Donde

β → Perdidas relacionadas a la frecuencia

n → Exponente de pérdida de trayectoria

F AF → Factor de atenuación piso y techo

W AF → Factor de atenuación paredes

ro → Distancia nominal

Ejercicio: Calcular las pérdidas de propagación de la siguiente figura.

101
CAPÍTULO 3. TERCER PARCIAL

WIFI 2.4 GHz

Tx y Rx de antena isotropica 0dB

n = 3.1

WAF = 3dB por pared

FAF = 5 dB

S = -75 dBm

PT x = -10 dB

PRx = -105 dB

 n Q
r X
Lp (dB) = β(dB) + 10log + F AF (q)
ro
q=1
 3,1
38
Lp (dB) = β(dB) + 10log + 10(3) + 2(5)
5
3,1622x10−11 β
= 3,1 → 2,49x10−5
0,1 38
Lp = −46,02 + 27,3 + 30 + 10 = 21,28dB

−10 − 21,27 = −31,27dB = −1,27dBm → Si recibe

3.7. TDMA vs FDMA


FDMA
Es una técnica de multiplicación usada en múltiples protocolos de comunicaciones, tanto
digitales como analógicos, principalmente de radiofrecuencia, y entre ellos en los teléfonos
móviles de redes GSM. En FDMA, el acceso al medio se realiza dividiendo el espectro
disponible en canales, que corresponden a distintos rangos de frecuencia, asignando estos

102
CAPÍTULO 3. TERCER PARCIAL

canales a los distintos usuarios y comunicaciones a realizar, sin interferirse entre sı́. Los
usuarios pueden compartir el acceso a estos distintos canales por diferentes métodos como
TDMA, CDMA o SDMA, siendo estos protocolos usados indistintamente en los diferentes
niveles del modelo OSI.

TDMA
Es una técnica que permite la transmisión de señales digitales y cuya idea consiste en ocupar
un canal (normalmente de gran capacidad) de transmisión a partir de distintas fuentes, de
esta manera se logra un mejor aprovechamiento del medio de transmisión. También se podrı́a
decir que es un proceso digital que se puede aplicar cuando la capacidad de la tasa de datos
de la transmisión es mayor que la tasa de datos necesaria requerida por los dispositivos
emisores y receptores. En este caso, múltiples transmisiones pueden ocupar un único enlace
subdividiéndole y entrelazándose las porciones.

3.7.1. Equivalencia de Tasa de bits

En condiciones ideales ambos tienen la misma rata de bits.

3.7.2. Equivalencia con retardos

D =ω+τ

Donde:

ω: Tiempo de espera promedio de paquetes

τ : Tiempo en que los paquetes son transmitidos

103
CAPÍTULO 3. TERCER PARCIAL

3.7.2.1. FDMA

τF D = T
ωF D = 0

3.7.3. TDMA

T b
τT D = =
M R
M  
1 X T T 1
ωT D = (m − 1) = 1−
M M 2 M
m=1

DF D = T  
T 1 T
DT D = 1− +
2 M M
b
= DF D − (M − 1)
2R
Normalmente las aplicaciones de estas dos tipos de acceso son:

TDMA: Canales de Control

FDMA: Transmisión de Datos

3.7.4. Frequency - Flat Fading

r(t) = x(t)ω(t) + n(t)


Donde:

x(t): Señal transmitida

ω(t): Respuesta del canal variante en el tiempo

n(t) Ruido

Si las variaciones del canal son lentas a comparación con la duración del sı́mbolo, se puede
asumir que:
ω(t) = ω = αejφ
r(t) = αejφ x(t) + n(t)
En donde:

α: Se modela con variables aleatorias de tipo Rayleigh o Rice.

φ: Se modela con variables aleatorias uniformes.

104
CAPÍTULO 3. TERCER PARCIAL

3.7.5. Definiciones

Tiempo de coherencia: Se refiere a la separación temporal para la cual las


amplitudes de dos muestras del canal en el dominio del tiempo pueden ser consideradas
descorrelacionadas.

Banda de coherencia: Se refiere a la separación en frecuencia para la cual la


atenuación de dos muestras del canal en el dominio de la frecuencia pueden considerarse
descorrelacionadas. En el caso de que la banda de coherencia sea mayor a la banda del
canal, se asume que se trata de un canal plano.

Canales Uniformes (Planos en el tiempo): Canales invariantes en el tiempo,


canales uniformes o planos en frecuencia, existe una respuesta en frecuencia que es
próxima sobre un ancho de banda mayor o igual que el ancho de banda de la señal
transmitida.

Canales selectivos en el tiempo: Canales variables en el tiempo.

Canales selectivos en la frecuencia: Exhiben respuesta en frecuencia que no puede


ser considerada plana en todo el ancho de banda.

Banda de coherencia en el canal: El ancho de banda de transmisión máxima para


el cual el canal se considera constante.

Spread Spectrum: Técnica de los 80. Su aplicación era netamente militar. No se


puede interferir y esta puede ser intencional o no intencional.

Jammer: Interferencia intencional

3.8. Técnica DS-SS (Spread Spectrum de secuencia directa)


El espectro ensanchado por secuencia directa es uno de los métodos de codificación de canal
(previa a la modulación) en espectro ensanchado para transmisión de señales digitales sobre
ondas radiofónicas que más se utilizan.
Es una técnica de codificación que utiliza un código de pseudoruido para
”modular”digitalmente una portadora, de tal forma que aumente el ancho de banda
de la transmisión y reduzca la densidad de potencia espectral (es decir, el nivel de potencia
en cualquier frecuencia dada). La señal resultante tiene un espectro muy parecido al del
ruido, de tal forma que a todos los radiorreceptores les parecerá ruido menos al que va
dirigida la señal.
El Acceso mútlpile por división de códigos se basan en las técnica de Spread Spectrum.

105
CAPÍTULO 3. TERCER PARCIAL

y(t) = x(t) + n(t)

J(t) → Señal que interfiere a la señal transmitida


Z T
EJ = J 2 (t)dt
0
r(t) = Si (t) + J(t)

Z T
Ui |si = Si (t)r(t)dt
0
Z T
= Esi + Si (t)J(t)dt
0
Z T "X n
#
= Esi + E Sik φk (t)J(t)dt
0 k=1

Es
Dado que: E[Ui ] = , entonces la varianza será:
D
= E[Ui2 |si ] − Es2
Z T 
2 2
= Es − EJ + E Si (t)J(t)dt
0
Es EJ Es EJ
= =
n n D
De donde:
Es n
·
EJ D
n Bss
Pero Gpp = = , en donde Gpp es la ganancia del proceso.
D BD

106
CAPÍTULO 3. TERCER PARCIAL

3.9. Probabilidad de Error de BPSK

r ! r ! r !
2Eb 2Eb 2Eb
Pe = Q =Q ≈Q
No No NJ + No
Potencia Recibida:
Sb = Eb Rb
v 
u W c1
u
u 2 r !
u Rb 
 J
Pe = Q u =Q 2Gpp
t J  Sb
Sb

3.10. Margen de Perturbación


Se considera margen de perturbación a la amplitud máxima de la perturbación que puede
producirse en la entrada de un sistema sin que repercuta en su salida, por lo tanto el margen
de perturbación cuantifica o mide la inmunidad al ruido de un sistema.
   
J Eb
10 log = 10 log(Gpp ) − 10 log
Sb NJ
Medida de capacidad de un sistema para operar en presencia de interferencia.

3.11. Secuencia de Walls


Esta nos permite crear vectores ortogonales para poder utilizar CDMA.
" #
HN HN
H2N =
HN H˜N

En el caso de que se tenga que: " #


−1 −1
HN =
−1 1
Por lo tanto:  
−1 −1 −1 −1 ω0
 
−1 1 −1 1  ω1
H2N =
 

−1 −1 1 1 ω2
 
−1 1 1 −1 ω3
Los vectores generados deben cumplir siempre con tres principios:

1. La correlación cruzada debe ser de cero o muy pequeña.

107
CAPÍTULO 3. TERCER PARCIAL

2. La cantidad de unos y de ceros deber ser igual, en el caso de que no lo sean , el número
de unos puede exceder por uno al número total de ceros.

3. El producto punto entre ellos deber ser la unidad.

Se escoge en este caso el vector ω1


h i
ω1 = −1 1 −1 1

Se propone un mensaje a enviar:


h i
m1 = 1 −1 1

El mensaje a transmitir será:

1 -1 1
1 1 1 1 -1 -1 -1 -1 1 1 1 1
-1 1 -1 1 -1 1 -1 1 -1 1 -1 1 → chips
-1 1 -1 1 1 -1 1 -1 -1 1 -1 1

Ejercicios

En un sistema CDMA se usa spread spectrum de secuencia directa con un ancho de 10 kHz
y una ancho de dispersión de 10 MHz, se transmite solo una señal o se recibe una señal con
una relación señal a ruido (SNR) de 16 dB.

a. Si se requiere SN R + Io es de 10 dB, que cantidad de potencia de entrada se puede


usar para transmitir la banda para que no exista un rechazo en presencia de ruido.

b. Si la potencia de cada usuario se reduce en 3 dB ¿Cuántos usuarios con la misma


potencia pueden usar la banda?
Eb
c. Si se recibe una relación → ∞ por cada receptor ¿Cuántos usuarios máximos puede
No
soportar la banda?

Solución

a.
Eb
= 16 dB
No
Wss 10 kHz

W = 10 M Hz
Wss 10 M Hz
Epp = = = 30 dB
W 10 kHz

108
CAPÍTULO 3. TERCER PARCIAL

Si se requiere una SN R + Io de 10 dB entonces:


1
= 10
1 1
+
Eb Eb
N0 Io
Eb
Reemplazando valores ya conocidos y despejando se tiene:
Io
Eb
= 13,35 → 11,25 dB
Io
Se sabe que:
Eb S
= + Gpp
Io I
Por lo que:
S
= −18,75 dB = 0,0133
I
I
# de usuarios = + 1 = 76 usuarios
S
b.
Eb
= 16 − 3 = 13 → 19,9526 dB
No
1
= 10
1 1
+
19,95 Eb
Io
Reemplazando valores ya conocidos y despejando Eb /Io se tiene:
Eb
= 20,047 → 13 dB
Io
Eb S
= + Gpp
Io I
S
= −17 dB = 0,02
I
I
# de usuarios = + 1 = 51 usuarios
S
c.
Eb
→∞
No
Eb
= 10 → 10 dB
Io
Eb S
= + Gpp
Io I
S
= −20 dB = 0,01
I
I
# de usuarios = + 1 = 101 usuarios
S

109
CAPÍTULO 3. TERCER PARCIAL

Ejercicios

Un sistema de spread spectrum es usada para eliminar el multitrayecto. Si la longitud del


camino de la onda de multitrayecto es 100m más largo que la onda directa. ¿Cuál es la tasa
de chip mı́nima necesaria para rechazar la interferencia de multitrayecto?

Solución

100
T = = 3,33 · 10−7
3 · 108
Tasa de chip → (T )−1 = 30 M bps

Ejercicios

En un sistema coherente de spread spectrum con BPSK está transmitiendo con una velocidad
de 10 kbps en presencia de una banda ancha de Jammer, asuma que el sistema no usa
codificación de canal, también asuma que la pérdida de propagación y el Jammer. Si la PIRE
del comunicador es 20 kW y el PIRE del Jammer es 60 kW, calcule el ancho de banda de
Spread Spectrum requerido para obtener una probabilidad de error de 10−5 .

Solución

−x2
1
Q(x) = √ e 2 = 10−5
x 2π
De donde: r
2Eb
x = 4,25 =
Io
Despejando:
Eb
= 9,031 → 9,56 dB
Io
Wss
9,031 = W → W = 270,93 kHz
J
S

3.12. Demostración

N
Eb = STb ; No
W
S
Eb =
Rb

110
CAPÍTULO 3. TERCER PARCIAL

Eb S S W
= = ·
No No Rb N Rb
Tomando en cuenta que:
S 1
=
N M −1
Nos queda:
Eb 1 W
= ·
No M − 1 Rb
Donde M es el número de usuarios.

3.13. Sobrecarga

 
Eb 1 W 1
= ·
No M − 1 Rb 1+n
Pero:
1
F =
1+n
De donde:

F : Factor de reuso

n: Factor de sobrecarga

3.14. Sectorización

   
Eb 1 W 1 1
= · λ
No M − 1 Rb 1+n v
De donde: R 2π
I(θ)dθ
λ= 0 
R 2π G(θ)
0 I(θ)dθ
G(0)
Considerando que:

I(θ): Potencia de interferencia en la recepción

G(θ): Patrón de radiación de la antena horizontal

G(0): Pico de patrón de radiación

111
CAPÍTULO 3. TERCER PARCIAL

Ejercicio

Un sistema de comunicación binario transmite la misma señal por dos canales con diversidad.
Las 2 señales son:
p
r1 = ± Eb + n1
p
r2 = ± Eb + n2

Donde E[n1 ] = E[n2 ] = 0 y E[n21 ] = σn2 1 , E[n22 ] = σn2 2 , n1 y n2 son descorrelacionados y son
variables de tipo Gaussiano. El detector se basa en el empleo de un combinador lineal para
n1 y n2 como se indica
r = r1 + r2

Determinar el valor de k, a manera de minimizar la probabilidad de error de bit.

Solución

3.15. Media

p p p
E[r] = ± Eb ± k Eb = (1 + k) Eb

3.16. Varianza

E[r2 ] = E[(r1 + kr2 )2 ]


= E[r12 ] + 2kE[r1 r2 ] + E[k 2 r22 ]
p p p p
= E[( Eb + n1 )2 ] + 2E[( Eb + n1 )(k Eb + kn2 )] + E[(k Eb + kn2 )2 ]
= Eb + σn2 1 + 2kEb + k 2 Eb + k 2 σn2 2
= Eb (1 + k)2 + σn2 1 + k 2 σn2 2

σr2 = Eb (1 + k)2 + σn2 1 + k 2 σn2 2 − (1 + k)2 Eb


= σn2 1 + k 2 σn2 2

Dado que la probabilidad de error se relaciona proporcionalmente con el valor de la media y


la varianza al cuadrado se considera lo siguiente:

m2 (1 + k)2 Eb
= = g(k)
σ2 σn2 1 + k 2 σn2 2

112
CAPÍTULO 3. TERCER PARCIAL

Derivando e igualando a cero

dg(k) 2(1 + k)Eb (σn2 1 + k 2 σn2 2 ) − 2kσn2 2 (1 + k)2 Eb


= =0
dk (σn2 1 + k 2 σn2 2 )2

Despejando k se obtiene el resultado para poder minimizar la probabilidad de error

σn2 1
k=
σn2 2

113

También podría gustarte