Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Cuaderno
Cuaderno
TEMA: Cuaderno
Glenn Chulde
Andrés Ulloa
Leonardo Tayupanta
Marı́a Fernanda Vásquez
Jorge Yandun
Profesor:
Ing. Paul Bernal Oñate MsC.
1. MODULACIONES M-ARIAS 1
1.1. Esquemas de Modulación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.1.1. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1
1.2. PAM(Modulación por amplitud de Pulso) . . . . . . . . . . . . . . . . . . . . 2
1.2.1. Constelación PAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.3. Ortogonalidad de señales base . . . . . . . . . . . . . . . . . . . . . . . . . . . 4
1.4. QAM(Modulación por amplitud y cuadratura) . . . . . . . . . . . . . . . . . 10
1.5. Esquemas de modulación multidimensional . . . . . . . . . . . . . . . . . . . 14
1.6. FSK(Frequency Shift Keying) . . . . . . . . . . . . . . . . . . . . . . . . . . . 16
1.7. Matriz de HADAMARD . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 17
1.8. Receptor óptimo canal AWGN . . . . . . . . . . . . . . . . . . . . . . . . . . 24
1.9. Demostración de la Pr de Probabilidad de Error(BPSK) . . . . . . . . . . . . 25
1.10. Detectores . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 33
1.11. ASK y PAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.12. M-PSK . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 34
1.13. QAM . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 35
1.14. Teorı́a de la Información . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 38
1.14.1. Información . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39
1.14.1.1. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.14.2. Entropı́a . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 40
1.14.3. Entropı́a de la Fuente . . . . . . . . . . . . . . . . . . . . . . . . . . . 43
1.15. Código Morse . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 44
1.16. Códigos de Huffman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
1.16.1. Árbol de Huffman . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 45
1.17. Canales Discretos Sin Memoria . . . . . . . . . . . . . . . . . . . . . . . . . . 48
1.18. Canal Simétrico Binario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 49
1.19. Información Mutua . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
1.19.1. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 50
ii
2. Teoria de la Codificación del Canal 53
2.1. Capacidad de Canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 53
2.2. Teorı́a de la codificación de Canal . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.2.1. Entropı́a diferencial e Información . . . . . . . . . . . . . . . . . . . 54
2.2.2. Diferencial Fundamental . . . . . . . . . . . . . . . . . . . . . . . . . . 54
2.2.3. Información Mutua . . . . . . . . . . . . . . . . . . . . . . . . . . . . 55
2.2.4. Entropı́a diferencial condicional . . . . . . . . . . . . . . . . . . . . . 55
2.3. Codificación de Canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 59
2.3.1. Códigos de lı́nea . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 60
2.3.2. Códigos Cı́clicos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 64
2.3.3. Verificación de Paridad . . . . . . . . . . . . . . . . . . . . . . . . . . 67
2.3.4. Códigos de longitud máxima . . . . . . . . . . . . . . . . . . . . . . . 68
2.3.5. Códigos Convolucionales . . . . . . . . . . . . . . . . . . . . . . . . . . 69
2.4. Cuantificación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 80
2.4.1. Corrección de errores en un canal uniforme . . . . . . . . . . . . . . . 84
3. Tercer Parcial 90
3.1. Ecualización de Canal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 90
3.2. Matriz de auto correlación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 91
3.2.1. Propiedades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.2.2. Conditional Number . . . . . . . . . . . . . . . . . . . . . . . . . . . . 92
3.3. Filtro de Wiener . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 94
3.3.1. Algoritmos para hallar la solución de Wiener . . . . . . . . . . . . . . 97
3.4. Least Mean Square (LMS) . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 97
3.4.0.1. NMLS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 99
3.5. Algoritmo RLS . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 100
3.6. Matriz Computacional . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 101
3.7. TDMA vs FDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 102
3.7.1. Equivalencia de Tasa de bits . . . . . . . . . . . . . . . . . . . . . . . 103
3.7.2. Equivalencia con retardos . . . . . . . . . . . . . . . . . . . . . . . . . 103
3.7.2.1. FDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.7.3. TDMA . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.7.4. Frequency - Flat Fading . . . . . . . . . . . . . . . . . . . . . . . . . . 104
3.7.5. Definiciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 105
3.8. Técnica DS-SS (Spread Spectrum de secuencia directa) . . . . . . . . . . . . . 105
3.9. Probabilidad de Error de BPSK . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3.10. Margen de Perturbación . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
iii
3.11. Secuencia de Walls . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 107
3.12. Demostración . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 110
3.13. Sobrecarga . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
3.14. Sectorización . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 111
3.15. Media . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
3.16. Varianza . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 112
iv
Capı́tulo 1
MODULACIONES M-ARIAS
1.1.1. Definiciones
k : Bits de información.
M = 2k
Ts : Tiempo de transmisión.
Tiempo de bit:
Ts Ts
Tb = =
k los2 M
R: Rata de bit:
R = kRs = Rs .log2 M
Energı́a promedio:
M
X
Eavg = Pm Em
m=1
1
CAPÍTULO 1. MODULACIONES M-ARIAS
Potencia Promedio
Eavg
Pavg =
Tb
Sm (t) = Am · p(t)
Donde:
1 ≤ m ≤ M → Banda Base
Am = 2m − 1 − M ; m = 1, 2, 3..., M
2m − 1 → ]Impar → Am es impar
2
CAPÍTULO 1. MODULACIONES M-ARIAS
Z +∞ Z +∞
Em = A2m p2 (t)dt = A2m p2 (t)dt = A2m Ep
−∞ −∞
Donde:
Ep : Energı́a de pulso
M
Ep X 2 Ep 2
Eavg = Am = (1 + 32 + ... + (M − 1)2 )
M M
m=1
2Ep M (M 2 − 1) (M 2 − 1)Ep
= · =
M 6 3
(M 2 − 1)Ep
Eavg = → Energia Promedio en PAM
3
(M 2 − 1)Ep
Ebavg = → Energı́a de bit promedio
3log2 M
Si:
ejθ = cos θ + j sin θ
Entonces:
Z ∞
Em = A2m g 2 (t)cos2 (2πfc t)dt
−∞
(M 2 − 1) · Eg
Eavg =
6
(M 2 − 1) · Eg
Ebavg =
6 · log2 M
3
CAPÍTULO 1. MODULACIONES M-ARIAS
S2 (t) 3
φ2 (t) = → √
||S2 (t)|| 3 2
1/2
2 √
Z
2
||S2 (t)|| = (3) d(t) =3 2
0
4
CAPÍTULO 1. MODULACIONES M-ARIAS
Z ∞
α32 = S3 (t)φ2 (t)dt = 0 → g3 (t) = S3 (t)
−∞
g3 (t) 3
φ3 (t) = = √
||g3 (t)|| 3 2
1/2
4 √
Z
2
||g3 (t)|| = (3) d(t) =3 2
2
√
S2 (t) = 3 2φ2 (t)
√
S3 (t) = 3 2φ3 (t)
√ √
S1 (t) = S1 (t) + S3 (t) = 3 2φ2 (t) + 3 2φ3 (t)
5
CAPÍTULO 1. MODULACIONES M-ARIAS
p
Sm (t) = Am Ep φ(t) → Banda Base
r
Eg
Sm (t) = Am φ(t) → Banda Pasante
2
Donde
Banda Base
p(t)
φ(t) = p
Ep
Banda Pasante
s
2
φ(t) = g(t)cos(2πfc t)
Eg
6
CAPÍTULO 1. MODULACIONES M-ARIAS
p p q
dmn = ||Sm − Sn ||2 = |Am − An | Ep = |Am − An | Eg /2
Distancia mı́nima:
q p p
dmin = 2 Eg /2 = 2Eg = 2 Ep
r
12 · log2 M
dmin = Ebavg
M2 − 1
Es una modulación que se caracteriza porque la fase de la onda portadora varı́a en forma
directamente proporcional de acuerdo con la señal modulante. La modulación de fase no
suele ser muy utilizada porque se requieren equipos de recepción más complejos que los de
frecuencia modulada. Además puede presentar problemas de ambigüedad para determinar si
una señal tiene una fase de 0o o 180o .
2π(m−1)
h i
Sm (t) = Re g(t) · ej M · ej2πfc t ; m = 1, 2, 3, .., M
2π(m − 1)
= g(t) cos 2πfc t +
M
(m − 1) (m − 1)
= g(t) cos(2πfc t) cos 2π − g(t) sin(2πfc t) sin 2π
M M
Señales Ortogonales:
s
2
φ1 (t) = g(t)cos(2πfc t)
Eg
s
2
φ2 (t) = − g(t)sen(2πfc t)
Eg
Eavg = Em
Ebavg = Eb
7
CAPÍTULO 1. MODULACIONES M-ARIAS
Por lo tanto la formula general para un esquema PM que utiliza portadora PDK es:
r r
Eg 2π Eg 2π
Sm (t) = cos (m − 1) φ1 (t) + sen (m − 1) φ2 (t)
2 M 2 M
s
p 2π
dmin = ||Sm − Sn ||2 =Eg 1 − cos (m − n)
M
r π r π
= 2Eg sin 2 =2 log2 M · sin2 Eb
M M
r
π π π 2 log2 M
sin( ) ≈ → dmin = 2 Eb
4 4 M2
Ejercicios
8
CAPÍTULO 1. MODULACIONES M-ARIAS
2. Para un esquema de modulación 8-PSK de radio r y distacina entre los puntos A unidades.
Encontrar el valor del radio r y la potencia promedio de transmision 8-PSK.
A2 A2
r2 = = √
2(1 − cos(45◦ ) 2− 2
9
CAPÍTULO 1. MODULACIONES M-ARIAS
A
r=p √
2− 2
Para Ts = 1s
!2
1 A A2
P8−P SK =8· p √ = √
8 2− 2 2− 2
La señal modulada QAM es el resultado de sumar ambas señales ASK. Estas pueden operar
por el mismo canal sin interferencia mutua porque sus portadoras al tener tal desfase, se
dice que están en cuadratura. Estas dos ondas generalmente son señales sinusoidales en la
cuál una onda es la portadora y la otra es la señal de datos.
10
CAPÍTULO 1. MODULACIONES M-ARIAS
Solo se utiliza para una constelación cuadrada, sino lo es, la energı́a promedio se debe
calcular punto a punto.
M −1
Ebavg =
3log2 M
Dinstacia mı́nima de una constalación QAM cuadradda:
r
6log2 M
dmin = Ebavg
M −1
Ejercicio.
1. Para un esquema de modulación 8-QAM como se muestra en la figura, la distancia entre
los vecinos mas cercanos es A unidades. Determine los valores de a y b en función de A y la
potencia total transmitida.
11
CAPÍTULO 1. MODULACIONES M-ARIAS
√
2 2 2 2
A = b + a − 2ab
2
√
A=a 2
A
a= √
2
A2
A2 = b2 + − Ab
2
A2
b2 − Ab − =0
2
A √
b= (1 + 3)
2
Potencia total transmitida:
√ !2 √ !2
2 2 1+ 3 2
PT = 4 A +4 A
2 2
√
PT = 2A2 + (1 + 3)2 A2 → QAM
8A2
PT = √ → P SK
2− 2
Para determinar que tipo de modulación requiere mas potencia realizamos lo siguiente:
PP SK
dB = 10log
PQAM
12
CAPÍTULO 1. MODULACIONES M-ARIAS
8A2
√
2 2
dB = 10log
2 √ 2
2A + 1 + 3 A 2
dB = 1, 6dB
Rb = 90M bps
90M bps
Rs = = 30M bps
log2 8
Constelación 8-QAM:
√
PT = 4(2A)2 + 4(2 2A)2
= 16A2 + 32A2
= 48A2
48A2
Pm =
8
= 6A2
13
CAPÍTULO 1. MODULACIONES M-ARIAS
Constelación 8-AM:
p √
a= 3A2 + 4A2 = 7A
√ √
PT = 2(A)2 + 2(2 3A)2 + 4( 7A)2
= 2A2 + 6A2 + 28A2
= 36A2
36A2
Pm =
8
= 4,5A2
La modulación por desplazamiento de fase o PSK (Phase Shift Keying) es una forma
de modulación angular que consiste en hacer variar la fase de la portadora entre un número
de valores discretos. La diferencia con la modulación de fase convencional (PM) es que
mientras en ésta la variación de fase es continua, en función de la señal moduladora, en la
PSK la señal moduladora es una señal digital y, por tanto, con un número de estados limitado.
QAM Es una técnica de modulación digital avanzada que transporta datos, mediante la
modulación de la señal portadora de información tanto en amplitud como en fase. Esto se
14
CAPÍTULO 1. MODULACIONES M-ARIAS
consigue modulando una misma portadora, desfasando 90o la fase y la amplitud. La señal
modulada en QAM está compuesta por la suma lineal de dos señales previamente moduladas
en DBL-PS (Doble Banda Lateral - con Portadora Suprimida) Se asocian a esta tecnologı́a
aplicaciones tales como:
Transmisión de señales de televisión, microondas, satélite (datos a alta velocidad por canales
con ancho de banda restringido).
Modulación TCM (Trellis Coded Modulation), que consigue velocidades de transmisión muy
elevadas combinando la modulación con la codificación de canal.
Módems ADSL que trabajan en el bucle de abonado, a frecuencias situadas entre 24KHz
y 1104KHz, pudiendo obtener velocidades de datos de hasta 9Mbps, modulando en QAM
diferentes portadoras.
P AM → 1
P SK → 2
QAM → 3
N: señales.
1. Dominio del tiempo (slots = ranuras).
2. Dominio de la frecuencia (f).
φ(j), 1 ≤ j ≤ N
S1 (t)
φj = √ , 1 ≤ j ≤ N
E
15
CAPÍTULO 1. MODULACIONES M-ARIAS
√
S1 = ( E, 0, 0, ..., 0)
√
S2 = (0, E, 0, ..., 0)
..
.
√
Sn = (0, 0, 0, ..., E)
16
CAPÍTULO 1. MODULACIONES M-ARIAS
2E · sen(2πT (m − n)∆f )
< Sm (t), Sn (t) > = = 2E · sinc(2T (m − n)∆f )
2πT (m − n)∆f
Ho = [1]
" #
1 1
H1 =
1 −1
1 1 1 1
1 −1 1 −1
H2 =
1 1 −1 −1
1 −1 −1 1
17
CAPÍTULO 1. MODULACIONES M-ARIAS
h√ √ √ √ i
S1 = E, E, E, E
h√ √ √ √ i
S2 = E, − E, E, − E
h√ √ √ √ i
S3 = E, E, − E, − E
h√ √ √ √ i
S4 = E, − E, − E, E
Ejercicio.
t 1
1. Un sistema PAM de niveles esta definido por Si (t) = Ai rect T − 2 donde: Ai =
±1, ±3, ±5, ±7. Hallar la constelación y graficar.
1/2
T √
Z
||S1 (t)|| = A2i dt = Ai T
o
2. En las figuras se muestra las formulas de onda de 4 señales: S1 (t), S2 (t), S3 (t), S4 (t)
18
CAPÍTULO 1. MODULACIONES M-ARIAS
Grafique la constelación.
S1 (t) 1
φ1 (t) = =p
||S1 (t)|| T /3
"Z #1/2
T /3 p
2
||S1 (t)|| = (1) d(t) = T /3
0
Z T /3 Z T /3 p p p p
α21 = S2 (t)φ1 (t)dt = 3/T dt = 3/T · T /3 = T /3
0 0
g2 (t)
φ2 (t) =
||g2 (t)||
p
||g2 (t)|| = T /3
19
CAPÍTULO 1. MODULACIONES M-ARIAS
Z T /3
α31 = S3 (t)φ1 (t)dt = 0
0
Z 2T /3 Z 2T /3 p p
α32 = S3 (t)φ2 (t)dt = 3/T dt = T /3
T /3 T /3
g3 (t) p
φ3 (t) = ; ||g3 (t)|| = T /3
||g3 (t)||
1/2
4 √
Z
2
||g3 (t)|| = (3) d(t) =3 2
2
p
S1 (t) = T /3φ1 (t)
p p
S2 (t) = T /3φ1 (t) + T /3φ2 (t)
p p
S3 (t) = T /3φ2 (t) + T /3φ3 (t)
p p p
S4 (t) = S1 (t) + S3 (t) = T /3φ1 (t) + T /3φ2 (t) + T /3φ3 (t)
20
CAPÍTULO 1. MODULACIONES M-ARIAS
√
3. Una señal PSK esta definida por S(t) = Ac · k · sin(2πfc t) ± Ac 1 − k 2 cos(2πfc t) con
0 ≤ t ≤ Tb . El signo + corresponde al sı́mbolo 1 y el signo - corresponde al sı́mbolo 0, k es
un parámetro entre 0 y 1, el primer termino de S(t) representa la portadora que es incluida
como una propuesta para el sincronismo en el receptor. Grafique el espacio de señales que
representa este esquema y que observaciones puede dar usted acerca de este diagrama.
p
S(t) = Ac · k · sin(2πfc t) ± Ac 1 − k 2 cos(2πfc t)
p
S1 (t) = Ac · k · sin(2πfc t) + Ac 1 − k 2 cos(2πfc t)
p
S2 (t) = Ac · k · sin(2πfc t) − Ac 1 − k 2 cos(2πfc t)
φ1 = cos(2πfc t)
φ2 = sin(2πfc t)
A2
P∞ = (A · cosX) = = P (A · senX)
2
21
CAPÍTULO 1. MODULACIONES M-ARIAS
E
P = ; E = P · Tb
Tb
Calculamos la energı́a:
√ p
S(t) = E = P · Tb
r
A2c (1 − k 2 )Tb
=
r 2
2 2
Ac · k · Tb
=
2r
Tb
= Ac · k ·
2
4. Dada la secuencia binaria 11/00/10/00/10 bosqueje las formas de onda de los componentes
en fase y cuadratura de una onda modulada utilizando Q-PSK de acuerdo a la constelación
mostrada en la figura, adicionalmente realice el gráfico de la señal modulada.
5. Una señal es muestrada a una tasa de 8 kHz y es codificada usando 8 bits por muestra la
resultante tasa binaria es trasmitida sobre un canal AWGN en banda base usado M niveles
de PAM. Determine el ancho de banda requerido para la trasmisión usando M=4, M=8,
22
CAPÍTULO 1. MODULACIONES M-ARIAS
M=16.
Ancho de banda :
R
W =
2 · log2 M
Entonces para:
64000
M = 4: W= 4 = 16000Hz
64000
M = 8: W = 8 = 10666,67Hz
M = 16: W = 64000
8 = 8000Hz
suponga que g(t) es un pulso rectangular In = an − an−2 donde es una secuencia binaria
descorrelacionada con valores de -1 a 1
Solución:
2; m=0
rii [n] = -1; m = ±2 (1.1)
0; otrocaso
23
CAPÍTULO 1. MODULACIONES M-ARIAS
7. Calcular el mı́nimo teórico del ancho de banda de un sistema para transmitir 10 Mbps si
se usa 16 niveles de PAM y sin la presencia de ISI
10 · 106
W = = 1, 25M Hz
2 · log2 16
El receptor óptimo se determina bajo las siguientes premisas: Se asume que a la entrada del
receptor llega una señal que es el pulso modificado por transmisor y canal y (p(t)) y el ruido
(n(t)). Al pulso modificado por el filtro HR lo llamaremos y(t),mientras que al ruido filtrado
por HR lo llamaremos nout..
Probabilidad de Error
P e[m 6= m]
b
Mx = 0
No
σ2 =
2
r = Sm + n
Descorrolacionados
(x−mx )2
1 − 2
fx (x) = p e 2σx → F uncionN ormal
2πσx2
2
||n||2
1
fx (x) = √ e No
πNo
24
CAPÍTULO 1. MODULACIONES M-ARIAS
P mf (r|Sm )
m
b = argmax
f r(r)
m
b = argmaxP mf (r|Sm )
m
b = argmaxf (r|Sm )
25
CAPÍTULO 1. MODULACIONES M-ARIAS
N
X
n1 = nj φj ; nj =< n(t), φj (t) >
j−1
N
X
Sm (t) = Smj φj (t); Smj =< n(t), φj (t) >
j−1
N
X
r(t) = (nj + Smj )φj + n2 (t); rj = nj + Smj
j−1
26
CAPÍTULO 1. MODULACIONES M-ARIAS
Entonces:
N
X
r(t) = rj φj (t) + r2 (t)
j−1
Z ∞
nj = n(t)φj (t)dt
−∞
Las medias en cada una de las direcciones son cero:
E[nj ] = 0
cov[ni nj ]
k(x, y) = E[(x − mx )(y − my )]
k(x, y) = E[xy] − E[x] − E[y]
k(x, y) = E[ni nj ]
Entonces: Z ∞ Z ∞
E[ni nj ] = E n(t)φi (t)dt n(s)φj (s)ds
−∞ −∞
m
b = argmax[Pm f (r|Sm )]
m
b = argmax[Pm f (r|Sm )]
" N #
||r−Sm ||2
1
= argmax Pm f ( √ e− No
πNo
Observaciones:
27
CAPÍTULO 1. MODULACIONES M-ARIAS
N
√1 → Constante positiva, no se considera
πNo
||r−Sm ||2
− ||r−Sm ||2
argmax e No → ln(P m) − No
No
2 Siempre va a ser positivo
El caso más habitual en un sistema digital de comunicaciones es el caso en que todos los
sı́mbolos se transmiten con la misma probabilidad (sı́mbolos equiprobables). En ese caso, el
criterio general para el diseño del decisor se simplifica y recibe habitualmente un nombre
especı́fico. Indique cuál es el nombre del criterio de diseño en ese caso particular, y en que se
traduce en relación con la distribución de la observación a la salida del demodulador.
Se pierde la simetrı́a
BPSK: El caso más habitual en un sistema digital de comunicaciones es el caso en que todos
los sı́mbolos se transmiten con la misma probabilidad (sı́mbolos equiprobables).
En ese caso, el criterio general para el diseño del decisor se simplifica y recibe habitualmente
un nombre especı́fico. Indique cuál es el nombre del criterio de diseño en ese caso particular, y
en que se traduce en relación con la distribución de la observación a la salida del demodulador.
28
CAPÍTULO 1. MODULACIONES M-ARIAS
Decisión
√ √
No 1 No 1
D1 = r : r Eb + ln(p) − Eb > −r Eb + ln(1 − p) − Eb
2 2 2 2
√
q
ln(1 − p)
= r : r > −r 4 Eb + → Mayor: 1 , Menor:0
p
= {r : r > r + h}
Probabilidad de error
2
X X Z
Pe = Pm f (r|Sm )
m=1 1≤m≤2 Dm
Si mando 1
Z √ Z √
= f (r|Sm = Eb) + (1 − p) f (r|Sm = − Eb)
Dm Dm
x − mx
Función Q :
σ
√ √ !
Eb − rth rth − Eb
= Q p + (1 − p) p
No /2 No /2
√ !
Eb
Pe = Q p
No /2
Formas de calcular Q:
1 2
Q(x) ≈ √ e−x /2
x 2
Bit Error Rate analysis tool
Eb
= 16dB → dB = 10log(Eb/No )
No
Eb
1,6 = 10log(Eb/No ) → = 39,8
No
Matlab → Curva Gausiana bajo ciertas caracterı́sticas
Z ∞
2 2
erf c = √ e−t dt
π x
29
CAPÍTULO 1. MODULACIONES M-ARIAS
1 x
Q(x) = erf c √
2 2
√
erf c(x) = 2Q(x)( 2x)
Cuando los sı́mbolos tienen todos la misma probabilidad de ser transmitidos, y además
se asume una transmisión sobre un canal gausiano (la única distorsión que sufre la señal
transmitida durante su transmisión es la suma de ruido gausiano), el criterio de diseño del
decisor se simplifica notablemente. Indique cuál es en ese caso el criterio más sencillo para
realizar el diseño del decisor.
Ejercicio
Solución
a)
30
CAPÍTULO 1. MODULACIONES M-ARIAS
p
r(t) = Ac k sin(2πfc ) ± Ac 1 − k 2 cos(2πfc t) + n(t)
p
= Ac k sin(2πfc t) cos(2πfc t) ± Ac 1 − k 2 cos2 (2πfc t) + n(t) cos(2πfc t)
Ac k Ac p
= (sin(4πfc t) + sin(0)) ± 1 − k 2 (1 + cos(4πfc t)) + n(t) cos(2πfc t)
2 √ 2
Ac p A c 1 − k2
= ± 1 − k2 + n(t) cos(2πfc t)
2 2
Z Tb Z Tb √
Ac p 2
Ac 1 − k 2
= ± 1 − k dt + n(t) cos(2πfc t)dt
0 2 0 2
Tb
√
Ac 1 − k 2
Z
Eb = n(t) cos(2πfc t)dt
0 2
A2c T2
= (1 − k 2 ) b
4 Tb
Por lo tanto
v
u
A 2
c 2 )T
−
u s
r ! u 2 (1 k b 2
2Eb 4 = Q Eb (1 − k )
t
Q= = Q
No
No
No
s s
1 2E (1 − k 2) 1 E (1 − k 2)
b b
Pe = erf c = erf c
2 2No 2 No
b)
1 2
Pe = √ e−x /2 = 10−4 → x = 3,8753
x 2
r
2Eb
No Eb
3,8753 = → = 8,3433
0,9 No
Ejercicio
b) Si los tres mensajes son equiprobables, cual serı́a la regla de decisión más adecuada
para este sistema.
c) Si las tres señales son equiprobables, exprese la probabilidad de error del detector óptimo
en términos de la relación señal a ruido por bit promedio.
31
CAPÍTULO 1. MODULACIONES M-ARIAS
Solución
a)
1/2 √
T √
Z
S1 (t) 2
φ1 (t) = ; ||S1 (t)|| = A dt = A2 T = A T
||S1 (t)|| 0
√
S1 (t) = A T φ1 (t)
√
S2 (t) = 2A T φ1 (t)
S3 (t) = 0φ1 (t)
b)
3 √
D1 = r : r > A T
2
1 √ 3 √
D2 = r : A T < r < A T
2 2
√
1
D3 = r : r < A T
2
c)
d212 A2 T
Pb = Q =Q
2No 2No
32
CAPÍTULO 1. MODULACIONES M-ARIAS
d)
3000 · log2 3 = 4754
1.10. Detectores
Los códigos detectores y correctores de error se refieren a los errores de transmisión en
las lı́neas.Se deben a diversos factores, como el ruido térmico, ruido impulsivo y ruido de
intermodulación. Dependiendo del medio de transmisión y del tipo de codificación empleado,
se pueden presentar otros tipos de anomalı́as como ruido de redondeo y atenuación, ası́ como
cruce de lı́neas y eco durante la transmisión.
1. Receptor de Correlación
2. Receptor de Matched filter: Similar al mostrado en la figura pero este no tiene correlator
y se filtra de manera desplazada.
33
CAPÍTULO 1. MODULACIONES M-ARIAS
1 dmin
Peo = Pe = Q √
2 2N
o
2(M − 1) dmin
= Q √
M 2No
s
1 6 log2 M Ebavg
Pe = 2 1 − Q ·
M M2 − 1 No
6 log2 M Ebavg
Pe = 2Q · → En el caso de que M es muy grande
M2 − 1 No
1.12. M-PSK
Normalmente se usa coordenadas polares.
En el caso que M = 4 → 4 − P SK
r !" r !#
2Eb 1 2Eb
Pe = 2Q 1− Q
No 2 No
En el caso M-ario r !
πE
b
Pe = 2 log2 M sin2
M No
Pe
Pb ≈
k
34
CAPÍTULO 1. MODULACIONES M-ARIAS
1.13. QAM
Para un esquema de constelación rectangular.
s s
1 3 log2 M E b 1 3 log2 M Eb
Pe = 4 1 − √ Q · avg ·Q 1 − 1 − √ ·Q · avg
M M − 1 N o M M − 1 N o
s
3 log2 M Ebavg
Pb ≤ 4Q ·
M −1 No
Ejercicio
Suponga que un esquema binario PSK es usado para transmitir información sobre un canal
AWGN, con densidad espectral de potencia No /2 = 10−10 W/Hz. La señal de transmisión
tiene una energı́a Eb = A2 T /2, donde T es el intervalo de bit y A es la amplitud de la señal.
Determine el valor de A requerido para alcanzar una probabilidad de error de 10−6 cuando
la tasa de Datos es:
a) 10 kbits/s
b) 100 kbits/s
c) 1M bit/s
Solución
b) A = 21,28 · 10−6
c) A = 67,31 · 10−9
Ejercicio
r = ±A + n
Donde +A y −A ocurre con igual probabilidad y n es variable que representa ruido y está
caracterizado por una función de probabilidad laplaciana como se indica en la figura.
35
CAPÍTULO 1. MODULACIONES M-ARIAS
1 √ λ −|x|λ
fn (n) = √ e−|n| 2/σ ; fx (x) = e
2σ 2
Solución
a)
1 1
Pe = P (0|1) + P (1|0)
2 2
Z 0
1
= (0|1)
2 −∞
1 0 λ −λ|r−A| 1 ∞ λ −λ|r+A|
Z Z
= e dr + e dr
2 −∞ 2 2 0 2
λ −A −λ|x| λ ∞ −λ|x|
Z Z
= e dx + e dx
4 −∞ 4 A
e−λA + e−λA 1 √
= = e−A 2/σ
4 2
b)
Z ∞
λ
σn2 = x2 e−λ|x| dx
−∞ 2
Z ∞
= λ x2 e−λx dx
0
2 −λx ∞
x e 2xe−λx 2e−λx
= λ − −
−λ λ2 λ3 0
2
=
λ2
36
CAPÍTULO 1. MODULACIONES M-ARIAS
Como:
A2
= SN R
σ2
Entonces
1 √
Pe = e SN R = 10−5 → SN R = 58,53 → 17,674dB
2
Ejercicio
Solución
a) s
d2min
PM ≤ (M − 1)Q
2No
37
CAPÍTULO 1. MODULACIONES M-ARIAS
s
2∗ A2
≤ (15)Q
No
b)
ET = E1 + E2 + E3 = 4(2A2 ) + 8(10A2 ) + 4(18A2 ) = 160A2
160 2
Eavg = A = 10A6
16
Eavg
Ebavg = = 2,5A2
log2 M
Donde
A2 2Ebavg
=
No 5No
c) s
d2min
PM ≤ (M − 1)Q
2No
s !
4Ebavg
PM ≤ 15Q
5No
d)
6log2 M Ebavg
Pe = 2Q
M 2 − 1 No
M = 16
8 Ebavg
Pe = 2Q
85 No
Comparando con 16QAM:
4Ebavg
16 − QAM 5N0 17
= =
16 − P AM 8Ebavg 2
85No
17
10log10 = 9,29dB
2
QAM es 9.29 veces más eficiente
38
CAPÍTULO 1. MODULACIONES M-ARIAS
• Codificación de Fuente
• Codificación de Canal
• Capacidad de Canal
◦ Incertidumbre: No conocer el resultado
◦ Información: Evitar que la información sea negativa
◦ Entropı́a: Medida de la información
Esto se da en:
Señales Determinı́sticas
Señales No determinı́sticas
1.14.1. Información
39
CAPÍTULO 1. MODULACIONES M-ARIAS
1.14.1.1. Propiedades
I(Sk ) = 0 ↔ Pk = 1
I(Sk ) ≥ 0 ↔ 0 ≤ Pk ≤ 1
1.14.2. Entropı́a
Ejercicio
Una fuente emite 4 sı́mbolos con probabilidad: 0,4; 0,3; 0,2; 0,1. Encuentre la entropı́a de la
fuente.
Solución
5 3 10 1 1
H(S) = 0,4 log2 + log2 + log2 5 + log2 (10)
2 10 3 5 10
H(S) = 1,346 bits
Ejercicio
Suponga que cierto curso se dan igual número de calificaciones con las letras, A,B,C,D y F.
40
CAPÍTULO 1. MODULACIONES M-ARIAS
Solución
a)
1
IS = log2 = 0,32 bits
4/5
b)
1
IS = log2 = 2,32 bits
1/5
Se necesita 2 bits mas de información.
Ejercicio
Solución
1
• Carta de Corazón: P1 =
2
15 4
• Carta de Figura: P2 = =
52 13
4 1 2
• Carta de Figura de Corazón: P3 = · =
13 2 13
a)
IS1 = log2 (2) = 1 bit
13
IS2 = log2 = 1,7 bits
14
13
IS3 = log2 = 2,7 bits
2
b)
IS4 = log2 (52) = 5,7 bits
52
IS5 = log2 = 2,7bits
8
41
CAPÍTULO 1. MODULACIONES M-ARIAS
Ejercicio
Calcule la cantidad de información necesaria para abrir una cerradura cuya combinación
consta de 3 enteros del 00 al 99.
Solución
1
I(S) = log2 = 20M bps
1/1000000
Ejercicio
Calcule la entropı́a de la fuente discreta y sin memoria que tiene 6 sı́mbolos con probabilidades
PA = 1/2, PB = 1/4, PC = 1/8, PD = PE = 1/20, PF = 1/40.
Solución
1 1 1 2 1
H(S) = log2 (2) + log2 (4) + log2 (8) + log2 (20) + log2 (40) = 1,94 bits
2 4 8 20 40
Ejercicio
Solución
I1 = log2 (2 · 4 · 2 · 16 · 2) = 9 bits
Ejercicio
Cierta información tiene 8 sı́mbolos y entre datos en bloques de 3 sı́mbolos con la tasa de 1000
bloques por segundo, el primer sı́mbolo en cada bloque es siempre el mismo para propósito
de sincronización, los otros dos lugares los ocupan cualquiera de los ocho sı́mbolos con igual
probabilidad. Determine la tasa de transferencia de la información de la fuente.
42
CAPÍTULO 1. MODULACIONES M-ARIAS
Solución
1
H = log2 = 6 bits/bloque
1/64
bits bloques
6 · 1000 = 6000 bps
bloque seg
1. H(L) = 0; P (Sk ) = 1
1
2. H(L) = log2 (k) ↔ P (Sk ) =
k
43
CAPÍTULO 1. MODULACIONES M-ARIAS
1
X 1
H(L) = P (Sk ) log2
P (Sk )
k=0
1 1
= P (S0 ) log2 + P (S1 ) log2
P (S0 ) P (S1 )
1 1
= P (S0 ) log2 + (1 − P (S0 )) log2
P (S0 ) P (S1 )
= P (S0 ) log2 (P (S0 )) − (1 − P (S0 )) log2 (1 − P (S0 ))
P1 + P2 = 1
1 1
H(L) = P1 log2 + P2 log2
P1 P2
1 1
= P1 log2 + (1 − P1 ) log2
P1 1 − P1
= −P1 log2 (P1 ) − (1 − P1 ) log2 (1 − P1 )
∂H(L) 1
= − log2 P1 + log2 (1 − P1 ) = 0 → P1 =
∂P1 2
P1 + P2 + P3 = 1
P3 = 1 − 2P1
1 1
H(L) = 2P1 log2 + P3 log2
P1 P3
= −2P1 log2 (P1 ) − (1 − 2P1 ) log2 (1 − 2P1 )
∂H(L) 1 1 −2 1 1
= −2P1 · · − 2 log2 P1 − (1 − 2P1 ) · · + 2 log2 (1 − 2P1 ) = 0 → P1 =
∂P1 P1 ln 2 1 − 2P1 ln 2 3
E = ” − ” → Más usado
E = ” − − · −” → Menos usado
44
CAPÍTULO 1. MODULACIONES M-ARIAS
k−1
X
I= P (Sk )Ik → Tamaño promedio del código
i=0
Lmin
η= → Eficiencia de codificación
I
I ≥ Lmin
45
CAPÍTULO 1. MODULACIONES M-ARIAS
S0 00
S1 10
S2 11
S3 010
S4 011
Tamaño promedio del código
k−1
X
I= P (Sk )Ik = 0,4(2) + 0,2(2) + 0,2(2) + 0,1(3) + 0,1(3) = 2,2 bits
i=0
Entropı́a de la Fuente
5
H(L) = 0,4 log2 + 0,4 log2 (5) + 0,2 log2 (10) = 2,12 bits
2
Eficiencia de Codificación
2
η= = 0,9
2,2
46
CAPÍTULO 1. MODULACIONES M-ARIAS
Varianza
σ12 = 0,4(2 − 2,2)2 + 0,4(2 − 2,2)2 + 0,2(3 − 2,2)2 = 0,16
σ1 = 0,4
S0 1
S1 01
S2 000
S3 0010
S4 0011
Tamaño promedio del código
Eficiencia de Codificación
1
η= = 0,45
2,2
Varianza
σ22 = 0,4(1 − 2,2)2 + 0,2(2 − 2,2)2 + 0,2(3 − 2,2)2 + 0,2(4 − 2,2)2 = 1,36
σ2 = 1,166
47
CAPÍTULO 1. MODULACIONES M-ARIAS
Ejercicio
Solución
O 000
L 001
A 010
I 011
M 100
N 101
P 110
Y 111
Tamaño promedio del código
Eficiencia de Codificación
3
η= =1
3
48
CAPÍTULO 1. MODULACIONES M-ARIAS
una probabilidad de error tan pequeña como se quiera. Normalmente se expresa en bits/s
(bps).
3. El canal es binario (BSC), si las entradas y salidas X, Y solo pueden tomar el valor de
0 y 1.
" # " #
P (Y0 |X0 ) P (Y1 |X0 ) 1−p p
P= →
P (Y0 |X1 ) P (Y1 |X1 ) p 1−p
49
CAPÍTULO 1. MODULACIONES M-ARIAS
j−1
X 1
H(H|YYk ) = p(Xj |Yk ) log2
p(Xj |Yk )
i=0
k−1
X
H(H|Y ) = H(Y = Yk )p(Yk )
i=0
j−1
k−1 X
X 1
= p(Xj |Yk )p(Yk ) log2
p(Xj |Yk )
k=0 j=0
j−1
k−1 X
X 1
= p(Xj Yk ) log2
p(Xj |Yk )
k=0 j=0
1.19.1. Propiedades
j−1
k−1 X
X p(Yk |Xj )
1. I(H; Y ) = p(Xj ; Yk )p(Yk ) log2
P (Yk )
k=0 j=0
2. I(H; Y ) ≥ 0
50
CAPÍTULO 1. MODULACIONES M-ARIAS
Si P (X0 ) = P (X1 )
1 X
1
X p(yk |xj )
I(H; Y ) = p(xj ; yk )p(Yk ) log2
P (yk )
k=0 j=0
1 X 1
X p(yk |x0 ) p(yk |x1 )
= p(x0 ; yk ) log2 + p(x1 ; yk ) log2
p(yk ) p(yk )
k=0 k=0
p(y0 |x0 ) p(y1 |x0 )
= p(x0 , y0 ) log2 + p(x0 , y1 ) log2 +
p(y0 ) p(y1 )
p(y0 |x1 ) p(y1 |x1 )
p(x1 , y0 ) log2 + p(x1 , y1 ) log2
p(y0 ) p(y1 )
1−p p
= p(x0 )(1 − p) log2 + p(x0 )p log2 +
p(x0 ) p(x0 )
p 1−p
p(x0 )p log2 + p(x0 )(1 − p) log2
p(x0 ) p(x0 )
1−p p
= 2p(X0 ) (1 − p) log2 + p log2
p(x0 ) p(x0 )
Como p(x0 ) = 1/2
= (1 − p) log2 [2(1 − p)] + p log2 [2p]
= 1 + (1 − p)log2 [1 − p] + p log2 [p] = C → Capacidad del Canal
51
CAPÍTULO 1. MODULACIONES M-ARIAS
52
Capı́tulo 2
C = maxp(xj) I(H; y)
C = 1 + (1 − 2p(1 − p)) log2 [1 − 2p(1 − p)] + 2p(1 − p) + 2p(1 − p)[log2 p + log2 (1 − p)]
53
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
H(Z) C
≤
Ts Tc
Dónde:
C:Tasa critica
Tc : Tiempo de utilización
Tc
R= R≤C
Ts
Z ∞
1
h(x) = f x(x) log2 dx
−∞ f x(x)
∞
X 1
H(x) = lı́m f x(x)∆x log2
∆x→0 f x(x)
k=−∞
" ∞ #
X 1
= lı́m f x(x) log2 ∆x
∆x→0 f x(x)
k=−∞
∞
" #
X
− lı́m log2 ∆x f x(x)∆x
∆x→0
k=−∞
= h(x) − lı́m log2 ∆x
∆x→0
Z a
1
h(x) = log2 [a]dx
−a a
1
= log2 [a] · a
a
= log2 [a]
k−1
X qk
PR log2 ≤0
pk
k=0
54
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
Z ∞
f x(x)
fy (x) log2 dx ≤ 0
−∞ f y(x)
Z ∞ Z ∞
fy (x) log2 f y(x)dx ≤ − fy (x) log2 f x(x)dx
−∞ −∞
Z ∞
h(y) ≤ − fy (x) log2 f x(x)dx
−∞
Z ∞
(x − µ)2
√
h(y) ≤ − log2 e fy (x) − 2
− log2 2πσ dx
−∞ 2σ 2
1
h(y) ≤ log2 (2πeσ 2 )
2
1
h(a) = 2 log2 (2πeσ 2 ) → Cuando se tiene una función Gaussiana
Z ∞ Z ∞
f x(x|y)
I(x; y) = fxy (x; y) log2 dx
−∞ −∞ f x(x)
I(x; y) = I(y; x)
I(x; y) ≥ 0
Z ∞ Z ∞
1
h(x|y) = fxy (x; y) log2 dx
−∞ −∞ f x(x|y)
No
AWGN → ;0
2
No
σ2 = · 2B = No · B
2
55
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
E = [x2k ] = P ; k = 1, 2, 3, ...
Dónde:
1
h(yk ) = log2 [2πe(P + σ 2 )]
2
1
h(Nk ) = log2 [2πeσ 2 ]
2
1 P
C = log2 1 + 2
2 σ
C = B log2 (1 + SN R)
Ejercicio
Un canal tienen un ancho de banda = 3.4 kHz
SN R = 7,88dB → Máximo
SN R = 2,2dB → Mı́nimo
Ejercicio
56
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
2. SNR, corresponde a 30dB. Calcule el ancho de banda mı́nimo para soportar la calidad
de vı́deo resultante
29,88x106
B= = 2,99M Hz(M ax) → 1,49M Hz(M in)
log2 (1 + 1000)
SN R = 30dB
P (x = k) = p(1 − p)k−1 , k = 1, 2, 3, ..
∞
X
k−1 1
h(x) = p(1 − p) log2
(1 − p)k−1
k=1
X∞
= − p(1 − p)k−1 log2 ((1 − p)k−1 )
k=1
∞
X
= − p(1 − p)k−1 (log2 p + (k − 1) log2 (1 − p))
k=1
∞
X ∞
X
k−1
= −p log2 p p(1 − p) − p log2 p(1 − p) p(1 − p)k−1 (k − 1)
k=1 k=1
= − log2 p − (1 − p) log2 (1 − p)
1 −|x|/λ
f x(x) = e ,λ > 0
2λ
Z ∞
1 −|x|/λ 1 −|x|/λ
h(x) = − e log2 e dx
−∞ 2λ 2λ
Z 0 Z ∞
1 −|x|/λ 1 −|x|/λ 1 −|x|/λ 1 −|x|/λ
= − e log2 e dx − e log2 e dx
−∞ 2λ 2λ 0 2λ 2λ
Z 0 Z ∞
1 x x/λ x/λ
x x/λ x/λ
= − e − e ln(2λ) dx − e − e ln(2λ) dx
2λln(2) −∞ λ 0 λ
1
= − [λ − ln(2λ) + λ + ln(2λ)]
2λln(2)
log2 2λ
=
2λ
57
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
AWGN
mn = 0; σn2 = 1
w0
. Lxx =
2
Coloreado
Se coloca un filtro en la región de interés
Es limitado en banda
SN (t)
SN 0 (f ) =
|H(f )|2
Respuesta en magnitud del canal
Lk = xk (t) + nk (t); k = 1, 2, 3, · · · N
Para conocer el canal → Primera potencia
Pk = Sx (fk )δf
Sn (f )
σ2 = · δf
|H(f )|2
1 pk
Ck = (δf ) log2 1 + 2 ; k = 1, 2, ..., N
2 σ
58
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
N
1X pk
Ck ≈ (δf ) log2 1 + 2
2 σk
k=1
Umbral→ punto medio para cada canal
λ → valores propios de la matriz del canal
σ2
u= al final todos transmiten al mismo canal
λ
1 ∞ |H(f )|2
Z
C= log2 k df
2 −∞ SN (t)
pk + σk2 = kδf
Detección de errores
Corrección de errores
59
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
Módulo 2
0+0=0
0+1=1
1+0=1
1+1=0
n-k k
b0 b1 bn−k−1 m0 m1 mk−1
paridad mensaje
| {z }
m = [m0 , m1 , · · · , mk−1 ]
b = [b0 , b1 , · · · , bn−k−1 ]
c = [c0 , c1 , · · · , cn−1 ]
b = mP
P P01 P0n−k−1
00
P =
Pk−10 Pk−1,n−k−1
..
c = b.m
..
c = m P .Ik
..
G = P .Ik
C = m · G → Trasmisión
60
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
PT
.
H · GT = [I n−k ..P T ]
...
Tk
cH T = mGH T = 0
. .
G = [1111..1] = [Pk,n−k ..k]
..
1 0 0 0 . 1
..
0 1 0 0 . 1
H=
..
0 0 1 0 . 1
.
0 0 0 1 .. 1
Cuando se produce un error se genera un Sindrome
S = rH T ; r = c + e
S = [c + e]H T = eH T
Distancia de Hamming
Peso de Hamming → Numero de elementos 6= 0 . n Ej: C1 = 01010100 → n =
9, ones = 3 . n Distancia de Hamming → Distancia mas pequeña entre cualquier
par de vectores de codigo en el codigo . n Ej: C2 = 010111011 → n = 9, ones = 6
dmin(C1 , C2 ) = min(6, 3) = 3
61
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
1
t ≤ [ (dmin − 1)] = 1
2
Código de Hamming
Hamming (7,4)
n = 24 − 1
k = 2n − m − 1
n−k =m
.
1 1 0 .. 1 0 0 0
.
0 1 1 .. 0
1 0 0
G=
.
1 1 1 .. 0
0 1 0
.
1 0 1 .. 0 0 0 1
Hamming (n,k)
Caracterı́stica del código Hamming dmin = 3 → puede detectar 3 errores y corregir 1.
0 0 0 0
0 0 0 1
0 0 1 0
0 0 1 1
0 1 0 0
0 1 0 1
0 1 1 0
0 1 1 1
m=
1 0 0 0
1 0 0 1
1 0 1 0
1 0 1 1
1 1 0 0
1 1 0 1
1 1 1 0
1 1 1 1
62
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
0 0 0 0 0 0 0 0 0 0 0
0 0 0 1 1 0 1 0 00 1
0 0 1 0 1 1 1 0 0 1 0
0 0 1 1 0 1 0 0 0 1 1
0 1 0 0 0 1 1 0 10 0
0 1 0 1
. 1
1 0 0 1 0 1
1 0 .. 1
0 1 1 0 1 0 0 0 1 0 0 0 1 1 0
.
1 1 .. 0
0 1 1 1 0 1 0 0 0 0 1 0 1 1 1
c=mG= · =
.
1 0 0 0 1 1 .. 0 1 1 0 1 0 0 0
1 0 1 0
.
1 0 0 1 0 1 1 1 0 0 1
1 0 1 .. 0 0 0 1
1 0 1 0 0 0 1 1 0 1 0
1 0 1 1 1 0 0 1 0 1 1
1 1 0 0 1 0 1 1 1 0 0
1 1 0 1 0 0 0 1 1 0 1
1 1 1 0 0 1 0 1 1 1 0
1 1 1 1 1 1 1 1 1 1 1
1 0 0 1 0 1 1
H=
0 1 0 1 1 1 0
0 0 1 0 1 1 1
Al recibir el código 1110010
1 0 0
0 1 0
0 0 1
h i h i
H T = 1 1 0 1 1 1 0 0 1 0 = 0 0 0
0 1 1
1 1 1
1 0 1
Dónde se comprueban que no existen errores.
h i
Con el código 1100010 se obtiene 001 se puede obtener el error
63
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
....
0 0 0 .. 0 0 0 0 0 0 0
1 ....
0 0 .. 1 0 0 0 0 0 0
0 ....
1 0 .. 0 1 0 0 0 0 0
0 ....
0 1 .. 0 0 1 0 0 0 0
1 ....
1 0 .. 0 0 0 1 0 0 0
....
0 1 1 .. 0 0 0 0 1 0 0
....
1 1 1 .. 0 0 0 0 0 1 0
....
1 0 1 .. 0 0 0 0 0 0 1
c = r + Pe
h i h i
c= 1 1 1 0 0 1 0 + 0 0 0 0 0 0 0
h i h i
c= 1 1 0 0 0 1 0 + 0 0 1 0 0 0 0
GH T = 0
Propiedades
64
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
C(x) = q(x)g(x)
Polinomio generador → xn + 1
c(x) = a(x)g(x)
b0 b1 bn−k−1 m0 m1 mk−1
paridad mensaje
| {z }
. n
65
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
Ejemplo
x7 + 1 = (x + 1)(1 + x2 + x3 )(1 + x + x3 )
g(x) = 1 + x + x3
(7; 4) → n − k = 3
1001 → m(x) = 1 + x3
n−k−1
X
g(x) = 1 + gi xi + xn−k
i=1
n−k−1
X
h(x) = 1 + hi x i + x k
i=1
x + 1 = (1 + x)(1 + x + x2 )
h(x) = 1 + x + x2 + x4
g(x) = 1 + x + x3
xg(x) = x + x2 + x4
x2 g(x) = x2 + x3 + x5
x3 g(x) = x3 + x4 + x6
Matriz Sistematica
1 1 0 1 0 0 0
0 1 1 0 1 0 0
0
G =
0 0 1 1 0 1 0
0 0 0 1 1 0 1
Se suma la fila F2, el primer mas tercer reglón.
Se suma las dos primeras filas y eso a la cuarta
66
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
1 1 0 1 0 0 0
0 1 1 0 1 0 0
0
G =
1 1 1 0 0 1 0
1 0 1 0 0 0 1
Se obtiene la Matriz no Sistematica
k−1
X
h(x) = hi ∗ x i + x k
i=1
g(x)h(x)mod(xn + 1) = 0
g(x)h(x) = xn + 1
x4 h(x−1 ) = x4 + x3 + x2 + 1
x5 h(x−1 ) = x5 + x4 + x3 + x
x6 h(x−1 ) = x6 + x5 + x4 + x2
67
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
Ejemplo
Considérese el código de Hamming (7;4) definido por g(x) = 1 + x + x2 la palabra codigo
0111001 se envı́a por un canal ruidoso produciendo la palabra recibida 0101001, que tiene un
solo error. Determine el polinomio sindrome S(i) de la palabra recibida y demuestre que es
identico al polinomio del error.
0101001 → x + x3 + x6
x + x3 + x6
= x3 + x Residuo = x2 = S(x)
1 + x + x3
e(x) = x + x2 + x3 + x6 + x + x3 + x6
e(x) = x2
1 + x2
g(x) =
h(x)
Hamming dmin = 3
Verificación de redundancia (CRC)
CRC 12 Polinomio Generador 1 + x + x2 + x3 + x11 + x12 donde; n − k = 12
CRC 16 Polinomio Generador 1 + x2 + x15 + x16 donde; n − k = 16
CRC TTU Polinomio Generador 1 + x5 + x12 + x16 donde; n − k = 16
68
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
Todos los patrones de errores con números impar de errores si el polinomio generador
g(x) para el código tiene un numero par de coeficientes distinto de cero.
Este sistema contiene dos codificadores propiamente dichos: uno exterior de bloques, y
uno interior convolucional. Estos dos codificadores introducen redundancia en los datos con
objeto de poder detectar o corregir errores de transmisión. El sistema contiene además dos
entrelazados cuyo objetivo es hacer que bloques correlativos de bits no se transmitan juntos.
Este es el esquema de codificación empleado en la televisión digital DVB (Digital Video
Bradcasting). El esquema de codificación utilizado en la telefonı́a móvil GSM es similar, pues
usa un codificador de bloques, un codificador convolucional y un entrelazado.
Los códigos convolucionales son adecuados para usar sobre canales con mucho ruido (alta
69
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
probabilidad de error). Los códigos convolucionales son códigos lineales, donde la suma de
dos palabras de código cualesquiera también es una palabra de código. Y al contrario que
con los códigos lineales, se prefieren los códigos no sistemáticos. El sistema tiene memoria: la
codificación actual depende de los datos que se envı́an ahora y que se enviaron en el pasado.
Un código convolucional queda especificado por tres parámetros (n,k,m):
n es el número de bits de la palabra codificada
k es el número de bits de la palabra de datos
m es la memoria del código o longitud restringida
La codificación convolucional es una codificación continua en la que la secuencia de bits
codificada depende de los bits previos. El codificador consta de un registro de desplazamiento
de K segmentos de longitud k (en total kK) que se desplaza k posiciones por ciclo y genera
n funciones EXOR también por ciclo. La tasa de codificación es, entonces, R=k/n.
L bits
r=
n(L + M simbolo
1 bits
L≥M →r=
n simbolo
Existen 4 formas de representación:
1. Diagrama de bloques
2. Diagrama de estados
3. Diagrama de árbol
4. Diagrama de enramado
70
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
g1 (x) = 1 + x + x2
g2 (x) = 1 + x2
(1 + x3 + x4 )(1 + x + x2 ) = 1 + x + x2 + x3 + x6
(1 + x3 + x4 )(1 + x2 ) = 1 + x2 + x3 + x4 + x5 + x6
71
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
Las máquinas de estados finitos suelen denominarse máquinas secuenciales ya que a partir de
un estado inicial y de una secuencia ordenada de eventos de entrada, generan una secuencia
de estados por los que pasa la máquina, y a su vez una secuencia de acciones de salida.
Las máquinas secuenciales son un poderoso modelo para implementar esquemas de control
secuencial (dependientes de la historia pasada), tanto en hardware como en software. El
modelo de máquina secuencial también facilita el diseño de la programación de sistemas
multitareas, en tiempo real, utilizando microcontroladores. El modelo de máquina secuencial
se emplea en Teorı́a de lenguajes formales y tiene importantes aplicaciones en reconocimiento
de patrones y analizadores léxicos y sintácticos, por mencionar algunas.
A B µ A’ B’ g1 g2
0 0 0 0 0 0 0
0 0 1 1 0 1 1
0 1 0 0 0 1 1
0 1 1 1 0 0 0
1 0 0 0 1 1 0
1 0 1 1 1 0 1
1 1 0 0 1 0 1
1 1 1 1 1 1 0
72
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
Un codificador convolucional tiene un registro de corrimiento sencillo con 2 etapas (es decir
longitud de restricción k = 3), 3 sumadores módulo 2 y un multiplexor de salida, las secuencias
del generador del codificador son:
g1 = [1, 0, 1]
g2 = [1, 1, 0]
g3 = [1, 1, 1]
73
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
A B µ A’ B’ g1 g2 g3
0 0 0 0 0 0 0 0
0 0 1 1 0 1 1 1
0 1 0 0 0 1 0 1
0 1 1 1 0 0 1 0
1 0 0 0 1 0 1 1
1 0 1 1 1 1 0 0
1 1 0 0 1 1 1 0
1 1 1 1 1 0 0 1
Ejercicio
En la figura se muestra el codificador para un código convolucional de tasa 1/2, longitud de
restricción k = 4. Determine la salida del codificador producida por la secuencia del mensaje:
10111.
g1 (x) = 1 + x + x2 + x3
g2 (x) = 1x + x3
m(x) = 1 + x2 + x3 + x4 + ...
74
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
c1 (x) = (1 + x2 + x3 + x4 + ...) · (1 + x + x2 + x3 )
c1 (x) = 1 + x + x3 + x4 + x5 + x7 + ...
c2 (x) = 1 + x + x2 + x3 + x6 + x7 + ...
75
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
Este se puede comprobar a través de la siguiente tabla y con las siguientes especificaciones:
A0 = µ
B0 = A
C0 = B
g1 = µ + A + B + C
g2 = µ + A + C
A B C µ A’ B’ C’ g1 g2
0 0 0 0 0 0 0 0 0
0 0 0 1 1 0 0 1 1
1 0 0 0 0 1 0 1 1
0 1 0 1 1 0 1 0 1
1 0 1 1 1 1 0 1 1
1 1 0 1 1 1 1 1 0
g1 = µ1 + A + B
76
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
g2 = µ1 + µ2 + B
g 3 = µ1 + A
A B µ1 µ2 A’ B’ g1 g2 g3
0 0 0 0 0 0 0 0 0
0 0 0 1 0 1 0 1 0
0 0 1 0 1 0 1 1 1
0 0 1 1 1 1 1 0 1
0 1 0 0 0 0 1 1 0
0 1 0 1 0 1 1 0 0
0 1 1 0 1 0 0 0 1
0 1 1 1 1 1 0 1 1
1 0 0 0 0 0 1 0 1
1 0 0 1 0 1 1 1 1
1 0 1 0 1 0 0 1 0
1 0 1 1 1 1 0 0 0
1 1 0 0 0 0 0 1 0
1 1 0 1 0 1 0 0 0
1 1 1 0 1 0 1 0 1
1 1 1 1 1 1 1 1 1
Ejercicio
77
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
g1 = x + x2
g2 = 1 + x
g3 = 1 + x + x2
78
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
µ = 1011
79
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
2.4. Cuantificación
La cuantificación se encarga de convertir una sucesión de muestras de una determinada señal
análogica con amplitud continua en una sucesión de valores discretos, preestablecidos según
el código utilizado.
Durante el proceso de cuantificación se mide el nivel de tensión de cada una de las muestras,
obtenidas en el proceso de muestreo, y se les atribuye un valor finito (discreto) de amplitud,
seleccionado por aproximación dentro de un margen de niveles previamente fijado.
Los valores preestablecidos para ajustar la cuantificación se eligen en función de la propia
resolución que utilice el código empleado durante la codificación. Si el nivel obtenido no
coincide exactamente con ninguno, se toma como valor el inferior más próximo.
Cuantificadores
Los cuantificadores son sı́mbolos utilizados para indicar cuántos o qué tipo de elementos de
un conjunto dado cumplen con cierta propiedad (por ejemplo, pertenencia, equivalencia u
orden). Existen muchos tipos de cuantificadores, entre los más utilizados están:
80
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
Uniformes
Logarı́tmicos
Adaptativos
Diferenciales
Vectoriales
Proceso no lineal: x
b(n) = Q[x(n)]; x(n) está discretizado.
∆: Paso de cuantificaión; cambio valores de voltaje.
2Xm → Voltaje pico-pico.
2Xm
∆=
2#
81
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
2(5)
∆= = 19,53mV
28
e(n) = x(n) − x
b(n)
∆2
Ruido de cuantificación: → σe2 = 12
Z ∞
E[x] = xfx (x)dx
−∞
Z ∞
2
E[x ] = x2 fx (x)dx
−∞
Z ∆/2
1 2
E[x2 ] = x dx
−∆/2 ∆
1 ∆3
E[x2 ] = dx
∆ 12
82
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
∆2
E[x2 ] =
12
Cuantificador Logarı́tmico:
Usa la Ley µ más un codificador uniforme.
Cuantificadores Adaptativos:
Los cuantificadores adaptativos son aquellos en los que la librerı́a de códigos varia a lo largo
del tiempo (o de las variables independientes existentes) para adecuarse a la estadı́stica local
observada a la entrada. Por otro lado hay cuantificadores que unen estos conceptos con los
esquemas de la cuantificación estrecha, de forma que existen cuantificadores en los que se
van adaptando las medias, o las ganancias, etc.
Ya no es uniforme.
Usan estocásticos.
Ejemplo:
5 min→ fs = 44100 Hz→ 16 bits, estéreo.
5min · 60seg · 44100Hz · 16bits · 2
= 50,46M bytes
1min · 8 · 1024 · 1024
Medidas.
Procesamiento.
Transformación.
Extracción de información.
83
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
Códigos de bloque.
Códigos convolucionales.
Códigos combinados.
implica
Una reducción en la relación SN requerida o Ganancia de Codificación Gc (dB).
Un incremento del ancho de banda (por tasa binaria) o Se incrementa (a igualdad de sistema
de modulación) por un factor de Rc.
Todo esto es aplicable en sistemas con suficiente ancho de banda (comunicaciones espaciales)
pero no es sistemas con ancho de banda restringido (lı́nea telefónica).
2 − z −1 = 0
2 = z −1
1
=2
z
1
z=
2
84
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
Función de cuantificación
Q(y[n]) = Q(x[n]) − Q(0,5x[n − 1])
b[n] − (0,5b
yb[n] = x x[n − 1] − ηm [n])
= E[∆2 x[n]] − E[∆x[n]∆x[n − 1]] − 2E[∆x[n]ηm [n]] + 0,25E[∆2 x[n − 1]] + E[∆x[n − 1]ηm [n]]
≈ 1,25E[∆2 x[n]] − 2E[∆x[n]ηm [n]] + E[∆x[n − 1]ηm [n]] + E[ηm
2 [n]]
Ejercicio
Dado una forma de onda analógica que ha sido muestreada a una frecuencia de Nyquist fs
usando muestreo natural. Pruebe que una forma de onda proporcionada a la forma de onda
85
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
original puede ser recuperada de las muestras usando las técnicas de recuperación mostradas
en la figura, el parámetro MFS es la frecuencia de oscilador local donde M es un entero.
∞
( )
X
X0 (t) = X(t) C0 Cm cos(2πfs mt)
m=1
86
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
1 1
X0 (t) = X(t) 2Cm 2 + 2 ∗ cos(4πfs t)
X0 (t) = Cm X(t)
Ejercicio
Una forma de onda X(t) = 10 cos(1000t+ π3 )+20 cos(2000+ π6 ) es uniformemente muestreada
para una transmisión digital.
1. ¿Cuál es la máxima separación entre las muestras para que exista una reconstrucción
perfecta?
2. Si se desea reproducir una hora esta forma de onda ¿cuánta capacidad en disco se
requiere?
Ejercicio
Un conversor lineal de analógica a digital de 16 bits está operando sobre un rango de ±5.
16bits ± 5V
2Xm 2(5)
1. S = 2n = 216
= 0, 1526mV
2
∆2
2. σc2 = = (0,15mV
12 12
)
= 1, 94 ∗ 10−9
q
2 −6
2
σRM S = ∆ √∆
12 = 12 = 44, 05 ∗ 10
2
σRM S : respecto a la media
87
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
Ejercicio
Considere un cuantificador de tres niveles, cuyo funcionamiento se indica en la figura, suponga
que la entrada x al cuantificador es una variable aleatoria uniforme en el intervalo (-1,1),
determine el valor del parámetro a de manera a minimizar el error cuadrático medio producido
por el error de cuantificación.
1 1 1
f x(x) = = =
b−a 1 − (−1) 2
e = x − Q(x)
E[e2 ] = E[(x − Q(x))2 ]
R∞
E(e2 ) = −∞ x2 f x(x)dx
1 R −1/2 1 R 1/2 1 R1
= −1 (x + a)2 dx + −1/2 (x)2 dx + (x − a)2 dx
2 2 2 1/2
1 x3 −1/2 1 x3 1/2 1 x3
= [ + ax2 + a2 x]−1 + [ ]−1/2 + [ − ax2 + a2 x]11/2
2 3 2 3 2 3
1 1 1 a a 2 1 1 1 a a2 1
= [ − a + a2 − + − + + − + − + − a + a2 ]
2 3 24 4 2 24 24 24 4 2 3
1 2 a 2 1 2 3a 2 1 3a a2
= [ + + a − 2a] = [ − +a ]= − +
2 3 2 2 3 2 3 4 2
3 3
a− =0⇒a=
4 4
Ejercicio
Un conversor de 10 bits con ley µ opera sobre una escala de ±5V . Si µ = 100 determine la
salida del cuantificador si la entrada 5V de una senal sinusoidal.
10bits
Ymax = 5V
µ = 100
|X| = 5
Ley µ
88
CAPÍTULO 2. TEORIA DE LA CODIFICACIÓN DEL CANAL
Y = Ymax ln[1+µ(|X|)]
ln(1+µ) sgn(X)
Y = 5 ln[1+100(|5|)]
ln(1+10)
Y = 6, 73V
Ejercicio
Un filtro lineal es diseñado como un predictor final con 2 tabs o coeficientes de filtro, para
b(n) = a1 x(n − 1) + a2 x(n − 2).
operar en un sistema DPSM, el predictor tiene la forma x
Determine los valores de a1 y a2 de manera de minimizar el error cuadrático medio de la
predicción.
89
Capı́tulo 3
Tercer Parcial
LMS
NLMS
Se trabajan como filtros FIR, varias aplicaciones en donde se pueden aplicar son en Realce
de Señales
90
CAPÍTULO 3. TERCER PARCIAL
R = E[X(k)XH (k)]
Donde:
x0 (k)
x1 (k) h i
X(k) = ; XH (k) = x∗0 (k) x∗1 (k) ··· x∗n (k)
..
.
xn (k)
91
CAPÍTULO 3. TERCER PARCIAL
Por lo tanto
x0 (k)
x1 (k) h i
R = E x∗0 (k) x∗1 (k) · · · x∗n (k)
..
.
xn (k)
E[|x0 (k)|2 ] E[x0 (k)x∗1 (k)] · · · E[x0 (k)x∗n (k)]
E[x1 (k)x∗ (k)] E[|x1 (k)|2 ] ··· E[x1 (k)x∗n (k)]
0
R=
.. .. .. ..
. . . .
E[xn (k)x∗0 (k)] E[xn (k)x∗1 (k)] · · · E[|xn (k)|2 ]
3.2.1. Propiedades
Matriz Hermı́tica: R = RH
Matriz de Toeplitz:
λmax
C=
λmin
Donde:
Suponga que la señal de entrada es un vector compuesto por sus propios retardos de tal forma
que:
x(k)
x(k − 1)
X(k) =
..
.
x(k − N )
Ejercicios
Dado que x(k) = n(k), donde n(k) es ruido blanco de media 0 y varianza σn2 . Encontrar la
matriz de auto correlación cuando n = 3.
92
CAPÍTULO 3. TERCER PARCIAL
Solución
x(k)
x(k − 1)
X(k) =
x(k − 2)
x(k − 3)
Por lo tanto
x(k)
x(k − 1) h i
R = E x∗0 (k) x∗ (k − 1) x∗ (k − 2) x∗ (k − 3)
x(k − 2)
x(k − 3)
E[|x(k)|2 ] E[x(k)x∗ (k − 1)] E[x(k)x∗ (k − 2)] E[x(k)x∗ (k − 3)]
E[x(k − 1)x∗ (k)] E[|x(k − 1)|2 ] E[x(k − 1)x∗ (k − 2)] E[x(k − 1)x∗ (k − 3)]
=
E[x(k − 2)x∗ (k)] E[x(k − 2)x∗ (k − 1)] 2 ∗
E[|x(k − 1)| ] E[x(k − 2)x (k − 3)]
E[x(k − 3)x∗ (k)] E[x(k − 3)x∗ (k − 1)] ∗
E[x(k − 3)x (k − 2)] 2
E[|x(k − 3)| ]
E[n2 (k)] E[n(k)n∗ (k − 1)] E[n(k)n∗ (k − 2)] E[n(k)n∗ (k − 3)]
E[n(k − 1)n∗ (k)] E[n2 (k − 1)] E[n(k − 1)n∗ (k − 2)] E[n(k − 1)n∗ (k − 3)]
=
E[n(k − 2)n∗ (k)] E[n(k − 2)n∗ (k − 1)] 2 ∗
E[n (k − 1)] E[n(k − 2)n (k − 3)]
E[n(k − 3)n∗ (k)] E[n(k − 3)n∗ (k − 1)] ∗
E[n(k − 3)n (k − 2)] 2
E[n (k − 3)]
Dado que mn = 0 y σn2 = E[n2 (k)] − m2n
σ 2 0 0 0
n
0 σ2 0 0
n
R=
2
0 0 σ n 0
0 0 0 σn2
Para x(k) = acos(wo k) + n(k)
93
CAPÍTULO 3. TERCER PARCIAL
R R01 R02 R03
00
R R11 R12 R13
10
R=
R20 R21 R22 R23
R30 R31 R32 R33
Los filtros de Wiener son los mejores filtros lineales de mı́nimos cuadrados, que pueden ser
usados para predicción, estimación, interpolación, filtrado de señal y ruido, etc.
94
CAPÍTULO 3. TERCER PARCIAL
Donde
P = E[d(k)x(k)]
y
R = E[x(k)xT (k)w(k)]
∂ξ(k)
∂wo
∂ξ(k)
ξ(k) ∂w1
=
∂w ...
∂ξ(k)
∂wn
95
CAPÍTULO 3. TERCER PARCIAL
Donde
−2P + 2Rw = 0
P = Rw
w = R−1 P
Ejercicios
1. La señal es generada aplicando distinto ruido blanco sobre en filtro de primer orden, cuyos
polos se encuentran en −S1 y −S2 respectivamente. Calcule la matriz de autocorrelación y
calcule la solución de Wienner si la señal deseada es X2 (k)
1
E[x2i (k)] = 1 = ki2 · · σ2
1 − Si2
r
1 − Si2
ki =
σ2
E[x2 (k)] = α12 x21 (k) + 2α1 x1 (k)α2 x2 (k) + α22 x22 (k)
= α12 (1) + α22 (1)
" #
α12 + α22 −S12 α12 − −S22 α22
R=
−S12 α12 − −S22 α22 α12 + α22
96
CAPÍTULO 3. TERCER PARCIAL
Wo = R−1 P
P = E[d(k)x(k)]
" #
α1 x1 (k) + α2 x2 (k)
P = E x2 (k)
α1 x1 (k − 1) + α2 x2 (k − 1)
" #
α2
P =
−α2 S2
" #−1 " #
α12 + α22 −S12 α12 + −S22 α22 α2
Wo =
−S12 α12 + −S22 α22 α12 + α22 −α2 S2
" #
1 α12 α2 + α23 − S1 S22 α12 α2 − S22 α23
Wo = 2
(α1 + α22 )2 − (S12 α12 + −S22 )2 S1 α12 + S2 α23 − S22 α12 α2 − S22 α23
1. Consistencia y BIAS
2. Algoritmos de Newton
∆w(k + 1) = w(k) − wo
97
CAPÍTULO 3. TERCER PARCIAL
Un proceso adaptativo, que realiza el ajuste automático de los coeficientes del filtro de
acuerdo con la estimación del error.
wo = R−1 P
R = E[x(k)xT (k)]
P = E[d(k)x(k)]
b = x(k)xT (k)
R
Pb = d(k)x(k)
w(k + 1) = w(k) − µb
gw (k)
1. Estabilidad
1
0≤µ≤
λmax
Análisis de estabilidad de matriz de covarianza
1
0≤µ≤
tr[R]
0≤µ≤1
98
CAPÍTULO 3. TERCER PARCIAL
2. Desajuste (Misadjustment)
µtr[R]
M≈
1 − µtr[R]
3. Cálculo computacional
Señal deseada → Estacionario
Si el modelo es no estacionario →
s
(N + 1)σ 2
µopt
4σ 2 tr[R]
w(k + 1) = w(k) + µe ∗ (k)x(k)
3.4.0.1. NMLS
Inicialización
x(0) = w(0)
2π
x(k) = ejwo k + n(k) = ej 8 k + n(k)
π
" #
ej 4 k + n(k)
x(k) = j π (k−1)
e 4 + n(k − 1)
π
"" # #
ej 4 k + n(k) h π π
i
R=E π e−j 4 k + n(k) e−j 4 (k−1) + n(k − 1)
ej 4 (k−1) + n(k − 1)
" #
E[|x(k)|2 ] E[x(k)x(k − 1)]
R=
E[x(k − 1)x(k)] E[|x(k − 1)|2 ]
" √ √ #
2 2
1,1 2 + j 2
R = √2 √
2
2 +j 2 1,1
99
CAPÍTULO 3. TERCER PARCIAL
tr[R] = 2, 2
1 1
0≤µ≤ →0≤µ≤
tr[R] 2,2
k
X
ξα = λk−i E 2 (i)
i=0
k
X
= λk−i [d(i) − xT (i)w(i)]2
i=0
∂ξ d (k)
∂w
o
∂ξ d (k) .
= ..
∂w(k)
∂ξ d (k)
∂w(n
Derivando
k
0
X ..
λk−i [d(i) − xT (i)w(i)] =
2 .
i=0
0
" k #−1 k
X X
k−i T
w(k) = λ x(i)x (i) λk−i x(i)d(i)
i=0 i=0
w(k) = R−1
o Po
100
CAPÍTULO 3. TERCER PARCIAL
So (k − 1)x(k)xT (k)
1
S ∆ (k) = R−1
∆ (k) = So (k − 1)
λ λ + xT (k)So (k − 1)x(k)
Inicialización
S ∆ (−1) = δ T
P ∆ (k) = λP ∆ (k − 1) + d(k)x(k)
w(k) = S ∆ P ∆
Caso de RLS
Hacer ecualización para 32 QAM
Perdidas por propagación
n Q
r X
Lp (dB) = β(dB) + 10log + F AF (q)
ro
q=1
Tx β
= n
TR r
Donde
ro → Distancia nominal
101
CAPÍTULO 3. TERCER PARCIAL
n = 3.1
FAF = 5 dB
S = -75 dBm
PT x = -10 dB
PRx = -105 dB
n Q
r X
Lp (dB) = β(dB) + 10log + F AF (q)
ro
q=1
3,1
38
Lp (dB) = β(dB) + 10log + 10(3) + 2(5)
5
3,1622x10−11 β
= 3,1 → 2,49x10−5
0,1 38
Lp = −46,02 + 27,3 + 30 + 10 = 21,28dB
102
CAPÍTULO 3. TERCER PARCIAL
canales a los distintos usuarios y comunicaciones a realizar, sin interferirse entre sı́. Los
usuarios pueden compartir el acceso a estos distintos canales por diferentes métodos como
TDMA, CDMA o SDMA, siendo estos protocolos usados indistintamente en los diferentes
niveles del modelo OSI.
TDMA
Es una técnica que permite la transmisión de señales digitales y cuya idea consiste en ocupar
un canal (normalmente de gran capacidad) de transmisión a partir de distintas fuentes, de
esta manera se logra un mejor aprovechamiento del medio de transmisión. También se podrı́a
decir que es un proceso digital que se puede aplicar cuando la capacidad de la tasa de datos
de la transmisión es mayor que la tasa de datos necesaria requerida por los dispositivos
emisores y receptores. En este caso, múltiples transmisiones pueden ocupar un único enlace
subdividiéndole y entrelazándose las porciones.
D =ω+τ
Donde:
103
CAPÍTULO 3. TERCER PARCIAL
3.7.2.1. FDMA
τF D = T
ωF D = 0
3.7.3. TDMA
T b
τT D = =
M R
M
1 X T T 1
ωT D = (m − 1) = 1−
M M 2 M
m=1
DF D = T
T 1 T
DT D = 1− +
2 M M
b
= DF D − (M − 1)
2R
Normalmente las aplicaciones de estas dos tipos de acceso son:
n(t) Ruido
Si las variaciones del canal son lentas a comparación con la duración del sı́mbolo, se puede
asumir que:
ω(t) = ω = αejφ
r(t) = αejφ x(t) + n(t)
En donde:
104
CAPÍTULO 3. TERCER PARCIAL
3.7.5. Definiciones
105
CAPÍTULO 3. TERCER PARCIAL
Z T
Ui |si = Si (t)r(t)dt
0
Z T
= Esi + Si (t)J(t)dt
0
Z T "X n
#
= Esi + E Sik φk (t)J(t)dt
0 k=1
Es
Dado que: E[Ui ] = , entonces la varianza será:
D
= E[Ui2 |si ] − Es2
Z T
2 2
= Es − EJ + E Si (t)J(t)dt
0
Es EJ Es EJ
= =
n n D
De donde:
Es n
·
EJ D
n Bss
Pero Gpp = = , en donde Gpp es la ganancia del proceso.
D BD
106
CAPÍTULO 3. TERCER PARCIAL
r ! r ! r !
2Eb 2Eb 2Eb
Pe = Q =Q ≈Q
No No NJ + No
Potencia Recibida:
Sb = Eb Rb
v
u W c1
u
u 2 r !
u Rb
J
Pe = Q u =Q 2Gpp
t J Sb
Sb
107
CAPÍTULO 3. TERCER PARCIAL
2. La cantidad de unos y de ceros deber ser igual, en el caso de que no lo sean , el número
de unos puede exceder por uno al número total de ceros.
1 -1 1
1 1 1 1 -1 -1 -1 -1 1 1 1 1
-1 1 -1 1 -1 1 -1 1 -1 1 -1 1 → chips
-1 1 -1 1 1 -1 1 -1 -1 1 -1 1
Ejercicios
En un sistema CDMA se usa spread spectrum de secuencia directa con un ancho de 10 kHz
y una ancho de dispersión de 10 MHz, se transmite solo una señal o se recibe una señal con
una relación señal a ruido (SNR) de 16 dB.
Solución
a.
Eb
= 16 dB
No
Wss 10 kHz
W = 10 M Hz
Wss 10 M Hz
Epp = = = 30 dB
W 10 kHz
108
CAPÍTULO 3. TERCER PARCIAL
109
CAPÍTULO 3. TERCER PARCIAL
Ejercicios
Solución
100
T = = 3,33 · 10−7
3 · 108
Tasa de chip → (T )−1 = 30 M bps
Ejercicios
En un sistema coherente de spread spectrum con BPSK está transmitiendo con una velocidad
de 10 kbps en presencia de una banda ancha de Jammer, asuma que el sistema no usa
codificación de canal, también asuma que la pérdida de propagación y el Jammer. Si la PIRE
del comunicador es 20 kW y el PIRE del Jammer es 60 kW, calcule el ancho de banda de
Spread Spectrum requerido para obtener una probabilidad de error de 10−5 .
Solución
−x2
1
Q(x) = √ e 2 = 10−5
x 2π
De donde: r
2Eb
x = 4,25 =
Io
Despejando:
Eb
= 9,031 → 9,56 dB
Io
Wss
9,031 = W → W = 270,93 kHz
J
S
3.12. Demostración
N
Eb = STb ; No
W
S
Eb =
Rb
110
CAPÍTULO 3. TERCER PARCIAL
Eb S S W
= = ·
No No Rb N Rb
Tomando en cuenta que:
S 1
=
N M −1
Nos queda:
Eb 1 W
= ·
No M − 1 Rb
Donde M es el número de usuarios.
3.13. Sobrecarga
Eb 1 W 1
= ·
No M − 1 Rb 1+n
Pero:
1
F =
1+n
De donde:
F : Factor de reuso
n: Factor de sobrecarga
3.14. Sectorización
Eb 1 W 1 1
= · λ
No M − 1 Rb 1+n v
De donde: R 2π
I(θ)dθ
λ= 0
R 2π G(θ)
0 I(θ)dθ
G(0)
Considerando que:
111
CAPÍTULO 3. TERCER PARCIAL
Ejercicio
Un sistema de comunicación binario transmite la misma señal por dos canales con diversidad.
Las 2 señales son:
p
r1 = ± Eb + n1
p
r2 = ± Eb + n2
Donde E[n1 ] = E[n2 ] = 0 y E[n21 ] = σn2 1 , E[n22 ] = σn2 2 , n1 y n2 son descorrelacionados y son
variables de tipo Gaussiano. El detector se basa en el empleo de un combinador lineal para
n1 y n2 como se indica
r = r1 + r2
Solución
3.15. Media
p p p
E[r] = ± Eb ± k Eb = (1 + k) Eb
3.16. Varianza
m2 (1 + k)2 Eb
= = g(k)
σ2 σn2 1 + k 2 σn2 2
112
CAPÍTULO 3. TERCER PARCIAL
σn2 1
k=
σn2 2
113