Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introducción:
Comenzaremos revisando, en el siguiente diagrama de bloques, los elementos que conforman un
sistema de comunicaciones digitales
Se dice que los símbolos son generados por una fuente y a la conversión a elementos digitales que
podrán ingresar al sistema de Comunicaciones Digitales se le llama codificación de fuente. Existe
Codificación de Fuentes Analógicas (por ejemplo PCM o DPCM) y Codificación de Fuentes Discretas
(por ejemplo Huffman). El codificador de fuente también se puede encargar de codificar eficientemente
los datos binarios, asignando, por ejemplo en Codificación de Fuentes Discretas, más bits a los
símbolos menos probables y menos bits a los más probables. El encriptamiento es la modificación de
los datos originales, usando claves, para hacer irreconocible la información por parte de usuarios no
autorizados. Por su parte, el codificador de canal introducirá bits o símbolos redundantes de una
manera controlada, con el fin de fortalecer la información frente al ruido o a la interferencia que pueda
producirse, predominantemente en el canal. El multiplexaje puede ser en tiempo, en frecuencia, etc...
La modulación permite variar algún parámetro de una portadora en función de los datos que se quieren
transmitir. Todos estos elementos conforman el transmisor.
Luego de pasar por un canal que, entre otras cosas, filtra, atenúa y agrega ruido, el receptor se
encarga de realizar todas las operaciones inversas a fin de rescatar el mensaje original.
Comencemos con el codificador de Fuente: Si la señal no está digitalizada hay que muestrearla y
cuantificarla. Repasemos estos conceptos.
Suponga una señal x(t) cuya transformada X(f) tiene la siguiente forma:
Esto se define como una señal bandabase (o pasabajo). Por ejemplo las señales de voz para
telefonía básica tienen fmax=4KHz, el audio en general puede alcanzar fmax=20KHz, para las señales de
video fmax=6MHz.
Si, por ejemplo, tomamos muestras periódicas de esta señal cada ts segundos, el espectro X(f) se
repite cada fs Hz. Es decir, si en tiempo se multiplica la señal por un tren de deltas:
∞
xs (t ) = ∑ x(nt s )δ (t − nt s )
−∞
El espectro de la señal original se repite cada fs. Si quisiéramos rescatar la señal original, bastaría
utilizar un filtro pasabajo (LPF) ideal pero esto siempre y cuando no exista solapamiento (aliasing).
Para esto se DEBE cumplir que:
fs >=2fmax
En el supuesto de que la señal esté bien muestreada debemos cuantificarla lo cual es,
básicamente, una discretización de las amplitudes; esto se lleva a cabo de la siguiente manera: Se
divide el rango total de voltaje de la señal en M franjas de tamaño a. M es el numero de niveles de
cuantificación y a es llamado el paso del cuantificador. En cada intervalo de tiempo kts se observa en
que rango de voltaje se encuentra la señal y en función de esto se le asigna un nivel de voltaje a la
salida tal y como se ilustra a continuación:
A diferencia del proceso de muestreo, que si está bien realizado nos permite recuperar
perfectamente la señal original, la cuantificación es un proceso no lineal que hace imposible recuperar
perfectamente la señal original muestreada. Se produce un error de reconstrucción denominado ruido
de cuantificación. Por supuesto si el número de niveles de cuantificación (M) crece, la señal
cuantificada se parecerá mucho a la original, lo que se reflejará en una reducción del error o ruido de
cuantificación.
Ahora supongamos que ya hemos pasado por el bloque Codificador de Fuente, es decir ya
tenemos símbolos listos para poder ingresar al Sistema de Comunicaciones Digitales; lo que se debe
hacer es asignar a cada símbolo una forma de onda que pueda ser enviada por un canal. Por ejemplo, si
estamos en un caso binario, podemos representar una determinada cadena de ceros y unos con una
sucesión de formas de onda que podrían transmitirse por el canal. Veamos un ejemplo en forma
gráfica:
En el primer caso llamado Non Return to Zero Polar (NRZp) el “1” se representa como un pulso
de altura V que dura todo el intervalo llamado tb o tbit; en cambio el “0” se representa como un pulso de
la misma duración pero negativo.
Esto representaría una transmisión en Banda Base.
Otro ejemplo:
∫ u n (t )u m (t )dt = δ nm
Ortonormalidad un. um = δ nm
Representación N
x = ∑ xnun
x(t ) = ∑ xnu n (t ) n =1
n =1
Energía/ L2
E = ∫ x(t ) x(t )dt L2= x.x
T 2 T 2 2 T
∫0 s (t ) − sˆ(t ) dt = ∫0 s (t ) dt + ∑ sj − 2 Re ∑ s j ∫0 s (t )u j (t )dt =
j =1 j =1
2 2
T T
Es + ∑ s j − ∫0 s (t )u j (t )dt − ∑ ∫0 s(t )u j (t )dt
j =1 j =1
Esto se minimiza cuando
T
s j = ∫0 s (t )u j (t )dt j = 1,2....,
Es decir cuando el coeficiente sj se calcula proyectando la señal sobre la base ortonormal uj(t).
Por ejemplo si los vemos como vectores: queremos representar s(t) en función de dos vectores en el
plano; la señal aproximada es la proyección de s(t) en el plano. Observe que el error resulta ortogonal
al plano o espacio de señales
s1 (t ) = s11u1 (t )
s11 = s1 (t )
s 2 (t ) = s 22 u 2 (t ) + s 21u1 (t )
s (t ).s1 (t )
s 21 = 2
s1 (t )
Como s1 (t ) = s1 (t ) u1 (t )
s 21 = s 2 (t ).u1 (t )
Por tan to
( s 2 (t ) − ( s 2 (t ).u1 (t ))u1 (t ))
u 2 (t ) =
s 2 (t ) − ( s 2 (t ).u1 (t ))u1 (t )
En palabras: se proyecta s2(t) en u1(t) y este número se multiplica por el vector u1(t). Cuando se
le reste este vector a s2 (t) quedará un vector ortogonal a u1(t) pudiendo ser candidato a ser la segunda
base. Así entonces, progresivamente, se construirían las dos funciones bases para este caso.
Pasemos a la idea general:
Supongamos que tenemos un conjunto de señales de energía si(t) (1<i<m) que queremos
representar a través de un conjunto de funciones bases uj (1<j<n), en un intervalo de tiempo (0,T) de la
siguiente manera:
n
si (t ) = ∑ sij u j (t ) (1)
j =1
Si aceptamos que las funciones bases uj forman un conjunto de funciones ortonormales, es decir,
que cumplen, en el intervalo (0,T) lo siguiente:
T
1 si j=k
∫ j k
u (t )u (t ) dt =
j≠k
0 0 si
Generalmente (m<=n); el procedimiento sería el siguiente
∫ [s1(t )] dt = s11
0
y así:
u1(t)=s1 (t)/s11
Si ahora se le resta a s2(t) su proyección sobre u1(t) produce una señal que es ortogonal a u1(t) y
que sería candidata a ser la segunda función base u2(t)
T 2
s22 = ∫ (s2 (t ) − s21u1 (t ) ) dt
0
Usando s2(t)=s21u1(t)+ s22u2(t) entonces
u2(t) = [s2(t)-s21u1(t)]/s22
Ya tenemos la segunda función base
Se continua con el mismo procedimiento hasta que se hayan conseguido las m funciones bases.
En general se hace
i −1
sii ui (t ) = si (t ) − ∑ sij u j (t )
j =1
Hasta que se consiga un ui(t)=0. Cuando esto ocurra hay que verificar si el sk(t) que está siendo
considerado no es representable en función de las bases ya obtenidas. Si esto ocurre es lógico que la
base buscada resulte nula. Entonces se continúa con la próxima sk(t); si no existen mas sk(t) esto
significaría que se habría conseguido un conjunto completo de funciones ortonormales y el
procedimiento finalizaría.
El procedimiento iterativo puede resumirse en las siguientes ecuaciones:
s (t )
u1 (t ) = 1
s1 (t )
s (t ) − s2 (t ), u1 (t ) u1 (t )
u 2 (t ) = 2
s 2 (t ) − s2 (t ), u1 (t ) u1 (t )
n −1
s n (t ) − ∑ sn (t ), u m (t ) u m (t )
u n (t ) = m =1
n −1
s n (t ) − ∑ sn (t ), u m (t ) u m (t )
m =1
Este procedimiento ofrecerá n (<=m) funciones bases dadas m señales; la igualdad se logra
cuando las señales sk(t) son linealmente independientes. Si el proceso se inicia con otra señal que no
sea s1(t) se obtendrá un conjunto diferente de funciones ortonormales pero igualmente válido.
Ejemplo 1:
Supongamos que tenemos dos señales s1(t)=2 para 0,T y s2(t)=4 entre (0,0.5T) y s2(t)=0 entre
(0.5T,T). Encuentre u1(t) y u2(t).
T 2
∫ [s1 ( t )] dt = s11 = 2 T
0
s1 ( t ) 1
u1 ( t ) = = (0, T )
s11 T
T 0.5T
s1 (t )
s21 = ∫ s2 (t )u1 (t )dt = ∫ 4 s dt = 2 T
0 0 11
T
2
s22 = ∫ [s2 (t ) − s21u1(t )] dt =
0
0.5T T 2 2
1 1
∫ 4 − 2 T ( T ) dt + ∫ 0 − 2 T ( T ) dt
0 0.5T
2 T
u2(t) = [s2(t)-s21u1(t)]/s22 .
Ejemplo 2 : Sea una codificación NRZ polar donde se definen dos formas de onda como sigue :
Al calcular las bases ortogonales para representar esta transmisión se tiene que:
s (t ) s (t )
u1(t ) = 1 = 1
s1(t ) V tb
u2 (t ) = 0
s1(t ) = V tb u1(t )
s2 (t ) = −V tb u1(t )
Definamos en este momento la constelación que no es mas que un gráfico que permite representar
todas las señales sk(t), en función de las bases uj(t). En este caso particular la constelación queda de la
siguiente forma:
0.5
-0.5
-1
Se observa que es una señal modulada en fase ya que la sinusoide tiene amplitud y frecuencia
constantes pero la fase cambia (es una modulación de 4 fases que llamaremos QPSK)
Si se realiza el procedimiento Gram-Schmidt resulta
u 1 ( t ) = Cosπt
u 2 ( t ) = −Senπt
u 3 (t ) = u 4 (t ) = 0
Para definir las 4 señales si(t) se tendrán parejas de coeficientes como sigue:
s1=(1,0) s2=(0,1) s3=(-1,0) s4=(0,-1).
Esto se podría dibujar como puntos en un plano o constelación como se muestra a continuación:
Iremos observando que, en la medida que los símbolos se encuentren mas separados en la
constelación, la transmisión será más fuerte frente al ruido.
El ruido (si es de media cero) solo “movería” los puntos de la constelación dificultando su
detección precisa y generando errores en la determinación de los símbolos transmitidos
El radio de los círculos alrededor de cada símbolo dependerá de la intensidad de ruido presente.
Supongamos ahora que esta señal es enviada por un canal que suma ruido blanco gaussiano. El
receptor debe tener dos elementos fundamentales: Un primer sistema que convierta cada señal de
entrada en las coordenadas que la especifican. Es decir si a la entrada llega la señal sin contaminar, la
salida de este primer bloque serían las coordenadas que representan, en el espacio de señales
ortogonales, al símbolo que fue transmitido. Una posibilidad es que este primer bloque esté constituido
por un banco de correladores como el que se muestra a continuación:
Este receptor lo que hace es buscar los coeficientes sij que representan el contenido de la señal en
cada base ui(t). Si la señal llega limpia la salida serán las componentes que representan a la señal de
entrada en el espacio de señales generado.
En cambio cuando la señal se contamina, a cada rama ingresa la señal x(t)=s(t)+n(t). Se realiza la
integral del producto de la misma con la base uj(t);la salida será: sij+wj para j=1…,N. La componente
de ruido sobre la base uj(t) será wj
a)
2 puntos) Dibuje la(s) base(s) con absoluta precisión.
b)
(3 puntos) Compare fortaleza frente al ruido con NRZp de la misma potencia y misma
velocidad
Para 0 < t < 1 seg
a) Bases:
b)
Nivel DC:
c)
NRZp:
RZp es más fuerte frente al ruido porque la distancia mínima entre los puntos de la constelación
es mayor 3,162 > 2,236
Una vez que la señal es pasada por el banco de correladores, se necesita un sistema que, en base a
la salida del banco, tome una decisión que minimice la probabilidad media de error por símbolo. A
continuación presentaremos algunas bases y criterios estadísticos que nos permitirán escoger el óptimo.
Por ejemplo: Suponga que existen símbolos si (i=1,2,3,…,M) que pueden ser enviados; estas
serían las hipótesis. A la salida del receptor se tienen valores muestra zi.
El teorema de Bayes establece que:
Donde P(si) es la probabilidad de que se transmita 1 de los M símbolos (el símbolo si)
P(zj) es la probabilidad de la prueba.
P(zj/si) es la probabilidad de recibir zj dado que se conoce que se transmitió si.
Ejemplo:
Suponga que tenemos en una caja 3 monedas: 1 normal, 1 con dos sellos y 1 con dos caras.
Supongamos que la probabilidad de que se escoja una de las monedas es 1/3.
Se puede, por ejemplo, calcular
P(Moneda1/Salió cara)=P(cara/Moneda1)P(Moneda1)/P(cara)
= P(cara/Moneda1)P(Moneda1)/[P(cara/Moneda1)P(Moneda1)+ P(cara/Moneda2)P(Moneda2)+
P(cara/Moneda3)P(Moneda3)]
=(1/2)(1/3)/[(1/2)(1/3)+0(1/3)+1(1/3)]=(1/6)/(3/6)=1/3
Si se calcula P(Moneda2/Salió cara) esto da 0 y si se calcula P(Moneda3/Salió cara)=2/3
Para salidas continuas esto cambia: en vez de Probabilidades, se relacionan las funciones
densidad de probabilidades:
Esto se traduce como: La decisión será la hipótesis H1 si el lado izquierdo es mayor que el
derecho, y será la hipótesis H2 si el lado derecho es superior al izquierdo. También se le llama criterio
de mínimo error porque en promedio ofrece menor probabilidad de error en la decisión.
Calculemos el punto donde las dos curvas se interceptan
2 2 2 2
P( s1 )e −( z − s1 ) / 2σ = P ( s 2 )e −( z − s2 ) / 2σ
1 P(s 2 )
((a − s 2 ) 2 − (a − s1 ) 2 ) = ln
2σ 2 P ( s1 )
P(s 2 ) 2
2a ( s1 − s 2 ) + s 2 − s 2 = ln 2σ
2 1 P ( s1 )
( s1 + s 2 ) σ2 P( s 2 )
⇒a= + ln
2 s1 − s 2 P( s1 )
Aquí se observa que el límite se acerca a si cuando P(si) es mas pequeño y el desplazamiento es
mayor mientras el ruido tenga mas potencia. Si son equiprobables
(s1 + s 2 )
a=
2
Criterio de Máxima verosimilitud : Maximum Likelihood. ML. Se basa en maximizar las
fdp’s p(z/si) para todos los si.
Si las probabilidades de los símbolos a transmitir son iguales, los criterios MAP y ML producen
el mismo resultado. Cuando los símbolos pasan por un canal que los contamina con ruido blanco
gaussiano, las fdp’s condicionales son gaussianas centradas en cada uno de los valores si. Si se le toma
el log a la fdp este queda proporcional a -(z-si)2 de forma que maximizar p(z/si) se logra minimizando
el sm que minimiza la distancia euclidiana (z-sm).
N 2
D(z, s m ) = ∑ (z k − s mk )
k =1