Está en la página 1de 19

ORTOGOALIZACIO GRAM SCHMIDT

Introducción:
Comenzaremos revisando, en el siguiente diagrama de bloques, los elementos que conforman un
sistema de comunicaciones digitales

Se dice que los símbolos son generados por una fuente y a la conversión a elementos digitales que
podrán ingresar al sistema de Comunicaciones Digitales se le llama codificación de fuente. Existe
Codificación de Fuentes Analógicas (por ejemplo PCM o DPCM) y Codificación de Fuentes Discretas
(por ejemplo Huffman). El codificador de fuente también se puede encargar de codificar eficientemente
los datos binarios, asignando, por ejemplo en Codificación de Fuentes Discretas, más bits a los
símbolos menos probables y menos bits a los más probables. El encriptamiento es la modificación de
los datos originales, usando claves, para hacer irreconocible la información por parte de usuarios no
autorizados. Por su parte, el codificador de canal introducirá bits o símbolos redundantes de una
manera controlada, con el fin de fortalecer la información frente al ruido o a la interferencia que pueda
producirse, predominantemente en el canal. El multiplexaje puede ser en tiempo, en frecuencia, etc...
La modulación permite variar algún parámetro de una portadora en función de los datos que se quieren
transmitir. Todos estos elementos conforman el transmisor.
Luego de pasar por un canal que, entre otras cosas, filtra, atenúa y agrega ruido, el receptor se
encarga de realizar todas las operaciones inversas a fin de rescatar el mensaje original.
Comencemos con el codificador de Fuente: Si la señal no está digitalizada hay que muestrearla y
cuantificarla. Repasemos estos conceptos.
Suponga una señal x(t) cuya transformada X(f) tiene la siguiente forma:

Esto se define como una señal bandabase (o pasabajo). Por ejemplo las señales de voz para
telefonía básica tienen fmax=4KHz, el audio en general puede alcanzar fmax=20KHz, para las señales de
video fmax=6MHz.
Si, por ejemplo, tomamos muestras periódicas de esta señal cada ts segundos, el espectro X(f) se
repite cada fs Hz. Es decir, si en tiempo se multiplica la señal por un tren de deltas:


xs (t ) = ∑ x(nt s )δ (t − nt s )
−∞

Al pasar esto al dominio de la frecuencia, el espectro de la señal muestreada será el siguiente:

El espectro de la señal original se repite cada fs. Si quisiéramos rescatar la señal original, bastaría
utilizar un filtro pasabajo (LPF) ideal pero esto siempre y cuando no exista solapamiento (aliasing).
Para esto se DEBE cumplir que:

fs >=2fmax

Recordemos que esto es el Teorema de Nyquist del muestreo.

En el supuesto de que la señal esté bien muestreada debemos cuantificarla lo cual es,
básicamente, una discretización de las amplitudes; esto se lleva a cabo de la siguiente manera: Se
divide el rango total de voltaje de la señal en M franjas de tamaño a. M es el numero de niveles de
cuantificación y a es llamado el paso del cuantificador. En cada intervalo de tiempo kts se observa en
que rango de voltaje se encuentra la señal y en función de esto se le asigna un nivel de voltaje a la
salida tal y como se ilustra a continuación:

A diferencia del proceso de muestreo, que si está bien realizado nos permite recuperar
perfectamente la señal original, la cuantificación es un proceso no lineal que hace imposible recuperar
perfectamente la señal original muestreada. Se produce un error de reconstrucción denominado ruido
de cuantificación. Por supuesto si el número de niveles de cuantificación (M) crece, la señal
cuantificada se parecerá mucho a la original, lo que se reflejará en una reducción del error o ruido de
cuantificación.
Ahora supongamos que ya hemos pasado por el bloque Codificador de Fuente, es decir ya
tenemos símbolos listos para poder ingresar al Sistema de Comunicaciones Digitales; lo que se debe
hacer es asignar a cada símbolo una forma de onda que pueda ser enviada por un canal. Por ejemplo, si
estamos en un caso binario, podemos representar una determinada cadena de ceros y unos con una
sucesión de formas de onda que podrían transmitirse por el canal. Veamos un ejemplo en forma
gráfica:

En el primer caso llamado Non Return to Zero Polar (NRZp) el “1” se representa como un pulso
de altura V que dura todo el intervalo llamado tb o tbit; en cambio el “0” se representa como un pulso de
la misma duración pero negativo.
Esto representaría una transmisión en Banda Base.
Otro ejemplo:

En este caso, los bits originales (1 0 1) se representan de forma diferente: La codificación de


arriba es Banda Base NRZ unipolar, la de abajo representa una modulación en frecuencia: para el “1”
se envían ciclos de sinusoide de una determinada frecuencia; para el “0” se envían ciclos de una
sinusoide de otra frecuencia. Esto representaría una señal Pasabanda.
Llamemos a la onda genérica que representa cada símbolo si(t); al pasar por el canal
probablemente se contaminará en forma aditiva con ruido blanco gaussiano w(t). El receptor debe, cada
T segundos (tiempo entre símbolo y símbolo (ts) o entre bit y bit (tb)), a partir de la suma de esas dos
señales determinar cual fue el símbolo mi transmitido; en realidad se obtendrá un estimado del mismo.

El objetivo es claro: Determinar el receptor que mejor haga este trabajo.


Se ve entonces que a cada mensaje mi se le asocia una forma de onda si(t) que no es mas que una
señal de energía, la cual se puede calcular como:
ts
2
E = ∫ si (t ) dt
0
Una idea puede ser representar cada forma de onda si(t) en función de un conjunto finito de bases
ortonormales uj(t). Esto tiene varias ventajas: Se puede visualizar el problema de transmisión de señales
de una manera gráfica y, además, los cálculos involucrados se pueden simplificar. Por otra parte el
problema de detección estará directamente relacionado con la distancia euclidiana en este espacio y
será más fácil llegar a un receptor óptimo.
Cada forma de onda tendría asociada una cierta combinación de coeficientes sij.
n
si (t ) = ∑ sij u j (t )
j =1
Es decir:
s1 (t ) = s11u1 (t ) + s12 u 2 (t ) + .... + s1n u n (t )
s 2 (t ) = s 21u1 (t ) + s 22 u 2 (t ) + .... + s2 n u n (t )
.
s m (t ) = s m1u1 (t ) + s m 2 u 2 (t ) + .... + s mn u n (t )
Esto es equivalente a la representación de vectores en función de bases ortogonales.Esto
simplificará el diseño y análisis del receptor. Antes de conocer el procedimiento que permitirá tal
representación hagamos un repaso comparativo entre señales y vectores.
SEÑALES VECTORES
x(t ), y (t ) x, y
Producto Escalar
x(t ), y (t ) = ∫ x(t ) y (t )dt x.y

∫ x(t ) y(t )dt = 0


Ortogonalidad x.y=0
Bases
Ortonormales
{u1 (t ), u2 (t ), u3 (t ),..., u (t )} {u1, u2, u3,… u}

∫ u n (t )u m (t )dt = δ nm
Ortonormalidad un. um = δ nm
Representación N
x = ∑ xnun
x(t ) = ∑ xnu n (t ) n =1
n =1
Energía/ L2
E = ∫ x(t ) x(t )dt L2= x.x

Supongamos que se tiene un conjunto de funciones ortonormales, es decir, que cumplen, en el


intervalo (0,T) lo siguiente:
T
1 si j=k
∫ j k
u (t )u (t ) dt = 
j≠k
0 0 si
Podemos aproximar una señal s(t) a través de este conjunto de funciones ortonormales, de tal
manera que los coeficientes sj se consiguen minimizando la energía de la señal de error respecto a si.
n
sˆ(t ) = ∑ s j u j (t )
j =1
T 2
∫0 ( sˆ(t ) − s (t )) min

T 2 T 2 2  T 
∫0 s (t ) − sˆ(t ) dt = ∫0 s (t ) dt + ∑ sj − 2 Re  ∑ s j ∫0 s (t )u j (t )dt  =
j =1  j =1 
2 2
T T
Es + ∑ s j − ∫0 s (t )u j (t )dt − ∑ ∫0 s(t )u j (t )dt
j =1 j =1
Esto se minimiza cuando
T
s j = ∫0 s (t )u j (t )dt j = 1,2....,

Es decir cuando el coeficiente sj se calcula proyectando la señal sobre la base ortonormal uj(t).
Por ejemplo si los vemos como vectores: queremos representar s(t) en función de dos vectores en el
plano; la señal aproximada es la proyección de s(t) en el plano. Observe que el error resulta ortogonal
al plano o espacio de señales

Veamos ahora un procedimiento generalizado de ortogonalización conocido como Gram-


Schmidt.

Procedimiento de ortogonalización de Gram-Schmidt:


Cualquier conjunto de señales de energía puede representarse por un conjunto de bases
ortonormales derivadas de las señales originales a través de un procedimiento conocido como Gram-
Schmidt el cual se describe a continuación. Antes de entrar a explicarlo detalladamente pondremos un
ejemplo sencillo con vectores y bidimensional: Supongamos que tenemos dos señales: s1(t) y s2(t) que
existen en un espacio bidimensional. Para buscar unas posibles bases ortogonales, que las represente,
podemos hacer lo siguiente:
1) Fijamos la primera de las bases u 1 ( t ) = s1 ( t ) / s1 ( t ) por conveniencia. Es decir la
primera base tomará la forma de s1(t) pero con energía unitaria.
2) Para elegir a u2(t) sabemos que esta debe ser ortogonal a u1(t). Para expresar u2(t)
en función de s1(t) y s2(t), nos apoyaremos en la siguiente figura:

s1 (t ) = s11u1 (t )
s11 = s1 (t )
s 2 (t ) = s 22 u 2 (t ) + s 21u1 (t )
s (t ).s1 (t )
s 21 = 2
s1 (t )
Como s1 (t ) = s1 (t ) u1 (t )
s 21 = s 2 (t ).u1 (t )
Por tan to
( s 2 (t ) − ( s 2 (t ).u1 (t ))u1 (t ))
u 2 (t ) =
s 2 (t ) − ( s 2 (t ).u1 (t ))u1 (t )

En palabras: se proyecta s2(t) en u1(t) y este número se multiplica por el vector u1(t). Cuando se
le reste este vector a s2 (t) quedará un vector ortogonal a u1(t) pudiendo ser candidato a ser la segunda
base. Así entonces, progresivamente, se construirían las dos funciones bases para este caso.
Pasemos a la idea general:
Supongamos que tenemos un conjunto de señales de energía si(t) (1<i<m) que queremos
representar a través de un conjunto de funciones bases uj (1<j<n), en un intervalo de tiempo (0,T) de la
siguiente manera:
n
si (t ) = ∑ sij u j (t ) (1)
j =1
Si aceptamos que las funciones bases uj forman un conjunto de funciones ortonormales, es decir,
que cumplen, en el intervalo (0,T) lo siguiente:
T
1 si j=k
∫ j k
u (t )u (t ) dt = 
j≠k
0 0 si
Generalmente (m<=n); el procedimiento sería el siguiente

Paso 1: Fijamos sij=0 excepto s11.


T 2 T
∫ [s1 (t )] dt = ∫ s112u1 (t )u1 (t )dt
0 0
De aquí se puede despejar s11
T 2

∫ [s1(t )] dt = s11
0
y así:
u1(t)=s1 (t)/s11

Si ahora se le resta a s2(t) su proyección sobre u1(t) produce una señal que es ortogonal a u1(t) y
que sería candidata a ser la segunda función base u2(t)

Paso 2: Fijamos sij=0 excepto s21 y s22 en la ecuación 1. Tendremos


s2(t)=s21u1(t)+ s22u2(t)

multiplicando por u1(t), e integrando en el intervalo (0,T)


T T T

∫ s2 (t )u1 (t )dt = ∫ s21u1 (t )u1 (t )dt + ∫ s22 u2 (t )u1 (t )dt = s21


0 0 0
Por lo tanto, como
s2(t)=s21u1(t)+ s22u2(t)
entonces
s2(t)-s21u1(t)= s22u2(t)
Elevando al cuadrado en integrando en el intervalo (0,T)
T 2 T

∫ (s2 (t ) − s21u1 (t ) ) dt = ∫ s22


2
u2 (t )u2 (t )dt
0 0

T 2
s22 = ∫ (s2 (t ) − s21u1 (t ) ) dt
0
Usando s2(t)=s21u1(t)+ s22u2(t) entonces
u2(t) = [s2(t)-s21u1(t)]/s22
Ya tenemos la segunda función base

Se continua con el mismo procedimiento hasta que se hayan conseguido las m funciones bases.
En general se hace
i −1
sii ui (t ) = si (t ) − ∑ sij u j (t )
j =1
Hasta que se consiga un ui(t)=0. Cuando esto ocurra hay que verificar si el sk(t) que está siendo
considerado no es representable en función de las bases ya obtenidas. Si esto ocurre es lógico que la
base buscada resulte nula. Entonces se continúa con la próxima sk(t); si no existen mas sk(t) esto
significaría que se habría conseguido un conjunto completo de funciones ortonormales y el
procedimiento finalizaría.
El procedimiento iterativo puede resumirse en las siguientes ecuaciones:

s (t )
u1 (t ) = 1
s1 (t )
s (t ) − s2 (t ), u1 (t ) u1 (t )
u 2 (t ) = 2
s 2 (t ) − s2 (t ), u1 (t ) u1 (t )
n −1
s n (t ) − ∑ sn (t ), u m (t ) u m (t )
u n (t ) = m =1
n −1
s n (t ) − ∑ sn (t ), u m (t ) u m (t )
m =1
Este procedimiento ofrecerá n (<=m) funciones bases dadas m señales; la igualdad se logra
cuando las señales sk(t) son linealmente independientes. Si el proceso se inicia con otra señal que no
sea s1(t) se obtendrá un conjunto diferente de funciones ortonormales pero igualmente válido.

Ejemplo 1:
Supongamos que tenemos dos señales s1(t)=2 para 0,T y s2(t)=4 entre (0,0.5T) y s2(t)=0 entre
(0.5T,T). Encuentre u1(t) y u2(t).
T 2

∫ [s1 ( t )] dt = s11 = 2 T
0

s1 ( t ) 1
u1 ( t ) = = (0, T )
s11 T
T 0.5T
s1 (t )
s21 = ∫ s2 (t )u1 (t )dt = ∫ 4 s dt = 2 T
0 0 11
T
2
s22 = ∫ [s2 (t ) − s21u1(t )] dt =
0
0.5T T 2 2
 1   1 
∫ 4 − 2 T ( T ) dt + ∫ 0 − 2 T ( T ) dt
0 0.5T
2 T
u2(t) = [s2(t)-s21u1(t)]/s22 .

Ejemplo 2 : Sea una codificación NRZ polar donde se definen dos formas de onda como sigue :

Al calcular las bases ortogonales para representar esta transmisión se tiene que:
s (t ) s (t )
u1(t ) = 1 = 1
s1(t ) V tb
u2 (t ) = 0
s1(t ) = V tb u1(t )
s2 (t ) = −V tb u1(t )

Definamos en este momento la constelación que no es mas que un gráfico que permite representar
todas las señales sk(t), en función de las bases uj(t). En este caso particular la constelación queda de la
siguiente forma:

Observe que, por ejemplo, el símbolo s1 (t ) = V tb u1 (t )


Una vez obtenido el conjunto de funciones base
n
si (t ) = ∑ sij u j (t )
j =1
Hay muchos parámetros que pueden ser calculados en base a los coeficientes de la representación.
Por ejemplo la energía de la señal puede ser calculada como:
T T T 2

2
Ei = ∫ si (t )dt = ∫ ∑ ∑ sij u j (t ) sik u k (t )dt = ∑ ∑ sij sik ∫ u j (t )u k (t )dt = ∑ sij
0 0 j =1k =1 j =1k =1 0 j =1
2
Ei = si
Del diagrama de constelación podemos ahora calcular la energía de cada símbolo como la
distancia radial (del origen al símbolo), elevada al cuadrado. En este caso los dos símbolos tienen la
misma energía y esta es igual aE1=E2=V2tb
Ahora definimos la energía promedio como
1 1
E p = E1 p1 + E2 p2 = E1 + E2
2 2
Así quedaría si los símbolos son equiprobables, p2 = p1 =0.5. Lo más importante es que de aquí
podemos obtener la potencia de la señal real transmitida
E p = S .tb
Si la transmisión fuese m-aria entonces diríamos
E p = S .t s
Ejemplo 3:
Supongamos que tenemos 4 señales definidas como sigue:
π
s i ( t ) = Cos(πt + (i − 1) ) i = 1,2,3,4 para 0 ≤ t ≤ 2
2
Esta señal luciría de la siguiente forma al verla en un osciloscopio

0.5

-0.5

-1

200 300 400 500 600 700 800

Se observa que es una señal modulada en fase ya que la sinusoide tiene amplitud y frecuencia
constantes pero la fase cambia (es una modulación de 4 fases que llamaremos QPSK)
Si se realiza el procedimiento Gram-Schmidt resulta
u 1 ( t ) = Cosπt
u 2 ( t ) = −Senπt
u 3 (t ) = u 4 (t ) = 0

Para definir las 4 señales si(t) se tendrán parejas de coeficientes como sigue:
s1=(1,0) s2=(0,1) s3=(-1,0) s4=(0,-1).
Esto se podría dibujar como puntos en un plano o constelación como se muestra a continuación:

Iremos observando que, en la medida que los símbolos se encuentren mas separados en la
constelación, la transmisión será más fuerte frente al ruido.

El ruido (si es de media cero) solo “movería” los puntos de la constelación dificultando su
detección precisa y generando errores en la determinación de los símbolos transmitidos

El radio de los círculos alrededor de cada símbolo dependerá de la intensidad de ruido presente.
Supongamos ahora que esta señal es enviada por un canal que suma ruido blanco gaussiano. El
receptor debe tener dos elementos fundamentales: Un primer sistema que convierta cada señal de
entrada en las coordenadas que la especifican. Es decir si a la entrada llega la señal sin contaminar, la
salida de este primer bloque serían las coordenadas que representan, en el espacio de señales
ortogonales, al símbolo que fue transmitido. Una posibilidad es que este primer bloque esté constituido
por un banco de correladores como el que se muestra a continuación:

Este receptor lo que hace es buscar los coeficientes sij que representan el contenido de la señal en
cada base ui(t). Si la señal llega limpia la salida serán las componentes que representan a la señal de
entrada en el espacio de señales generado.
En cambio cuando la señal se contamina, a cada rama ingresa la señal x(t)=s(t)+n(t). Se realiza la
integral del producto de la misma con la base uj(t);la salida será: sij+wj para j=1…,N. La componente
de ruido sobre la base uj(t) será wj

Para el ejemplo de la señal QPSK realizado anteriormente, el receptor sería


En el capítulo de detección encontraremos el desarrollo pleno de este concepto

Ejemplo Comunicaciones II. UCAB. Parcial 1. Noviembre 2009


RESUELTO POR LUIS SALAZAR
Problema 2: Se tiene una señal bandabase binaria que, para una secuencia de 4 bits
igual a [0 1 0 1], luce como sigue (Voltaje en volts y tiempo en seg.)

a)
2 puntos) Dibuje la(s) base(s) con absoluta precisión.
b)
(3 puntos) Compare fortaleza frente al ruido con NRZp de la misma potencia y misma
velocidad
Para 0 < t < 1 seg

1v para 0 < t < ½ seg


-1v para ½ < t < 1 seg

a) Bases:

b)
Nivel DC:

c)
NRZp:

RZp es más fuerte frente al ruido porque la distancia mínima entre los puntos de la constelación
es mayor 3,162 > 2,236

Elementos básicos para una decisión estadística: (Información complementaria)

Una vez que la señal es pasada por el banco de correladores, se necesita un sistema que, en base a
la salida del banco, tome una decisión que minimice la probabilidad media de error por símbolo. A
continuación presentaremos algunas bases y criterios estadísticos que nos permitirán escoger el óptimo.

La idea es la siguiente se tiene primero un conjunto de M mensajes; a cada mensaje se le


representa con una forma de onda de energía finita a los cuales están asociadas ciertas Hipótesis. Luego
se tiene una muestra a la salida del filtro de recepción (prueba).Se debe fijar una regla de decisión y un
criterio de optimización para hacer una hipótesis de la posible señal que fue transmitida.

Por ejemplo: Suponga que existen símbolos si (i=1,2,3,…,M) que pueden ser enviados; estas
serían las hipótesis. A la salida del receptor se tienen valores muestra zi.
El teorema de Bayes establece que:
Donde P(si) es la probabilidad de que se transmita 1 de los M símbolos (el símbolo si)
P(zj) es la probabilidad de la prueba.
P(zj/si) es la probabilidad de recibir zj dado que se conoce que se transmitió si.

P(si / zj) es la probabilidad a-posteriori de haber transmitido si sabiendo que se recibió zj

Ejemplo:
Suponga que tenemos en una caja 3 monedas: 1 normal, 1 con dos sellos y 1 con dos caras.
Supongamos que la probabilidad de que se escoja una de las monedas es 1/3.
Se puede, por ejemplo, calcular
P(Moneda1/Salió cara)=P(cara/Moneda1)P(Moneda1)/P(cara)
= P(cara/Moneda1)P(Moneda1)/[P(cara/Moneda1)P(Moneda1)+ P(cara/Moneda2)P(Moneda2)+
P(cara/Moneda3)P(Moneda3)]
=(1/2)(1/3)/[(1/2)(1/3)+0(1/3)+1(1/3)]=(1/6)/(3/6)=1/3
Si se calcula P(Moneda2/Salió cara) esto da 0 y si se calcula P(Moneda3/Salió cara)=2/3
Para salidas continuas esto cambia: en vez de Probabilidades, se relacionan las funciones
densidad de probabilidades:

Donde las funciones p(z) son funciones densidad de probabilidades


Criterios para la toma de decisiones
Maximum A Posteriori:MAP: Máxima Probabilidad a Posteriori

Observando la salida del receptor z, se calcula la probabilidad P(si/r=z). Por ejemplo,


supongamos solo dos símbolos posibles:
p(z / s1 )P(s1 )
P[s1 / z ] =
p( z)
Se elige como símbolo transmitido a s1, si y solo si:
P[s1 / z ] > P[s 2 / z ]
p(z / s1 )P(s1 ) > p(z / s 2 )P(s 2 )
Es decir ve si es mayor la Probabilidad de haber transmitido s1 dado que se recibió z o la
Probabilidad de haber transmitido s2 dado que se recibió z.
Cuando la señal se contamina con ruido blanco gaussiano, las las fdp’s condicionales son
gaussianas centradas en cada uno de los valores si. De esta manera el criterio de decisión se puede
escribir como:
2 2 2 2
P(s1 )e −( z −s1 ) / 2σ > P(s 2 )e −( z −s 2 ) / 2σ
Gráficamente se presentan las funciones fdp’s condicionales, pesadas por la probabilidad de
ocurrencia de cada símbolo. En este dibujo los símbolos no son equiprobables.

Esto también se representa como

Esto se traduce como: La decisión será la hipótesis H1 si el lado izquierdo es mayor que el
derecho, y será la hipótesis H2 si el lado derecho es superior al izquierdo. También se le llama criterio
de mínimo error porque en promedio ofrece menor probabilidad de error en la decisión.
Calculemos el punto donde las dos curvas se interceptan

2 2 2 2
P( s1 )e −( z − s1 ) / 2σ = P ( s 2 )e −( z − s2 ) / 2σ
1 P(s 2 )
((a − s 2 ) 2 − (a − s1 ) 2 ) = ln
2σ 2 P ( s1 )
P(s 2 ) 2
2a ( s1 − s 2 ) + s 2 − s 2 = ln 2σ
2 1 P ( s1 )
( s1 + s 2 ) σ2 P( s 2 )
⇒a= + ln
2 s1 − s 2 P( s1 )
Aquí se observa que el límite se acerca a si cuando P(si) es mas pequeño y el desplazamiento es
mayor mientras el ruido tenga mas potencia. Si son equiprobables
(s1 + s 2 )
a=
2
Criterio de Máxima verosimilitud : Maximum Likelihood. ML. Se basa en maximizar las
fdp’s p(z/si) para todos los si.

Si las probabilidades de los símbolos a transmitir son iguales, los criterios MAP y ML producen
el mismo resultado. Cuando los símbolos pasan por un canal que los contamina con ruido blanco
gaussiano, las fdp’s condicionales son gaussianas centradas en cada uno de los valores si. Si se le toma
el log a la fdp este queda proporcional a -(z-si)2 de forma que maximizar p(z/si) se logra minimizando
el sm que minimiza la distancia euclidiana (z-sm).

N 2
D(z, s m ) = ∑ (z k − s mk )
k =1

Por esto a esta regla se le conoce como de mínima distancia


Se puede demostrar que los umbrales óptimos de decisión partiendo de los criterios estadísticos
antes mencionados coinciden con los que se obtienen al pasar la señal por un receptor de correlación
como el que se propuso al principio.

También podría gustarte