Está en la página 1de 34

Sistemas lineales

PID_00253297

Josep Maria Aroca

Tiempo mínimo de dedicación recomendado: 3 horas


Los textos y las imágenes publicados en esta obra están sujetos –salvo que se indique lo contrario–
a una licencia de Reconocimiento-NoComercial-SinObraDerivada (BY-NC-ND) v.3.0 España de
Creative Commons. Podéis copiarlos, distribuirlos y transmitirlos públicamente siempre que citéis
el autor y la fuente (FUOC. Fundació per a la Universitat Oberta de Catalunya), no hagáis un
uso comercial de ellos y no hagáis obra derivada. La licencia completa se puede consultar en
http: // creativecommons. org/ licenses/ by-nc-nd/ 3. 0/ es/ legalcode. es .
CC-BY-NC-ND • PID 00253297 Sistemas lineales

Índice

Introducción . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5

Objetivos . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 7

1. Definición de sistema lineal. Determinismo, invarianza


temporal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 8

2. Parámetros de un proceso transformado


linealmente . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 14

3. Estimación lineal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.1. Concepto y criterios de estimación . . . . . . . . . . . . . . . . . . . . . . . . . . . . 19
3.2. Principio de ortogonalidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 20
3.3. Aplicación a procesos estocásticos . . . . . . . . . . . . . . . . . . . . . . . . . . . . 23

Resumen . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 26

Actividades . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 28

Solucionario . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 30
CC-BY-NC-ND • PID 00253297 5 Sistemas lineales

Introducción

Hasta ahora hemos visto maneras de representar y estudiar fenómenos que nos
podemos encontrar en la realidad. En particular, hemos visto cómo podemos
analizar señales. Para hacerlo, hemos estudiado una serie de variables aleatorias
y de procesos estocásticos, cada una con sus caracterı́sticas particulares. Hemos
visto también que cada tipo de variable o proceso nos iba bien para modelizar
un determinado fenómeno.

En el ámbito de las telecomunicaciones es muy frecuente trabajar con circuitos


electrónicos. Podemos ver un circuito electrónico como una caja negra en la
que introducimos una señal de entrada; esta señal se procesa y obtenemos una
señal de salida. Hemos visto que podemos modelizar una señal cualquiera de
entrada con un proceso estocástico o una variable aleatoria. ¿Qué sucede cuando
esta señal aleatoria es procesada por un circuito? Normalmente, tendremos
dispositivos que reciban una cierta “entrada” y querremos saber cómo actúa el
circuito sobre la entrada para conocer cuál será el comportamiento de la señal
en la salida. Por ejemplo:

• Para evaluar la calidad de un sistema de compresión de archivos de música,


necesitamos caracterizar estadı́sticamente como proceso estocástico este ti-
po de señal musical. Ası́, podemos calcular el valor medio de la distorsión y
decidir si es aceptable o no.

• Para dimensionar correctamente una red de comunicaciones, necesitamos


saber cuál es la distribución estadı́stica de la red de tráfico por la que pasan
los paquetes de datos. De esta manera, podemos diseñar el sistema para
que la probabilidad de que se pierdan paquetes o de que el retraso medio
no supere un máximo permitido sean los adecuados.

• El uso de filtros en el procesamiento de señales, ya sea para obtener una


determinada información que se encuentra dentro de la señal o para eliminar
partes de señal o ruido no deseado, por ejemplo. Los filtros también se
utilizan para transformar una señal y para predecir algunos valores futuros
a partir de muestras de señal presentes y pasadas.

En este punto ya tenemos caracterizados los tipos de señales de las que parti-
mos, los hemos visto en módulos anteriores. Lo que haremos en este módulo es
ver cuál es la respuesta que un sistema de telecomunicaciones lineal tiene en
una señal de entrada que es un proceso aleatorio. Los sistemas que considerar
pueden ser tanto continuos como tener una respuesta que se restringe a un con-
junto posible de salidas (sistemas discretos). Modelizaremos nuestro circuito o
sistema lineal (que consideraremos como una caja negra) como un conjunto
CC-BY-NC-ND • PID 00253297 6 Sistemas lineales

de operaciones determinadas y estudiaremos cómo es la señal de salida que se


genera.

En el apartado 1 definiremos qué entendemos por sistema lineal y veremos al-


gunas propiedades de este tipo de sistemas. Seguidamente, en el apartado 2
estudiaremos cómo un proceso estocástico queda transformado en otro proceso
estocástico cuando pasa por un sistema lineal y veremos qué parámetros pue-
den relacionar los dos procesos. En el apartado 3 de este módulo veremos qué
entendemos por estimación lineal. A grandes rasgos, podemos decir que valorar
una variable es hacer una predicción de esta. Veremos que una de las aplica-
ciones de los sistemas lineales es hacer este tipo de predicciones. Esta es una
aplicación muy importante, ya que nos permite hacer una planificación opor-
tuna de recursos de telecomunicaciones (número de encaminadores en una red,
capacidad de enlaces, número de servidores para una determinada aplicación,
etc.) en función de las predicciones que hacemos.
CC-BY-NC-ND • PID 00253297 7 Sistemas lineales

Objetivos

Los objetivos que debe alcanzar el estudiante una vez trabajados los materiales
didácticos de este módulo son:

1. Entender el concepto de sistema lineal y ver sus caracterı́sticas.

2. Entender los conceptos de determinismo e invarianza temporal en los siste-


mas lineales.

3. Trabajar con los elementos que caracterizan un sistema lineal: función de


respuesta impulsional y función de transferencia.

4. Diferenciar entre los sistemas con memoria y sin ella y saber poner ejemplos.

5. Entender cómo se transforma una señal de entrada aleatoria cuando pasa


por un sistema lineal.

6. Calcular los parámetros a la salida de un sistema lineal y relacionarlos con


los parámetros de entrada.

7. Definir y entender qué es un estimador lineal y saber poner algunos ejemplos


de aplicación.
CC-BY-NC-ND • PID 00253297 8 Sistemas lineales

1. Definición de sistema lineal. Determinismo,


invarianza temporal
.

Comenzaremos este apartado definiendo qué es un sistema lineal mediante un


ejemplo.

Ejemplo 1.1

Tenemos un circuito que trata el sonido proveniente de un instrumento musical. Este


dispositivo que procesa la señal de sonido hace diferentes operaciones, como amplificar-
lo o añadir diferentes efectos. Este procesador tiene una entrada donde conectamos el
instrumento y una salida por la que sale el sonido procesado. Denominamos X(t) la en-
trada e Y (t) la salida, que posteriormente va a un sistema de amplificación de potencia y
altavoces. Este sistema tiene varias funciones seleccionables, de manera que con un selec-
tor de función elegimos qué transformación aplicamos a X(t). Algunas transformaciones
naturales en este contexto son:

• Preamplificador. Aumentamos un poco el nivel de señal. Fijamos una constante


α > 1 y tenemos Y (t) = αX(t). Es decir, la señal de salida es la misma señal de
entrada amplificada.
• Limitador. Recortamos la señal cuando supera un cierto nivel M . Y (t) = mı́n(X(t), M ).
• Reverberación. Añadimos a la señal una copia atenuada y retrasada de la propia
señal. Esta copia es un eco y representa la reflexión del sonido en las paredes de una
sala. Y (t) = X(t) + βX(t − T ), donde β < 1 es el factor de atenuación y T > 0 el
retraso.

Tenemos, pues, un control con tres posiciones para seleccionar una de las tres funciones.
También podemos tener diales para ajustar los valores de los parámetros α, β, T, M . Ası́,
podemos variar β y T para obtener una reverberación suave o un eco fuerte, o ajustar
M según el nivel de entrada para no tener demasiada distorsión.

Una vez fijados los controles del aparato, tenemos una cierta transformación seleccionada.
Para evaluar el efecto de estas transformaciones, ya sea la versión matemática simplifi-
cada que damos aquı́ o una implementación real del dispositivo, habrı́a que tener una
representación de X(t) de tipo estadı́stico. Es decir, hay que representar X(t) como un
proceso estocástico. En este caso, la salida Y (t) pasa a ser también un proceso estocástico
y lo que nos interesa es cómo se relacionan las propiedades de los procesos X(t) (señal
de entrada) e Y (t) (señal de salida).

Consideremos un proceso estocástico X(t). De la misma manera que una varia- Véase también
ble aleatoria X da lugar a nuevas variables haciendo transformaciones del tipo
Las funciones sobre variables
Y = g(X), podemos transformar el proceso X(t) para obtener el nuevo pro- aleatorias del tipo Y = g(X)
se estudian en el módulo
ceso estocástico Y (t). Llamamos L a esta transformación, que denominaremos
“Funciones de variables
sistema, y escribimos Y (t) = L[X(t)]. De esto podemos extraer la definición aleatorias” de este módulo.
siguiente de sistema.

.
Definición 1.1. Un sistema, L, consiste en una transformación de un
proceso estocástico X(t). Lo escribimos como L[X(t)]. Esta transforma-
ción da lugar a un nuevo proceso estocástico Y (t).

Gráficamente pensemos esta transformación como un objeto que recibe una


entrada X(t) y devuelve una salida Y (t), tal como podéis ver en la figura 1.
CC-BY-NC-ND • PID 00253297 9 Sistemas lineales

Figura 1. Sistema lineal

Figura 1
X(t) L Y(t)
Consideraremos un sistema
lineal como una caja negra
que recibe un proceso de
entrada X(t) y lo transforma
en otro proceso
Y (t) = L[X(t)].

En el ejemplo 1.1 hemos visto tres transformaciones posibles:

1) El amplificador La [X(t)] = αX(t).

2) El limitador Ll [X(t)] = mı́n(X(t), M ).

3) La reverberación Lr [X(t)] = X(t) + βX(t − T ).

En este módulo estudiaremos casos en los que el carácter aleatorio de la salida


está causado únicamente por el carácter aleatorio de la entrada. Es decir, los
sistemas que estudiaremos no añaden comportamiento aleatorio a la señal que
transforman.

Observemos que en el ejemplo anterior la salida Y (t) tiene carácter aleatorio


solo porque X(t) es un proceso estocástico. Fijada la entrada X(t), la sali-
da queda unı́vocamente determinada. Es decir, las transformaciones La , Ll , Lr
están fijadas y los parámetros α, β, T, M son constantes.

.
Definición 1.2. Un sistema es determinista si fijada la realización
de X(t) que entra, la salida queda ya determinada. Si por el contrario
una misma entrada puede dar lugar a salidas diferentes, decimos que el
sistema es estocástico.

Por ejemplo, el preamplificador La podrı́a ser estocástico si estuviese sometido a


algún tipo de fluctuaciones que hagan que sea necesario considerar α como una
variable aleatoria. En este caso, sin embargo, hemos considerado que nuestro
sistema lineal es determinista y que la señal de salida es un procesos aleatorio
porque la señal de entrada también lo es.

Hay sistemas para los que la salida en un instante dado no depende de los valores
de la entrada en instantes anteriores. En el ejemplo anterior esto pasa para el
preamplificador y el limitador, que solo dependen del valor actual de X(t),
mientras que no pasa para la reverberación, donde la salida en el instante t
depende también de la entrada en el instante t−T . En función de esta distinción
definimos los sistemas con memoria o sin ella.
CC-BY-NC-ND • PID 00253297 10 Sistemas lineales

Definición 1.3. Un sistema es sin memoria si el valor de Y (t) para


cada t depende exclusivamente del valor de X(t) para el mismo t.

La caracterı́stica principal que tendrán nuestros sistemas es la linealidad. La


transformación asociada al sistema es lineal. Entonces vale el principio de
superposición, que nos dice que la señal de salida a la suma de dos entradas
es la suma de las salidas correspondientes a cada entrada.

.
Definición 1.4. Un sistema es lineal si

L[λ1 X1 (t) + λ2 X2 (t)] = λ1 L[X1 (t)] + λ2 L[X2 (t)], (1)

donde λ1 , λ2 pueden ser variables aleatorias pero no depender de t.

Volviendo a nuestro ejemplo, el preamplificador y la reverberación son lineales. Por ejem-


plo, comprobémoslo para Lr :

Lr [λ1 X1 (t) + λ2 X2 (t)] = (λ1 X1 (t) + λ2 X2 (t)) + β(λ1 X1 (t − T ) + λ2 X2 (t − T )) =

λ1 (X1 (t) + βX1 (t − T )) + λ2 (X2 (t) + βX2 (t − T )) =

λ1 Lr [X1 (t)] + λ2 Lr [X2 (t)].

En cambio, el limitador no es lineal. Tomamos X(t) = 0,8M constante. Entonces Ll [X(t)+


X(t)] = mı́n(1,6M, M ) = M , mientras que Ll [X(t)] + Ll [X(t)] = mı́n(0,8M, M ) +
mı́n(0,8M, M ) = 0,8M + 0,8M = 1,6M . Ası́ Ll [X(t) + X(t)] 6= Ll [X(t)] + Ll [X(t)],
al contrario de la condición de linealidad.

Los sistemas lineales son importantes porque el procesamiento en circuitos


eléctricos puede tener esta caracterı́stica. La imagen que podemos tener de
un sistema lineal es la de un circuito en el que X(t) es el voltaje de entrada y
Y (t) = L[X(t)] es el voltaje de salida.

Dentro de los sistemas lineales nos interesan aquellos en los que la transfor-
mación no depende explı́citamente del tiempo. Por ello, es conveniente definir
las translaciones temporales Ta , que son un tipo particular de transformación
(retardo):

Ta [X(t)] = X(t − a). (2)

Es decir, la función Ta toma la señal de entrada y el retardo en tiempo un valor


igual a a.
CC-BY-NC-ND • PID 00253297 11 Sistemas lineales

.
Definición 1.5. Un sistema, L, es invariante en el tiempo si
L[Ta [X(t)]] = Ta [L[X(t)]] para todo a. Eso se puede expresar de manera
equivalente diciendo que si X(t) da la salida Y (t), entonces X(t − a) da
la salida Y (t − a).

Si pensamos L como un dispositivo fı́sico que transforma una señal, la inva-


rianza en el tiempo significa que la constitución de este dispositivo es idéntica
en todo t. En el ejemplo del procesador de sonido todas las transformaciones
son invariantes en el tiempo. Una manera de hacer que no lo fuesen serı́a ha-
cer depender las constantes α, β, T, M del tiempo. En los apartados siguientes,
consideramos solo sistemas lineales invariantes en el tiempo.

Una manera de caracterizar un sistema lineal es por medio de su función de Respuesta impulsional
respuesta impulsional. Esta es la salida del sistema cuando la entrada es una
La respuesta impulsional es la
delta de Dirac δ(t). Esto contiene toda la información necesaria para saber salida del sistema lineal en
cómo se transforma cualquier señal, ya que toda función se puede escribir como una función delta de Dirac.
Recordad que hemos visto la
superposición de deltas: definición de la función delta
de Dirac en la definición 1.3
del módulo “Procesos
Z ∞ estocásticos gaussianos y
X(t) = δ(t − τ )X(τ )dτ. (3) procesos estocásticos de
−∞ Poisson”.

La igualdad anterior es simplemente la definición de la función delta. Ahora


la interpretamos como una combinación lineal pensando en la integral como
la versión continua de una suma. La función X(t) se obtiene combinando las
funciones δτ (t) = δ(t − τ ) con coeficientes X(τ ).

.
Definición 1.6. Definimos la función de respuesta impulsional h de
un sistema lineal como:

h(t) = L[δ(t)]. (4)

Conociendo h(t) tenemos que la respuesta a una entrada arbitraria X(t) se


Convolución
puede determinar haciendo una convolución:
La convolución es una
. operación matemática que
consiste en tomar dos
L[X(t)] = (h ∗ X)(t). (5) funciones y calcular el grado
en el que se superponen. Se
define
R ∞ como:
−∞ x(t − τ )y(τ )dτ .
Intuitivamente consiste en
Demostración: Calculemos la acción de L sobre X(t) expresando X(t) como girar una de las dos señales
respecto al eje t, ir
superposición de funciones delta (ecuación (3)):
desplazándola sobre la otra
señal fija y calcular el área
Z ∞ Z ∞ del producto de las funciones.
L[X(t)] = L[ δ(t − τ )X(τ )dτ ] = L[δ(t − τ )]X(τ )dτ
−∞ −∞
Z ∞
= h(t − τ )X(τ )dτ = (h ∗ X)(t). 
−∞
CC-BY-NC-ND • PID 00253297 12 Sistemas lineales

Ejemplo 1.2

Necesitamos implementar un circuito integrador, es decir, un dispositivo en el que la señal


de salida es la integral de la señal de entrada. Para hacerlo, utilizaremos un sistema que
tiene por función de transferencia, h(t), la función de Heaviside o función escalón, que se
define como sigue:


 0 si t < 0,
u(t) = (6)
1 si t ≥ 0.

Figura 2. La función de Heaviside u(t) Figura 2

1,5 La convolución de una señal


con la función escalón de
amplitud 1 nos da el área que
hay bajo la curva de la señal
de entrada. Fijaos en que
esta integral comienza en
1 −∞ y se va desplazando con
t a medida que avanza la
convolución.
u(t)

0
–4 –2 0 2 4
t

¿Qué significado tiene un sistema con función de transferencia h(t) = u(t)? Veamos cómo
se transforma una entrada X(t):

Z ∞ Z t
L[X(t)] = u(t − τ )X(τ )dτ = X(τ )dτ,
−∞ −∞

ya que:


 0 si t < τ,
u(t − τ ) =
1 si t ≥ τ

y, por tanto, la integración queda restringida a τ ≤ t.

Este sistema es, pues, un “integrador”. En cada instante nos da la integral hasta este
momento de la entrada.

Durante el apartado hemos visto algunos ejemplos de sistemas lineales, como


el procesador de sonido o el integrador. En el apartado siguiente veremos cómo
CC-BY-NC-ND • PID 00253297 13 Sistemas lineales

queda transformado un proceso X(t) cuando pasa a través de un sistema lineal.


Una pregunta que nos podemos plantear es: ¿existe alguna manera de definir
la estadı́stica de la señal de salida de manera sencilla a partir de la estadı́stica
de la señal de entrada? Veámoslo a continuación.
CC-BY-NC-ND • PID 00253297 14 Sistemas lineales

2. Parámetros de un proceso transformado


linealmente
.

Veamos cómo queda transformado un proceso estocástico después de hacerlo Véase también

pasar por un sistema lineal. Un proceso estocástico X(t) se caracteriza princi- En el apartado 2 del módulo
palmente por las funciones valor medio m(t) y autocorrelación R(t1 , t2 ). Si “Caracterización estadı́stica y
parámetros de los procesos
tenemos otros procesos, definimos en general la función de correlación cruzada estocásticos” se estudia el
de X(t) e Y (t) para poderlos comparar entre sı́: proceso estocástico y su
caracterización con las
funciones valor medio y
autocorrelación.
RXY (t1 , t2 ) = E(X(t1 )Y (t2 )). (7)

La función de autocorrelación de X(t) se escribe ahora RXX (t1 , t2 ). También


indicaremos el valor medio mX (t).

¿Qué sucede si ahora introducimos la señal X(t) en un sistema lineal L? Para


empezar, se ha de indicar que la operación L se hace siempre sobre funciones de
una variable. La función valor medio, por ejemplo, es de primer orden y depende
únicamente de una variable independiente, t. Cuando la operación L tiene dos
variables en su argumento, ponemos L1 o L2 para indicar que consideramos la
función de la variable t1 o t2 y dejamos la otra como constante.

El resultado siguiente indica cómo podemos obtener los parámetros de Y (t) =


L[X(t)] a partir de los de X(t):

mY (t) = L[mX (t)]. (8)

Observad que la función valor medio es de primer orden, es decir, tiene una
única variable, que es t:

RXY (t1 , t2 ) = L2 [RXX (t1 , t2 )]. (9)

La función de correlación es una función de segundo orden y depende de dos


instantes temporales diferentes. En este caso con la notación L2 estamos di-
ciendo que consideramos como variable t2 y que t1 lo consideraremos constante:

RY Y (t1 , t2 ) = L1 [RXY (t1 , t2 )]. (10)

En este caso el sistema lineal L depende de la variable t1 (por eso lo denomi-


namos L1 ) y dejamos t2 como constante.
CC-BY-NC-ND • PID 00253297 15 Sistemas lineales

Demostración: En primer lugar demostraremos que el valor medio de los


procesos de salida equivale a hacer pasar por el sistema lineal el valor medio
de la señal de entrada, tal como hemos visto en la ecuación (8):

Observación
mY (t) = E(Y (t)) = E(L[X(t)])
Hay que advertir que tanto
Z ∞  Z ∞
en este módulo como en los
=E h(t − τ )X(τ )dτ = h(t − τ ) E(X(τ ))dτ módulos anteriores
−∞ −∞
trabajamos con procesos
Z ∞
reales. Para los procesos con
= h(t − τ )mX (τ )dτ = (h ∗ mX )(t) = L[mX (t)]. variables complejas la
−∞
definición de la correlación,
R(t1 , t2 ), y las propiedades
de la transformada de Fourier
A continuación demostramos la expresión (9), que nos dice que la correlación difieren.
entre las señales de entrada y salida del sistema lineal es igual a calcular la
autocorrelación del proceso de entrada X(t) y después aplicar la transformación
lineal L con dependencia de t2 :

RXY (t1 , t2 ) = E(X(t1 )Y (t2 ))


 Z ∞  Z ∞
= E X(t1 ) h(t2 − τ )X(τ )dτ = h(t2 − τ ) E(X(t1 )X(τ ))dτ
−∞ −∞
Z ∞
= h(t2 − τ )RXX (t1 , τ )dτ = L2 [RXX (t1 , t2 )].
−∞

Finalmente, realizamos el cálculo de la autocorrelación del proceso de salida


(ecuación (10)), que consiste en tomar el resultado que acabamos de obtener
para la correlación cruzada entre X e Y y aplicarle la transformación L1 de-
pendiente de la variable t1 :

RY Y (t1 , t2 ) = E(Y (t1 )Y (t2 ))


Z ∞  Z ∞
=E h(t1 − τ )X(τ )dτ Y (t2 ) = h(t1 − τ ) E(X(τ )Y (t2 ))dτ
−∞ −∞
Z ∞
= h(t1 − τ )RXY (τ, t2 )dτ = L1 [RXY (t1 , t2 )]. 
−∞

Otra de las funciones importantes que habı́amos definido era la potencia* y * Se estudia en el módulo
“Caracterización estadı́stica y
el espectro de potencia para procesos estacionarios**. Ahora calcularemos el
parámetros de los procesos
espectro de potencia de Y (t), SY (f ) a partir de SX (f ). X(t) es ahora un estocásticos”.

proceso estocástico estacionario con función de autocorrelación RXX (t1 , t2 ) =


** Se estudia en el módulo
RXX (t2 − t1 ). Para ello necesitamos un nuevo concepto: el de función de trans- “Procesos estocásticos
estacionarios”
ferencia.

Potencia y espectro de potencia

La potencia media de un proceso estocástico la definı́amos como Pot(t) = E(X(t)2 ).


Para el caso de los procesos
R ∞ estocásticos estacionarios, definimos la densidad espectral de
potencia como S(f ) = −∞ R(τ )e−j2πf τ dτ . Es decir, como la transformada de Fourier
de la función de autocorrelación.
CC-BY-NC-ND • PID 00253297 16 Sistemas lineales

.
Véase también
Definición 2.1. La función de transferencia de un sistema lineal
se denomina H(f ) y es la transformada de Fourier de la función de Recordad la definición de
transformada de Fourier que
respuesta impulsional h(t): hicimos en el apartado 4 del
módulo “Procesos
estocásticos estacionarios”
Z ∞
cuando vimos los conceptos
H(f ) = h(τ )e−j2πf τ dτ. (11) de autocorrelación y espectro
−∞
de potencia.

Entonces tenemos el resultado siguiente:

.
SY (f ) = |H(f )|2 SX (f ). (12)

Antes de demostrarlo, recordemos el teorema de convolución. Si las funcio- Teorema de la convolución

nes f (t) y g(t) tienen las transformadas de Fourier F (f ) y G(f ), entonces su La operación de convolución
producto de convolución (f ∗ g)(t) tiene transformada de Fourier F (f )G(f ). en el dominio temporal de
dos funciones equivale al
También tenemos que f (−t) se transforma en F ∗ (f ). producto de sus
transformadas de Fourier en
el dominio de la frecuencia.
Demostración: El espectro de potencia de Y (t) se obtiene haciendo la trans- Recordad también que hacer
girar una señal sobre el eje
formada de Fourier de RY Y (t):
temporal (es decir, f (−t)) es
equivalente al conjugado de
Z ∞ la transformada de Fourier de
la señal original.
RXY (t1 , t2 ) = h(t2 − τ )RXX (t1 , τ )dτ
−∞
Z ∞ Z ∞
= h(t2 − τ )RXX (τ − t1 )dτ = h(t2 − t1 − τ )RXX (τ )dτ,
−∞ −∞

donde hemos utilizado que RXX depende solo de la diferencia de tiempo y


hemos hecho el cambio de variable τ −→ τ + t1 . Ası́, vemos que RXY (t1 , t2 )
depende solo de t2 − t1 . Ahora obtenemos:

Z ∞
RY Y (t1 , t2 ) = h(t1 − τ )RXY (τ, t2 )dτ
−∞
Z ∞ Z ∞
= h(t1 − τ )RXY (t2 − τ )dτ = h(t1 − t2 − τ )RXY (−τ )dτ.
−∞ −∞

Observad que hemos hecho el cambio τ → τ + t2 .

Ası́, vemos que RY Y se obtiene de la convolución entre h(t) y RXY (−t) y


RXY (t) se obtiene de la convolución entre h(t) y RXX (t). Pasando a transfor-
madas de Fourier:

RXY (−t) −→ [H(f )SX (f )]∗ = H ∗ (f )SX (f ),

RY Y (t) −→ SY (f ) = H(f )H ∗ (f )SX (f ) = |H(f )|2 SX (f ). 


CC-BY-NC-ND • PID 00253297 17 Sistemas lineales

De este modo, podemos calcular la densidad espectral de potencia SY (f ) de la


señal de salida a partir de la densidad espectral de potencia SX (f ) de la señal
de entrada y del módulo al cuadrado de la función de transferencia del sistema
lineal, |H(f )|2 .

Ejemplo 2.1

La señal acústica de prueba en un punto de una sala de conciertos está determinada


por un proceso estocástico estacionario X(t) de valor medio m(t) = 0 y función de
autocorrelación R(τ ) = e−|τ | cos(2πτ ). La respuesta de la sala se traduce en la medida
Y (t) = L[X(t)] = X(t) − 41 X(t − 3). Para caracterizar la acústica de la sala, calcularemos
los parámetros siguientes:

1) El espectro de potencia SX (f ) del proceso X(t).


2) La función de respuesta impulsional del sistema L, y también la función de transfe-
rencia.
3) El espectro de potencia SY (f ) del proceso de salida Y (t).

Calculemos a continuación lo que nos pide.

1) Comenzamos calculando el espectro de potencia del proceso X(t):


Indicación

Z ∞ Z ∞ Para resolver este ejemplo,


SX (f ) = R(τ )e−j2πf τ dτ = 2 R(τ ) cos(2πf τ )dτ pueden resultar útiles las
−∞ 0
fórmulas cos A cos B =
1
Z ∞ Z ∞
2
(cos(A + B) + cos(A − B))
=2 e−τ cos(2πτ ) cos(2πf τ )dτ = e−τ (cos(2π(f + 1)τ ) + cos(2π(f − 1)τ ))dτ yR
0 0 ∞ −x 1
0 e cos(ax)dx = 1+a 2.

1 1
= + .
1 + 4π 2 (f + 1)2 1 + 4π 2 (f − 1)2

2) A continuación calculamos la respuesta impulsional de L:

1
h(t) = L[δ(t)] = δ(t) − δ(t − 3).
4
Z ∞ 
1

1
H(f ) = δ(τ ) − δ(τ − 3) e−j2πf τ dτ = 1 − e−j6πf .
−∞ 4 4

3) Para acabar, calculamos el espectro de potencia de la señal de salida y lo compara-


remos con el de la señal de entrada:

SY (f ) = |H(f )|2 SX (f ).

2   
1 −j6πf 1 −j6πf 1 j6πf
|H(f )|2 = 1 − e = 1− e 1− e
4 4 4

1 1 17 1
=1+ − (ej6πf + e−j6πf ) = − cos(6πf ).
16 4 16 2

  
17 1 1 1
SY (f ) = − cos(6πf ) 2 2
+ 2 2
.
16 2 1 + 4π (f + 1) 1 + 4π (f − 1)

Observad la gráfica del espectro de potencia de X(t) y de Y (t). La podéis ver en la


figura 3.
CC-BY-NC-ND • PID 00253297 18 Sistemas lineales

Figura 3. Gráficas de SX (f ) (izquierda) y SY (f ) (derecha).

0,6 0,6
Figura 3
SX(f) SY(f)
0,5 0,5
En la figura de la derecha
podéis ver cómo es el
0,4 0,4 espectro de potencia después
de haber hecho pasar la señal
0,3 0,3 X(t) por el sistema L.

0,2 0,2
Véase también
0,1 0,1
En el apartado 3 de este
módulo definiremos el
–2 –1 0 1 2 –2 –1 0 1 2 concepto de estimación
f f lineal, veremos cómo se
puede aplicar y estudiaremos
algunos ejemplos.
CC-BY-NC-ND • PID 00253297 19 Sistemas lineales

3. Estimación lineal
.

Hasta ahora, en este módulo hemos visto qué es un sistema lineal y cómo se
relaciona la estadı́stica de las señales de entrada y salida. En este apartado
veremos qué es un estimador de señales y describiremos su funcionamiento.

3.1. Concepto y criterios de estimación

Consideramos un experimento aleatorio que tiene asociada una variable aleato-


ria Y . Estimar la variable Y significa hacer una predicción, Yb , que se acerque
lo máximo posible a los valores que toma Y al hacer el experimento.

Puede ser que nuestro experimento tenga asociadas otras variables aleatorias
X1 , X2 , . . . , Xn , cuyos valores son conocidos. Denominaremos datos a estas
variables. Si Y no es independiente de estas variables, es conveniente valorar
Y con una variable aleatoria de la forma Yb = c(X1 , X2 , . . . , Xn ), donde c es
una función fijada. Yb se denomina estimador. Ası́, llegamos a la definición
siguiente.

Definición 3.1. Denominamos estimador, Yb , una función


c(X1 , X2 , . . . , Xn ) en la que los valores Xi son los datos, que nos
permite hacer una predicción de la variable Y .

Por ejemplo, podemos necesitar tener controlado el nivel de ocupación de una


red. Denominamos Y a este nivel de ocupación que estamos buscando. En
este caso queremos conocer el valor futuro de la variable Y . Los datos son el
nivel de ocupación en instantes anteriores y en el presente. Ası́, el problema
de la estimación aparece de manera natural al tratar los procesos estocásticos
(predicción del comportamiento futuro conocido, el comportamiento pasado y
presente).

Entre el valor que hemos estimado, Yb , y la variable aleatoria Y habrá asociado


un error. Denominamos bondad del estimador a esta medida del error que
cometemos. Mediremos esta diferencia por medio del valor  = (Y − Yb )2 . Ahora
bien, dado que este valor depende de variables aleatorias, no tiene a priori un
valor fijado. Es decir, si vamos repitiendo el experimento, el valor irá cambiando.
Nuestro criterio de calidad de una estimación será la esperanza de .
CC-BY-NC-ND • PID 00253297 20 Sistemas lineales

.
Definición 3.2. Estimación en media cuadrática es aquella en la
que la medida del error está determinada por el error cuadrático me-
dio. Este parámetro mide la bondad del estimador.

 = E[] = E[(Y − Yb )2 ] (13)

El procedimiento que hay que seguir para estimar la variable Y es fijar un


cierto tipo de función Yb = c(X1 , X2 , . . . , Xn ) (con parámetros por determinar,
por ejemplo) y minimizar  para determinar del todo c. El error asociado a la
estimación será finalmente min .

El tipo de estimación que veremos aquı́ es laestimación lineal, en la que com-


binamos linealmente los datos.

.
Definición 3.3. Estimación lineal es aquella en la que el estimador
es una combinación lineal de variables aleatorias conocidas:

Yb = a1 X1 + a2 X2 + · · · + an Xn , (14)

con a1 , a2 , . . . , an constantes.

Hay que tener en cuenta que las variables aleatorias que combinamos se pueden
obtener operando con los datos. Por ejemplo, si solo tenemos un dato X, un
posible estimador lineal es:

Yb = a1 + a2 X + a3 X 2 .

Observamos que en este caso estamos combinando X1 = 1, X2 = X, X3 = X 2


(X1 es la variable aleatoria constante 1).

También se puede dar que las variables Xi se obtingan a partir de distintas


variables. Por ejemplo, a partir de los datos U , V y W tenemos un posible esti-
mador lineal Yb = aU +bV +cW , pero hay infinidad de estimadores alternativos,
como Yb = aU V + bU 2 W , etc.

3.2. Principio de ortogonalidad

Ahora introduciremos una cierta estructura de espacio euclidiano que nos será
útil para determinar la mejor estimación lineal.
CC-BY-NC-ND • PID 00253297 21 Sistemas lineales

Para un experimento fijado, el conjunto de variables aleatorias que podemos


Variables de cuadrado
considerar forman un espacio vectorial, ya que la suma de variables y el produc- mensurable
to de una variable por un número real son nuevas variables aleatorias. Dadas
De hecho, nos debemos
dos variables Z y T podemos definir la operación restringir al espacio de
variables para las que las
operaciones consideradas
existen. Nuestro espacio está
< Z, T >= E(ZT ). (15) formado por las variables Z
tal que E(Z 2 ) es finito. En la
práctica, este será el caso.

Esta operación es bilineal, simétrica, definida positiva y no degenerada. Cons-


tituye, por lo tanto, un producto escalar en este espacio vectorial. Esto motiva Recordatorio

la definición siguiente. Recordemos algunos


conceptos que se ven en la
asignatura Matemáticas I :
. una forma bilineal es una
aplicación f (u, v) tal que es
Definición 3.4. Decimos que dos variables aleatorias, Z y T , son orto- lineal para las dos variables
gonales si: de la función f , donde u, v
pertenecen a un cierto
espacio vectorial. Decimos
que es simétrica si
E(ZT ) = 0. (16) f (u, v) = f (v, u). Es definida
si f (v, v) 6= 0 para v 6= 0.
Decimos que es definida
positiva si f (v, v) > 0,
Es decir, si su producto escalar es cero. En este caso, esbribimos Z ⊥ T . ∀v 6= 0. Si una forma bilineal
f es definida, entonces es no
degenerada.

1
El producto escalar de la expresión (15) nos define una norma kZk =< Z, Z > 2 .
El error cuadrático que considerábamos es precisamente  = kY − Yb k2 . Por lo
tanto, podemos usar técnicas de los espacios euclidianos cuando Yb corresponde
a alguna variedad lineal o subespacio vectorial. Este es el caso, precisamente,
de la estimación lineal (14).

Figura 4. Estimación lineal Figura 4

En esta figura podéis ver


cómo se define la variable Y ,
Y su estimación, Yb y el error
entre el valor real y la
estimación, .
ε1/2

^
Y
H

Ası́, Yb describe un hiperplano H generado por la base X1 , X2 , . . . , Xn , y la


mejor estimación es el elemento de este hiperplano más próximo a Y . El error
es la distancia (al cuadrado) entre Y y H.
CC-BY-NC-ND • PID 00253297 22 Sistemas lineales

La mejor estimación está determinada por la proyección ortogonal de Y sobre


Principio de ortogonalidad
H. Si esta proyección es Yb , tendremos que Y − Yb es ortogonal a H. Por tanto,
(Y − Yb ) ⊥ Xi , i = 1, . . . , n. Hemos llegado ası́ al principio de ortogonalidad La mejor estimación lineal se
obtiene cuando el error es
(“el error es ortogonal a los datos”): ortogonal a los datos:
(Y − Yb ) ⊥ Xi .

E[Xi (Y − Yb )] = 0, i = 1, . . . , n. (17)

Este es un sistema de ecuaciones lineales que podemos escribir:

E(Xi Yb ) = E(Xi Y ), i = 1, . . . , n. (18)

La solución de este sistema nos da los valores de ai .

La mejor estimación en media cuadrática de tipo lineal (Yb =


a1 X1 + a2 X2 + · · · + an Xn ) se obtiene con las ai soluciones del siste-
ma de ecuaciones lineales

E[Xi (a1 X1 + a2 X2 + · · · + an Xn )] = E[Xi Y ], i = 1, . . . , n. (19)

Finalmente, debemos notar que para calcular el error mı́nimo:

min = E[(Y − Yb )2 ] = E[(Y − Yb )Y ] − E[(Y − Yb )Yb ] = E[(Y − Yb )Y ], (20)

ya que la segunda esperanza es nula (por el propio principio de ortogonalidad,


(Y − Yb ) ⊥ Yb ).

.
El error mı́nimo en la estimación lineal está determinado por:

min = E[(Y − (a1 X1 + a2 X2 + · · · + an Xn ))Y ]. (21)

Ejemplo 3.1. Estimación para una constante

Valoramos Y con Yb = c constante. La mejor estimación es c = E(Y ) y min = Var(Y ).

En efecto, la estimación es lineal Yb = c · 1. El principio de ortogonalidad se reduce a una


ecuación:

E(1 · c) = E(1 · Y ),

y, entonces c = E(Y ). min = E[(Y − c)Y ] = E(Y 2 ) − cE(Y ) = Var(Y ).


CC-BY-NC-ND • PID 00253297 23 Sistemas lineales

Ejemplo 3.2. Recta de regresión

Consideremos la mejor estimación de Y de la forma Yb = aX + b, donde a y b son


constantes. En el plano x − y la recta y = ax + b es la que mejor ajusta la nube de puntos
que se obtienen en medidas repetidas de la variable bidimensional (X, Y ). Se denomina
recta de regresión. Expresaremos el resultado en términos de los parámetros de X y de
Y : E(X) = mX , Var(X) = σX , E(Y ) = mY , Var(Y ) = σY , Cov(X, Y ) = ρσX σY .

Observemos que Yb es una combinación lineal de X y la unidad. El principio de ortogo-


nalidad produce las dos ecuaciones:


 E[X(aX + b)] = E(XY ),


 E[1 · (aX + b)] = E(1 · Y ),

es decir,


 a E(X 2 ) + b E(X) = E(XY ),



 a E(X) + b = E(Y ).

De la segunda ecuación aislamos b = E[Y ] − aE[X] y sustituimos en la primera:

E(XY ) − E(X) E(Y ) Cov(X, Y ) σY


a= = 2
=ρ .
E(X 2 ) − E(X)2 σX σX

Ası́, la recta de regresión está determinada por:

σY σY
a=ρ , b = mY − ρ mX .
σX σX

3.3. Aplicación a procesos estocásticos

Consideramos un proceso estocástico X(t) con valor medio m(t) y autocorrela-


ción R(t1 , t2 ). Busquemos la mejor estimación lineal de X(t) dados X(t1 ), X(t2 )
con t1 < t2 < t. Para clarificar ideas nos limitaremos a dos datos. Lo mismo se
puede aplicar al caso de uno o más de dos datos.

[ = a1 X(t1 ) + a2 X(t2 ) se denomina estimador homogéneo.


El estimador X(t)
El principio de ortogonalidad queda:


 E[X(t1 )(a1 X(t1 ) + a2 X(t2 ))] = E(X(t1 )X(t)),





 E[X(t )(a X(t ) + a X(t ))] = E(X(t )X(t)),
2 1 1 2 2 2
CC-BY-NC-ND • PID 00253297 24 Sistemas lineales

es decir,


 a1 R(t1 , t1 ) + a2 R(t1 , t2 ) = R(t1 , t),





 a R(t , t ) + a R(t , t ) = R(t , t).
1 2 1 2 2 2 2

A partir de la función de autocorrelación podemos, pues, escribir el sistema y


encontrar la solución.

[ = a1 X(t1 ) + a2 X(t2 ) + b se denomina estimador no ho-


El estimador X(t)
mogéneo. El principio de ortogonalidad queda:





 E[X(t1 )(a1 X(t1 ) + a2 X(t2 ) + b)] = E(X(t1 )X(t)),






 E[X(t2 )(a1 X(t1 ) + a2 X(t2 ) + b)] = E(X(t2 )X(t)),








 E[1 · (a1 X(t1 ) + a2 X(t2 ) + b)] = E(1 · X(t)),

es decir,


a1 R(t1 , t1 ) + a2 R(t1 , t2 ) + bm(t1 ) = R(t1 , t),








 a1 R(t2 , t1 ) + a2 R(t2 , t2 ) + bm(t2 ) = R(t2 , t),






 a m(t ) + a m(t ) + b = m(t).
1 1 2 2

A partir de las funciones de valor medio y de autocorrelación podemos, co-


mo antes, escribir el sistema y encontrar la solución. Observemos que si fuese
m(t) = 0, encontrarı́amos b = 0, con lo que la estimación no homogénea se
reducirı́a a la homogénea.

Ejemplo 3.3

Aplicación a procesos estocásticos. Considerad X(t) como un proceso de Poisson. Valore-


mos X(t) a partir de X(t − T ), donde T > 0 es una constante. Apliquemos el estimador
no homogéneo a partir de los datos que tenemos:

[ = aX(t − T ) + b.
X(t)

A partir de esto obtenemos las expresiones siguientes:


 E[(aX(t − T ) + b)X(t − T )] = E[X(t)X(t − T )],



E[(aX(t − T ) + b) · 1] = E[X(t) · 1],

CC-BY-NC-ND • PID 00253297 25 Sistemas lineales

es decir,


 aR(t − T, t − T ) + bm(t − T ) = R(t, t − T ),



am(t − T ) + b = m(t).

Aplicado a nuestro proceso queda como sigue:


 a(λ2 (t − T )2 + λ(t − T )) + bλ(t − T ) = λ2 t(t − T ) + λ(t − T ),



aλ(t − T ) + b = λt,

que tiene como solución a = 1 y b = λT . El error mı́nimo es:

min = E[(X(t) − X(t − T ) − λT )X(t)] = λ2 t2 + λt − λ2 t(t − T ) − λ(t − T ) − λT λt = λT.

El error medio aumenta con T , como serı́a de esperar.


CC-BY-NC-ND • PID 00253297 26 Sistemas lineales

Resumen

Un sistema lineal L es una caja negra que transforma procesos estocásticos


X(t) que consideramos señales de entrada y genera una señal de salida, Y (t).
Concretamente, los sistemas lineales cumplen lo siguiente:

L[λ1 X1 (t) + λ2 X2 (t)] = λ1 L[X1 (t)] + λ2 L[X2 (t)].

Los sistemas lineales pueden ser deterministas (si fijada la realización del
proceso de entrada la salida ya queda determinada) o aleatorios (en caso
contrario).

Diremos que un sistema lineal es sin memoria si el valor Y (t) para cada t de-
pende exclusivamente del valor de X(t) para este t. En caso contrario, diremos
que el sistema lineal tiene memoria.

También diremos que un sistema lineal es invariante en el tiempo si un


desplazamiento de la señal de entrada nos da como resultado un desplazamiento
de la señal de salida.

La respuesta impulsional de un sistema lineal, h(t), nos permite calcular la


señal de salida Y (t) haciendo la convolución de esta respuesta impulsional con
la señal de entrada X(t), es decir:

L[X(t)] = h(t) ∗ X(t).

En el apartado 2, hemos visto la relación entre la estadı́stica de un proceso


estocástico de entrada, X(t), que ha sido procesado por un sistema lineal, y un
proceso de salida Y (t). Respecto al cálculo de la densidad espectral de potencia,
recordad que hemos asumido que el proceso debe ser estacionario:

mY (t) = L[mX (t)],

RXY (t1 , t2 ) = L2 [RXX (t1 , t2 )],

RY Y (t1 , t2 ) = L1 [RXY (t1 , t2 )],

SY (f ) = |H(f )|2 SX (f ).

Hemos dedicado el último apartado de este módulo al estudio de los estima-


dores lineales. La estimación es una herramienta muy útil para predecir el
comportamiento y planificar recursos en las redes de las telecomunicaciones. A
grandes rasgos, hemos visto que estimar una variable aleatoria Y es hacer una
CC-BY-NC-ND • PID 00253297 27 Sistemas lineales

predicción que denominamos Yb a partir de una serie de datos X1 , X2 , . . . , Xn ,


que también son variables aleatorias. En particular, la estimación lineal consis-
te en predecir el valor de Yb a partir de una combinación lineal de los datos. Es
decir:

Yb = a1 X1 + a2 X2 + · · · + an Xn .

En toda estimación tendremos un error, . Para medir el error en los estimadores


lineales utilizamos el error cuadrático medio, que se define como:

 = E[] = E[(Y − Yb )2 ].

Nos interesa minimizar este error para tener una buena estimación de Y . He-
mos visto que la mejor estimación lineal se da para el caso de la proyección
del valor Y sobre el plano generado por los datos Xi . Esta condición nos per-
mite definir un sistema de ecuaciones mediante el cual podemos encontrar los
coeficientes ai de nuestro estimador lineal.
CC-BY-NC-ND • PID 00253297 28 Sistemas lineales

Actividades
1. Dado el sistema L[X(t)] = e−t X(t):

a) ¿Es lineal?
b) ¿Es sin memoria?
c) ¿Es invariante en el tiempo?
d) Si X(t) = teBt donde B es una variable aleatoria uniforme en [0, 1], calculad su función de
valor medio mX (t) y la función de valor medio mY (t) del proceso de salida Y (t) = L[X(t)].

2.

a) Calculad la función de respuesta impulsional del preamplificador y la reverberación del


ejemplo 1.1.
b) La fórmula (5) es correcta solo para sistemas invariantes en el tiempo. ¿En qué lugar de
la demostración se utiliza la invarianza en el tiempo?

Indicación: revisad la definición de la delta de Dirac en el módulo “Procesos estocásticos


gaussianos y procesos estocásticos de Poisson”.

3. Dada la variable A, exponencial de valor medio 1, se define el proceso:



 1, 0 ≤ t ≤ A,
X(t) =
0, en otros casos.

Este proceso pasa por el sistema L del ejemplo del integrador.

a) Calculad la función de valor medio de X(t).


b) Calculad la función de valor medio de la salida del sistema Y (t) = L[X(t)].

4. Un proceso estocástico estacionario X(t) tiene valor medio m(t) = 0 y espectro de potencia
2
SX (f ) = e−f . Se pasa este proceso por el sistema Y (t) = L[X(t)] = X(t) + 21 X(t − 1).

a) Calculad la función de respuesta impulsional del sistema, y también la función de trans-


ferencia.
b) ¿Cuál es el espectro de potencia SY (f ) del proceso Y (t)?

5. Un proceso estocástico estacionario X(t) tiene valor medio m(t) = 0 y función de au-
tocorrelación R(t1 , t2 ) = e−|t2 −t1 | . Se pasa este proceso por el sistema Y (t) = L[X(t)] =
3X(t) − 2X(t − 1).

a) Calculad el espectro de potencia SX (f ) del proceso X(t).


b) Calculad la función de respuesta impulsional del sistema, y también la función de trans-
ferencia.
c) Calculad el espectro de potencia SY (f ) del proceso de salida Y (t)

6. Un proceso estocástico estacionario X(t) tiene valor medio m(t) = 0 y función de auto-
2
correlación R(t1 , t2 ) = e−(t2 −t1 ) . Se pasa este proceso por el sistema Y (t) = L[X(t)] =
X(t) + X(t − 2).

a) Calculad el espectro de potencia SX (f ) del proceso X(t). (Para la transformada de Fourier


buscad una tabla de transformadas en libros o en Internet).
b) Calculad la función de respuesta impulsional del sistema, y también la función de trans-
ferencia.
c) Calculad el espectro de potencia SY (f ) del proceso de salida Y (t).

7. La salida de un circuito con realimentación negativa está determinada por el sistema lineal
Y (t) = L[X(t)] = X(t) − X(t − 1).

a) Calculad la función de respuesta impulsional del sistema L, y también la función de


transferencia.
1
b) Suponed que el espectro de potencia del proceso de entrada es SX (f ) = . Calculad
1 + f2
el espectro de potencia SY (f ) del proceso de salida Y (t). Comparad la gráfica con la de
SX (f ). ¿En qué frecuencias se producen las atenuaciones? Relacionad esto con la expresión
que da L[X(t)].
CC-BY-NC-ND • PID 00253297 29 Sistemas lineales

8.

a) Dado un sistema lineal invariante en el tiempo Y (t) = L[X(t)], podemos obtener la


función de transferencia H(f ) por medio de la ecuación (11), calculando primero la función
de respuesta impulsional h(t). Existe la siguiente manera de obtener directamente H(f ): si
la entrada al sistema es la función ϕf (t) = ej2πf t , demostrad que:

L[ϕf (t)] = H(f )ϕf (t).

Por lo tanto, H(f ) = e−j2πf t L[ej2πf t ].


Rt
b) Considerad ahora el sistema L[X(t)] = t−1 X(τ )dτ . Calculad la función de transferencia
H(f ). Calculad también |H(f )|2 y haced su gráfica. (Podéis utilizar el resultado del apartado
anterior).
c) Suponed que el espectro de potencia del proceso de entrada al sistema anterior es SX (f ) =
10
. Esta entrada está acompañada de ruido N (t) con espectro SN (f ) = 0,01 para
1 + π2 f 2
−2 ≤ f ≤ 2 y SN (f ) = 0 en caso contrario. Calculad la potencia de X(t) y de N (t) (fórmula
8 del módulo “Procesos estocásticos estacionarios”).
d) La relación señal-ruido es:

PotX
SNR = 10 log10 .
PotN

Calculad los valores en la entrada y la salida. Observad que en la salida tenéis L[X(t)+N (t)] =
L[X(t)] + L[N (t)] y la potencia de los procesos transformados se obtiene de la ecuación (12)
y la fórmula 8 del módulo “Procesos estocásticos estacionarios”.

¿Por qué aumenta la relación señal-ruido al pasar por este sistema?

9. El ancho de banda ocupado en una conexión a internet es un proceso gaussiano X(t) de


1
valor medio m(t) = 2 y autocovarianza C(t1 , t2 ) = .
1 + |t2 − t1 |

a) Estudia la estacionalidad del proceso X(t) y calcula su potencia. Calcula la potencia del
proceso Y (t) = X(t) + 21 X(t − 1).
b) Halla la mejor estimación de X(t) en la forma αX(0), donde α es una constante (considera
t > 0). Calcula el error cuadrático mı́nimo min y haz su gráfica en función de t. Comenta su
comportamiento.
1
c) Calcula la mejor estimación lineal no homogénea de X(t) a partir de los datos X(t − 2
)
y X(t − 1). Calcula el error cuadrático mı́nimo.
CC-BY-NC-ND • PID 00253297 30 Sistemas lineales

Solucionario
1. a) Sı́, ya que L[λ1 X1 (t)+λ2 X2 (t)] = e−t (λ1 X1 (t)+λ2 X2 (t)) = λ1 e−t X1 (t)+λ2 e−t X2 (t) =
λ1 L[X1 (t)] + λ2 L[X2 (t)].

b) Sı́, ya que e−t X(t) depende solo del instante t.

c) No, porque L[X(t − a)] = e−t X(t − a), que es diferente de desplazar la salida
(e−(t−a) X(t − a)).

Z ∞ Z 1
d) mX (t) = E(teBt ) = tebt fB (b)db = tebt · 1db = ebt |b=1 t
b=0 = e − 1.
−∞ 0

mY (t) = E(Y (t)) = E(e−t X(t)) = e−t E(X(t)) = e−t mX (t) = 1 − e−t .

2. a) Preamplificador: h(t) = La [δ(t)] = αδ(t). Reverberación h(t) = Lr [δ(t)] = δ(t) + βδ(t −


T ).
b) Al decir que L[δ(t − τ )] = h(t − τ ).

3. a) Para t > 0, mX (t) = t∞ 1 · e−a da = e−t . Per a t < 0, mX (t) = 0.


R

b) mY (t) = L[mX (t)] = −∞ mX (τ )dτ = 0t e−τ dτ = 1 − e−t .


Rt R

R∞ −j2πf
4. a) h(t) = L[δ(t)] = δ(t)+ 12 δ(t−1). H(f ) = 1
−∞ (δ(τ )+ 2 δ(τ −1))e
−j2πf τ dτ = 1+ e 2
(utilizando la fórmula 12).
b) Utilizando la fórmula 13:

2
e−j2πf e−j2πf ej2πf
2
   2 2
5
SY (f ) = |H(f )|2 SX (f ) = 1 + e−f = 1 + e−f = + cos(2πf ) e−f .

2 2
1+ 2 4

R∞ R∞ R∞
5. a) SX (f ) = −∞ R(τ ) cos(2πf τ )dτ = 2 0 R(τ ) cos(2πf τ )dτ = 2 0 e−τ cos(2πf τ )dτ =

1
.
4π 2 f 2 + 1

b) h(t) = L[δ(t)] = 3δ(t) − 2δ(t − 1).

R∞
H(f ) = −∞ (3δ(τ ) − 2δ(τ − 1))e−j2πf τ dτ = 3 − 2e−j2πf .
2 1
c) SY (f ) = |H(f )|2 SX (f ) = 3 − 2e−j2πf
4π 2 f 2 + 1

1 13 − 12 cos(2πf )
= (3 − 2e−j2πf )(3 − 2ej2πf ) = .
4π 2 f 2 + 1 4π 2 f 2 + 1
R∞ R∞ 2 √ 2 2
6. a) SX (f ) = −∞ R(τ )e−j2πf τ dτ = −∞ e−τ e−j2πf τ dτ = πe−π f .

b) h(t) = L[δ(t)] = δ(t) + δ(t − 2).

R∞
H(f ) = −∞ (δ(τ ) + δ(τ − 2))e−j2πf τ dτ = 1 + e−j4πf .

√ 2 2
c) SY (f ) = |H(f )|2 SX (f ) = |1 + e−j4πf |2 πe−π f

√ 2 2 √ 2 2
= (1 + e−j4πf )(1 + ej4πf ) πe−π f = 2 π(1 + cos(4πf ))e−π f .

7. a) h(t) = L[δ(t)] = δ(t) − δ(t − 1).

R∞
H(f ) = −∞ (δ(τ ) − δ(τ − 1))e−j2πf τ dτ = 1 − e−j2πf .

|H(f )|2 = |1 − e−j2πf |2 = (1 − e−j2πf )(1 − ej2πf ) = 1 − ej2πf − e−j2πf + 1 = 2(1 − cos 2πf ).

2(1 − cos 2πf )


SY (f ) = |H(f )|2 SX (f ) = .
1 + f2
CC-BY-NC-ND • PID 00253297 31 Sistemas lineales

Figura 5. Gráficas de SX (f ) (izquierda) y SY (f ) (derecha)

1,2 4,5 Figura 5


SX(f) SY(f)
4,0
1,0
3,5 Espectro de potencia del
0,8 3,0 proceso de entrada SX (f ).
2,5 Gráficas de SX (f )
0,6 (izquierda) y del proceso de
2,0
salida SY (f ) (derecha)
0,4 1,5
1,0
0,2
0,5

–10 –8 –6 –4 –2 2 4 6 8 10 –15 –10 –5 5 10 15


–0,5
–0,2
–1,0
–0,4

La atenuación la encontramos en f = 1, 2, 3, . . .. Esto corresponde a periodos T = 1, 21 , 13 , . . ..


1
En efecto, si f (t) es periódica con periodo T = n , L[f (t)] = f (t)−f (t−1) = f (t)−f (t−nT ) =
0.
Z ∞
8. a) L[ej2πf t ] = h(t − τ )ej2πf τ dτ .
−∞

Hacemos el cambio de variable t − τ = u, dτ = −du:

Z −∞ Z ∞
L[ej2πf t ] = − h(u)ej2πf (t−u) du = ej2πf t h(u)e−j2πf u du = ej2πf t H(f ).
∞ −∞

b)

t τ =t
ej2πf τ
Z 
H(f ) = e−j2πf t L[ej2πf t ] = e−j2πf t ej2πf τ dτ = e−j2πf t
t−1 j2πf τ =t−1

!
−j2πf t ej2πf t − ej2πf (t−1) 1 − e−j2πf
=e = .
j2πf j2πf

1 − e−j2πf 1 − ej2πf 2 − e−j2πf − ej2πf


  
|H(f )|2 = H(f )H(f )∗ = =
j2πf −j2πf 4π 2 f 2

1 − cos(2πf )
= .
2π 2 f 2
CC-BY-NC-ND • PID 00253297 32 Sistemas lineales

Figura 6. Gráfica de |H(f )|2

Figura 6
1,2
Representación del módulo
de la función de transferencia
|H(f )|2
1,0

0,8

|H(f)|2
0,6

0,4

0,2

–4 –2 0 2 4
f

c)

Z ∞ Z ∞ ∞
10df arctan(πf )
PotX = SX (f )df = = 10 = 10.
−∞ −∞ 1 + π2 f 2 π −∞

Z ∞ Z 2
PotN = SN (f )df = 0, 01df = 0,04.
−∞ −2

d) Si Xout (t) = L[X(t)] y Nout (t) = L[N (t)], tenemos que:

5(1 − cos(2πf ))
SX = |H(f )|2 SX (f ) = 2 2 ,
out π f (1 + π 2 f 2 )

0, 005(1 − cos(2πf ))
SN = |H(f )|2 SN (f ) = , −2 < f < 2.
out π2 f 2

Ahora podemos calcular:

Z ∞ Z ∞ 5(1 − cos(2πf ))
PotX = SX (f )df = df = 5(1 + e−2 ) = 5,6766.
out −∞
out −∞ π 2 f 2 (1 + π 2 f 2 )

Z ∞ Z 2 0,005(1 − cos(2πf ))
PotN = SN (f )df = df = 0,009499.
out −∞
out −2 π2 f 2
CC-BY-NC-ND • PID 00253297 33 Sistemas lineales

La relación señal-ruido en la entrada es:

PotX 10
SN Rin = 10 log10 = 10 log10 = 23,98 dB.
PotN 0,04

A la salida:

PotX 5,6766
SN Rout = 10 log10 out = 10 log = 27,76 dB.
10
PotN 0,009499
out

La SNR ha aumentado, ya que, como se ve en la figura 6, este sistema elimina las altas
frecuencias (especialmente |f | > 1) y estas están más presentes en el ruido que en la señal.

Figura 7
Figura 7. Espectros de la señal (izquierda) y el ruido (derecha) en la entrada del
sistema.
Espectros de la señal
(izquierda) y el ruido
12 0,03 (derecha) en la entrada del
sistema.
10

8 0,02

SX(f) 6 SN(f)

4 0,01

–4 –2 0 2 4 –4 –2 0 2 4
f f

9. a) X(t) es estacionario en sentido amplio, ya que m(t) es constante y C depende solo de


la diferencia de tiempo. Como es gaussiano, también es estacionario en sentido estricto.

PotX (t) = R(t, t) = C(t, t) + m(t)2 = 1 + 22 = 5.

1 1
PotY (t) = E(Y (t)2 ) = E((X(t) + 2
X(t − 1))2 ) = R(t, t) + 4
R(t − 1, t − 1) + R(t, t − 1) =
5 + 45 + 12 + 4 = 43
4
= 10,75.
1 5+4|τ |
b) R(τ ) = C(τ )+m2 = +4
= 1+|τ | . Por el principio de ortogonalidad: E(αX(0)X(0)) =
1+|τ |
R(t) 5 + 4t
E(X(t)X(0)), de donde α = = .
R(0) 5(1 + t)

(5 + 4t)2 10t + 41t2


min = E((X(t) − αX(0))X(t)) = R(0) − αR(t) = 5 − 2
= .
5(1 + t) 5(1 + t)2
CC-BY-NC-ND • PID 00253297 34 Sistemas lineales

Figura 8. Error en función de la distancia temporal.

Figura 8

Error en función de la
distancia temporal.

En la gráfica se observa cómo el error aumenta con la distancia temporal entre el instante
del dato y el instante de la variable que estimamos. Como es lógico, el error tiende a cero
por t → 0.
[ = aX(t − 1
c) El estimador es X(t) 2
) + bX(t − 1) + c. Las ecuaciones del principio de
ortogonalidad:


E[X(t − 12 )(aX(t − 12 ) + bX(t − 1) + c)] = E[X(t − 21 )X(t)]








 E[X(t − 1)(aX(t − 12 ) + bX(t − 1) + c)] = E[X(t − 1)X(t)]





E[1 · (aX(t − 21 ) + bX(t − 1) + c)]

= E[1 · X(t)]

5+4|τ |
Utilizando E(X(t)) = m(t) = 2, E(X(t1 )X(t2 )) = R(t2 − t1 ), donde R(τ ) = 1+|τ |
:


aR(0) + bR( 21 ) + cm(t − 12 ) = R( 12 )








 aR( 21 ) + bR(0) + cm(t − 1) = R(1)





am(t − 12 ) + bm(t − 1) + c

= m(t)


5a + 14 b + 2c = 14




 3 3



14 9
 3
a + 5b + 2c = 2






2a + 2b + c = 2

3 1 3 [ =
La solución del sistema es a = , b = , c = . El mejor estimador es pues X(t)
5 10 5
3
5
X(t − 21 ) + 1
10
X(t − 1) + 53 .

1
El error cuadrático mı́nimo es min = E[(X(t) − aX(t − 2
) − bX(t − 1) − c)X(t)] = R(0) −
11
aR( 12 ) − bR(1) − cm(t) = .
20

También podría gustarte