Está en la página 1de 50

1.

Modelo de Perturbaciones

1. Modelo de Perturbaciones ________________________________________ 1


1.1. Introducción _______________________________________________________________________________________________________3
1.2. Reducción del efecto de las Perturbaciones _____________________________________________________________________________4
1.3. Modelo de Perturbaciones ___________________________________________________________________________________________8
1.4. Perturbaciones Determísticas a Tramos _______________________________________________________________________________11
1.4.1. Modelo en Espacio de estado _______________________________________________________________________________________________ 13
1.4.2. Modelo Entrada-Salida ____________________________________________________________________________________________________ 15
1.5. Perturbaciones estocásticas _________________________________________________________________________________________16
1.6. Procesos Especiales ________________________________________________________________________________________________23
1.6.1. Procesos Estocástico Discreto _______________________________________________________________________________________________ 23
1.6.2. Procesos Estacionario _____________________________________________________________________________________________________ 23
1.6.3. Procesos Independientes ___________________________________________________________________________________________________ 25
1.6.4. Procesos Incorrelados _____________________________________________________________________________________________________ 25
1.6.5. Proceso Blanco __________________________________________________________________________________________________________ 26
1.6.6. Procesos Estocásticos Ergódicos _____________________________________________________________________________________________ 27
1.6.7. Proceso de Wiener________________________________________________________________________________________________________ 29
1.6.8. Proceso de Markov _______________________________________________________________________________________________________ 30
1.7. Modelo ARMA ____________________________________________________________________________________________________31
1.8. Modelo en Variables de Estado ______________________________________________________________________________________32
1.9. Modelo de Entrada Salida __________________________________________________________________________________________37
1.10. Factorización Espectral____________________________________________________________________________________________44
1.11. Innovación ______________________________________________________________________________________________________47
1.12. Referencias ______________________________________________________________________________________________________50

1
2
1.1. Introducción
Las perturbaciones son unas de las razones de la existencia de la teoría de control.
Sin perturbaciones no habría necesidad de realimentación.
Limitan el ancho de banda y comportamiento de un sistema.
Midiendo perturbaciones se pueden detectar malfuncionamiento de los sistemas,
Hay dos formas básicas de modelizar una perturbación: la determinística o clásica
y la estadística.

3
1.2. Reducción del efecto de las Perturbaciones
reducción en la fuente
realimentación local
control en adelanto
predicción
- Reducción en la fuente
Ejemplos
- reducción de variaciones en una concentración utilizando un mezclador eficiente
- reducción de fricción usando buenos rodamientos
- cambiar de posición los sensores para evitar perturbaciones
- modificar la electrónica del sensor
- cambiar sensor para obtener mejor respuesta
- cambiar el muestreo del sistema para tener mejor modelo.

4
- Realimentación local
Es necesario poder medir una variable que esté influida por la perturbación y
cercana a la misma.
Perturbación

y
u

Realimentación
local

Generalmente no se necesita gran precisión en el lazo interno.


Un regulador con alta ganancia es suficiente.
Ejemplos:
- variación de presión en válvulas. Se introduce un regulador de presión.
- variación de temperatura. Se estabiliza la fuente.
- realimentación en las fuentes eléctricas.

5
- Control en Avance

Perturbación
Hw

Proceso

Hff

y
u
G(q)

Una forma obvia es


Hw
H ff = − [1.1]
G
Si no es estable se puede aproximar a algo estable
Muchas veces es un modelo estático
Se usa en perturbaciones de carga

6
- Predicción
La perturbación no es medible
Se controla en avance con una predicción en base a alguna medición.
No es necesario predecir la perturbación sino el efecto que ella causa en el
proceso.
Es importante tener un modelo

7
1.3. Modelo de Perturbaciones
Un caso típico de modelización son las perturbaciones que puede tener una planta,
ya sea por una imprecisión en la medición, la aparición de una carga o variación propia
de la planta.
- Perturbación de carga: carga mecánica de un motor, olas en un barco, etc. Son
generalmente lentas o de bajas frecuencias.
- Error de medición: puede ser un error estático de calibración o con componentes
de alta frecuencia muy importantes. Una solución habitual es filtrar esta señal
con el consiguiente retardo de la misma.
- Variación de Parámetros: debidas a una variación del punto de trabajo o a
derivas del propio sistema.
El último tipo de perturbación se estudia como un cambio en el modelo de la
planta en cambio los dos primeros se pueden modelizar como una dinámica adicional
al sistema original.

8
1.5 1.5 25 1.5

1
20
1 1

0.5
15

0.5 0.5 0

10
-0.5

0 0
5
-1

-0.5 -0.5 0 -1.5


0 5 10 15 20 25 30 0 5 10 15 20 25 30 0 5 10 15 20 25 30 0 20 40 60 80 100

Figura 1-1. Cuatro tipos diferentes de perturbaciones: de corta duración, carga


constante, deriva y periódica
Estas perturbaciones se podrían pensar como la respuesta impulsional de un
sistema Gn
Impulso Perturbación
Gn

Entrada Salida
Gp

Planta
Impulso Perturbación Salida
Gn Gp

Planta

Figura 1-2. Diagrama de bloques de una perturbación y su efecto sobre la planta

9
Las perturbaciones que serán materia de estudio en este trabajo no se podrán
representar determinísticamente, serán de la forma,
1 1.5

0.9
1
0.8

0.7
0.5
0.6

0.5 0

0.4
-0.5
0.3

0.2
-1
0.1

0 -1.5
0 5 10 15 20 25 30 0 5 10 15 20 25 30

Figura 1-3. Perturbaciones de tipo estadístico


Las perturbaciones se pueden estudiar como entrada salida o como variables de
estado.

10
1.4. Perturbaciones Determísticas a Tramos
Predicción de un Escalón
yˆ kT + mT / kT = ykT [1.2]

Este predictor tiene un error de predicciónε = ykT − yˆ kT en los instantes


t = 0, T ,", ( m − 1) T
Predicción de una Rampa

(
yˆ kT + mT / kT = ykT + m ykT − y( k −1)T = ) [1.3]
= (1 + m ) ykT − my( k −1)T
este predictor tiene un error en los instantes t = T ,", mT
Estos dos modelos no son muy adecuados como perturbación.
Las perturbaciones son difíciles de predecir
Una forma de hacerlas más realistas es como en la figura siguiente donde la
aparición de las perturbaciones es aleatorio

11
12
1.4.1. Modelo en Espacio de estado
 xk +1 = Φxk + vk
 [1.4]
 yk = Cxk
se supone que la salida es escalar y el sistema es observable.
La entrada se supone cero excepto en determinados puntos.
Si se puede medir la salida, se puede predecir el estado mientras la entrada es nula.
El estado se puede calcular en base a la matriz de observabilidad
xk − n+1 = Wo−1 [ yk − n+1 " yk ]
T
[1.5]

La predicción a m pasos será


xˆ k + m / k = Φ m + n−1Wo−1 [ yk − n+1 " yk ]
T
[1.6]

es una combinación lineal de n valores de la salida o sea


xˆ k + m / k = P * ( q −1 ) yk [1.7]

con P polinomio de orden n-1

13
Se puede usar una forma recursiva de cálculo
xˆ k / k = Φxˆ k −1/ k −1 + K [ yk − C Φxˆ k −1/ k −1 ] [1.8]

xˆ k + m / k = Φ m xˆ k / k [1.9]

14
1.4.2. Modelo Entrada-Salida
ya que se puede expresar como un polinomio se hace
C (q)
yk = wk [1.10]
A( q )
donde w es cero excepto en ciertos instantes espaciados en un número mayor al
grado(A+m)
Si se define F y G tal que cumplan
z m−1C ( z ) = A ( z ) F ( z ) + G ( z ) [1.11]

se puede demostrar que un predictor a m pasos es


C ( q ) yˆ k + m / k = qG ( q ) yk [1.12]

15
1.5. Perturbaciones estocásticas
Variable aleatoria: magnitud caracterizada estadísticamente.
Proceso estocástico es una variable estocástica que varía en el tiempo.
La variable estadística depende de dos parámetros: la realización y la muestra
temporal.
Ejemplo proceso determinístico con valor inicial aleatorio.
Este proceso es llamado proceso estocástico completamente determinístico ya que
se puede predecir completamente.
3.5

2 3

1.8
2.5
1.6

1.4
2
1.2

1 1.5

0.8
1
0.6

0.4 0.5

0.2
0
0 0 20 40 60 80 100
0 5 10 15 20 25 30

16
- Función de Distribución.
FX ( x ) = P ( X ≤ x ) [1.13]

F X (-∞) = 0
[1.14]
F X ( ∞ )= 1

0.8

0.6

0.4

0.2

0 20 40 60 80 100

17
- Función Densidad.
dFX ( x )
fX ( x) = [1.15]
dx

0.8

0.6

0.4

0.2

0 20 40 60 80 100

x2
P ( x1 ≤ X ≤ x2 ) = ∫ f X ( x ) dx [1.16]
x1

- Esperanza.

E ( x , k 1 ) = ∫ ξ f x ( k 1 , ξ ) dξ = m( k 1 ) [1.17]
-∞

E ( ∑ )= ∑ ( E ) [1.18]

18
- Momentos
b
E  X  = ∫ x n f X ( x ) dx
n
[1.19]
a

momentos centrados
b
E ( X − m X )  = ∫ ( x − m X ) f X ( x ) dx
n n
[1.20]
  a
- Varianza
b
σ X2 = var [ X ] = E ( X − mX )  = ∫ ( x − mX ) f X ( x ) dx [1.21]
2 2
  a

- Correlación
b b
E [ XY ] = ∫ ∫ xyf X ,Y ( x, y ) dxdy [1.22]
a a

ortogonales
E [ XY ] = 0 [1.23]

19
- Covarianza
r XY (j,k)= cov  X jYk  = E ( X j - m Xj ) (Yk - mYk ) 
[1.24]
= ∫ ∫ ( x - m Xj ) ( y - mYk ) f(X,Y, j,k) dx,dy
llamando m X = E [ X ] y mY = E [Y ] resulta:

r XY (j,k)= cov  X jYk  = E  X jYk  − m Xj mYk [1.25]

no correlacionadas
r XY (j,k)= 0 [1.26]

Autocorrelación

rX (j,k)= cov  X j  = E ( X j - m Xj ) 


2

  [1.27]

= ∫ ∫ ( x - m Xj ) f(X, j,k) dx 2
2

20
- Densidad Espectral Cruzada

1
φ XY (ω ) =

∑ r (k )e
k =−∞
xy
− jkω
[1.28]

π
rxy ( k ) = ∫ e jkωφ xy (ω ) dω [1.29]
−π

la función
ω2
2 ∫ φ xy (ω ) dω [1.30]
ω1

es la potencia de la señal en una banda [ω1 ,ω2 ]


Si tiene algún pico significa que existe una componente periódica

21
4
x 10 8
15 12 10

10
10 6
8 10

5 6
4
10
4
0
2
2
10
-5 0

-2 0
10
-10
-4

-2
-15 -6 10
0 1000 2000 3000 4000 5000 6000 5000 6000 7000 8000 9000 10000 10
0
10
1
10
2
10
3
10
4

.99,
4
x 10 5
1.5 12 10

10
4
1 10
8

3
0.5 6 10

4
2
0 10
2

1
-0.5 0 10

-2
0
-1 10
-4

-1
-1.5 -6 10
0 1000 2000 3000 4000 5000 6000 5000 6000 7000 8000 9000 10000 0 1 2 3 4
10 10 10 10 10

.3

22
1.6. Procesos Especiales
1.6.1. Procesos Estocástico Discreto
Son procesos en donde la aleatoriedad interviene en algunos instantes de tiempo
1.5 1

0.9
1
0.8

0.7
0.5
0.6

0 0.5

0.4
-0.5
0.3

0.2
-1
0.1

-1.5 0
0 5 10 15 20 0 5 10 15 20

1.6.2. Procesos Estacionario


Un proceso aleatorio X ( t ) se dice estacionario, si f X ( t ) ( x ) es independiente de t
y por lo tanto:
m X ( t ) = mX ∀t [1.31]

Para un proceso estacionario, la función de autocorrelación depende sólo de la


diferencia t1 - t2 , es decir:
RX ( t1 , t2 ) = RX ( t1 − t2 ) ∀t1 , t2 [1.32]

23
Si los procesos aleatorios X ( t ) e Y ( t ) son cada uno estacionarios y además son
conjuntamente estacionarios, entonces la matriz de correlación puede escribirse como:
 RX (τ ) RXY (τ )
R (τ ) =   [1.33]
R
 YX (τ ) RY (τ ) 
donde τ = t1 − t2
aquí las propiedades estadísticas no dependen del tiempo en sí sino de la distancia
entre muestras temporales.
- Propiedades
RXY (τ ) = RYX ( −τ )
T

i. [1.34]
RX (τ ) = RX ( −τ )
T

ii. RX ( 0 ) ≥ 0 [1.35]

iii. RXY 2 (τ ) ≤ RX ( 0 ) RY ( 0 ) [1.36]

iv. RX (τ ) ≤ RX ( 0 ) [1.37]

24
1.6.3. Procesos Independientes
Se debe cumplir que para todo instante de tiempo,
n
P [ X (t1 ) ≤ x1 , X (t2 ) ≤ x2 " X (tn ) ≤ xn ] = ∏ Pi [ X (ti ) ≤ xi ] [1.38]
i =1

se podría expresar en función de la densidad o distribución.


Si se trata de dos procesos X e Y se dice que son independientes si
P [ X (t1 ) ≤ x1 ,", X (tn ) ≤ xn , Y (t1 ) ≤ y1 ,",Y (tn ) ≤ yn ] =
[1.39]
= P [ X (t1 ) ≤ x1 ,", X (tn ) ≤ xn ] P [Y (t1 ) ≤ y1 ,",Y (tn ) ≤ yn ]
1.6.4. Procesos Incorrelados
Un proceso es incorrelado consigo mismo cuando
RX ( t ,τ ) = E [ X (t ) ] E [ X (t ) ] ∀t ,τ
T
[1.40]

Un proceso independiente es incorrelado. No siempre ocurre al revés.


Dos procesos son incorrelados si
RXY (t ,τ ) = E [ X (t ) ] E [Y (t ) ] ∀t ,τ
T
[1.41]

25
1.6.5. Proceso Blanco
Si un proceso tiene una distribución Gaussiana, es estacionario e independiente se
denomina proceso blanco
xk es totalmente independiente de x j ∀ k ≠ j
xk ,δ secuencia de elementos independientes
La media es nula
covarianza
 σ 2 τ =0
r( τ ) = 
0 ∀τ ≠ 0 [1.42]

φ( ω )= σ 2
∀ω

La mayoría de los procesos estacionarios pueden generarse a partir del filtrado del
ruido blanco. Es como el impulso de los sistemas deterministas.

26
1.6.6. Procesos Estocásticos Ergódicos
Para un proceso estocástico es posible calcular la media temporal de cada
realización como sigue:
1 T
m X (T ) = ∫ x (t ) dt [1.43]
2T −T

Esta media es obviamente una variable aleatoria que depende del intervalo de
observación −T ≤ t ≤ T .
Si se calcula la correlación promediada temporalmente, para cada realización,
T
1
R(τ ) = lim
T →∞ 2T
−T
∫ x(t + τ ) x(t )dt [1.44]

que constituye un proceso estocástico.


Sería de mucha utilidad que la media temporal coincida con la media del proceso
estudiado así como su correlación. De este modo bastaría con conocer una sola
realización para conocer todo el proceso.

27
Un proceso aleatorio se dice ergódico si se verifican las siguientes condiciones:
i. lím m X (T ) = m X
T →∞

ii. lim var  m X (T ) = 0


T →∞

iii. lím RX (τ , T ) = RX (τ )
T →∞

iv. lím var  RX (τ , T ) = 0


T →∞

En este caso se puede substituir el cálculo de la esperanza por la integral


T
1
T →∞ 2T ∫
lim x ( t )dt
−T

28
1.6.7. Proceso de Wiener
Se dice que un proceso x es un proceso de Wiener si el proceso z = x (t ) − x (τ ) es
en realidad una variable aleatoria independiente. Además se debe cumplir que
i. E[ x (t )] = 0
ii. x (0) = 0
iii. la varianza de z es proporcional a la diferencia de triempos:
R( z ) = R ( x (t ) − x (τ ) ) = σ 2 (t − τ )

29
1.6.8. Proceso de Markov
Un proceso estocástico se dice de Markov de primer orden si la probabilidad
condicionada de un elemento solo depende de su valor anterior es decir
p[ xk | xk −1 , xk − 2 ........] = p[ xk | xk −1 ] [1.45]

o sea
xk +1 = axk + fvk [1.46]

el valor futuro de x solo depende de su valor actual y de v.


Si v es ruido blanco genera una proceso de Markov.
Si x depende de valores anteriores se puede hacer lo siguiente
 x1k +1   0 1   x1k   0 
 x  = a    +   vk
a2   x 2 k   f 
[1.47]
 2 k +1   1
lo que matricialmente resulta
xk +1 = Axk + Fvk [1.48]

30
1.7. Modelo ARMA
Una perturbación estocástica se puede modelar como generada por ruido blanco
yk + a1 yk −1 + " + an yk − n = ek + c1ek −1 + " + cn ek − n [1.49]

31
1.8. Modelo en Variables de Estado
sea el sistema
xk +1 = Φxk + vk [1.50]

con xk +1 = Φxk + vk [1.51]

con v ruido blanco. Su valor medio es


mk +1 = Φmk [1.52]

y la covarianza
r ( k + τ , k ) = Φτ P ( k ) [1.53]

con
P ( k ) = cov ( xk xk ) [1.54]

y dada por la siguiente fórmula


P ( k + 1) = ΦP ( k ) ΦT + R1 [1.55]

Nota 1: Si v es Gaussiana, el proceso estocástico queda definido por su media y su


covarianza
32
Nota 2: si el sistema tiene una salida
m y = Cm [1.56]

ryy = CrxxC T [1.57]

y la covarianza cruzada
ryx = Crxx [1.58]

Nota 3: la ecuación [1.55] parece una función de Lyapunov


Nota 4: la covarianza P representa la incertidumbre en el estado.
ΦP ( k ) ΦT representa la propagación debida a la dinámica y R1 es la covarianza del
ruido.

33
Ejemplo 1. Sistema de Primer Orden
xk +1 = axk + vk [1.59]

r1 cov de v. r0 cov inicial de x.


mk = E {xk } [1.60]

mk +1 = amk [1.61]

mk = a k − k0 m0 [1.62]

Pk +1 = a 2 Pk + r1 [1.63]

1− a (
2 k − k0 )
2( k − k 0 )
Pk = a r0 + r1 [1.64]
1 − a2
rx ( l , k ) = a l − k P ( k ) l ≥ k [1.65]

rx ( l , k ) = a k −l P ( l ) l < k [1.66]

si a < 1 y k0 → −∞entonces
mk → 0 [1.67]

34
r1
Pk → [1.68]
1 − a2
r1a τ
rx ( k + τ , k ) → [1.69]
1 − a2
se convierte en estacionario ya que m es constante y la covarianza solo depende de
la distancia entre muestras.
Si el filtro tuviese ganancia unitaria
1− a
Pk → r1 [1.70]
1 − a2
en la figura se ve cómo varía la varianza en función de a .
1

0.95

0.9

0.85

0.8

0.75

0.7

0.65

0.6

0.55

0.5
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9

Si se introduce una salida de la forma

35
y k = x k + ek [1.71]

siendo r2 cov de e, resulta:


 r1
r +
 2 1 − a 2 τ =0
ry (τ ) =  τ
[1.72]

 r1a τ ≠0
 1 − a 2
y el espectro

1  r1  1  r1 
φ y (ω ) =  r2 + jω  = r +
( e − a )( e − a )    [1.73]
2π  π ω
2
− jω
2  1 + a 2
− 2 a cos 

36
1.9. Modelo de Entrada Salida
k ∞
yk = ∑g
n =−∞
u = ∑ g n uk − n
k −n n
n=0
[1.74]

∞  ∞
m y ( k ) = E { yk } = E ∑ g n uk − n  = ∑ g n E {uk − n }
 n=0  n=0
[1.75]

= ∑ g n mu ( k − n )
n=0


yk − m y ( k ) = ∑ g n uk − n − mu ( k − n ) [1.76]
n=0

el valor medio de la entrada se propaga a la salida


Se puede considerar, por simplicidad, nulo.

37
 ∞  ∞  ∞ ∞
ry (τ ) = E { yk +τ y } = E  ∑ g n uk +τ − n  ∑ g l uk −l   = ∑∑ g n E {uk +τ − n ukT−l } g l T =
T
k
  n=0   l =0   n=0 l =0
[1.77]
∞ ∞
= ∑∑ g n ru (τ + l − n ) g l T
n=0 l =0

 ∞ T 

ryu (τ ) = E { yk +τ u } = E  ∑ g n uk +τ − n uk   = ∑ g n E {uk +τ − n ukT } =
T
k
  n=0   n=0
[1.78]

= ∑ g n ru (τ − n )
n=0

1
φ y (ω ) = φ yy (ω ) =

∑ r (n)e
n =−∞
y
− jnω
[1.79]

38
∞ ∞ ∞
1
φ y (ω ) =

∑ e ∑∑ g r ( n + l − k ) g
n =−∞
− jnω

k =0 l =0
k u l
T

∞ ∞ ∞
1
=

∑∑∑ e − jkω
g k e
k = 0 n =−∞ l = 0
− j ( n + l − k )ω
ru ( n + l − k ) e jlω g l T [1.80]

∞ ∞ ∞
1
=

∑e
k =0
− jkω
gk ∑e
n =−∞
− j ( n + l − k )ω
ru ( n + l − k )∑ e jlω hl T
l =0

introduciendo la respuesta impulsional



G ( z ) = ∑ z −n gn [1.81]
n=0

φ y (ω ) = G ( e jω )φu (ω ) G T ( e − jω ) [1.82]

de igual modo

39

1
φ yu (ω ) =

∑e
n =−∞
− jnω
ryu ( n )
∞ ∞
1
=

∑ e ∑ g r (n − k )
n =−∞
− jnω

k =0
k u
[1.83]
∞ ∞
1
=

∑e
k =0
− jkω
gk ∑ ru ( n )
e − jnω

n =−∞

= G ( e jω ) φu (ω )
Filtrado de Procesos Estacionarios
Sea la entrada estacionaria.
Si el sistema es estable, la salida también es estacionaria con valor medio
m y = H (1) mu [1.84]

espectro
φ y (ω ) = H ( e jω )φu (ω ) H T ( e − jω ) [1.85]

y espectro cruzado

40
φ yu (ω ) = H ( e jω )φu (ω ) [1.86]

Nota 1: el valor H ( e jω ) es la amplitud de la respuesta a un seno de frecuencia ω .


El valor de la densidad espectral de la salida es el producto de la ganancia en potencia
H (e )
2

y la densidad espectral de la entrada φu (ω ) .

Nota 2: Según [1.86], la densidad espectral cruzada es igual a la respuesta en


frecuencia cuando la entrada es ruido blanco.

41
Ejemplo 2. Espectro de un sistema de Primer Orden
sea el sistema
X (z) 1
H (z) = = [1.87]
U (z) z − a
excitado por ruido blanco con densidad espectral
r1
φu (ω ) = [1.88]

r1
φ x (ω ) = H ( e jω ) H T ( e − jω )

r1 1
=
2π ( e jω − a )( e − jω − a )
[1.89]

1 r1
=
2π (1 + a 2 − 2a cos ω )

si la salida es
y k = x k + ek [1.90]

42
el espectro será

1  r1 
φ y (ω ) =  r2 + 
(1 + a − 2a cosω ) 
[1.91]
2π  2

comparar con ejemplo anterior

43
1.10. Factorización Espectral
Se verá cómo una señal puede ser generada a partir del ruido blanco.
En general H ( e jω ) es racional y su densidad espectral también lo será.

Haciendo z = e jω la función siguiente resulta


H ( e jω ) H T ( e − jω ) = F ( z ) = H ( z ) H T ( z −1 ) [1.92]

Los ceros y los polos de F son simétricos con respecto al círculo unidad.
Im

Plano Z

Re

Es posible encontrar un H con todos sus polos estables.

44
Ejemplo 3. Factorización Espectral
Dado una densidad espectral racional φ (ω ) , existe un sistema lineal con función
de transferencia
B(z)
H (z) = [1.93]
A( z )
tal que, su respuesta al ruido blanco es un proceso estacionario con densidad
espectral φ (ω ) .
Las raíces de A ( z ) están dentro del círculo unidad y las de B ( z ) están dentro o
sobre el círculo unidad.
Nota 1: todo proceso estacionario puede ser pensado como un sistema lineal
estable excitado con ruido blanco (un proceso ARMA).
Nota 2: lo que se hace en la práctica es encontrar φ (ω ) y luego buscar el sistema
que lo representa de acuerdo al teorema.
Nota 3: generalmente se asume que B ( z ) `tiene sus raíces dentro del círculo
unidad para que su inversa sea estable.

45
Sistema de Primer Orden

1   1  r1 + r2 (1 + a ) − r2 a ( z + z ) 
2 −1
r1
φ y (ω ) =  r2 +  =  
( z − a ) ( z − a )  z =e jω 2π  ( z − a)( z − a)
[1.94]
2π  −1 −1
 z =e jω

hay que factorizar el numerador
λ 2 ( z − b ) ( z −1 − b ) = r1 + r2 (1 + a 2 ) − r2 a ( z + z −1 ) [1.95]

igualando por potencias


z0 λ 2 (1 + b 2 ) = r1 + r2 (1 + a 2 )
[1.96]
z 1
λ b = r2 a
2

despejando resulta una raíz en

r1 + r2 (1 + a 2 ) −  r1 + r2 (1 + a )   r1 + r2 (1 − a ) 
2 2
  
b= [1.97]
2r2 a
la otra raíz es espejo de esta y está fuera del círculo unidad.
La variable λ resulta
46
1
λ 2 =  r1 + r2 (1 + a 2 ) +  r1 + r2 (1 + a )   r1 + r2 (1 − a )  
2 2
[1.98]
2 
1.11. Innovación
De lo visto anteriormente un proceso estocástico estacionario puede representarse
como
k
yk = ∑h
n =−∞
k −n n e [1.99]

con e ruido blanco.


Como H es racional y con inversa estable, se puede escribir lo contrario
k
ek = ∑g
n =−∞
k −n yn [1.100]

reemplazando,

47
k +1
yk +1 = ∑h
n =−∞
k +1− n n e
k
= ∑h
n =−∞
k +1− n n e + h0 ek +1 [1.101]

k k
= ∑h
n =−∞
k +1− n ∑g
l =−∞
n−l yl + h0 ek +1

la salida y tiene dos términos, uno que depende de sus valores anteriores y otro
h0 ek +1 que contiene información nueva, no contenida en el pasado.
El proceso estocástico {ek }se denomina innovación del proceso { yk }
El término
k k

∑h
n =−∞
k +1− n ∑g
l =−∞
n−l yl [1.102]

es la mejor estimación cuadrática media de la salida yk +1 (se verá más adelante)

48
Sistema de Primer Orden

1  r1 
φ y (ω ) =  r2 + 
(1 + a − 2a cosω ) 
[1.103]
2π  2

λ 2 ( z − b)( z − b)
−1

φ y (ω ) =
2π ( z − a ) ( z −1 − a )
[1.104]

este proceso puede ser generado filtrando ruido blanco con


z −b
H (z) = [1.105]
z−a
la relación entrada salida es
yk +1 = ayk + ek +1 − bek [1.106]

donde e es ruido blanco con varianza λ 2

49
1.12. Referencias
1. Åström, Karl J.: Computer Controlled Systems. Theory and Design, Prentice Hall
– 1984
2. Haykin, Simon: Communication Systems, John Wiley & Sons, Inc., New York. -
1994
3. Papoulis

50

También podría gustarte