Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Clase 03 Estocastico PDF
Clase 03 Estocastico PDF
Modelo de Perturbaciones
1
2
1.1. Introducción
Las perturbaciones son unas de las razones de la existencia de la teoría de control.
Sin perturbaciones no habría necesidad de realimentación.
Limitan el ancho de banda y comportamiento de un sistema.
Midiendo perturbaciones se pueden detectar malfuncionamiento de los sistemas,
Hay dos formas básicas de modelizar una perturbación: la determinística o clásica
y la estadística.
3
1.2. Reducción del efecto de las Perturbaciones
reducción en la fuente
realimentación local
control en adelanto
predicción
- Reducción en la fuente
Ejemplos
- reducción de variaciones en una concentración utilizando un mezclador eficiente
- reducción de fricción usando buenos rodamientos
- cambiar de posición los sensores para evitar perturbaciones
- modificar la electrónica del sensor
- cambiar sensor para obtener mejor respuesta
- cambiar el muestreo del sistema para tener mejor modelo.
4
- Realimentación local
Es necesario poder medir una variable que esté influida por la perturbación y
cercana a la misma.
Perturbación
y
u
Realimentación
local
5
- Control en Avance
Perturbación
Hw
Proceso
Hff
y
u
G(q)
6
- Predicción
La perturbación no es medible
Se controla en avance con una predicción en base a alguna medición.
No es necesario predecir la perturbación sino el efecto que ella causa en el
proceso.
Es importante tener un modelo
7
1.3. Modelo de Perturbaciones
Un caso típico de modelización son las perturbaciones que puede tener una planta,
ya sea por una imprecisión en la medición, la aparición de una carga o variación propia
de la planta.
- Perturbación de carga: carga mecánica de un motor, olas en un barco, etc. Son
generalmente lentas o de bajas frecuencias.
- Error de medición: puede ser un error estático de calibración o con componentes
de alta frecuencia muy importantes. Una solución habitual es filtrar esta señal
con el consiguiente retardo de la misma.
- Variación de Parámetros: debidas a una variación del punto de trabajo o a
derivas del propio sistema.
El último tipo de perturbación se estudia como un cambio en el modelo de la
planta en cambio los dos primeros se pueden modelizar como una dinámica adicional
al sistema original.
8
1.5 1.5 25 1.5
1
20
1 1
0.5
15
0.5 0.5 0
10
-0.5
0 0
5
-1
Entrada Salida
Gp
Planta
Impulso Perturbación Salida
Gn Gp
Planta
9
Las perturbaciones que serán materia de estudio en este trabajo no se podrán
representar determinísticamente, serán de la forma,
1 1.5
0.9
1
0.8
0.7
0.5
0.6
0.5 0
0.4
-0.5
0.3
0.2
-1
0.1
0 -1.5
0 5 10 15 20 25 30 0 5 10 15 20 25 30
10
1.4. Perturbaciones Determísticas a Tramos
Predicción de un Escalón
yˆ kT + mT / kT = ykT [1.2]
(
yˆ kT + mT / kT = ykT + m ykT − y( k −1)T = ) [1.3]
= (1 + m ) ykT − my( k −1)T
este predictor tiene un error en los instantes t = T ,", mT
Estos dos modelos no son muy adecuados como perturbación.
Las perturbaciones son difíciles de predecir
Una forma de hacerlas más realistas es como en la figura siguiente donde la
aparición de las perturbaciones es aleatorio
11
12
1.4.1. Modelo en Espacio de estado
xk +1 = Φxk + vk
[1.4]
yk = Cxk
se supone que la salida es escalar y el sistema es observable.
La entrada se supone cero excepto en determinados puntos.
Si se puede medir la salida, se puede predecir el estado mientras la entrada es nula.
El estado se puede calcular en base a la matriz de observabilidad
xk − n+1 = Wo−1 [ yk − n+1 " yk ]
T
[1.5]
13
Se puede usar una forma recursiva de cálculo
xˆ k / k = Φxˆ k −1/ k −1 + K [ yk − C Φxˆ k −1/ k −1 ] [1.8]
xˆ k + m / k = Φ m xˆ k / k [1.9]
14
1.4.2. Modelo Entrada-Salida
ya que se puede expresar como un polinomio se hace
C (q)
yk = wk [1.10]
A( q )
donde w es cero excepto en ciertos instantes espaciados en un número mayor al
grado(A+m)
Si se define F y G tal que cumplan
z m−1C ( z ) = A ( z ) F ( z ) + G ( z ) [1.11]
15
1.5. Perturbaciones estocásticas
Variable aleatoria: magnitud caracterizada estadísticamente.
Proceso estocástico es una variable estocástica que varía en el tiempo.
La variable estadística depende de dos parámetros: la realización y la muestra
temporal.
Ejemplo proceso determinístico con valor inicial aleatorio.
Este proceso es llamado proceso estocástico completamente determinístico ya que
se puede predecir completamente.
3.5
2 3
1.8
2.5
1.6
1.4
2
1.2
1 1.5
0.8
1
0.6
0.4 0.5
0.2
0
0 0 20 40 60 80 100
0 5 10 15 20 25 30
16
- Función de Distribución.
FX ( x ) = P ( X ≤ x ) [1.13]
F X (-∞) = 0
[1.14]
F X ( ∞ )= 1
0.8
0.6
0.4
0.2
0 20 40 60 80 100
17
- Función Densidad.
dFX ( x )
fX ( x) = [1.15]
dx
0.8
0.6
0.4
0.2
0 20 40 60 80 100
x2
P ( x1 ≤ X ≤ x2 ) = ∫ f X ( x ) dx [1.16]
x1
- Esperanza.
∞
E ( x , k 1 ) = ∫ ξ f x ( k 1 , ξ ) dξ = m( k 1 ) [1.17]
-∞
E ( ∑ )= ∑ ( E ) [1.18]
18
- Momentos
b
E X = ∫ x n f X ( x ) dx
n
[1.19]
a
momentos centrados
b
E ( X − m X ) = ∫ ( x − m X ) f X ( x ) dx
n n
[1.20]
a
- Varianza
b
σ X2 = var [ X ] = E ( X − mX ) = ∫ ( x − mX ) f X ( x ) dx [1.21]
2 2
a
- Correlación
b b
E [ XY ] = ∫ ∫ xyf X ,Y ( x, y ) dxdy [1.22]
a a
ortogonales
E [ XY ] = 0 [1.23]
19
- Covarianza
r XY (j,k)= cov X jYk = E ( X j - m Xj ) (Yk - mYk )
[1.24]
= ∫ ∫ ( x - m Xj ) ( y - mYk ) f(X,Y, j,k) dx,dy
llamando m X = E [ X ] y mY = E [Y ] resulta:
no correlacionadas
r XY (j,k)= 0 [1.26]
Autocorrelación
[1.27]
= ∫ ∫ ( x - m Xj ) f(X, j,k) dx 2
2
20
- Densidad Espectral Cruzada
∞
1
φ XY (ω ) =
2π
∑ r (k )e
k =−∞
xy
− jkω
[1.28]
π
rxy ( k ) = ∫ e jkωφ xy (ω ) dω [1.29]
−π
la función
ω2
2 ∫ φ xy (ω ) dω [1.30]
ω1
21
4
x 10 8
15 12 10
10
10 6
8 10
5 6
4
10
4
0
2
2
10
-5 0
-2 0
10
-10
-4
-2
-15 -6 10
0 1000 2000 3000 4000 5000 6000 5000 6000 7000 8000 9000 10000 10
0
10
1
10
2
10
3
10
4
.99,
4
x 10 5
1.5 12 10
10
4
1 10
8
3
0.5 6 10
4
2
0 10
2
1
-0.5 0 10
-2
0
-1 10
-4
-1
-1.5 -6 10
0 1000 2000 3000 4000 5000 6000 5000 6000 7000 8000 9000 10000 0 1 2 3 4
10 10 10 10 10
.3
22
1.6. Procesos Especiales
1.6.1. Procesos Estocástico Discreto
Son procesos en donde la aleatoriedad interviene en algunos instantes de tiempo
1.5 1
0.9
1
0.8
0.7
0.5
0.6
0 0.5
0.4
-0.5
0.3
0.2
-1
0.1
-1.5 0
0 5 10 15 20 0 5 10 15 20
23
Si los procesos aleatorios X ( t ) e Y ( t ) son cada uno estacionarios y además son
conjuntamente estacionarios, entonces la matriz de correlación puede escribirse como:
RX (τ ) RXY (τ )
R (τ ) = [1.33]
R
YX (τ ) RY (τ )
donde τ = t1 − t2
aquí las propiedades estadísticas no dependen del tiempo en sí sino de la distancia
entre muestras temporales.
- Propiedades
RXY (τ ) = RYX ( −τ )
T
i. [1.34]
RX (τ ) = RX ( −τ )
T
ii. RX ( 0 ) ≥ 0 [1.35]
iv. RX (τ ) ≤ RX ( 0 ) [1.37]
24
1.6.3. Procesos Independientes
Se debe cumplir que para todo instante de tiempo,
n
P [ X (t1 ) ≤ x1 , X (t2 ) ≤ x2 " X (tn ) ≤ xn ] = ∏ Pi [ X (ti ) ≤ xi ] [1.38]
i =1
25
1.6.5. Proceso Blanco
Si un proceso tiene una distribución Gaussiana, es estacionario e independiente se
denomina proceso blanco
xk es totalmente independiente de x j ∀ k ≠ j
xk ,δ secuencia de elementos independientes
La media es nula
covarianza
σ 2 τ =0
r( τ ) =
0 ∀τ ≠ 0 [1.42]
φ( ω )= σ 2
∀ω
2π
La mayoría de los procesos estacionarios pueden generarse a partir del filtrado del
ruido blanco. Es como el impulso de los sistemas deterministas.
26
1.6.6. Procesos Estocásticos Ergódicos
Para un proceso estocástico es posible calcular la media temporal de cada
realización como sigue:
1 T
m X (T ) = ∫ x (t ) dt [1.43]
2T −T
Esta media es obviamente una variable aleatoria que depende del intervalo de
observación −T ≤ t ≤ T .
Si se calcula la correlación promediada temporalmente, para cada realización,
T
1
R(τ ) = lim
T →∞ 2T
−T
∫ x(t + τ ) x(t )dt [1.44]
27
Un proceso aleatorio se dice ergódico si se verifican las siguientes condiciones:
i. lím m X (T ) = m X
T →∞
iii. lím RX (τ , T ) = RX (τ )
T →∞
28
1.6.7. Proceso de Wiener
Se dice que un proceso x es un proceso de Wiener si el proceso z = x (t ) − x (τ ) es
en realidad una variable aleatoria independiente. Además se debe cumplir que
i. E[ x (t )] = 0
ii. x (0) = 0
iii. la varianza de z es proporcional a la diferencia de triempos:
R( z ) = R ( x (t ) − x (τ ) ) = σ 2 (t − τ )
29
1.6.8. Proceso de Markov
Un proceso estocástico se dice de Markov de primer orden si la probabilidad
condicionada de un elemento solo depende de su valor anterior es decir
p[ xk | xk −1 , xk − 2 ........] = p[ xk | xk −1 ] [1.45]
o sea
xk +1 = axk + fvk [1.46]
30
1.7. Modelo ARMA
Una perturbación estocástica se puede modelar como generada por ruido blanco
yk + a1 yk −1 + " + an yk − n = ek + c1ek −1 + " + cn ek − n [1.49]
31
1.8. Modelo en Variables de Estado
sea el sistema
xk +1 = Φxk + vk [1.50]
y la covarianza
r ( k + τ , k ) = Φτ P ( k ) [1.53]
con
P ( k ) = cov ( xk xk ) [1.54]
y la covarianza cruzada
ryx = Crxx [1.58]
33
Ejemplo 1. Sistema de Primer Orden
xk +1 = axk + vk [1.59]
mk +1 = amk [1.61]
mk = a k − k0 m0 [1.62]
Pk +1 = a 2 Pk + r1 [1.63]
1− a (
2 k − k0 )
2( k − k 0 )
Pk = a r0 + r1 [1.64]
1 − a2
rx ( l , k ) = a l − k P ( k ) l ≥ k [1.65]
rx ( l , k ) = a k −l P ( l ) l < k [1.66]
si a < 1 y k0 → −∞entonces
mk → 0 [1.67]
34
r1
Pk → [1.68]
1 − a2
r1a τ
rx ( k + τ , k ) → [1.69]
1 − a2
se convierte en estacionario ya que m es constante y la covarianza solo depende de
la distancia entre muestras.
Si el filtro tuviese ganancia unitaria
1− a
Pk → r1 [1.70]
1 − a2
en la figura se ve cómo varía la varianza en función de a .
1
0.95
0.9
0.85
0.8
0.75
0.7
0.65
0.6
0.55
0.5
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9
35
y k = x k + ek [1.71]
r1a τ ≠0
1 − a 2
y el espectro
1 r1 1 r1
φ y (ω ) = r2 + jω = r +
( e − a )( e − a ) [1.73]
2π π ω
2
− jω
2 1 + a 2
− 2 a cos
36
1.9. Modelo de Entrada Salida
k ∞
yk = ∑g
n =−∞
u = ∑ g n uk − n
k −n n
n=0
[1.74]
∞ ∞
m y ( k ) = E { yk } = E ∑ g n uk − n = ∑ g n E {uk − n }
n=0 n=0
[1.75]
∞
= ∑ g n mu ( k − n )
n=0
∞
yk − m y ( k ) = ∑ g n uk − n − mu ( k − n ) [1.76]
n=0
37
∞ ∞ ∞ ∞
ry (τ ) = E { yk +τ y } = E ∑ g n uk +τ − n ∑ g l uk −l = ∑∑ g n E {uk +τ − n ukT−l } g l T =
T
k
n=0 l =0 n=0 l =0
[1.77]
∞ ∞
= ∑∑ g n ru (τ + l − n ) g l T
n=0 l =0
∞ T
∞
ryu (τ ) = E { yk +τ u } = E ∑ g n uk +τ − n uk = ∑ g n E {uk +τ − n ukT } =
T
k
n=0 n=0
[1.78]
∞
= ∑ g n ru (τ − n )
n=0
∞
1
φ y (ω ) = φ yy (ω ) =
2π
∑ r (n)e
n =−∞
y
− jnω
[1.79]
38
∞ ∞ ∞
1
φ y (ω ) =
2π
∑ e ∑∑ g r ( n + l − k ) g
n =−∞
− jnω
k =0 l =0
k u l
T
∞ ∞ ∞
1
=
2π
∑∑∑ e − jkω
g k e
k = 0 n =−∞ l = 0
− j ( n + l − k )ω
ru ( n + l − k ) e jlω g l T [1.80]
∞ ∞ ∞
1
=
2π
∑e
k =0
− jkω
gk ∑e
n =−∞
− j ( n + l − k )ω
ru ( n + l − k )∑ e jlω hl T
l =0
φ y (ω ) = G ( e jω )φu (ω ) G T ( e − jω ) [1.82]
de igual modo
39
∞
1
φ yu (ω ) =
2π
∑e
n =−∞
− jnω
ryu ( n )
∞ ∞
1
=
2π
∑ e ∑ g r (n − k )
n =−∞
− jnω
k =0
k u
[1.83]
∞ ∞
1
=
2π
∑e
k =0
− jkω
gk ∑ ru ( n )
e − jnω
n =−∞
= G ( e jω ) φu (ω )
Filtrado de Procesos Estacionarios
Sea la entrada estacionaria.
Si el sistema es estable, la salida también es estacionaria con valor medio
m y = H (1) mu [1.84]
espectro
φ y (ω ) = H ( e jω )φu (ω ) H T ( e − jω ) [1.85]
y espectro cruzado
40
φ yu (ω ) = H ( e jω )φu (ω ) [1.86]
41
Ejemplo 2. Espectro de un sistema de Primer Orden
sea el sistema
X (z) 1
H (z) = = [1.87]
U (z) z − a
excitado por ruido blanco con densidad espectral
r1
φu (ω ) = [1.88]
2π
r1
φ x (ω ) = H ( e jω ) H T ( e − jω )
2π
r1 1
=
2π ( e jω − a )( e − jω − a )
[1.89]
1 r1
=
2π (1 + a 2 − 2a cos ω )
si la salida es
y k = x k + ek [1.90]
42
el espectro será
1 r1
φ y (ω ) = r2 +
(1 + a − 2a cosω )
[1.91]
2π 2
comparar con ejemplo anterior
43
1.10. Factorización Espectral
Se verá cómo una señal puede ser generada a partir del ruido blanco.
En general H ( e jω ) es racional y su densidad espectral también lo será.
Los ceros y los polos de F son simétricos con respecto al círculo unidad.
Im
Plano Z
Re
44
Ejemplo 3. Factorización Espectral
Dado una densidad espectral racional φ (ω ) , existe un sistema lineal con función
de transferencia
B(z)
H (z) = [1.93]
A( z )
tal que, su respuesta al ruido blanco es un proceso estacionario con densidad
espectral φ (ω ) .
Las raíces de A ( z ) están dentro del círculo unidad y las de B ( z ) están dentro o
sobre el círculo unidad.
Nota 1: todo proceso estacionario puede ser pensado como un sistema lineal
estable excitado con ruido blanco (un proceso ARMA).
Nota 2: lo que se hace en la práctica es encontrar φ (ω ) y luego buscar el sistema
que lo representa de acuerdo al teorema.
Nota 3: generalmente se asume que B ( z ) `tiene sus raíces dentro del círculo
unidad para que su inversa sea estable.
45
Sistema de Primer Orden
1 1 r1 + r2 (1 + a ) − r2 a ( z + z )
2 −1
r1
φ y (ω ) = r2 + =
( z − a ) ( z − a ) z =e jω 2π ( z − a)( z − a)
[1.94]
2π −1 −1
z =e jω
hay que factorizar el numerador
λ 2 ( z − b ) ( z −1 − b ) = r1 + r2 (1 + a 2 ) − r2 a ( z + z −1 ) [1.95]
r1 + r2 (1 + a 2 ) − r1 + r2 (1 + a ) r1 + r2 (1 − a )
2 2
b= [1.97]
2r2 a
la otra raíz es espejo de esta y está fuera del círculo unidad.
La variable λ resulta
46
1
λ 2 = r1 + r2 (1 + a 2 ) + r1 + r2 (1 + a ) r1 + r2 (1 − a )
2 2
[1.98]
2
1.11. Innovación
De lo visto anteriormente un proceso estocástico estacionario puede representarse
como
k
yk = ∑h
n =−∞
k −n n e [1.99]
reemplazando,
47
k +1
yk +1 = ∑h
n =−∞
k +1− n n e
k
= ∑h
n =−∞
k +1− n n e + h0 ek +1 [1.101]
k k
= ∑h
n =−∞
k +1− n ∑g
l =−∞
n−l yl + h0 ek +1
la salida y tiene dos términos, uno que depende de sus valores anteriores y otro
h0 ek +1 que contiene información nueva, no contenida en el pasado.
El proceso estocástico {ek }se denomina innovación del proceso { yk }
El término
k k
∑h
n =−∞
k +1− n ∑g
l =−∞
n−l yl [1.102]
48
Sistema de Primer Orden
1 r1
φ y (ω ) = r2 +
(1 + a − 2a cosω )
[1.103]
2π 2
λ 2 ( z − b)( z − b)
−1
φ y (ω ) =
2π ( z − a ) ( z −1 − a )
[1.104]
49
1.12. Referencias
1. Åström, Karl J.: Computer Controlled Systems. Theory and Design, Prentice Hall
– 1984
2. Haykin, Simon: Communication Systems, John Wiley & Sons, Inc., New York. -
1994
3. Papoulis
50