Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Automatizacion Control Discreto
Automatizacion Control Discreto
Flavio Torres
1.1 INTRODUCCIÓN
El control por computador es hoy en día una herramienta común en la industria actual. Por tanto es importante
entender los aspectos teóricos involucrados en los sistemas controlados por computador.
En la figura 1.1 se muestra un proceso controlado por computador
Proceso
Entrada real
Salida
Las señales que maneja el computador son discretas, por lo tanto se analizará este tipo de señales. Para
obtenerlas se comenzará con señales continuas que son más familiares.
u Proceso y
- Función de transferencia
- Variables de estado
Ambas representaciones son equivalentes en el sentido que desde la función de transferencia se puede llegar a
la representación de estado y viceversa.
Ejemplo 1.1
Obtener la representación de estado de la siguiente función de transferencia continua
b1 s + b2
G( s) = (1.1)
s + a1 s + a 2
2
u(s) b1 s + b2 y(s)
s + a1 s + a2
2
1
u(s) b1 s + b2 y(s)
s + a1 s + a2
2
s b1
+
u(s)
s −2 + y(s)
b2
1 + s − 2 (a1 s + a2 )
s b1
+
+ −2
+
u(s) s b2 y(s)
-
a1 s + a2
3
s b1
+
+ +
u(s) s −2 b2 y(s)
- -
a1 s
a2
s b1
+
+ +
u(s) s −2 s s −1 b2 y(s)
- -
a1 s
a2
b1
+
+ x2(s) x1(s) +
u(s) −1 −1 y(s)
s s b2
- -
a1
a2
Con la asignación de variables del ultimo diagrama de bloques podemos deducir lo siguiente:
s x1 ( s ) = x 2 ( s ) (1.2.a)
s x 2 ( s) = − a1 x 2 ( s) − a 2 x1 ( s) + u ( s) (1.2.b)
y ( s ) = b1 x 2 ( s ) + b2 x1 ( s ) (1.2.c)
Expresándolo en forma matricial vectorial (una raya debajo de la letra indica vector), tendremos
finalmente la siguiente la representación de estado del proceso
4
donde
x (s) 0 1 0
x( s) = 1 A= B= C = [b2 b1 ]
T
− a1
(1.3.c)
x 2 ( s) − a 2 1
OBS: Usando el resultado del ejemplo 1.1 ( o sea el último diagrama en bloques), podemos extrapolarlo
para generalizar y representar cualquiera función de transferencia en un diagrama de bloques donde
los coeficientes del polinomio se expresan en forma separada e individual. Como ejercicio, hacer la
representación en bloque y de estado de otras funciones de transferencia.
Concepto práctico de señal discreta Al hacer pasar una señal continua por un conversor
análogo digital y luego seguido por un conversor digital análogo, a la salida se obtiene la señal discretizada
que se muestra en la figura 1.3.
Reloj con
periodo T 0
A/D D/A
t T 0 2T 0 3T 0 kT 0
t
Figura 1.3. Obtención de una señal discreta
En un sistema controlado por computador , las señales continuas y discretas aparecen como se muestra en la
figura 1.4
5
PC
y(t)
u(t)
t Proceso t
D/A A/D
análogo
La información numérica al interior del computador tiene una correspondencia biunívoca con el nivel
de altura de los escalones que se observan a la salida del conversor D/A. En rigor la operatoria es la siguiente:
Sea un número al interior del PC que se desea enviar a la salida. Para ello el número, que esta codificado en
en byte, es enviado al bus de datos de salida, que lo transporta a la entrada del conversor D/A. A la salida del
conversor se obtiene el nivel de señal (altura ó voltaje) correspondiente al número. Por lo tanto el nivel de
salida u(kT0) tiene el mismo valor que el número al interior del PC. De manera que el análisis matemático a
la señal escalonada es equivalente a considerar sus correspondientes valores numéricos al interior del PC.
Ambos enfoques se usan indistintamente porque significan lo mismo. Más adelante se formalizara una
representación matemática más precisa para representar señales discretas.
•
x(t ) = A x (t ) + B u (t ) (1.4.a)
− − −
y (t ) = C x(t )
T
− − (1.4.b)
t k = k T0 (1.5)
(ver salida de figura 1.3), conocida la condición inicial x (t k ) , esta dada por
t
x (t ) = e A(t −t k ) x(t k ) + ∫ e A( t −τ ) B u (τ ) dτ (1.6)
tk
Evaluando en t = tk+1 tenemos
t k +1
x (t k +1 ) = e A(t k +1 −tk ) x (t k ) + ∫ e A(t k +1 −τ ) dτ B u (t k ) (1.7)
tk
t k +1 0 t k +1 − t k
∫ tk
e A(t k +1 −τ ) dτ = ∫
t k +1 − t k
e Aη ( − d η ) = ∫
0
e Aη dη (1.8)
x (t k +1 ) = Ad x (t k ) + B d u (t k )
(1.9.a)
y (t k ) = C x (t k )
T
(1.9.b)
donde
Ad = e A( tk +1 −t k ) = e A T0 (1.10)
t k +1 − t k
Bd = ∫ e A η dη B = ∫ e A η dη B = Ψ B
T0
0 0 (1.11)
con
T0
Ψ = ∫ e A η dη (1.12)
0
OBS: En muchos textos usan las variables A y B para representar al sistema discreto dados por Ad y Bd
(también se usan para representar polinomios). Sin embargo la relación entre la representación
continua y discreta esta dada por la ecuación (1.10) y (1.11). En todo caso la clarificación, si las
variables pertenecen a uno u otro caso, dependerá implícitamente del planteamiento del problema.
A 2T02
e A T0 = I + A T0 + + .... (1.13)
2!
con I matriz de identidad. Entonces
A T02
∫
T0
e Aη dη = I T0 + + ...... (1.14)
0 2!
por lo tanto
Ad = I + A Ψ (1.15)
7
Ejemplo 1.2
Obtener la representación de estado discreta del siguiente proceso, expresado en variable de estado
continuo
• 0 1 0
x= x + u
0 0 1
y = [1 0] x
A 2T02 1 0 0 T0 1 T0
Ad = e A T0 = I + A T0 + + .... = + +0=
2! 0 1 0 0 0 1
1 η
Ad = e Aη =
0 1
T0 T0 η T02
Bd = ∫ e Aη
dη B = ∫ 1 dη = 2
0 0
T0
finalmente tenemos
1 T0 T02
x (t k +1 ) = x (t k ) + 2 u (t k )
0 1 T0
y (t k ) = [1 0] x (t k )
x (k + 1) = Ad x (k ) + B u (k ) (16.a)
− − − d
(16.b)
y (k ) = C x(k )
T
− −
8
Ejemplo 1.3
Obtener la representación de estado discreto de
• − 1 0 1
x= x + u
1 0 0
y = [0 1] x
usando Laplace.
x ( s ) = (s I − A) x (0) + (s I − A) B u ( s )
−1 −1
1
−1
s + 1 0
{
Ad = e A T0 = L−1 (s I − A)
−1
}
= L−1
s + 1 0
−1
= L 1 1
T0
− 1 s T
0
s ( s + 1) s
T0
e −T0 0
Ad = −T0
1 − e 1
T0 e
−η
1 − e −T0
B d = ∫ e A η dη B = ∫
T0
dη = −T0
0 1 − e −η
T0 − 1 + e
0
1.4 LA TRANSFORMADA Z
Al igual que la transformada de Laplace para sistemas continuos, existe una transformada para
sistemas discretos denominada transformada z
Para entender su razón de ser y su deducción, sea una señal continua de la figura 1.5.
x(t)
t
Figura 1.5. señal de proceso
9
m(t)
T 0 2T 0 3T 0 kT 0
t
Figura 1.6 señal discretizada con periodo T0
∞
m(t ) = ∑ x (kT0 )[u (t − kT0 ) − u (t − (k + 1)T0 )] (1.17)
k =0
[ ]
∞
1
m( s ) = ∑ x(kT0 ) e −kT0 s 1 − e −T0 s (1.18)
k =0 s
m( s ) =
1
s
[ ]
1 − e −T0 s X * ( s ) (1.19)
con
∞
X * ( s ) = ∑ x (kT0 ) e − kT0 s (1.20)
k =0
donde la transformada de Laplace X*(s) posee la información básica de la señal en el tiempo x(t), y
por lo tanto concentra toda la información relevante de la señal real m(t) (con T0 constante) para el análisis
discreto, o sea cuando se trabaja en procesos controlados por computador. Asignando, por comodidad, la
siguiente variable
z = e T0 s (1.21)
10
∞
X ( z ) = ∑ x (kT0 ) z −k (1.22)
k =0
X ( z ) = Z [x(kT0 )] (1.23)
Ejemplo 1.4
Obtener la transformada z de la señal escalón de la figura 1.7
u(t)
t
Figura 1.7. señal escalón
X ( z ) = 1 + z −1 + z −2 + z −3 + ......
1 z
X ( z) = −1
= y converge si z >1
1− z z −1
Ejemplo 1.5
− at
Obtener la transformada z de la señal exponencial, e , de la figura 1.8
u(t)
t
Figura 1.8. señal exponencial
11
X ( z ) = 1 + (e a T0 z ) −1 + (e a T0 z ) −2 + .....
1 z
X ( z) = = converge para e a T0 z > 1
1 − (e a T0
z) −1
z − e − a T0
Las propiedades más importantes de la transformada z son la de corrimientos. Para el resto de las propiedades,
ver referencia [1],[2],[3].
Corrimiento hacia la izquierda Sea y(kT0) la señal desplazada hacia la izquierda en un instante
de muestreo de la señal x(kT0), como se muestra en la figura 1.9
x(kT0)
y(kT0)=x((k+1)T 0)
∞
Y ( z ) = ∑ y (kT0 ) z − k = y (0) + y (T0 ) z −1 + y (2T0 ) z − 2 + y (3T0 ) z −3 + ........ (1.25)
k =0
∞ ∞
Y ( z ) = − z x(0) + ∑ x (kT0 ) z −( k −1) = z ∑ x(kT0 ) z − k − z x(0) (1.28)
k =0 k =0
x(kT0)
y(kT0)=x((k-1)T 0)
∞
Y ( z ) = ∑ y (kT0 ) z − k = y (0) + y (T0 ) z −1 + y (2T0 ) z −2 + y (3T0 ) z −3 + ........ (1.30)
k =0
∞ ∞
Y ( z ) = ∑ x (kT0 ) z −k −1 = z −1 ∑ x (kT0 ) z −k (1.32)
k =0 k =0
Ejemplo 1.6
Sea la función de transferencia, de la figura 1.4, una constante de valor 1
a) Grafique y(kT0), que captura el PC, frente a un escalón unitario u(kT0) a la salida del PC
y( z)
b) Obtenga G ( z ) = de la planta unitaria
u(z)
Solución
a) El PC sincroniza sus datos de salidas y entradas, es decir, ocurren al mismo instante. Si a la
salida de PC se origina un escalón unitario en k = 0, la entrada del PC no se percatará de este
cambio al mismo instante dado que el conversor A/D requiere un tiempo para hacer la
conversión. Por lo tanto el PC deberá esperar el siguiente periodo de muestreo para poder
capturar la data, tal como se muestra en la figura 1.11
13
u(kT 0)
T 0 2T 0 kT 0
y(kT 0)
T 0 2T 0 kT 0
G ( z ) = z −1
La transformada inversa de z consiste en encontrar los valores x(kT0) de la ecuación (1.22), dada
X(z)
Ejemplo 1.7
1
Obtener la transformada inversa de z de X ( z) =
z + z +1
2
X ( z ) = z −2 − z −3 + z −5 − z −6 + ...
Con T0 =1,
Existen una serie de métodos para obtener la transformada inversa de z, como también la tabla de
transformada z de señales conocidas. Para tal efecto consultar la referencia [1].
Así como una ecuación diferencial puede representar el comportamiento de un sistema continuo, la
ecuación de diferencia puede representar el comportamiento de un sistema discreto.
14
u ∫ y
t
y (t ) = ∫ u (t ) dt (1.34)
0
la ecuación diferencial correspondiente es
d y (t )
= u (t ) (1.35)
dt
k −1
y (kT0 ) = ∑ T0 u (qT0 ) (1.36)
q =0
k
y ((k + 1)T0 ) = ∑ T0 u (qT0 ) (1.37)
q=0
restando la ecuación anterior
y (k + 1) − y (k ) = u (k )
y (k ) = y (k − 1) + u (k − 1) (1.39)
Así como la ecuación 1.(35) se le llama la ecuación diferencial del proceso, la ecuación (1.39) se
denomina la ecuación de diferencia del proceso discreto.
Para encontrar y(t) es necesario resolver la ecuación (1.35) matemáticamente, en cambio para
encontrar y(k) la resolución de la ecuación (1.39) es mucho más simple. Por ejemplo sea u(k) e
y(0)conocidos, entonces la solución de y(k) es
15
y( z)
G( z) = (1.40)
u(z)
Ejemplo 1.8
Obtener la función de transferencia en z de la ecuación (1.39)
y ( z ) − z −1 y ( z ) = z −1u ( z ) (1.41)
[ ]
y ( z ) 1 − z −1 = z −1u ( z ) (1.42)
y( z) z −1 1
G( z) = = −1
= (1.43)
u( z) 1 − z z −1
que corresponde a la función de transferencia discreta del proceso integrador de la figura 1.11.
dn d dn d
αn n
y (t ) + ... + α 1 y (t ) + α 0 y (t ) = β n n
u (t ) + ... + β 1 u (t ) + β 0 u (t ) (1.44)
dt dt dt dt
tiene su representación discreta dada por la ecuación de diferencia de orden n siguiente
y ( s ) Β( s )
Η (s) = = (1.46)
u ( s ) Α( s )
y ( z ) B( z )
G( z) = = (1.47)
u ( z ) A( z )
Β( s ) = β n s n + β n −1 s n −1 + .... + β 1 s + β 0 (1.49)
A( z ) = a 0 + a1 z −1 + a 2 z −2 + ... + a n z − n (1.50)
B( z ) = b0 + b1 z −1 + b2 z −2 + ... + bn z − n (1.51)
finalmente la representación polinómica de procesos reales (b0 = 0), con el polinomio A(z ) en forma
mónica ( a0 =1)
b1 z −1 + ... + bn z − n B( z )
G( z) = −1 −n
= (1.52)
1 + a1 z + ... + a n z A( z )
Obtención de G(z) a partir de G(s) Sea una planta cualquiera representada en la figura 1.12.
u G(s) y
Circunscribiendo el análisis al control por computador, nos interesa las señales escalonadas como se
muestra a la salida de la figura 1.3. Observamos que la señal esta compuesta por una suma de señales
escalones. Entonces sea la señal escalón unitaria
1
u(s) = (1.53)
s
1
y(s) = G( s) (1.54)
s
17
G( s)
y ( z ) = Z [ y ( s)] = Z (1.55)
s
pero
y( z)
G( z) = (1.56)
u(z)
z
de la tabla de transformada Z, el escalón es u( z) = , por lo tanto la relación entre G (z ) y G (s ) es
z −1
z − 1 G (s)
G( z) = Z (1.57)
z s
Ejemplo 1.9
Resolver el ejemplo 1.8 usando la ecuación (1.57)
1
u G( s) = y
s
z −1 1
G( z) = Z 2
z s
1 T0 z
Z 2 =
s ( z − 1)
2
por lo tanto
z − 1 T0 z T0 T0 z −1
G( z) = = =
z ( z − 1) 2 z − 1 1 − z −1
si T0 = 1 entonces
18
1
G( z) =
z −1
Usando técnicas lineales similares a las del sistema continuo, se pueden obtener información
relevante de los sistemas discretos. Por ejemplo es importante saber si un proceso es realizabable y/o estable.
y (k ) = y (k − 1) = y (k − 2) = ........ = y (k − n) = Y0 (1.58)
u (k ) = u (k − 1) = u (k − 2) = ........ = u (k − n) = U 0 (1.59)
con Y0 y U 0 constantes, por lo tanto de ecuación (1.45), con A(z ) mónico, tendremos
Y0 b + b2 + .... + bn
K= = 1 = G (1) (1.61)
U 0 1 + a1 + a 2 + .... + a n
Proceso de retardo puro Un proceso con retardo puro de T tiempo, se representa por
G ( s ) = e −Ts = e − d T0 s (1.62)
con d = 1,2, ... , numero entero dependiendo de la magnitud del retardo, T, y del periodo de muestreo T0
G( z) = z −d (1.63)
Proceso generalizado más retardo Se obtiene del proceso de la ecuación (1.52) seguido
por el proceso de la ecuación (1.630)
B( z ) −d (1.64)
G( z) = z
A( z )
19
Realizabilidad Un proceso se dice realizable si se cumple la ley causa efecto, es decir la salida
de un proceso no puede reaccionar antes que se le aplique una excitación en la entrada.
Ejemplo 1.10
y (k ) = y (k − 1) + u (k + 1)
Solución Se observa que la salida depende de entrada futura por lo tanto no se cumple la ley causa
efecto.
Ejemplo 1.11
a1 y (k ) + a 0 y (k + 1) = −a 2 y (k − 2) + b−1u (k + 2) + b0 u (k + 1) + b1u (k − 2)
a1 y ( z ) + z a 0 y ( z ) = −a 2 z −2 y ( z ) + b−1 z 2 u ( z ) + b0 z u ( z ) + b1 z −2 u ( z )
b−1 z 2 + b0 z + b1 z −2
G( z) =
a 0 z + a1 + a 2 z −2
z −1
Multiplicando por , tenemos
z −1
b−1 z + b0 + b1 z −3
G( z) =
a 0 + a1 z −1 + a 2 z −3
Podemos deducir que el proceso no es realizable dado que posee potencia positiva de z en el numerador
u(kT0)
T0 2T0 kT0
1 k = 0
δ K (k ) = (1.65)
0 k ≠ 0
O sea u ( k ) = δ K ( k ) corresponde a la figura 1.14 con T0 = 1
Ejemplo 1.12
Sea un proceso dado por la siguiente ecuación de diferencia
y (k ) = −a1 y (k − 1) − a 2 y (k − 2) + b1u (k − 1) + b2 u (k − 2)
Obtener los valores de y(k) para k = 0,1,2 y 3 cuando se le aplica un Delta de Kroneker a la entrada
Solución
y (0) = 0
y (1) = b1
y (2) = − a1b1 + b2
y (3) = − a1 (b2 − a1b1 ) − a 2 b1
Ejemplo 1.13
Demostrar que la transformada inversa de z de una función de transferencia discreta de un proceso
corresponde a la respuesta a pulso del proceso. Use el proceso del ejemplo 1.12 para la demostración
Solución
El G(z) del ejemplo 1.12 es
b1 z −1 + b2 z −2
G( z) =
1 + a1 z −1 + a 2 z −2
∞
G ( z ) = ∑ g (kT0 ) z − k (1.66)
k =0
g ( 0) = 0
g (1) = b1
g (2) = −a1b1 + b2
g (3) = −a1 (b2 − a1b1 ) − a 2 b1
Que corresponde a la respuesta a pulso del proceso del ejemplo 1.12 , tal como lo muestra en la figura 1.15
δ K (k ) G (z ) g (k )
∞
u (k ) = ∑ u ( n) δ
n = −∞
K ( k − n) (1.67)
δ K (k )
→ y (k ) = g (k ) (1.68)
u (n)δ K (k − n)
→ y (k ) = u (n) g (k − n) (1.69)
∞ ∞
u (k ) = ∑ u ( n) δ
n = −∞
K ( k − n)
→ y (k ) = ∑ u ( n) g ( k − n )
n = −∞
(1.70)
Para que se cumpla la condición de realizabilidad (ley causa –efecto) la sumatoria debe llegar hasta k-1, dado
que y(k) sólo es afectado hasta u(k-1). Por lo tanto
k −1
y (k ) = ∑ u ( n) g ( k − n)
n = −∞
(1.71)
22
∞
y (k ) = ∑ g (τ ) u (k − τ ) (1.72)
τ =1
t
y (t ) = ∫ g (η ) u (t − η ) dη (1.73)
0
Respuesta en frecuencia Veremos qué ocurre cuando a un proceso discretizado, G(z), se le aplica
una señal sinusoidal de frecuencia ω , o sea cuando la entrada es ( T0 = 1 )
u (k ) = cos ω k = ℜ e j ω k{ } (1.74)
ω 2π k 2π
OBS: si T0 ≠ 1 , u ( kT0 ) = cos( ωT0 k ) = cos( ) , con ws =
ws T0
de ecuación (1.72)
{ }
∞
y (k ) = ∑ g (τ ) ℜ e j ω ( k −τ ) = ℜ ∑ g (τ ) e j ω ( k −τ ) (1.75)
τ =1
{ }
∞
y (k ) = ℜ e j ω k ∑ g (τ ) e − j ω τ = ℜ e j ω k G (e j ω ) (1.76)
τ =1
{
y (k ) = ℜ [1∠ω k ] [ G (e jw
]}
) ∠ arctg (G (e jw ) )
(1.77)
y (k ) = G (e j ω ) cos( w k + ϕ )
(1.78)
con
(
ϕ = arctg G (e j ω ) ) (1.79)
Ejemplo 1.13
2 y (k ) = 4 y (k − 1) + u (k − 1)
y (k ) = 2 y (k − 1) + 0.5 u (k − 1)
y (1) = 2 y (0) = 2
y (2) = 2 y (1) = 4
.
.
y (k ) = 2 y (k − 1) = 2 k
vemos que el proceso es inestable porque y(k) crece hacia valor infinito cuando k → ∞
K
G( s) = (1.80)
s+a
usando ecuación (1.57), tenemos
z −1 K
G( z) = Z (1.81)
z s ( s + a)
de la tabla de transformada z, [1]tenemos
b1
G( z) = (1.82)
z + a1
donde
24
K
b1 = (1 − e −a T0 ) (1.83)
a
y
a1 = −e − a T0
(1.84)
el límite de establidad de G(s) es para el polo ubicado en el eje imaginario a = jw que corresponde, en el
− j w T0
plano z, al polo a1 ubicado en a1 = −e , con − ∞ < w < ∞ . Vemos que al variar w, el polo a1 traza
un circulo unitario en el plano z que corresponde al límite de estabilidad en el plano z. Por lo tanto podemos
deducir que G(z) es estable si posee todos sus polos dentro del circulo unitario y consecuentemente es
inestable si posee al menos un polo fuera del circulo unitario.
Criterios de estabilidad Existen varios métodos para saber si una función de transferencia, G(z) es
estable. Ver referencia [1],[2].
Estabilidad para procesos de hasta segundo orden Para polinomios de hasta segundo orden en el
denominador existe un procedimiento gráfico para determinar en forma rápida si el sistema es estable o no.
Sea el proceso dado por
B( z )
G( z) = (1.85
1 + a1 z −1 + a 2 z −2
Usando el método de estabilidad de Jury [1] se puede demostrar que G(z) es estable si a1 y a 2 están dentro
de la zona delimitada por la figura 1.16
a2
-2 -1 1 2 a1
-1
z −1 + 2 z −2
G( z) =
1 + 0.5 z −1 − 0.3 z −2
Solución Trazando las coordenadas a1 y a 2 en figura 1.13 obtenemos el punto que se muestra en
la figura 1.17
a2
0.5
-2 -1 -0.3 1 2 a1
-1
deducimos entonces que el sistema es estable porque las coordenadas caen dentro de la zona de estabilidad
z x( z ) = Ad x ( z )+ Bd u ( z ) (1.86.a)
− − −
y ( z ) = C x( z ) (1.86.b)
T
− −
Observando la similitud de estas ecuaciones con las ecuaciones (1.3) podemos deducir que el
tratamiento de variables de estado discretas es similar al de sistemas continuos debido a que su estructura son
semejantes. Ver referencia [1],[2]
EJERCICIOS
1.- Determine cuales de las siguientes ecuaciones de diferencia posee su representación de estado continuo
a) y ( kT0 + T0 ) − 0.5 y ( kT0 ) = 6 u ( kT0 )
b) y (kT0 + T0 ) + 0.5 y (kT0 ) = 6 u (kT0 )
[ ]
2.- sea d una variable entera positiva y Z x (T0 ) = X ( z ) , entonces demostrar que
26
d −1
a) Z [x((k + d )T0 )] = z d X ( z ) − ∑ x(qT0 ) z −q
q =0
b) Z [x(( k − d )T0 )] = z X ( z )
−d
0 1 1
x (k + 1) = x( k ) + u ( k )
− 0.16 − 1 1
y (k ) = [1 0] x (k )
1
b) Calcular x (k ) e y (k ) para u (k ) escalón unitario y x (0) =
− 1
4).- Deducir la expresión en función de k del ejemplo 1.5, o sea hallar x(k)
5) Comprobar que la transformada z de una función en el tiempo x(t) es única, sin embargo a la inversa no lo
es. Compare con el análisis de la transformada de Laplace.
K'
6) sea G ( s ) =
'
con K y a constantes. Obtener G (z )
s+a
d3
7) Obtener G(z) del proceso continuo caracterizado por la ecuación diferencial y (t ) = u (t ) . Use T0 = 1.
d3
8) Frente a un función de transferencia determine cuál es la correcta secuencia de análisis: estabilidad y luego
realizabilidad ó viceversa
z −1
9) Sea la función de transferencia G ( z ) = . Graficar y(k) en función de k para y(0) = 1 y
1 + a1 z −1
u(k) = 0, en los siguientes casos
a) a1 = −2 b) a1 = −1 c) a1 = −0.5 d) a1 = 0
f) a1 = 0.5 g) a1 = 1 h) a1 = 2
10) Si los polos de la función de transferencia continua , G(s), se mueven dentro de la zona de la figura 1.18
27
jω
s
π /2
π /4
σ
−π / 4
−π / 2
al transformar a función de transferencia discreta G(z), ¿Cuál es la zona de los correspondientes polos en el
plano z?
E(s) Planta
u(s)
+ 1 1
R(s) Gc ( s ) = G p (s) = y(s)
s +1 s
- Controlador
Transformar el control analógico, Gc(s), al digital Gc(z). Luego grafique u(k) e y(k) con periodo de muestreo
T0 = 0.5 y escalón unitario en la referencia.
14) Usando los pasos de la ecuación (4) a la (8) deduzca la representación de estado discreta para un proceso
de tiempo continuo con retardo τ ≤ T0 , o sea para el proceso
•
x(t ) = A x (t ) + B u (t − τ )
y (t ) = C x(t )
T
15) Obtenga la respuesta en frecuencia de un conversor A/D. Grafique la magnitud y fase versus frecuencia
28
CONTROLADORES DETERMINISTICOS
2.1 INTRODUCCIÓN
El control determinístico se refiere al diseño de control de un proceso cuando las entradas y/o perturbaciones
(ruidos) que le afectan son aproximadas a señales concretas expresables matemáticamente (señal impulso,
escalón, sinusoidal, etc.). En consecuencia se usan las técnicas de teoría de sistemas lineales. Nos
concentraremos en procesos de una sola entrada y una sola salida ó SISO (Single Input Single Output).
Obviamente existen procesos MISO (Múltiple Input Single Output) y MIMO (Múltiple Input Múltiple
Output) que serán tratados en cursos superiores. Controladores de estados basados en la teoría de variables de
estado también serán tratados en cursos superiores.
Como sabemos , el objetivo básico de un controlador es que la salida del proceso alcance un valor deseado.
Par alcanzar este objetivo existen dos técnicas
Control en lazo abierto El control en lazo abierto esta orientado a aquellos procesos donde se
conocen exactamente su formulación matemática y donde las perturbaciones y ruidos son también conocidos
exactamente o despreciables. es así como el controlador de cancelación de la figura 2.1 se logra que la salida
es exactamente la señal deseada, es decir el control perfecto
1
_____ u
Ref Gp(z) y
Gp(z)
Controlador Planta
Para lograr lo anterior se debe cumplir que el controlador sea realizable y estable. Si ahora se desea una
función de transferencia , GT(z), preestablecida entre salida y Ref, entonces el controlador deberá ser:
GT ( z )
Gc ( z ) = (2.1)
G p ( z)
Para que Gc (z ) sea estable en la práctica, G p (z ) no debe poseer ceros fuera del circulo unitario. Porque si
ocurriese lo contrario entonces cualquier corrimiento del cero de la planta, el polo inestable del controlador no
se eliminaría y por lo tanto el sistema sería inestable.
29
Control en lazo cerrado Cuando no se puede encontrar un controlador en lazo abierto que sea
estable o cuando el conocimiento de la planta y las perturbaciones o ruidos impiden determinar
satisfactoriamente a G p (z ) en ecuación (2.1), se recurre al control en lazo cerrado como se muestra en al
figura 2.2.
+ u(z)
Ref(z) Gc (z ) G p (z ) y(z)
-
El control en lazo abierto no tiene mucha ciencia, porque es prácticamente directo su diseño. En cambio el
diseño de controladores en lazo cerrado requiere mayor análisis.
Esquema general de control Consiste en una fórmula que contemple los dos tipos de control: lazo
abierto y cerrado. La formula es la siguiente
R( z ) u ( z ) = T ( z ) Re f ( z ) − S ( z ) y ( z ) (2.2)
T ( z) + u(z)
Ref(z) G p (z ) y(z)
R( z )
-
S (z)
R( z )
Si S = 0 entonces corresponde a un control en lazo abierto. Para el caso de la figura 2.1, el control
que resulta es
T ( z) 1
Gc ( z ) = = (2.3)
R( z ) G p ( z )
Si T(z) = S(z) entonces corresponde a un control en lazo cerrado. Según la figura 2.2 , el control que
resulta es
T (z)
Gc ( z ) = (2.4)
R( z )
30
El diseño de T y R va a corresponder a algún criterio de control en lazo cerrado como se verá más adelante.
El control en lazo cerrado es más común en la industria que el control en lazo abierto, por lo tanto se hará
hincapié en estos tipos de controladores durante todo el curso. Estos controladores también son denominados
controladores realimentados
uv (z) n(z)
+ +
+ e(z) + u(z) +
Ref(z) Gc (z ) G p (z ) y(z)
donde uv(z) y n(z) representa los ruidos ó perturbaciones a la entrada y salida del proceso.
Sea la planta
B( z )
G p (z) = (2.5)
A( z )
Q( z )
Gc ( z ) = (2.6)
P( z )
Con
Q( z ) = q 0 + q1 z −1 + q 2 z −2 + ... + q nν z − nν (2.7)
− nµ
P( z ) = p 0 + p1 z −1 + p 2 z −2 + ... + p nµ z (2.8)
El objetivo principal de este tipo de controladores es asegurar que en estado estacionario el error sea cero.
Además que el error alcance el cero lo más pronto posible y sin excesiva oscilaciones en la salida.
Lamentablemente cumplir todos requisitos al mismo tiempo es difícil y requiere mayor atención.
Análisis del error en estado estacionario Suponga un proceso suficientemente estable, es decir
polos al interior del circulo unitario. De figura 2.4 vemos que
Re f ( z ) − n( z ) G p ( z) uv ( z)
e( z ) = − (2.9)
1 + Gc ( z ) G p ( z ) 1 + Gc ( z ) G p ( z )
Para escalón en Ref(z) ó n(z) ó en u v , el valor del error en estado estacionario se obtiene aplicando el
teorema del valor final , ver ecuación (1.61). Si deseamos que el error en estado estacionario sea cero,
entonces debe cumplirse que
G p (1) ≠ ∞ (2.11)
Gc (1) = ∞ (2.12)
Q( z )
Gc ( z ) = (2.13a)
P ( z ) ( z − 1)
'
o también
Q ( z ) z −1
Gc ( z ) = (2.13b)
P ' ( z ) (1 − z −1 )
P( z ) = P ' ( z ) ( z − 1) (2.14a)
P( z ) = P ' ( z ) (1 − z −1 ) (2.14b)
32
1
u ( s ) = K (1 + + TD s ) e( s ) (2.15)
TI s
Recordemos que el error en estado estacionario, con sólo la parte P, no asegura que sea cero. Con la parte I el
error es cero. Por último con la parte D, corrige anticipadamente el error, dado que la derivada da la tendencia
del error.
La inversa de Laplace es
K t de(t )
u (t ) = K e(t ) +
TI ∫ 0
e(τ ) dτ + KTD
dt
(2.16)
KT0 kT0
(e(kT0 ) − e((k − 1)T0 )
u (kT0 ) = K e(kT0 ) +
TI
∑ e(i − 1) + KT
i =1
D
T0
(2.17)
( k −1)T0
KT0 (e((k − 1)T0 ) − e((k − 2)T0 )
u ((k − 1)T0 ) = K e((k − 1)T0 ) +
TI
∑ e(i − 1) + KT
i =1
D
T0
(2.18)
KT0 KTD
u (kT0 ) − u ((k − 1)T0 ) = K (e( kT0 ) − e((k − 1)T0 )) + e((k − 1) T0 ) + (e( kT0 ) − 2 e((k − 1)T0 ) + e(( K − 2 (2.19)
TI T0
KT0 −1 KTD
u ( z ) (1 − z −1 ) = K e( z ) (1 − z −1 ) + z e( z ) + (e( z ) − 2 z −1 e( z ) + z − 2 e( z )) (2.20)
TI T0
T 2 TD T0 −1 TD −2 (2.21)
K 1 + D − 1 + − z + z
Q( z ) u ( z ) T0 T0 Ti T0
Gc ( z ) = = =
P ( z ) e( z ) 1 − z −1
33
−1
aparece el factor (1 − z ) en el denominador como en la ecuación (2.13b) con P ' ( z ) = 1 , por lo tanto
asegura el error en estado estacionario cero. Ahora de ecuación (2.20) despejando u (z ) , tenemos
KT0 KTD
u ( z ) (1 − z −1 ) = K e( z ) (1 − z −1 ) + e( z ) + (1 − z −1 ) (1 − z −1 ) e( z ) (2.22)
TI T0
KT0 e( z ) KTD
u ( z ) = K e( z ) + −1
+ (1 − z −1 ) e( z ) (2.23)
TI (1 − z ) T0
El controlador discreto del PID permite otras variantes propuestas por diferentes autores. Por
ejemplo Takahashi propuso la siguiente modificación para evitar grandes valores en la variable manipulada
frente a cambios en la referencia. Para ello en la parte derivativa de la ecuación 2.20 se sustituye e(z) por y(z).
En el resto de la fórmula se sustituye e(z) por Ref(z)-y(z), quedando
T T
u ( z ) (1 − z −1 ) = K y ( z ) ( z −1 − 1) + 0 (Re f ( z ) − y ( z )) + D (2 z −1 y ( z ) − z −2 y ( z ) − y ( z )) (2.24)
TI T0
Para sintonizar los parámetros del controlador discreto PID y de Takahashi se usan las conocidas técnicas
empíricas de Ziegler y Nichols que aparecen en la referencia [3]. Estas técnicas son iguales a las aplicadas al
PID continuo. La regla empírica para seleccionar el tiempo de muestreo es que
Tr (2.25)
=1
→ 4
T0
Donde Tr es el tiempo de subida de la respuesta a escalón del proceso continuo en lazo abierto. Gráficamente
se obtiene sacando la máxima pendiente de la curva, haciéndola proyectar a las coordenadas del valor final y
cero. La diferencia en el tiempo de estas dos intersecciones arroja el valor de Tr
Efecto del retardo de la planta bajo control realimentado Por lo general el retardo en los
procesos produce efectos nefastos en los sistemas realimentados. Por ejemplo si a un sistema realimentado
debidamente sintonizado aparece en forma repentina un retardo en el proceso (que es común en la industria)
puede llegar a ser inestable el sistema. Otro efecto negativo es que el sistema completo se hace más lento
frente a cambios en la referencia.
34
Ejemplo 2.1
1
u y
s +1
1 2 3 4 t
T0 = Tr = 1
CO NT RO L A DO R P I
S co p e 1
1 1
0 .1
Re fe re n ci a s+ 1
Sum K Sum1 S co p e
P RO CE S O
1
Mux u (1 )/u (2 )
0 .5 1 -z -1 Ze ro -O rd e r
. Ho l d
Ti ..
Luego de probar distintos valores de K y TI se encontró que los valores que dan buena regulación son
K = 0.4 y TI = 0.4. La salida y entrada al proceso se muestra en la figura 2.6b
35
1.5
1
u(t)
0.5
0
0 5 10 15 20 25 30 35 40
t
1.5
1
y(t)
0.5
0
0 5 10 15 20 25 30 35 40
t
b) Suponga ahora que aparece retardo en el proceso. O sea, ahora el proceso es como se muestra en
la figura 2.7
y(t)
1
u e −2 s
s +1
y
0 1 2 3 4 5
t
Para representar esta situación en SIMULINK se puede agregar al proceso de la figura 2.6a el
bloque “transport Delay”. El nuevo proceso se muestra en la figura 2.8
1
u y
s+1
P RO CE S O T ra n sp o rt
De l a y
Si se mantienen los mismos parámetros del controlador, el sistema realimentado se vuelve inestable
con retardo igual a 2 instantes de muestreo, tal como se muestra en la figura 2.9
400
200
u(t)
-200
0 5 10 15 20 25 30 35 40
t
100
50
y(t) 0
-50
-100
-150
0 5 10 15 20 25 30 35 40
t
c) Para evitar la inestabilidad y volver a regular bien, se debe resintonizar el PI. Los nuevos
parámetros encontrados fueron K = 0.1 y TI = 0.5. En figura 2.10 se muestra la entrada y salida para
esta nueva situación.
1.5
u(t) 1
0.5
0
0 5 10 15 20 25 30 35 40
t
1.5
1
y(t)
0.5
0
0 5 10 15 20 25 30 35 40
t
De las gráficas de las figuras 2.6 y 2.10 se observa que el retardo hace más lenta la regulación
37
Este autor propuso un controlador discreto con el objeto de evitar la lentitud de reacción de los
controladores PID en presencia de retardo en la planta. Para su deducción, sean dos sistemas realimentados
para una misma planta, una sin retardo y la otra con retardo, tal como se muestra en la figura 2.11 con sus
respectivos controles PI sintonizados
a) b)
Figura 2.11 Control PI para a) proceso sin retardo y b) proceso con retardo
Ahora, supongamos que idealmente, aunque realmente no se pueda, podamos separar el proceso b)
en dos bloques y cambiamos el controlador por el de a) tal como se muestra en la figura 2.12
Ref(z) + u(z)
Gc (z ) G p (z ) z −d y(z)
-
La respuesta de esta configuración con retardo igual a d = 2 corresponde a la gráfica de la figura 2.6 pero
desplazada 2 instantes de muestreo, tal como se muestra en la figura 2.13
1.5
1
y(t)
0.5
0
0 5 10 15 20 25 30 35 40
t
Igualando las funciones de transferencia de b) de figura 2.11 y figura 2.12 obtenemos el controlador
de Smith , Gc1 ( z ) . Evaluando tenemos
Gc ( z ) G p ( z ) z − d Gc1 ( z ) z − d G p ( z )
= (2.26)
1 + Gc ( z ) G p ( z ) 1 + Gc1 ( z ) z −d G p ( z )
38
Gc ( z ) (2.27)
Gc1 ( z ) =
1 + Gc ( z ) G p ( z ) (1 − z −d )
u(z)
+ +
Ref(z) Gc (z ) G p ( z) z −d y(z)
- -
G p (z ) 1 − z −d
Por lo tanto el controlador de Smith da la misma respuesta que el sistema de la figura 2.12, o sea
figura 2.13 a diferencia que aquí no necesitamos separar el retardo de la planta. Ahora comparando la
respuesta del control PI (figura 2.13 ) y control Smith (figura 2.10 ) podemos concluir que el predictor de
Smith es más rápido en reaccionar en presencia de retardo. No es común encontrar el equivalente continuo de
−sT
controlador de Smith porque agregar un retardo en la realimentación significa agregar un bloque e en el
controlador por lo tanto no sería lineal.
1 GT ( z )
Gc ( z ) = (2.28)
G p ( z ) 1 − GT ( z )
Por lo tanto los ordenes de los polinomios del numerador y denominador del controlador no son fijos y
dependen de las funciones de trasferencias deseada en lazo cerrado y de la planta. Se debe tener presente que
la elección de la función de transferencia GT (z ) debe cumplir que Gc (z ) sea realizable.
y( z)
GT ( z ) = = W ( z) (2.29)
Re f ( z )
39
Con
wn + z wn −1 + .... + z n −2 w2 + z n −1
W ( z ) = w1 z −1 + .... + wn z − n = (2.30)
zn
es decir, GT (z ) posee n polos en el origen. Un ejemplo de función de transferencia en lazo cerrado con
control Deadbeat es el siguiente
Ejemplo 2.2
Sea una función de transferencia en lazo cerrado dada por
y (0) = 0
y (1) = 0.2
y (2) = −0.3
y (3) = 1
y ( 4) = 1
.
.
El gráfico se muestra en la figura 2.15
1.5
1
y(k)
0.5
-0.5
-1
-1.5
-2
0 1 2 3 4 5 6 7 8 9 10
k
Observando la figura 2.4 vemos que para que la salida tenga una forma como el de la figura 2.15 implica que
la variable de control también debe estabilizarse en el mismo numero finito de tiempos de muestreo ( en este
40
caso 3). Esto quiere decir que la función de transferencia entre u(z) y Ref(z) , Gu (z ) , también debe ser FIR,
o sea
u( z)
Gu ( z ) = = Q( z ) (2.31)
Re f ( z )
Q ( z ) = q 0 + q1 z −1 + .... + q n z − n (2.32)
Diseño del controlador Deadbeat Dividiendo las ecuaciones (2.29) y (2.31) obtenemos
y( z) W ( z )
G p (z) = = (2.33)
u ( z ) Q( z )
o sea
B( z ) W ( z )
G p (z) = = (2.34)
A( z ) Q ( z )
b1 z −1 + ... + b n z − n w1 z −1 + ... + wn z − n
G p ( z) = = (2.35)
1 + a1 z − 1 + ... + a n z − n q 0 + q1 z − 1 + ... + q n z − n
por lo tanto
Q ( z ) = q 0 A( z ) (2.36)
W ( z) = q0 B( z ) (2.37)
Q( z )
Gc ( z ) = (2.38)
1 − W (Z )
q 0 A( z )
Gc ( z ) = (2.39)
1 − q0 B( z )
o sea
lo que nos da
lo que da
1
q0 = (2.43)
b1 + ... + bn
Ejemplo 2.3
Diseñar un controlador Deadbeat para el siguiente proceso
0.3679 (1 + 0.7181 z −1 ) z −1
G p (z) =
(1 − z −1 ) (1 − 0.3679 z −1 )
1
q0 =
0.3679 (1 + 0.7181)
por lo tanto
42
1
0.3679 (1 + 0.7181)
( )(
1 − z −1 1 − 0.3679 z −1 )
Gc ( z ) =
1−
1
0.3679 (1 + 0.7181)
(
0.3679 1 + 0.7181 z −1 z −1 )
(1 − z −1 ) (1 − 0.3679 z −1 )
Gc ( z ) =
0.3679 (1 + 0.7181) − 0.3679 (1 + 0.7181 z −1 ) z −1
(1 − z −1 ) (1 − 0.3679 z −1 )
Gc ( z ) =
0.3679 + 0.3679 ⋅ 0.7181 − 0.3679 z −1 − 0.3679 ⋅ 0.7181 z − 2
(1 − z −1 ) (1 − 0.3679 z −1 )
Gc ( z ) =
0.3679 (1 − z −1 ) + 0.3679 ⋅ 0.7181 (1 − z − 2 )
1 − 0.3679 z −1
Gc ( z ) =
0.3679 + 0.3679 ⋅ 0.7181 (1 + z −1 )
finalmente tenemos
1.582 − 0.582 z −1
Gc ( z ) =
1 + 0.418 z −1
En figura 2.16 se muestra la gráfica de la salida y la entrada del proceso en lazo cerrado para el ejemplo 2.3
obtenida de las ecuaciones (2.37) y (2.36) respectivamente
43
y(k)
1 2 3 4 5 k
u(k)
2
1 3 4 5 k
-2
Ejemplo 2.4
Demuestre que u(0) es igual a q 0
q0 = u (0)
Una vez definido el tiempo de muestreo se procede a implementar el algoritmo de control en el computador.
Ejemplo 2.4
Programar el controlador del ejemplo 2.3 en un computador
Por lo general los software de programación usan variables sin argumentos. Una forma de reasignar las
variables argumentadas de la ecuación anterior es
44
uk = u (k )
uk _ 1 = u (k − 1)
ek = e(k )
ek _ 1 = e(k − 1)
dependiendo del tipo de programación el programa básico del controlador al interior del computador es
1) Ingresar Re ferencia : Re f
2) Capturar dato de salida del proceso : yk _ 1
3) Formar el error : ek = Re f − yk _ 1
4) Formar la salida del controlador :
uk = −0.418 * uk _ 1 + 1.582 * ek − 0.582 * ek _ 1
5) Actualizar var iables :
uk _ 1 = uk
ek _ 1 = ek
6) Mandar el valor uk a la salida del computador
7) Saltar a 2) y repetir ciclo
La presencia de perturbaciones es una de las principales razones para utilizar la teoría de control. Sin
perturbaciones no es necesaria la realimentación. Las perturbaciones se pueden reducir en el origen que las
produce. Los efectos de las perturbaciones también se puede reducir mediante realimentación local, como
muestra la figura 2.17 ó por prealimentación desde el origen de la perturbación como muestra la figura 2.18.
Perturbación
+
+ +
u(z) y(z)
-
Realimentacion
local
Por lo general la realimentación local no es necesario, porque un controlador PI, para la entrada u basta. Sin
embargo se requiere un lazo extra de realimentación local, por ejemplo para
- Reducir las variaciones de corriente de un motor DC controlado por voltaje
- Reducir las variaciones en el control de temperatura estabilizando la fuente de alimentación de
tensión
45
Perturbación medida
Gv
Efecto de la
Compensador de -1
perturbacion
prealimentación Gp Gv en la salida
- +
+ u +
Gp y
Proceso
Para el caso de la prealimentación de la figura 2.18, y de acuerdo al esquema de la figura 2.3 el control de
prealimentación corresponde al compensador de realimentación ( S = 0 ), o sea
T ( z ) Gv ( z )
Gc ( z ) = = (2.44)
R( z ) G p ( z )
EJERCICIOS
2.1.- Determine la repuesta de un controlador Deadbeat si la referencia es una señal rampa Ref(k) = k
B( z ) − d
G p (z) = z
A( z )
2.3) Averigüe qué ocurre con u (0) cuando el tiempo de muestreo disminuye en los controladores Deadbeat
2,4) Averigüe para condición debe cumplir el proceso para que con control deadbeat en lazo cerrado se tenga
que u (0) > u (1)
2.5) Si se quiere controlar un proceso continuo con deadbeat
a) ¿Qué hacer?
b) Si se desea alterar el u(0) en lazo cerrado ¿Qué alternativa hay?
46
z −2 + 0.5 z −4
G p (z) =
1 − 1.5 z −1 + 0.5 z −2
e −6 s
G p (z) =
10 s + 1
a) Diseñe un controlador de latido muerto. El tiempo de muestreo debe ser la quinta parte de la
constante de tiempo del proceso continuo.
b) B) Grafique la salida, y(k) y la entrada u(k) del proceso realimentado con un escalón unitario en la
referencia para k = 0,1,2,3,4 y 5.
2.8) Implementar un programa básico para calcular el siguiente controlador en tiempo real
2.9) Indique y grafique dos señales senoidales tal que al muestrearlas resulten en una señal periódica y la otra
no periódica.
47
CONTROLADORES ESTOCASTICOS
3.1 INTRODUCCIÓN
Hasta ahora se supuso perturbaciones determinísticas, o sea conocidas analíticamente. Cuando no es posible
describirla analíticamente, una aproximación gruesa (impulso, sinuosidal , etc, ) es suficiente a veces para
representarlas, por lo tanto en general las perturbaciones determinísticas son intentos de aproximación de
señales de perturbaciones reales.
Sin embargo en la práctica, las perturbaciones son desconocidas e imposibles tratarlas analíticamente. El
interés por conocer las perturbaciones con más detalle es debido a que influyen notoriamente en la calidad
final de ciertos productos industriales. (industria del papel, Industrial del acero, etc.)
De los hechos cotidianos, es común asociar las perturbaciones a señales aleatorias, como las
que se observan en el osciloscopio cuando se aumenta la sensibilidad de la magnitud. En la figura 3.1 se
muestra una señal típica de perturbación ó ruido.
-1
-2
-3
-4
-5
0 100 200 300 400 500 600 700 800 900 1000
Se observa que es imposible describir la señal matemáticamente. Sin embargo si dispusiéramos algún tipo de
información alternativa sobre ella, es natural pensar que se pueda manejar con mayor dominio y conocimiento
de causa su influencia sobre los procesos industriales. Uno de estas herramientas son las técnicas de las
probabilidades y variables estadísticas ó aleatorias. Los controladores digitales que se diseñan tomando en
consideración las técnicas de variables aleatorias, se denominan controladores estocásticos.
Existen variadas señales aleatorias presente en la naturaleza. De allí surgió la necesidad de caracterizarlas en
distintas distribuciones de probabilidades. Los tipos de señales aleatorias comúnmente encontrados en
procesos industriales tienen distribución gaussiana, como se verá más adelante. A continuación se describen
algunos ejemplos de situaciones aleatorias discretas.
Ejemplo 3.1
Describa la distribución de la variable aleatoria x en el tiempo del siguiente experimento. Sea x el
valor que resulta un dado una vez lanzado.
48
Solución Recurriendo a variables estadísticas, sea P la probabilidad que ocurra un evento, entonces
la probabilidad que el dado resulte 1 ó 2, .. ó 6, es decir
1
P(1) = P (2) = P (3) = P(4) = P(5) = P (6) =
6
La función de distribución de probabilidad es
F ( x ) = P(resultado ≤ x)
6
1
F ( x) = ∑ u( x − i)
i =1 6
6
1
f ( x) = ∑ δ K ( x − i )
i =1 6
1.5
F (x ) 1
0.5
0
0 1 2 3 4 5 6 7 8 9 10
x
0.5
0.4
f(x )
0.3
0.2
0.1
0
0 1 2 3 4 5 6 7 8 9 10
f(x) es constante para todas las posibilidades de ocurrencia, lo que significa que no existe preferencia
por un valor determinado. En Figura 3.3 se muestran el resultado para 11 instantes seguidos de
lanzamientos del dado, en que cada resultado ocurre dos veces
49
1 0
7
x (k )
6
0
0 1 2 3 4 5 6 7 8 9 1 0 1 1
k
Ejemplo 3.2
Describa la distribución de la variable aleatoria x en el tiempo del siguiente experimento. Sea x la
suma de las caras superiores que resultan del lanzamiento de son dados.
Solución La suma de dos dados va desde 2 hasta 12. El total de ocurrencias distintas son 36
(6x6), por lo tanto las probabilidades de los resultados son
1 5
P ( 2) = P(8) =
36 36
2 4
P(3) = P(9) =
36 36
3 3
P ( 4) = P(10) =
36 36
4 2
P(5) = P(11) =
36 36
5 1
P(6) = P(12) =
36 36
6
P ( 7) =
36
1
F (x )
0.5
0
0 5 10 15
x
0.2
0 .15
f( x )
0.1
0 .05
0
0 5 10 15
x
A diferencia del ejemplo 3.1, la probabilidad de ocurrencia esta sesgada, o sea hay mayor
probabilidad de ocurrencia de la suma que resulta 7 y disminuyendo a ambos lados de este valor en la
medida que se aleja. De acuerdo a este análisis un posible variación de x en el tiempo se muestra en
la figura 3.5 .Note que en x = 7 ocurre mayor repitencia de resultados
1 5
x (k )
1 0
0
0 1 0 2 0 3 0 4 0 5 0 6 0 7 0 80 90 1 00
k
Figura 3.5 Resultado de dos dados para instantes consecutivos que se realiza
Si se repite el ejemplo 3.2 pero con tres dados , en figura 3.6 se muestra la distribución de densidad de
probabilidad f(x) que resulta
0 .1 4
0 .1 2
f( x )
0 .1
0 .0 8
0 .0 6
0 .0 4
0 .0 2
0
0 2 4 6 8 10 12 14 16 18 20
x
Figura 3.6 Distribución de densidad de probabilidades, f(x), del experimento de tres dados
Del ejemplo 3.2 se observa que si aumenta el numero de dados, la figura 3.6 se va transformándose en una
campana de Gauss y la variable aleatoria en el tiempo de la figura 3.5 se asemeja a la figura 3.1 . Por esta
razón decimos que las perturbaciones ó ruidos tiene distribución gaussiana. La distribución gaussiana se
caracteriza por dos variables estadísticas: desviación standard ( σ ) ó varianza ( σ ) y valor promedio ó
2
−
esperanza ( x ). Recordemos algunas propiedades estadísticas
51
_ N
E{x(k )} = x = m x (k ) = lim
1
N →∞ N
∑ x( k )
k =1
(3.1)
La función de autocorrelación es
N
autocorr (τ ) = E{x(k ) x (k + τ )} = rx (τ ) = lim ∑ x(k ) x (k + τ ) (3.2)
N →∞
k =1
Una variable aleatoria se caracteriza porque su valor no depende de valores pasados o futuros de la misma
{ }
señal (señal independiente), o sea si E x (k ) = 0 , entonces rx (τ ) = 0 para todo τ ≠ 0
La función de autocovarianza es
_ _
cov[ x, τ ] = E [ x(k ) − x ][ x(k + τ ) − x ] (3.3)
Ejemplo 3.3
Determinar la varianza y esperanza de las distribuciones gaussianas mostradas en la figura 3.7
0.05 0.05
0.02 0.02
0.01 0.01
0 0
0 50 100 0 50 100
(a) (b)
0.1 0.1
0.04 0.04
0.02 0.02
0 0
0 50 100 0 50 100
(c) (d)
En figura 3.8 se muestras las realizaciones de las variables aleatorias para cada representación gaussiana
100 100
80 80
X1(k) x2(k)
60 60
40 40
20 20
0 0
0 50 100 0 50 100
(a) (b)
100 100
80 80
x3(k) x4(k)
60 60
40 40
20 20
0 0
0 50 100 0 50 100
(c) (d)
Figura 3.8 variaciones de las variables aleatorias para distintas distribuciones gaussiana
Al igual que en sistemas continuos, la trasformada de Fourier discreta es una herramienta útil para llevar una
señal en el tiempo discreto al dominio de la frecuencia discreta y viceversa, de tal manera que el análisis que
se haga en uno u otro dominio es equivalente, facilitando los conceptos durante el análisis de sistemas
discretos [4].
Señales periódicas Para el presente análisis, una señal periódicas discreta será aquella que se
repite cada N instantes de muestreo, es decir
Ejemplo 3.4
¿Cuántas oscilaciones cosenoidales distintas caen en N instantes de muestreo?
2 2
1 1
x 1(k) x2(k )
0 0
-1 -1
-2 -2
0 5 10 15 0 5 10 15
(a) (b)
2 2
x 4(k)
1 1
x 3(k)
0 0
-1 -1
-2 -2
0 5 10 15 0 5 10 15
(d)
(c )
Las formas de onda de la figura 3.9 se pueden expresar matemáticamente como la parte real de
2π
jn k
Φ n (k ) = e N (3.7)
(a) n=1
(b) n=2
(c) n=3
(d) n=6
Φ n+ rN (k ) = Φ n (k ) (3.8)
Señal periódica como combinación lineal de Φ n (k ) Sea x(k) señal periódica de largo N.
Probaremos entonces que
54
N −1 N −1 2π
j n k
x(k ) = ∑ a n Φ n (k ) = ∑ a n e N (3.9)
n =0 n=0
ó si la señal periódica se considera a partir de n = .. –3, -2, -1 , 2, 3, etc. Por ejemplo a partir de n = 3
N +2
x(k ) = ∑a Φ
n =3
n n (k ) (3.10)
N −1
2
x(k ) = ∑a Φ n n (k ) (3.11)
n=− N
2
N −1
x ( 0) = ∑ a n
n=0
2π
N −1 j n
x (1) = ∑ a n e
N
n =0
(3.12)
.
.
2π
N −1 j n ( N −1)
x ( N − 1) = ∑ a n e N
n =0
Vemos que hay N ecuaciones con N incognitas por lo tanto existe solución para los a n
2π
−jr k
N
Ahora multipliquemos ambos miembros de la igualdad de la ecuación (3.12) por e , r entero
cuaquiera
2π 2π 2π 2π
− jr 0 N −1 j n 0 − jr 0 N −1 j (n − r ) 0
x ( 0) e N
= ∑ an e N
e N
= ∑ an e N
n=0 n=0
2π 2π 2π 2π
−jr 1 N −1 j n 1 − jr 1 N −1 j (n − r ) 1
x (1) e N
= ∑ an e N
e N
= ∑ an e N
n =0 n =0
(3.13)
.
.
2π 2π 2π 2π
−jr ( N −1) N −1 j n ( N −1) − jr ( N −1) N −1 j (n − r ) ( N −1)
x ( N − 1) e N
= ∑ an e N
e N
= ∑ an e N
n=0 n =0
55
2π 2π
N −1 −jr k N −1 N −1 j (n −r ) k
∑ x( k ) e
k =0
N
=∑ ∑a e
k =0 n =0
n
N (3.14)
2π 2π
N −1 −jr k N −1 N −1 j (n −r ) k
∑ x( k ) e
k =0
N
= ∑ an
n=0
∑e
k =0
N (3.15)
N −1 N α =1
∑ α = 1 − α N
k
α ≠1 (3.16)
k =0 1 − α
2π (3.17)
j (n − r )
α =e N
2π
j (n −r )
N −1 N −1 2π
j (n − r )
a r N para (n − r ) = 0 ( porque e N
=1)
k
∑a ∑e n
N
=
n=0 k =0 j (n −r )
2π
N 2π
N −1
1− e N j (n − r ) N
∑ n = = e j (n − r ) 2 π = 1)
N
a 2π
0 ( porque e
( − )
n =0 1− e
j n r
N
N −1 2π
jr k
∑ x( k ) e
k =0
N
= ar N (3.18)
despejando a r
N −1 2π
1 jr k
ar =
N
∑ x( k ) e
k =0
N (3.19)
N −1 2π
1 j n k
an =
N
∑ x(k ) e
k =0
N (3.20)
por lo tanto x(k) se puede expresar a traves de la ecuación (3.9) con an dada por la ecuación (3.20)
N −1 2π
1 2 j n k
an =
N
∑ x( k ) e N (3.21)
k =− N
2
x (k )
-N 1 0 N 1
Si ahora formamos una señal periódica (de periódo N, con N par) con la señal de la figura 3.10, obtenemos la
figura 3.11
Vemos que las señales de las figuras 3.10 y 3.11 estan relacionadas por
57
x(k ) = ~
x (k ) k ≤ N1 (3.22)
N −1 2π N −1 2π ∞ 2π
1 2 j n k 1 2 j n k 1 j n k
an =
N
∑ ~x (k ) e N
=
N
∑ x(k ) e N
=
N
∑ x(k ) e
k = −∞
N (3.23)
k =− N k =− N
2 2
1
an = X (n ω 0 ) (3.24)
N
donde
∞
X (n ω 0 ) = ∑ x( k ) e
k = −∞
− j n ω0k
(3.25)
2π
con ω0 =
N
de ecuación (3.11) y usando (3.24)
N −1 2π N −1 2π
2 j n k 2
1 j n k
x (k ) =
~ ∑ an e N
= ∑ N
X (n ω 0 ) e N
n=− N n=− N
2 2 (3.26)
N −1 2π N −1 2π
ω0 2 j n k 1 2 j n k
=
2π
∑ X (n ω 0 )e N
=
2π
∑ X (n ω 0 )e N
ω0
n=− N n=− N
2 2
La sumatoria se puede expresar como una suma de N áreas. Cada área tiene una altura de X ( n ω 0 ) y una
2π 2π
anchura de ω 0 = . El rango completo del eje x, o sea la anchura total, es N ω 0 = N = 2 π , es
N N
decir fija y de valor 2 π para cualquier N.
De modo que cuando N → ∞ , ~ x (k ) = x(k ) , ω 0 → dω y n ω 0 → ω y la sumatoria se
transforma en una integral
1 π
x(k ) =
2π ∫ −π
X (ω ) e j ω k dω (3.27)
Con
∞
X (ω ) = ∑ x( k ) e
k = −∞
− jkω
(3.28)
58
La ecuación (3.28) se conoce como la transformada de Fourier Discreta (DFT) de x(k) y la ecuación (3.27) su
inversa
u Gp(z) y
Relación de esperanzas Usando ecuación (1.72) tenemos que la esperanza a la salida del proceso
es
∞ ∞
E {y (k )} = ∑ g (n) E {u (k − n)} = m y (k ) = ∑ g (n) mu (k − n) (3.29)
n =1 n =1
ry (τ ) = E {y (k + τ ) y (k )} (3.30)
∞ ∞
ry (τ ) = E ∑ g (n) u (k + τ − n) ∑ g (l ) u (k − l ) (3.31)
n =1 l =1
∞ ∞
ry (τ ) = E
∑∑
n =1 l =1
g (n) u (k + τ − n) g (l ) u (k − l )
∞ ∞
= ∑∑ g (n) E {u (k + τ − n) u (k − l )} g (l ) (3.32)
n =1 l =1
∞ ∞
= ∑∑ g (n) ru (τ − n + l ) g (l )
n =1 l =1
∞
Φ x (ω ) = ∑ r (k ) e
k = −∞
x
− j kω
(3.33)
y su inversa
1 π
rx (k ) =
2π ∫ −π
Φ x (ω ) e j ω k dω (3.34)
∞
Φ y (ω ) = ∑ r (k ) e
k = −∞
y
− j kω
(3.35)
∞ ∞ ∞
Φ y (ω ) = ∑ ∑∑
k = −∞ n =1 l =1
g ( n ) ru ( k − n + l ) g (l ) e − j k ω (3.36)
∞ ∞ ∞
= ∑ ∑∑
k = −∞ n =1 l =1
g ( n) ru ( k − n + l ) g (l ) e − j n ω e j l ω e − j ( k + l − n ) ω
haciendo α = k + l − n tenemos
∞ ∞ ∞
Φ y (ω ) = ∑ e − j n ω g (n) ∑ e j l ω g (l ) ∑e − jα ω
ru (α ) (3.37)
n =1 l =1 α = −∞
∞ ∞
= ∑ e − j n ω g (n) ∑ e j l ω g (l ) Φ u (ω )
n =1 l =1
Ahora evaluando ecuación (1.21) para s = jω y T0 = 1, tenemos que la función de transferencia del
proceso es (ver ejemplo 1.13)
−n
( )
∞
G p ( z) = G p ( j ω ) = ∑ e jω
g ( n) (3.38)
n =1
por lo tanto
Φ y (ω ) = G p (e j ω ) G p (e − j ω ) Φ u (ω )
(3.39)
Ruido blanco corresponde a una señal que posee todas las componentes del espectro de
frecuencia y además poseen la misma magnitud, o sea, espectro constante.
60
Ejemplo 3.5
Determine la potencia que consume una señal en la banda ∆ω = ω 2 − ω1 al pasar por una
resistencia de 1 Ω ,
ω2
P = 2∫ Φ (ω ) dω
ω1
Ejemplo 3.6
Determine la densidad espectral de potencia del ruido blanco con esperanza del ruido igual a cero y
varianza σ
2
Solución Sea x la señal de ruido blanco. Como es una variable aleatoria entonces se
cumple rx (τ ) = 0 para todo τ ≠ 0 , por lo tanto de ecuaciónes (3.33) y (3.5) se tiene
{ }
Φ x (ω ) = rx (0) = E ( x(k )) 2 = Var ( x ) = σ 2
o sea, es constante y corresponde a la varianza del ruido blanco
Ejemplo 3.7
Sea el proceso de la figura 3.13 siguiente
1
G p (z) =
z−a
Φ u (ω ) = σ 2
y de ecuación (3.39)
σ2 σ2
Φ y (ω ) = G p (e j ω ) G p (e − j ω ) σ 2 = =
(e j ω − a ) (e − j ω − a) 1 + a 2 − 2 a cos ω
Se observa que cuando un ruido blanco se hace pasar a traves de una función de transferencia ó filtro,
a la salida se obtiene ruido que depende de la frecuencia (ruido coloreado)
61
B( z )
G( z) = (3.41)
A( z )
B( z ) B( z −1 )
Φ y (ω ) = (3.42)
A( z ) A( z −1 )
Var ( y ) = ry (0)
(3.43)
y de ecuación (3.34)
1 π
ry ( 0 ) =
2π ∫ −π
Φ y (ω ) dω (3.44)
jω
dado que z = e , entonces
dz 1 dz 1 dz
= j e jω → dω = jω
= (3.45)
dω j e j z
por lo tanto la ecuación (3.44) se convierte en la siguiente integral cerrada, usando también la ecuación (3.42)
1 B ( z ) B( z −1 ) dz
j ∫ A( z ) A( z −1 ) z
ry ( 0 ) = (3.46)
Se puede comprobar que la solución de esta integral, para proceso de primer orden es
b02 + b12 − 2 b0 b1 a1
var( y ) = ry (0) = (3.47)
1 − a12
B0 e1 − B1 a1 + B2 (a12 − a 2 e1 )
var( y ) = ry (0) = (3.48)
(1 − a 22 ) e1 − (1 − a 2 )a12
donde
62
ahora si la varianza del ruido blanco a la entrad es σ , entonces del ejemplo 3.7 y ecuación (3.44), las
2
b02 + b12 − 2 b0 b1 a1 2
var( y ) = ry (0) = σ (3.50)
1 − a12
B0 e1 − B1 a1 + B2 (a12 − a 2 e1 ) 2
var( y ) = ry (0) = σ (3.51)
(1 − a 22 ) e1 − (1 − a 2 )a12
Ejemplo 3.8
Sea la siguiente función de transferencia de la influencia de un ruido (no puede representar un
proceso porque b0 ≠ 0 )
y( z ) 1 − 0.9 z −1
G( z) = =
u ( z ) 1 − 1.7 z −1 + 0.7 z − 2
si la entrada, u (z ) , es ruido blanco con media cero y esperannza σ . Determine la varianza en la salida,
2
y (z )
b0 = 1
b1 = −0.9
a1 = −1.7
a 2 = 0.7
es un proceso de segundo orden por lo tanto usando ecuaciones (3.49) y (3.51) tenemos que
B0 = 1.81
B1 = −1.8
B2 = 0
e1 = 1.7
0.017 2
var( y ) = ry (0) = σ =∞
0
63
Este controlador es del tipo regulador, vale decir, en presencia de ruidos y/o perturbaciones mantiene el valor
medio de la salida constante y las desviaciones, o dispersión, con respecto a la media, mínimas, o sea, de
varianza mínima. Mantener las desviaciones mínimas en un proceso otorgan grandes ventajas, por ejemplo,
reduce consumo de energia, de materias primas, aumenta la producción, aumento de la calidad, etc. En un
proceso sin control de varianza mínima, la salida puede comportarse como el gráfico (a) dela figura 3.7 ó
señal (a) de la figura 3.8. En cambio con controlador de varianza mínima , la salida cambia al gráfico (c) de la
figura 3.7 ó señal (c) de la ficura 3.8. En lo que sigue se supondrá esperanza de ruido blanco igual a cero; en
caso contrario se especificará claramente.
PROCESO
B( z ) − d
G p (z) = z (3.52)
A( z )
los polinomios B (z ) y A(z ) estan dados por la ecuación (1.52) y d representa el retardo del proceso
Gv (z ) esta dado por
D( z )
Gv ( z ) = (3.53)
C (z)
donde
D ( z ) = 1 + d 1 z −1 + d 2 z −2 + L + d n z − n
(3.54)
C ( z ) = 1 + c1 z −1 + c 2 z −2 + L + c n z − n
(3.55)
Para entender el concepto del controlador de varianza mínima , veamos un ejemplo sencillo
Ejemplo 3.9
Mediante un sistema realimentado, determine una secuencia de u(k) para reducir el ruido ó
varianza a la salida del proceso de la figura 3.14 para los siguientes casos
64
b1 z −1
a) G p ( z ) = y Gv ( z ) = 1
1 + a1 z −1
b1 z −1 1 + d1 z −1
b) G p ( z ) = y Gv ( z ) =
1 + a1 z −1 1 + a1 z −1
b1 z −1 1 + d1 z −1
y( z) = u( z) + v( z ) (3.56)
1 + a1 z −1 1 + a1 z −1
{
J = E y 2 (k ) } (3.58)
más exactamente
{
J = E y 2 (k + 1) } (3.59)
aplicando la esperanza
{ } {
E y 2 (k + 1) = E (− a1 y (k ) + b1u (k ) + v(k + 1) + d 1v (k ) )
2
}
{
= E (− a1 y (k ) + b1u (k ) + d 1v (k ) ) +
2
} (3.61)
E{2 (− a1 y (k ) + b1u (k ) + d1v (k ) ) v (k + 1)} +
{
E v 2 (k + 1) }
El segundo término del lado derecho de la igualdad es cero porque v(k+1) es independiente de
las otras variables, por lo tanto de acuerdo a ecuación (3.40) y dado que E{v( k + 1} = 0 , entonces
65
{ } {
E y 2 (k + 1) ≥ E v 2 (k + 1) } (3.62)
dado que el primer término del lado derecho de la ecuación (3.61) es siempre positivo. La mínima
varianza se logra para
{ } {
E y 2 (k + 1) = E v 2 (k + 1) } (3.63)
y ello se logra haciendo el primer término del lado derecho de la ecuación (3.61) igual a cero , es
decir
− a1 y (k ) + b1u (k ) + d 1v(k ) = 0
a1 y (k ) − d1v (k )
u (k ) = (3.64)
b1
{ } {
E y 2 (k ) = E v 2 (k ) } (3.65)
y ( k ) = v( k ) (3.66)
a1 − d1
u (k ) = y (k ) (3.67)
b1
d1 − a1
GCVM ( z ) = (3.68)
b1
cuando Re f ( z ) = 0
PROCESO
1+d1z-1
v(z)
CONTROLADOR 1+ a1z-1 n(z)
ruido
GCVM(z) blanco +
+ d1-a1 u(z) b1z-1 +
Ref(z)=0 y(z)
b1 1+ a1z-1
-
Para ver la salida controlada, reemplazamos el u(k) de la ecuación (3.60) por el u(k) de la ecuación
(3.67) y nos da
y (k + 1) + d1 y (k ) = v (k + 1) + d1v(k ) (3.69)
aplicando transformada z
y ( z ) z + d1
= =1 (3.70)
v( z ) z + d1
B( z ) − d D( z )
y( z) = z u( z) + v( z ) (3.71)
A( z ) C (z)
A* ( z ) y ( z ) = B * ( z ) z − d u ( z ) + D * ( z )v ( z )
(3.72)
donde
A* ( z ) = A( z ) C ( z ) = 1 + a1* z −1 + a 2* z −2 + L + a m* z − m
B * ( z) = B( z ) C ( z) = b1* z −1 + b2* z −2 + L + bm* z − m (3.73)
−1 −2 −m
D ( z ) = D ( z ) A( z ) = 1 + d z + d z
* *
1
*
2 +L+ d z *
m
con m = 2n
67
A* ( z ) = A( z )
B * ( z ) = B( z ) (3.74)
D * ( z ) = D( z )
{
J = E y 2 (k + d + 1) } (3.75)
B * ( z) D * ( z ) d +1
z d +1 y ( z ) = z u ( z ) + z v( z ) (3.76)
A* ( z ) A* ( z )
Al igual que la parte (b) del ejemplo3.9, la varianza de la ecuación (3.75) se puede descomponer en ternimos
B * ( z)
conocidos y desconocidos. El término * z u ( z ) contiene términos presente y pasados, por lo tanto son
A ( z)
D * ( z ) d +1
todos conocidos. Nos queda por analizar el término z v ( z ) . Del ejemplo 1.13 vimos que la
A* ( z )
división de polinomios puede expresarse como
D * ( z) resto
*
= cuociente + * (3.77)
A (z) A (z)
y existen infinitas formas de representar el resultado dependiendo de numero de terminos que se desea para el
D * ( z ) d +1
cuociente. Sin embargo nos sinteresa aquel cuociente y resto tal que en z v ( z ) se puedan
A* ( z )
distinguir y separar los términos futuros (desconocidos) de los no futuros (presente y pasados conocidos). El
siguiente ejemplo nos ayudará a encontrar estos términos
Ejemplo 3.10
D* (z)
Efectuar la división para que resulten dos térmicos en el cuociente
A* ( z )
(1 + d 1* z −1 + d 2* z −2 + L + d m* z − m ) : (1 + a1* z −1 + a 2* z −2 + L + a m* z − m ) = 1 + (d 1* − a1* ) z −1
− 1 − a1* z −1 − a 2* z − 2 + L − a m* z − m
0 + (d 1* − a1* ) z −1 + (d 2* − a 2* ) z − 2 + L + (d m* − a m* ) z − m
− (d 1* − a1* ) z −1 − a1* (d 1* − a1* ) z − 2 − L − a m* −1 (d 1* − a1* ) z − m − a m* (d 1* − a1* ) z −( m+1)
(d 2* − a 2* − a1* (d 1* − a1* )) z − 2 + L − a m* (d 1* − a1* ) z −( m +1)
donde
El resultado del ejemplo 3.10 lo podemos generalizar para p términos en el cuociente, a saber
por lo tanto
D * ( z ) d +1
z v ( z ) = z d +1 v ( z ) + f 1 z d v ( z ) + L + f p z d − p + 2 v ( z ) +
*
A (z) 14444444244444443
*
(3.81)
d − p +1
l0 z v( z ) + L + l m −1 z d − m− p + 2 v ( z )
1 + a * z −1 + a 2* z −2 + L + a m* z −m
14414444 24444443
**
D * ( z ) d +1 L( z )
*
z v ( z ) = F ( z ) z d +1 v ( z ) + * v( z ) (3.82)
A (z) A (z)
con
F ( z ) = 1 + f 1 z −1 + L + f d z − d (3.83)
dividiendo por v (z ) la ecuación (3.82) y acomodando los terminos se obtiene la siguiente identidad
69
D * ( z ) = F ( z ) A* ( z ) + z − ( d +1) L( z )
(3.85)
B * ( z) L( z )
z d +1 y ( z ) = *
z u ( z ) + F ( z ) z d +1 v ( z ) + * v( z ) (3.86)
A ( z) A (z)
z d +1 y ( z ) = H ( z ) + R( z )
(3.87)
donde
H ( z ) = F ( z ) z d +1 v ( z ) (3.88)
B* (z) L( z ) (3.89)
R( z ) = * z u( z) + * v( z )
A (z) A ( z)
{ } {
E y 2 (k + d + 1) = E (H (k ) + R(k ) )
2
} (3.90)
{ } { }
E y 2 (k + d + 1) = E ( H (k )) 2 + E{2 H (k ) R(k )} + E ( R(k )) 2 { } (3.91)
El segundo termino del lado derecho es igual a cero es E{H (k )} = 0 (ver ejemplo 3.9), por lo tanto
{ } { } {
E y 2 (k + d + 1) = E ( H (k )) 2 + E ( R(k )) 2 } (3.92)
{ }
E ( R(k )) 2 = 0
(3.93)
B* ( z) L( z ) (3.94)
*
z u( z) + * v( z ) = 0
A ( z) A ( z)
B * ( z) L( z ) L( z ) B * ( z ) (3.95)
z u ( z ) + y ( z ) − u( z) = 0
A* ( z ) D * ( z) A* ( z ) D * ( z )
reagrupando términos
L( z ) B * ( z ) D * ( z ) z − L( z ) z − d (3.96)
y ( z ) + u ( z ) = 0
D * ( z) D * ( z ) A* ( z )
reemplazando el término entreparentesis por la identidad de la ecuación (3.85) se tiene
L( z ) B * ( z)
y ( z ) = − z F ( z) u( z) (3.97)
D* (z) D * ( z)
L( z )
u( z) = − *
y( z) (3.98)
z B ( z) F ( z)
L( z )
GCVM ( z ) = * (3.99)
z B ( z) F ( z)
* *
Limitaciones del controlador Para la estabilidad los ceros de B ( z ) y D ( z ) deben estar
dentro del circulo unitario
Obtención de la salida con controlador de varianza mínima De figura 3.15 tenemos que
D( z )
(3.100)
y( z) Gv ( z ) A( z )
= =
v ( z ) 1 + GCVM ( z ) G p ( z ) L( z ) B −d
1+ * z
zB ( z ) A
de ecuación (3.73)
D* (z)
(3.101)
y( z) A* ( z ) z D* (z) F (z)
= =
v( z ) L( z ) B * ( z ) − d z F ( z ) A* ( z ) + z − d L ( z )
1+ * z
zB ( z ) A* ( z )
*
reemplazando D ( z ) por la ecuación (3.85)
71
y ( z ) ( z F ( z ) A* ( z ) + z − d L ( z )) F ( z )
= = F (z) (3.102)
v( z ) z F ( z ) A* ( z ) + z − d L ( z )
Ejemplo 3.11
De acuerdo a figura 3.14, sea el siguiente proceso
z −1 + 0.5 z −2
G p (z) = −1 −2
z −1
1 − 1.7 z + 0.7 z
1 − 0.9 z −1
Gv ( z ) =
1 − 1.7 z −1 + 0.7 z − 2
Solución
a) al hacer u ( z ) = 0 , se debe analizar entonces la siguiente función de tranferencia
y( z) 1 − 0.9 z −1
Gv ( z ) = =
v( z ) 1 − 1.7 z −1 + 0.7 z −2
var( y ) = ry (0) = ∞
b) vemos que
A( z ) = C ( z ) = 1 − 1.7 z −1 + 0.7 z −2
B * ( z ) = B ( z ) = z −1 + 0.5 z − 2
D * ( z ) = D ( z ) = 1 − 0.9 z −1
d =1
F ( z ) = 1 + f 1 z −1
L( z ) = l 0 + l1 z −1
f1 = 0.8
l0 = 0.66
l1 = −0.56
0.66 − 0.56 z −1
GCVM ( z ) =
1 + 1.3 z −1 + 0.4 z −2
{ } { } { }
E y 2 (k ) = E ( F (k ) v (k )) 2 = (1 + f 12 ) E v 2 (k ) = 3.28
EJERCICIOS
1.- Sea u una señal de voltaje. Demuestre que Φ u (ω ) es una densida espectral de potencia de u y no
una densidad espectral de tensión.
1.25 + cos ω
Φ u (ω ) =
1.64 + 1.6 cos ω
e( z )
H ( z) = = 1 + c z −1
u( z)
Demuestre que
∞
u ( k ) = ∑ ( − c ) n e( k − n )
n =0
73
PROCESO
1+0.5 z-1
v(z)
ruido 1-0.25 z-1+0.5 z-2 n(z)
CONTROLADOR blanco +
+ u(z) z-1 +
Ref(z)=0 K y(z)
1-0.25 z-1+0.5 z-2
-
2 z+0.2
u(z) y(z)
2 z+1.8
a) Si u ( k ) = 10 ∀ k . Determine y (k )
b) Si se le superpone ruido en a) tal que Var{u ( k )} = 1 . Determine Var{y (k )}
c) Grafique u ( k ), y ( k ) de b)
g(z)
+
+ 1
u(z) z-1 y(z)
1-0.5 z-1
1
Se sabe que la densidad espectral de g (z ) esta dado por Φ g (ω ) =
1.25 + cos ω
Diseñe el controlador de varianza mínima
Diseñe
a) Control de varianza mínima para v ( k ) = e( k ) − 0.2 e( k − 1) con e(k ) ruido blanco
74
PLANTA y
u y
2
1.26
En el tiempo t = 0 se aplica un escalón unitario y la salida, en exponencial
ausencia de ruido, se muestra en la figura. Diseñar uin
controlador de varianza mínima. Considere la funcion de ruido
como el siguiente 1
Gv(z) =
A(z)
CONTROLADORES AVANZADOS
4.1 INTRODUCCION
En procesos complejos , se requiere de controladores más avanzados que los vistos hasta ahora para
cumplir las exigencias de producción y calidad de los productos. Entre estos controladores destacaremos dos:
1) Control Adaptivo y 2) Control Fuzzy
El control adaptivo consiste en un controlador en lazo cerrado (como los vistos hasta ahora) que van
modificando sus parámetros en tiempo real según las variaciones y condiciones de la planta, es decir se va
adaptando a las circunstancias de la planta. Para captar las variaciones de la planta se recurre a la
identificación de sistemas, pues permite estimar los parámetros de la planta en forma recursiva. En figura 4.1
se muestra el esquema general del control adaptivo.
CALCULO ESTIMACION DE
PARAMETROS PARAMETROS
CONTROLADOR
+ CONTROLADOR
Ref(z) PROCESO y(z)
Aquí para obtener la identificación de parámetros no basta con medir las señales de entrada y salida
como en el capítulo anterior por la siguiente razón:
A( z ) y ( z ) = B ( z ) u ( z ) + D ( z ) v ( z ) (4.1)
Q( z )
Gc ( z ) = (4.2)
P( z )
Para facilitar el análisis sea la referencia Re f ( z ) = 0 . Insertando la ecuación (4.2) en (4.1) y omitiendo los
argumentos tenemos que
Q (4.3)
A y = B (− ) y+Dv
P
Q (4.4)
( A + S ) y = B (− ) y+S y+Dv
P
P Q (4.5)
( A + S ) y = (B − S ) (− y ) + D v
Q P
Q (4.6)
( A + S ) Q y = ( B Q − S P) (− y ) + D Q v
14243 14243 P 123
123
A* B* u D*
lo cual da
A* y = B * u + D * v (4.7)
Esto demuestra que que el proceso B y el ruido D pueden ser reemplazados por
A A
B* B Q − S P (4.8)
=
A* A Q + S Q
D* DQ (4.9)
=
A *
AQ+S Q
Ejemplo 4.1
Sea el proceso del control adaptivo de la figura 4.1 dado por el proceso de la figura 4.2
PROCESO
D(z)
v(z)
A(z) n(z)
ruido
blanco +
B(z) -d +
u(z) z y(z)
A(z)
Q( z )
y el controlador de la figura 4.1 de parámetros constantes y conocidos, Gc ( z ) = . Sean los ordenes
P( z )
de los polinomios de A( z ), B ( z ), D ( z ), Q ( z ) y P (z ) , m a , mb , m d , mν y m µ respectivamente.
a) ¿Basta conocer los ordenes del proceso y retardo para poder estimar correctamente los parámetros
ai y bi de la planta?
b) Sea el proceso dado por
y (k ) = −a y (k − 1) + b u (k − 1) + v (k ) (4.10)
−m
y( z) D( z ) P( z ) 1 + γ 1 z −1 + L + γ r z γ Γ( z )
= = = (4.11)
−d
v ( z ) A( z ) P( z ) + B( z ) z Q ( z ) 1 + ψ 1 z + L + ψ l z
−1 − mψ
Ψ( z)
[
mψ = max ma + mµ , mb + mν + d ] (4.12)
mγ = md + mµ
[
max m a + m µ , mb + mν + d ≥ ma + mb] (4.13)
78
mν ≥ ma − d (4.14)
m µ ≥ mb (4.15)
b). para que se cumpla la identificabilidad, debe cumplirse la ecuación (4.14), por lo tanto
α u (k ) = −α q 0 y (k ) (4.16)
α u (k − 1) = −α q 0 y (k − 1) (4.17)
y (k ) = −(a + α q 0 ) y (k − 1) + (b − α ) u (k − 1) + v (k ) (4.18)
α u (k ) = −α q 0 y (k ) − α q1 y (k − 1)
α u (k − 1) = −α q 0 y (k − 1) − α q1 y (k − 2)
y (k ) = −(a + α q 0 ) y (k − 1) − α q1 y (k − 2) + (b − α ) u (k − 1) + v (k )
79
posibilidad en hacerlo en los mismos términos, es decir, ya no es posible hacer afirmaciones precisas y
significativas sobre su comportamiento.
Esta imprecisión dio origen al control FUZZY ó control Difuso. Su premisa se basa en que los elementos
claves del razonamiento humano no son precisamente elementos exactos sino conceptos imprecisos, de allí su
nombre FUZZY ó “Difuso”.
Aprovechando la capacidad del cerebro humano, en el sentido que no sólo puede trabajar en términos
cuantitativos sino que también cualitativos, es que permitió desarrollar esta teoría.
Zadeh (1973) inicia el desarrollo de la teoría de conjuntos difusos. Desde ese momento diversos autores
contribuyen a crear la teoría del control difuso. Específicamente, se introducen las técnicas basadas en reglas
como una forma de captar la experiencia humana y de tratar las incertidumbres.
papa martes
mesa
sabado
manzana
silla
domingo
viernes
La pregunta es : Seleccione los días de la semana. La respuesta obvia es : martes, sábado, viernes y domingo .
Es decir tal como se muestra en la figura 4..4
80
papa martes
mesa
sabado manzana
silla
domingo
viernes
Si ahora nos preguntamos ¿Cuáles son los días de fin de semana?. Para muchos el fin de semana comienza el
viernes, e incluso hasta el lunes por la mañana, por lo tanto la respuesta se muestra en la figura 4.5
papa martes
mesa
sabado manzana
silla
domingo
viernes
Como una forma de cuantificar esta situación, sea verdadero = 1 y falso =0. Entonces,
las preguntas que surgen son las siguientes:
0
Jueves viernes sabado domingo lunes
Ejemplo 4.2
Trace una curva de pertenencia para ubicar los meses de las estaciones del año
verano otoño
Sabemos que una caracterización clásica de un conjunto es, por ejemplo, el siguiente:
A = {x / x f 6} (4.19)
La caracterización de un conjunto fuzzy es una extensión del conjunto clásico. De manera que si X es el
universo de discusión, y sus elementos se asignan por x , entonces un conjunto fuzzy de X es definido
como un par ordenado
A = {x, µ A ( x ) / x ∈ X } (4.20)
Podemos concluir que los conjuntos fuzzy describen conceptos vagos (más rápido, muy alto, más caliente,
etc.). Un conjunto fuzzy admite que un elemento pertenezca parcialmente a él.
Recordemos que la lógica clásica permite hacer, por ejemplo, el análisis de la figura 4.10.
83
B A C
la lógica dice:
Si x ∈ B y x ∈ C entonces x ∈ A
Ejemplo 4.3
Seleccionar los hombres que cumplan dos características simultáneamente, a saber , Los hombres
altos y de raza blanca.
Alto → 1
A=
Bajo → 0
Blaco → 1
B=
Negro → 0
Alto y Blanco → 1
R=
Bajo y negro → 0
La tabla de verdad es
A B R
0 0 0
0 1 0
1 0 0
1 1 1
84
Para expresarlo en conjunto fuzzy, el ejemplo se transformaría en la siguientes señales de la figura 4.12
Etapa Etapa de
Fusificación Motor de inferencias Defusificación
Proceso
Ejemplo 4.6 Simular un control PI standard por un control difuso. El corazón del bloque "control basado
en el método difuso" es la base del conocimiento a partir de un PI standard.
1/4
Ref
Tiempo
Figura 4.14 Funcionamiento típico de un r PI
Podemos dividir la señal por zonas, de acuerdo al error y la derivada del error, tal como se muestra en la
figura 4.15
A B
Ref
e=(ref-out)
a1 a2 a3 a4 a5 a6
e(t) + - - + + -
Tiempo
de(t) - - + + - -
dt
de(k )
1) Si e(k ) y son cero: entonces se mantenga el control constante. ∆u = 0
dt
Esto ocurre en cuando salida es igual a la referencia en estado estacionario
e de
dt
a1 a2 a3 a4
de
a1 = e > 0, < 0
dt
de
a 2 = e < 0, < 0
dt
de
a3 = e < 0, > 0
dt
de
a 4 = e > 0, > 0
dt
Las alternativas de las pendientes en los puntos A y B de la figura 4.14 se muestran en la figura 4.17
87
b2
b1
Ref b3
b4
b5
b6
de
b1 = e = 0, <<< 0
dt
de
b2 = e = 0, << 0
dt
de
b3 = e = 0, < 0
dt
de
b4 = e = 0, > 0
dt
de
b5 = e = 0, >> 0
dt
de
b6 = e = 0, >>> 0
dt
Los valores máximos y mínimos con respecto a la referencia se muestran en la figura 4.18
c2
c1
Ref c4
c3
c6
c5
de
c1 = = 0, e <<< 0
dt
de
c 2 = = 0, e << 0
dt
de
c3 = = 0, e < 0
dt
de
c 4 = = 0, e > 0
dt
de
c5 = = 0, e >> 0
dt
de
c 6 = = 0, e >>> 0
dt
De este análisis empírico, podemos interpretar a los a i , bi y ci como rangos imprecisos, lo cual da origen a
las variables difusas.
El encasillamiento de una variables de ingeniería (por ejemplo voltaje) a una variable difusa (por ejemplo
NG), se denomina FUZIFICACIÓN.
de
Podemos construir la siguiente matriz de Estados en función de e(t ) y
dt
89
e(t)
NG NM NP CE PP PM PG
NG a2 a2 a2 b1 a1 a1 a1
a2 a2 a2 b2 a1 a1 a1
NM
a2 a2 a2 b3 a1 a1 a1
de NP
dt CE c1 c2 c3 CE c4 c5 ca
6
a3 a3 a3 b4 a4 a4 a4
PP
a3 a3 a3 b5 a4 a4 a4
PM
PG a3 a3 a3 b6 a4 a4 a4
En base a nuestra experiencia con controladores PI podemos construir en forma gruesa las siguiente acciones
de control.
e(t)
NG NM NP CE PP PM PG
NG
U
NM U <0 < U =0
0
de NP
dt
CE U< 0 U >0
PP
U
PM U =0 > U >0
PG 0
precisando este arreglo podemos construir los estados de la acción de control ó MOTOR DE INFERENCIA
de la figura 4.19. Esta tabla es conocida en la literatura como “tabla de 49 reglas”
90
e(t)
NG NM NP CE PP PM PG
NG NG NG NG NG NM NP CE
NG NG NM NM NP CE PP
NM
NG NM NP NP CE PP PM
de NP
dt CE NM NM NP CE PP PM PM
NM NP CE PP PP PM PG
PP
NP CE PP PM PM PG PG
PM
PG CE PP PM PG PG PG PG
de
Una asignación razonable de funciones de pertenencia para e y se muestra en la figura 4.20
dt
ui(e) ó ui(de)
NG NM NP CE PP PM PG
de=e(k)-e(k-1)
0,8
0,2 de
e, ó
1 dt
-1 -2/3 -1/3 1/3 2/3
i es una variable fuzzy =[NG,NM,NP,CE,PP,PM,PG]
Una vez inferida la variable de salida, es necesario convertir la variable difusa du en un valor nítido. este
conversión se denomina DEFUSIFICACION .
91
de
Al entrar el valor de e y a la tabla de inferencia de la figura 4.18 , siempre interceptará dos curvas para
dt
de
e y dos curvas para , por lo tanto el análisis involucra a 4 celtas de la tabla ó sea a 4 curvas de la figura
dt
de 8
4.19. En figura 4.21 se muestra el análisis completo para e = 0.8 y =− (- 0.26667)
dt 30
ui(e)
PM PG
1
0,6
u'i(du)
0,4
0,6 PP
1/3 2/3 1 e
0,4
ui(de)
du
NP CE 1 0,2
0,8 1/3 2/3 1
0,2
Finalmente los cuatro análisis anteriores se traducen en la siguiente relación, para obtener la variable de
control denominada de medida máxima modificada.
du=(0,6)(1/3)+(0,2)(2/3)+(0,2)(2/3)+(0,4)(2/3)=0,52
0,6+0,2+0,2+0,4
EJERCICIOS
1) Demuestre que una realimentación de bajo orden introduce dependencia lineal en la matriz
2) Φ Φ
T
Obtener el du del controlador fuzzy , emulando un PID, en el punto indicado en la gráfica para una tabla de 25
implicancias, con conjunto fuzzy: NG,NM,CE,PM,PG
92
error
y
NG NM CE PM PM
Ref = 1 NG NG NG NM NM CE
3 NM NG NM NM CE PM
t derror CE NM NM CE PM PM
PM NM CE PM PM PG
PG CE PM PM PG PG
0.5 t
3)
Usando una tabla de 25 reglas determinar la
variación de la variable de control u en el instante t 1
y
e
NG NM CE PM PG
NG NG NG NM NM CE 1 0.1
0.2
NM NG NM NM CE PM
de 0.7
CE NM NM CE PM PM
PM NM CE PM PM PG
PG CE PM PM PG PG t1 t
4)
5) Resuelva el ejercicio sobre fuzzy ( o sea encontrar ∆U) explicado en clases pero para
e = -0.4
de = 0.1
dt
BIBLIOGRAFÍA
[1] Ogata K., “SISTEMAS DE CONTROL EN TIEMPO DISCRETO”, Prentice Hall, 1996
[2] Àström K., “SISTEMAS CONTROLADOS POR COMPUTADOR”, PARANINFO, 1988
[3] sermann R., “DIGITAL CONTROL SYSTEMS”, Spriager-Verlag, 1981
[4] Oppenheim J.,”SIGNALS AND SISTEMS”, Prentice Hall, 1985
[5] Ljung L. ,”SYSTEM IDENTIFICATION”, Printice Hall, 1987
[6] Ljung L., “TOOL BOX FOR USE WITH MATLAB”, Math Works, 1995