Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Unidad Guadalajara
Sistemas Lineales II
1
Objetivos generales del curso:
2
Programa del curso
1. Introducción
2. Controlabilidad y observabilidad
2.1 Controlabilidad
2.2 Observabilidad
2.3 Transformaciones de similitud y representación de
sistemas no controlables/no observables
2.4 Representaciones mínimas
2.5 Pruebas PBH para controlabilidad y observabilidad
3
3. Propiedades de matrices polinomiales
3.1 Matrices unimodulares
3.2 Equivalencia de matrices
3.2.1 Forma de Hermite
3.2.2 Forma de Smith
3.3 Coprimicidad de matrices
3.4 Matrices reducidas por columnas
3.5 Pencils de matrices
4
4. Descripción de sistemas multivariables en matrices
polinomiales
4.1 Descripciones polinomiales de matrices de
transferencia
4.2 Representación de matrices de transferencia en
espacio de estado
4.3 Transformaciones de similitud
4.4 Representaciones mínimas y factorizaciones coprimas
5. Propiedades de matrices racionales
5.1 Forma de Smith-McMillan
5.2 Forma de Smith-McMillan al infinito
5
6. Polos y ceros de sistemas multivariables
6.1 Polos y ceros finitos
6.2 Ceros al infinito
7. Retroalimentación de estado
7.1 Asignación de la dinámica del sistema
7.2 Teorema de control de estructura de Rosenbrock
8. Invariantes de sistemas multivariables
8.1 Forma canónica de Brunovsky
8.2 El interactor del sistema
8.3 Listas de Morse
6
Bibliografía
• T. Kailath, “Linear Systems”, Prentice Hall, Englewood
Cliffs, N.J., 1980.
• C.T. Chen, “Linear Systems, Theory and Design”, Holt,
Rinehart and Winston, 1984.
• A.I.G. Vardulakis, “Linear Multivariable Control”, John
Wiley & Sons, 1991.
• S. Barnett, “Polynomials and Linear Control Systems”,
Marcel Dekker, 1983.
• F.R. Gantmacher, “Matrix Theory”, Chelsea Publishing Co.,
1959.
7
1. Introducción
8
Sea
•
( A, B, C ) x(t ) = Ax(t ) + Bu (t )
y (t ) = Cx (t )
9
Al igual que en el caso escalar, el sistema ( A, B, C ) tiene
asociada una función de transferencia que relaciona las
entradas y las salidas del sistema de acuerdo a
Y ( s) = H ( s)U ( s)
donde la función de transferencia matricial
H ( s) = C ( sI − A) −1 B
llamada también matriz de transferencia (transfer function
matrix), es una matriz racional estrictamente propia, de
dimensiones p m.
10
El problema de obtener una representación en espacio de
estado de una función de transferencia matricial
11
Considere, por ejemplo, la siguiente matriz de transferencia de
un sistema con 2 entradas y 2 salidas
1 1 1 1
( s − 1)( s + 3)
( s − 1) 2 s 2
− 2s + 1 s 2 + 2s − 3
H (s) = = .
6 s−2 6 s−2
− −
( s − 1)( s + 3)
2
( s + 3) 2 s 3 + 5s 2 + 3s − 9 s 2 + 6s + 9
12
2 − 1 1
1 0 0
−2 3 1
1 0 0
A1 = −5 −3 9 , B1 = 1
1 0 0 0
0 1 0 0
− 6 − 9 1
1 0 0
0 1 0 1
C1 = .
0 0 −6 1 − 2
13
Observe que en este caso se tiene que el orden de la represen-
tación es igual a la suma de los grados de los denominadores de
todos los elementos de H(s).
14
Denotando N ( s) := N1s r −1 + N 2 s r −2 + + N r , se puede ver que
( A2 , B2 , C2 ) es otra representación de H(s), con
− d1 I m − d2 Im − d3 I m − dr Im I m
I 0
m
A2 = Im , B2 = 0
Im 0 0
C 2 = N1 N2 N3 Nr
15
Por su semejanza con la forma canónica controlador de
sistemas escalares, a la representación anterior se le llama
forma controlador a bloques.
Observe que el orden de esta representación es rm.
16
En el ejemplo anterior, se tiene que
d ( s ) = ( s − 1) 2 ( s + 3) 2 = s 4 + 4 s 3 − 2 s 2 − 12 s + 9,
( s + 3) 2 ( s − 1)( s + 3) s 2 + 6s + 9 s 2 + 2s − 3
N (s) = d (s) H (s) = 2
=
− 6( s − 1) ( s − 2)( s − 1) − 6s + 6 s − 4s + 5s − 2
3 2
0 0 3 1 1 2 6 2 9 − 3
= s + 0 − 4 s + − 6 5 s + 6 − 2.
0 1
N1 N2 N3 N4
17
Por lo tanto, la siguiente es una representación de H(s) en
forma controlador a bloques
− 4 I 2 2 I 2 12 I 2 − 9I 2 I2
I 0 0 0 0
A2 = 2 , B2 =
0 I2 0 0 0
0 0
0 I2 0
C 2 = N1 N2 N3 N 4 .
18
Con la misma notación introducida, una tercera representación
( A3 , B3 , C3 ) para H(s) sería
− d1 I p Ip N1
−d I Ip N2
2 p
A3 = − d3 I p , B3 = N3
I p
− d r I p 0 Nr
C3 = I p 0 0 0
que por su semejanza con la forma canónica observador de
sistemas escalares, se le llama forma observador a bloques.
19
El orden de esta representación es rp, donde p es el número de
salidas del sistema.
En el ejemplo que se está considerando, la siguiente es una
representación de H(s) en forma observador a bloques
− 4I 2 I2 0 0 N1
2I 0 I2 0 N2
A3 = 2
, B3 =
12 I 2 0 0 I2 N3
− 9I 0
2 0 0 N4
C3 = I2 0 0 0 .
20
Como conclusión de esta sección, se puede ver que obtener una
representación en espacio de estado de una matriz de transfe-
rencia de un sistema multivariable no es un problema sencillo,
o al menos tan evidente como en el caso de sistemas escalares.
Independientemente de que se pueda obtener una representa-
ción de H(s) por alguno de los métodos anteriores (o posible-
mente otros métodos), queda pendiente la cuestión de, ¿cuál es
el orden de una representación mínima de H(s)?
Otro aspecto importante es, ¿cómo definir los polos y los ceros
de sistemas multivariables?
21
Para estudiar estos problemas, se necesita primeramente
introducir los conceptos de controlabilidad, observabilidad,
descripción de matrices de transferencia en matrices polino-
miales, y estudiar las propiedades de matrices polinomiales y
racionales.
22
2. Controlabilidad y
observabilidad
23
2.1 Controlabilidad
El sistema
•
x(t ) = Ax(t ) + Bu(t ), x(t0 ) = x0
y (t ) = Cx (t )
se dice controlable al tiempo t 0 si existe u(t) (vector de entradas)
que transfiere el estado inicial x(t0 ) al estado x(t1 ) al tiempo t1 ,
donde x(t0 ) y x(t1 ) son puntos cualquiera del espacio de estado.
24
De manera análoga al caso de sistemas escalares, tenemos que
0
x(t1 ) − e At1 x(0) = B AB An−1 B 1
(2.1)
n−1
donde
C = B AB An−1B
25
De (2.1) puede verse que se cumple el siguiente resultado.
Teorema 2.1. El sistema ( A, B, C ) es controlable si y solo si
la matriz de controlabilidad C de dimensiones n nm, es de
rango pleno (rango pleno por filas), esto es, si y solo si
rango C = n.
26
2.2 Observabilidad
El sistema
•
x(t ) = Ax(t ) + Bu(t ), x(t0 ) = x0
y (t ) = Cx (t )
27
Siguiendo un procedimiento similar como en el caso de sistemas
escalares de derivar sucesivamente las salidas del sistema,
llegamos a
y (t ) C 0 u (t )
. .
y ( t ) CA 1
h 0 u ( t )
..
y (t ) = CA 2 x(t ) + ..
u (t ) (2.2)
2
h h1
( n −1) n −1 ( n −1)
y (t ) CA hn −1 h1 0 u (t )
Y(t ) O T U(t )
28
donde
C
CA
O=
CA n −1
es la matriz de observabilidad del sistema, de dimensiones np n,
y
hi = CAi−1 B, i = 1,2,
29
Por la teoría de ecuaciones lineales, sabemos que a partir de
(2.2) y para t = t0 = 0, se puede determinar la condición inicial
x(0) si y solo si las columnas de la matriz de observabilidad O
son linealmente independientes.
Si esto se cumple, una forma de determinar x(0) es la siguiente:
Primeramente multiplicamos (2.2) por la izquierda por OT
30
Suponiendo que las columnas de O son linealmente indepen-
dientes, y de acuerdo al Lema 2.1, entonces tenemos que
31
2.3 Transformaciones de similitud y representación
de sistemas no controlables/ no observables
32
Se puede ver que la matriz de transferencia de 2 representacio-
nes similares es la misma
H ( s) = C ( sI − A) −1 B = C ( sI − A) −1 B,
y que las matrices de observabilidad y de controlabilidad están
relacionadas por
C = T −1C
O = OT ,
33
Teorema 2.3. (Representación de sistemas no controlables).
Sea ( A, B, C ) un sistema no controlable de orden n, con
rango C ( A, B) = r n.
Entonces existe una transformación de similitud T, tal que la
representación ( A, B, C ) con A = T −1 AT , B = T −1 B, C = CT
tiene la forma
.
.x c = Ac A12 x c + B c u
x nc 0 Anc x nc 0
y = Cc C nc x c
x nc
34
donde:
1) El subsistema ( Ac , B c , C c ) de orden r es controlable.
2) La matriz de transferencia del subsistema ( Ac , B c , C c ) es
la misma que la del sistema original, esto es
C ( sI − A) −1 B = C c ( sI − Ac ) −1 B c .
35
Teorema 2.4. (Representación de sistemas no observables).
Sea ( A, B, C ) un sistema no observable de orden n, con
rango O(C , A) = q n.
y = Co 0 xo
x no
36
donde
1) El subsistema ( Ao , B o , C o ) de orden q es observable.
2) La matriz de transferencia del subsistema ( Ao , B o , C o ) es
la misma que la del sistema original, esto es
C ( sI − A) −1 B = C o ( sI − Ao ) −1 B o .
37
2.4 Representaciones mínimas
38
2.5 Pruebas PBH para controlabilidad y
observabilidad
39
Teorema 2.7. (Prueba de rango)
1. El par (A,B) es controlable si y solo si
rangosI − A B = n para toda s.
C
rango = n para toda s.
sI − A
40
3. Propiedades de matrices
polinomiales
41
Notación:
Conjunto de números reales
[s] Conjunto de polinomios en la variable s con
coeficientes reales
(s) Conjunto de funciones racionales
p (s ) Conjunto de funciones racionales propias
pm [s ] Conjunto de matrices polinomiales de dimensiones p m
pm (s) Conjunto de matrices racionales de dimensiones p m
ppm (s ) Conjunto de matrices racionales propias de
dimensiones p m.
42
3.1 Matrices unimodulares
43
El rango de una matriz polinomial A( s) pm [ s] se define
como el número de columnas (o de filas) linealmente indepen-
dientes de A(s), o equivalentemente, A(s) tiene rango r si r es el
más grande de los órdenes de los menores de A(s) que es
diferente de cero.
44
Lema 3.1. La matriz U ( s) p p [ s] es unimodular si y solo
si el determinante de U(s) es una constante diferente de cero.
45
Sea A( s) pm [ s] una matriz polinomial cualquiera. Se definen
las siguientes operaciones elementales por filas sobre A(s):
46
La relación entre operaciones elementales y matrices unimodu-
lares es la siguiente:
Dada A( s) pm [ s], cualquier conjunto de operaciones
elementales por filas sobre A(s) es equivalente a multiplicar por
la izquierda a A(s) por una matriz unimodular U(s) adecuada.
Para ser más precisos, suponga que en el paso k, con k=1,2,…,
se realiza una operación elemental por filas sobre Ak −1 ( s ),
donde A0 ( s) := A( s), dando como resultado la matriz Ak (s ).
Sea U k (s) la matriz obtenida al realizar sobre U k −1 ( s ) la misma
operación elemental que sobre Ak −1 ( s ), donde U 0 ( s) := I p .
Entonces tenemos que
U k ( s) A( s) = Ak ( s).
47
En otras palabras, U k (s) es la matriz unimodular que es
equivalente al conjunto de operaciones elementales por filas
efectuadas sobre A(s).
48
3.2 Equivalencia de matrices
49
Cualquier matriz A( s) [ s] puede ser “reducida” mediante
pm
50
3.2.1 Forma de Hermite
51
h11 ( s ) 0 0
h (s) h ( s) (0)
21 22
A( s )V ( s ) = H c ( s ) = hr ,r ( s )
hr +1,1 ( s )
(0)
h p ,1 ( s ) h p ,r ( s )
donde:
• para 1 i r , hi ,i ( s) 0 es un polinomio mónico,
• para 1 i r , y j i, hi , j ( s) = 0, o deg hi , j ( s) deg hi ,i ( s).
52
Demostración. La demostración es por construcción. La matriz
H c (s) se obtiene mediante operaciones elementales sobre A(s),
y el procedimiento es el siguiente:
1) Mediante intercambio de columnas, lleve a la posición (1,1)
el elemento de menor grado en la primera fila de A(s), y llámele
a~11 (s).
con
r1 j ( s) = 0, o deg r1 j ( s) deg a~11 ( s).
53
2) Mediante operaciones elementales por columnas, reste de
cada columna c j , j 1, la columna c1 multiplicada por el
múltiplo correspondiente de a~11 ( s),
c j → c j − q1 j ( s)c1 , j 1
de manera que en la primera fila queden sólo elementos r1 j ( s )
de menor grado que a~11 ( s).
Repita los pasos 1) y 2) hasta que todos los elementos en la
primera fila sean cero, a excepción del elemento (1,1), que debe
de ser mónico.
3) Tome la segunda fila de la matriz resultante y repita el
procedimiento anterior sin considerar la primera columna, hasta
que el elemento (2,2) sea mónico y los elementos (2,j), para j>2,
sean cero.
54
4) Si el elemento (2,1) no tiene grado menor que el elemento
(2,2), redúzcalo mediante una operación elemental (observe que
el elemento (1,1) no es afectado por esta operación).
5) Continúe con este procedimiento hasta la r-ésima fila, y la
matriz resultante será H c (s ).
55
s 0 1
Ejemplo 3.1. Lleve la matriz A(s) = a su forma de
0 3s s + 1
Hermite por columnas.
s 0 1 1 0 s 1 0 0
0 3s s + 1 c1 c3 c
s + 1 3s 0 3 → c − sc1
s + 1 3s − s( s + 1)
3
1 1 0 0 1 1 0 0
c3 → c3 + ( s + 1)c2 s + 1 3s 0 c2 → 3 c2 s + 1 s 0
3
1 0 0
c1 → c1 − c2 = H c ( s).
1 s 0
56
Ejemplo 3.2. Para el ejemplo anterior, encuentre la matriz
unimodular V(s) tal que A( s)V ( s) = H c ( s).
1 0 0 0 0 1 0 0 1
0 1 0 c c 0 1 0 c → c − sc 0 1 0
1 3
3 3 1
0 0 1 1 0 0 1 0 − s
0 0 1 0 0 1
c3 → c3 + ( s + 1)c2 0 1 0 ( s + 1)
1 1 1 1 1
( s + 1) c2 → c2
3 3 3 3 3
1 0 − s 1 0 − s
0 0 1
c1 → c1 − c2 − ( s + 1) = V ( s ).
1 1 1
3 3 3
1 0 − s
57
s + 1 s 2 + 2s + 5
Ejemplo 3.3. Lleve la matriz A( s ) = a su forma
1 s
de Hermite por columnas.
s + 1 s 2 + 2s + 5 s + 1 s + 5 s + 1 4
2
c → c − sc1 c
2 → c − c1
− 1
2 2
1 s 1 0 1
1 s + 1 1 0
4 s + 1 1 c → c − ( s + 1)c
c1 c2 c1 → c1 1
− 1 1 4 − 1
2 2 1
− 1 1
( s + 5)
4 4 4
1 0
c 2 → 4c 2 1 = H ( s ).
− ( s + 5)
c
4
58
Ejercicio. Establezca el resultado correspondiente para la
forma de Hermite por filas H f (s), y obtenga la forma de
Hermite por filas para los ejemplos anteriores.
59
3.2.2 Forma de Smith
60
donde 1 ( s),, r ( s), son polinomios mónicos, conocidos como
los polinomios invariantes de A(s), los cuales satisfacen la
propiedad de división
i ( s) | i+1 ( s), i = 1,, r − 1,
esto es, existe un polinomio q(s) tal que i+1 ( s) = i ( s)q( s).
Demostración. La matriz (s ) se obtiene mediante operaciones
elementales por filas y por columnas sobre A(s), de acuerdo al
siguiente procedimiento:
1) Utilizando intercambio de filas y de columnas, lleve a la
posición (1,1) el elemento de menor grado de A(s).
61
2) Mediante operaciones por columnas, incluyendo intercambio
de columnas, haga cero todos los elementos en la primera fila, a
excepción del elemento (1,1), de manera similar como se hace
en la forma de Hermite H c (s ).
3) Para la matriz resultante del paso 2), mediante operaciones
por filas haga cero todos los elementos en la primera columna, a
excepción del elemento (1,1).
En este paso, algunos elementos diferentes de cero podrían
reaparecer en la primera fila, por lo que es necesario repetir 2) y
3) hasta que todos los elementos en la primera fila y la primera
columna sean cero, a excepción del elemento (1,1), que deberá
de ser mónico.
62
4) Si el elemento (1,1) no divide a los elementos restantes de la
matriz resultante, mediante el algoritmo de división euclideana e
intercambio de filas y de columnas, lleve a la posición (1,1) un
elemento de menor grado, y repita los pasos 2) y 3).
Mediante este proceso, se obtiene una matriz de la forma
1 ( s ) 0 0
0
A1 ( s )
0
63
Ejemplo 3.4. Obtenga la forma de Smith de la matriz
s 0 1
A( s) = .
0 3s s + 1
s 0 1 1 0 s 1 0 0
c
0 3s s + 1 1 c3 c
3 → c − sc1
+ s + 1 3s − s( s + 1)
3
s 1 3s 1
1 0 0 1 0 0
f 2 → f 2 − ( s + 1) f1 c3 → c3 + ( s + 1)c2 0 3s 0
0 3s − s( s + 1)
1 1 0 0
c2 → c2 0 s 0 = ( s).
3
64
Ejemplo 3.5. Obtenga la forma de Smith de la matriz
s + 1 0 s( s + 1)
A( s) = .
0 s + 2 s( s + 2)
s + 1 0 s( s + 1) s + 1 0 0
0 c3 → c3 − sc1
s + 2 s( s + 2) 0 s + 2 s( s + 2)
s +1 0 0 s + 1 0 0
c1 → c1 + c2 f
2 → f − f1
s + 2 s + 2 s( s + 2) s + 2 s( s + 2)
2
1
1 s + 2 s( s + 2)
f1 f 2
s + 1 0 0
c2 → c2 − ( s + 2)c1 1 0 0
c3 → c3 − s( s + 2)c1 s + 1 − ( s + 1)(s + 2) − s( s + 1)(s + 2)
65
1 0 0
f 2 → f 2 − ( s + 1) f1
0 − ( s + 1)(s + 2) − s( s + 1)(s + 2)
1 0 0
c3 → c3 − sc2
0 − ( s + 1)(s + 2) 0
1 0 0
c2 → −c2 = ( s).
0 ( s + 1)(s + 2) 0
66
Sean 1 ( s),, r ( s), los polinomios invariantes de la matriz
A( s) pm [ s], con r=rango A(s). Se definen los ceros de A(s)
como las raíces de los polinomios 1 ( s),, r ( s).
Los ceros de A(s) pueden interpretarse como los valores de “s” a
los cuales A(s) pierde rango, esto es,
rango A( zi ) r ,
donde zi es raíz de algún polinomio invariante de A(s).
67
Sea A( s) pm [ s] una matriz polinomial de rango r. Se
definen los divisores determinantales de A(s) como los
polinomios dados por
i ( s ) := máximo común divisor (gcd) mónico de todos los
menores de orden i i de A( s ), i = 1,, r.
68
Por el Lema 3.2 y las propiedades de la forma de Smith de A(s),
tenemos que
1 ( s ) = 1 ( s )
2 ( s ) = 1 ( s )2 ( s )
r ( s ) = 1 ( s )2 ( s ) r ( s ).
Es decir,
i (s)
i ( s ) = , i = 1,, r , (3.1)
i−1 ( s )
donde 0 ( s) := 1.
69
La relación (3.1) proporciona otro método para encontrar los
polinomios invariantes de A(s) (y por consiguiente, también su
forma de Smith), donde en lugar de efectuar operaciones
elementales por filas y por columnas, se necesitan calcular
todos los menores de A(s).
70
Ejemplo 3.6. Utilizando divisores determinantales, obtenga la
forma de Smith de la matriz del Ejemplo 3.4, es decir,
s 0 1
A( s) = .
0 3s s + 1
Tenemos que
1 = gcd{s, 3s, 1, s + 1} = 1
s 0 s 1 0 1
2 = gcd , , = gcd{3s , s ( s + 1), 3s} = s,
2
0 3s 0 s + 1 3s s + 1
por lo tanto
1 0 0
1 ( s) = 1, 2 ( s) = s ( s) = .
0 s 0
71
Ejemplo 3.7. Utilizando divisores determinantales, obtenga la
forma de Smith de la matriz del Ejemplo 3.5, es decir,
s + 1 0 s( s + 1)
A( s) = .
0 s + 2 s( s + 2)
Tenemos que
1 = gcd{s + 1, s + 2, s ( s + 1), s ( s + 2)} = 1
s +1 0 s + 1 s ( s + 1) 0 s ( s + 1)
2 = gcd , ,
0 s + 2 0 s ( s + 2) s + 2 s ( s + 2)
= gcd{( s + 1)( s + 2), s ( s + 1)( s + 2), − s ( s + 1)( s + 2)} = ( s + 1)( s + 2),
por lo tanto
1 0 0
1 ( s) = 1, 2 ( s) = ( s + 1)(s + 2) ( s) = .
0 ( s + 1)(s + 2) 0
72
3.3 Coprimicidad de matrices
si:
i) R(s) es un común divisor derecho de A(s) y B(s), esto es,
existen A( s) pm [ s] y B( s) qm [ s] tal que
A(s) = A(s) R(s) y B(s) = B(s) R(s).
ii) Cualquier otro común divisor derecho de A(s) y B(s) es un
divisor derecho de R(s).
73
Divisores izquierdos y máximos comunes divisores izquierdos
de matrices polinomiales se definen de manera análoga.
de A(s) y B(s).
74
Del teorema anterior, puede verse que un máximo común
divisor derecho (gcrd) de A(s) y B(s) puede obtenerse mediante
operaciones elementales. Para obtener un gcrd, es necesario
A( s )
realizar operaciones elementales por filas sobre la matriz B( s)
de manera tal que (al menos) las últimas p+q-m filas sean
reducidas a cero.
Observe que un gcrd de 2 matrices no es único. Si R(s) y R1 ( s)
son dos gcrd de A(s) y B(s), por definición están relacionados
por
R( s ) = W1 ( s ) R1 ( s )
R1 ( s ) = W ( s ) R( s )
75
Suponga ahora que uno de ellos, digamos R(s), es no singular.
De las relaciones anteriores, tenemos que
R( s) = W1 (s)W ( s) R( s)
−1
lo que implica que W ( s ) = W1 ( s ), es decir W(s) es una matriz
unimodular.
Por lo tanto: Si R(s) es un gcrd de A(s) y B(s), y es no singular,
entonces cualquier otro gcrd R1 ( s) de A(s) y B(s), está dado por
R1 (s) = W (s) R(s), donde W(s) es una matriz unimodular, esto
es, R(s) y R1 ( s) son equivalentes por la izquierda.
76
Observe que R(s) es no singular si
A( s )
rango = m,
B( s)
lo cual es una suposición que se hace frecuentemente.
77
Teorema 3.4. Las siguientes afirmaciones son equivalentes
a) Las matrices A( s) pm [ s] y B( s) qm [ s] son coprimas
derechas.
b) Existen matrices polinomiales X ( s) m p [ s] y Y ( s) mq [ s]
tal que se cumple la siguiente ecuación, conocida como
identidad de Bezout
X ( s) A( s) + Y ( s) B( s) = I m .
A( s )
c) rango = m para toda s.
B( s)
A( s ) I m
d) La forma de Smith de es .
B( s) 0
78
3.4 Matrices reducidas por columnas
79
Una matriz polinomial no singular A( s) mm [ s] se dice
reducida por columnas si
m
deg{det A( s )} = ki .
i =1
80
De (3.4.1) tenemos que
m
ki
det A( s) = (det Ahc ) s i =1
+ términos de menor grado en s.
81
Del resultado anterior se sigue que cualquier matriz no singular
puede llevarse a forma reducida por columnas mediante
operaciones elementales por filas. Esto de hecho, también puede
lograrse mediante operaciones elementales por columnas.
82
El concepto de matriz reducida por columnas tiene varias
aplicaciones en teoría de control. Una de estas aplicaciones es
para determinar bajo qué condiciones la matriz racional
N ( s) D −1 ( s) es propia o estrictamente propia, donde N(s)
y D(s) son matrices polinomiales.
Una matriz racional se dice propia (estrictamente propia) si
todos sus elementos son funciones racionales propias (estricta-
mente propias).
Lema 3.6. Si la matriz racional H(s) es estrictamente propia
−1
(propia) y se cumple que H ( s) = N ( s) D ( s), donde N(s) y D(s)
son matrices polinomiales, entonces los grados por columnas de
N(s) son menores (menores o iguales) que los grados por
columnas correspondientes de D(s).
83
Se puede demostrar que el resultado anterior no se cumple en
sentido inverso. Para que esto se cumpla, es necesario suponer
que D(s) es reducida por columnas.
84
3.5 Pencils de matrices
85
Nos interesa saber bajo qué condiciones dos pencils de matrices
son estrictamente equivalentes, y derivar una forma canónica
para pencils de matrices. Para ello, dividiremos el estudio en 2
casos: pencils regulares y pencils singulares.
El pencil sE-A se dice regular si E y A son matrices cuadradas y
det( sE − A) 0. Si esto no se cumple, el pencil se dice singular.
86
Lema 3.8. Los pencils ( sE − A) y ( s E − A) son equivalentes, es
decir existen matrices unimodulares U ( s) mm [s] y
V ( s) nn [s] tal que U (s)(sE − A)V ( s) = s E − A, si y solo si
tienen los mismos polinomios invariantes.
Lema 3.9. Sean ( sE − A) y ( s E − A) pencils de matrices, donde
det E 0, det E 0. Bajo estas condiciones, si ( sE − A) y ( s E − A)
son equivalentes, entonces son estrictamente equivalentes.
87
Para obtener condiciones de equivalencia estricta para pencils
regulares, es necesario considerar los llamados divisores
elementales finitos y divisores elementales infinitos.
Sean 1 ( s),, m ( s) los polinomios invariantes del pencil sE-A,
y escríbanse estos polinomios como
1 ( s ) = [1 ( s )]c [ 2 ( s )]c [ k ( s )]c
1 2 k
88
Todos los términos [1 ( s)] 1 ,[1 ( s)] 2 ,,[ k ( s)] k , en (3.5.1)
c c l
89
Teorema 3.6. Sea sE-A un pencil regular. Existen matrices no
singulares U mm y V nn tal que
U ( sE − A)V = block diag{N 1 , N 2 ,, N t , sI − F}
donde:
i i
• N = sH − I i , siendo H i una matriz de dimensiones i xi
con unos en la primer diagonal superior y ceros en las demás
posiciones, y I i es la matriz identidad de dimensiones i xi .
• Los primeros t bloques están asociados a los divisores
elementales infinitos del pencil sE-A.
• El bloque sI-F está determinado por los divisores elementales
finitos de sE-A, y F está en forma de Jordan o en forma
canónica racional.
90
Teorema 3.7. Los pencils regulares ( sE − A) y ( s E − A) son
estrictamente equivalentes si y solo si tienen los mismos
divisores elementales finitos e infinitos.
91
Pencils singulares
Sea sE-A un pencil singular de dimensiones m n, y de rango r,
donde r<n, o r<m.
Suponga que r<n. En este caso las columnas de sE-A son
linealmente dependientes, y por lo tanto existe un vector racional
x( s) 0 tal que (sE-A)x(s)=0.
Sin pérdida de generalidad, podemos suponer que x(s) es un
vector polinomial, esto es x( s) [ s].
n1
92
Lema 3.10. Si la ecuación (sE-A)x(s)=0 tiene una solución x(s)
de grado mínimo 1 , entonces el pencil sE-A es estrictamente
equivalente a un pencil de la forma
L 0
0 sE − A
1
1 1
93
Suponga que las columnas de sE1 − A1 son linealmente
dependientes, entonces podemos encontrar un vector polinomial
x(s) de grado mínimo 2 ( 2 1 ), tal que ( sE1 − A1 ) x( s) = 0, de
manera tal que el pencil sE-A puede reducirse a la forma
L
.
1
L
2
sE2 − A2
L
sE p − Ap
p
donde las columnas de sE p − Ap son linealmente independientes.
94
Suponga ahora que las filas del pencil sE p − Ap son linealmente
dependientes. Repitiendo el proceso anterior para ( sE p − Ap )T
encontramos los grados mínimos 1 2 q , de manera
tal que el pencil sE-A es estrictamente equivalente a
block diag{L , , L , L , , L , sE0 − A0 }
T T
1 p 1 q
95
Teorema 3.8. Sea sE-A un pencil cualquiera. Entonces existen
matrices no singulares U mm y V nn tal que
1 t
U ( sE − A)V = block diag{L ,, L , L ,, L , N ,, N , sI − F}.
T T
1 p 1 q
96
4. Descripción de sistemas
multivariables en matrices
polinomiales
97
4.1 Descripciones polinomiales de matrices de
transferencia
Como se ha visto anteriormente en las formas controlador a
bloques y observador a bloques, un método para obtener una
representación en espacio de estado de una matriz de
transferencia H(s) de un sistema multivariable es escribiendo
H(s)=N(s)/d(s), donde d(s) es el mínimo común múltiplo de los
denominadores de los elementos de H(s) y N(s) es una matriz
polinomial.
98
Recordar que en el caso de sistemas escalares, dada una función
de transferencia H(s)=b(s)/a(s), siempre se puede obtener una
representación ( A, B, C ) de orden n=deg a(s).
Tratando de establecer una analogía con el caso escalar, observe
que H(s) también puede escribirse como
−1
H ( s ) = N R ( s ) DR ( s )
donde DR ( s) = d ( s) I m y N R ( s) = N ( s).
Si definimos el grado de la matriz DR (s) como
deg DR ( s) := deg[det DR (s)] = rm
entonces el orden de una representación de H(s) en la forma
controlador a bloques es igual a rm, el grado de DR (s).
99
En forma similar, tenemos que
−1
H ( s ) = DL ( s ) N L ( s )
donde DL ( s) = d ( s) I p y N L ( s) = N ( s), resultando que el orden
de una representación de H(s) en la forma observador a bloques
es igual a rp, el grado de DL (s).
100
El par de matrices polinomiales N ( s) pm [ s] y D( s) mm [ s]
con D(s) no singular, se dice que forman una descripción
polinomial derecha (RMFD), o factorización derecha de H(s) si
H ( s) = N ( s) D −1 ( s).
101
Algunos resultados que se verán más adelante, son los siguien-
tes:
−1
• Dada una factorización derecha de H(s), H ( s ) = N R ( s ) DR ( s ),
siempre se puede obtener una representación ( A, B, C )
controlable de orden n = deg[det DR (s)].
−1
• Dada una factorización izquierda de H(s), H ( s ) = DL ( s ) N L ( s ),
siempre se puede obtener una representación ( A, B, C )
observable de orden n = deg[det DL ( s)].
• El orden mínimo de la matriz denominador de cualquier
factorización (izquierda o derecha) de H(s) es también el orden
mínimo de cualquier representación ( A, B, C ) de H(s).
102
Observe que una factorización (derecha o izquierda) de H(s) no
es única, como se muestra en el siguiente ejemplo.
Ejemplo 4.1. Sea la matriz de transferencia
s s
( s + 1) 2 ( s + 2) 2 ( s + 2) 2
H (s) = .
s s
− −
( s + 2) 2 ( s + 2) 2
103
−1
−1 s s ( s + 1) 2 ( s + 2) 2 0
H ( s ) = N 2 ( s ) D2 ( s ) =
− s ( s + 1)
2
− s 0 ( s + 2) 2
−1
−1 s 0 ( s + 1) 2 ( s + 2) 2 − s ( s + 1) 2 ( s + 2)
H ( s ) = N 3 ( s ) D3 ( s ) =
− s ( s + 1)
2
s 2 0 ( s + 2)
−1
s 0 0 − ( s + 1) 2 ( s + 2)
H ( s ) = N 4 ( s ) D4 −1 ( s ) = 2
− s s ( s + 2) ( s + 2)
2
104
Si el par N(s), D(s) es una factorización derecha de H(s), esto es
H ( s) = N ( s) D −1 ( s), entonces también lo es el par N (s), D(s),
dado por
N ( s) = N ( s)W −1 ( s), D( s) = D( s)W −1 ( s)
105
Como
deg[det D( s)] = deg[det D( s)] + deg[det W ( s)]
tenemos que
deg[det D( s)] deg[det D( s)].
106
La igualdad anterior se cumple si y solo si el determinante de
W(s) es una constante diferente de cero, en cuyo caso W(s) es
una matriz unimodular, y N(s), D(s) son coprimas derechas.
107
Resultado a ser visto más adelante:
El orden de una representación mínima ( A, B, C ) de H(s) es
igual al grado del determinante de D(s), donde
H ( s) = N ( s) D −1 ( s), y las matrices N(s) y D(s) son
coprimas derechas.
108
Teorema 4.1. Sean DL ( s) p p [ s] y N L ( s) pm [ s] matrices
polinomiales con DL (s) no singular, y V ( s) ( p + m)( p + m) [ s] una
matriz unimodular tal que
V11 ( s ) V12 ( s )
DL ( s) N L ( s) = R( s ) 0
V21 ( s ) V22 ( s )
V (s)
109
Del teorema anterior se puede derivar el siguiente método para
obtener una factorización coprima derecha de una matriz de
transferencia H(s):
1) Encuentre una factorización izquierda de H(s), esto es,
encuentre matrices polinomiales DL (s) y N L (s) tal que
−1
H ( s ) = DL ( s ) N L ( s ).
110
2) Mediante operaciones elementales por columnas, encuentre
una matriz unomodular V(s) tal que
V11 ( s ) V12 ( s )
DL ( s) N L ( s) = R( s ) 0
V21 ( s ) V22 ( s )
V (s)
111
Otro método para obtener una factorización coprima derecha de
H(s) es el siguiente:
1) Encuentre una factorización derecha de H(s), esto es,
encuentre matrices polinomiales N ( s) y D( s) tal que
−1
H ( s ) = N ( s ) D ( s ).
112
3) Si R(s) es unimodular, entonces N ( s) y D( s) son una
factorización coprima derecha de H(s).
Si R(s) no es unimodular, entonces las matrices
N ( s) = N ( s) R −1 ( s) y D( s) = D( s) R −1 ( s)
son coprimas derechas, y son tales que H ( s) = N ( s) D −1 ( s).
Por lo tanto, N(s) y D(s) son una factorización coprima derecha
de H(s).
113
4.2 Representación de matrices de transferencia en
espacio de estado
114
Siguiendo un procedimiento análogo al caso de sistemas
escalares, primero intentaremos implementar D( s) ( s) = U ( s), o
d11 ( s) d1,m ( s ) 1 ( s) u1 ( s)
= .
d m,1 ( s ) d m,m ( s) m ( s) um ( s )
115
s k1 −1 s km −1
,
( s ) = block diag .
s s
1 1
116
Observe que el hecho de que Dhc sea no singular, implica que
D(s) es reducida por columnas, lo cual siempre se puede
suponer.
117
( k −1) ( k −2 )
A partir de i i , integre ki veces para obtener i i , i i ,, i .
(k )
118
(s) (s)
−1
− Dhc Dlc
( k1 ) ( k1 −1)
1
→ 1
→ → 1
k1
U (s) S (s) (s) ( k2 ) → ( k2 −1) → →
−1
Dhc + 2
1 2
k2
( km ) ( km −1)
m →
mm
→→
km
(s) (s)
N lc Y (s)
119
Posteriormente, asigne las variables de estado como las salidas
de los integradores, esto es,
( k1 −1) ( k1 − 2 )
x1 = 1 , x2 = 1 , , xk1 = 1
( k2 −1) ( k2 − 2 )
xk1 +1 = 2 , xk1 +2 = 2 , , xk1 +k2 = 2
120
donde
0
1 0
, k i k i , i = 1, , m
A0 = block diag
1 0
1
0
B0 = block diag , k i 1, i = 1, , m
0
C0 = I n .
121
Reemplazando
−1 −1
v(t ) = − Dhc Dlc x(t ) + Dhc u (t )
en (4.1.2), tenemos
•
−1 −1
x(t ) = A0 x(t ) + B0 [− Dhc Dlc x(t ) + Dhc u (t )]
−1 −1
= ( A0 − B0 Dhc Dlc ) x(t ) + B0 Dhc u (t )
y la ecuación de salida del sistema es
y (t ) = N lc x(t ).
122
Es decir, la representación en espacio de estado del sistema es
•
x(t ) = Ac x(t ) + Bc u (t ) (4.1.3)
y (t ) = Cc x(t )
donde
−1
Ac = A0 − B0 Dhc Dlc
−1
Bc = B0 Dhc (4.1.4)
Cc = N lc .
123
A esta representación se le llama forma controlador (no
confundir con la forma controlador a bloques), y se caracteriza
por lo siguiente:
La matriz Ac tiene bloques diagonales de dimensión ki ki en
forma “compañera superior”, y los elementos fuera de los
bloques son cero, excepto los elementos en la primera fila de
cada bloque, que pueden ser diferentes de cero.
La matriz Bc tiene bloques diagonales de dimensión ki 1 y
solamente los elementos en la primera fila de cada bloque
pueden ser diferentes de cero. La matriz Cc no tiene una forma
particular.
Observe que para sistemas con una sola entrada (m=1), las
matrices Ac y Bc están en la forma canónica controlador de
sistemas escalares.
124
Ejemplo 4.2. Obtenga una representación en espacio de estado
en forma controlador de la matriz de transferencia
s s
( s + 1) 2 ( s + 2) 2 ( s + 2) 2
H (s) = .
s s
− −
( s + 2) 2 ( s + 2) 2
0 − ( s + 1) 2 ( s + 2) 0 − ( s 3 + 4s 2 + 5s + 2)
D( s ) = = 2 .
( s + 2) s+2 s + 4s + 4 s+2
2
125
De k1 = 2, k2 = 3, deg[det D(s)] = 5 = k1 + k2 , podemos ver que
D(s) es reducida por columnas.
Tenemos que
s
1
0 − 1 s 2 0 0 0 − 4 − 5 − 2
D( s) = 0 s 3 + 4 4 s
2
1 0 0 1 2
s
Dhc S (s) Dlc
1
(s)
s
1
1 0 0 0 0
N (s) = s
2
− 1 0 1 0 0
s
N lc
1
(s)
126
−1 0 1 0 0 − 4 − 5 − 2 4 4 0 1 2
Dhc Dlc = = .
− 1 0 4 4 0 1 2 0 0 4 5 2
− 4 − 4 0 − 1 − 2
1 0 0 0 0
= 0 0 − 4 − 5 − 2
0 0 1 0 0
0 0 0 1 0
127
1 0 1
0 0 0
−1
0 1
Bc = B0 Dhc = 1 = − 1 0 ,
− 1 0
0 0 0
0 0 0
1 0 0 0 0
Cc = N lc = ,
− 1 0 1 0 0
128
Algunas propiedades de la forma controlador ( Ac , Bc , Cc ) son
las siguientes:
1. La representación es controlable, pero no necesariamente
observable.
sI − Ac 0 I n 0
2. Las matrices y tienen la
0 Im 0 D( s )
−1
misma forma de Smith y det( sI − Ac ) = (det Dhc ) det D( s).
sI − Ac Bc I n 0
3. Las matrices y tienen la
− Cc 0 0 N ( s)
129
La forma controlador ( Ac , Bc , Cc ) no es llamada “canónica”
por lo siguiente:
Para sistemas escalares, a la función de transferencia
H(s)=b(s)/a(s) le podemos siempre asignar una forma controla-
dor única de orden n = deg a( s), pero lo análogo no sucede para
sistemas multivariables.
Dada una factorización polinomial derecha H ( s) = N ( s) D −1 ( s),
podemos obtener una forma controlador ( Ac , Bc , Cc ) de orden
n = deg[det D( s)]. Sin embargo, dada otra factorización derecha
−1
H ( s ) = N ( s ) D ( s ), donde
N (s) = N (s)U (s), D(s) = D(s)U (s), U (s) unimodular
podemos obtener otra forma controlador ( Ac , B c , C c ) de orden
n, pero diferente de ( Ac , Bc , Cc ).
130
Ejemplo 4.3. Para la matriz de transferencia H(s) y la
factorización polinomial N(s), D(s) del ejemplo 4.2, verifique
que si se considera la factorización H ( s ) = N ( s ) D −1 ( s ), donde
1 2s
D( s ) = D( s ) , N ( s) = N ( s)U ( s ),
0 2
U (s)
131
Siguiendo un procedimiento similar a la demostración del
Teorema 4.1, se puede obtener una representación en espacio de
estado en forma observador ( Ao , Bo , Co ) de una matriz de
transferencia H(s) a partir de una factorización polinomial
−1
izquierda H ( s ) = DL ( s ) N L ( s ), donde DL (s) es reducida por
filas, y el orden de la representación es n = deg[det DL ( s)].
132
4.3 Transformaciones de similitud
133
Recordatorio de definición:
Se dice que dos representaciones en espacio de estado ( A, B, C )
y ( A, B, C ) son similares (o que están relacionadas por una
transformación de similitud) si existe una matriz no singular T
tal que
A = T −1 AT , B = T −1 B, C = CT .
134
Recordatorio del caso escalar:
Sea ( A, b, c) un sistema escalar controlable. Si se define
T = C = b Ab An −1b
entonces la representación ( A, b, c), con
A = T −1 AT , b = T −1b, c = cT
está en la forma canónica de controlabilidad.
135
Lo anterior, puede verse de:
b1
b 2
b = T b = t1 t2 tn = b1t1 + b 2t 2 + + b ntn
b
n
136
De A = T −1 AT AT = T A,
y de la relación anterior, vista por columnas
Ati = a1,i t1 + a 2,i t 2 + + a n ,i t n , i = 1, , n.
137
Entonces tenemos
0
1
Ab = b Ab A2b An −1b
0
0
0 0 0 − an
1
− an −1
A2b = b A b A b 1 0
Ab 2 n −1
A = 0 1 = Aco
0
0 0 1 − a1
− an
Anb = b Ab A b A b
2 n −1
− a2
− a1
138
Pasando ahora a sistemas multivariables, suponga que el sistema
( A, B, C ) es controlable, y que se quiere llevar a la forma de
controlabilidad, donde
0 0 * * * 1
1 0 * * * 0
0 1 * * * 0
Aco = * *
*, Bco = .
* * *
* * 0 * 1
* * 1 * 0
139
Sabemos que
rango C = rango B AB An −1 B = n
140
Independientemente de cómo se escojan estos vectores, la forma
de controlabilidad se obtiene si los vectores escogidos se
agrupan en cadenas de la siguiente forma
T = b1 Ab1 Ar1 −1b1 b2 Ar2 −1b2 bq A q bq
r −1
donde bi es la i-ésima columna de B, y ri
q
(i = 1,, q, q m, ri = n), son enteros positivos que
i =1
corresponden a las dimensiones de los bloques de Aco y Bco .
Lo anterior se sigue de que la i-ésima columna de T −1 AT son los
coeficientes de la representación del vector Ati , i = 1,, n, en
la base {t1 ,, tn }. De manera similar, la i-ésima columna de T −1B
son los coeficientes de la representación del vector
bi , i = 1,, m, en la base {t1 ,, tn }.
141
Un primer procedimiento (Esquema I) para escoger los vectores
de la base sería tomar los vectores b1 , Ab1 ,, Al1−1b1 , hasta que
l
encontremos que A 1 b1 es linealmente dependiente de los
vectores anteriores (obviamente, en este caso los vectores
Al1+1b1 , Al1+2b1 ,, también son linealmente dependientes del
conjunto anterior).
l1−1
Si 1 l n, b
y 2 es linealmente independiente de 1 1{b , Ab , , A b1},
se toman los vectores b2 , Ab2 ,, Al2 −1b2 , hasta que se complete
la base de n vectores, o hasta que Al2 b2 sea linealmente
dependiente de todos los vectores anteriores
{b1 ,, Al1−1b1 , b2 ,, Al2 −1b2 }.
142
Se continua este procedimiento con b3 ,, hasta que se
encuentran n vectores linealmente independientes y se colocan
como columnas en la matriz T en cadenas, de la siguiente forma
T = b1
l −1
Ab1 Al1 −1b1 b2 Al2 −1b2 bq A q bq
q
li = n.
i =1
En este Esquema I:
• La tendencia es tener pocas cadenas de gran longitud en la
matriz T.
• Depende fuertemente del orden de las entradas.
• Algunas entradas pueden no estar presentes en la matriz T.
143
Un segundo procedimiento (Esquema II) para escoger los
vectores de la base es el siguiente: Tómense primero los vec-
tores b1 , b2 ,, bm (si alguno de ellos es linealmente dependiente
de los anteriores se descarta), después los vectores
Ab1 , Ab2 ,, Abm , descartando los que sean linealmente depen-
dientes de todos los anteriores, y así sucesivamente hasta que se
encuentren n vectores linealmente independientes.
Los vectores obtenidos se agrupan en cadenas en la matriz T
T = b1 Ab1 Ak1 −1b1 b2 Ak2 −1b2 bm Akm −1bm
m
k
i =1
i = n.
145
Transformación a la forma controlador
Determinar una matriz de transformación T para llevar un
sistema multivariable controlable a la forma controlador es más
complicado que encontrar una matriz de transformación para
llevarlo a la forma de controlabilidad.
A continuación se presenta un procedimiento para llevar un
sistema a la forma controlador, con tamaño de los bloques
diagonales de Ac igual a los índices de controlabilidad del
sistema.
146
Primero, sean {k1 ,, km } los índices de controlabilidad del
sistema, y determínense las relaciones de dependencia de los
vectores Aki bi , i = 1,, m, en la base
{b1 ,, Ak1−1b1 ,, bm ,, Akm −1bm }.
k
Para la relación de dependencia para A 1b1 , colóquense todos
los términos que contienen potencias de A del lado izquierdo,
los términos que no contienen potencias de A del lado derecho,
y factorice A por la izquierda, esto es,
A * = *
e1,k1
147
Realice lo mismo para el vector e1,k1 , esto es, coloque todos los
términos que contienen potencias de A del lado izquierdo y
factorice A por la izquierda
A * = *
e1,k1 −1
148
Después considerando la relación de dependencia del vector Ak2 b2
en la base, se aplica el procedimiento anterior, y se obtienen
otros k2 vectores {e21 ,, e2,k2 }.
m
Continuando de manera similar, encontramos un total de ki = n
i =1
vectores, que usaremos como base.
149
4.4 Representaciones mínimas y
factorizaciones coprimas
150
Lema 4.3. La forma controlador ( Ac , Bc , Cc ) de orden n de
H ( s) = N ( s) D −1 ( s), con n=deg[det D(s)], es observable si y solo
si N(s) y D(s) son coprimas derechas.
151
Teorema 4.4. El grado del determinante de la matriz denomi-
nador de cualquier factorización coprima derecha de H(s) es
igual al grado del determinante de la matriz denominador de
cualquier factorización coprima izquierda de H(s).
152
5. Propiedades de matrices
racionales
153
5.1 Forma de Smith-McMillan
1 ( s) r ( s)
diag ( s ) ,, ( s ) ( 0)
U1 ( s ) H ( s )U 2 ( s ) = M ( s ) = 1 r
(0)
( 0)
154
donde
• { i ( s), i ( s)}, i = 1,, r , son polinomios mónicos coprimos,
• i ( s) | i+1 ( s), i = 1,, r − 1,
• i+1 ( s) | i ( s), i = 1,, r − 1.
155
Demostración. Escríbase H(s) como H(s)=N(s)/d(s), donde d(s)
es el mínimo común múltiplo mónico de los denominadores de
H(s) y N(s)=d(s)H(s) es una matriz polinomial.
Entonces, existen matrices unimodulares U1 ( s) y U 2 ( s) tal que
156
Sean
i ( s) i ( s)
= , i = 1,, r ,
d ( s) i ( s)
157
5.2 Forma de Smith-McMillan al infinito
158
Se define el grado de una función racional propia
b( s )
h( s ) = p (s)
a( s)
(también conocido como grado relativo), como
deg p h( s) := deg a( s) − deg b( s).
159
Las unidades en el anillo p (s ) son aquellas funciones
racionales propias u(s), para las cuales existe v( s) p ( s) tal
que u(s)v(s)=1. Estas unidades se conocen como funciones
racionales bipropias.
160
Considere ahora el conjunto de matrices racionales propias. El
mm
conjunto p (s ) de matrices racionales propias cuadradas es
un anillo no conmutativo.
mm
Las unidades en p (s ) son aquellas matrices racionales
propias no singulares, cuya inversa también es racional propia, y
se conocen como matrices bipropias, o matrices
p (s) - unimodulares.
161
Se definen las siguientes operaciones elementales por filas
sobre una matriz racional propia H(s) en el anillo p (s) :
162
Cualquier conjunto de operaciones elementales por filas sobre
una matriz H(s) en p (s ) es equivalente a multiplicar por la
izquierda a H(s) por una matriz bipropia B(s). La matriz bipropia
B(s) se obtiene realizando sobre la matriz identidad las mismas
operaciones por filas que se realizaron sobre H(s).
De manera análoga, cualquier conjunto de operaciones elementa-
les por columnas sobre H(s) es equivalente a multiplicar por la
derecha a H(s) por una matriz bipropia B(s).
163
pm
Teorema 5.2. Sea H ( s) p ( s) una matriz racional propia
de rango r min{ p, m}. Entonces existen matrices bipropias
B1 ( s), B2 ( s), y una matriz racional propia única M (s),
conocida como la forma de Smith-McMillan al infinito de
H(s), tal que
1 ,, 1
diag n1 nr
( 0)
B1 ( s ) H ( s ) B2 ( s ) = M ( s ) = s s
( 0) (0)
164
Demostración. La demostración es por construcción. La matriz
M (s) se obtiene realizando operaciones elementales por filas y
por columnas sobre H(s) en p (s ). El procedimiento es análogo
(con los cambios adecuados) al que se utiliza para obtener la
forma de Smith de una matriz polinomial.
165
Ejemplo 5.1. Encuentre la forma de Smith-McMillan al infinito
de la matriz
s +1
0
( s + 2) 2
H (s) = .
1 2( s + 1)
2
s + 1 ( s + 2 )( s + 3)
166
1 2( s + 1) 1
0
s +1 s ( s + 2)( s + 3) 2 2 s ( s + 1) s
c1 → c1 c2 → c2 − c
s s +1 ( s + 2)( s + 3) 2 1
s +1
0 0
( s + 2) 2
( s + 2) 2
1
0
( s + 2) 2 s
f2 → f2 = M ( s ).
s ( s + 1) 1
0 s
167
Ejemplo 5.2. Encuentre la forma de Smith-McMillan al infinito
de la matriz
s −1 ( s + 8) 2
s3 0
( s − 2) 2 ( s + 4)
H ( s) = .
1 s +1
s ( s + 1) 2 s5
0
Tenemos que
s −1 ( s + 8) 2 ( s + 8) 2 s −1
s3 0 0
( s − 2) 2 ( s + 4) ( s − 2) 2 ( s + 4) s3
c1 c3
1 s +1 s +1 1
s ( s + 1) 2 s5
0 0
s5 s ( s + 1) 2
168
1 s −1 1
0 0 0
( s − 2) 2 ( s + 4) s s3 s − 1 s
c3 → c3 − 2 c1
c1 → c1
s ( s + 8) 2 s +1 1 s s +1 1
0 s5 s ( s + 1) 2 0 s5 s ( s + 1) 2
1 1
s 0 0 0 0
( s + 1) 2 s
c2 c3 c2 → c2
s + 1
2
1 s 1 s + 1
0 s ( s + 1) 2 s 5 0 s 5
s3
1
0 0
( s + 1) s
c3 → c3 − 2 c2 = M ( s ).
s 1
0 s3
0
169
6. Polos y ceros de sistemas
multivariables
170
6.1 Polos y ceros finitos
171
Sea H(s) la matriz de transferencia del sistema ( A, B, C ) y
1 ( s) r (s)
diag ( s ) ,, ( s ) 0
U1 ( s ) H ( s )U 2 ( s ) = M ( s ) = 1 r
0
0
la forma de Smith-McMillan de H(s).
Se definen los ceros del sistema (ceros de transmisión) como
las raíces de los polinomios numeradores 1 (s),, r (s), en la
forma de Smith-McMillan de H(s), y se definen los polos del
sistema como las raíces de los polinomios denominadores
1 (s),, r (s).
172
Lema 6.1. El orden de una representación mínima ( A, B, C )
de la matriz de transferencia H(s) es igual a
r
deg i ( s )
i =1
173
Relación de polos y ceros con factorizaciones coprimas
Lema 6.2. Sean {N1 (s), D1 (s)} y {N 2 (s), D2 (s)} factorizaciones
coprimas derechas de H(s). Entonces, existe una matriz
unimodular U(s) tal que
D2 ( s) = D1 (s)U (s), N 2 ( s) = N1 (s)U (s).
174
y suponga que {N1 ( s), D1 ( s)} es otra factorización coprima
derecha de H(s). Del Lema 6.2 tenemos que existe una matriz
unimodular U(s) tal que
N1 ( s) = N 0 ( s)U ( s) = U1−1 ( s) E ( s)U ( s).
175
Con respecto a los denominadores, tenemos que existe una
matriz unimodular U(s) tal que
D1 ( s) = D0 ( s)U ( s) = U 2 ( s)R ( s)U ( s).
I m−r 0
0 .
diag{ r ( s ),, 1 ( s )}
176
De manera análoga, la forma de Smith de cualquier denomina-
dor izquierdo de factorizaciones coprimas de H(s) es la matriz
I p −r 0
0 .
diag{ r ( s ),, 1 ( s )}
177
De los 2 resultados anteriores se sigue que:
• Los ceros de H(s) son las raíces de los polinomios invariantes
de N(s), donde N(s) es el numerador de cualquier factorización
coprima (izquierda o derecha) de H(s).
• Los polos de H(s) son las raíces del determinante de D(s),
donde D(s) es el denominador de cualquier factorización
coprima (izquierda o derecha) de H(s).
178
Relación de polos y ceros con representaciones mínimas
Sea ( A, B, C ) una representación mínima de H ( s) = N ( s) D −1 ( s),
con N(s) y D(s) coprimas derechas. De la representación en
forma controlador, sabemos que las matrices
sI − Ac Bc I n 0
−C y
c 0 0 N ( s)
179
Dado que relaciones de equivalencia y transformaciones de
similitud no afectan la forma de Smith, entonces
sI − A B sI − Ac Bc I n 0 I n 0
−C .
0 − Cc 0 0 N ( s) 0 E ( s)
180
En el caso de los polos, sabemos que las matrices
sI − Ac 0 I n 0
0 y
Im 0 D( s)
sI − A 0 sI − Ac 0 I n 0 I n 0
0 .
Im 0 Im 0 D( s ) 0 R ( s )
Por lo tanto, los polos del sistema son las raíces de det( sI − A).
181
Interpretación dinámica de polos y ceros finitos
Teorema 6.1. Sea ( A, B, C ) una representación mínima de
H(s). Si es un cero de H(s), entonces existe una condición
t
inicial x(0) = x0 y un vector de entradas u (t ) = u0e , t 0,
donde u0 es un vector constante, tal que las salidas del sistema
son cero y (t ) = 0, t 0.
sI − A B
Si es un cero, entonces la matriz pierde rango
− C 0
en s = .
− x0
Es decir, existe un vector 0 tal que
u0
I − A B − x0
−C = 0.
0 u0
182
Teorema 6.2. Sea ( A, B, C ) una representación mínima de
H(s). El escalar es un polo de H(s) si y solo si existe un
estado inicial x(0) tal que la respuesta a entrada cero u(t)=0 del
t
sistema es y(t ) = re , donde r es un vector diferente de cero.
Demostración. Similar al caso de sistemas escalares.
Para el polo , la condición inicial es x(0)=v, donde v es un
vector propio de A asociado a , y r=cv.
183
Otras clasificaciones de ceros
Suponga que ( A, B, C ) es una representación no necesariamen-
te mínima de H(s).
Los ceros de la matriz del sistema
sI − A B
P( s) = ,
−C 0
es decir, las raíces de los polinomios invariantes de esta matriz,
son conocidos como ceros invariantes del sistema.
Los ceros de transmisión son un subconjunto de los ceros
invariantes, y ambos conjuntos son iguales si la representación
( A, B, C ) es mínima.
184
Los ceros invariantes que no son ceros de transmisión pertenecen
a un conjunto conocido como ceros de desacoplamiento.
Los ceros de desacoplamiento están asociados a una evolución
de tipo exponencial de las variables de estado, la cual se
encuentra desacoplada de la entrada o salida del sistema.
185
Los ceros de desacoplamiento de salida son los valores a los
cuales pierde rango la matriz
sI − A
C .
186
Los ceros de desacoplamiento de entrada son los valores a los
cuales pierde rango la matriz
sI − A B.
187
Si ambas matrices
sI − A
C y sI − A B
pierden rango para s = , entonces es un cero de desacopla-
miento de entrada-salida.
188
La relación entre estos diferentes tipos de ceros se muestra
esquemáticamente en la siguiente figura.
189
6.2 Ceros al infinito
190
Lema 6.5. Si una matriz racional H(s) está relacionada con otra
matriz racional R(s) mediante H(s)=P(s)R(s)Q(s), donde P(s) y
Q(s) son matrices racionales cuadradas no singulares, entonces
H(s) y R(s) tienen la misma forma de Smith-McMillan en s = s0
(incluyendo s0 = ), si P(s) y Q(s) no tienen polos ni ceros en
ese punto.
Esto significa que se puede obtener la información al infinito de
H(s) mediante operaciones elementales por filas y por columnas,
si las matrices que representan estas operaciones no tienen polos
ni ceros al infinito, esto es, son matrices bipropias.
Entonces, la estructura al infinito del sistema se define a partir de
la forma de Smith-McMillan al infinito de H(s).
191
Sea H(s) la matriz de transferencia del sistema ( A, B, C ) y
M (s) la forma de Smith-McMillan al infinito de H(s), esto es,
existen matrices bipropias B1 ( s), B2 ( s), tal que
1 1
diag n1 , , nr
( 0)
B1 ( s ) H ( s ) B2 ( s ) = M ( s ) = s s
( 0) (0)
192
Otra forma de estudiar la estructura al infinito de H(s) es hacer
el cambio de variables
1
s→
y obtener la forma de Smith-McMillan de H (1 / ). Entonces, la
información de H(s) en s = , corresponde a la información
de H (1 / ) en = 0.
193
Interpretación dinámica de los ceros al infinito
En sistemas escalares, el orden del cero al infinito de la función
de transferencia del sistema corresponde al número de veces
que se tiene que derivar la salida y(t), para que aparezca
explicitamente la entrada u(t).
En sistemas multivariables, los ordenes de los ceros al infinito
del sistema corresponden al número de veces que hay que
derivar el vector de salidas, para que aparezca explicitamente
un componente del vector de entradas, linealmente indepen-
diente de los anteriores.
194
7. Retroalimentación de
estado
195
7.1 Asignación de la dinámica del sistema
196
El sistema retroalimentado está dado por
•
x(t ) = ( A − BK ) x(t ) + Bv(t )
y (t ) = Cx (t ).
197
Teorema 7.1. Sea ( A, B, C ) un sistema multivariable, y (s)
un polinomio cualquiera de grado n (donde n es el orden del
sistema). Entonces, existe una retroalimentación de estado
u (t ) = − Kx (t ) + v(t )
tal que (s) es el polinomio característico del sistema en lazo
cerrado, esto es,
( s) = det( sI − A + BK ),
si y solo si el sistema es controlable.
198
Método a partir de la forma controlador
Sea ( A, B, C ) un sistema controlable.
1) Encuentre primeramente una matriz de transformación T
que lleve el sistema ( A, B, C ) a la forma controlador
( Ac , Bc , Cc ) para el Esquema II, esto es
Ac = T −1 AT ,
Bc = T −1 B,
Cc = CT .
199
2) Encuentre una matriz constante G (de dimensiones m m)
tal que
1
0
Bc G = B0 = block diag , ki 1, i = 1,, m.
0
200
~ , se puede
Es evidente que con una elección adecuada de K
hacer que la matriz
A −B K = A −B K ~
c c c c 0
201
Continuando con el procedimiento, a continuación se indica
como encontrar K~ tal que la matriz Ac − Bc K c tenga un solo
bloque en forma compañera superior, y como polinomio
característico un polinomio cualquiera (s ).
~
4) Escoja las filas 2,, m, de K , de manera tal que los
elementos en las filas {( k1 + 1),, (k1 + + km−1 + 1)} de la matriz
Ac − B0 K~ sean cero, excepto los elementos
(k1 + 1, k1 ), (k1 + k2 + 1, k1 + k2 ),, (k1 + + km−1 + 1, k1 + + km−1 )
que deben ser iguales a 1.
202
5) Escoja la primera fila de K~ de manera tal que la primera fila
~
de Ac − B0 K sea el vector
− 1 −2 −n
donde
( s) = s n + 1s n−1 + + n .
203
6) Por lo tanto, una matriz de retroalimentación K que asigna el
polinomio (s) en lazo cerrado para el sistema ( A, B, C ) está
dada por
K = K cT −1
ya que
( s ) = det( sI − Ac + Bc K c )
= det( sI − T −1 AT + T −1 BK c )
= det[T −1 ( sI − A + BK cT −1 )T ]
= det( sI − A + BK ).
204
Ejemplo 7.1. Para el sistema controlable ( A, B, C ), donde
0 0 1 0 1 0
1 0 2 0 0 0
A= , B= ,
0 1 3 1 0 0
0 0 − 21 5 0 1
1 0 0 0
C=
0 0 1 0
205
Para este sistema, tenemos que la transformación que lo lleva a
la forma controlador para el Esquema II está dada por
1 0 0 − 2
0 1 0 0
T = b1 Ab1 − b2 b2 Ab2 − 2b1 − 8b2 = ,
0 0 0 1
0 − 1 1 − 3
por lo que
0 0 2 1 1 0
1 0 0 0 0 0
−1
Ac = T AT = , Bc = T −1 B = .
1 − 5 8 − 36 0 1
0 0 0 0
0 1
206
Como queremos que
0 0 2 1 k~11 ~
k12
~
k13
~
k14
1 0 0 0 0 0 0 0
Ac − B0 K =
~ − ~ ~ ~ ~
1 − 5 8 − 36 k 21 k 22 k 23 k 24
0
0 1 0 0 0 0 0
− 1 − 2 − 3 − 4 − 10 − 35 − 50 − 24
1 0 0 0 1 0 0 0
= =
0 1 0 0 0 1 0 0
0 0
0 1 0 0 1 0
entonces
~ 10 35 52 25
K = = Kc .
1 − 6 8 − 36
207
Por consiguiente
− 10 − 87 − 200 − 52
1 0 2 0
A − BK =
0 1 3 1
−1 − 2 − −
11 3
208
Método directo
El polinomio característico del sistema en lazo cerrado está
dado por
det( sI − A + BK ) = det( sI − A) det[ I n + ( sI − A−1 ) BK ].
209
Por lo tanto, si el par ( A, Bq) = ( A, b~ ) es controlable, el
problema se ha reducido al caso escalar, y el vector t puede
encontrarse por alguna de las fórmulas de ganancias para
sistemas escalares (fórmulas de Bass-Gura o Ackermann).
Un problema que surge en este punto es: Si (A,B) es controlable,
¿existe siempre un vector q tal que (A,Bq) es controlable?
La respuesta es no en general, como se muestra a continuación.
Teorema 7.2. El par (A,B) es no controlable si el número de
entradas del sistema (número de columnas de B=m) es menor
que el número de polinomios invariantes diferentes de 1 de la
matriz (sI-A).
210
Del teorema anterior, si el par (A,B) es controlable, entonces
existe un vector q tal que (A,Bq) es controlable solo si la matriz
(sI-A) tiene un solo polinomio invariante diferente de 1.
Si esto sucede, se dice que (sI-A) es una matriz simple y que la
matriz A es una matriz cíclica.
211
Las siguientes afirmaciones son equivalentes:
i) La matriz A es cíclica.
ii) La forma de Smith de (sI-A) tienen un solo polinomio
invariante diferente de 1.
iii) El polinomio característico de A es igual a su polinomio
mínimo.
iv) La forma canónica racional de A tiene un solo bloque.
v) La forma de Jordan de A tiene un solo bloque de Jordan
asociado a cada valor propio diferente de A.
vi) La multiplicidad geométrica de cualquier valor propio de A
es igual a 1.
212
Teorema 7.3. Si el par (A,B) es controlable y A es cíclica,
entonces existe un vector q tal que el par (A,Bq) es controlable.
( ~, Bq)
A
2) Encontrar un vector q tal que el par sea controlable.
3) Aplicar las fórmulas del caso escalar, para encontrar un
( s ) = det( sI − ~ + Bqt ).
A
vector t tal que
4) La retroalimentación a aplicar al sistema ( A, B, C ) para
asignar (s ) es entonces K = K1 + K 2 , donde K 2 = qt.
213
Ejemplo 7.2. Utilizando el método directo, para el sistema
( A, B, C ) del ejemplo anterior
0 0 1 0 1 0
1 0 2 0 0 0
A= , B= ,
0 1 3 1 0 0
0 0 − 21 5 0 1
1 0 0 0
C=
0 0 1 0
214
Se puede verificar que la matriz A es cíclica, entonces K1 = 0,
~
y A = A.
1 ~
Con el vector q = , se puede verificar que el par ( A, b ), es
0
controlable, donde
1
0
~
b = Bq = .
0
0
215
Por lo tanto
18 145 589 116
K = qt = ,
0 0 0 0
216
Ejemplo 7.3. Para el sistema controlable
2 8 0 6 12 0 1
1 0 0 0 0 0 0
A = − 25 − 50 − 10 − 53 − 74, B = 1 − 5
0 0 1 0 0 0 0
0 0 0 1 0 0 0
donde
det( sI − A) = ( s + 1) 2 ( s + 2)3 ,
encuentre una retroalimentación de estado utilizando el método
directo, tal que el polinomio característico del sistema en lazo
cerrado sea
(s) = (s + 1)5 = s 5 + 5s 4 + 10s 3 + 10s 2 + 5s + 1.
217
Puede verse de
1
1
Smith ( sI − A ) = 1
s + 2
( s + 1) ( s + 2)
2 2
218
Necesitamos encontrar una retroalimentación preliminar K1
para hacer cíclica a A. Por ejemplo,
2 8 0 6 12 2 8 0 6 12 0 0 0 0 0
1 0 0 0 0 1 0 0 0 0
~
A = A − BK1 = − 25 − 50 − 10 − 53 − 74 − − 25 − 51 − 10 − 53 − 74 = 0 1 0 0 0
0 0 1 0 0 0 0 1 0 0
0 0 0 1 0 0 0 0 1 0
2 8 0 6 12
K~1 =
− 25 − 51 − 10 − 53 − 74
5 1 ~ − 15 − 11 − 10 − 23 − 14
K1 = GK~1 = K1 = 2 ,
1 0 8 0 6 12
~
A
donde es claramente cíclica.
219
5
Con el vector q= se puede ver que
1
1
0
~
b = Bq = 0
0
0
~, b~ ) es controlable (de hecho, está en la forma
y que el par ( A
canónica controlador).
Para el polinomio (s ) deseado, tenemos que
t = 5 10 10 5 1
y
25 50 50 25 5
K 2 = qt = .
5 10 10 5 1
220
Por lo tanto
10 39 40 2 − 9
K = K1 + K 2 = ,
7 18 10 11 13
− 5 − 10 − 10 − 5 − 1
1 0 0 0 0
A − BK = 0 1 0 0 0
0 0 1 0 0
0 0 0 1 0
221
Enfoque de función de transferencia
Sea H(s) la matriz de transferencia del sistema controlable
( A, B, C ).
222
Aplicando la retroalimentación de estado
U ( s) = − K c x( s) + V ( s) = − K c ( s) ( s) + V ( s)
tenemos que
( s) = D −1 ( s)U ( s ) = D −1 ( s)[− K c ( s ) ( s) + V ( s )]
[ I + D −1 ( s ) K c ( s )] ( s ) = D −1 ( s )V ( s )
de donde
( s ) = [ I + D −1 ( s ) K c ( s )]−1 D −1 ( s )V ( s )
= [ D( s ) + K c ( s )]−1V ( s ).
223
Como Y ( s) = N ( s) ( s), entonces
Y ( s) = N ( s)[ D( s) + K c ( s)]−1V ( s).
224
Escribiendo D(s) como
D( s) = Dhc S ( s) + D lc ( s)
donde
s k −1 s k −1
1 m
S ( s) = diag{s ki }, y ( s ) = block diag ,
s s
1 1
225
De lo anterior, podemos ver que la retroalimentación de estado:
• No modifica la matriz numerador N(s).
• Puede modificar la matriz Dlc .
• No modifica los grados por columnas de D(s), los cuales
corresponden a los índices de controlabilidad del sistema.
226
7.2 Teorema de control de estructura de Rosenbrock
227
Sea
1 ( s )
m ( s )
la forma de Smith de D(s), donde
i ( s) | i+1 ( s), i = 1,, m − 1.
228
Teorema 7.3. Sean {1 ( s),, m ( s)} los polinomios invariantes
de D(s), con D(s) reducida por columnas, y suponga que los
grados por columnas de D(s) están ordenados de manera no
decreciente, esto es, k1 k2 km .
Entonces, se cumple que
r r
deg i ( s) ki , r = 1,, m,
i =1 i =1
229
Teorema 7.4. (teorema de control de estructura)
Sea el par (A,B) controlable, con índices de controlabilidad
k1 k2 km , {ysean
1 ( s ),, m ( s )} un conjunto
de polinomios mónicos que satisfacen
m
i ( s ) | i+1 ( s ), y deg i ( s ) = n.
i =1
230
8. Invariantes de sistemas
multivariables
231
8.1 Forma canónica de Brunovsky
232
0
1
, k i k i , i = 1, , m.
A = T −1 ( A − BK )T = block diag
1 0
1
0
B = T −1 BG = block diag , k i 1, i = 1, , m .
0
233
8.2 El interactor del sistema
234
pm
Sea H ( s) p ( s) la matriz de transferencia del sistema
( A, B, C ), con H ( s) = p.
rango Existe una matriz
( s) pp m [ s],
bripropia B(s) y una matriz polinomial triangularinferior
conocida como el interactor del sistema, tal que
H ( s) B( s) = −1 ( s) 0
y (s) tiene la forma
s f1 0
( s) =
p ,1 ( s ) s
fp
235
8.3 Forma canónica de Morse
236
A4
A3
AM = T −1 ( A − BK − FC )T =
A2
A1
B4 0
0 0
BM = T −1 BG =
0 B2
0 0
C4 0 0 0
C M = HCT =
0 C3 0 0
237
donde
0 1
, n'i n'i , i = 1,, l4
A4 = block diag
1
0
0 1
, i i , i = 1,, l3
A3 = block diag
1
0
0
238
0 1
, i i , i = 1,, l2
A2 = block diag
1
0
A1 = block diag J ,, J
1 l1
239
0
0
B4 = block diag , n'i 1, i = 1,, l4 ,
1
0
0
B2 = block diag , i 1, i = 1,, l2 ,
1
240
Las listas de Morse del sistema ( A, B, C ) están relacionadas
con los invariantes de Kronecker de la matriz del sistema
sI − A − B
P( s) =
C 0
de la siguiente forma:
• la lista I1 son los polinomios invariantes de P(s), cuyas raíces
son los ceros invariantes del sistema,
• la lista I 2 son los índices mínimos por columnas de P(s),
• la lista I 3 son los índices mínimos por filas de P(s),
• la lista I 4 son los ordenes de los ceros al infinito de P(s).
241