Está en la página 1de 241

CINVESTAV-IPN

Unidad Guadalajara

Sistemas Lineales II

Curso impartido por: Dr. Javier Ruiz


jruiz@gdl.cinvestav.mx

Cuatrimestre: Enero-Abril de 2013

1
Objetivos generales del curso:

• Que el alumno aprenda la representación de sistemas lineales


multivariables en espacio de estado y analice las características
básicas de esta representación, como controlabilidad,
observabilidad y estabilidad.
• Que el alumno aprenda la descripción en matrices
polinomiales de sistemas lineales multivariables.
• Que el alumno sepa diseñar control por retroalimentación de
estado para sistemas lineales multivariables.

2
Programa del curso

1. Introducción
2. Controlabilidad y observabilidad
2.1 Controlabilidad
2.2 Observabilidad
2.3 Transformaciones de similitud y representación de
sistemas no controlables/no observables
2.4 Representaciones mínimas
2.5 Pruebas PBH para controlabilidad y observabilidad

3
3. Propiedades de matrices polinomiales
3.1 Matrices unimodulares
3.2 Equivalencia de matrices
3.2.1 Forma de Hermite
3.2.2 Forma de Smith
3.3 Coprimicidad de matrices
3.4 Matrices reducidas por columnas
3.5 Pencils de matrices

4
4. Descripción de sistemas multivariables en matrices
polinomiales
4.1 Descripciones polinomiales de matrices de
transferencia
4.2 Representación de matrices de transferencia en
espacio de estado
4.3 Transformaciones de similitud
4.4 Representaciones mínimas y factorizaciones coprimas
5. Propiedades de matrices racionales
5.1 Forma de Smith-McMillan
5.2 Forma de Smith-McMillan al infinito

5
6. Polos y ceros de sistemas multivariables
6.1 Polos y ceros finitos
6.2 Ceros al infinito
7. Retroalimentación de estado
7.1 Asignación de la dinámica del sistema
7.2 Teorema de control de estructura de Rosenbrock
8. Invariantes de sistemas multivariables
8.1 Forma canónica de Brunovsky
8.2 El interactor del sistema
8.3 Listas de Morse

6
Bibliografía
• T. Kailath, “Linear Systems”, Prentice Hall, Englewood
Cliffs, N.J., 1980.
• C.T. Chen, “Linear Systems, Theory and Design”, Holt,
Rinehart and Winston, 1984.
• A.I.G. Vardulakis, “Linear Multivariable Control”, John
Wiley & Sons, 1991.
• S. Barnett, “Polynomials and Linear Control Systems”,
Marcel Dekker, 1983.
• F.R. Gantmacher, “Matrix Theory”, Chelsea Publishing Co.,
1959.

7
1. Introducción

8
Sea
 •
( A, B, C )  x(t ) = Ax(t ) + Bu (t )
 y (t ) = Cx (t )

la representación en espacio de estado de un sistema lineal


multivariable con n estados, m entradas y p salidas, donde A, B,
y C son matrices constantes reales, respectivamente, de
dimensiones n  n, n  m, y p  n.

9
Al igual que en el caso escalar, el sistema ( A, B, C ) tiene
asociada una función de transferencia que relaciona las
entradas y las salidas del sistema de acuerdo a
Y ( s) = H ( s)U ( s)
donde la función de transferencia matricial
H ( s) = C ( sI − A) −1 B
llamada también matriz de transferencia (transfer function
matrix), es una matriz racional estrictamente propia, de
dimensiones p  m.

10
El problema de obtener una representación en espacio de
estado de una función de transferencia matricial

Dada una matriz de transferencia H(s), ¿cómo obtener una


representación en espacio de estado ( A, B, C ) y cuáles son las
propiedades de esta representación?

11
Considere, por ejemplo, la siguiente matriz de transferencia de
un sistema con 2 entradas y 2 salidas

 1 1   1 1 
 ( s − 1)( s + 3)  
( s − 1) 2 s 2
− 2s + 1 s 2 + 2s − 3 
H (s) =  = .
 6 s−2   6 s−2 
 −  −
 ( s − 1)( s + 3)
2
( s + 3) 2   s 3 + 5s 2 + 3s − 9 s 2 + 6s + 9 

Un primer intento para obtener una representación en espacio


de estado de H(s), podría ser obteniendo una representación de
cada uno de los elementos de H(s) (por ejemplo, en forma
controlador) y después conectarlas adecuadamente, como se
muestra a continuación.

12
2 − 1  1 
1 0  0 
   
 −2 3   1
 1 0   0 
  
A1 =  −5 −3 9 , B1 =  1 
   
 1 0 0  0 
 0 1 0  0 
   
 − 6 − 9  1
 1 0  0 

0 1 0 1 
C1 =  .
 0 0 −6 1 − 2

13
Observe que en este caso se tiene que el orden de la represen-
tación es igual a la suma de los grados de los denominadores de
todos los elementos de H(s).

Otra forma de obtener una representación en espacio de estado,


es escribir H(s) como
N (s)
H (s) =
d (s)
donde
d ( s) := s r + d1s r −1 +  + d r

es el mínimo común múltiplo de los denominadores de los


elementos de H(s) y N ( s) = d ( s) H ( s) es una matriz polinomial.

14
Denotando N ( s) := N1s r −1 + N 2 s r −2 +  + N r , se puede ver que
( A2 , B2 , C2 ) es otra representación de H(s), con

 − d1 I m − d2 Im − d3 I m  − dr Im  I m 
 I  0
 m   
A2 =  Im , B2 =  0 
   
   
 Im 0   0 

C 2 =  N1 N2 N3  Nr 

donde I m es la matriz identidad de dimensiones m m, y m es


el número de entradas del sistema.

15
Por su semejanza con la forma canónica controlador de
sistemas escalares, a la representación anterior se le llama
forma controlador a bloques.
Observe que el orden de esta representación es rm.

16
En el ejemplo anterior, se tiene que
d ( s ) = ( s − 1) 2 ( s + 3) 2 = s 4 + 4 s 3 − 2 s 2 − 12 s + 9,

 ( s + 3) 2 ( s − 1)( s + 3)   s 2 + 6s + 9 s 2 + 2s − 3 
N (s) = d (s) H (s) =  2
= 
− 6( s − 1) ( s − 2)( s − 1)   − 6s + 6 s − 4s + 5s − 2
3 2

0 0  3  1 1 2  6 2 9 − 3
=  s + 0 − 4 s + − 6 5 s + 6 − 2.
 0 1       
  
    

N1 N2 N3 N4

17
Por lo tanto, la siguiente es una representación de H(s) en
forma controlador a bloques

− 4 I 2 2 I 2 12 I 2 − 9I 2   I2 
 I 0 0 0   0 
A2 =  2 , B2 =  
 0 I2 0 0   0 
 0 0   
 0 I2  0 

C 2 =  N1 N2 N3 N 4 .

18
Con la misma notación introducida, una tercera representación
( A3 , B3 , C3 ) para H(s) sería

 − d1 I p Ip   N1 
 −d I Ip   N2 
 2 p
  
A3 =  − d3 I p  , B3 =  N3 
  I p   
   
 − d r I p 0   Nr 

C3 =  I p 0 0  0 
que por su semejanza con la forma canónica observador de
sistemas escalares, se le llama forma observador a bloques.

19
El orden de esta representación es rp, donde p es el número de
salidas del sistema.
En el ejemplo que se está considerando, la siguiente es una
representación de H(s) en forma observador a bloques

 − 4I 2 I2 0 0  N1 
 2I 0 I2 0  N2 
A3 =  2
, B3 =  
 12 I 2 0 0 I2   N3 
 − 9I 0   
 2 0 0  N4 

C3 =  I2 0 0 0 .

20
Como conclusión de esta sección, se puede ver que obtener una
representación en espacio de estado de una matriz de transfe-
rencia de un sistema multivariable no es un problema sencillo,
o al menos tan evidente como en el caso de sistemas escalares.
Independientemente de que se pueda obtener una representa-
ción de H(s) por alguno de los métodos anteriores (o posible-
mente otros métodos), queda pendiente la cuestión de, ¿cuál es
el orden de una representación mínima de H(s)?
Otro aspecto importante es, ¿cómo definir los polos y los ceros
de sistemas multivariables?

21
Para estudiar estos problemas, se necesita primeramente
introducir los conceptos de controlabilidad, observabilidad,
descripción de matrices de transferencia en matrices polino-
miales, y estudiar las propiedades de matrices polinomiales y
racionales.

22
2. Controlabilidad y
observabilidad

23
2.1 Controlabilidad

El sistema

x(t ) = Ax(t ) + Bu(t ), x(t0 ) = x0
y (t ) = Cx (t )
se dice controlable al tiempo t 0 si existe u(t) (vector de entradas)
que transfiere el estado inicial x(t0 ) al estado x(t1 ) al tiempo t1 ,
donde x(t0 ) y x(t1 ) son puntos cualquiera del espacio de estado.

24
De manera análoga al caso de sistemas escalares, tenemos que

 0 
 
x(t1 ) − e At1 x(0) = B AB  An−1 B   1 
(2.1)
  
 
 n−1 
donde

C = B AB  An−1B

es la matriz de controlabilidad del sistema, de dimensiones


n nm.

25
De (2.1) puede verse que se cumple el siguiente resultado.
Teorema 2.1. El sistema ( A, B, C ) es controlable si y solo si
la matriz de controlabilidad C de dimensiones n nm, es de
rango pleno (rango pleno por filas), esto es, si y solo si
rango C = n.

26
2.2 Observabilidad

El sistema

x(t ) = Ax(t ) + Bu(t ), x(t0 ) = x0
y (t ) = Cx (t )

se dice observable al tiempo t0 , si es posible determinar el


estado inicial x(t0 ) a partir del conocimiento de u(t) (vector de
entradas) y de y(t) (vector de salidas) en un intervalo finito de
tiempo.

27
Siguiendo un procedimiento similar como en el caso de sistemas
escalares de derivar sucesivamente las salidas del sistema,
llegamos a

 y (t )   C   0   u (t ) 
 .      . 
 y ( t )   CA   1
h 0  u ( t ) 
..
 y (t )  =  CA 2  x(t ) +   .. 
 u (t ) (2.2)
     2
h h1  
           
 ( n −1)   n −1     ( n −1) 
y (t )  CA  hn −1  h1 0 u (t )
        
Y(t ) O T U(t )

28
donde

 C 
 CA 
O= 
  
CA n −1 
 
es la matriz de observabilidad del sistema, de dimensiones np  n,
y
hi = CAi−1 B, i = 1,2,

son los parámetros de Markov del sistema, los cuales son


matrices constantes de dimensiones p  m.

29
Por la teoría de ecuaciones lineales, sabemos que a partir de
(2.2) y para t = t0 = 0, se puede determinar la condición inicial
x(0) si y solo si las columnas de la matriz de observabilidad O
son linealmente independientes.
Si esto se cumple, una forma de determinar x(0) es la siguiente:
Primeramente multiplicamos (2.2) por la izquierda por OT

OT Y(0) = OT O x(0) + OT TU(0).

Lema 2.1. La matriz O es de rango pleno por columnas si y


solo si OT O es no singular.

30
Suponiendo que las columnas de O son linealmente indepen-
dientes, y de acuerdo al Lema 2.1, entonces tenemos que

x(0) = (OT O) −1 OT [Y(0) − TU(0)].

Teorema 2.2. El sistema ( A, B, C ) es observable si y solo si


la matriz de observabilidad O de dimensiones np  n, es de
rango pleno (rango pleno por columnas), esto es, si y solo si
rango O = n.

31
2.3 Transformaciones de similitud y representación
de sistemas no controlables/ no observables

Se dice que dos representaciones en espacio de estado ( A, B, C )


y ( A, B, C ) son similares (o que están relacionadas por una
transformación de similitud) si existe una matriz no singular T
tal que
A = T −1 AT , B = T −1 B, C = CT .

Observe que las variables de estado de ambas representaciones


están relacionadas de acuerdo a
x(t ) = T x(t ).

32
Se puede ver que la matriz de transferencia de 2 representacio-
nes similares es la misma
H ( s) = C ( sI − A) −1 B = C ( sI − A) −1 B,
y que las matrices de observabilidad y de controlabilidad están
relacionadas por
C = T −1C
O = OT ,

de donde se ve que los rangos de las matrices de observabilidad


y de controlabilidad se preservan bajo transformaciones de
similitud.

33
Teorema 2.3. (Representación de sistemas no controlables).
Sea ( A, B, C ) un sistema no controlable de orden n, con
rango C ( A, B) = r  n.
Entonces existe una transformación de similitud T, tal que la
representación ( A, B, C ) con A = T −1 AT , B = T −1 B, C = CT
tiene la forma
.      
 .x c  =  Ac A12   x c  +  B c u
 x nc   0 Anc   x nc   0 

 
y = Cc C nc   x c 
 x nc 

34
donde:
1) El subsistema ( Ac , B c , C c ) de orden r es controlable.
2) La matriz de transferencia del subsistema ( Ac , B c , C c ) es
la misma que la del sistema original, esto es

C ( sI − A) −1 B = C c ( sI − Ac ) −1 B c .

35
Teorema 2.4. (Representación de sistemas no observables).
Sea ( A, B, C ) un sistema no observable de orden n, con
rango O(C , A) = q  n.

Entonces existe una transformación de similitud T, tal que la


representación ( A, B, C ) con A = T −1 AT , B = T −1 B, C = CT
tiene la forma
.      
x
.  = 
o A o 0   x o  +  B o u
 x no   A21 Ano   x no   B no 

 
y = Co 0   xo 
 x no 

36
donde
1) El subsistema ( Ao , B o , C o ) de orden q es observable.
2) La matriz de transferencia del subsistema ( Ao , B o , C o ) es
la misma que la del sistema original, esto es
C ( sI − A) −1 B = C o ( sI − Ao ) −1 B o .

37
2.4 Representaciones mínimas

La representación ( A, B, C ) se dice que es una representación


mínima o realización mínima si no existe otra representación
( A1 , B1 , C1 ) de orden menor, y tal que
C ( sI − A) −1 B = C1 ( sI − A1 ) −1 B1.

Teorema 2.5. La representación ( A, B, C ) es mínima si y


solo si es controlable y observable.

38
2.5 Pruebas PBH para controlabilidad y
observabilidad

Teorema 2.6. (Prueba de vectores propios)


1. El par (A,B) es controlable si y solo si no existe un vector
propio izquierdo de A que sea ortogonal a todas las
columnas de B, esto es, si y solo no existe q tal que
qA =  q, y qB = 0.

2. El par (C,A) es observable si y solo si no existe un vector


propio derecho de A que sea ortogonal a todas las filas de C,
esto es, si y solo no existe p tal que
Ap =  p, y Cp = 0.

39
Teorema 2.7. (Prueba de rango)
1. El par (A,B) es controlable si y solo si
rangosI − A B = n para toda s.

2. El par (C,A) es observable si y solo si

 C 
rango   = n para toda s.
 sI − A

40
3. Propiedades de matrices
polinomiales

41
Notación:
 Conjunto de números reales
[s] Conjunto de polinomios en la variable s con
coeficientes reales
(s) Conjunto de funciones racionales
 p (s ) Conjunto de funciones racionales propias
 pm [s ] Conjunto de matrices polinomiales de dimensiones p  m
 pm (s) Conjunto de matrices racionales de dimensiones p  m
 ppm (s ) Conjunto de matrices racionales propias de
dimensiones p  m.

42
3.1 Matrices unimodulares

Una matriz polinomial cuadrada A( s)  mm [ s] se dice singular


si el determinante de A(s) es igual a cero para toda s, y no
singular en caso contrario.
Si A(s) es singular, entonces sus columnas (o filas) son
linealmente dependientes, donde la dependencia lineal es
considerada sobre el campo de las funciones racionales.

43
El rango de una matriz polinomial A( s)   pm [ s] se define
como el número de columnas (o de filas) linealmente indepen-
dientes de A(s), o equivalentemente, A(s) tiene rango r si r es el
más grande de los órdenes de los menores de A(s) que es
diferente de cero.

Una matriz polinomial cuadrada no singular U ( s)   p p [ s]


cuya inversa U −1 ( s) es también polinomial, es conocida como
matriz unimodular.

44
Lema 3.1. La matriz U ( s)   p p [ s] es unimodular si y solo
si el determinante de U(s) es una constante diferente de cero.

Observe que desde un punto de vista algebraico, las matrices


unimodulares son las unidades en el anillo de matrices polino-
miales cuadradas.

45
Sea A( s)   pm [ s] una matriz polinomial cualquiera. Se definen
las siguientes operaciones elementales por filas sobre A(s):

1. Intercambiar de posición la i-ésima y j-ésima filas, represen-


tado como f i  f j .
2. Multiplicar la i-ésima fila por un número real diferente de
cero, representado como f i → w f i , donde w  .
3. Sumar a la i-ésima fila la j-ésima fila, i  j , multiplicada por
un polinomio, representado como f i → f i +  ( s) f j ,
donde  ( s)  [ s].

Operaciones elementales por columnas se definen de manera


análoga.

46
La relación entre operaciones elementales y matrices unimodu-
lares es la siguiente:
Dada A( s)   pm [ s], cualquier conjunto de operaciones
elementales por filas sobre A(s) es equivalente a multiplicar por
la izquierda a A(s) por una matriz unimodular U(s) adecuada.
Para ser más precisos, suponga que en el paso k, con k=1,2,…,
se realiza una operación elemental por filas sobre Ak −1 ( s ),
donde A0 ( s) := A( s), dando como resultado la matriz Ak (s ).
Sea U k (s) la matriz obtenida al realizar sobre U k −1 ( s ) la misma
operación elemental que sobre Ak −1 ( s ), donde U 0 ( s) := I p .
Entonces tenemos que
U k ( s) A( s) = Ak ( s).

47
En otras palabras, U k (s) es la matriz unimodular que es
equivalente al conjunto de operaciones elementales por filas
efectuadas sobre A(s).

En forma análoga, cualquier conjunto de operaciones elementa-


les por columnas sobre A(s) es equivalente a multiplicar por la
derecha a A(s) por una matriz unimodular V(s) adecuada. En
este caso, tendremos que
A( s)Vk ( s) = Ak ( s)
donde Vk (s ) es la matriz obtenida al realizar sobre Vk −1 ( s ) la
misma operación elemental por columnas que sobre Ak −1 ( s ),
donde V0 ( s) := I m .

48
3.2 Equivalencia de matrices

Las matrices polinomiales A( s), B( s)   pm [ s] se dice que son


a) equivalentes por la derecha, b) equivalentes por la izquierda,
c) equivalentes, si existen matrices unimodulares U ( s)   p p [ s]
y V ( s)  mm [ s] tal que
a) A(s)=B(s)V(s)
b) A(s)=U(s)B(s)
c) A(s)=U(s)B(s)V(s).

Se puede ver que estas relaciones son relaciones de equivalencia.

49
Cualquier matriz A( s)   [ s] puede ser “reducida” mediante
pm

operaciones elementales a una forma estándar, que de hecho es


una forma canónica para A(s).
Las relaciones de equivalencia para A(s) determinan las
siguientes formas canónicas:

a) equivalencia por la derecha → forma de Hermite por


columnas
b) equivalencia por la izquierda → forma de Hermite por
filas
c) equivalencia → forma de Smith.

50
3.2.1 Forma de Hermite

Teorema 3.1. Sea A( s)   pm [ s] una matriz polinomial de


rango r, con r  min ( p, m), y considere por simplicidad que las
primeras r filas de A(s) son linealmente independientes.
Entonces, existe una matriz unimodular V(s) y una matriz
semitriangular inferior H c (s), conocida como la forma de
Hermite por columnas de A(s), tal que

51
 h11 ( s ) 0  0 
 h (s) h ( s) (0) 
 21 22

  
 
A( s )V ( s ) = H c ( s ) =  hr ,r ( s ) 
hr +1,1 ( s ) 
 
  (0) 
 h p ,1 ( s )  h p ,r ( s ) 

donde:
• para 1  i  r , hi ,i ( s)  0 es un polinomio mónico,
• para 1  i  r , y j  i, hi , j ( s) = 0, o deg hi , j ( s)  deg hi ,i ( s).

52
Demostración. La demostración es por construcción. La matriz
H c (s) se obtiene mediante operaciones elementales sobre A(s),
y el procedimiento es el siguiente:
1) Mediante intercambio de columnas, lleve a la posición (1,1)
el elemento de menor grado en la primera fila de A(s), y llámele
a~11 (s).

Por el algoritmo de división euclideana, cualquier otro elemento


en la primera fila puede escribirse como un múltiplo de a~11 ( s)
más un residuo de menor grado que a~11 ( s), esto es, para1  j  m
a~ ( s) = a~ ( s)q ( s) + r ( s),
1j 11 1j 1j

con
r1 j ( s) = 0, o deg r1 j ( s)  deg a~11 ( s).

53
2) Mediante operaciones elementales por columnas, reste de
cada columna c j , j  1, la columna c1 multiplicada por el
múltiplo correspondiente de a~11 ( s),
c j → c j − q1 j ( s)c1 , j 1
de manera que en la primera fila queden sólo elementos r1 j ( s )
de menor grado que a~11 ( s).
Repita los pasos 1) y 2) hasta que todos los elementos en la
primera fila sean cero, a excepción del elemento (1,1), que debe
de ser mónico.
3) Tome la segunda fila de la matriz resultante y repita el
procedimiento anterior sin considerar la primera columna, hasta
que el elemento (2,2) sea mónico y los elementos (2,j), para j>2,
sean cero.

54
4) Si el elemento (2,1) no tiene grado menor que el elemento
(2,2), redúzcalo mediante una operación elemental (observe que
el elemento (1,1) no es afectado por esta operación).
5) Continúe con este procedimiento hasta la r-ésima fila, y la
matriz resultante será H c (s ).

55
s 0 1 
Ejemplo 3.1. Lleve la matriz A(s) =   a su forma de
0 3s s + 1
Hermite por columnas.

s 0 1   1 0 s  1 0 0 
0 3s s + 1 c1  c3 c
 s + 1 3s 0 3 → c − sc1  
 s + 1 3s − s( s + 1)
3
   

1  1 0 0 1  1 0 0
c3 → c3 + ( s + 1)c2  s + 1 3s 0 c2 → 3 c2 s + 1 s 0
3    

1 0 0
c1 → c1 − c2   = H c ( s).
1 s 0

56
Ejemplo 3.2. Para el ejemplo anterior, encuentre la matriz
unimodular V(s) tal que A( s)V ( s) = H c ( s).
1 0 0  0 0 1  0 0 1 
0 1 0 c  c 0 1 0 c → c − sc 0 1 0 
  1 3
  3 3 1
 
0 0 1 1 0 0 1 0 − s 

0 0 1  0 0 1 
   
c3 → c3 + ( s + 1)c2 0 1  0 ( s + 1)
1 1 1 1 1
( s + 1) c2 → c2
3  3  3  3 3 
   
1 0 − s  1 0 − s 

 0 0 1 
 
c1 → c1 − c2 − ( s + 1) = V ( s ).
1 1 1
 3 3 3 
 
 1 0 − s 

57
 s + 1 s 2 + 2s + 5
Ejemplo 3.3. Lleve la matriz A( s ) =   a su forma
 1 s 
de Hermite por columnas.

 s + 1 s 2 + 2s + 5  s + 1 s + 5 s + 1 4 
  2
c → c − sc1  c
 2 → c − c1 
− 1
2 2
 1 s   1 0   1

 1 s + 1  1 0 
 4 s + 1 1   c → c − ( s + 1)c  
c1  c2   c1 → c1 1
− 1 1  4 − 1 
2 2 1
− 1 1
( s + 5)
 4   4 4 

 1 0 
c 2 → 4c 2  1  = H ( s ).
− ( s + 5)
c

 4 

58
Ejercicio. Establezca el resultado correspondiente para la
forma de Hermite por filas H f (s), y obtenga la forma de
Hermite por filas para los ejemplos anteriores.

59
3.2.2 Forma de Smith

Teorema 3.2. Sea A( s)   pm [ s] una matriz polinomial de


rango r, con r  min ( p, m). Existen matrices unimodulares U(s)
y V(s), y una matriz única  (s ), conocida como la forma de
Smith de A(s), tal que
 1 ( s ) 
  2 (s) (0) 
 
  
U ( s ) A( s )V ( s ) = ( s ) =  
  r (s) 
 
 (0) (0) 

60
donde 1 ( s),, r ( s), son polinomios mónicos, conocidos como
los polinomios invariantes de A(s), los cuales satisfacen la
propiedad de división
i ( s) | i+1 ( s), i = 1,, r − 1,
esto es, existe un polinomio q(s) tal que i+1 ( s) = i ( s)q( s).
Demostración. La matriz (s ) se obtiene mediante operaciones
elementales por filas y por columnas sobre A(s), de acuerdo al
siguiente procedimiento:
1) Utilizando intercambio de filas y de columnas, lleve a la
posición (1,1) el elemento de menor grado de A(s).

61
2) Mediante operaciones por columnas, incluyendo intercambio
de columnas, haga cero todos los elementos en la primera fila, a
excepción del elemento (1,1), de manera similar como se hace
en la forma de Hermite H c (s ).
3) Para la matriz resultante del paso 2), mediante operaciones
por filas haga cero todos los elementos en la primera columna, a
excepción del elemento (1,1).
En este paso, algunos elementos diferentes de cero podrían
reaparecer en la primera fila, por lo que es necesario repetir 2) y
3) hasta que todos los elementos en la primera fila y la primera
columna sean cero, a excepción del elemento (1,1), que deberá
de ser mónico.

62
4) Si el elemento (1,1) no divide a los elementos restantes de la
matriz resultante, mediante el algoritmo de división euclideana e
intercambio de filas y de columnas, lleve a la posición (1,1) un
elemento de menor grado, y repita los pasos 2) y 3).
Mediante este proceso, se obtiene una matriz de la forma
 1 ( s ) 0  0
 0 
 
  A1 ( s ) 
 0 
 

donde 1 ( s) divide a todos los elementos de A1 ( s ).


Repita los pasos anteriores 1) a 4) para A1 ( s ).
Procediendo de esta manera, se obtendrá la matriz (s).

63
Ejemplo 3.4. Obtenga la forma de Smith de la matriz
s 0 1 
A( s) =  .
0 3s s + 1

s 0 1   1 0 s  1 0 0 
c
0 3s s + 1 1  c3  c
 3 → c − sc1  
+  s + 1 3s − s( s + 1)
3
   s 1 3s 1

1 0 0  1 0 0
f 2 → f 2 − ( s + 1) f1   c3 → c3 + ( s + 1)c2 0 3s 0
0 3s − s( s + 1)  

1 1 0 0
c2 → c2 0 s 0 = ( s).
3  

64
Ejemplo 3.5. Obtenga la forma de Smith de la matriz
s + 1 0 s( s + 1) 
A( s) =  .
 0 s + 2 s( s + 2)

s + 1 0 s( s + 1)  s + 1 0 0 
 0  c3 → c3 − sc1 
 s + 2 s( s + 2)  0 s + 2 s( s + 2)

 s +1 0 0  s + 1 0 0 
c1 → c1 + c2  f
 2 → f − f1 
 s + 2 s + 2 s( s + 2) s + 2 s( s + 2)
2
 1

 1 s + 2 s( s + 2)
f1  f 2 
s + 1 0 0 

c2 → c2 − ( s + 2)c1  1 0 0 
c3 → c3 − s( s + 2)c1  s + 1 − ( s + 1)(s + 2) − s( s + 1)(s + 2)
 

65
1 0 0 
f 2 → f 2 − ( s + 1) f1  
0 − ( s + 1)(s + 2) − s( s + 1)(s + 2)

1 0 0
c3 → c3 − sc2  
0 − ( s + 1)(s + 2) 0

1 0 0
c2 → −c2   = ( s).
0 ( s + 1)(s + 2) 0

66
Sean 1 ( s),, r ( s), los polinomios invariantes de la matriz
A( s)   pm [ s], con r=rango A(s). Se definen los ceros de A(s)
como las raíces de los polinomios 1 ( s),, r ( s).
Los ceros de A(s) pueden interpretarse como los valores de “s” a
los cuales A(s) pierde rango, esto es,
rango A( zi )  r ,
donde zi es raíz de algún polinomio invariante de A(s).

67
Sea A( s)   pm [ s] una matriz polinomial de rango r. Se
definen los divisores determinantales de A(s) como los
polinomios dados por
 i ( s ) := máximo común divisor (gcd) mónico de todos los
menores de orden i  i de A( s ), i = 1,, r.

Lema 3.2. Sea (s ) la forma de Smith de A(s). Entonces A(s)


y (s ) tienen los mismos divisores determinantales.

68
Por el Lema 3.2 y las propiedades de la forma de Smith de A(s),
tenemos que
1 ( s ) = 1 ( s )
 2 ( s ) = 1 ( s )2 ( s )

 r ( s ) = 1 ( s )2 ( s ) r ( s ).

Es decir,
 i (s)
i ( s ) = , i = 1,, r , (3.1)
 i−1 ( s )

donde  0 ( s) := 1.

69
La relación (3.1) proporciona otro método para encontrar los
polinomios invariantes de A(s) (y por consiguiente, también su
forma de Smith), donde en lugar de efectuar operaciones
elementales por filas y por columnas, se necesitan calcular
todos los menores de A(s).

Observe que la matriz A( s )   pm


[ s ]  p m
tiene     menores
 i  i 
de orden i, donde
 p p!
 =
 i  i !( p − i )!

70
Ejemplo 3.6. Utilizando divisores determinantales, obtenga la
forma de Smith de la matriz del Ejemplo 3.4, es decir,
s 0 1 
A( s) =  .
0 3s s + 1

Tenemos que
1 = gcd{s, 3s, 1, s + 1} = 1
 s 0 s 1 0 1 
 2 = gcd  , ,  = gcd{3s , s ( s + 1), 3s} = s,
2

 0 3s 0 s + 1 3s s + 1 

por lo tanto
1 0 0
1 ( s) = 1, 2 ( s) = s  ( s) =   .
0 s 0

71
Ejemplo 3.7. Utilizando divisores determinantales, obtenga la
forma de Smith de la matriz del Ejemplo 3.5, es decir,
s + 1 0 s( s + 1) 
A( s) =  .
 0 s + 2 s( s + 2)

Tenemos que
1 = gcd{s + 1, s + 2, s ( s + 1), s ( s + 2)} = 1

 s +1 0 s + 1 s ( s + 1) 0 s ( s + 1) 
 2 = gcd  , , 
 0 s + 2 0 s ( s + 2) s + 2 s ( s + 2) 
= gcd{( s + 1)( s + 2), s ( s + 1)( s + 2), − s ( s + 1)( s + 2)} = ( s + 1)( s + 2),

por lo tanto
1 0 0
1 ( s) = 1, 2 ( s) = ( s + 1)(s + 2)  ( s) =   .
0 ( s + 1)(s + 2) 0

72
3.3 Coprimicidad de matrices

La matriz R( s)  nm [ s] se dice que es un divisor derecho de


A( s)   pm [ s] si existe A( s)   pn [ s] tal que A(s) = A( s) R(s).
La matriz (cuadrada) R( s)  mm [ s] se dice que es un máximo
común divisor derecho (gcrd) de A( s)   [ s] y B( s)  qm [ s]
pm

si:
i) R(s) es un común divisor derecho de A(s) y B(s), esto es,
existen A( s)   pm [ s] y B( s)  qm [ s] tal que
A(s) = A(s) R(s) y B(s) = B(s) R(s).
ii) Cualquier otro común divisor derecho de A(s) y B(s) es un
divisor derecho de R(s).

73
Divisores izquierdos y máximos comunes divisores izquierdos
de matrices polinomiales se definen de manera análoga.

Teorema 3.3. Sean A( s)   [ s] y B( s)  qm [ s] matrices


pm

polinomiales, y U ( s)  ( p + q )( p + q ) [ s] una matriz unimodular tal


que
 A( s )  R( s ) }m
U (s)  = 
 B( s)  0  } p + q − m

Entonces R( s)   [ s] es un máximo común divisor derecho


mm

de A(s) y B(s).

74
Del teorema anterior, puede verse que un máximo común
divisor derecho (gcrd) de A(s) y B(s) puede obtenerse mediante
operaciones elementales. Para obtener un gcrd, es necesario
 A( s )
realizar operaciones elementales por filas sobre la matriz  B( s)
 
de manera tal que (al menos) las últimas p+q-m filas sean
reducidas a cero.
Observe que un gcrd de 2 matrices no es único. Si R(s) y R1 ( s)
son dos gcrd de A(s) y B(s), por definición están relacionados
por
R( s ) = W1 ( s ) R1 ( s )
R1 ( s ) = W ( s ) R( s )

donde W1 ( s) y W(s) son matrices polinomiales.

75
Suponga ahora que uno de ellos, digamos R(s), es no singular.
De las relaciones anteriores, tenemos que
R( s) = W1 (s)W ( s) R( s)
−1
lo que implica que W ( s ) = W1 ( s ), es decir W(s) es una matriz
unimodular.
Por lo tanto: Si R(s) es un gcrd de A(s) y B(s), y es no singular,
entonces cualquier otro gcrd R1 ( s) de A(s) y B(s), está dado por
R1 (s) = W (s) R(s), donde W(s) es una matriz unimodular, esto
es, R(s) y R1 ( s) son equivalentes por la izquierda.

76
Observe que R(s) es no singular si
 A( s )
rango   = m,
 B( s)
lo cual es una suposición que se hace frecuentemente.

Sea R(s) un gcrd no singular de A(s) y B(s). Entonces A(s) y B(s)


se dicen coprimas derechas si R(s) es unimodular.

Sea R(s) un máximo común divisor izquierdo (gcld) no singular


de A(s) y B(s). Entonces A(s) y B(s) se dicen coprimas izquierdas
si R(s) es unimodular.

77
Teorema 3.4. Las siguientes afirmaciones son equivalentes
a) Las matrices A( s)   pm [ s] y B( s)  qm [ s] son coprimas
derechas.
b) Existen matrices polinomiales X ( s)  m p [ s] y Y ( s)  mq [ s]
tal que se cumple la siguiente ecuación, conocida como
identidad de Bezout
X ( s) A( s) + Y ( s) B( s) = I m .

 A( s )
c) rango   = m para toda s.
 B( s)
 A( s ) I m 
d) La forma de Smith de   es  .
 B( s) 0

78
3.4 Matrices reducidas por columnas

Sean {ki } los grados por columnas de la matriz polinomial


A( s)  mm [ s], esto es,
ki := max{deg a ji ( s), j = 1,, m}, i = 1,, m,
donde a ji (s ) es el (j,i)-ésimo elemento de A(s).
Si A(s) es no singular, entonces puede verse que
m
deg{det A( s )}   ki .
i =1

79
Una matriz polinomial no singular A( s)  mm [ s] se dice
reducida por columnas si
m
deg{det A( s )} =  ki .
i =1

En términos de los grados por columnas {ki }, se puede escribir


A(s) como
A( s) = Ahc diag{s k1 ,, s km } + A( s) (3.4.1)

donde Ahc es una matriz constante y A(s) es una matriz


polinomial cuyos grados por columnas correspondientes son
menores que los de A(s).

80
De (3.4.1) tenemos que
m
 ki
det A( s) = (det Ahc ) s i =1
+ términos de menor grado en s.

Por lo que se cumple el siguiente resultado.


Lema 3.3. La matriz A(s) es reducida por columnas si y solo si
Ahc es no singular.

Lema 3.4. Sea A ( s )   mm


[ s] una matriz polinomial no
singular. Entonces, existe una matriz unimodular U ( s)  mm [ s]
tal que B(s)=U(s)A(s) es reducida por columnas.

81
Del resultado anterior se sigue que cualquier matriz no singular
puede llevarse a forma reducida por columnas mediante
operaciones elementales por filas. Esto de hecho, también puede
lograrse mediante operaciones elementales por columnas.

Lema 3.5. Sea A( s)  mm [ s] una matriz polinomial no


singular. Entonces, existe una matriz unimodular V ( s)  mm [ s]
tal que B(s)=A(s)V(s) es reducida por columnas.

82
El concepto de matriz reducida por columnas tiene varias
aplicaciones en teoría de control. Una de estas aplicaciones es
para determinar bajo qué condiciones la matriz racional
N ( s) D −1 ( s) es propia o estrictamente propia, donde N(s)
y D(s) son matrices polinomiales.
Una matriz racional se dice propia (estrictamente propia) si
todos sus elementos son funciones racionales propias (estricta-
mente propias).
Lema 3.6. Si la matriz racional H(s) es estrictamente propia
−1
(propia) y se cumple que H ( s) = N ( s) D ( s), donde N(s) y D(s)
son matrices polinomiales, entonces los grados por columnas de
N(s) son menores (menores o iguales) que los grados por
columnas correspondientes de D(s).

83
Se puede demostrar que el resultado anterior no se cumple en
sentido inverso. Para que esto se cumpla, es necesario suponer
que D(s) es reducida por columnas.

Lema 3.7. Si D(s) es reducida por columnas, entonces


H ( s) = N ( s) D −1 ( s) es estrictamente propia (propia) si y
solo si los grados por columnas de N(s) son menores (menores o
iguales) que los grados por columnas correspondientes de D(s).

84
3.5 Pencils de matrices

Se le llama pencil de matrices (o haz de matrices) a la matriz


polinomial sE-A, donde E y A son matrices reales de
dimensiones m n.

Los pencils de matrices sE-A y s E − A se dicen estrictamente


equivalentes si existen matrices constantes no singulares
U  mm y V  nn tal que
U (sE − A)V = s E − A.

85
Nos interesa saber bajo qué condiciones dos pencils de matrices
son estrictamente equivalentes, y derivar una forma canónica
para pencils de matrices. Para ello, dividiremos el estudio en 2
casos: pencils regulares y pencils singulares.
El pencil sE-A se dice regular si E y A son matrices cuadradas y
det( sE − A)  0. Si esto no se cumple, el pencil se dice singular.

Pencils regulares: Weierstrass (1867), teoría de divisores


elementales.
Pencils singulares: Kronecker (1890), índices mínimos.

86
Lema 3.8. Los pencils ( sE − A) y ( s E − A) son equivalentes, es
decir existen matrices unimodulares U ( s)  mm [s] y
V ( s)  nn [s] tal que U (s)(sE − A)V ( s) = s E − A, si y solo si
tienen los mismos polinomios invariantes.
Lema 3.9. Sean ( sE − A) y ( s E − A) pencils de matrices, donde
det E  0, det E  0. Bajo estas condiciones, si ( sE − A) y ( s E − A)
son equivalentes, entonces son estrictamente equivalentes.

Combinando los 2 resultados anteriores, tenemos:


Teorema 3.5. Los pencils ( sE − A) y ( s E − A), donde
det E  0, det E  0, son estrictamente equivalentes si y
solo si tienen los mismos polinomios invariantes.

87
Para obtener condiciones de equivalencia estricta para pencils
regulares, es necesario considerar los llamados divisores
elementales finitos y divisores elementales infinitos.
Sean 1 ( s),, m ( s) los polinomios invariantes del pencil sE-A,
y escríbanse estos polinomios como
1 ( s ) = [1 ( s )]c [ 2 ( s )]c [ k ( s )]c
1 2 k

2 ( s ) = [1 ( s )]d [ 2 ( s )]d [ k ( s )]d


1 2 k
(3.5.1)

m ( s ) = [1 ( s )]l [ 2 ( s )]l [ k ( s )]l
1 2 k

donde 1 ( s),, k ( s) son todos los factores irreducibles


distintos sobre el campo F de los polinomios 1 ( s),, m ( s).

88
Todos los términos [1 ( s)] 1 ,[1 ( s)] 2 ,,[ k ( s)] k , en (3.5.1)
c c l

distintos de 1 son llamados los divisores elementales finitos de


sE-A en el campo F.
Los divisores elementales infinitos del pencil sE-A se obtienen
a partir de la forma de Smith-McMillan al infinito de sE-A.

89
Teorema 3.6. Sea sE-A un pencil regular. Existen matrices no
singulares U  mm y V  nn tal que
  
U ( sE − A)V = block diag{N 1 , N 2 ,, N t , sI − F}
donde:
i i 
• N = sH − I  i , siendo H i una matriz de dimensiones i xi
con unos en la primer diagonal superior y ceros en las demás
posiciones, y I  i es la matriz identidad de dimensiones i xi .
• Los primeros t bloques están asociados a los divisores
elementales infinitos del pencil sE-A.
• El bloque sI-F está determinado por los divisores elementales
finitos de sE-A, y F está en forma de Jordan o en forma
canónica racional.

90
Teorema 3.7. Los pencils regulares ( sE − A) y ( s E − A) son
estrictamente equivalentes si y solo si tienen los mismos
divisores elementales finitos e infinitos.

91
Pencils singulares
Sea sE-A un pencil singular de dimensiones m n, y de rango r,
donde r<n, o r<m.
Suponga que r<n. En este caso las columnas de sE-A son
linealmente dependientes, y por lo tanto existe un vector racional
x( s)  0 tal que (sE-A)x(s)=0.
Sin pérdida de generalidad, podemos suponer que x(s) es un
vector polinomial, esto es x( s)   [ s].
n1

Entre todos los vectores polinomiales x(s) tales que (sE-A)x(s)=0,


escogemos el de grado mínimo  1.

92
Lema 3.10. Si la ecuación (sE-A)x(s)=0 tiene una solución x(s)
de grado mínimo 1 , entonces el pencil sE-A es estrictamente
equivalente a un pencil de la forma
 L 0 
 0 sE − A 
1

 1 1

donde L 1 es una matriz de dimensiones (1 )  (1 + 1) de la forma


 s −1 0  
0 s −1  
L =  
1
   
 s − 1

y sE1 − A1 es un pencil de matrices para el cual no existe un vector
x( s)  0 de grado menor que 1 , y tal que ( sE1 − A1 ) x( s) = 0.

93
Suponga que las columnas de sE1 − A1 son linealmente
dependientes, entonces podemos encontrar un vector polinomial
x(s) de grado mínimo  2 ( 2  1 ), tal que ( sE1 − A1 ) x( s) = 0, de
manera tal que el pencil sE-A puede reducirse a la forma
 L 
 .
1

L
 2 
 sE2 − A2 

Continuando con este proceso, llegamos a una forma diagonal a


bloques
 L 
 
1


 
 L 
 sE p − Ap 
p


donde las columnas de sE p − Ap son linealmente independientes.

94
Suponga ahora que las filas del pencil sE p − Ap son linealmente
dependientes. Repitiendo el proceso anterior para ( sE p − Ap )T
encontramos los grados mínimos 1   2     q , de manera
tal que el pencil sE-A es estrictamente equivalente a
block diag{L , , L , L , , L , sE0 − A0 }
T T
1 p 1 q

donde sE0 − A0 es un pencil regular.

A los índices 1   2     q , y 1   2     q , los cuales


son enteros positivos o cero y que caracterizan completamente a
T
los bloques Li , Li , se les conoce respectivamente como
índices mínimos por columnas e índices mínimos por filas (o
índices de Kronecker) del pencil sE-A.

95
Teorema 3.8. Sea sE-A un pencil cualquiera. Entonces existen
matrices no singulares U  mm y V  nn tal que
1 t
U ( sE − A)V = block diag{L ,, L , L ,, L , N ,, N , sI − F}.
T T
1 p 1 q

Teorema 3.9. Los pencils ( sE − A) y ( s E − A) son


estrictamente equivalentes si y solo si tienen los mismos índices
mínimos y los mismos divisores elementales finitos e infinitos.

96
4. Descripción de sistemas
multivariables en matrices
polinomiales

97
4.1 Descripciones polinomiales de matrices de
transferencia
Como se ha visto anteriormente en las formas controlador a
bloques y observador a bloques, un método para obtener una
representación en espacio de estado de una matriz de
transferencia H(s) de un sistema multivariable es escribiendo
H(s)=N(s)/d(s), donde d(s) es el mínimo común múltiplo de los
denominadores de los elementos de H(s) y N(s) es una matriz
polinomial.

Sin embargo, el orden de las representaciones obtenidas es


mayor que r=deg d(s), siendo dicho orden igual a rm en el caso
de la forma controlador a bloques y rp en el caso de la forma
observador a bloques.

98
Recordar que en el caso de sistemas escalares, dada una función
de transferencia H(s)=b(s)/a(s), siempre se puede obtener una
representación ( A, B, C ) de orden n=deg a(s).
Tratando de establecer una analogía con el caso escalar, observe
que H(s) también puede escribirse como
−1
H ( s ) = N R ( s ) DR ( s )

donde DR ( s) = d ( s) I m y N R ( s) = N ( s).
Si definimos el grado de la matriz DR (s) como
deg DR ( s) := deg[det DR (s)] = rm
entonces el orden de una representación de H(s) en la forma
controlador a bloques es igual a rm, el grado de DR (s).

99
En forma similar, tenemos que
−1
H ( s ) = DL ( s ) N L ( s )
donde DL ( s) = d ( s) I p y N L ( s) = N ( s), resultando que el orden
de una representación de H(s) en la forma observador a bloques
es igual a rp, el grado de DL (s).

100
El par de matrices polinomiales N ( s)   pm [ s] y D( s)  mm [ s]
con D(s) no singular, se dice que forman una descripción
polinomial derecha (RMFD), o factorización derecha de H(s) si

H ( s) = N ( s) D −1 ( s).

De manera análoga, el par de matrices polinomiales


DL ( s)   p p [ s] y N L ( s)   pm [ s] con DL (s) no singular, se
dice que forman una descripción polinomial izquierda (LMFD),
o factorización izquierda de H(s) si
−1
H ( s ) = DL ( s ) N L ( s ).

101
Algunos resultados que se verán más adelante, son los siguien-
tes:
−1
• Dada una factorización derecha de H(s), H ( s ) = N R ( s ) DR ( s ),
siempre se puede obtener una representación ( A, B, C )
controlable de orden n = deg[det DR (s)].
−1
• Dada una factorización izquierda de H(s), H ( s ) = DL ( s ) N L ( s ),
siempre se puede obtener una representación ( A, B, C )
observable de orden n = deg[det DL ( s)].
• El orden mínimo de la matriz denominador de cualquier
factorización (izquierda o derecha) de H(s) es también el orden
mínimo de cualquier representación ( A, B, C ) de H(s).

102
Observe que una factorización (derecha o izquierda) de H(s) no
es única, como se muestra en el siguiente ejemplo.
Ejemplo 4.1. Sea la matriz de transferencia
 s s 
 ( s + 1) 2 ( s + 2) 2 ( s + 2) 2 
H (s) =  .
 s s 
 − − 
 ( s + 2) 2 ( s + 2) 2 

Se puede comprobar que las siguientes son factorizaciones


derechas de H(s)
−1
−1  s s ( s + 1) 2  ( s + 1) 2 ( s + 2) 2 0 
H ( s) = N1 ( s) D1 ( s ) =   
− s ( s + 1) − s( s + 1) 2   ( s + 1) 2 ( s + 2) 2 
2
0

103
−1
−1  s s  ( s + 1) 2 ( s + 2) 2 0 
H ( s ) = N 2 ( s ) D2 ( s ) =   
− s ( s + 1)
2
− s   0 ( s + 2) 2 

−1
−1  s 0  ( s + 1) 2 ( s + 2) 2 − s ( s + 1) 2 ( s + 2)
H ( s ) = N 3 ( s ) D3 ( s ) =   
− s ( s + 1)
2
s 2   0 ( s + 2) 

−1
 s 0  0 − ( s + 1) 2 ( s + 2)
H ( s ) = N 4 ( s ) D4 −1 ( s ) =  2  
− s s  ( s + 2) ( s + 2)
2

donde tenemos que


deg[det D1 ( s )] = 8
deg[det D2 ( s )] = 6
deg[det D3 ( s )] = 5
deg[det D4 ( s )] = 5.

104
Si el par N(s), D(s) es una factorización derecha de H(s), esto es
H ( s) = N ( s) D −1 ( s), entonces también lo es el par N (s), D(s),
dado por
N ( s) = N ( s)W −1 ( s), D( s) = D( s)W −1 ( s)

donde W ( s)  mm [ s] es una matriz polinomial no singular, tal


que N ( s) y D( s) son matrices polinomiales.

En este caso, W(s) es un divisor derecho de N(s) y D(s) dado


que
N ( s) = N ( s)W ( s), y D( s) = D( s)W ( s).

105
Como
deg[det D( s)] = deg[det D( s)] + deg[det W ( s)]
tenemos que
deg[det D( s)]  deg[det D( s)].

Esto sugiere que el grado de D(s) puede reducirse eliminando


divisores comunes derechos de N(s) y D(s), y el grado mínimo
se obtiene extrayendo un máximo común divisor derecho de
N(s) y D(s).
En este caso tendríamos que
deg[det D(s)] = deg[det D(s)]
para cualquier divisor derecho W(s) de N(s) y D(s).

106
La igualdad anterior se cumple si y solo si el determinante de
W(s) es una constante diferente de cero, en cuyo caso W(s) es
una matriz unimodular, y N(s), D(s) son coprimas derechas.

La factorización polinomial derecha N(s) y D(s) de H(s) se dice


que es una factorización coprima derecha (RCMFD) de H(s)
si N(s) y D(s) son coprimas derechas.
De manera análoga, la factorización polinomial izquierda
N L ( s), DL ( s) de H(s) se dice que es una factorización
coprima izquierda (LCMFD) de H(s) si N L (s) y DL (s) son
coprimas izquierdas.

107
Resultado a ser visto más adelante:
El orden de una representación mínima ( A, B, C ) de H(s) es
igual al grado del determinante de D(s), donde
H ( s) = N ( s) D −1 ( s), y las matrices N(s) y D(s) son
coprimas derechas.

108
Teorema 4.1. Sean DL ( s)   p p [ s] y N L ( s)   pm [ s] matrices
polinomiales con DL (s) no singular, y V ( s)  ( p + m)( p + m) [ s] una
matriz unimodular tal que

V11 ( s ) V12 ( s ) 
DL ( s) N L ( s)   = R( s ) 0
V21 ( s ) V22 ( s )

V (s)

donde R( s)   p p [ s] es un gcld de DL ( s) y N L ( s).


Entonces V22 ( s) es no singular, y
−1 −1
DL ( s ) N L ( s ) = −V12 ( s )V22 ( s )
donde V12 (s) y V22 ( s) son coprimas derechas.

109
Del teorema anterior se puede derivar el siguiente método para
obtener una factorización coprima derecha de una matriz de
transferencia H(s):
1) Encuentre una factorización izquierda de H(s), esto es,
encuentre matrices polinomiales DL (s) y N L (s) tal que
−1
H ( s ) = DL ( s ) N L ( s ).

Por ejemplo, una factorización izquierda de H(s) está dada por


DL ( s) = diag{d1 ( s),, d p ( s)}, donde d i (s ) es el mínimo común
múltiplo de los denominadores de los elementos en la i-ésima
fila de H(s) y N L ( s) = DL ( s) H ( s).
Observe que en este punto no se sabe si DL (s) y N L (s) son
coprimas o no (en general no lo son).

110
2) Mediante operaciones elementales por columnas, encuentre
una matriz unomodular V(s) tal que
V11 ( s ) V12 ( s ) 
DL ( s) N L ( s)   = R( s ) 0
V21 ( s ) V22 ( s )

V (s)

donde R(s) es un gcld de DL ( s) y N L ( s).


Dado que
−1 −1
H ( s ) = DL ( s ) N L ( s ) = −V12 ( s )V22 ( s )

donde V12 (s) y V22 ( s) son coprimas derechas, entonces las


matrices − V12 ( s), V22 ( s) son una factorización coprima
derecha de H(s).

111
Otro método para obtener una factorización coprima derecha de
H(s) es el siguiente:
1) Encuentre una factorización derecha de H(s), esto es,
encuentre matrices polinomiales N ( s) y D( s) tal que
−1
H ( s ) = N ( s ) D ( s ).

Por ejemplo, una factorización derecha de H(s) está dada por


D( s) = diag{d1 ( s),, d m ( s)}, ddonde
i (s ) es el mínimo
común múltiplo de los denominadores de los elementos en la i-
ésima columna de H(s) N ( s)y = H ( s) D( s).
2) Obtenga un gcrd R(s) de N ( s) y D( s).

112
3) Si R(s) es unimodular, entonces N ( s) y D( s) son una
factorización coprima derecha de H(s).
Si R(s) no es unimodular, entonces las matrices
N ( s) = N ( s) R −1 ( s) y D( s) = D( s) R −1 ( s)
son coprimas derechas, y son tales que H ( s) = N ( s) D −1 ( s).
Por lo tanto, N(s) y D(s) son una factorización coprima derecha
de H(s).

Haciendo los cambios adecuados en los 2 métodos anteriores, se


pueden obtener los procedimientos análogos para encontrar una
factorización coprima izquierda de H(s).

113
4.2 Representación de matrices de transferencia en
espacio de estado

Teorema 4.2. Dada una factorización polinomial derecha


N(s), D(s) de H(s), esto es H ( s) = N ( s) D −1 ( s), siempre se
puede obtener una representación ( A, B, C ) controlable de
H(s) de orden n = deg[det D( s)].
Demostración. Sea H ( s) = N ( s) D −1 ( s) la matriz de transferen-
cia de un sistema multivariable. Como Y(s)=H(s)U(s), e
introduciendo un vector auxiliar  ( s)  m1[ s], entonces
tenemos que
D( s ) ( s ) = U ( s )
Y ( s ) = N ( s ) ( s ).

114
Siguiendo un procedimiento análogo al caso de sistemas
escalares, primero intentaremos implementar D( s) ( s) = U ( s), o
 d11 ( s)  d1,m ( s )   1 ( s)   u1 ( s) 
   =   .
   
  
d m,1 ( s )  d m,m ( s)  m ( s) um ( s )

Es claro que la derivada más alta asociada a cada variable i (t )


es igual al grado por columna ki de D(s).
Escríbase D(s) como
D( s) = Dhc S ( s) + D lc ( s)
donde Dhc y Dlc son matrices constantes, S ( s ) = diag{s ki
}, y

115
  s k1 −1   s km −1  
     
    ,    
 ( s ) = block diag .
  s   s  
     
 1   1 

Suponiendo que Dhc es no singular, entonces de


[ Dhc S ( s) + D lc ( s)]  ( s) = U ( s)
tenemos que
−1 −1
S ( s) ( s) = − Dhc Dlc( s) ( s) + Dhc U ( s). (4.1.1)

116
Observe que el hecho de que Dhc sea no singular, implica que
D(s) es reducida por columnas, lo cual siempre se puede
suponer.

En efecto, si H ( s) = N ( s) D −1 ( s), y D(s) no es reducida por


columnas, entonces N ( s) = N (s)W (s) y D(s) = D(s)W (s)
también es una factorización derecha de H(s), donde se
considera que W(s) es una matriz unimodular tal que D(s) es
reducida por columnas. Observe además que
deg[det D(s)] = deg[det D(s)].

117
( k −1) ( k −2 )
A partir de  i i , integre ki veces para obtener i i , i i ,, i .
(k )

Entonces tendremos m cadenas de integradores, con ki integra-


dores en la i-ésima cadena.
Si tomamos la salida de cada uno de los integradores, obtendre-
mos la matriz  ( s) ( s).
Retroalimentando esta información, se puede obtener una
realización de (4.1.1).
La salida Y(s) se obtiene de escribir Y ( s) = N ( s) ( s) como
Y ( s) = N lc  ( s) ( s),
donde N lc es una matriz constante.
Lo anterior se muestra esquemáticamente en la siguiente figura.

118
(s) (s)
 
−1
− Dhc Dlc
 ( k1 )  ( k1 −1)  
 1

→ 1

→  → 1

 k1

   
U (s) S (s) (s)   ( k2 ) →  ( k2 −1) →  → 
−1
Dhc +  2
1 2
 k2

 

 ( km )  ( km −1)  
 
m →
mm
→→ 
 km

 
(s) (s)

N lc Y (s)

119
Posteriormente, asigne las variables de estado como las salidas
de los integradores, esto es,
( k1 −1) ( k1 − 2 )
x1 = 1 , x2 = 1 , , xk1 = 1
( k2 −1) ( k2 − 2 )
xk1 +1 =  2 , xk1 +2 =  2 , , xk1 +k2 =  2

Puede verse que una representación de la matriz de transferen-


cia ( s) S −1 ( s) del banco de integradores, con entrada
v( s) := S ( s) ( s) y salida z ( s) := ( s) ( s) = x( s) está dada por

x(t ) = A0 x(t ) + B0 v(t )
(4.1.2)
z (t ) = C0 x(t )

120
donde
 0  
 1 0  
 , k i  k i , i = 1, , m 
A0 = block diag 
    

  
1 0 

 1  
 0  
  
B0 = block diag  , k i  1, i = 1, , m 
  
 
 0 
C0 = I n .

121
Reemplazando
−1 −1
v(t ) = − Dhc Dlc x(t ) + Dhc u (t )
en (4.1.2), tenemos

−1 −1
x(t ) = A0 x(t ) + B0 [− Dhc Dlc x(t ) + Dhc u (t )]
−1 −1
= ( A0 − B0 Dhc Dlc ) x(t ) + B0 Dhc u (t )
y la ecuación de salida del sistema es
y (t ) = N lc x(t ).

122
Es decir, la representación en espacio de estado del sistema es

x(t ) = Ac x(t ) + Bc u (t ) (4.1.3)
y (t ) = Cc x(t )
donde
−1
Ac = A0 − B0 Dhc Dlc
−1
Bc = B0 Dhc (4.1.4)
Cc = N lc .

Entonces, a partir de una factorización polinomial derecha


N(s), D(s) de H(s), se ha obtenido una representación
( Ac , Bc , Cc ) controlable de H(s) de orden n = deg[det D( s)].

123
A esta representación se le llama forma controlador (no
confundir con la forma controlador a bloques), y se caracteriza
por lo siguiente:
La matriz Ac tiene bloques diagonales de dimensión ki  ki en
forma “compañera superior”, y los elementos fuera de los
bloques son cero, excepto los elementos en la primera fila de
cada bloque, que pueden ser diferentes de cero.
La matriz Bc tiene bloques diagonales de dimensión ki  1 y
solamente los elementos en la primera fila de cada bloque
pueden ser diferentes de cero. La matriz Cc no tiene una forma
particular.
Observe que para sistemas con una sola entrada (m=1), las
matrices Ac y Bc están en la forma canónica controlador de
sistemas escalares.
124
Ejemplo 4.2. Obtenga una representación en espacio de estado
en forma controlador de la matriz de transferencia
 s s 
 ( s + 1) 2 ( s + 2) 2 ( s + 2) 2 
H (s) =  .
 s s 
 − − 
 ( s + 2) 2 ( s + 2) 2 

a partir de la factorización polinomial derecha


s 0
N ( s) =  2
,
− s s 

 0 − ( s + 1) 2 ( s + 2)  0 − ( s 3 + 4s 2 + 5s + 2)
D( s ) =  = 2 .
( s + 2) s+2  s + 4s + 4 s+2
2

125
De k1 = 2, k2 = 3, deg[det D(s)] = 5 = k1 + k2 , podemos ver que
D(s) es reducida por columnas.
Tenemos que
s 
1 
0 − 1  s 2 0  0 0 − 4 − 5 − 2  
D( s) =    0 s 3  + 4 4  s 
2

 1 0    0 1 2  
s
       
Dhc S (s) Dlc
 1 


(s)

s 
1 
 1 0 0 0 0  
N (s) =   s 
2

 − 1 0 1 0 0  
s
  
N lc
 1 


(s)

126
−1  0 1 0 0 − 4 − 5 − 2 4 4 0 1 2
Dhc Dlc =     = .
 − 1 0  4 4 0 1 2  0 0 4 5 2

Por lo tanto, la representación en espacio de estado ( Ac , Bc , Cc )


de H(s) está dada por
0 0  1 
1 0  0 
−1
     4 4 0 1 2
Ac = A0 − B0 Dhc Dlc =  0 0 0 −  1   
    0 0 4 5 2
 1 0 0  0
 0 1 0  0

− 4 − 4 0 − 1 − 2
 1 0 0 0 0
 
= 0 0 − 4 − 5 − 2
 
 0 0 1 0 0 
 0 0 0 1 0

127
1   0 1
0   0 0
−1
   0 1  
Bc = B0 Dhc =  1   =  − 1 0 ,
  − 1 0   
 0   0 0 
 0  0 0

 1 0 0 0 0
Cc = N lc =  ,
 − 1 0 1 0 0 

donde el orden de la representación es


n = 5 = deg[det D( s)].

128
Algunas propiedades de la forma controlador ( Ac , Bc , Cc ) son
las siguientes:
1. La representación es controlable, pero no necesariamente
observable.
 sI − Ac 0  I n 0 
2. Las matrices   y   tienen la
 0 Im   0 D( s )
−1
misma forma de Smith y det( sI − Ac ) = (det Dhc ) det D( s).

 sI − Ac Bc   I n 0 
3. Las matrices   y   tienen la
 − Cc 0  0 N ( s)

misma forma de Smith.

129
La forma controlador ( Ac , Bc , Cc ) no es llamada “canónica”
por lo siguiente:
Para sistemas escalares, a la función de transferencia
H(s)=b(s)/a(s) le podemos siempre asignar una forma controla-
dor única de orden n = deg a( s), pero lo análogo no sucede para
sistemas multivariables.
Dada una factorización polinomial derecha H ( s) = N ( s) D −1 ( s),
podemos obtener una forma controlador ( Ac , Bc , Cc ) de orden
n = deg[det D( s)]. Sin embargo, dada otra factorización derecha
−1
H ( s ) = N ( s ) D ( s ), donde
N (s) = N (s)U (s), D(s) = D(s)U (s), U (s) unimodular
podemos obtener otra forma controlador ( Ac , B c , C c ) de orden
n, pero diferente de ( Ac , Bc , Cc ).

130
Ejemplo 4.3. Para la matriz de transferencia H(s) y la
factorización polinomial N(s), D(s) del ejemplo 4.2, verifique
que si se considera la factorización H ( s ) = N ( s ) D −1 ( s ), donde
1 2s 
D( s ) = D( s )   , N ( s) = N ( s)U ( s ),
0 2 

U (s)

se obtiene la representación en forma controlador ( Ac , B c , C c )


donde las matrices Ac y B c están dadas por
− 4 − 4   1 1
 1 0   0 0
   
Ac =  − 4 − 5 − 2 , B c =  − 0.5 0.
   
 1 0 0   0 0
 0 1 0  0 0

131
Siguiendo un procedimiento similar a la demostración del
Teorema 4.1, se puede obtener una representación en espacio de
estado en forma observador ( Ao , Bo , Co ) de una matriz de
transferencia H(s) a partir de una factorización polinomial
−1
izquierda H ( s ) = DL ( s ) N L ( s ), donde DL (s) es reducida por
filas, y el orden de la representación es n = deg[det DL ( s)].

También se pueden obtener representaciones en espacio de


estado en forma de controlabilidad y de observabilidad.

132
4.3 Transformaciones de similitud

En el Capítulo 2 se utilizaron transformaciones de similitud para


obtener las descomposiciones controlable/no controlable,
observable/no observable, etc., de sistemas multivariables.
En la presente sección se continua con el estudio de las
transformaciones de similitud, pero ahora para llevar la
representación ( A, B, C ) de un sistema multivariable a una
forma particular dada (controlabilidad, controlador, etc.).

133
Recordatorio de definición:
Se dice que dos representaciones en espacio de estado ( A, B, C )
y ( A, B, C ) son similares (o que están relacionadas por una
transformación de similitud) si existe una matriz no singular T
tal que
A = T −1 AT , B = T −1 B, C = CT .

Observe que las variables de estado de ambas representaciones


están relacionadas de acuerdo a
x(t ) = T x(t ).

134
Recordatorio del caso escalar:
Sea ( A, b, c) un sistema escalar controlable. Si se define
T = C = b Ab  An −1b
entonces la representación ( A, b, c), con
A = T −1 AT , b = T −1b, c = cT
está en la forma canónica de controlabilidad.

135
Lo anterior, puede verse de:
 b1 
b 2 
b = T b = t1 t2  tn    = b1t1 + b 2t 2 +  + b ntn

b 
 n

es decir, la i-ésima componente del vector b es la representa-


ción del vector b en la base {t1 ,, tn }. Por lo tanto
1 
0 
b =   = bco

0 
 

136
De A = T −1 AT  AT = T A,
y de la relación anterior, vista por columnas
Ati = a1,i t1 + a 2,i t 2 +  + a n ,i t n , i = 1, , n.

Por lo tanto, la i-ésima columna de A son los coeficientes de


la representación del vector Ati , i = 1,, n, en la base {t1 ,, tn }.

137
Entonces tenemos
0  
1 
Ab = b Ab A2b  An −1b   
 
  
0  
0  
0   0 0  − an 
 1
  − an −1 
A2b = b A b  A b 1  0
Ab 2 n −1  
   A = 0 1  = Aco
   
0      
 0 0 1 − a1 
 
 − an  
   

Anb = b Ab A b  A b 
2 n −1 

− a2 
  
 − a1  

138
Pasando ahora a sistemas multivariables, suponga que el sistema
( A, B, C ) es controlable, y que se quiere llevar a la forma de
controlabilidad, donde
0 0 * * * 1 
1 0 * * * 0 
   
0 1 * * * 0 
Aco =  *  *
 
*, Bco =   .

 * * *  
   
 * * 0 *   1 
 * * 1 *  0

¿Cómo debe de ser la matriz de transformación T para llevar el


sistema a esta forma de controlabilidad?

139
Sabemos que
rango C = rango B AB  An −1 B  = n

por lo tanto la matriz de controlabilidad contiene n columnas


linealmente independientes que podemos usar como una nueva
base.
Observe que a diferencia del caso de sistemas escalares, existen
muchas opciones de cómo escoger estas columnas.

140
Independientemente de cómo se escojan estos vectores, la forma
de controlabilidad se obtiene si los vectores escogidos se
agrupan en cadenas de la siguiente forma

T = b1 Ab1  Ar1 −1b1 b2  Ar2 −1b2  bq  A q bq
r −1

donde bi es la i-ésima columna de B, y ri
q
(i = 1,, q, q  m,  ri = n), son enteros positivos que
i =1
corresponden a las dimensiones de los bloques de Aco y Bco .
Lo anterior se sigue de que la i-ésima columna de T −1 AT son los
coeficientes de la representación del vector Ati , i = 1,, n, en
la base {t1 ,, tn }. De manera similar, la i-ésima columna de T −1B
son los coeficientes de la representación del vector
bi , i = 1,, m, en la base {t1 ,, tn }.

141
Un primer procedimiento (Esquema I) para escoger los vectores
de la base sería tomar los vectores b1 , Ab1 ,, Al1−1b1 , hasta que
l
encontremos que A 1 b1 es linealmente dependiente de los
vectores anteriores (obviamente, en este caso los vectores
Al1+1b1 , Al1+2b1 ,, también son linealmente dependientes del
conjunto anterior).

l1−1
Si 1 l  n, b
y 2 es linealmente independiente de 1 1{b , Ab , , A b1},
se toman los vectores b2 , Ab2 ,, Al2 −1b2 , hasta que se complete
la base de n vectores, o hasta que Al2 b2 sea linealmente
dependiente de todos los vectores anteriores
{b1 ,, Al1−1b1 , b2 ,, Al2 −1b2 }.

142
Se continua este procedimiento con b3 ,, hasta que se
encuentran n vectores linealmente independientes y se colocan
como columnas en la matriz T en cadenas, de la siguiente forma


T = b1
l −1
Ab1  Al1 −1b1 b2  Al2 −1b2  bq  A q bq 
q
 li = n.
i =1

En este Esquema I:
• La tendencia es tener pocas cadenas de gran longitud en la
matriz T.
• Depende fuertemente del orden de las entradas.
• Algunas entradas pueden no estar presentes en la matriz T.

143
Un segundo procedimiento (Esquema II) para escoger los
vectores de la base es el siguiente: Tómense primero los vec-
tores b1 , b2 ,, bm (si alguno de ellos es linealmente dependiente
de los anteriores se descarta), después los vectores
Ab1 , Ab2 ,, Abm , descartando los que sean linealmente depen-
dientes de todos los anteriores, y así sucesivamente hasta que se
encuentren n vectores linealmente independientes.
Los vectores obtenidos se agrupan en cadenas en la matriz T

T = b1 Ab1  Ak1 −1b1 b2  Ak2 −1b2  bm  Akm −1bm 
m

k
i =1
i = n.

Observe que este procedimiento es equivalente a tomar vectores


linealmente independientes de izquierda a derecha en la matriz
de controlabilidad B AB  An−1 B .
144
En este Esquema II:
• La tendencia es tener varias cadenas de aproximadamente la
misma longitud.
• Si la matriz B es de rango pleno, todas las entradas están
presentes en la matriz T.
• El tamaño de las cadenas no depende del orden de las entradas.

A los enteros {k1 ,, km } se les conoce como índices de


controlabilidad del sistema.

Lema 4.1. Los índices de controlabilidad del sistema son


invariantes bajo transformaciones de similitud.

145
Transformación a la forma controlador
Determinar una matriz de transformación T para llevar un
sistema multivariable controlable a la forma controlador es más
complicado que encontrar una matriz de transformación para
llevarlo a la forma de controlabilidad.
A continuación se presenta un procedimiento para llevar un
sistema a la forma controlador, con tamaño de los bloques
diagonales de Ac igual a los índices de controlabilidad del
sistema.

146
Primero, sean {k1 ,, km } los índices de controlabilidad del
sistema, y determínense las relaciones de dependencia de los
vectores Aki bi , i = 1,, m, en la base
{b1 ,, Ak1−1b1 ,, bm ,, Akm −1bm }.

k
Para la relación de dependencia para A 1b1 , colóquense todos
los términos que contienen potencias de A del lado izquierdo,
los términos que no contienen potencias de A del lado derecho,
y factorice A por la izquierda, esto es,
A *  = *

e1,k1

147
Realice lo mismo para el vector e1,k1 , esto es, coloque todos los
términos que contienen potencias de A del lado izquierdo y
factorice A por la izquierda
A *  = *

e1,k1 −1

Se continua con este procedimiento hasta tener k1 vectores


{e11 ,, e1,k1 }.

148
Después considerando la relación de dependencia del vector Ak2 b2
en la base, se aplica el procedimiento anterior, y se obtienen
otros k2 vectores {e21 ,, e2,k2 }.
m
Continuando de manera similar, encontramos un total de  ki = n
i =1
vectores, que usaremos como base.

Defínase la matriz de transformación T como


T = e11 e12  e1,k1 e21  e2,k2  em,km  ,

entonces las matrices T −1 AT y T −1B están en la forma


controlador.

149
4.4 Representaciones mínimas y
factorizaciones coprimas

Lema 4.2. Si la matriz de transferencia H ( s) = N ( s) D −1 ( s)


tiene una representación en espacio de estado controlable y
observable de orden n=deg[det D(s)], entonces todas las
representaciones de orden n de H(s) son controlables y
observables.

150
Lema 4.3. La forma controlador ( Ac , Bc , Cc ) de orden n de
H ( s) = N ( s) D −1 ( s), con n=deg[det D(s)], es observable si y solo
si N(s) y D(s) son coprimas derechas.

De los 2 resultados anteriores tenemos que:


Teorema 4.3. La representación ( A, B, C ) de orden n de la
matriz de transferencia H ( s) = N ( s) D −1 ( s), con n=deg[det D(s)],
es mínima si y solo si N(s) y D(s) son coprimas derechas.

151
Teorema 4.4. El grado del determinante de la matriz denomi-
nador de cualquier factorización coprima derecha de H(s) es
igual al grado del determinante de la matriz denominador de
cualquier factorización coprima izquierda de H(s).

152
5. Propiedades de matrices
racionales

153
5.1 Forma de Smith-McMillan

Teorema 5.1. Sea H ( s)   ppm ( s) una matriz racional propia


de rango r  min{ p, m}. Entonces existen matrices unimodula-
res U1 ( s), U 2 ( s), y una matriz racional única M(s), conocida
como la forma de Smith-McMillan de H(s), tal que

  1 ( s)  r ( s)  
diag  ( s ) ,, ( s )  ( 0) 
U1 ( s ) H ( s )U 2 ( s ) = M ( s ) =   1 r  
 (0)
 ( 0)

154
donde
• { i ( s), i ( s)}, i = 1,, r , son polinomios mónicos coprimos,
•  i ( s) |  i+1 ( s), i = 1,, r − 1,
•  i+1 ( s) |  i ( s), i = 1,, r − 1.

155
Demostración. Escríbase H(s) como H(s)=N(s)/d(s), donde d(s)
es el mínimo común múltiplo mónico de los denominadores de
H(s) y N(s)=d(s)H(s) es una matriz polinomial.
Entonces, existen matrices unimodulares U1 ( s) y U 2 ( s) tal que

diag{1 ( s),, r ( s)} (0)


U1 ( s) N ( s)U 2 ( s) = ( s) =  
 (0) (0)

donde (s ) es la forma de Smith de N(s).

156
Sean
i ( s)  i ( s)
= , i = 1,, r ,
d ( s)  i ( s)

donde { i ( s), i ( s)}, i = 1,, r , son polinomios mónicos


coprimos. Entonces la matriz
  1 ( s )  r (s)  
(s)  diag  ,  ,  ( 0) 
M (s) = = U1 ( s ) H ( s )U 2 ( s ) =   1 ( s )  r (s)  
d (s)
 (0)
 ( 0)

tiene las propiedades indicadas.

157
5.2 Forma de Smith-McMillan al infinito

Sea  p (s ) el conjunto de funciones racionales propias, es


decir, funciones de la forma h(s)=b(s)/a(s), donde a(s) y b(s)
son polinomios coprimos, y deg b( s)  deg a( s).
Con las operaciones usuales de multiplicación y suma de
funciones racionales, se puede verificar que  p (s ) es un anillo
conmutativo.

158
Se define el grado de una función racional propia
b( s )
h( s ) =   p (s)
a( s)
(también conocido como grado relativo), como
deg p h( s) := deg a( s) − deg b( s).

Con esta definición de grado, se puede demostrar que  p (s ) es


un anillo euclideano, es decir, para cualquier h( s), g ( s)   p ( s),
existen q( s), r ( s)   p ( s), tal que
h( s) = g ( s)q( s) + r ( s),
donde
r ( s) = 0, o deg p r ( s)  deg p g ( s).

159
Las unidades en el anillo  p (s ) son aquellas funciones
racionales propias u(s), para las cuales existe v( s)   p ( s) tal
que u(s)v(s)=1. Estas unidades se conocen como funciones
racionales bipropias.

Lema 5.1. La función racional propia u(s) es una unidad del


anillo  p (s ) si y solo si
deg p u ( s) = 0.

160
Considere ahora el conjunto de matrices racionales propias. El
mm
conjunto  p (s ) de matrices racionales propias cuadradas es
un anillo no conmutativo.
mm
Las unidades en  p (s ) son aquellas matrices racionales
propias no singulares, cuya inversa también es racional propia, y
se conocen como matrices bipropias, o matrices
 p (s) - unimodulares.

Lema 5.2. La matriz racional propia B(s) es bipropia si y solo


si det B(s) es una unidad en  p (s), o equivalentemente, B(s) es
bipropia si y solo si
det [lims→ B( s)]  0.

161
Se definen las siguientes operaciones elementales por filas
sobre una matriz racional propia H(s) en el anillo  p (s) :

1. Intercambiar de posición la i-ésima y j-ésima filas, f i  f j .


2. Multiplicar la i-ésima fila por una función racional bipropia,
f i → u ( s) f i , donde u ( s)   p ( s), u −1 ( s)   p ( s).
3. Sumar a la i-ésima fila la j-ésima fila, i  j , multiplicada por
una función racional propia, f i → f i +  ( s) f j , donde
 ( s)   p ( s).

Operaciones elementales por columnas se definen de manera


análoga.

162
Cualquier conjunto de operaciones elementales por filas sobre
una matriz H(s) en  p (s ) es equivalente a multiplicar por la
izquierda a H(s) por una matriz bipropia B(s). La matriz bipropia
B(s) se obtiene realizando sobre la matriz identidad las mismas
operaciones por filas que se realizaron sobre H(s).
De manera análoga, cualquier conjunto de operaciones elementa-
les por columnas sobre H(s) es equivalente a multiplicar por la
derecha a H(s) por una matriz bipropia B(s).

163
pm
Teorema 5.2. Sea H ( s)   p ( s) una matriz racional propia
de rango r  min{ p, m}. Entonces existen matrices bipropias
B1 ( s), B2 ( s), y una matriz racional propia única M  (s),
conocida como la forma de Smith-McMillan al infinito de
H(s), tal que
  1 ,, 1  
 diag  n1 nr 
( 0) 
B1 ( s ) H ( s ) B2 ( s ) = M  ( s ) = s s 
 
 ( 0) (0)

donde n1 , , nr , son enteros positivos (o cero), conocidos como


los ordenes de los ceros al infinito de H(s), y tales que
ni  ni+1 , i = 1,, r − 1.

164
Demostración. La demostración es por construcción. La matriz
M  (s) se obtiene realizando operaciones elementales por filas y
por columnas sobre H(s) en  p (s ). El procedimiento es análogo
(con los cambios adecuados) al que se utiliza para obtener la
forma de Smith de una matriz polinomial.

Lema 5.3. Sean f ( s), g ( s)   p ( s). Entonces f (s ) divide a g(s)


en  p (s ) (esto es, existe x( s)   p ( s) tal que g ( s) = f ( s) x( s)),
si y solo si
deg p f ( s)  deg p g ( s).

165
Ejemplo 5.1. Encuentre la forma de Smith-McMillan al infinito
de la matriz
 s +1 
 0 
( s + 2) 2

H (s) =  .
 1 2( s + 1) 
 2
 s + 1 ( s + 2 )( s + 3) 

La forma de Smith-McMillan al infinito de H(s) se obtiene


mediante las siguientes operaciones elementales
 s +1   1 2( s + 1) 
 0
( s + 2) 2   s + 1 ( s + 2)( s + 3) 2 
  f1  f 2  
 1 2( s + 1)   s +1 
 2  0 
 s + 1 ( s + 2)( s + 3)   ( s + 2) 2 

166
1 2( s + 1)  1 
 0
s +1 s ( s + 2)( s + 3) 2  2 s ( s + 1) s 
c1 → c1  c2 → c2 − c  
s  s +1  ( s + 2)( s + 3) 2 1
 s +1 
0   0
( s + 2) 2 
 ( s + 2) 2
 

1 
0
( s + 2) 2  s
f2 → f2   = M  ( s ).
s ( s + 1)  1
 0 s 

167
Ejemplo 5.2. Encuentre la forma de Smith-McMillan al infinito
de la matriz
 s −1 ( s + 8) 2 
 s3 0
( s − 2) 2 ( s + 4) 
H ( s) =  .
 1 s +1 
 s ( s + 1) 2 s5
0 
 

Tenemos que
 s −1 ( s + 8) 2   ( s + 8) 2 s −1 
 s3 0 0
( s − 2) 2 ( s + 4)   ( s − 2) 2 ( s + 4) s3 
  c1  c3  
 1 s +1   s +1 1 
 s ( s + 1) 2 s5
0   0
s5 s ( s + 1) 2 
  

168
1 s −1  1 
0 0 0
( s − 2) 2 ( s + 4)  s s3  s − 1 s
 c3 → c3 − 2 c1 


c1 → c1
s ( s + 8) 2  s +1 1  s  s +1 1 
0 s5 s ( s + 1) 2  0 s5 s ( s + 1) 2 
 

1  1 
s 0 0  0 0 
( s + 1) 2 s
c2  c3   c2 → c2  
 s + 1
2
1 s  1 s + 1
0 s ( s + 1) 2 s 5   0 s 5 
 s3

1 
0 0
( s + 1)  s
c3 → c3 − 2 c2   = M  ( s ).
s  1 
 0 s3
0

169
6. Polos y ceros de sistemas
multivariables

170
6.1 Polos y ceros finitos

La extensión del concepto de polos y ceros finitos de una


función de transferencia escalar, al caso de una función de
transferencia matricial de un sistema multivariable se hace a
través de la forma de Smith-McMillan de la matriz de
transferencia.

171
Sea H(s) la matriz de transferencia del sistema ( A, B, C ) y

  1 ( s)  r (s)  
diag  ( s ) ,, ( s )  0
U1 ( s ) H ( s )U 2 ( s ) = M ( s ) =   1 r  
 0
 0
la forma de Smith-McMillan de H(s).
Se definen los ceros del sistema (ceros de transmisión) como
las raíces de los polinomios numeradores 1 (s),,  r (s), en la
forma de Smith-McMillan de H(s), y se definen los polos del
sistema como las raíces de los polinomios denominadores
 1 (s),, r (s).

172
Lema 6.1. El orden de una representación mínima ( A, B, C )
de la matriz de transferencia H(s) es igual a
r
 deg  i ( s )
i =1

donde  1 (s),, r (s), son los polinomios en los denominado-


res de la forma de Smith-McMillan de H(s).
En otras palabras, el orden de una representación mínima es
igual al número de polos del sistema.

173
Relación de polos y ceros con factorizaciones coprimas
Lema 6.2. Sean {N1 (s), D1 (s)} y {N 2 (s), D2 (s)} factorizaciones
coprimas derechas de H(s). Entonces, existe una matriz
unimodular U(s) tal que
D2 ( s) = D1 (s)U (s), N 2 ( s) = N1 (s)U (s).

Sean N 0 ( s) y D0 ( s) una factorización coprima derecha de


H(s), donde
N 0 ( s) = U1−1 ( s) E ( s), D0 ( s) = U 2 ( s)R ( s),
y
diag{1 ( s ),,  r ( s )} 0 diag{ 1 ( s ),, r ( s )} 0 
E ( s ) :=   , R ( s ) :=  .
 0 0  0 I m−r 

174
y suponga que {N1 ( s), D1 ( s)} es otra factorización coprima
derecha de H(s). Del Lema 6.2 tenemos que existe una matriz
unimodular U(s) tal que
N1 ( s) = N 0 ( s)U ( s) = U1−1 ( s) E ( s)U ( s).

De lo anterior, puede entonces concluirse que la forma de


Smith de cualquier numerador derecho de factorizaciones
coprimas de H(s) es E(s).
De manera similar se puede proceder con los numeradores
izquierdos, por lo tanto tenemos el siguiente resultado.
Lema 6.3. Todos los numeradores, izquierdos o derechos, de
factorizaciones coprimas de H(s) tienen la misma forma de
Smith.

175
Con respecto a los denominadores, tenemos que existe una
matriz unimodular U(s) tal que
D1 ( s) = D0 ( s)U ( s) = U 2 ( s)R ( s)U ( s).

Entonces, la forma de Smith de cualquier denominador


derecho de factorizaciones coprimas de H(s) es la matriz

 I m−r 0 
 0  .
 diag{ r ( s ),, 1 ( s )}

176
De manera análoga, la forma de Smith de cualquier denomina-
dor izquierdo de factorizaciones coprimas de H(s) es la matriz

 I p −r 0 
 0  .
 diag{ r ( s ),, 1 ( s )}

Lema 6.4. Todos los denominadores, izquierdos o derechos, de


factorizaciones coprimas de H(s) tienen los mismos polinomios
invariantes diferentes de 1.

177
De los 2 resultados anteriores se sigue que:
• Los ceros de H(s) son las raíces de los polinomios invariantes
de N(s), donde N(s) es el numerador de cualquier factorización
coprima (izquierda o derecha) de H(s).
• Los polos de H(s) son las raíces del determinante de D(s),
donde D(s) es el denominador de cualquier factorización
coprima (izquierda o derecha) de H(s).

178
Relación de polos y ceros con representaciones mínimas
Sea ( A, B, C ) una representación mínima de H ( s) = N ( s) D −1 ( s),
con N(s) y D(s) coprimas derechas. De la representación en
forma controlador, sabemos que las matrices
 sI − Ac Bc  I n 0 
 −C  y 
 c 0 0 N ( s)

tienen la misma forma de Smith.

179
Dado que relaciones de equivalencia y transformaciones de
similitud no afectan la forma de Smith, entonces

 sI − A B   sI − Ac Bc   I n 0  I n 0 
 −C       .
 0   − Cc 0  0 N ( s)  0 E ( s)

Por lo tanto, los ceros del sistema corresponden a las raíces de


los polinomios invariantes de la matriz
 sI − A B 
 −C 
 0 
donde ( A, B, C ) es una representación mínima de H(s).

180
En el caso de los polos, sabemos que las matrices
 sI − Ac 0 I n 0 
 0  y 
 Im  0 D( s)

tienen la misma forma de Smith, entonces

 sI − A 0   sI − Ac 0  I n 0  I n 0 
 0       .
 Im   0 Im   0 D( s )  0 R ( s )

Por lo tanto, los polos del sistema son las raíces de det( sI − A).

181
Interpretación dinámica de polos y ceros finitos
Teorema 6.1. Sea ( A, B, C ) una representación mínima de
H(s). Si  es un cero de H(s), entonces existe una condición
t
inicial x(0) = x0 y un vector de entradas u (t ) = u0e , t  0,
donde u0 es un vector constante, tal que las salidas del sistema
son cero y (t ) = 0, t  0.
 sI − A B 
Si  es un cero, entonces la matriz   pierde rango
 − C 0 
en s =  .
− x0 
Es decir, existe un vector    0 tal que
 u0 
I − A B  − x0 
 −C    = 0.
 0   u0 

182
Teorema 6.2. Sea ( A, B, C ) una representación mínima de
H(s). El escalar  es un polo de H(s) si y solo si existe un
estado inicial x(0) tal que la respuesta a entrada cero u(t)=0 del
t
sistema es y(t ) = re , donde r es un vector diferente de cero.
Demostración. Similar al caso de sistemas escalares.
Para el polo  , la condición inicial es x(0)=v, donde v es un
vector propio de A asociado a  , y r=cv.

183
Otras clasificaciones de ceros
Suponga que ( A, B, C ) es una representación no necesariamen-
te mínima de H(s).
Los ceros de la matriz del sistema

 sI − A B 
P( s) =   ,
 −C 0
es decir, las raíces de los polinomios invariantes de esta matriz,
son conocidos como ceros invariantes del sistema.
Los ceros de transmisión son un subconjunto de los ceros
invariantes, y ambos conjuntos son iguales si la representación
( A, B, C ) es mínima.

184
Los ceros invariantes que no son ceros de transmisión pertenecen
a un conjunto conocido como ceros de desacoplamiento.
Los ceros de desacoplamiento están asociados a una evolución
de tipo exponencial de las variables de estado, la cual se
encuentra desacoplada de la entrada o salida del sistema.

185
Los ceros de desacoplamiento de salida son los valores a los
cuales pierde rango la matriz

 sI − A
 C .
 

Observe que un sistema tiene ceros de desacoplamiento de


salida si y solo si es no observable.
El número de ceros de desacoplamiento de salida es igual al
orden del sistema, menos el rango de la matriz de
observabilidad.

186
Los ceros de desacoplamiento de entrada son los valores a los
cuales pierde rango la matriz
sI − A B.

Observe que un sistema tiene ceros de desacoplamiento de


entrada si y solo si es no controlable.
El número de ceros de desacoplamiento de entrada es igual al
orden del sistema, menos el rango de la matriz de
controlabilidad.

187
Si ambas matrices

 sI − A
 C  y sI − A B 
 
pierden rango para s =  , entonces  es un cero de desacopla-
miento de entrada-salida.

Se definen los ceros del sistema como


ceros del sistema = ceros de desacoplamiento de entrada +
ceros de desacoplamiento de salida +
ceros de transmisión -
ceros de desacoplamiento de entrada-
salida.

188
La relación entre estos diferentes tipos de ceros se muestra
esquemáticamente en la siguiente figura.

189
6.2 Ceros al infinito

Como se ha visto, los polos y ceros finitos de un sistema se


definen a partir de la forma de Smith-McMillan de H(s). Para
preservar la información de polos y ceros finitos, en el proceso
de reducción a la forma de Smith-McMillan se utilizan opera-
ciones elementales por filas y por columnas, representadas por
matrices unimodulares (que no tiene polos o ceros finitos).
Por otro lado, estas matrices unimodulares sí modifican la
estructura al infinito de H(s).

190
Lema 6.5. Si una matriz racional H(s) está relacionada con otra
matriz racional R(s) mediante H(s)=P(s)R(s)Q(s), donde P(s) y
Q(s) son matrices racionales cuadradas no singulares, entonces
H(s) y R(s) tienen la misma forma de Smith-McMillan en s = s0
(incluyendo s0 = ), si P(s) y Q(s) no tienen polos ni ceros en
ese punto.
Esto significa que se puede obtener la información al infinito de
H(s) mediante operaciones elementales por filas y por columnas,
si las matrices que representan estas operaciones no tienen polos
ni ceros al infinito, esto es, son matrices bipropias.
Entonces, la estructura al infinito del sistema se define a partir de
la forma de Smith-McMillan al infinito de H(s).

191
Sea H(s) la matriz de transferencia del sistema ( A, B, C ) y
M  (s) la forma de Smith-McMillan al infinito de H(s), esto es,
existen matrices bipropias B1 ( s), B2 ( s), tal que
 1 1  
 diag  n1 ,  , nr 
( 0) 
B1 ( s ) H ( s ) B2 ( s ) = M  ( s ) = s s 
 
 ( 0) (0)

donde n1 , , nr , son enteros positivos que satisfacen


ni  ni+1 , i = 1,, r − 1.

Se definen los enteros n1 , , nr , como los ordenes de los ceros


al infinito del sistema.

192
Otra forma de estudiar la estructura al infinito de H(s) es hacer
el cambio de variables
1
s→

y obtener la forma de Smith-McMillan de H (1 /  ). Entonces, la
información de H(s) en s = , corresponde a la información
de H (1 /  ) en  = 0.

193
Interpretación dinámica de los ceros al infinito
En sistemas escalares, el orden del cero al infinito de la función
de transferencia del sistema corresponde al número de veces
que se tiene que derivar la salida y(t), para que aparezca
explicitamente la entrada u(t).
En sistemas multivariables, los ordenes de los ceros al infinito
del sistema corresponden al número de veces que hay que
derivar el vector de salidas, para que aparezca explicitamente
un componente del vector de entradas, linealmente indepen-
diente de los anteriores.

194
7. Retroalimentación de
estado

195
7.1 Asignación de la dinámica del sistema

Sea un sistema multivariable ( A, B, C ), descrito por



x(t ) = Ax(t ) + Bu(t )
y (t ) = Cx (t )
y considere la retroalimentación de estado
u (t ) = − Kx (t ) + v(t )
donde K es una matriz constante de dimensiones m n, y v(t) es
un nuevo vector de entradas.

196
El sistema retroalimentado está dado por

x(t ) = ( A − BK ) x(t ) + Bv(t )
y (t ) = Cx (t ).

Como puede verse, la dinámica interna del sistema en lazo


cerrado ( A − BK , B, C ) está determinada por las raíces del
polinomio característico en lazo cerrado
 ( s) = det( sI − A + BK ).

Nos interesa que el sistema en lazo cerrado tenga una dinámica


“adecuada”, es decir, que las raíces de  (s) estén en posiciones
determinadas en el plano complejo.

197
Teorema 7.1. Sea ( A, B, C ) un sistema multivariable, y  (s)
un polinomio cualquiera de grado n (donde n es el orden del
sistema). Entonces, existe una retroalimentación de estado
u (t ) = − Kx (t ) + v(t )
tal que  (s) es el polinomio característico del sistema en lazo
cerrado, esto es,
 ( s) = det( sI − A + BK ),
si y solo si el sistema es controlable.

A continuación se muestra cómo encontrar una retroalimentación


de estado para asignar un polinomio característico cualquiera
para sistemas controlables.

198
Método a partir de la forma controlador
Sea ( A, B, C ) un sistema controlable.
1) Encuentre primeramente una matriz de transformación T
que lleve el sistema ( A, B, C ) a la forma controlador
( Ac , Bc , Cc ) para el Esquema II, esto es
Ac = T −1 AT ,
Bc = T −1 B,
Cc = CT .

199
2) Encuentre una matriz constante G (de dimensiones m  m)
tal que
 1 
 0  
  
Bc G = B0 = block diag , ki  1, i = 1,, m.
  
 
 0 

donde ki ,, km , son los índices de controlabilidad del sistema.


~
3) Defínase K c := GK , entonces el producto
B K = B GK ~=B K ~
c c c 0

es una matriz de n n, con elementos posiblemente diferentes


de cero solamente en las filas {(1), (k1 + 1),, (k1 +  + km−1 + 1)},
~
y estas filas corresponden a las filas 1,2,...,m, de K .

200
~ , se puede
Es evidente que con una elección adecuada de K
hacer que la matriz
A −B K = A −B K ~
c c c c 0

tenga elementos arbitrarios en las filas


{(1), (k1 + 1),, (k1 +  + km−1 + 1)}.

Debido a ésto, y a la forma de la matriz Ac , se puede encontrar


~
una matriz K (y por consiguiente, K c ) tal que la matriz
Ac − Bc K c tenga como polinomio característico un polinomio
cualquiera de grado n.
Observe que la matriz K c tal que Ac − Bc K c tenga un polino-
mio característico dado, no es única.

201
Continuando con el procedimiento, a continuación se indica
como encontrar K~ tal que la matriz Ac − Bc K c tenga un solo
bloque en forma compañera superior, y como polinomio
característico un polinomio cualquiera  (s ).
~
4) Escoja las filas 2,, m, de K , de manera tal que los
elementos en las filas {( k1 + 1),, (k1 +  + km−1 + 1)} de la matriz
Ac − B0 K~ sean cero, excepto los elementos
(k1 + 1, k1 ), (k1 + k2 + 1, k1 + k2 ),, (k1 +  + km−1 + 1, k1 +  + km−1 )
que deben ser iguales a 1.

202
5) Escoja la primera fila de K~ de manera tal que la primera fila
~
de Ac − B0 K sea el vector
− 1 −2  −n 
donde
 ( s) = s n + 1s n−1 +  +  n .

Entonces, tenemos que


 ( s ) = det( sI − Ac + B0 K~ ) = det( sI − Ac + Bc K c ).

203
6) Por lo tanto, una matriz de retroalimentación K que asigna el
polinomio  (s) en lazo cerrado para el sistema ( A, B, C ) está
dada por
K = K cT −1
ya que

 ( s ) = det( sI − Ac + Bc K c )
= det( sI − T −1 AT + T −1 BK c )
= det[T −1 ( sI − A + BK cT −1 )T ]
= det( sI − A + BK ).

204
Ejemplo 7.1. Para el sistema controlable ( A, B, C ), donde
0 0 1 0 1 0
1 0 2 0 0 0
A= , B= ,
0 1 3 1 0 0
0 0 − 21 5 0 1
 

1 0 0 0
C=
0 0 1 0

con polinomio característico


det(sI − A) = s 4 − 8s 3 + 34s 2 + 9s + 5,

encuentre una retroalimentación de estado, tal que el polinomio


característico del sistema en lazo cerrado sea
 (s) = (s + 1)(s + 2)(s + 3)(s + 4) = s 4 + 10s 3 + 35s 2 + 50s + 24.

205
Para este sistema, tenemos que la transformación que lo lleva a
la forma controlador para el Esquema II está dada por
1 0 0 − 2
0 1 0 0
T = b1 Ab1 − b2 b2 Ab2 − 2b1 − 8b2  =  ,
0 0 0 1
0 − 1 1 − 3

por lo que

0 0 2 1 1 0
1 0 0 0 0 0
−1
Ac = T AT =  , Bc = T −1 B =  .
1 − 5 8 − 36 0 1
0 0 0 0
 0 1 

206
Como queremos que
0 0 2 1  k~11 ~
k12
~
k13
~
k14 
1 0 0 0  0 0 0 0 
Ac − B0 K = 
~ −  ~ ~ ~ ~
1 − 5 8 − 36 k 21 k 22 k 23 k 24 
0  
 0 1 0  0 0 0 0

− 1 −  2 −  3 −  4  − 10 − 35 − 50 − 24
 1 0 0 0  1 0 0 0
= = 
 0 1 0 0  0 1 0 0
 0   0 
 0 1 0   0 1 0 

entonces
~ 10 35 52 25
K =  = Kc .
 1 − 6 8 − 36

207
Por consiguiente

−1 10 87 201 52


K = K cT = ,
 1 2 − 10 8 

− 10 − 87 − 200 − 52
 1 0 2 0
A − BK =  
 0 1 3 1
 −1 − 2 − − 
 11 3

det(sI − A + BK ) = s 4 + 10s 3 + 35s 2 + 50s + 24 =  (s).

208
Método directo
El polinomio característico del sistema en lazo cerrado está
dado por
det( sI − A + BK ) = det( sI − A) det[ I n + ( sI − A−1 ) BK ].

En este método, se trata de encontrar la matriz de retroalimenta-


ción K de la forma K=qt, donde q y t son vectores, respectiva-
mente de dimensiones m 1 y 1 n.
~
Si se define Bq := b , entonces tenemos que
~
det[ I n + ( sI − A) −1 Bqt ] = det[ I n + ( sI − A) −1 b t ]
~
= 1 + t ( sI − A) −1 b .

209
Por lo tanto, si el par ( A, Bq) = ( A, b~ ) es controlable, el
problema se ha reducido al caso escalar, y el vector t puede
encontrarse por alguna de las fórmulas de ganancias para
sistemas escalares (fórmulas de Bass-Gura o Ackermann).
Un problema que surge en este punto es: Si (A,B) es controlable,
¿existe siempre un vector q tal que (A,Bq) es controlable?
La respuesta es no en general, como se muestra a continuación.
Teorema 7.2. El par (A,B) es no controlable si el número de
entradas del sistema (número de columnas de B=m) es menor
que el número de polinomios invariantes diferentes de 1 de la
matriz (sI-A).

210
Del teorema anterior, si el par (A,B) es controlable, entonces
existe un vector q tal que (A,Bq) es controlable solo si la matriz
(sI-A) tiene un solo polinomio invariante diferente de 1.
Si esto sucede, se dice que (sI-A) es una matriz simple y que la
matriz A es una matriz cíclica.

211
Las siguientes afirmaciones son equivalentes:
i) La matriz A es cíclica.
ii) La forma de Smith de (sI-A) tienen un solo polinomio
invariante diferente de 1.
iii) El polinomio característico de A es igual a su polinomio
mínimo.
iv) La forma canónica racional de A tiene un solo bloque.
v) La forma de Jordan de A tiene un solo bloque de Jordan
asociado a cada valor propio diferente de A.
vi) La multiplicidad geométrica de cualquier valor propio de A
es igual a 1.

212
Teorema 7.3. Si el par (A,B) es controlable y A es cíclica,
entonces existe un vector q tal que el par (A,Bq) es controlable.

El procedimiento para encontrar la retroalimentación en el


método directo es el siguiente:
1) Si la matriz A no es cíclica, usar una retroalimentación
preliminar K1 para hacer que A ~ := A − BK sea cíclica.
1

( ~, Bq)
A
2) Encontrar un vector q tal que el par sea controlable.
3) Aplicar las fórmulas del caso escalar, para encontrar un
 ( s ) = det( sI − ~ + Bqt ).
A
vector t tal que
4) La retroalimentación a aplicar al sistema ( A, B, C ) para
asignar  (s ) es entonces K = K1 + K 2 , donde K 2 = qt.

213
Ejemplo 7.2. Utilizando el método directo, para el sistema
( A, B, C ) del ejemplo anterior
0 0 1 0 1 0
1 0 2 0 0 0
A= , B= ,
0 1 3 1 0 0
0 0 − 21 5 0 1
 

1 0 0 0
C=
0 0 1 0

encuentre una retroalimentación de estado, tal que el polinomio


característico del sistema en lazo cerrado sea
 (s) = (s + 1)(s + 2)(s + 3)(s + 4) = s 4 + 10s 3 + 35s 2 + 50s + 24.

214
Se puede verificar que la matriz A es cíclica, entonces K1 = 0,
~
y A = A.

1  ~
Con el vector q =  , se puede verificar que el par ( A, b ), es
0 
controlable, donde
1 
0 
~
b = Bq =  .
0 
0 
 

Utilizando las fórmulas de Bass-Gura o de Ackermann, para el


polinomio  (s ) tenemos que
t = 18 145 589 116.

215
Por lo tanto
18 145 589 116 
K = qt =   ,
0 0 0 0

− 18 − 145 − 588 − 116 


 1 0 2 0
A − BK =  
 0 1 3 1
 0 − 
 0 21 5 
y

det(sI − A + BK ) = s 4 + 10s 3 + 35s 2 + 50s + 24 =  (s).

216
Ejemplo 7.3. Para el sistema controlable
 2 8 0 6 12 0 1
 1 0 0 0 0 0 0
   
A = − 25 − 50 − 10 − 53 − 74, B =  1 − 5
   
 0 0 1 0 0   0 0 
 0 0 0 1 0 0 0

donde
det( sI − A) = ( s + 1) 2 ( s + 2)3 ,
encuentre una retroalimentación de estado utilizando el método
directo, tal que el polinomio característico del sistema en lazo
cerrado sea
 (s) = (s + 1)5 = s 5 + 5s 4 + 10s 3 + 10s 2 + 5s + 1.

217
Puede verse de
1 
 1 
 
Smith ( sI − A ) = 1 
 s + 2 
 
 ( s + 1) ( s + 2) 
2 2

que la matriz A no es cíclica.

218
Necesitamos encontrar una retroalimentación preliminar K1
para hacer cíclica a A. Por ejemplo,
 2 8 0 6 12  2 8 0 6 12 0 0 0 0 0
 1 0 0 0 0   1 0 0 0 0
~      
A = A − BK1 = − 25 − 50 − 10 − 53 − 74 − − 25 − 51 − 10 − 53 − 74 = 0 1 0 0 0
     
 0 0 1 0 0    0 0 1 0 0
 0 0 0 1 0   0 0 0 1 0

 2 8 0 6 12
K~1 =  
− 25 − 51 − 10 − 53 − 74

5 1 ~ − 15 − 11 − 10 − 23 − 14
K1 = GK~1 =   K1 =  2 ,
1 0   8 0 6 12 

~
A
donde es claramente cíclica.

219
5
Con el vector q=  se puede ver que
1
1 
0 
~  
b = Bq = 0
0 
 
0
~, b~ ) es controlable (de hecho, está en la forma
y que el par ( A
canónica controlador).
Para el polinomio  (s ) deseado, tenemos que
t = 5 10 10 5 1
y
25 50 50 25 5
K 2 = qt =  .
 5 10 10 5 1

220
Por lo tanto
10 39 40 2 − 9
K = K1 + K 2 =   ,
 7 18 10 11 13

− 5 − 10 − 10 − 5 − 1
 1 0 0 0 0
 
A − BK =  0 1 0 0 0
 0 0 1 0 0 
 
 0 0 0 1 0

det(sI − A + BK ) = s 5 + 5s 4 + 10s 3 + 10s 2 + 5s + 1 =  ( s).

221
Enfoque de función de transferencia
Sea H(s) la matriz de transferencia del sistema controlable
( A, B, C ).

Considere una factorización polinomial derecha {N(s),D(s)} de


H(s) con D(s) reducida por columnas, y suponga que ( A, B, C )
está en la forma controlador. En particular, suponga que la
representación ( A, B, C ) se obtuvo siguiendo el procedimiento
indicado en la Sección 4.1.
Entonces, tenemos que
D( s ) ( s ) = U ( s )
Y ( s ) = N ( s ) ( s ).

222
Aplicando la retroalimentación de estado
U ( s) = − K c x( s) + V ( s) = − K c  ( s) ( s) + V ( s)
tenemos que
 ( s) = D −1 ( s)U ( s ) = D −1 ( s)[− K c  ( s ) ( s) + V ( s )]
[ I + D −1 ( s ) K c  ( s )] ( s ) = D −1 ( s )V ( s )
de donde
 ( s ) = [ I + D −1 ( s ) K c  ( s )]−1 D −1 ( s )V ( s )
= [ D( s ) + K c  ( s )]−1V ( s ).

223
Como Y ( s) = N ( s) ( s), entonces
Y ( s) = N ( s)[ D( s) + K c  ( s)]−1V ( s).

Por lo tanto, la matriz de transferencia del sistema en lazo


cerrado está dada por
H K ( s) = N ( s)[ D( s) + K c  ( s)]−1.
 
DK ( s )

224
Escribiendo D(s) como
D( s) = Dhc S ( s) + D lc ( s)
donde
  s k −1   s k −1 
1 m

     
   
S ( s) = diag{s ki }, y  ( s ) = block diag   ,    
  s   s  
     
 1   1 

y k1 ,, km , son los grados por columnas de D(s), entonces


DK ( s ) = Dhc S ( s ) + Dlc  ( s ) + K c  ( s )
= Dhc S ( s ) + [ Dlc + K c ] ( s ).

225
De lo anterior, podemos ver que la retroalimentación de estado:
• No modifica la matriz numerador N(s).
• Puede modificar la matriz Dlc .
• No modifica los grados por columnas de D(s), los cuales
corresponden a los índices de controlabilidad del sistema.

226
7.2 Teorema de control de estructura de Rosenbrock

Sea ( A, B, C ) una representación controlable de orden n de


H ( s) = N ( s) D −1 ( s), donde D(s) es reducida por
n = deg[det
columnas y D( s)].
Los grados por columnas k1 ,, km , de D(s) son los índices de
controlabilidad del sistema.

227
Sea
1 ( s ) 
  
 
  m ( s )
la forma de Smith de D(s), donde
i ( s) | i+1 ( s), i = 1,, m − 1.

Tenemos que los polinomios invariantes {1 ( s),, m ( s)} de


D(s) coinciden con los últimos m polinomios invariantes de la
matriz (sI-A).

228
Teorema 7.3. Sean {1 ( s),, m ( s)} los polinomios invariantes
de D(s), con D(s) reducida por columnas, y suponga que los
grados por columnas de D(s) están ordenados de manera no
decreciente, esto es, k1  k2    km .
Entonces, se cumple que
r r
 deg i ( s)   ki , r = 1,, m,
i =1 i =1

con igualdad cuando r=m.

229
Teorema 7.4. (teorema de control de estructura)
Sea el par (A,B) controlable, con índices de controlabilidad
k1  k2    km , {ysean
1 ( s ),,  m ( s )} un conjunto
de polinomios mónicos que satisfacen
m
i ( s ) | i+1 ( s ), y  deg i ( s ) = n.
i =1

Entonces, existe una matriz de retroalimentación K, tal que


{1 ( s),, m ( s)} son los últimos m polinomios invariantes de
la matriz (sI-A+BK), si y solo si
r r
 deg i ( s)   ki , r = 1,, m.
i =1 i =1

230
8. Invariantes de sistemas
multivariables

231
8.1 Forma canónica de Brunovsky

Sea (A,B) un par controlable, con índices de controlabilidad


{k1 ,, km }. Entonces existe cambio de base en el estado T,
cambio de base en las entradas G, y retroalimentación de estado
K, tal que

232
 0  
 1   
 , k i  k i , i = 1, , m.
A = T −1 ( A − BK )T = block diag 
    

  
1 0 

 1  
 0  
 
B = T −1 BG = block diag   , k i  1, i = 1,  , m .
  
 
 0 

donde el par ( A, B) es conocido como la forma canónica de


Brunovsky.

233
8.2 El interactor del sistema

Asociada a la matriz de transferencia H(s) de un sistema lineal


multivariable ( A, B, C ) existe una matriz polinomial única (s),
conocida como el interactor del sistema.
Esta matriz es de hecho una forma canónica bajo compensación
dinámica para sistemas lineales, y es invariante bajo retroali-
mentación de estado.

234
pm
Sea H ( s)   p ( s) la matriz de transferencia del sistema
( A, B, C ), con H ( s) = p.
rango Existe una matriz
( s)   pp  m [ s],
bripropia B(s) y una matriz polinomial triangularinferior
conocida como el interactor del sistema, tal que

H ( s) B( s) =  −1 ( s) 0
y (s) tiene la forma
 s f1 0
 
( s) =    
 p ,1 ( s )  s 
fp

donde, para i>j, i , j ( s) = 0, o i , j ( s) s − fi es un polinomio


divisible entre s.

235
8.3 Forma canónica de Morse

Sea ( A, B, C ) un sistema lineal multivariable. Entonces existe


cambio de base en el estado T, cambio de base en las entradas
G, cambio de base en las salidas H, retroalimentación de estado
K, inyección de salida F, una lista de polinomios
I1 = {1 ( s),, l1 ( s)}, y 3 listas de enteros I 2 = { 1 ,, l2 },
I 3 = { 1 ,, l }, I 4 = {n'1 ,, n'l },
3 4
conocidas como las
( AM , BM , CM ),
listas de Morse, tal que la representación
conocida como la forma canónica de Morse, está dada por

236
 A4 
 A3 
AM = T −1 ( A − BK − FC )T =  
 A2 
 A1 

 B4 0
0 0
BM = T −1 BG =  
0 B2 
0 0 

C4 0 0 0
C M = HCT = 
0 C3 0 0

237
donde
 0 1  
    
 , n'i n'i , i = 1,, l4 
A4 = block diag 
  1 

  
0 

 0 1  
   
 ,  i   i , i = 1,, l3 
A3 = block diag 
 1   
 0 
0 

238
 0 1  
    
 ,  i   i , i = 1,, l2 
A2 = block diag  
  1 
  0 


A1 = block diag J  ,, J 
1 l1

donde J i es un bloque en forma compañera con polinomio


característico  i (s ),

239
 0  
 0  
 
B4 = block diag   , n'i 1, i = 1,, l4 ,
  
 1 

 0  
 0  
  
B2 = block diag  ,  i  1, i = 1,, l2 ,
  
 
 1 

C4 = block diag  1 0  0, 1 n'i , i = 1,, l4 ,

C2 = block diag  0 0  1, 1  i , i = 1,, l3 .

240
Las listas de Morse del sistema ( A, B, C ) están relacionadas
con los invariantes de Kronecker de la matriz del sistema

 sI − A − B 
P( s) =  
 C 0 
de la siguiente forma:
• la lista I1 son los polinomios invariantes de P(s), cuyas raíces
son los ceros invariantes del sistema,
• la lista I 2 son los índices mínimos por columnas de P(s),
• la lista I 3 son los índices mínimos por filas de P(s),
• la lista I 4 son los ordenes de los ceros al infinito de P(s).

241

También podría gustarte