Está en la página 1de 25

1

Solución de las Ecuaciones de Estado.

ÍNDICE

1. Introducción.

2. Existencia y unicidad de la solución.

3. Solución de la ecuación homogénea. Matriz de transición.

4. Propiedades de la matriz de transición.

5. Solución de la ecuación no homogénea.

5.1. Solución en el dominio del tiempo.

5.2. Solución mediante la transformada de Laplace.

6. Cálculo de la matriz de transición de sistemas invariantes.


2

SOLUCIONES DE LAS ECUACIONES DE ESTADO

1. Introducción

En capítulos precedentes se ha tratado el problema de la definición y


linealización de modelos matemáticos de sistemas dinámicos; los modelos obtenidos
presentaban, en general, la forma de sistemas de ecuaciones diferenciales normalizadas.
En este capítulo se va a estudiar, fundamentalmente, la resolución de los mencionados
sistemas (ecuaciones de estado y de salida), desarrollando algunos de los métodos más
frecuentemente utilizados.

Antes de entrar decididamente en el problema, interés hacer algunas


consideraciones sobre las diversas formas de las ecuaciones de estado y su significado
físico-matemático.

La figura 4.1 muestra, en forma resumida, el cuadro de posibilidades existentes.


Partiendo del caso general incluido en el bloque número 1, que corresponde a un
sistema no lineal de parámetros variables con el tiempo, aparecen como alternativas los
dos bloques siguientes, que corresponden a tipos especiales de sistemas. El número 2 se
refiere a los sistemas cuyo segundo miembro de las ecuaciones generales de estado no
dependen explícitamente del tiempo, pero que lógicamente dependerá de dicha variable
a través de los vectores 𝑥(𝑡) y 𝑢(𝑡); se trata de sistemas invariantes con el tiempo, en
general no lineales. El número 3 corresponde a aquellos sistemas en los que se ha
3

conseguido que el segundo miembro de las ecuaciones de estado dependa linealmente


de 𝑥 y 𝑢 . Se trata de sistemas lineales; en general variables con el tiempo, cuya
condición de variabilidad se expresa en sus ecuaciones de estado por el hecho de que las
matrices A, B, C y D del sistema incluyen elementos cuyo valor depende del tiempo. Se
puede ir a tipos de sistemas de una mayor restricción, como los representados en el
último bloque, consiguiendo la linealidad para los sistemas invariantes con el tiempo, o
la no variación de los parámetros con el tiempo para los sistemas lineales,
correspondientes a los bloques números 2 y 3. En ambos casos se llega a sistemas
lineales invariantes con el tiempo.

En cuanto a la solución de las ecuaciones generales de estado del sistema, se


trata de resolver la primera de ellas, que es la ecuación de estado. Su solución 𝑥(𝑡)
viene determinada, en forma unívoca, por el estado inicial 𝑥(𝑡0 ) del sistema y los
valores de la señal de entrada 𝑢(𝑡) para 𝑡 ≥ 𝑡0; la solución de la ecuación de salida se
obtiene por simple sustitución en la misma de la solución 𝑥(𝑡) obtenida.

Cuando se trata de resolver ecuaciones diferenciales no lineales en general, las


posibilidades de llegar a una solución analítica son prácticamente nulas; por lo que
habrá de recurrirse a su simulación y resolución en un computador. Prescindiendo de
algunas excepciones, existen posibilidades de obtener una solución analítica de tipo
general, en los casos de ecuaciones diferenciales correspondientes a sistemas de
segundo orden no lineales e invariantes con el tiempo y de sistemas lineales de
cualquier orden. En el primero de ambos, puede llegarse a obtener, en determinados
casos prácticos relativamente importantes, un conocimiento general de la solución; pero
una teoría generalizada para la resolución de las ecuaciones diferenciales, solamente se
consigue cuando éstas son lineales. Por tal motivo, éste será el tipo de ecuaciones a
tratar; preferentemente en el caso de sistemas invariantes con el tiempo.

Las ecuaciones diferenciales de estado que caracterizan el comportamiento de un


sistema dinámico lineal son, como es sabido, las expresadas por las relaciones (4.8) y
(4.9). El comportamiento dinámico y especialmente la estabilidad del sistema vienen
determinados por la matriz A y sus valores propios 𝜆𝑖 . El comportamiento del sistema
como dispositivo que realiza la transmisión de una señal 𝑢(𝑡) entre su entrada y su
salida 𝑦(𝑡) viene fijado por las dos ecuaciones (4.8) y (4.9); por el contrario, el
comportamiento dinámico del mismo es determinado exclusivamente por la ecuación de
estado (4.8), con sus condiciones iniciales.

Las condiciones iniciales representan el estado energético de los elementos


capaces de almacenar energía, existentes en el sistema, en el instante de tiempo
considerado 𝑡 = 𝑡0 . Ahora puede verse la ventaja que supone la utilización de la
representación de estado, en comparación con la clásica de la función de transferencia a
la respuesta frecuencial, en la que siempre ha de suponerse que el sistema no contiene
energía alguna; circunstancia que no puede aceptarse en determinadas aplicaciones. La
introducción de las condiciones iniciales del sistema en la teoría clásica de control
4

conduce, como es sabido, a laboriosos y complejos cálculos; a diferencia de la


transparencia que ofrece la representación de estado, especialmente cuando se trata de
sistemas de orden superior multivariables.

2. Existencia y unicidad de la solución

El modelo matemático de estado de un sistema dinámico continuo viene


expresado, como es sabido, por las dos ecuaciones vectoriales

𝑥̇ (𝑡) = 𝑓[𝑥(𝑡), 𝑢(𝑡), 𝑡] (4.1)

𝑦(𝑡) = 𝑔[𝑥(𝑡), 𝑢(𝑡), 𝑡] (4.2)

Cuando se introdujeron las variables de estado, el vector de estado se definió como


aquel cuyo conocimiento en el instante inicial 𝑡0 es suficiente para conocida la función
de entrada 𝑢[𝑡0 ,𝑡] , poder determinar de forma unívoca el estado 𝑥(𝑡) del sistema, para
cualquier valor 𝑡 ≥ 𝑡0, y con ello el vector de salida del sistema 𝑦(𝑡). La unicidad de la
solución 𝑥(𝑡) es absolutamente necesaria cuando se trata de sistemas dinámicos reales
de tipo técnico o científico aplicado, ya que en ellos (excluyendo los sistemas
estocásticos) todos los procesos o fenómenos se realizan de una forma determinada, lo
que invalida aquellos modelos matemáticos que admitan solución múltiple.

Las condiciones que han de cumplir las ecuaciones para que se dé la existencia y
unicidad de la solución, serán fijadas solamente con la generalidad necesaria para tratar
sistemas técnico-científicos; evitándose así las complicaciones que tal tarea ocasionaría
si se abordase cualquier tipo de sistema en general, como suele ser el caso en las
ciencias matemáticas.

En primer lugar, se requiere que la componente 𝑓𝑖 de la función vectorial 𝑓,


correspondiente a la ecuación (4.1), sea continua por tramos en función del tiempo; esto
es, que en cada intervalo finito de tiempo presente únicamente un número finito de
puntos de discontinuidad y que, en cada uno de ellos, exista un valor límite por la
izquierda y otro por la derecha que sean finitos, Este tipo de funciones suele conocerse
como funciones son discontinuidad de “salto de magnitud finita”. Veamos, con más
detalle, el significado de lo expuesto. Las funciones 𝑓𝑖 dependen de 𝑥, 𝑢 y 𝑡 ; si se
mantiene fija 𝑥, la función 𝑓𝑖 dependerá solamente de 𝑢(𝑡) y de 𝑡. En estas últimas
condiciones, se requiere la propiedad de salto de magnitud finita para las 𝑚 funciones
de entrada 𝑢1 , 𝑢2 , … . 𝑢𝑚 .
5

Las discontinuidades pueden provenir de las 𝑚 funciones de entrada 𝑢𝑖 (. ) o


también de variaciones bruscas de las propiedades del sistema. Si, por ejemplo, se tiene
la relación

𝑓𝑖 �𝑥(𝑡), 𝑢(𝑡), 𝑡� = ℎ𝑖 �𝑥(𝑡), 𝑡� + 𝑏𝑖 (𝑡)𝑢(𝑡) (4.3)

La función𝑓𝑖 variará en forma de salto si lo hace una de las componentes de 𝑢(𝑡). Este
hecho es admisible, pero se requiere que dichas componentes permanezcan finitas y que
en los puntos de discontinuidad existan límites finitos por la izquierda y por la derecha;
tal como se muestra en la figura 4.2 a). Una función como la representada en la figura
4.2 b) sería inadmisible.

Si la función 𝑓𝑖 depende explícitamente del tiempo, pueden existir variaciones en


forma de salto en los parámetros del sistema dependientes del tiempo, a condición de
que 𝑓𝑖 permanezca finita. Si se tiene, por ejemplo, relación

𝑓𝑖 �𝑥(𝑡), 𝑢(𝑡), 𝑡� = 𝑎𝑖 (𝑡)𝑥(𝑡) + 𝑏𝑖 (𝑡)𝑢(𝑡) (4.4)

pueden variar en forma de salto las componentes de los vectores fila 𝑎𝑖 (𝑡) y 𝑏𝑖 (𝑡).

Las condiciones admitidas para la función 𝑓𝑖 son verdaderamente interesantes e


importantes, ya que en las aplicaciones técnicas aparecen frecuentemente funciones de
entrada con saltos de magnitud finita, como las tensiones con formas de onda cuadrada
o rectangular, o varían en la misma forma las propiedades del sistema, por ejemplo
como consecuencia del accionamiento de relés o interruptores.

Finalmente se requiere que la función vectorial 𝑓 cumpla la denominada


condición de Lipschitz, expresada de la siguiente manera:

“Si existe un número real L > 0, tal que ∀ t ∈ T, ∀ u(t) ∈ U y ∀ x(t) ∈ X, para
cada uno de los valores x (1) (t) ∈ X y x (2) (t) ∈ X, verifican la desigualdad
6

�𝑓�𝑥 (1) (𝑡), 𝑢(𝑡), 𝑡� − 𝑓[𝑥 (2) (𝑡), 𝑢(𝑡), 𝑡]� ≤ 𝐿�𝑥 (1) (𝑡) − 𝑥 (2) (𝑡)�(4.5)

la función f cumple la condición de Lipschitz respecto de x(t)”.

A 𝐿 se le denomina “constante de Lipschitz”. Definida lo que es una “solución2 de la


ecuación diferencial (4.1) en la forma:

“Una función vectorial 𝜑, continua en el intervalo de tiempo 𝑇, es solución de la


ecuación diferencial (4.1) si, excepto en los puntos de discontinuidad, se cumple
la relación

𝜑̇ (𝑡) = 𝑓[𝜑(𝑡), 𝑢(𝑡), 𝑡] (4.6)

puede formularse el criterio para la existencia y unicidad de una solución en la forma


siguiente:

“Si la función 𝑓 de la ecuación diferencial

𝑥̇ (𝑡) = 𝑓[𝑥(𝑡), 𝑢(𝑡), 𝑡] (4.7)

es continua por tramos, en función del tiempo, en el intervalo 𝑇 = [𝑡𝑎 , 𝑡𝑏 ] y


cumple la condición de Lipschitz respecto de 𝑥(𝑡), existe para cada 𝑡0 ∈ 𝑇, cada
estado inicial 𝑥0 (𝑡0 ) = 𝑥0 ∈ 𝑋 y cada función de entrada 𝑢[𝑡0 ,𝑡] ∈ 𝑈 una
solución 𝜑(𝑡) única, tal que se verifica 𝜑(𝑡0 ) = 𝑥0 ”.

Seguidamente se aplicará el criterio expuesto a los sistemas dinámicos lineales,


objetivo preferente de estudio. Las ecuaciones de estado y salida correspondientes a un
sistema dinámico lineal son, según se demostró, de la forma

𝑥̇ (𝑡) = 𝐴(𝑡)𝑥(𝑡) + 𝐵(𝑡)𝑢(𝑡) (4.8)

𝑦(𝑡) = 𝐶(𝑡)𝑥(𝑡) + 𝐷(𝑡)𝑢(𝑡) (4.9)

Se supondrá que los elementos integrantes de las matrices 𝐴(𝑡), 𝐵(𝑡), 𝐶(𝑡), 𝐷(𝑡) y de
𝑢(𝑡) son funciones del tiempo continuas por tramos y acotadas. En tal caso, la ecuación
diferencial (4.8) tendrá una solución única, para un estado inicial 𝑥0 y una señal de
entrada 𝑢[𝑡0 ,𝑡] , si se cumplen las condiciones fijadas en el criterio dado para la existencia
y unicidad de las soluciones, aplicado a la función

𝑓�𝑥(𝑡), 𝑢(𝑡), 𝑡� = 𝐴(𝑡)𝑥(𝑡) + 𝐵(𝑡)𝑢(𝑡) (4.10)

Bajo el supuesto de continuidad aceptado para 𝐴(𝑡), 𝐵(𝑡) y 𝑢(𝑡), queda asegurado que
la ecuación (4.8) es continua por tramos respecto del tiempo 𝑡 . Queda, pues, por
comprobar si la menconada ecuación cumple la condición de Lipschitz respecto de
𝑥(𝑡). Para dos vectores de estado cualesquiera x (1) (t) y x (2) (t) se tiene que
7

�𝑓�𝑥 (1) (𝑡), 𝑢(𝑡), 𝑡� − 𝑓�𝑥 (2) (𝑡), 𝑢(𝑡), 𝑡��


= �𝐴(𝑡)𝑥 (1) (𝑡) + 𝐵(𝑡)𝑢(𝑡) − 𝐴(𝑡)𝑥 (2) (𝑡) − 𝐵(𝑡)𝑢(𝑡)�
= �𝐴(𝑡)�𝑥 (1) − 𝑥 (2) �� ≤ �𝐴(𝑡)��𝑥 (1) − 𝑥 (2) �

�𝐴(𝑡)��𝑥 (1) − 𝑥 (2) � ≤ 𝐿�𝑥 (1) − 𝑥 (2) �(4.11)

donde las normas del vector y de las matrices deberán ser compatibles, eligiéndose 𝐿 de
forma que 𝐿 = 𝑚𝑎𝑥�𝐴(𝑡)�. Con ello queda demostrado que la ecuación (4.8) cumple
también la condición de Lipschitz y por tanto tiene solución única.

3. Solución de la ecuación homogénea. Matriz de transición

La ecuación homogénea, correspondiente a un sistema lineal cuyos parámetros


varían con el tiempo es

𝑥̇ (𝑡) = 𝐴(𝑡)𝑥(𝑡)𝑥(𝑡0 ) = 𝑥0 (4.12)

Se puede hallar la solución de esta ecuación valiéndose del método iterativo de


integración de Peano Baker, cuya fórmula de iteración es:
𝑡
𝜑𝑘 (𝑡) = 𝑥0 + � 𝑓[ 𝜑𝑘−1 (𝜏), 𝑢(𝜏), 𝜏] 𝑑𝜏
𝑡0
(4.13)

En el presente caso, a la función 𝑓 le corresponde la expresión 𝐴(𝑡)𝜑𝑘−1 (𝑡) con lo que


se irán obteniendo, en forma sucesiva los siguientes valores

𝜑0 (𝑡) = 𝑥0

𝑡 𝑡
𝜑1 (𝑡) = 𝑥0 + � 𝐴(𝜏)𝜑0 (𝜏) 𝑑𝜏 = 𝑥0 + � 𝐴(𝜏) 𝑑𝜏 𝑥0
𝑡0 𝑡0
(4.14)
𝑡 𝜏
𝜑2 (𝑡) = 𝑥0 + � 𝐴(𝜏) �𝑥0 + � 𝐴(𝜏1 ) 𝑑𝜏1 𝑥0 � 𝑑𝜏
𝑡0 𝑡0
𝑡 𝑡 𝜏
= 𝑥0 + � 𝐴(𝜏) 𝑑𝜏 𝑥0 + � 𝐴(𝜏) � 𝐴(𝜏1 ) 𝑑𝜏1 𝑑𝜏 𝑥0
𝑡0 𝑡0 𝑡0

----------------------------------------------------------------------------------------------------------
8

𝜑𝑘 (𝑡)
𝑡
= �𝐼 + � 𝐴(𝜏) 𝑑𝜏
𝑡0
𝑡 𝜏 𝑡 𝜏 𝜏𝑘−2
+ � 𝐴(𝜏) � 𝐴 ( 𝜏1 � 𝑑𝜏1 𝑑𝜏+. … . . + � 𝐴(𝜏) � 𝐴(𝜏1 ) … � 𝐴( 𝜏𝑘−1 )𝑑𝜏𝑘−1 … 𝑑𝜏1 𝑑𝜏� 𝑥0
𝑡0 𝑡0 𝑡0 𝑡0 𝑡0

La expresión entre corchetes de la última ecuación de (4.14) es una matriz que depende
de 𝐴(𝑡), del instante inicial 𝑡0 y del tiempo que va transcurriendo. Cuando 𝑘 → ∞ se
obtiene una solución para la ecuación diferencial homogénea, que depende de 𝑡, 𝑡0 y 𝑥0
dada por

𝜑�𝑡, 𝑡0 , 𝑥0 � = lim𝑘→∞ 𝜑𝑘 (𝑡) (4.15)

A la matriz que resulta para la expresión entre corchetes de la última ecuación de (4.14),
cuando se va al límite mencionado, se le designa por Φ(𝑡, 𝑡0 ); su valor será
𝑡 𝑡 𝜏
Φ(𝑡, 𝑡0 ) = 𝐼 + � 𝐴(𝜏) 𝑑𝜏 + � 𝐴(𝜏) � 𝐴(𝜏1 ) 𝑑𝜏1 𝑑𝜏 + …
𝑡0 𝑡0 𝑡0

𝑡 𝜏 𝜏𝑘−2
+ . . . � 𝐴(𝜏) � 𝐴(𝜏1 ) … � 𝐴(𝜏𝑘−1 ) 𝑑𝜏𝑘−1 . . . 𝑑𝜏1 𝑑𝜏 + …
𝑡0 𝑡0 𝑡0
(4.16)

De las expresiones (4.14) y (4.15) resulta como solución de la ecuación homogénea


(4.12) la siguiente

𝑥(𝑡) = 𝜑(𝑡, 𝑡0 , 𝑥0 ) = Φ(𝑡, 𝑡0 )𝑥0 (4.17)

Si el vector 𝑥(𝑡) tiene 𝑛 componentes, Φ(𝑡, 𝑡0 ) es una matriz cuadrada de dimensión


𝑛 𝑥 𝑛. A esta matriz se le denomina “matriz de transición de estado” o también (entre
los matemáticos) “matriz fundamental”. La matriz de transición determina el estado
𝑥(𝑡) al que es llevado el sistema en el instante 𝑡, partiendo de su estado inicial 𝑥0 ,
cuando la señal de entrada es idénticamente nula.

Derivando la ecuación (4.16) con respecto al tiempo 𝑡, resulta


𝑡 𝑡 𝜏
Φ̇(𝑡, 𝑡0 ) = 𝐴(𝑡) + 𝐴(𝑡) � 𝐴(𝜏) 𝑑𝜏 + 𝐴(𝑡) � 𝐴(𝜏) � 𝐴(𝜏1 ) 𝑑𝜏1 𝑑𝜏 + …
𝑡0 𝑡0 𝑡0

𝑡 𝑡 𝜏
= 𝐴(𝑡) �𝐼 + � 𝐴(𝜏) 𝑑𝜏 + � 𝐴(𝜏) � 𝐴(𝜏1 ) 𝑑𝜏1 𝑑𝜏 + … �
𝑡0 𝑡0 𝑡0
= 𝐴(𝑡)Φ(𝑡, 𝑡0 )
(4.19)

Para 𝑡 = 𝑡0 , se obtiene de (4.17)


9

𝑥(𝑡0 ) = 𝑥0 = Φ(𝑡0 , 𝑡0 )𝑥0 → Φ(𝑡0 , 𝑡0 ) = 𝐼 (4.20)

De las relaciones (4.19) y (4.20) puede obtenerse una ecuación diferencial para la matriz
de transición, con sus correspondientes condiciones iniciales; será de la forma

Φ̇(𝑡, 𝑡0 ) = 𝐴(𝑡)Φ(𝑡, 𝑡0 )Φ(𝑡0 , 𝑡0 ) = 𝐼 (4.21)

La ecuación hallada puede utilizarse para calcular Φ(𝑡0 , 𝑡) , sobre todo cuando la
función de transición no pueda ser calculada de forma analítica, ya que la solución de
(4.21) mediante computador no presenta dificultades.

En el caso de sistemas invariantes con el tiempo la matriz 𝐴(𝑡) será constante e


igual a 𝐴, convirtiéndose la ecuación (4.16) en
1
𝛷(𝑡, 𝑡0 ) = 𝛷(𝑡 − 𝑡0 ) = 𝐼 + (𝑡 − 𝑡0 )𝐴 + 2! (𝑡 − 𝑡0 )2 𝐴2 + … = 𝑒 𝐴(𝑡−𝑡0 ) (4.22)

La matriz 𝑒 𝐴(𝑡−𝑡0 ) queda definida formalmente por el desarrollo en serie de (4.22),


válido para toda 𝐴 constante para todo valor de 𝑡. La definición dada parece un poco
delicada y realmente lo es.

Como solución de la ecuación homogénea para sistemas invariantes con el


tiempo resulta de (4.17)

𝑥̇ (𝑡) = 𝛷(𝑡 − 𝑡0 )𝑥(𝑡0 ) = 𝑒 𝐴(𝑡−𝑡0 ) 𝑥(𝑡0 ) (4.23)

4. Propiedades de la matriz de transición

Además de las dos propiedades expresadas por las relaciones (4.20) y (4.21), la
matriz de transición presenta otras de gran interés y utilidad que serán obtenidas
seguidamente.
𝑡
Si las matrices 𝐴(𝑡) y ∫𝑡 𝐴(𝜏) 𝑑𝜏 conmutan, o sea si
0

𝑡 𝑡
𝐴(𝑡) � 𝐴(𝜏) 𝑑𝜏 = � 𝐴(𝜏) 𝑑𝜏 𝐴(𝑡)
𝑡0 𝑡0
(4.24)

resultan para los correspondientes términos de la ecuación (4.16), por integración


parcial, las siguientes expresiones
𝑡 𝜏 𝑡 𝜏
1 𝑡
� 𝐴(𝜏) � 𝐴(𝜏1 ) 𝑑𝜏1 𝑑𝜏 = � � 𝐴(𝜏1 ) 𝑑𝜏1 𝐴(𝜏)𝑑𝜏 = [� 𝐴(𝜏) 𝑑𝜏]2
𝑡0 𝑡0 𝑡0 𝑡0 2! 𝑡0
(4.25)
10

𝑡 𝑡 𝜏1 𝑡 𝑡
1
� 𝐴(𝜏) � 𝐴(𝜏1 ) � 𝐴(𝜏2 ) 𝑑𝜏2 𝑑𝜏1 𝑑𝜏 = � 𝐴(𝜏)[� 𝐴(𝜏1 ) 𝑑𝜏1 ]2 𝑑𝜏
𝑡0 𝑡0 𝑡0 𝑡0 2! 𝑡0
𝑡 𝜏
1 1 𝑡
=� � [𝐴(𝜏1 ) 𝑑𝜏1 ]2 𝐴(𝜏) 𝑑𝜏 = [� 𝐴(𝜏)𝑑𝜏]3
𝑡0 2! 𝑡0 3! 𝑡0
(4.26)

-----------------------------------------------------------------------------------------

Si se verifica (4.24), se obtiene como expresión de la matriz de transición


𝑡
1 𝑡 1 𝜏
𝛷(𝑡, 𝑡0 ) = 𝐼 + � 𝐴(𝜏)𝑑𝜏 + [� 𝐴(𝜏)𝑑𝜏] + [� 𝐴(𝜏)𝑑𝜏]3 + …
2
𝑡0 2! 𝑡0 3! 𝑡0
(4.27)

Por similitud con el desarrollo en serie de 𝑒 𝑥 , se puede considerar el segundo miembro


de (4.27) como un desarrollo en serie de tipo matricial, con lo que tendrá
1 1
𝛷(𝑡, 𝑡0 ) = 𝐼 + 𝒬 + 2! 𝒬2 + 3! 𝒬3 + … = 𝑒 𝒬 (4.28)

En consecuencia resulta como expresión de (4.27)


𝑡
∫𝑡 𝐴(𝜏)𝑑𝜏
𝛷(𝑡, 𝑡0 ) = 𝑒 0 (4.29)

En el caso de sistemas invariantes con el tiempo


𝑡
𝐴(𝜏) = 𝐴 = 𝑐𝑡𝑒 � 𝐴(𝜏)𝑑𝜏 = 𝐴(𝑡 − 𝑡0 )𝛷(𝑡, 𝑡0 ) = 𝑒 𝐴(𝑡−𝑡0 )
𝑡0
(4.30)

Expresión que, como es lógico, resulta igual a la obtenida en (4.22); de ésta última se
deduce que, la matriz de transición de los sistemas lineales invariantes con el tiempo
depende directamente de la diferencia de tiempos 𝑡 − 𝑡0 . Si se hace en (4.22) 𝑡 − 𝑡0 =
𝑡𝑡0 = 0, resulta

𝛷(𝑡, 𝑡0 ) = 𝛷(𝑡, 0) (4.31)

Basándose en esta relación, se ha generalizado el criterio de designar por 𝛷(𝑡) a la


matriz de transición de los sistemas lineales invariantes con el tiempo; su valor será
1 1
𝛷(𝑡) = 𝑒 𝐴𝑡 = 𝐼 + 𝐴𝑡 + 2! 𝐴2 𝑡 2 + 3! 𝐴3 𝑡 3 + … (4.32)

La condición de conmutabilidad, expresada en (4.24), se cumple en los casos en que


𝐴(𝑡) es una matriz invariante con el tiempo, una matriz diagonal o si 𝐴(𝑡) = 𝑎(𝑡)𝐾,
siendo 𝐾 también una matriz invariante. Si no se cumple la conmutabilidad, el cálculo
de 𝛷(𝑡, 𝑡0 ) resulta, en general, bastante difícil; pues en tal caso ha de recurrirse al
11

desarrollo dado en (4.16) o a la ecuación diferencial (4.21), lo que requiere laboriosos


cálculos de computador.

Otra propiedad de la función de transición, conocida como “propiedad de


transición” o “de grupo”, se obtiene a partir de la ecuación (4.17), de la que resultan las
siguientes relaciones

𝑥(𝑡2 ) = 𝛷(𝑡2 , 𝑡0 )𝑥(𝑡0 )

𝑥(𝑡1 ) = 𝛷(𝑡1 , 𝑡0 )𝑥(𝑡0 ) (4.33)

𝑥(𝑡2 ) = 𝛷(𝑡2 , 𝑡1 )𝑥(𝑡1 ) = 𝛷(𝑡2 , 𝑡1 )𝛷(𝑡1, 𝑡0 )𝑥(𝑡0 )

De las igualdades primera y última resulta

𝛷(𝑡2 , 𝑡0 ) = 𝛷(𝑡2 , 𝑡1 )𝛷(𝑡1 , 𝑡0 ) (4.34)

Haciendo esta ecuación 𝑡2 = 𝑡0 , se obtiene una nueva propiedad denominada “de


inversión”. De (4.34) se sigue

𝑡2 = 𝑡0 𝛷(𝑡0 , 𝑡0 ) = 𝐼 = 𝛷(𝑡0 , 𝑡1 )𝛷(𝑡1 , 𝑡0 ) (4.35)

y pre multiplicando por 𝛷 −1 (𝑡0 , 𝑡1 ) resulta

𝛷(𝑡0 , 𝑡1 ) = 𝛷−1 (𝑡1 , 𝑡0 ) (4.36)

Para los sistemas invariantes con el tiempo se tendrá

𝛷(𝑡, 𝑡0 ) = 𝑒 𝐴(𝑡−𝑡0 ) = 𝛷(𝑡 − 𝑡0 )

𝛷(𝑡 + 𝜏) = 𝑒 𝐴(𝑡+𝜏) = 𝑒 𝐴𝑡 𝑒 𝐴𝜏 = 𝛷(𝑡)𝛷(𝜏) (4.37)

𝛷−1 (𝑡) = [𝑒 𝐴𝑡 ]−1 = 𝑒 −𝐴𝑡 = 𝛷(−𝑡) (4.38)

Para hallar la inversa de la matriz de transición, en el caso de sistemas con parámetros


constantes, bastará, pues, con sustituir su argumento por el mismo con signo negativo.

Las propiedades obtenidas, se resumen, para mayor comodidad, en la Tabla 4.1.

Tabla 4.1

Sistemas variantes con 𝑡 Sistemas invariantes con 𝑡

𝛷̇(𝑡, 𝑡0 ) = 𝐴𝑡 𝛷(𝑡, 𝑡0 ) 𝛷̇(𝑡 − 𝑡0 ) = 𝐴𝛷(𝑡 − 𝑡0 )

𝛷(𝑡0 , 𝑡0 ) = 𝐼 𝛷(𝑡0 − 𝑡0 ) = 𝐼

𝛷(𝑡 − 𝑡0 ) = 𝑒 𝐴(𝑡−𝑡0 )
𝑡
∫𝑡 𝐴(𝜏)𝑑𝜏
𝛷(𝑡, 𝑡0 ) = 𝑒 0
12

𝛷(𝑡2 , 𝑡0 ) 𝛷(𝑡2 − 𝑡0 )
= 𝛷(𝑡2 , 𝑡1 )𝛷(𝑡1 , 𝑡0 ) = 𝛷(𝑡2 − 𝑡1 )𝛷(𝑡1 − 𝑡0 )

𝛷−1 (𝑡1 , 𝑡2 ) = 𝛷(𝑡2 , 𝑡1 ) 𝛷−1 (𝑡1 − 𝑡2 )


= 𝛷(𝑡2 − 𝑡1 )

𝛷−1 (𝑡) = 𝛷(−𝑡)

5. Solución de la ecuación no homogénea

La solución completa, 𝑥(𝑡) e 𝑦(𝑡), de las ecuaciones de estado correspondientes


a un sistema lineal; puede obtenerse utilizando diversos procedimientos. De ellos se
desarrollarán dos de los más utilizados: uno que actúa en el dominio del tiempo y otro,
utilizable solamente para sistemas cuyos parámetros no varían con el tiempo, que
resulta por aplicación directa de la transformada de Laplace a las correspondientes
ecuaciones de estado.

5.1. Solución en el dominio del tiempo

La ecuación a resolver es

𝑥̇ (𝑡) = 𝐴(𝑡)𝑥(𝑡) + 𝐵(𝑡)𝑢(𝑡) (4.39)

Por similitud con la solución de la ecuación homogénea, expresada en (4.17), se


ensayará una solución tipo

𝑥(𝑡) = Φ(𝑡, 𝑡0 )𝑧(𝑡) (4.40)

donde𝑧(𝑡) ha de obtenerse de forma que se cumpla la relación dada en (4.39).

Derivando (4.40) con respecto al tiempo 𝑡, resulta

𝑥̇ (𝑡) = Φ̇(𝑡, 𝑡0 )𝑧(𝑡) + Φ(𝑡, 𝑡0 )𝑧̇ (𝑡) (4.41)

ecuación que sustituida en (4.39), considerando (4.40), da

�Φ̇(𝑡, 𝑡0 ) − 𝐴(𝑡)Φ(𝑡, 𝑡0 )�𝑧(𝑡) + Φ(𝑡, 𝑡0 )𝑧̇ (𝑡) = 𝐵(𝑡)𝑢(𝑡) (4.42)

Pero teniendo en cuenta la relación (4.21), la expresión entre corchetes de (4.42) resulta
nula; con ello queda

Φ(𝑡, 𝑡0 )𝑧̇ (𝑡) = 𝐵(𝑡)𝑢(𝑡) (4.43)

Pre multiplicando por 𝛷−1 (𝑡, 𝑡0 ) = 𝛷(𝑡0 , 𝑡) resulta

𝑧̇ (𝑡) = 𝛷(𝑡0 , 𝑡)𝐵(𝑡)𝑢(𝑡) (4.44)

e integrando
13

𝑡
𝑧(𝑡) = 𝑧(𝑡0 ) + � 𝛷(𝑡0 , 𝜏) 𝐵(𝜏)𝑢(𝜏)𝑑𝜏
𝑡0
(4.45)

De (4.40) se obtiene 𝑧(𝑡0 ) = 𝑥(𝑡0 ), expresión que sustituida en (4.45) y ésta en (4.40)
dan la solución
𝑡
𝑥(𝑡) = Φ(𝑡, 𝑡0 )[𝑥(𝑡0 ) + � 𝛷(𝑡0 , 𝜏) 𝐵(𝜏)𝑢(𝜏)𝑑𝜏]
𝑡0
(4.46)

Teniendo en cuenta que Φ(𝑡, 𝑡0 )𝛷(𝑡0 , 𝜏) = 𝛷(𝑡, 𝜏), se obtiene como solución definitiva
𝑡
𝑥(𝑡) = Φ(𝑡, 𝑡0 )𝑥(𝑡0 ) + � 𝛷(𝑡, 𝜏) 𝐵(𝜏)𝑢(𝜏)𝑑𝜏
𝑡0
(4.47)

En esta expresión puede observarse cómo el estado de un sistema, en un instante 𝑡 a


partir de 𝑡0 , depende del estado inicial 𝑥(𝑡0 ) y de la variación de la señal de entrada
𝑢[𝑡,𝑡0 ] en el intervalo de tiempo [𝑡0 , 𝑡]. Igualmente, puede comprobarse que el estado del
sistema se compone de dos partes:

𝜑�𝑡; 𝑡0 , 𝑥0 , 0� = Φ(𝑡, 𝑡0 )𝑥0 (4.48)


𝑡
𝜑�𝑡; 𝑡0 , 0, 𝑢[𝑡0 ,𝑡] � = � 𝛷(𝑡, 𝜏) 𝐵(𝜏)𝑢(𝜏)𝑑𝜏
𝑡0
(4.49)

La expresión (4.48) describe el comportamiento del sistema en ausencia de excitación


(respuesta libre); la expresión (4.49) cuando, encontrándose en reposo (o sea cuando
𝑥0 = 0 ), es sometido a una excitación 𝑢[𝑡0 ,𝑡] (respuesta forzada). Sustituyendo la
solución (4.47) de la ecuación de estado en la de salida del sistema

𝑦(𝑡) = 𝐶(𝑡)𝑥(𝑡) + 𝐷(𝑡)𝑢(𝑡) (4.50)

se obtiene
𝑡
𝑦(𝑡) = 𝐶(𝑡) �Φ(𝑡, 𝑡0 )𝑥(𝑡0 ) + � 𝛷(𝑡, 𝜏) 𝐵(𝜏)𝑢(𝜏)𝑑𝜏� + 𝐷(𝑡)𝑢(𝑡)
𝑡0
(4.51)

En el caso, más frecuente, de que el sistema sea de parámetros invariantes con el


tiempo, aplicando la relación (4.30), se obtiene como solución de la ecuación de estado,
a partir de (4.47)
14

𝑡
𝑥(𝑡) = Φ(𝑡, 𝑡0 )𝑥(𝑡0 ) + � 𝛷(𝑡 − 𝜏) 𝐵𝑢(𝜏)𝑑𝜏
𝑡0
(4.52)

Como puede comprobarse, en esta expresión el segundo término, debido a la señal de


entrada 𝑢(𝑡), es una integral de convolución.

Veamos la aplicación de lo expuesto a un ejemplo concreto. Sea el sistema, de


parámetros invariantes con el tiempo, definido por

0 1 0 𝑥
𝑥̇ (𝑡) = � � 𝑥(𝑡) + � � 𝑢(𝑡)𝑥(𝑡0 ) = 𝑥0 = � 10 � (4.53)
0 −𝑎 1 0

𝑦(𝑡) = [1 0]𝑥(𝑡) (4.54)

Para poder aplicar (4.52), deberá calcularse previamente la matriz de transición. En este
caso se empleará el desarrollo en serie de Φ(𝑡), dado en (4.32); o sea
1 1
Φ(𝑡) = 𝑒 𝐴𝑡 = 𝐼 + 𝐴𝑡 + 2! 𝐴2 𝑡 2 + 3! 𝐴3 𝑡 3 + … (4.55)

Los valores de las potencias de 𝐴 serán

0 12 0 −𝑎
𝐴2 = � � =� � = −𝑎𝐴 ; 𝐴3 = 𝑎2 𝐴 ; 𝐴4 = −𝑎3 𝐴; ….
0 −𝑎 0 𝑎2
𝑡2 2
𝑡3
Φ = 𝐼 + 𝐴𝑡 − 𝐴𝑎 + 𝐴𝑎 + …
2! 3!
1 (𝑎𝑡)2 (𝑎𝑡)3
= �𝑎𝐼 + 𝐴 − 𝐴 + 𝐴𝑎𝑡 − 𝐴 + …�
𝑎 2! 3!
1 (𝑎𝑡)2 (𝑎𝑡)3
= �𝑎𝐼 + 𝐴 − 𝐴 �1 − 𝑎𝑡 + − + … ��
𝑎 2! 3!
1
= �𝑎𝐼 + 𝐴 − 𝐴𝑒 −𝑎𝑡 �
𝑎

y sustituyendo el valor de 𝐴

1 𝑎
Φ(𝑡) = 𝑎 ��
0
�+�
0 1
�−�
0 1 −𝑎𝑡
� 𝑒 � = 𝑎 �𝑎
1 1 − 𝑒 −𝑎𝑡 � (4.56)
0 𝑎 0 −𝑎 0 −𝑎 0 𝑎𝑒 −𝑎𝑡

Suponiendo que la señal de entrada sea única e igual al escalón unitario, 𝑢(𝑡) = 𝑢(𝑡) =
1(𝑡); sustituyendo Φ(𝑡) en (4.52) desarrollada, resulta

1 𝑡
𝑥1 (𝑡) = 𝑎𝑥10 + � (1 − 𝑒 −𝑎𝜏 )1(𝜏)𝑑𝜏
𝑎 0
15

1 𝑡 −𝑎𝜏
𝑥2 (𝑡) = � 𝑎𝑒 1(𝜏)𝑑𝜏
𝑎 0

o sea

1 𝑒 −𝑎 𝑡 1 𝑒 −𝑎𝑡 1
𝑥1 (𝑡) = 𝑎𝑥10 + �𝜏 + � = 𝑎𝑥10 + �𝑡 + − �
𝑎 𝑎 0 𝑎 𝑎 𝑎
1 1
𝑥2 (𝑡) = 𝑎 [−𝑒 −𝑎𝑡 ]𝑡0 = 𝑎 (1 − 𝑒 −𝑎𝑡 ) (4.57)

La señal obtenida a la salida del sistema será

1 𝑒 −𝑎𝑡 1
𝑦(𝑡) = 𝑥1 (𝑡) = 𝑎𝑥10 + 𝑎 �𝑡 + − 𝑎� (4.58)
𝑎

En la figura 4.3 se ha representado esta ecuación que corresponde a la respuesta al


escalón unitario de un sistema con función de transferencia𝐺(𝑠) = 𝐾 ⁄[𝑠(1 + 𝑇𝑠)]; pero
considerando las condiciones iniciales, que en este método quedan introducidas con
gran facilidad.

5.2. Solución mediante la transformada de Laplace

Otro método para resolver las ecuaciones de estado de los sistemas lineales
invariantes con el tiempo, es el basado en la utilización de la transformada de Laplace,
que, en comparación con el método anterior, da lugar a una notable simplificación de
cálculo.
16

Tomando transformadas de Laplace en las ecuaciones de estado


correspondientes a un sistema invariante con el tiempo se tiene

𝑠𝑋(𝑠) − 𝑥0 = 𝐴𝑋(𝑠) + 𝐵𝑈(𝑠)𝑥0 = 𝑥(𝑡)�𝑡=𝑡 (4.59)


0

𝑌(𝑠) = 𝐶𝑋(𝑠) + 𝐷𝑈(𝑠) (4.60)

Ordenando (4.59) resulta

�𝑠𝐼 − 𝐴�𝑋(𝑠) = 𝑥0 + 𝐵𝑈(𝑠)

Y si la matriz �𝑠𝐼 − 𝐴� es no singular


−1 −1
𝑋(𝑠) = �𝑠𝐼 − 𝐴� 𝑥0 + �𝑠𝐼 − 𝐴� 𝐵𝑈(𝑠) (4.61)

Tomando la transformada inversa de Laplace se tiene finalmente


−1 −1
ℒ −1 �𝑋(𝑠)� = 𝑥(𝑡) = ℒ −1 [�𝑠𝐼 − 𝐴� 𝑥0 ] + ℒ −1 [�𝑠𝐼 − 𝐴� 𝐵𝑢(𝑠)] (4.62)

Si se compara la ecuación (4.62) con la (4.52) se llega a la importante conclusión de que


−1
Φ(𝑡 − 𝑡0 ) = ℒ −1 [�𝑠𝐼 − 𝐴� ] (4.63)

y además
𝑡
−1 −1
ℒ [�𝑠𝐼 − 𝐴� 𝐵𝑢(𝑠)] = � Φ(𝑡 − 𝜏) 𝐵𝑢(𝜏)𝑑𝜏
𝑡0
(4.64)

La ecuación (4.63) proporciona un nuevo método para calcular la matriz de transición,


válido únicamente para los sistemas lineales invariantes con el tiempo. La ecuación
(4.64), no es más que la expresión del cálculo del producto convolucionado de dos
funciones, Φ(𝑡) ∗ 𝐵𝑢(𝑡), mediante la integral de convolución.

Sustituyendo 𝑋(𝑠), tomado de (4.61), en (4.60) resulta


−1 −1
𝑌(𝑠) = 𝐶�𝑠𝐼 − 𝐴� 𝑥0 + [𝐶�𝑠𝐼 − 𝐴� 𝐵 + 𝐷 ]𝑈(𝑠) (4.65)

La expresión (4.65) muestra, una vez más, el hecho conocido de que la respuesta del
sistema, para 𝑡 ≥ 𝑡0 , queda determinada por un vector de estado inicial y la señal de
entrada definida para 𝑡 ≥ 𝑡0 .

Veamos, seguidamente, una aplicación del método deducido. Sea un sistema con una
salida, cuyo comportamiento dinámico esté determinado por las ecuaciones de estado

−1 0 1 0
𝑥̇ (𝑡) = � 0 −3 1� 𝑥(𝑡) + �0� 𝑢(𝑡) (4.66)
0 0 −4 1
17

1
𝑦(𝑡) = �2 1 0� 𝑥(𝑡) (4.67)

El valor de su matriz característica será

(𝑠 + 1) 0 −1
�𝑠𝐼 − 𝐴� = � 0 (𝑠 + 3) −1 � det�𝑠𝐼 − 𝐴� = (𝑠 + 1)(𝑠 + 3)(𝑠 + 4) (4.68)
0 0 (𝑠 + 4)

Y su matriz inversa
−1
�𝑠𝐼 − 𝐴�
(𝑠 + 3)(𝑠 + 4) 0 (𝑠 + 3)
1
= � 0 (𝑠 + 1)(𝑠 + 4) (𝑠 + 1) �
det�𝑠𝐼 − 𝐴� 0 0 (𝑠 + 1)(𝑠 + 3)
(𝑠 + 1) −1 −1
(𝑠 + 1) (𝑠 + 4) −1
0
=� (𝑠 + 3) −1 (𝑠 + 3)−1 (𝑠 + 4)−1 �
0
0 0 (𝑠 + 4)−1

Utilizando la transformada inversa de Laplace

𝑒 −𝑡 −𝑒 −4𝑡
𝑒 −𝑡 0 3
Φ(𝑡) = � −3𝑡 −3𝑡 � (4.70)
0 𝑒 𝑒 − 𝑒 −4𝑡
0 0 𝑒 −4𝑡
En el caso, por ejemplo, de que sea 𝑥0 = 0 y 𝑢(𝑡) =l(𝑡)𝑡 (excitación de tipo rampa
unitaria), la respuesta del sistema se obtendrá sustituyendo valores en la ecuación
(4.61); de donde resulta

1
⎡ 2 ⎤
0 ⎢𝑠 (𝑠 + 1)(𝑠 + 4)⎥
−1 ⎢ 1 ⎥
𝑋(𝑠) = �𝑠𝐼 − 𝐴� �0� 𝑠 −2 =⎢ 2
𝑠 (𝑠 + 3)(𝑠 + 4)⎥
1 ⎢ ⎥
⎢ 1 ⎥
⎣ 𝑠 2 (𝑠 + 4) ⎦
(4.71)

Cuya transformada inversa es

𝑒 −𝑡 𝑒 −4𝑡 𝑡 5
⎡ − + − ⎤
⎢ 3 48 4 16 ⎥
⎢𝑒 −3𝑡 𝑒 −4𝑡 𝑡 7 ⎥
𝑥(𝑡) = ⎢ − + − ⎥
⎢ 9 −4𝑡16 12 144⎥
⎢ 𝑒 𝑡 1 ⎥
⎣ + − ⎦
16 4 16
(4.72)
18

Finalmente, como señal de salida se tendrá

𝑒 −𝑡 𝑒 −3𝑡 7 5 59
𝑦(𝑡) = [1⁄2 1 0]𝑥(𝑡) = + − 𝑒 −4𝑡 + 𝑡−
6 9 96 24 288
(4.73)

6. Cálculo de la matriz de transición de sistemas invariantes

En este apartado se mostrarán algunos de los diversos métodos que existen para
determinar la matriz de transición de un sistema dinámico lineal e invariante con el
tiempo; definida, como es sabido, por

Φ(𝑡 − 𝑡0 ) = 𝑒 𝐴(𝑡−𝑡0 ) (4.74)

o para 𝑡0 = 0

Φ(𝑡) = 𝑒 𝐴𝑡 (4.75)

Método de las ecuaciones

Este método se basa en la propiedad de la matriz de transición según la cual

Φ̇(𝑡 − 𝑡0 ) = 𝐴Φ(𝑡 − 𝑡0 ) (4.76)

A partir de esta expresión, pueden establecerse un grupo de ecuaciones diferenciales


escalares de primer orden, cuyas variables dependientes son los elementos de la matriz
de transición. Las condiciones iniciales de estos elementos se determinan a partir de
Φ(0) = I. Sea, por ejemplo, un sistema de segundo orden caracterizado por la matriz
a11 a12
A=� �
a21 a22

La ecuación (4.76), desarrollada, se transforma en

Φ̇11 Φ̇12 a11 a12 Φ11 Φ12


Φ̇ = � �=� �� �
Φ̇21 Φ̇22 a21 a22 Φ21 Φ22

a11 Φ11 + a12 Φ21 a11 Φ12 + a12 Φ22


=� �
a21 Φ11 + a22 Φ21 a21 Φ12 + a22 Φ22
(4.77)

Igualando los elementos correspondientes de ambas matrices, se obtiene el sistema de


ecuaciones siguiente
19

Φ̇11 = a11 Φ11 + a12 Φ21

Φ̇12 = a11 Φ12 + a12 Φ22

Φ̇21 = a21 Φ11 + a22 Φ21 (4.78)

Φ̇22 = a21 Φ12 + a22 Φ22

con las condiciones iniciales obtenidas de Φ(0) = I

Φ11 (0) = 1Φ12 (0) = 0 Φ21 (0) = 0 Φ22 (0) = 1 (4.79)

Resolviendo el sistema de ecuaciones (4.78), teniendo en cuenta (4.79), quedarán


perfectamente determinados cada uno de los cuatro elementos de la matriz de transición.
Por ejemplo, utilizando la transformada de Laplace para la resolución del sistema se
tendría

s Φ11 (s) − Φ11 (0) = a11 Φ11 + a12 Φ21

s Φ12 (s) − Φ12 (0) = a11 Φ12 + a12 Φ22

s Φ21 (s) − Φ21 (0) = a21 Φ11 + a22 Φ21 (4.80)

s Φ22 (s) − Φ22 (0) = a21 Φ12 + a22 Φ22

sistema que resuelto dará Φ11 (s), Φ12 (s), Φ21 (s) y Φ22 (s). Hallando la transformada
inversa de Lapalace de estas funciones se obtienen los elementos Φ11 (t), Φ12 (t),Φ21 (t)
y Φ22 (t), componentes de la matriz de transición.

El método expuesto resulta bastante eficaz, si se utilizan los programas


adecuados para la resolución de sistemas de ecuaciones mediante computador.

Método del desarrollo en serie

Se puede obtener, también, la matriz de transición a partir del desarrollo en serie


obtenido en (4.32). El cálculo de las potencias de A puede efectuarse mediante
computador utilizando la fórmula recurrente

𝐴𝑡 𝐴 𝑡 𝐴 𝑡 𝐴 𝑡 (𝐴 𝑡)2 𝐴 𝑡 (𝐴 𝑡)i−1
𝑒 𝐴𝑡 = I+ I+ + + ….= I + �
1 2 1! 3 2! i (i − 1)!
i=1
(4.81)

Método basado en la transformada de Laplace

De acuerdo con la expresión hallada en (4.63)


−1
Φ(𝑡 − 𝑡0 ) = ℒ −1 [�𝑠𝐼 − 𝐴� ] (4.82)
20

puede obtenerse la matriz de transición por transformación inversa de la matriz


resolvente. La parte más laboriosa de este método es el cálculo de la matriz resolvente;
para sistemas de orden superior, puede utilizarse el conocido algoritmo de Leverrier.

Método de Cayley-Hamilton

Uno de los teoremas más importantes para definir cualquier función matricial es
el teorema de Cayley-Hamilton, que dice: “toda matriz cuadrada satisface su propia
ecuación característica”. Expresado matemáticamente, si A es una matriz cuadrada de
dimensión 𝑛 𝑥 𝑛 y 𝑃(𝜆) su polinomio característico se tiene

𝑃(𝜆) = 𝜆𝑛 + 𝑎𝑛−1 𝜆𝑛−1 + … . 𝑎1 𝜆 + 𝑎0 (4.83)

P�A� = An + 𝑎𝑛−1 A𝑛−1 + … . +𝑎1 A + 𝑎0 I = 0 (4.84)

ecuación que ya se apuntó en (3.93). Una de las primeras aplicaciones de este teorema
es la reducción del orden de un determinado polinomio de matrices. Así, es posible
reducir el polinomio

N�A� = Ak + vk−1 Ak−1 + … . v1 A + v0 Ik > 𝑛 (4.85)

a una combinación lineal de A𝑛−1 , A𝑛−2 , … . A, I de la forma

N�A� = h𝑛−1 A𝑛−1 + h𝑛−2 A𝑛−2 + … . h1 A + h0 I (4.86)

en el que los coeficientes h𝑖 son constantes escalares. En efecto, dividiendo

N(λ) = 𝜆𝑘 + 𝑣𝑘−1 𝜆𝑘−1 + … . +𝑣1 𝜆 + 𝑣0 (4.87)

por𝑃(𝜆) se obtiene

N(λ) R(λ)
= Q(λ) + ; N(λ) = Q(λ)P(λ) + R(λ)
P(λ) P(λ)
(4.88)

lo que corresponde a la relación matricial

N�A� = Q�A�P�A� + R�A� = R�A� (4.89)

ya que según el teorema P�A� = 0. Finalmente, por ser R(λ) el resto de la división de
N(λ) por un polinomio P(λ) de grado n, R(λ) será de grado (n-1); es decir, R�A� será de
la forma (4.86). El cálculo de los coeficientes h𝑖 se puede hacer particularizando (4.88)
para los valores propios de A, obteniéndose las ecuaciones

N(λi ) = Q(λi )P(λi ) + R(λi ) = R(λi ) (4.90)


21

con lo que, si A tiene n valores propios distintos, de (4.90) se obtienen n ecuaciones con
n incógnitas. Si A tiene un valor propio λi , de multiplicidad m1 , entonces

P(λ) = (λ − λ1 )m1 P1 (𝜆)

N(λ) = Q(λ)(λ − λ1 )m1 P1 (𝜆) + R(λ) (4.91)

Derivando respecto a 𝜆, se obtiene

dN(λ)

dQ(λ) d P1 (𝜆)
= P(λ) + Q(λ) �m1 (λ − λ1 )m1 −1 P1 (𝜆) + (λ − λ1 )m1 �
dλ dλ
dR(λ)
+

(4.92)

expresión que, particularizada para 𝜆 = 𝜆1, da la ecuación

dN(λ) dR(λ)
� = �
dλ 𝜆=𝜆 dλ 𝜆=𝜆
1 1
(4.93)

Derivando sucesivamente (4.92), se obtendrá la misma relación (4.93) para las (m1 -1)
primeras derivadas. Estas (m1 -1) ecuaciones, junto con la original (4.90), constituyen el
conjunto de las m1 ecuaciones correspondientes al valor propio 𝜆1 de multiplicidad m1 .

Dado que a la función polinómicaN�A� no se le ha impuesto ninguna restricción,


la propiedad de reducción a un polinomio de grado (n-1), será aplicable a cualquier
función matricial F(A) desarrollable en serie de Taylor.

El método de Cayley-Hamilton para calcular la matriz de transición de un sistema,


consiste en aplicar la relación (4.89) con

N�A� = Φ = 𝑒 𝐴𝑡 (4.94)

obligando a que se cumplan las ecuaciones (4.90) o (4.93). Veamos un caso concreto.
Sea la matriz A

−2 4
A=� � (4.95)
0 −1
de cuyo polinomio característico resulta

λ+2 −4 λ1 = −1
�λI − A� = � � = (λ + 2)(λ + 1) = 0 (4.96)
0 λ+1 λ2 = −2
22

Como A es de dimensión 2x2, se tendrá que

R�A� = h0 I + h1 A

y obligando a que se cumpla (4.90)

F(λ1 ) = eλ1 t = R(λ1 ) = h0 + h1 λ1 e−t = h0 − h1

F(λ2 ) = eλ2 t = R(λ2 ) = h0 + h1 λ2 e−2t = h0 − 2h1 (4.97)

Resolviendo el sistema (4.97) resulta

h1 = e−t − e−2t h0 = 2 e−t − e−2t

y con ello, puesto que F�A� = R�A�, se tendrá

−2 4
Φ = 𝑒 𝐴𝑡 = (2 e−t − e−2t )I + (e−t − e−2t ) � � (4.98)
0 −1
Operando se obtiene, finalmente

e−2t 4(e−t − e−2t )


Φ=� � (4.99)
−t
0 e

Veamos otro ejemplo con valores propios múltiples. Sea la matriz

−1 2
A=� � (4.100)
−2 −5
se tendrá

λ+1 −2 λ1 = −3
�λ I − A� = � � = (λ + 1)(λ + 5) + 4 = 0 (4.101)
2 λ+5 λ2 = −3

y además

R�A� = h0 I + h1 A

Según la condición (4.93)

F(λ1 ) = eλ1 t = R(λ1 ) = h0 + h1 λ1 e−3t = h0 − 3h1

F (1) (λ1 ) = t eλ1 t = h1 t e−3t = h1 (4.102)

con lo que resulta

h1 = t e−3t h0 = e−3t + 3t e−3t = (1 + 3t)e−3t


23

por tanto

−1 2
Φ = (1 + 3t)e−3t I + t e−3t � � (4.103)
−2 −5
Finalmente, operando se obtiene

(1 + 2t)e−3t 2te−3t
Φ=� � (4.104)
−3t −3t
−2te (1 + 8t)e

Método de Jordan

En el caso de que los valores propios de la matriz A del sistema sean distintos, la
forma canónica de Jordan es especialmente adecuada, como ya se ha indicado
anteriormente, para resolver la ecuación de estado, y por tanto para el cálculo de la
matriz de transición. Dada la ecuación homogénea

ẋ (t) = Ax(t) (4.105)

si los valores propios de A son distintos y T es la matriz formada por los vectores
propios de A, haciendo la transformación

x = Tx� (4.106)

se obtiene que

λ1 0 …… 0
⎡ ⎤
⎢ ⎥
0 λ2 …… 0
⎢ ⎥
𝑥�̇ = T −1 ATx� = Λx� = ⎢ ⎥ x� (4.107)
⎢… … …… …⎥
⎢ ⎥
⎣0 0 …… λn ⎦

La matriz de transición del sistema así expresado se obtiene de forma inmediata

eλ 1 t 0 …… 0
⎡ ⎤
⎢ ⎥
⎢ 0 eλ 2 t …… 0 ⎥
� (t) = 𝑒 Λt
Φ =⎢ (4.108)

⎢ ⋮ ⋮ ⎥
⎢ ⎥
⎣ 0 0 …… e λn t ⎦

es decir
24

eλ1 (t−t0) 0 …… 0
⎡ ⎤
⎢ ⎥
⎢ 0 eλ2 (t−t0 ) …… 0 ⎥
x� (t) = ⎢ ⎥ x� (t 0 ) (4.109)
⎢ … … …… … ⎥
⎢ ⎥
⎣ 0 0 …… e λn (t−t0 ) ⎦

Haciendo ahora el cambio inverso

x� = T −1 x (4.110)

resulta

eλ1 (t−t0) 0 …… 0
⎡ ⎤
⎢ ⎥
⎢ 0 eλ2 (t−t0 ) …… 0 ⎥
−1
x(t) = T ⎢ ⎥ T x(t 0 ) (4.111)
⎢ … … …… … ⎥
⎢ ⎥
⎣ 0 0 …… e λn (t−t0 ) ⎦

Por tanto la matriz de transición del sistema (4.105) vendrá dada por

eλ 1 t 0 …… 0
⎡ ⎤
⎢ ⎥
⎢ 0 eλ 2 t …… 0 ⎥
−1
Φ(t) = T ⎢ ⎥T (4.112)
⎢ ⋮ ⋮ ⎥
⎢ ⎥
⎣ 0 0 …… e λn t ⎦

Por ejemplo dada la matriz A de (4.95)

−2 4
A=� �
0 −1
de valores propios λ1 = −1, λ2 = −2, se obtiene como matriz de transformación

4 1 0 1
−1
T=� �T = � � (4.113)
1 0 1 −4
y aplicando (4.112)
25

4 1 e−t 0 0 1 e−2t 4e−t − 4e−2t


Φ(t) = � �� �� �=� � (4.114)
1 0 0 e−2t 1 −4 0 e −t

como ya se obtuvo en (4.99).

También podría gustarte