Está en la página 1de 79

UNIVERSIDAD NACIONAL DEL CALLAO

FACULTAD DE INGENIERIA ELECTRICA Y ELECTRONICA


UNIDAD DE POSTGRADO

CURSO : SISTEMAS LINEALES Y NO LINEASLES

TEMA: CONTROL EN REALIMENTACION

DOCENTE: M.Sc. Ing. Elias Josué Alba Mejía


SISTEMAS LINEALES Y LINEALIZACIÓN

El sistema
  lineal invariante
x˙ = Ax
tiene un equilibrio en el origen, que es aislado sı det A 0. Si detA = 0, todo
punto en el kernel o subespacio nulo de A es un PE. Un sistema lineal no
puede tener múltiples PE aislados, porque si ¯x y ¯z son dos PE de (3.19),
entonces, por linealidad, todo punto en la recta que conecta a ¯x y ¯z es un
PE. Las propiedades de estabilidad del origen pueden caracterizarse
mediante la ubicación de los autovalores de A.
Teorema 3.9 (Estabilidad del Origen en Sistemas Lineales). El PE x = 0 de
(3.19) es estable sı todos los autovalores de A tienen parte real no positiva y
cada autovalor con parte real nula tiene un bloque de Jordan asociado de orden
1. El PE x = 0 es GAE sí todos los autovalores de A tienen parte real negativa.
Cuando todos los los autovalores de A tienen parte real negativa, se dice que A
es una matriz de estabilidad o matriz Hurwitz. La estabilidad del origen puede
también investigarse usando el método de Lyapunov. Consideremos la
candidata a función de Lyapunov
Teorema 3.10. Una matriz A es Hurwitz, o sea, todos sus autovalores tienen
parte real negativa, si dada una matriz Q simétrica y definida positiva, existe
una matriz P simétrica y definida positiva que satisface la ecuación de
Lyapunov (3.20). Más aun, si A es Hurwitz, entonces P es la ´unica soluci´on
de (3.20).
 La resolución de la ecuación de Lyapunov (3.20) no es numéricamente más ventajosa que
calcular los autovalores de A. La ventaja de este método es que nos provee de una función
de Lyapunov cuando A es Hurwitz. Esto nos va a servir para sacar conclusiones sobre el
sistema cuando el lado derecho Ax este perturbado.Volvamos al sistema no lineal (3.1)
4. Estabilidad Según Lyapunov. Sistemas
Inestacionarios
Este capítulo extiende el método de Lyapunov a sistemas no lineales
inestacionarios. Definimos los conceptos de estabilidad uniforme,
estabilidad asintótica uniforme, y estabilidad exponencial de un punto de
equilibrio, y damos sus teoremas correspondientes. Presentamos además
teoremas conversos, que establecen la existencia de funciones de Lyapunov
para clases de sistemas no lineales. Finalmente, extendemos el principio de
invariancia de La Salle a sistemas inestacionarios.
El Teorema de Estabilidad de Lyapunov
  equilibrio en el origen puede ser la translación de un PE que no esta
Un
en cero o, más generalmente, la translación de una solución no nula del
sistema. Para ver este ´ultimo punto, supongamos que ˜y( ) es una
solución del sistema
  origen x = 0 es un PE del sistema transformado para t = 0. Por lo tanto,
el
examinando la estabilidad del origen como un PE del sistema transformado,
determinamos la estabilidad de la solución ˜y() del sistema original. Notar que si
˜y( ) no es constante, el sistema transformado es inestacionarios aunque el
sistema original sea estacionario. Por lo tanto, el estudio de estabilidad de
soluciones en el sentido de Lyapunov solo puede hacerse mediante el estudio de
la estabilidad de equilibrios de sistemas inestacionarios.

Ejemplo 4.1 (Estabilidad no uniforme en t). El sistema lineal de primer orden


Ejemplo 4.2
(Estabilidad asintótica no uniforme). El sistema lineal de primer orden

Nos va a interesar entonces definir estabilidad del origen como una propiedad uniforme con
respecto al instante inicial.
Definición 4.1 (Estabilidad Uniforme). El PE x = 0 es:

Podemos caracterizar las propiedades introducidas en Definición 4.1 en términos de


un tipo especial de funciones escalares, conocidas como funciones clase K y clase
KL.
Estabilidad de Sistemas Perturbados

El termino de perturbación g(t, x) puede provenir de errores de modelado,


envejecimiento, incertidumbres, etc. Típicamente no conocemos el termino
g(t, x) pero tenemos alguna información sobre ´el, como por ejemplo una
cota superior de kg(t, x)k. La representación aditiva de la perturbación en
(5.1) modela, por ejemplo, perturbaciones que no modifican el orden del
sistema.
Perturbación de un PE Exponencialmente Estable
 donde es una constante no negativa. La propiedad (5.6) es natural
dadas las hipótesis que hicimos sobre g(t, x). Como g(t, x) se anula en
el origen y es localmente Lipschitz en un entorno acotado del origen,
entonces es fácil de probar que satisface (5.6) en dicho entorno.
Usamos V como candidata a función de Lyapunov para el sistema
perturbado (5.1). Planteamos
Consideremos el sistema
x˙ = Ax + g(t, x) donde A es Hurwitz y g(t, x) satisface (5.6) con D = Rn.
Sea Q = Qt > 0 y calculemos la solución P de la ecuación de Lyapunov PA +
AtP = −Q. Por el Teorema 3.10 sabemos

Esta cota depende de la elección de Q, sin embargo el máximo del lado derecho de (5.8) se obtiene para Q = I
Ejemplo 5.2.

Consideremos el sistema
Esta desigualdad permite al termino de perturbación g(t, x) ser cualquier vector de dos
componentes que satisfaga

Esta clase de perturbaciones es más general que la perturbación especifica que tenemos
en este problema. Aquí tenemos una perturbación estructurada en el sentido de que la
primera componente de g es siempre cero, mientras que nuestro análisis permitía
perturbaciones no estructuradas donde el vector g puede cambiar en todas las
direcciones.
No tener en cuenta la estructura de la perturbación lleva en general a resultados
conservadores.
Los últimos capítulos tratan sobre el diseño de control en
realimentación. Introducimos varias herramientas de diseño,
incluyendo linealización, tabulación de ganancia, linealización
exacta por realimentación, control integral, etc. La mayoría de
las herramientas de análisis que hemos visto en los capítulos
anteriores entran en juego en estos ´últimos capítulos. En
particular, en este capítulo comenzamos con una sección
general sobre problemas de control a modo de introducción a
los capítulos que siguen. Luego presentamos dos secciones
sobre diseño vía linealización, y diseño por tabulación de
ganancia
En general, un objetivo básico de un sistema de control es hacer que alguna salida, digamos y, se comporte de
forma deseada mediante la manipulación de alguna entrada, digamos u. El objetivo más simple puede ser tratar
de mantener y pequeña (o cercana a algún punto de equilibrio) un problema de regulación o estabilización — o
tratar de mantener la diferencia (y − r) pequeña,donde r es una señal de entrada de referencia perteneciente a
cierta clase de señales deseadas
un problema de servomecanismo o seguimiento. Por ejemplo:
• En un avión comercial la aceleración vertical debe mantenerse por debajo de cierto valor
para garantizar comodidad a los pasajeros.
• En un amplificador de audio la potencia de señales de ruido en la salida debe ser suficientemente pequeña para
obtener buena fidelidad.
• En la fabricación de papel el contenido de humedad debe mantenerse entre ciertos valores especificados. casos
forzosamente se cae en soluciones de compromiso.
El deseo de optimizar estas soluciones de compromiso da lugar a la formulación de varios problemas de control
´optimo.
 Cada problema de control, a su vez, puede tener distintas versiones,
dependiendo de los elementos disponibles para resolverlo. Por ejemplo,
uno puede resolver un problema de regulación por realimentación de
estados, si es que todos los estados necesarios son medibles, o bien, por
realimentación de salida.
 En un problema de control típico existen objetivos de diseño adicionales
a los básicos de regulación o seguimiento. Por ejemplo, pueden existir
requerimientos especiales sobre la respuesta transitoria de y, o
restricciones en los valores de la entrada de control u. Estos objetivos
adicionales pueden no ser completamente compatibles entre s´ı, por lo
que en muchos
Un objetivo de control adicional particularmente importante es el de mantener
los objetivos básicos de diseño ante la presencia de incertidumbres en el modelo
maten ático del sistema.
El diseño de control con tolerancia de incertidumbres de modelado lleva a la
formulación de problemas de control robusto, o bien problemas de control
adaptable.
En control robusto, la incertidumbre de modelado se caracteriza como una
perturbación de un modelo nominal.

En control adaptable, por otro lado, la incertidumbre se caracteriza en términos


de un conjunto de parámetros desconocidos, y se diseña la realimentación de
forma que estos parámetros puedan estimarse mientras el sistema se encuentra
en operación.

Existen también formulaciones mixtas, que combinan control robusto y


adaptable.
ESTABILIZACIO
N
  
Realimentación de estados. El problema de estabilización para el sistema x˙ = f(t,
x, u)es el problema de diseñar una ley de control u = (t, x)
 tal que el origen x = 0 sea un punto de equilibrio uniformemente asintóticamente
estable del sistema a lazo cerrado x˙ = f(t, x, (t, x)).
 Una vez que sabemos como resolver este problema, podemos estabilizar el sistema
con respecto a un punto p arbitrario mediante traslación del origen con el cambio
de variables = x − p.
 Más aun, p no tiene que ser un punto de equilibrio del sistema a lazo abierto (basta
que exista que tal que f(t, p, q) = 0, t).
 
La ley de control en realimentación u = (t, x) suele llamarse
“realimentación estática”, puesto que es una función estática de x.
Alternativamente, puede usarse una ley de control dinámica
u = (t, x, z)
z˙ = g(t, x, z),
donde z es la solución de un sistema dinámico cuya entrada es x.
Un ejemplo típico de realimentación dinámica es el control con acci´on
integral, que veremos mas adelante.
 Realimentación
  de salida.
El problema de estabilización por realimentación de salida parael sistema
x˙ = f(t, x, u)
y = h(t, x, u)
consiste en diseñar el control estático
u = (t, y) o bien (mas común en este caso ya que por lo general se necesita construir un
observador para estimar el estado x) el control dinámico
u = (t, y, z)
z˙ = g(t, y, z)
tal que x = 0 (z = 0) sea un punto de equilibrio uniformemente asintóticamente estable
del sistema a lazo cerrado x˙ = f(t, x, (·)).
 SISTEMAS LINEALES ESTACIONARIOS.

Naturalmente, el problema de estabilización por realimentación se simplifica si el sistema es lineal y estacionario,

x˙ = Ax + Bu

y = Cx + Du

El control u = Kx preserva la linealidad del sistema, y el origen del sistema a lazo cerrado

x˙ = (A + BK)x

es exponencialmente estable si A + BK es Hurwitz. La teoría de sistemas lineales establece que si el par (A,B) es

controlable, se pueden asignar arbitrariamente todos los autovalores de A + BK mediante elección apropiada de F. Si

(A,B) es estabilizarle, solo pueden asignarse los autovalores controlables, pero los no controlables de A (a lazo abierto)

deben tener parte real negativa. Cuando los estados no están disponibles para realimentación, se puede construir un

observador, y se realimentan los estados estimados ˆx.

x = Aˆx + Bu + H(Cˆx + Du − y)

u = Kˆx
Cuando los estados no están disponibles para realimentación, se puede construir un
observador, y se realimentan los estados estimados ˆx.

x = Aˆx + Bu + H(Cˆx + Du − y)
u = Kˆx

En este caso, para asegurar que ˆx(t) converge a x(t), la matriz A + HC debe ser
Hurwitz.
La teoría de sistema lineales garantiza que si el par (A,C) es observable, se pueden
asignar arbitrariamente todos los autovalores de A + HC mediante elección apropiada
de H.
Una propiedad importante de los sistemas lineales es el principio de separación, que
establece que el problema de estabilización por realimentación de salida puede
resolverse combinando las soluciones.
i) El problema de estabilización mediante realimentación estática de estados, u = Kx.
ii) El problema de observación de x a partir de la medición de u e y.
Si las matrices A + BK y A + HC son Hurwitz, el sistema a lazo cerrado
realimentado vía observador es estable, y con los autovalores a lazo
cerrado deseados.
Esto puede comprobar planteando la dinámica del sistema total
planta/error de estimación, ˜x = x − ˆx,
SISTEMAS NO LINEALES.

Para sistemas no lineales generales el problema de estabilización es más difícil y


no hay una solución unificada como en el caso lineal. La forma más práctica de
encararlo es recurrir a los resultados disponibles en el caso lineal, es decir, vía
linealización.
Vamos a estudiar dos métodos de este tipo:
(i) Diseño vía linealización (Sección 6.2): linealizamos el sistema alrededor del
origen, y diseñamos un control lineal estabilizante para la linealización. La
estabilidad alcanzada en el sistema no lineal sera local, aunque podemos
estimar la región de atracción.
La validez de esta idea esta garantizada por el Método Indirecto de Lyapunov.
(Teorema 3.11)
(i) Diseño vía linealización (Sección 6.2): linealizamos el sistema
alrededor del origen, y diseñamos un control lineal estabilizante para
la linealización. La estabilidad alcanzada en el sistema no lineal será
local, aunque podemos estimar la región de atracción. La validez de
esta idea esta garantizada por el Método Indirecto de Lyapunov
(Teorema(3.11).
(ii) Control por ganancia tabulada (Sección 6.3): linealizamos el sistema
alrededor de una familia de puntos de equilibrio deseados, diseñamos un
control lineal estabilizante para cada linealización, y usamos algún
mecanismo para conmutar de uno a otro.
 
Ejemplo 6.1.
Supongamos que deseamos estabilizar el origen del sistema escalar

usando realimentación.
• Estabilización Local: PE AE sin estima de la RA.
Linealizando sobre el PE x = 0 obtenemos el sistema x˙ = u, para el cual
calculamos un control lineal local u = −k x, k > 0, obteniendo

El PE x = 0 del sistema a lazo cerrado de arriba es AE, por lo tanto u = −k x


consigue estabilización local.
• Estabilización Regional: PE AE con una RA garantizada.

Es fácil de ver que la RA de u = −k x es {x R : x < k}, por lo tanto obtenemos


estabilización regional en {x 2 R : x < k}.
 
Estabilización Semi global: PE AE con RA compacta arbitrariamente grande.
Se puede diseñar el control tal que cualquier conjunto compacto (tan grande como
se quiera) este contenido en la RA. En el ejemplo, aumentando k agrandamos la
RA; dado cualquier conjunto compacto Br = {|x| r}, lo podemos incluir en la RA
tomando k > r.

• Estabilización Global: PE GAE.


Para el ejemplo, u = −k x no consigue estabilización global. Esto es fácil de ver ya
que, dado r, elegimos k > r, pero una vez que k esta fija, las condiciones iniciales en
la región {x > k} dan soluciones que divergen.

Sin embargo, el control no lineal u = −x2 − k x consigue estabilización global, ya


que el sistema a lazo cerrado x˙ = −k x es GAE.
SEGUIMIENTO EN PRESENCIA DE
PERTURBACIONES
 Pasemos ahora a describir un problema de control más general; concretamente, el
problema de seguimiento en presencia de perturbaciones. En este caso el sistema esta
modelado por
x˙ = f(t, x, u,w)
y = h(t, x, u,w)
ym = hm(t, x, u,w)
donde x es el estado, u es la entrada de control, w es la señal de perturbación, y es la
salida a controlar, e ym es la salida medida.
 El objetivo de control básico es diseñar la entrada de control de forma que la salida
controlada y siga una señal de referencia yR, por ejemplo, asintóticamente:
DISEÑO VÍA LINEALIZACIÓN

Ilustramos el diseño vía linealización para los problemas de


estabilización y regulación. En cada caso, comenzamos con el control
por realimentación de estados y luego presentamos el control por
realimentación de salidas.

ESTABILIZACIÓN
Realimentación de estados
Consideramos el sistema
Ejemplo 6.2
(Control del péndulo por linealización y realimentación de estados). Consideremos
la ecuación del péndulo
Realimentación de salida
Consideramos el sistema
 Ejemplo 6.3

(Control del péndulo por linealización y realimentación de salida). Volvemos


a considerar el péndulo del Ejemplo 6.2. Supongamos que el objetivo de control es
el mismo, pero ahora medimos el Angulo pero no medimos la velocidad angular
Tomamos como variable de salida

y construimos un control dinámico de salida usando el observador


REGULACIÓN VÍA CONTROL INTEGRAL
  el Ejemplo 6.2 consideramos el problema de regular el ángulo del péndulo a
En
un valor constante, para lo cual redujimos el problema a uno de estabilización
mediante corrimiento del punto de equilibrio deseado al origen. Aunque este
enfoque es adecuado cuando se conocen los parámetros del sistema con exactitud,
puede no ser aceptable si existen perturbaciones de los valores nominales de los
parámetros del modelo.

En esta sección presentamos una mejora al esquema de realimentación de


estados, el agregado de acción integral, que permitir 'a regulación robusta frente a
perturbaciones paramétricas.
La ley de control de par a la que arribamos en el Ejemplo 6.2,
 
(Control del péndulo por linealización y realimentación de estados con acción
integral). Volvemos a considerar el péndulo del Ejemplo 6.2, donde el
objetivo de control es estabilizar al péndulo en un ángulo = . Tomando x1 = ,
x2 = ˙, y = x1
Y u = T obtenemos el modelo de estado
EJEMPLO 1.1
Considérese el sistema definido por
𝑌(𝑠) 𝑠+3
= 2
𝑈(𝑠) 𝑠 + 3𝑠 + 2
Obtenga las representaciones en el espacio de estados en la forma canónica
controlable, observable y diagonal
Solución
Forma canónica controlable
0 1 0
𝑥ሶ= ቂ ቃ𝑥 + ቂ ቃ𝑢, 𝑦 = ሾ3 1ሿ𝑥
−2 −3 1
Forma canónica observable
0 −2 3
𝑥ሶ= ቂ ቃ𝑥 + ቂ ቃ𝑢, 𝑦 = ሾ0 1ሿ𝑥
1 −3 1
Forma canónica diagonal
−1 0 1
𝑥ሶ= ቂ ቃ𝑥 + ቂ ቃ𝑢, 𝑦 = ሾ2 −1ሿ𝑥
0 −2 1
Valores propios de una matriz A de 𝒏 × 𝒏
Los valores propios de una matriz 𝐴 de 𝑛 × 𝑛 son las raíces de la ecuación
característica, ȁ𝜆𝐼 − 𝐴ȁ = 0. Los valores propios también se denominan raíces
características. Por ejemplo considérese la matriz A siguiente

0 1 0
𝐴 = ൥0 0 1൩
−6 −11 −6
1 0 0 0 1 0 𝜆 0 0 0 1 0
𝜆𝐼 − 𝐴 = 𝜆 ൥0 1 0൩− ൥ 0 0 1 ൩= ൥0 𝜆 0൩− ൥ 0 0 1൩
0 0 1 −6 −11 −6 0 0 𝜆 −6 −11 −6
𝜆 −1 0
= ൥0 𝜆 −1 ൩
6 11 𝜆 + 6
La ecuación característica es
𝜆 −1 0
ȁ𝜆𝐼 − 𝐴ȁ = อ0 𝜆 −1 อ= 𝜆3 + 6𝜆2 + 11𝜆 + 6 = ሺ𝜆 + 1ሻሺ𝜆 + 2ሻሺ𝜆 + 3ሻ = 0
6 11 𝜆+6
Los valores propios de A son las raíces de la ecuación característica 𝜆 =
−1, −2, −3
EJEMPLO 1.2
Considere la siguiente representación en el espacio de estados de un sistema
0 1 0 0
𝑥ሶ= ൥ 0 0 1 ൩𝑥 + ൥0൩𝑢, 𝑦 = ሾ1 0 0ሿ𝑥
−6 −11 −6 6
𝑥ሶ= 𝐴𝑥 + 𝐵𝑢, 𝑦 = 𝐶𝑥
0 1 0 0
𝐴 = ൥0 0 1 ൩, 𝐵 = ൥0൩, 𝐶 = ሾ1 0 0ሿ
−6 −11 −6 6
Los valores propios de A son 𝜆1 = −1, 𝜆2 = −2, 𝜆3 = −3. Por tanto, los tres
valores propios son distintos. Si se define un nuevo conjunto de variables de
estado 𝑧1 , 𝑧2 , 𝑧3 mediante la transformación x=Pz
1 1 1 1 1 1 1 1 1
𝑃 = ቎𝜆1 𝜆2 𝜆3 ቏= ൥−1 −2 −3൩, 𝑥 = ൥−1 −2 −3൩𝑧
𝜆21 𝜆22 𝜆23 1 4 9 1 4 9
Sustituyendo
𝑃𝑧ሶ= 𝐴𝑃𝑧 + 𝐵𝑢
Premultiplicando ambos miembros de esta última ecuación por 𝑃−1 , se obtiene
𝑃−1 𝑃𝑧ሶ= 𝑃−1 𝐴𝑃𝑧 + 𝑃 −1 𝐵𝑢
𝑧ሶ= 𝑃−1 𝐴𝑃𝑧 + 𝑃−1 𝐵𝑢
3 2.5 0.5 0 1 0 1 1 1 3 2.5 0.5 0
𝑧ሶ= ൥−3 −4 1 ൩൥ 0 0 1 ൩൥−1 −2 −3൩𝑧 + ൥−3 −4 1 ൩൥0൩𝑢
1 1.5 0.5 −6 −11 −6 1 4 9 1 1.5 0.5 6
−1 0 0 3
𝑧ሶ= ൥ 0 −2 0 ൩𝑧 + ൥−6൩𝑢
0 0 −3 3

Esta última ecuación es también una ecuación de estado que describe el mismo
sistema del ejemplo propuesto. La ecuación de salida se modifica a 𝑦 = 𝐶𝑃𝑧
1 1 1
𝑦 = 1 0 0 −1 −2 −3൩𝑧 = ሾ1
ሾ ሿ൥ 1 1ሿ𝑧
1 4 9

Obsérvese que la matriz de transformación P, modifica la matriz de coeficientes


de z en la matriz diagonal. Como se aprecia en los resultados, las tres
ecuaciones de estado escalares no están acopladas. Obsérvese también que los
elementos de la diagonal principal de la matriz 𝑃−1 𝐴𝑃 son idénticos a los tres
valores propios de A. es muy importante señalar que los valores propios de A
son idénticos a los de 𝑃−1 𝐴𝑃.
1
La solución de 𝑣11 se puede elegir arbitrariamente, 𝑣12 = 𝑣11 y que 𝑣13 = −𝑣12 .
2

Tomando
𝑣11 = 2 → 𝑣12 = 1, 𝑣13 = −1
2
𝑣1 = ൥ 1 ൩
−1
 Para 𝑖 = 2, 𝜆2 = −1
1 0 0 𝑣21 𝑣21
൥1 −1 0൩൥𝑣22 ൩= ൥𝑣22 ൩𝜆2
0 1 2 𝑣23 𝑣23
𝑣21 = −𝑣21
𝑣21 − 𝑣22 = −𝑣22
𝑣22 + 2𝑣23 = −𝑣23
1
La solución de 𝑣22 se puede elegir arbitrariamente, 𝑣23 = − 𝑣22 y que 𝑣21 = 0.
3

Tomando
𝑣21 = 0, 𝑡𝑜𝑚𝑎𝑛𝑑𝑜 𝑣22 = 3 → 𝑣13 = −1
0
𝑣2 = ൥ 3 ൩
−1
 Para 𝑖 = 3, 𝜆3 = 2
1 0 0 𝑣31 𝑣31
൥1 −1 0൩൥𝑣32 ൩= ൥𝑣32 ൩𝜆3
0 1 2 𝑣33 𝑣33
𝑣31 = 2𝑣31
𝑣31 − 𝑣32 = 2𝑣32
𝑣32 + 2𝑣33 = 𝑣33
𝑣33 se puede elegir arbitrariamente, 𝑣31 = 0 y que 𝑣32 = 0. Tomando 𝑣33 = 1
𝑣31 = 0, 𝑣32 = 0, 𝑣33 = 1
0
𝑣3 = ൥0൩
1

2 0 0
𝑇 = ൥1 3 0൩
−1 −1 1
1/2 0 0
𝑇 −1 = ൥−1/6 1/3 0൩
1/3 1/3 1
Las transformaciones sobre la ecuación de estado y salida son
𝑥ሶ= 𝐴𝑥 + 𝐵𝑢, 𝑦 = 𝐶𝑥 + 𝐷𝑢
𝑥 = 𝑇𝑧, 𝑥ሶ= 𝑇𝑧ሶ
𝑇𝑧ሶ= 𝐴𝑇𝑧 + 𝐵𝑢
multiplicando por 𝑇 −1 la inversa, obtenemos
𝑇 −1 𝑇𝑧ሶ= 𝑇 −1 𝐴𝑇𝑧 + 𝑇 −1 𝐵𝑢
𝑇 −1 𝑇 = 𝐼, 𝐼𝑧ሶ= 𝐼
entonces
𝑧ሶ= (𝑇 −1 𝐴𝑇)𝑧 + (𝑇 −1 𝐵)𝑢
sobre la salida
𝑦 = (𝐶𝑇)𝑧 + 𝐷𝑢
Entonces haciendo
𝑇 −1 𝐴𝑇 = 𝐴ሚ
, 𝑇 −1 𝐵 = 𝐵෨, 𝐶𝑇 = 𝐶ሚ
, ෩
𝐷=𝐷
Obtenemos la nueva ecuación de estado y la ecuación de salida
𝑧ሶ= 𝐴ሚ
𝑧 + 𝐵෨𝑢, 𝑦 = 𝐶ሚ ෩𝑢
𝑧+𝐷
1/2 0 0 1 0 0 2 0 0 1 0 0
𝐴ሚ= ൥−1/6 1/3 0൩൥1 −1 0൩൥ 1 3 0൩= ൥0 −1 0൩
1/3 1/3 1 0 1 2 −1 −1 1 0 0 2
1/2 0 0 1 1/2
𝐵෨ = ൥−1/6 1/3 0൩൥0൩= ൥−1/6൩
1/3 1/3 1 1 4/3
2 0 0
𝐶ሚ= ሾ1 2 1ሿ൥ 1 3 0൩= ሾ3 5 1ሿ
−1 −1 1
Finalmente se obtiene la ecuación de estado diagonalizada
1 0 0 1/2
𝑧ሶ= ൥0 −1 0൩𝑧 + ൥−1/6൩𝑢, 𝑦 = ሾ3 5 1ሿ𝑧
0 0 2 4/3
Si se tiene en cuenta que

𝑡 𝑡
1 2 𝑡
𝑒 𝑡𝑒 𝑡 𝑒
𝑒 𝐽𝑡 =൦ 2 ൪
0 𝑒𝑡 𝑡𝑒 𝑡

0 0 𝑒𝑡
Se encuentra que

𝑡 𝑡
1 2 𝑡
1 0 0 𝑒 𝑡𝑒 𝑡 𝑒 1 0 0
𝑒 𝐴𝑡 = 𝑆𝑒 𝐽𝑡 𝑆 −1 = ൥1 1 0൩൦ 2 ൪൥−1 1 0൩
𝑡 𝑡
1 2 1 0 𝑒 𝑡𝑒 1 2 1
0 0 𝑒𝑡
𝑡 𝑡
1 2 𝑡 𝑡 2 𝑡
1 2 𝑡
``````````‫ۍ‬
𝑒 − 𝑡𝑒 + 𝑡 𝑒 𝑡𝑒 − 𝑡 𝑒 𝑡 𝑒 ````````‫ې‬
````````‫ێ‬ 2 2 ````````‫ۑ‬
1 1
𝑒 𝐴𝑡 = ````````‫ 𝑡 ێ‬2 𝑒 𝑡 𝑒 𝑡 − 𝑡𝑒 𝑡 − 𝑡 2 𝑒 𝑡 𝑡𝑒 𝑡 + 𝑡 2 𝑒 𝑡 ````````‫ۑ‬
````````‫ ێ‬2 2 ````````‫ۑ‬
````````‫ 𝑡 ێ‬1 2 𝑡 𝑡 2 𝑡 𝑡 𝑡
1 2 𝑡 ````````‫ۑ‬
`````‫ 𝑒𝑡ۏ‬+ 2 𝑡 𝑒 −3𝑡𝑒 − 𝑡 𝑒 𝑒 + 2𝑡𝑒 + 𝑡 𝑒 ```````````‫ے‬
2
Calculo de 𝒆𝑨𝒕 : método 2
El segundo método para calcular 𝑒 𝐴𝑡 utiliza el método de la transformada de
Laplace y se obtiene del siguiente modo:
𝑒 𝐴𝑡 = ℒ −1 ሾ(𝑠𝐼 − 𝐴)−1 ሿ 37
EJEMPLO 1.9
Considere la matriz A siguiente
0 1
𝐴=ቂ ቃ
0 −2
Calcule 𝑒 𝐴𝑡 mediante los dos métodos analíticos presentados previamente.
Método 1. Los valores propios de A son 𝜆1 = 0, 𝜆2 = −2 . la matriz P es
1
1 1 1
1 1 2 ൪
𝑃=൤ ൨= ቂ ቃ, 𝑃 −1 =൦
𝜆1 𝜆2 0 −2 1
0 −
2
𝜆1 𝑡
𝐷𝑡 𝑒 0 ൨= ቂ1 0
𝑒 =൤ 𝜆2 𝑡 −2𝑡 ቃ
0 𝑒 0 𝑒
1
1 1
𝑒 𝐴𝑡 = 𝑃𝑒 𝐷𝑡 𝑃 −1 =ቂ
1 1 1
ቃቂ
0
ቃ൦ 2 ൪= ൥1 (1 − 𝑒 −2𝑡 )൩
0 −2 0 𝑒 −2𝑡 1 2
0 − 0 𝑒 −2𝑡
2
Método 2
𝑠 0 0 1 𝑠 −1
𝑠𝐼 − 𝐴 = ቂ ቃ− ቂ ቃ= ቂ ቃ
0 𝑠 0 −2 0 𝑠+2
1 1
``````````‫ۍ‬ ````````‫ې‬
−1 𝑠 𝑠(𝑠 + 2)````````‫ۑ‬
````````‫ێ‬
(𝑠𝐼 − 𝐴) =
````````‫ ێ‬1 ````````‫ۑ‬
0
`````‫ۏ‬ 𝑠 + 2 ```````````‫ے‬
1 −2𝑡
𝐴𝑡 −1 ሾ −1 ሿ ൥1 (1 − 𝑒 )൩
𝑒 = ℒ (𝑠𝐼 − 𝐴) = 2
0 𝑒 −2𝑡
EJEMPLO 1.10
Para la matriz A; calcule 𝑒 𝐴𝑡 utilizando la fórmula de Interpolación de Sylvester
0 1
𝐴=ቂ ቃ
0 −2
Solución
Calculo de la ecuación característica
𝜆 0 0 1 𝜆 −1
𝜆𝐼 − 𝐴 = ቂ ቃ− ቂ ቃ= ቂ ቃ
0 𝜆 0 −2 0 𝜆+2
𝜆 −1
ȁ𝜆𝐼 − 𝐴ȁ = ቚ ቚ= 𝜆 ሺ𝜆 + 2ሻ = 0, 𝜆 = 0, −2, (𝜆1 = 0, 𝜆2 = −2)
0 𝜆+2
Por la fórmula de interpolación de Sylvester
1 𝜆1 𝑒 𝜆 1 𝑡 1 0 1
ቮ1 𝜆2 𝑒 𝜆 2 𝑡 ቮ = อ1 −2 𝑒 −2𝑡 อ= 0
𝐴𝑡
𝐼 𝐴 𝑒 𝐴𝑡 𝐼 𝐴 𝑒
Desarrollando el determinante
−2𝑒 𝐴𝑡 + 𝐴 + 2𝐼 − 𝐴𝑒 −2𝑡 = 0
1
𝑒 𝐴𝑡 = (𝐴 + 2𝐼 − 𝐴𝑒 −2𝑡 )
2
1 0 1 −2𝑡
𝐴𝑡 1 2 0 0 1 −2𝑡 𝐴𝑡 1 (1 − 𝑒 )൩
𝑒 = ቄቂ ቃ+ ቂ ቃ− ቂ ቃ𝑒 ቅ= 𝑒 = ൥ 2
2 0 −2 0 2 0 −2
0 𝑒 −2𝑡
Un enfoque alternativo es usar la ecuación 11.48. En primer lugar se determinan
𝛼0 ሺ𝑡ሻ y 𝛼1 ሺ𝑡ሻ a partir de
𝛼0 ሺ𝑡ሻ+ 𝛼1 ሺ𝑡ሻ𝜆1 = 𝑒 𝜆 1 𝑡
𝛼0 ሺ𝑡ሻ+ 𝛼1 ሺ𝑡ሻ𝜆2 = 𝑒 𝜆 2 𝑡
𝛼0 ሺ𝑡ሻ = 1
𝛼0 ሺ𝑡ሻ− 2𝛼1 ሺ𝑡ሻ = 𝑒 −2𝑡
𝛼0 ሺ𝑡ሻ = 1
1
𝛼1 ሺ𝑡ሻ = (1 − 𝑒 −2𝑡 )
2
1
𝑒 𝐴𝑡 = 𝛼0 ሺ𝑡 ሻ𝐼 + 𝛼1 ሺ𝑡ሻ𝐴 = 𝐼 + (1 − 𝑒 −2𝑡 )𝐴
2
1 −2𝑡
𝑒 = ൥ 2 (1 − 𝑒 )൩
𝐴𝑡 1
0 𝑒 −2𝑡
EJEMPLO 1.11
Utilizando la fórmula de interpolación de Sylvester, calcule 𝑒 𝐴𝑡 , donde
2 1 4
𝐴 = ൥0 2 0൩
0 3 1

Solución
Hallando las raíces características
ȁ𝜆𝐼 − 𝐴ȁ = 0
𝜆 0 0 2 1 4 𝜆 − 2 −1 −4
𝜆𝐼 − 𝐴 = ൥0 𝜆 0൩− ൥0 2 0൩= ൥ 0 𝜆−2 0 ൩
0 0 𝜆 0 3 1 0 −3 𝜆 − 1
El polinomio característico (polinomio mínimo) es
𝜆 − 2 −1 −4
𝜙ሺ𝜆ሻ = อ 0 𝜆−2 0 อ= ሺ𝜆 − 2ሻሺ𝜆 − 2ሻሺ𝜆 − 1ሻ = 0
0 −3 𝜆 − 1
𝜆 = 2, 2, 1 (𝜆1 = 2, 𝜆2 = 2, 𝜆3 = 1)
Como se presenta raíces múltiples hay que aplicar el segundo caso de la fórmula
de interpolación de Sylvester. Despejando del polinomio de interpolación de
Sylvester
𝑒 𝐴𝑡 = 𝛼0 ሺ𝑡ሻ𝐼 + 𝛼1 ሺ𝑡ሻ𝐴 + 𝛼2 ሺ𝑡ሻ𝐴2 + ⋯ + 𝛼𝑚 −1 ሺ𝑡ሻ𝐴𝑚−1
Para este caso 𝑚 = 3, 𝑒 𝐴𝑡 = 𝛼0 𝐼 + 𝛼1 𝐴 + 𝛼2 𝐴2
De la fórmula de interpolación
𝛼1 + 4𝛼2 = 𝑡𝑒 𝑡
𝛼0 + 2𝛼1 + 4𝛼2 = 𝑒 2𝑡
𝛼0 + 𝛼1 + 𝛼2 = 𝑒 𝑡
Resolviendo el sistema
𝛼0 = 4𝑒 𝑡 − 3𝑒 2𝑡 + 2𝑡𝑒 𝑡
𝛼1 = −4𝑒 𝑡 + 4𝑒 2𝑡 − 3𝑡𝑒 𝑡
𝛼2 = 𝑒 𝑡 − 𝑒 2𝑡 + 𝑡𝑒 𝑡
Reemplazando
𝑒 𝐴𝑡 = (4𝑒 𝑡 − 3𝑒 2𝑡 + 2𝑡𝑒 𝑡 )𝐼 + (−4𝑒 𝑡 + 4𝑒 2𝑡 − 3𝑡𝑒 𝑡 )𝐴 + (𝛼2 = 𝑒 𝑡 − 𝑒 2𝑡 + 𝑡𝑒 𝑡 )𝐴2
𝑒 2𝑡 12𝑒 𝑡 − 12𝑒 2𝑡 + 13𝑡𝑒 𝑡 −4𝑒 𝑡 + 4𝑒 2𝑡
𝑒 𝐴𝑡 = ൥0 𝑒 2𝑡 0 ൩
0 −3𝑒 𝑡 + 3𝑒 2𝑡 𝑒𝑡
Independencia lineal de vectores
Se dice que los vectores 𝑥1 , 𝑥2 , … , 𝑥𝑛 son linealmente independientes si
𝑐1 𝑥1 + 𝑐2 𝑥2 + ⋯ + 𝑐𝑛 𝑥𝑛 = 0
donde 𝑐1 , 𝑐2 , … , 𝑐𝑛 son constante, implica que
𝑐1 = 𝑐2 = ⋯ = 𝑐𝑛 = 0
O bien, se dice que los vectores 𝑥1 , 𝑥2 , … , 𝑥𝑛 son linealmente dependientes si y
solo si 𝑥𝑖 se expresa como una combinación lineal de 𝑥𝑗 (𝑗 = 1,2, … , 𝑛; 𝑗 ≠ 𝑖) o
𝑛

𝑥𝑖 = ෍ 𝑐𝑗 𝑥𝑗
𝑗 =1,𝑗 ≠𝑖

para un conjunto de 𝑐𝑗 constantes. Esto implica que si 𝑥𝑗 se puede expresar como


una combinación lineal de los otros vectores en el conjunto, es linealmente
independiente de ellos, o no es un elemento independiente del conjunto.
EJEMPLO. Los vectores
1 1 2
𝑥1 = ൥2൩, 𝑥2 = ൥0൩, 𝑥3 = ൥2൩
3 1 4
Son linealmente independientes ya que
𝑥1 + 𝑥2 − 𝑥3 = 0
Los vectores
1 1 2
𝑦1 = ൥2൩, 𝑦2 = ൥0൩, 𝑦3 = ൥2൩
3 1 2
Son linealmente independientes, ya que
𝑐1 𝑦1 + 𝑐2 𝑦2 + 𝑐𝑛 𝑦3 = 0
Implica que
𝑐1 = 𝑐2 = 𝑐3 = 0
Observe que si una matriz 𝑛 × 𝑛 es no singular (es decir tiene un rango 𝑛 o el
determinante es diferente de cero), entonces 𝑛 vectores columna (o fila) son
linealmente independientes. Si la matriz 𝑛 × 𝑛 es singular (es decir tiene un rango
menor que 𝑛 o el determinante es cero), entonces 𝑛 vectores columna (o fila) son
linealmente dependientes. Para demostrar esto, considere que
1 1 2
ሾ𝑥1 𝑥2 𝑥3 ሿ= ൥2 0 2൩= 𝑠𝑖𝑛𝑔𝑢𝑙𝑎𝑟
3 1 4
1 1 2
ሾ𝑦1 𝑦2 𝑦3 ሿ= ൥2 0 2൩= 𝑛𝑜 𝑠𝑖𝑛𝑔𝑢𝑙𝑎𝑟
3 1 2
GRACIAS

También podría gustarte