Está en la página 1de 14

1.

1 introducción

El estudio y el diseño de sistemas físicos se pueden realizar utilizando métodos empíricos. Podemos aplicar varias señales
a un sistema físico y medir sus respuestas. Si el rendimiento no es satisfactorio, podemos ajustar algunos de sus
parámetros o conectar un compensador para mejorar su rendimiento. Este enfoque depende en gran medida de la
experiencia pasada y se lleva a cabo por ensayo y error y ha tenido éxito en el diseño de muchos sistemas físicos.

Los métodos empíricos pueden volverse impracticables si los sistemas físicos son complejos o demasiado caros o
demasiado peligrosos para ser experimentados. En estos casos, los métodos analíticos se vuelven indispensables. El
estudio analítico de los sistemas físicos consta de cuatro partes: modelado, desarrollo de descripciones matemáticas.
análisis y diseño. Brevemente presentamos cada una de estas tareas.

La distinción entre sistemas físicos y modelos es básica en ingeniería. Por ejemplo. Los circuitos o sistemas de control
estudiados en cualquier libro de texto son modelos de sistemas físicos. Una resistencia con resistencia constante es un
modelo: se apagará si la tensión aplicada supera un límite. Esta limitación de potencia a menudo no se tiene en cuenta en
su estudio analítico. Un inductor con inductancia constante es nuevamente un modelo; en realidad, la inductancia puede
variar con la cantidad de corriente que fluye a través de ella. El modelado es un problema muy importante, ya que el éxito
del diseño depende de si el sistema físico se modela correctamente.

Un sistema físico puede tener diferentes modelos dependiendo de las preguntas formuladas. También se puede modelar
de manera diferente en diferentes rangos operativos. Por ejemplo, un amplificador electrónico se modela de manera
diferente a altas y bajas frecuencias. Una nave espacial se puede modelar como una partícula en la investigación de su
trayectoria; sin embargo, debe ser modelado como un cuerpo rígido en la maniobra. Una nave espacial puede incluso ser
modelada como un cuerpo flexible cuando está conectada a una estación espacial. Para desarrollar un modelo adecuado
para un sistema físico. una comprensión profunda del sistema físico y su rango operacional es esencial. En este texto,
llamaremos a un modelo de un sistema físico simplemente un sistema. Por lo tanto, un sistema físico es un dispositivo o
una colección de dispositivos existentes en el mundo real; un sistema es un modelo de un sistema físico.

Una vez que se selecciona un sistema (o modelo) para un sistema físico, el próximo paso es aplicar varias leyes físicas para
desarrollar ecuaciones matemáticas para describir el sistema. Por ejemplo, aplicamos el voltaje y la corriente de Kirchhoff.
leyes para sistemas eléctricos y ley de Newton para sistemas mecánicos. Las ecuaciones que describen sistemas pueden
asumir muchas formas: pueden ser ecuaciones lineales, ecuaciones no lineales, ecuaciones integrales, ecuaciones de
diferencia, ecuaciones diferenciales u otras. Dependiendo del problema en estudio, una forma de ecuación puede ser
preferible a otra para describir el mismo sistema. En conclusión. Un sistema puede tener diferentes descripciones de
ecuación matemática así como un sistema físico puede tener muchos modelos diferentes.

Después de obtener una descripción matemática, realizamos análisis cuantitativos y/o cualitativos. En el análisis
cuantitativo, estamos interesados en las respuestas de los sistemas excitados por ciertas entradas. En el análisis
cualitativo, nos interesan las propiedades generales de los sistemas, como la estabilidad, controlabilidad y observabilidad.
El análisis cualitativo es muy importante, porque las técnicas de diseño a menudo pueden evolucionar a partir de este
estudio.

Si la respuesta de un sistema no es satisfactoria, el sistema debe ser modificado. En algunos casos, esto se puede lograr
ajustando algunos parámetros del sistema; en otros casos, se deben introducir compensadores. Tenga en cuenta que el
diseño se almacena en el modelo del sistema físico. Si el modelo se elige correctamente, entonces se debe mejorar el
rendimiento del sistema físico introduciendo los ajustes o compensadores necesarios. Si el modelo es pobre, entonces el
rendimiento del sistema físico puede no mejorar y el diseño es inútil. Seleccionar un modelo que esté lo suficientemente
cerca de un sistema físico y lo suficientemente simple como para estudiarlo analíticamente es el problema más difícil e
importante en el diseño del sistema.

1.2 Visión de conjunto


El estudio de los sistemas consta de cuatro partes: modelado, configuración de ecuaciones matemáticas, análisis y diseño.
Desarrollar modelos para sistemas físicos requiere conocimiento del campo particular y algunos dispositivos de medición.
Por ejemplo, desarrollar modelos para transistores requiere un conocimiento de física cuántica y cierta configuración de
laboratorio. El desarrollo de modelos para sistemas de suspensión de automóviles requiere pruebas y mediciones reales:
no se puede lograr mediante el uso de lápiz y papel. La simulación por computadora ciertamente ayuda pero no puede
reemplazar las mediciones reales. Por lo tanto, el problema de modelado debe analizarse en relación con el campo
específico y no puede tratarse adecuadamente en este texto. En este texto, asumiremos que los modelos de sistemas
físicos están disponibles para nosotros.

Los sistemas que se estudiarán en este texto están limitados a sistemas lineales. Usando el concepto de linealidad,
desarrollamos en el Capítulo 2 que cada sistema lineal puede ser descrito por

(1.1)

Esta ecuación describe la relación entre la entrada U y la salida Y y se denomina entrada-salida o externa / descripción. Si
un sistema lineal también se agrupa, entonces también puede describirse por

(1.2)(1.3)

La ecuación (1.2) es un conjunto de ecuaciones diferenciales de primer orden y la ecuación (1.3) es un conjunto de
ecuaciones algebraicas. Se les llama interna / descripción de sistemas lineales. Debido a que el vector x se llama estado,
el conjunto de dos ecuaciones se denomina espacio de estado o, simplemente, la ecuación de estado.

Si un sistema lineal tiene, además, la propiedad de la invarianza en el tiempo, entonces las ecuaciones (1.1) a (1.3) se
reducen a

Para esta clase de sistemas lineales invariantes en el tiempo, la transformada de Laplace es una herramienta importante
en el análisis y diseño. Aplicando la transformada de Laplace a (1.4) rendimientos

donde una variable con un circunflejo denota la transformada de Laplace de la variable. La función G (s) se llama matriz
de transferencia. Ambos (1.4) y (1.7) son entradas / salidas o descripciones externas. El primero se dice que está en el
dominio del tiempo y el último en el dominio de la frecuencia.

Las ecuaciones (1.1) a (1.6) se llaman ecuaciones de tiempo continuo porque su variable de tiempo t es un continuo
definido en cada instante. en (-oo, oo). Si el tiempo se deriva solo en instantes discretos, las ecuaciones correspondientes
se denominan ecuaciones de tiempo discreto. Este texto está dedicado al análisis y diseño centrado en (1.1) a (1.7) y sus
contrapartes de tiempo discreto.
Discutimos brevemente los contenidos de cada capítulo. En el Capítulo 2, después de introducir las ecuaciones antes
mencionadas a partir de los conceptos de concentración, linealidad e invariancia temporal. mostramos cómo se pueden
desarrollar estas ecuaciones para describir sistemas. El Capítulo 3 revisa ecuaciones algebraicas lineales, la ecuación de
Lyapunov y otras copias pertinentes que son esenciales para este texto. También presentamos el formulario Jordan
porque se usará para establecer un número de resultados. Estudiamos en el Capítulo 4 las soluciones de las ecuaciones
de espacio de estado en (1.2) y (1.5). Diferentes análisis pueden conducir a diferentes ecuaciones de estado que describen
el mismo sistema. Por lo tanto, presentamos el concepto de ecuaciones de estado equivalentes. La relación básica entre
las ecuaciones de espacio de estado y las matrices de transferencia también se establece. El Capítulo 5 presenta los
conceptos de estabilidad de salida limitada acotada (BlBO), estabilidad marginal y estabilidad asintótica. Todos los
servidores deben estar diseñados para ser estables; de lo contrario, pueden agotarse o desintegrarse. Por lo tanto, la
estabilidad es un concepto de sistema básico. También presentamos el teorema de Lyapunov para verificar la estabilidad
asintótica.

El Capítulo 6 presenta los conceptos de controlabilidad y observabilidad. Son esenciales para estudiar la estructura interna
de los sistemas. Un resultado fundamental es que la matriz de transferencia describe solo el panorama controlable y
observable de una ecuación de estado. El Capítulo 7 estudia realizaciones mínimas e introduce fracciones polinómicas
coprimarias. Mostramos cómo obtener fracciones coprimas resolviendo conjuntos de ecuaciones algebraicas lineales. Se
establece la equivalencia de ecuaciones de estado controlables y observables y fracciones polinómicas coprimarias.

Los dos últimos capítulos discuten el diseño de sistemas invariantes en el tiempo. Usamos ecuaciones de estado
controlables y observables para llevar a cabo el diseño en el Capítulo 8 y usamos fracciones polinómicas coprimarias en el
Capítulo 9. Mostramos eso, bajo la condición de controlabilidad. Todos los valores propios de un sistema pueden asignarse
arbitrariamente mediante la introducción de comentarios del estado. Si una ecuación de estado es observable,
estimadores de estado de dimensión total y de dimensión reducida. con cualquier valor propio deseado, se puede
construir para generar estimaciones del estado. También establecemos la propiedad de separación. En el Capítulo 9,
hablamos de la colocación de polos, la coincidencia de modelos y sus aplicaciones en el seguimiento, el rechazo de
perturbaciones y el desacoplamiento. Utilizamos la configuración de retroalimentación unitaria en la colocación de polos
y la configuración de dos paneles en la coincidencia de modelos. En nuestro diseño, no se consideran los rendimientos de
control tales como el tiempo de subida, el tiempo de asentamiento y el sobreimpulso, ya que no existen restricciones en
las señales de control ni en el grado de compensación. Por lo tanto, esto no es un texto de control en sí. Sin embargo,
todos los resultados son básicos y útiles en el diseño de sistemas de control lineal invariantes en el tiempo.

2.1 introducción

La clase de sistemas estudiados en este texto se asegura que tiene algunos terminales de entrada y terminales de salida
como se muestra en la figura 2.1. Suponemos que si se aplica una excitación o entrada a los terminales de entrada. se
puede medir una señal de respuesta o salida única en los terminales de salida. Esta relación única entre la excitación y
respuesta, entrada y salida, o causa y efecto es esencial para definir un sistema. Un sistema con solo un terminal de
entrada y solo un terminal de salida se llama sistema de variable única o único de entrada única. sistema de salida (SISO).
Un sistema con dos o más terminales de entrada y / o dos o más terminales de salida se denomina sistema multivariable.
Más específicamente, podemos llamar a un sistema un sistema de múltiples salidas de entrada múltiple (MIMO) si tiene
dos o más terminales de entrada y terminales de salida. un sistema de salida única de salida múltiple (SIMO) si tiene un
terminal de entrada y dos o más terminales de salida.
Un sistema se denomina sistema de tiempo continuo si acepta señales de tráfico continuo como entrada y genera señales
de tiempo continuo como salida. La entrada se indicará con itálica minúscula u(t) para una sola entrada o en negrita u (t)
para entradas múltiples. Si el sistema tiene p terminales de entrada, entonces u(t) es un vector px1 o u = [u1 u2 .... up] ',
donde el primo denota la transposición. Del mismo modo, la salida se denotará por y(t) o y(t). El tiempo t se supone que
va de -oo a oo.

Un sistema se denomina sistema de tiempo discreto si acepta señales de tiempo discreto como entrada y genera señales
de tiempo discreto como salida. Se supone que todas las señales de tiempo discreto en un sistema tienen el mismo período
de muestreo T. La entrada y la salida se denotarán por u[k]: = u(kT) y y[k]: = y(kT), donde k denota el instante en tiempo
discreto y es un número entero que va de -oo a oo. Se convierten en negrita para múltiples entradas y múltiples salidas.

2.1.1 Causalidad y Concentrado (agrupado)

Un sistema se denomina sistema sin memoria si su salida y(t0) depende solo de la entrada aplicada en t0; es independiente
de la entrada aplicada antes o después de t0. Esto se indicará brevemente de la siguiente manera: la salida de corriente
de un sistema sin memoria solo depende de la entrada actual; es independiente de las entradas pasadas y futuras. Una
red que consta de solo resistencias es un sistema sin memoria.

La mayoría de los sistemas, sin embargo, tener memoria. Con esto queremos decir que la salida en t0 depende de u(t)
para t < t0, t = t0 y t > t0. Es decir, la salida actual de un sistema con memoria puede depender de entradas pasadas,
actuales y futuras.

Un sistema se denomina sistema causal o no participativo si su salida actual depende de entradas pasadas y actuales, pero
no de entradas futuras. Si un sistema no es causal, su salida actual dependerá de la entrada futura. En otras palabras, un
sistema no causal puede predecir o anticipar lo que se aplicará en el futuro. Ningún sistema físico tiene tal capacidad. Por
lo tanto, cada sistema físico es causal y la causalidad es una condición necesaria para que un sistema se construya o
implemente en el mundo real. Este texto estudia solo los sistemas causales.

El producto actual de un sistema causal se ve afectado por la información pasada. ¿Qué tan atrás en el tiempo afectará el
aporte pasado a la salida actual? En general, el tiempo debería ir todo el camino de regreso a menos infinito. En otras
palabras, la entrada desde -oo hasta el tiempo t tiene un efecto sobre y(t). El seguimiento de u(t) desde t = -oo es, si no
imposible, muy inconveniente. El concepto de estado puede ser un calvario con este problema.

Definición 2.1: El estado x(t0) de un sistema en el tiempo t0 es la información en t0 que, junto con la entrada u(t), para t
>= t0, determina únicamente la salida y(t) para todo t >= t0.

Por definición, si conocemos el estado en t0, ya no es necesario conocer la entrada u(t) aplicada antes para determinar la
salida y(t) después de t0. Por lo tanto, en cierto sentido, el estado resume el efecto del aporte pasado en el producto
futuro. Para la red mostrada en la figura 2.2, si conocemos los voltajes x1(t0) y x2(t0) a través de los dos condensadores y
la corriente X3(t0) que pasa a través del inductor, entonces para cualquier entrada aplicada en y después de t0, puede
determinar únicamente la salida para t >= t0. Por lo tanto, el estado de la red en el momento t0 es
Es un vector 3x1. Las entradas de x se llaman variables de estado. Por lo tanto, en general, podemos considerar el estado
inicial simplemente como un conjunto de condiciones iniciales.

Usando el estado en t0, podemos expresar la entrada y la salida de un sistema como

(2.1)

Significa que la salida está parcialmente excitada por el estado inicial en t0 y en parte por la entrada aplicada en y después
de t0. Al usar (2.1). ya no es necesario saber la entrada aplicada antes de volver al -oo. Por lo tanto, (2.1) es más fácil de
rastrear y se llamará un par de estado-entrada-salida.

Se dice que un sistema está agrupado si su número de variables de estado es finito o su estado es un vector finito. La red
en la figura 2.2 es claramente un sistema agrupado; su estado consiste en tres números. Un sistema se llama sistema
distribuido si su estado tiene infinitas variables de estado. La línea de transmisión es el sistema distribuido más conocido.
Damos un ejemplo más.

EJEMPLO 2.1 Considere el sistema de retardo en unidad de tiempo definido por

La salida es simplemente la entrada retrasada por un segundo. Para determinar {y(t), t >= t0} a partir de {u(t), t >= t0},
necesitamos la información {u(t), t0 - 1 <= t < t0}. Por lo tanto, el estado inicial del sistema es {u(t), t0 - 1 <= t < t0}. Hay
infinitos puntos en {t0 - 1 <= t < t0}. Por lo tanto, el sistema de demora de unidad de tiempo es un sistema distribuido.

2.2 Sistemas lineales

Un sistema se denomina sistema lineal si para cada t0 y dos pares de estado-entrada-salida

para i=1, 2, tenemos


para cualquier constante real a(alfa). La primera propiedad se llama propiedad de aditividad, la segunda, la propiedad de
homogeneidad. Estas dos propiedades se pueden combinar como

para cualquier constante real a1 y a2, y se llama a la propiedad de superposición. Un sistema se denomina sistema no
lineal si la propiedad de superposición no se mantiene.

Si la entrada u(t) es idénticamente cero para t >= t0, entonces la salida será excitada exclusivamente por el estado inicial
x(t0). Esta salida se llama respuesta de entrada cero y se denotará por yzi o

Si el estado inicial x(t0) es cero, la salida será excitada exclusivamente por la entrada. Este resultado se denomina
respuesta de estado cero y se denotará mediante yzs o

La propiedad de aditividad implica

Respuesta = respuesta de entrada cero + respuesta de estado cero

Por lo tanto, la respuesta de cada sistema lineal se puede descomponer en la respuesta de estado cero y la respuesta de
entrado-cero. Además, las dos respuestas se pueden estudiar por separado y su suma produce la respuesta completa.
Para sistemas no lineales, la respuesta completa puede ser muy diferente de la suma de la respuesta de entrada cero y
la respuesta de estado cero. Por lo tanto, no podemos separar las respuestas de entrada cero y de estado cero al
estudiar sistemas no lineales.

Si un sistema es lineal entonces las propiedades de aditividad y homogeneidad se aplican a las respuestas del estado-
cero. Para ser más específico, si x(t0) = 0, entonces la salida será excitada exclusivamente por la entrada y la ecuación
estado-entrada-salida se puede simplificar como {ui -> yi}. Si el sistema es lineal, entonces tenemos {u1 + u2 -> y1 + y2} y
{aui -> ayi} para todos los a. y todo ui. Una observación similar se aplica a las respuestas de entrada cero de cualquier
sistema lineal.

Descripción de entrada-salida: Desarrollamos una ecuación matemática para describir la respuesta de estado cero de los
sistemas lineales. En este estudio, se supone implícitamente que el estado inicial es cero y la salida se excita
exclusivamente por la entrada. Consideramos los primeros sistemas lineales SISO. Deje que &(t - t1) sea el pulso que se
muestra en la figura 2.3. Tiene ancho A y altura 1/A y se encuentra en el tiempo t1. Entonces, cada entrada u(t) puede
aproximarse mediante una secuencia de pulsos, como se muestra en la figura 2.4. El pulso en la figura 2.3 tiene una
altura de 1/A; así y A(t - t1)A tiene altura 1 y el pulso de la izquierda en la figura 2.4 con altura u(t¡) se puede expresar
como u(t¡) y A(t - t1) A. Por consiguiente, la entrada u(t) puede expresarse simbólicamente como

Sea &A(t, t¡) la salida en el tiempo t excitado por el pulso u(t)=&A(t - t¡) aplicado en el momento t¡. Entonces nosotros
tenemos

Por lo tanto, la salida y(t) excitada por la entrada u(t) se puede aproximar por
Ahora bien, si A se acerca a cero, el impulso && tA (t-ti) se convierte en un impulso en ti, denotado por & (t-ti), y la
salida correspondiente se denotará por g (t, ti). Como A, se acerca a cero, la aproximación en (2.2) se convierte en
igualdad, la suma se convierte en una integración, el ti discreto se convierte en un continuo y puede ser reemplazado
por r, y A puede escribirse como dr. Por lo tanto (2.2) se convierte

(2.3)

Tenga en cuenta que g (t, r) es una función de dos variables. La segunda variable denota el momento en que se aplica la
entrada de impulso; la primera variable denota el tiempo en que se observa la salida. Porque g (t, r) es la respuesta
excitada por un impulso, se llama respuesta al impulso. Si un sistema es causal la salida no aparecerá antes de que se
aplique una entrada. Así tenemos

Se dice que un sistema está relajado en t0 si su estado inicial en t0 es 0. En este caso, la salida y(t), para t >= t0, se excita
exclusivamente por la entrada u(t) para t >= t0. Por lo tanto, el límite inferior de la integración en (2.3) puede ser
reemplazado por t0. Si el sistema es causal también, entonces g(t,r) = 0 para t < r. Por lo tanto, el límite superior de la
integración en (2.3) puede ser reemplazado por t. En conclusión, cada sistema lineal que es causal y relajado puede ser
descrito por
(2.4)

En esta derivación, no se usa la condición de agrupamiento. Por lo tanto, cualquier sistema lineal agrupado o distribuido
tiene dicha descripción de entrada-salida. Esta descripción se desarrolla utilizando solo las propiedades de aditividad y
homogeneidad; por lo tanto, cada sistema lineal, ya sea un sistema eléctrico, un sistema mecánico, un proceso químico
o cualquier otro sistema, tiene tal descripción.

Si un sistema lineal tiene p terminales de entrada y q terminales de salida, entonces (2.4) se puede extender a

(2.5)

y gij(t, r) es la respuesta en el tiempo t en el i-ésimo terminal de salida debido a un impulso aplicado en el tiempo r en el
j-ésimo terminal de entrada, las entradas en otros terminales son idénticamente cero. Es decir, gij(t, r) es la respuesta de
impulso entre el j-ésimo terminal de entrada y el i-ésimo terminal de salida. Por lo tanto, G se llama la matriz de
respuesta de impulso del sistema. Hacemos hincapié una vez más en que si un sistema está descrito por (2.5), el sistema
es lineal, relajado y causal.

Descripción del espacio de estado: cada sistema agrupado lineal se puede describir mediante un conjunto de ecuaciones
de la forma

donde x': = dx / dt. Para un sistema p-input q-output, u es un vector px1 e y es un vector qx1. Si el sistema tiene n
variables de estado, entonces x es un vector nx1. Para que las matrices en (2.6) y (2.7) sean compatibles, A, B, C y D
deben ser nxn, nxp, qxn y q x p matrices. Las cuatro matrices son todas funciones del tiempo o matrices variables en el
tiempo. La ecuación (2.6) en realidad consiste en un conjunto de n ecuaciones diferenciales de primer orden. La
ecuación (2.7) consiste en q ecuaciones algebraicas. El conjunto de dos ecuaciones se denominará una ecuación de
espacio de estado n-dimensional o, simplemente, ecuación de estado, para sistemas distribuidos. la dimensión es
infinito y las dos ecuaciones en (2.6) y (2.7) no se usan.

La descripción de entrada-salida en (2.5) se desarrolló a partir de la condición de linealidad. Sin embargo, el desarrollo
de la ecuación estado-espacio a partir de la condición de linealidad no es simple y no se alterará. Simplemente lo
aceptaremos como un hecho.

2.3 Sistemas lineales invariantes en el tiempo (LTI) SLIT

Se dice que un sistema es invariante en el tiempo si para cada par estado-entrada-salida


y cualquier T, tenemos

Significa que si el estado inicial se desplaza al tiempo t0 + T y la misma forma de onda de entrada se aplica desde t0 + T
en lugar de desde t0, entonces la forma de onda de salida será la misma excepto que comienza a aparecer desde el
tiempo t0 + T. en otras palabras, si el estado inicial y la entrada son los mismos, no importa en qué momento se
apliquen, la forma de onda de salida siempre será la misma. Por lo tanto, para los sistemas invariantes en el tiempo,
siempre podemos suponer, sin pérdida de generalidad, que t0 = 0. Si un sistema no es invariante en el tiempo, se dice
que varía con el tiempo.

La invarianza temporal se define para sistemas, no para señales. Las señales son por lo general variables en el tiempo. Si
una señal es invariante en el tiempo, como u (t) = 1 para todas las t, entonces es una señal muy simple o trivial. Las
características de los sistemas invariantes en el tiempo deben ser independientes del tiempo. Por ejemplo, la red en la
figura 2.2 es invariante en el tiempo si Ri, Ci y Li son constantes.

Algunos sistemas físicos deben modelarse como sistemas que varían con el tiempo. Por ejemplo, un cohete ardiente es
un sistema variable en el tiempo, porque su masa disminuye rápidamente con el tiempo. Aunque el rendimiento de un
automóvil o un televisor puede deteriorarse durante un largo período de tiempo, sus características no cambian
apreciablemente en los primeros años. Por lo tanto, se puede modelar una gran cantidad de sistemas físicos como
sistemas invariantes en el tiempo durante un período de tiempo limitado.

Descripción de entrada-salida: La respuesta de estado cero de un sistema lineal puede describirse por (2.4). Ahora si el
sistema también es invariante en el tiempo, entonces tenemos

para cualquier T. Así (2.4) se reduce a

donde hemos reemplazado t0 por 0. La segunda igualdad se puede verificar fácilmente cambiando la variable. La
integración en (2.8) se llama integral de convolución. A diferencia del caso variable en el tiempo donde g es una función
de dos variables, g es una función de una sola variable en el caso invariante en el tiempo. Por definición g(t) = g(t-0) es la
salida en el tiempo t debida a una entrada de impulso aplicada en el tiempo 0. La condición para que un sistema lineal
invariante en el tiempo sea causal es g(t) = 0 para t < 0.

EJEMPLO 2.2 El sistema de retardo en el tiempo de la unidad del dedo del pie estudiado en el ejemplo 2.1 es un
dispositivo cuya salida es igual a la entrada retrasada por 1 segundo. Si aplicamos el impulso & (t) en el terminal de
entrada, la salida es & (t-1). Por lo tanto, la respuesta de impulso del sistema es &(t-1).

EJEMPLO 2.3 Considere el sistema de retroalimentación unitaria que se muestra en la figura 2.5(a). Consiste en un
multiplicador con ganancia A y un elemento de retardo de unidad de tiempo. Es un sistema SISO. Deje r(t) ser la entrada
del sistema de retroalimentación. Si r(t) = &(t), entonces la salida es la respuesta de impulso del sistema de
retroalimentación e igual

Sea r (t) cualquier entrada con r (t) = O para r <0; entonces la salida está dada por
Debido a que el sistema de retardo de unidad de tiempo se distribuye, también lo está el sistema de retroalimentación.

Matriz de función de transferencia: la transformada de Laplace es una herramienta importante en el estudio de sistemas
lineales invariantes en el tiempo (LTI). Deje ý(s) ser la transformada de Laplace de y(t), es decir:

A lo largo de este texto, usamos una variable con un circunflejo para denotar la transformada de Laplace de la variable.
Para los sistemas causales, tenemos g(t)=0 para t<0 o g(t-r)=0 para r>t. Por lo tanto, el límite superior de integración en
(2.8) puede reemplazarse por oo. Sustituyendo (2.8) e intercambiando el orden de las integraciones, obtenemos

que se convierte después de introducir la nueva variable v=t-r,

De nuevo, se usa la condición de causalidad para reemplazar el límite inferior de integración dentro de los paréntesis de
v=-r a v=0. la integración se vuelve independiente de r. y las integraciones dobles se convierten
se llama la función de transferencia del sistema. Por lo tanto, la función de transferencia es la transformada de Laplace
de la respuesta al impulso y, por el contrario, la respuesta al impulso es la transformación Laplace inversa de la función
de transferencia. Vemos que la transformada de Laplace transforma la integral de convolución en (2.8) en la ecuación
algebraica en (2.10). En análisis y diseño, es más simple usar ecuaciones algebraicas que usar convoluciones. Por lo
tanto, la convolución en (2.8) rara vez se utilizará en el resto de este texto.

Para un sistema de entrada-p salida-q, (2.10) se puede extender como

donde g'ij(s) es la función de transferencia de la j-ésima entrada a la i-ésima salida. La matriz qxp G(s) se denomina
matriz de función de transferencia o, simplemente, matriz de transferencia del sistema.

EJEMPLO 2.4 Considere el sistema de retardo de unidad de tiempo estudiado en el ejemplo 2.2. Su respuesta de impulso
es &(t-1), por lo tanto, su función de transferencia es

Esta función de transferencia es una función irracional de s.

EJEMPLO 2.5 Considere el sistema de retroalimentación que se muestra en la figura 2.5 (a). La función de transferencia
del elemento de retardo de unidad de tiempo es e-s. La función de transferencia de r a y se puede calcular directamente
a partir del diagrama de bloques como

Esto también se puede obtener tomando la transformada de Laplace de la respuesta al impulso, que se calculó en (2.9)
como
Como L[&(t-i)]=e-is, la transformada de Laplace de gf(t) es

para lrl<1, podemos expresar la serie infinita en forma cerrada como

que es lo mismo que (2.12).

La función de transferencia en (2.12) es una función irracional de s. Esto es así porque el sistema de retroalimentación es
un sistema distribuido. Si se agrupa un sistema lineal invariante en el tiempo, entonces su función de transferencia será
una función racional de s. Estudiamos sistemas mayormente agrupados; por lo tanto, las funciones de transferencia que
encontraremos son principalmente funciones racionales de s.

Toda función de transferencia racional se puede expresar como g'(s) = N(s)/D(s), donde N(s) y D(s) son polinomios de s.
Usemos deg para denotar el grado de un polinomio. Entonces g'(s) se puede clasificar de la siguiente manera:

• g'(s) propia <=> deg D(s) >= deg N(s) <=> g'(oo) = constante cero o distinta de cero.

• g'(s) estrictamente propia <=> deg D(s) > deg N(s) <=> g'(oo) = 0.

• g'(s) bipropia <=> deg D(s) = deg N(s) <=> g'(x) = constante distinta de cero.

• g'(s) impropia <=> deg D(s) < deg N(s) <=> |g'(x)| = oo.

Las funciones de transferencia racional inadecuadas amplificarán el ruido de alta frecuencia, que a menudo existe en el
mundo real; por lo tanto, las funciones de transferencia racionales impropia raramente surgen en la práctica.

Un número real o complejo ~ se denomina polo de la función de transferencia propia g'(s)=N(s)/D(s) si |g'(~)|=oo; un
cero si g'(~)=0. Si N(s) y D(s) son coprimos, es decir, no tienen factores comunes de grado 1 o mayor, entonces todas las
raíces de N(s) son los ceros de g'(s). y todas las raíces de D(s) son los polos de g'(s). En términos de polos y ceros, la
función de transferencia se puede expresar como

Esto se llama la forma de ganancia de polo cero. En MATLAB, este formulario se puede obtener de la función de
transferencia llamanda [z, p, k] = tf2zp (num,den).

Se dice que una matriz racional G'(s) es adecuada si todas las entradas son correctas o si G'(oo) es una matriz constante
nula o distinta de cero: es estrictamente correcto si todas sus entradas son estrictamente apropiadas o si G'( oo) es una
matriz cero. Si una matriz racional G'(s) es cuadrada y si tanto G'(s) como G'-1(s) son correctas, entonces G'(s) se dice
que es biapropiado. Llamamos ~ un polo de G'(s) si es un polo de alguna entrada de G'(s). Por lo tanto, cada polo de cada
entrada de G'(s) es un polo de G'(s). Hay varias formas de definir ceros para G'(s). Llamamos a x un cero de bloqueo si es
un cero de cada entrada distinta de cero de G'(s). Una definición más útil es el cero de transmisión, que se presentará en
el Capítulo 9.

Ecuación de espacio de estado: cada sistema lineal concentrado invariante en el tiempo se puede describir mediante un
conjunto de ecuaciones de la forma

Para un sistema con p entradas, q salidas y n variables de estado, A, B, C y D son, respectivamente, matrices constantes
nxn, nxp, qxn y qxp. Aplicando la transformada de Laplace a (2.13) rendimientos

lo que implica

Son ecuaciones algebraicas. Dado x(0) y u'(s), x'(s) e y'(s) se pueden calcular algebraicamente a partir de (2.14) y (2.15).
Sus transformadas inversas de Laplace producen las respuestas temporales x(t) e y(t). Las ecuaciones también revelan el
hecho de que la respuesta de un sistema lineal puede descomponerse como la respuesta de estado cero y la respuesta
de entrada cero. Si el estado inicial x(0) es cero, entonces (2.15) se reduce a

Comparando esto con (2.11) rendimientos

Esto relaciona las descripciones de entrada-salida (o matriz de transferencia) y espacio de estado.

Las funciones tf2ss y ss2tf en MATLAB calculan una descripción de la otra.

Solo computan los casos SISO y SIMO. Por ejemplo, [num, den]=ss2tf(a, b, e, d, 1) calcula la matriz de transferencia
desde la primera entrada hasta todas las salidas o, de manera equivalente, la primera columna de G'(s). Si el último
argumento 1 en ss2tf(a, b, e, d, 1) se reemplaza por 3, entonces la función genera la tercera columna de G'(s).

Para concluir esta sección, mencionamos que la transformada de Laplace no se usa en el estudio de sistemas lineales
que varían con el tiempo. La transformada de Laplace de g(t, r) es una función de dos variables y L[A(t)x(t)]≠L[A(t)]L[x(t)];
por lo tanto, la transformada de Laplace no ofrece ninguna ventaja y no se utiliza en el estudio de sistemas que varían
con el tiempo.