Está en la página 1de 2

Introducción

En este trabajo se realizó una investigación acerca de la estabilidad de un sistema de control,


así como su importancia, y las variantes que esta puede tener al no tener una estabilidad,
también se muestran las representaciones gráficas que cada una de ellas genera y la
explicación de cada una. Se tomó en cuenta las diferentes formas de describir la estabilidad
de un sistema para comprender mejor un sistema con control de estabilidad por lo tanto se
desarrollaran los diferentes criterios de estabilidad como también se trataran ciertos casos
especiales del sistema en concreto, como la de Hurtwitz .

Objetivo

Comprender cómo funcionan los sistemas con un control de estabilidad para el manejo
adecuado de un sistema en general, para generar un mejor desempeño de este y obtener
resultados óptimos del sistema para establecer un buen control del sistema.

Fundamento

¨”Estabilidad de un sistema de control”

La propiedad más importante en un sistema de control es la estabilidad, tanto es así que sin
esta, no se puede hablar de un sistema de control si este no es estable. Un sistema es estable
si este responde con una variación finita a variaciones finitas de sus señales de entrada. Si se
considera un sistema lineal e invariante en el tiempo, la inestabilidad del sistema supondrá
una respuesta que aumenta o disminuye de forma exponencial, o una oscilación cuya
amplitud aumenta exponencialmente. En esas situaciones el sistema no responde a las
acciones de control, por lo que se dice que el sistemas se ha ido de control. Este efecto puede
provocar situaciones muy peligrosas y fallos catastróficos, de ahí la importancia de estudiar la
estabilidad. Diferentes definiciones:

Definición 1: Un sistema es estable si la salida permanece acotada para una entrada acotada .

Definición 2: Un sistema lineal es estable si la respuesta impulso o función impulsional es

absolutamente integrable en el rango infinito, esto es, si es finita.

Definición 3: Un sistema lineal es estable si todos los polos de su función de transferencia


están en el semiplano izquierdo del plano s.

La definición 1 recibe el nombre de estabilidad BIBO (siglas de Bounded Input Bounded


Output). Nótese que las dos primeras definiciones hacen referencia a la respuesta temporal
del sistema (dominio temporal), mientras que la tercera se refiere a las características del
modelo matemático del mismo (dominio frecuencial).

Para el tipo de sistemas con los que se va a trabajar normalmente en la Ingeniería de Control
se puede dar otra definición de estabilidad equivalente a la definición 2.

Definición 2.1: Un sistema lineal es estable si su función de peso decae a cero cuando t →∞
(función peso es equivalente a respuesta impulsional), es decir, si limt→∞g(t) = 0.

Y finalmente, puesto que los polos de la función de transferencia de un sistema lineal son los
valores propios de la matriz A de las ecuaciones de estado del mismo, podemos dar una
definición equivalente a la 3 para el caso en que el sistema esté descrito en el espacio de
estados.

Definición 3.1:

Un sistema lineal es estable si todos los valores propios de la matriz A están en el semiplano
izquierdo.

“Explicación con nuestras propias palabras”

Un sistema de control estable es aquel que es lineal e invariable en el tiempo, y su respuesta


natural tiende a cero y el tiempo tiende a infinito, cuando es inestable su respuesta natural
crece ilimitadamente cuando el tiempo tiende a infinito y es críticamente estable si su
respuesta natural no crece ni decae, es decir, tiende a permanecer constante igual cuando el
tiempo tiende a ser infinito.

Fig 1 y 2. En la figura uno se muestra la gráfica de un sistema críticamente estable en


comparación con una gráfica de un sistema estable.

También podría gustarte