Está en la página 1de 7

INVESTIGACION 1: INTRODUCCION DE LA TEORIA DE CONTROL

Rogelio Valdez Hernandez


Ing Abraham Flores Rubio
Control
Instituto Tecnológico de Reynosa
Índice
1.1 Reseña del desarrollo de los sistemas de control .............................. 2
1.2 Definiciones......................................................................................... 3
1.2.1 Elementos que conforman los sistemas de control .......................... 3
1.2.1.1 Lazo abierto ................................................................................... 4
1.2.1.2 Lazo cerrado .................................................................................. 4
1.2.2 Ejemplos de sistemas de control ...................................................... 5
1.3 Control clásico contra control moderno............................................ 5
Referencias ................................................................................................ 6

ROGELIO VALDEZ HERNANDEZ 1


1.1 Reseña del desarrollo de los sistemas de control

El desarrollo de los sistemas de control ha sido un área crucial en la historia de la ingeniería y la


tecnología. Desde los primeros rudimentos de control manual hasta los complejos sistemas automatizados
de hoy en día, este campo ha experimentado un crecimiento significativo a lo largo del tiempo. A
continuación, se presenta una reseña del desarrollo de los sistemas de control:
Control Manual Primitivo: Los primeros sistemas de control eran completamente manuales y se
basaban en la intervención humana directa. Un ejemplo temprano es el control del flujo de agua en
sistemas de irrigación antiguos mediante la apertura y cierre de compuertas.
Sistemas de Control Mecánico: Durante la Revolución Industrial, se desarrollaron sistemas de control
mecánico para automatizar procesos industriales. Esto incluía dispositivos mecánicos como reguladores
de velocidad y mecanismos de retroalimentación para mantener constantes ciertas variables.
Desarrollo de la Teoría de Control: A principios del siglo XX, ingenieros como Nicolas Minorsky y
James Clerk Maxwell comenzaron a desarrollar teorías matemáticas para entender y diseñar sistemas de
control. Esta fue una fase crucial en el desarrollo de los sistemas de control modernos, ya que sentó las
bases para el análisis y diseño sistemático de sistemas de control.
Control Automático Electrónico: Con el advenimiento de la electrónica en el siglo XX, se hizo posible
desarrollar sistemas de control automático más avanzados. El uso de amplificadores operacionales,
transistores y otros dispositivos electrónicos permitió la implementación de sistemas de control más
precisos y rápidos.
Teoría de Control Moderna: Durante la segunda mitad del siglo XX, se desarrollaron teorías de control
más avanzadas, como el control óptimo, el control adaptativo y el control robusto. Estas teorías
permitieron el diseño de sistemas de control más sofisticados capaces de manejar una amplia gama de
condiciones y perturbaciones.
Control Digital: A medida que la tecnología digital se hizo más accesible, surgieron los sistemas de
control digital. Estos sistemas utilizan computadoras y algoritmos digitales para realizar el control en
lugar de hardware analógico. El control digital ofrece ventajas como una mayor precisión, flexibilidad y
capacidad de procesamiento.
Control Inteligente y Automatización Avanzada: En las últimas décadas, ha habido un enfoque
creciente en el control inteligente y la automatización avanzada. Esto incluye el uso de técnicas de
inteligencia artificial, como redes neuronales y algoritmos genéticos, para desarrollar sistemas de control
que puedan aprender y adaptarse a medida que interactúan con su entorno.
En resumen, el desarrollo de los sistemas de control ha sido un proceso continuo de avances tecnológicos
y teóricos a lo largo de la historia. Desde sus inicios en la era preindustrial hasta los sistemas de control
digital y automatización inteligente de hoy en día, este campo ha evolucionado para satisfacer las
crecientes demandas de precisión, eficiencia y flexibilidad en una amplia gama de aplicaciones
industriales y tecnológicas.

ROGELIO VALDEZ HERNANDEZ 2


1.2 Definiciones

La teoría de control es una disciplina fundamental en la ingeniería y la ciencia que se ocupa del
análisis y diseño de sistemas dinámicos para lograr ciertos objetivos de control. Estos sistemas pueden ser
tan simples como un termostato que regula la temperatura de una habitación, o tan complejos como un
sistema de control de vuelo en un avión. La teoría de control proporciona herramientas y técnicas para
comprender, modelar, analizar y diseñar sistemas de control que satisfagan requisitos específicos de
rendimiento, estabilidad y robustez.

1. Sistema: Es cualquier entidad o proceso que acepta entradas y produce salidas. Un


sistema puede ser físico, como un robot o una planta de energía, o abstracto, como un
modelo matemático de un fenómeno natural.
2. Variable de Estado: Es una cantidad que describe completamente el estado de un
sistema en un momento dado. Las variables de estado pueden ser físicas, como posición y
velocidad, o abstractas, como la carga de un servidor informático.
3. Controlador: Es un dispositivo o algoritmo que calcula las acciones de control
necesarias para llevar el sistema desde un estado inicial a un estado deseado o mantenerlo
en un estado deseado. El controlador utiliza la retroalimentación de las mediciones del
sistema para ajustar su comportamiento.
4. Sistema de Control: Es la combinación del sistema que se está controlando, el
controlador y cualquier interfaz de retroalimentación o actuación. El sistema de control se
diseña para lograr ciertos objetivos de rendimiento, como la estabilidad, la precisión y la
rapidez de respuesta.
5. Retroalimentación (Feedback): Es la información sobre el estado actual del sistema que
se utiliza para ajustar las acciones de control. La retroalimentación puede ser positiva,
donde se amplifica la señal de salida, o negativa, donde se utiliza para corregir errores y
mantener el sistema en un estado deseado.
6. Estabilidad: Un sistema de control se considera estable si su respuesta permanece
acotada y converge a un estado deseado a pesar de perturbaciones externas. La
estabilidad es un objetivo fundamental en el diseño de sistemas de control.

1.2.1 Elementos que conforman los sistemas de control


Planta (o proceso): Es el sistema físico o abstracto que se está controlando. Puede ser una máquina, un
proceso químico, un sistema eléctrico, o cualquier otro sistema que acepte entradas y produzca salidas. La
planta es el objeto sobre el cual se aplica el control para lograr ciertos objetivos.

Sensor(es): Son dispositivos que detectan y convierten magnitudes físicas o variables de estado del
sistema en señales eléctricas o digitales que pueden ser procesadas por el controlador. Los sensores
proporcionan retroalimentación al sistema de control sobre el estado actual de la planta, permitiendo
tomar decisiones informadas sobre las acciones de control necesarias.

ROGELIO VALDEZ HERNANDEZ 3


Actuador(es): Son dispositivos que reciben señales de control del controlador y producen cambios en la
planta. Los actuadores convierten señales eléctricas o digitales en acciones físicas, como movimientos
mecánicos, cambios en la energía suministrada, o alteraciones en el flujo de materiales. Estos efectúan las
correcciones necesarias para llevar el sistema hacia el estado deseado.
Controlador: Es el componente central del sistema de control que calcula las acciones de control
necesarias para mantener o modificar el comportamiento de la planta. Utiliza la información de
retroalimentación proporcionada por los sensores para generar señales de control adecuadas para los
actuadores. Los controladores pueden ser implementados en hardware, software o ambos, y utilizan
algoritmos de control específicos para alcanzar los objetivos deseados.
Interfaz de Usuario: En algunos sistemas de control, se incluye una interfaz de usuario que permite a
los operadores humanos interactuar con el sistema. Esta interfaz puede proporcionar información sobre el
estado del sistema, permitir ajustes en los parámetros de control, y visualizar datos relevantes para la
supervisión y el diagnóstico del sistema.

1.2.1.1 Lazo abierto

El lazo abierto es un concepto fundamental en teoría de control que describe un tipo de sistema en el cual
la salida del sistema no influye en la entrada o en el proceso de control. En otras palabras, en un sistema
de lazo abierto, no se utiliza retroalimentación para corregir o ajustar la salida del sistema.
Ejemplos comunes de sistemas de lazo abierto incluyen:
Una lavadora que ejecuta un ciclo de lavado predefinido sin ajustar su operación en función de la
suciedad o la carga de la ropa.
Un horno que calienta a una temperatura constante sin medir la temperatura real del ambiente o los
alimentos.
Aunque los sistemas de lazo abierto son simples y fáciles de implementar, tienden a ser menos robustos y
menos precisos en comparación con los sistemas de lazo cerrado, donde se utiliza la retroalimentación
para ajustar y corregir el comportamiento del sistema en tiempo real. Sin embargo, los sistemas de lazo
abierto aún tienen aplicaciones en situaciones donde la precisión no es crítica o donde el costo y la
simplicidad son factores importantes.

1.2.1.2 Lazo cerrado

El lazo cerrado, también conocido como sistema de retroalimentación, es un concepto central en teoría de
control que describe un tipo de sistema en el cual la salida del sistema se utiliza como retroalimentación
para controlar la entrada y ajustar el comportamiento del sistema. En otras palabras, en un sistema de lazo
cerrado, la salida del sistema se compara con un valor deseado o de referencia, y esta diferencia se utiliza
para ajustar la entrada o el proceso de control.

Ejemplos comunes de sistemas de lazo cerrado incluyen:

ROGELIO VALDEZ HERNANDEZ 4


Un sistema de control de temperatura en un horno que mide continuamente la temperatura y ajusta la
entrada de energía para mantener la temperatura deseada.
Un sistema de control de velocidad en un vehículo que utiliza un regulador de velocidad de crucero
para mantener una velocidad constante en función de la velocidad medida y la configuración del
conductor.

1.2.2 Ejemplos de sistemas de control


 Control de Temperatura en un Horno
 Control de Velocidad en un Motor
 Control de Nivel en un Tanque
 Control de Posición en un Robot Industrial
 Control de pH en un Proceso Químico
 Control de Presión en un Sistema de Aire Acondicionado
 Control de Autopiloto en un Avión

1.3 Control clásico contra control moderno

Control Clásico:
Enfoque Frecuencial: El control clásico se basa en el análisis de sistemas en el dominio de la frecuencia
utilizando herramientas como el diagrama de Bode y el diagrama de Nyquist.
Uso de Funciones de Transferencia: Las funciones de transferencia son fundamentales en el control
clásico. Estas describen la relación entre la entrada y la salida de un sistema en el dominio de la
frecuencia.
Diseño Basado en Margen de Fase y Margen de Ganancia: En el control clásico, el diseño de
controladores se realiza principalmente ajustando los parámetros para lograr un margen de fase y un
margen de ganancia adecuados.
Limitado a Sistemas Lineales e Invariantes en el Tiempo (LTI): El enfoque clásico es más adecuado
para sistemas lineales e invariantes en el tiempo, lo que limita su aplicabilidad en sistemas no lineales y
sistemas que cambian con el tiempo.

Control Moderno:
Enfoque en el Espacio de Estado: El control moderno se basa en el análisis y diseño de sistemas en el
dominio del espacio de estado, lo que permite una representación más completa y flexible de los sistemas
dinámicos.
Uso de Modelos de Espacio de Estado: En lugar de funciones de transferencia, los modelos de espacio
de estado se utilizan para describir la dinámica de los sistemas en términos de ecuaciones diferenciales de
primer orden.

ROGELIO VALDEZ HERNANDEZ 5


Diseño Basado en Técnicas de Optimización y Control Óptimo: El control moderno utiliza técnicas de
optimización y control óptimo para diseñar controladores que optimizan criterios de rendimiento
específicos, como minimizar el error cuadrático medio o maximizar la estabilidad del sistema.
Aplicabilidad a Sistemas No Lineales y Variables en el Tiempo: El enfoque moderno es más robusto y
adaptable a una amplia gama de sistemas, incluidos los sistemas no lineales y variables en el tiempo, lo
que lo hace más adecuado para aplicaciones en las que los sistemas son inherentemente no lineales o
cambian con el tiempo

Referencias

ControlTutorials.com
Coursera.org
"Control Systems Engineering" de Norman S. Nise
"Modern Control Engineering" de Katsuhiko Ogata

ROGELIO VALDEZ HERNANDEZ 6

También podría gustarte