Está en la página 1de 17

5.

Ampliando el horizonte

Alrededor de 2000 hubo indicios de que el control estaba entrando en una nueva era. Las aplicaciones tradicionales
estaban explotando debido a la reducción del costo de la informática, mientras que surgían nuevas aplicaciones. Las
aplicaciones iban desde dispositivos de micro y nanoescala hasta sistemas a gran escala, como redes eléctricas
nacionales inteligentes y sistemas de comunicación global.

La expansión de Internet y las redes celulares fueron fuertes impulsores tecnológicos, al igual que el deseo de
sistemas con mayor autonomía. Una señal de la importancia es que el Premio inaugural de Ingeniería de la Reina
Isabel se otorgó a Louis Poutin, Robert Cerf, Tim Berners Lee y Marc Andreessen en 2013 por '' el trabajo innovador,
que comenzó en 1970, que condujo a internet y Red mundial. Internet y la web mundial iniciaron una revolución de
las comunicaciones que ha cambiado el mundo '(Queen Elizabeth Prize Foundation, 2013).

Es una suposición educada que también tendrá un impacto muy fuerte en el control automático.

También había una necesidad apremiante de desarrollar metodologías para producir en masa sistemas de control
complejos de manera eficiente. En la Edad de Oro, el control se había beneficiado fuertemente de las interacciones
con las matemáticas. En esta siguiente fase, comenzó a desarrollarse una interacción más fuerte con los ingenieros
de comunicación y los informáticos. Las interacciones con la física, la biología y la economía también están
aumentando. En esta sección proporcionamos una visión general de algunas de las tendencias. Nuestro tratamiento
de lo que nos espera es necesariamente especulativo.

5.1. Avances en informática y redes.

El hardware de la computadora, siguiendo la ley de Moore, es incomparablemente más poderoso ahora que en
1960. Cray 1, entregado al Laboratorio Nacional de Los Alamos en 1976, pesaba más de cinco toneladas, pero solo
podía entregar 250 megaflops, mientras que el escritorio Mac Pro actual es un Mil veces más rápido, entregando 90
gigaflops. En los últimos cincuenta años, las computadoras integradas también han proliferado. De hecho, ya en
1998, solo el 2% de todos los procesadores eran estaciones de trabajo, mientras que el 98% eran para sistemas
integrados (Stankovic, 2001).

La ingeniería de software ha hecho grandes avances. La experiencia basada en proyectos grandes y complejos se ha
codificado y reutilizado en patrones de diseño, marcos de software y procesos de desarrollo (Gamma, Helm,
Johnson y Vlissides, 1995; Pressman, 2004).

Uno de los cambios más notables es el nacimiento y el crecimiento de las redes de comunicación. La telefonía, que
se había originado alrededor de 1877, se basaba en una red de conmutación de circuitos. En 1969, la Agencia de
Proyectos de Investigación Avanzada de EE. UU. (ARPA) desarrolló una red de paquetes conmutados que conectaba
cuatro computadoras universitarias (Beranek y Newman, 0000). En 1974 se desarrolló una arquitectura flexible
(Cerf & Icahn, 2005) que permitió interconectar diferentes redes previamente incompatibles. Presentaba
direccionamiento jerárquico, enrutadores de puerta de enlace entre redes y TCP, un protocolo para garantizar la
entrega confiable de paquetes de manera ordenada a través de las redes. Más tarde, esto se dividió en dos
protocolos, juntos designados TCP / IP (Cerf, 1980), con la parte TCP ejecutándose solo en los hosts finales, mientras
que la parte IP se ocupó del paso de paquetes entre redes o dentro de una red. Esto hizo posible ampliar la red.

Aproximadamente al mismo tiempo, también surgían redes de radio por paquetes. De hecho, uno de los objetivos
de TCP era interconectar redes de radio por paquetes como PRNET y SATNET con ARPANET.

En 1971, se desarrolló la red de radio por paquetes ALOHAnet en la Universidad de Hawai. Se utilizó para conectar a
los usuarios de las islas hawaianas con una computadora en Oahu (Abramson, 1970). La innovación clave fue el
protocolo de acceso aleatorio para resolver la disputa entre varios usuarios para el medio inalámbrico compartido.
Esta fue luego la característica central de Ethernet (Metcalfe y Boggs, 1976), que se desarrolló alrededor de 1973.
Mucho más tarde, el protocolo de acceso aleatorio también se adoptó para su uso en redes inalámbricas de área
local (WLAN) en el estándar IEEE 802.11 que ha proliferado En oficinas y hogares de todo el mundo (Crow, Widjaja,
Kim y Sakai, 1997).

En un desarrollo paralelo, los sistemas de telefonía celular también han proliferado. El primer diseño para un
sistema de telefonía celular de EE. UU., El Sistema avanzado de telefonía móvil (AMPS), se desarrolló en 1971. El
primer teléfono móvil portátil se desarrolló en 1973. En Japón, la compañía Nippon Telegraph and Telephone (NTT)
desarrolló el comercial integrado Sistema de telefonía celular en 1979. Para 1960, varios países nórdicos tenían sus
propios sistemas móviles. En 1981, la red de telefonía móvil nórdica (NMT) hizo posible el uso
Teléfonos móviles en todos los países. NMT más tarde en 1992 creó el Sistema Global para Comunicaciones Móviles
(GSM) que permitía a los usuarios realizar y recibir llamadas a nivel mundial. Los investigadores de ATT, NMT, NTT y
Motorola recibieron el Premio Draper 2013 (NAE, 2013) por estos desarrollos. La tecnología celular y la World Wide
Web de documentos de hipertexto entrelazados desarrollados en 1990 han creado una revolución en términos de
conectividad y acceso a la información en todo el mundo.

Hoy en día hay más de 5 mil millones de dispositivos móviles conectados de forma inalámbrica y se espera que el
número aumente en uno o dos órdenes de magnitud para 2020 (Cisco, 2013; Ericsson, 2013).

La latencia de extremo a extremo es de particular interés para el control. En el sistema LTE / 4G actual es de
alrededor de 100 ms, pero se espera que se reduzca a unos pocos milisegundos en el sistema 5G planificado para
2020.

Estas pequeñas latencias ampliarán significativamente las oportunidades para aplicaciones de control a través de la
red.

En 1998, el proyecto Smart Dust de la Universidad de California en Berkeley (Kahn, Katz y Pister, 1999) desarrolló
pequeños dispositivos llamados 'Motes', que podían computar y comunicarse de forma inalámbrica, y a los cuales
se podían conectar los sensores. El Rene Mote desarrollado por CrossBow Technologies en 1999 tenía una CPU
ATMEL, 512 Bytes de RAM, 8K de memoria Flash y un paquete de radio que podía comunicarse a unos 10 Kbps (Hill,
Horton, Kling y Krishnamurthy, 2004).

Un desarrollo clave fue el sistema operativo de código abierto TinyOS (Culler, 2006; Levis et al., 2004) que ha
facilitado mucha experimentación por parte de investigadores académicos. Desde su desarrollo original, ha habido
varias generaciones de Motes. Se pueden usar para formar 'redes de sensores' relativamente grandes con nodos
ampliamente distribuidos que se comunican de forma inalámbrica y realizan cálculos sobre los datos que reciben.

Si se conectan actuadores a redes de sensores, se obtiene lo que en algunas comunidades informáticas se


denominan redes de 'sensores-actuadores', una noción familiar para los ingenieros de control.

De particular interés para el control es WirelessHART, que está diseñado como un estándar de comunicación para el
control de procesos (HART Communication Foundation, 1993; Song et al., 2008). También de

El interés por el control es ISA100.11a desarrollado por la Sociedad Internacional de Automatización (ISA, 1945).

5.2. Control de y sobre redes

La información entre múltiples sensores y actuadores se puede transportar a través de una red basada en paquetes.
Por lo tanto, los avances en la creación de redes permiten implementar sistemas de control a gran escala, dando
lugar al 'control sobre las redes', o lo que se denomina 'control en red' (Baillieul y Antsaklis, 2007). Dado que los
bucles están cerrados a través de la red de comunicación, juega un papel importante en la estabilidad y el
rendimiento general. Las redes también requieren control para proporcionar un buen rendimiento, un área llamada
'control de redes'.

El control de congestión es un ejemplo temprano del uso de retroalimentación en una red. La tasa de inyección de
paquetes en una red está regulada para evitar la congestión mientras se mantiene un alto rendimiento (Jacobson,
1988). De hecho, TCP, más tarde el protocolo TCP / IP, que hace esto, está en el corazón de Internet, y es una de las
razones por las cuales Internet ha proliferado tan rápidamente. En términos más generales, se necesitan principios
de control y bucles en varios niveles para el funcionamiento de las redes. El primer protocolo de ALOHA (Abramson,
1970), un componente de WiFi, es un esquema de control de retroalimentación que intenta estrangular los nodos
cuando causan demasiadas 'colisiones' de paquetes, de manera similar al Gobernador de James Watts.

La teoría de Lyapunov ha sido muy influyente en el diseño de conmutadores de alta velocidad y redes inalámbricas.
En un artículo influyente, Tassiulas y Ephremides (Tassiulas & Ephremides, 1992) analizaron un algoritmo de
programación de 'peso máximo', donde los pesos son funciones de longitudes de cola, y establecieron su estabilidad
utilizando una función cuadrática de Lyapunov. Posteriormente, se ha demostrado que los algoritmos de peso
máximo alcanzan el 100%

Rendimiento en conmutadores en cola de entrada, que ha tenido una gran influencia en el diseño de conmutadores
y enrutadores (McKeown, Mekkittikul, Anantharam y Walrand, 1999). Más recientemente, se ha demostrado que
los algoritmos de '' contrapresión '' basados en la longitud de la cola tienen un rendimiento óptimo para redes
inalámbricas (Eryilmaz & Srikant, 2006; Lin & Shroff, 2004; Lin, Shroff y Srikant, 2006; Neely, Modiano, & Li, 2005).
Es importante que los sistemas de control diseñen redes de comunicación que brinden la 'calidad de servicio' que
necesitan los bucles de control. Las redes tendrán que entregar no solo paquetes desde sensores a actuadores con
un rendimiento específico, sino que también deberán entregarlos dentro de un retraso específico. La Internet actual
es lo que se llama 'mejor esfuerzo'; No proporciona tales garantías, pero son importantes para cerrar los bucles a
través de las redes.

Los sistemas CANBus (CiA, 0000) y Field Bus (Chatha, 1994) han sido diseñados para aplicaciones de control. Un
desafío importante es diseñar redes inalámbricas que brinden tal calidad de servicio. Por ejemplo, es interesante
reemplazar las redes intra-vehiculares cableadas actuales que conectan unos 75 sensores y 100 interruptores con
un punto de acceso inalámbrico que les sirve, ya que eso puede ahorrar peso, reducir la complejidad de fabricación,
permitir actualizaciones más fáciles, etc.

El problema de caracterizar qué tipos de puntos de acceso de calidad de servicio pueden admitir, y cómo hacerlo, es
de gran interés (Hou, Borkar y Kumar, 2009).

En cuanto al control sobre las redes, cuestiones como el diseño del sistema, las pruebas de estabilidad o el
establecimiento del rendimiento, deben tener en cuenta las características de la red imperfecta a través de la cual
se puede transportar información desde sensores a actuadores o actuadores a sensores. Este problema puede
abordarse con diferentes granularidades para tener en cuenta diferentes aspectos de las restricciones que plantea
la red o el canal de comunicación involucrado (Low, Paganini y Doyle, 2004).

Probablemente uno de los primeros problemas a enfrentar con respecto al diseño del sistema de control es cuándo
tomar muestras del sistema para reducir los datos que deben transportarse a través de la red.

Por supuesto, se podría tomar muestras periódicamente o en momentos determinados; Esto recuerda la manera en
que se define la integral de Riemann. Sin embargo, puede hacer que el sistema se muestree innecesariamente
incluso si nada ha cambiado. Una alternativa es probarlo en base a eventos; Que recuerda la manera en que se
define la integral de Lebesgue (Åström & Bernhardsson, 2002).

Desde el punto de vista del transporte de paquetes a través de la red, tres características importantes son la
velocidad a la que la red puede manejar los paquetes entrantes, el retraso que pueden experimentar los paquetes
antes de ser entregados en el destino previsto debido a la carga de tráfico en la red, y Probabilidad o probabilidad
con la que la red puede descartar paquetes. Los tres aspectos son de interés en relación con su impacto en el
sistema de control.

Para un sistema LQG, la estabilidad del filtro Kalman asociado depende de la probabilidad de que los paquetes que
contienen observaciones se pierdan (Snyder y Fishman, 1975). Para el problema de control, es interesante
determinar la velocidad de datos que debe proporcionar el canal para estabilizar un sistema lineal dado (Nair y
Evans, 2004); Esto también está relacionado con el problema de cómo cuantificar las mediciones con fines de
control (Brockett y Liberzon, 2000; Wong y Brockett, 1999). En un nivel más fundamental, cuando se desea
estabilizar los sistemas inestables sobre los bucles de control que contienen canales ruidosos, surgen nociones
específicas de control de la capacidad teórica de la información, como 'capacidad en cualquier momento' (Sahai y
Mitter, 2006).

5.3. Computación y control

Ha habido un creciente interés en el control por parte de la comunidad de ciencias de la computación, y viceversa.
Una razón es el creciente empleo de la retroalimentación en los sistemas informáticos. Otra es la proliferación de
sistemas informáticos integrados. La gran cantidad de sistemas de control por computadora en los automóviles ha
impulsado la necesidad de automatizar el diseño, la producción y las pruebas de los sistemas de control. Además,
con la mayor complejidad de los sistemas con computadoras en el ciclo de retroalimentación, existe la necesidad de
metodologías y herramientas para un diseño de sistema confiable. En muchas aplicaciones complejas, es
importante diseñar sistemas con seguridad garantizada.

Similar al 'control de redes', el control también se aplica cada vez más a los sistemas informáticos (Hellerstein, Diao,
Parekh y Tilbury, 2004). Los principales impulsores son la mayor flexibilidad y la mejor calidad de servicio, y el deseo
de ahorrar energía y costos. Se han considerado técnicas basadas en comentarios para la gestión dinámica y la
programación de recursos como la CPU

Tiempo, memoria, ancho de banda de E / S y potencia, en sistemas que van desde computadoras integradas
utilizadas en, por ejemplo, teléfonos inteligentes, hasta centros de datos que alojan aplicaciones de nube basadas
en servidor. Se han desarrollado aplicaciones exitosas en sistemas de almacenamiento web, sistemas de servidor de
alto rendimiento, bases de datos en tiempo real, ajuste de rendimiento de software,y transmisión multimedia, por
nombrar algunos.

En la dirección inversa, la interacción de algunas subcomunidades en informática con el control ha sido de larga
data. Un buen ejemplo es la comunidad en tiempo real. En 1961, se instaló el IBM 1720 Process Control Computer
System

En tres plantas (Harrison et al., 1981). La base teórica de los sistemas en tiempo real comenzó con el trabajo de Liu y
Layland (1973). Este trabajo pionero consideró el problema de cómo programar una CPU para servir varias tareas,
donde los trabajos en cada tarea son periódicos y requieren un cierto tiempo de ejecución. La política de Rate
Monotonic desarrollada por ellos prioriza los trabajos de acuerdo con la frecuencia con la que llegan los trabajos de
esa tarea. Es una política de prioridad estática particularmente simple que ha tenido una implementación
generalizada. Para una gran cantidad de tareas, la programación monotónica de velocidad garantiza que todas las
tareas se ejecutarán correctamente siempre que la utilización de la CPU sea inferior a log 2 = 0,68. Este
conservadurismo se puede reducir aplicando algoritmos de programación basados en la retroalimentación (Årzén,
Cervin, Eker y Sha, 2000; Sha et al., 2004). Un ejemplo destacado de la importancia de las consideraciones de
computación en tiempo real en los sistemas de control es el problema de inversión de prioridad en el sistema de
computación en tiempo real que ocurrió en 1997 en el Mars Rover (Jones, 1997; Reeves, 1997). Los investigadores
en sistemas en tiempo real también han comenzado a abordar el problema de la robustez de los bucles de control,
donde la robustez incluye errores en la implementación. La arquitectura llamada 'Simplex' de Seto, Krogh, Sha y
Chutinan (1998); Sha (2001) aborda el problema de la solidez de los errores de software en la implementación de
nuevos algoritmos de control.

Un aspecto importante anticipado de los futuros sistemas de control es la interacción entre el mundo físico a
menudo modelado por ecuaciones diferenciales y la dinámica lógica del mundo computacional. Típicamente, a uno
le gustaría establecer las propiedades de los sistemas compuestos que comprenden ambos. El campo emergente de
los sistemas híbridos es un intento de abordar estos desafíos (Benveniste, Bourke,

Caillaud y Pouzet, 2012; Henzinger y Sastry, 1998; Lee y Zheng, 2007; Maler, 2010). Es un interesante lugar de
encuentro de control y ciencias de la computación (Benveniste y Åström, 1993). Los modelos de autómatas híbridos
se han utilizado para este propósito (Henzinger, 1996). Es de interés determinar el conjunto de alcance (Alur y Dill,
1994). Por ejemplo, uno quisiera determinar si el sistema es 'seguro', es decir, nunca alcanza un estado inseguro.
Las herramientas de software para calcular tales cantidades son útiles, por ejemplo, (Larsen, Pettersson y Yi, 1997).

Sin embargo, determinar eso es indecidible para los modelos generales, y es interesante caracterizar lo que es
decidible (Alur et al., 1995; Henzinger, Kopke, Puri y Varaiya, 1995). En términos más generales, a uno le gustaría
establecer propiedades como la seguridad y la vida de un sistema completo, como un sistema de transporte
distribuido automatizado (Graham, Baliga y Kumar, 2009; Kim, 2013).

En términos más generales, el 'tiempo' es un asunto esencial para los sistemas de control, en contraste con, por
ejemplo, la informática de propósito general (Ptolemaeus, 2014).

Es decir, para los sistemas críticos de seguridad, la puntualidad de las interacciones es importante para mantener la
seguridad, la estabilidad, etc. La arquitectura activada por el tiempo es un enfoque para el desarrollo distribuido
integrado

Sistemas que buscan lograr confiabilidad mediante coordinación temporal (Kopetz y Bauer, 2003). Al cerrar bucles a
través de una red inalámbrica, existen ciertas limitaciones para sincronizar relojes; Ciertas combinaciones de
retrasos y compensaciones de reloj no se pueden resolver (Freris, Graham y Kumar, 2011).

Los sistemas de control son a menudo críticos para la seguridad. Por lo tanto, su seguridad es una preocupación
importante. Pueden ser susceptibles a ataques que ocurran en la red a la que están conectados. El reciente gusano
Stuxnet atacó específicamente los sistemas de control (Cherry,2010; Falliere, O'Murchu y Chien, 2011; McMillan,
2010). Ha habido otros ataques menos reportados de un sistema de tubería de gas natural (Schechter, Jung y
Berger, 2004), un sistema de agua (Esposito, 2006), un sistema de Control de Supervisión y Adquisición de Datos
(Slay & Miller, 2007), tranvías ( Leyden, 2008) y servicios públicos de energía (Greenberg, 2008). La defensa de las
redes de datos ordinarias ya es problemática,

Y la defensa de sistemas de control complejos lo es aún más, ya que los ataques pueden aprovechar las complejas
interacciones entre la red, la computación, los sistemas de control y las capas físicas. Queda mucho por hacer en el
área de seguridad (Neuman, 2009).
Hay algunos esfuerzos de estandarización en curso (International Society for Automation, 1999; Slay y Miller, 2007;
Stouffer, Falco y Scarfone, 2011).

El control automático tiene una base sólida en matemáticas. La interacción va en ambas direcciones; Una amplia
gama de matemáticas ha encontrado su uso en el control, y el control ocasionalmente ha estimulado el desarrollo
de las matemáticas. Algunos ejemplos son la teoría de sistemas, el control óptimo, el control estocástico y el control
no lineal (Fleming, 1988; Murray, 2003). Con la convergencia de la comunicación, el control y la informática, han
surgido nuevas áreas teóricas como los sistemas híbridos y la teoría de la información en tiempo real. Las teorías de
estabilidad o rendimiento o seguridad también necesitarán abarcar diferentes áreas, ya que es el sistema general el
que finalmente determina el rendimiento. En algunos sistemas específicos, se pueden proporcionar pruebas de
rendimiento holísticas hechas a mano del sistema general que incluye dinámicas de eventos discretos,
programación en tiempo real, cinemática, etc. (Graham et al., 2009). Sin embargo, a medida que construimos
sistemas más complejos como los sistemas automáticos de transporte aéreo, es necesario automatizar

Las pruebas de seguridad. Sin embargo, la complejidad es un desafío importante para los procedimientos
computacionales, por lo que los investigadores de control necesitarán desarrollar nuevas teorías que permitan
formas manejables de modelado.

5.4. Autonomía

La investigación sobre sistemas con adaptación y aprendizaje ha estado bien desarrollada durante mucho tiempo,
como se señaló en la Sección 4.12. Sin embargo, se requerirán niveles más altos de autonomía que incluyan
cognición y razonamiento en el futuro. En un estudio de NAE (NAE, 2004) se señala que: Todo, en cierto sentido,
será inteligente; Es decir, cada producto, cada servicio y cada bit de infraestructura estarán en sintonía con las
necesidades de los humanos a los que sirve y adaptarán su comportamiento a esas necesidades.

Ernst Dickmanns realizó interesantes experimentos con coches robot a finales del siglo pasado. Equipaba
automóviles con cámaras y otros sensores (Dickmanns, 2007). En 1994 él

Demostró una conducción autónoma en una carretera cerca de París, y en 1995 uno de sus autos condujo de
manera autónoma (aunque con supervisión humana) de Munich a Copenhague a velocidades de hasta 175 km /
hora. El automóvil pudo adelantar y cambiar de carril. Más recientemente, en 2007, varios autos autónomos
compitieron en una ciudad desierta en el DARPA Grand Challenge. Una de las reglas requería que los autos siguen
las normas de tránsito de California. Más recientemente, Google ha desarrollado un automóvil sin conductor
(Guizzo, 2011). El jefe de Carnegie Mellon es otro vehículo autónomo (Rajkumar, 2012). Incluso si está lleno

La autonomía no se introduce en una escala masiva, elementos de la misma, como evitar colisiones, guía de carril y
asistencia de estacionamiento, ahora están disponibles en automóviles nuevos. Los vehículos aéreos autónomos
están en funcionamiento y recientemente se realizó una misión de carga no tripulada con un helicóptero Black
Hawk (Washington, 2013).

Los robots humanoides son otros ejemplos de sistemas con un alto grado de autonomía. La investigación en Japón
ha sido particularmente dominante en esta área. Se han desarrollado varias generaciones de robots. Toyota anunció
recientemente un robot para tocar el violín. Se han desarrollado robots humanoides que actúan como pacientes
para la formación de dentistas.

5.5. Diseño basado en modelos

La industria automotriz comenzó a tener un impacto en el diseño asistido por computadora de los sistemas de
control cuando se introdujo el control por computadora en los automóviles en la década de 1970, un desarrollo que
se aceleró cuando los sistemas se volvieron más complejos. Más de 80 millones de automóviles fueron producidos
en 2012; Los autos comunes pueden tener diez o más unidades de control electrónico (ECU) mientras que los autos
avanzados pueden tener más de 100 ECU. Con esta escala, es importante contar con procedimientos de ingeniería
eficientes para el diseño y la fabricación de los sistemas. A menudo, el controlador está codiseñado con la planta.
Hay necesidades similares en muchas otras industrias, incluso si los números son más pequeños. El desarrollo
generalmente incluye las siguientes tareas: requisitos, modelado, diseño de control, generación de código,
implementación, simulación de hardware en el bucle, puesta en marcha, operación y reconfiguración. La validación,
la verificación y las pruebas se insertan entre las diferentes tareas, ya que es costoso encontrar errores al final del
proceso de diseño. Como los modelos son elementos clave del procedimiento, se lo conoce como diseño basado en
modelos (MBD). La ventaja de usar modelos es que se deben construir menos prototipos; Particularmente
importante cuando se construyen nuevos sistemas como los automóviles híbridos. Las industrias aeroespacial y
automotriz han sido tempranas
Adoptantes de MBD que actualmente se está desarrollando rápidamente (Guzzella y Sciarretta, 2013; Kiencke y
Nielsen, 2005). El uso de MBD está respaldado por la siguiente cita de un estudio de NAE (NAE, 2004):

Habrá crecimiento en áreas de simulación y modelado en torno a la creación de nuevas estructuras de


ingeniería. Ingeniería de diseño y construcción basada en computadora. . . Se convertirá en la norma para
la mayoría de los diseños de productos, acelerando la creación de estructuras complejas para las cuales se
combinan múltiples subsistemas para formar un producto final.

Un ejemplo del uso de MBD es que los proveedores de componentes para sistemas de control climático para
automóviles en Alemania ahora están proporcionando no solo hardware sino también modelos dinámicos validados
de sus equipos (Limperich, Braun, Schmitz y Prölss, 2005). Esto hace posible que los fabricantes de automóviles
simulen el sistema completo y exploren las consecuencias del uso de componentes de diferentes proveedores en el
consumo de combustible y la comodidad.

En el diseño del sistema, es deseable explorar opciones de diseño e investigar varias configuraciones de proceso. Un
pecado capital del control automático es creer que el sistema a controlar se da a priori. Los problemas de control
que son difíciles pueden aliviarse mediante la modificación del proceso o la arquitectura del sistema. El diseño
integrado de un proceso y su controlador es altamente deseable. Como se mencionó en la Sección 2.5, los
hermanos Wright tuvieron éxito donde otros fallaron porque deliberadamente diseñaron un avión inestable que era
maniobrable, con un piloto utilizado para la estabilización. Todavía hay ventajas sustanciales al tener un avión
inestable que depende de un sistema de control para la estabilización. Los luchadores modernos obtienen su
rendimiento de esta manera.

Existen herramientas para algunas fases del proceso de diseño: PUERTAS para requisitos (IBM, 2013), por ejemplo,
programas CAD para diseño de equipos, Modelica para modelado, MATLAB para diseño de control y SIMULINK para
simulación y generación de código. Los sistemas de documentación y control de versiones también están
disponibles. Incluso si es deseable tener un conjunto de diseño completo, es poco probable que un solo paquete de
software pueda satisfacer todas las necesidades. Por lo tanto, las herramientas de software deben diseñarse de
modo que puedan combinarse. Para dar un ejemplo, Dassault Systèmes está combinando Dymola / Modelica con su
programa CAD CATIA. Esto significa que los datos de geometría 3D, masas e inercias están disponibles directamente
desde el sistema CAD. La representación 3D de alta calidad también está disponible para animar los resultados de la
simulación.

Un desarrollo reciente en la comunidad de simulación industrial es la introducción de la Interfaz de maqueta


funcional (FMI) diseñada para facilitar la interoperabilidad de herramientas a nivel de modelos dinámicos
compilados. FMI especifica un esquema XML para los metadatos del modelo, como nombres y unidades, y una API C
para la evaluación de las ecuaciones del modelo. La primera versión de FMI se introdujo en 2010 y desde entonces
una gran cantidad de herramientas han adoptado el estándar. Las versiones futuras de FMI.

Un desarrollo reciente en la comunidad de simulación industrial es la introducción de la Interfaz de maqueta


funcional (FMI) diseñada para facilitar la interoperabilidad de herramientas a nivel de modelos dinámicos
compilados. FMI especifica un esquema XML para los metadatos del modelo, como nombres y unidades, y una API C
para la evaluación de las ecuaciones del modelo. La primera versión de FMI se introdujo en 2010 y desde entonces
una gran cantidad de herramientas han adoptado el estándar. Las versiones futuras de FMI admitirán la
comunicación de modelos completos en formato XML, que es adecuado para su uso con la integración en
herramientas simbólicas que pueden explorar la estructura de los modelos más allá de evaluar las ecuaciones del
modelo (Parrotto, Åkesson y Casella, 2010).

Hay una amplia gama de problemas interesantes que aparecen después de que se diseña e implementa un sistema
de control. Primero, el sistema debe ponerse en servicio y todos los lazos de control deben ponerse en
funcionamiento. Entonces es necesario supervisar y evaluar continuamente que el sistema se está ejecutando
correctamente. Muchos de los problemas que ocurren durante esta fase solo recientemente han comenzado a
abordarse de manera sistemática. Los problemas típicos son la detección y el diagnóstico de fallas, pero también
hay muchos otros problemas interesantes, como la evaluación de bucle y la evaluación del rendimiento.

Los desarrollos en esta área están fuertemente motivados por el impulso por la seguridad y la mayor calidad. La
puesta en marcha puede verse influenciada sustancialmente por un diseño de control adecuado. Los sintonizadores
automáticos, por ejemplo, pueden simplificar drásticamente el procedimiento de puesta en servicio.

Cuando el sistema de control automático se convierte en una parte crítica del proceso, también puede convertirse
en una misión crítica, lo que significa que el sistema fallará si falla el sistema de control. Esto induce fuertes
demandas en la confiabilidad del sistema de control. Una discusión interesante de las consecuencias de esto se
encuentra en la conferencia inaugural IEEE Bode de Stein (2003).

5.6. Sistemas ciberfísicos

El mayor uso de la comunicación y la mayor sofisticación y complejidad del software, tanto en el diseño de los
sistemas de control como en la operación, han llevado a una interacción más estrecha entre el control, la
informática y la comunicación. También está fomentando el desarrollo de sistemas de control a gran escala. Como
fue el caso de las eras anteriores, esta tercera revolución potencial de la plataforma, después del control analógico
y digital, también está creando la necesidad de un marco para un diseño riguroso.

Esta interacción también ha sido estimulada por varias agencias de financiación de la investigación. DARPA lanzó un
programa de investigación llamado Software Embedded Control en 1999 (Samad & Balas, 2003), al que siguió un
proyecto de NSF sobre sistemas embebidos e híbridos.

La Unión Europea lanzó en 2001 el programa ARTIST sobre sistemas avanzados en tiempo real (ARTIST FP5, 2006).
Más tarde fue seguido por Artist 2 y Artist Design. En 2006, un grupo de

Los investigadores y gerentes de programas en los Estados Unidos acuñaron un nombre, 'Sistemas Ciber-Físicos
(CPS)', para describir el acoplamiento cada vez más estrecho de control, informática, comunicación y redes.

En los Estados Unidos, la National Science Foundation estableció un importante programa de financiación de la
investigación en Sistemas Ciber-Físicos (Baheti & Gill, 2011). En su plan estratégico hacia 2020 (INRIA, 2013), INRIA

Enfatiza 'el desafío de los grandes sistemas digitales, integrados y enterrados, y de los sistemas de sistemas'. El
Centro Robert Bosch para Sistemas Ciberfísicos se estableció en el Instituto Indio de Ciencia en 2011. En Suecia, la
Fundación de Investigación Estratégica apoyó las Becas Linnaeus de 10 años para tres centros que apoyan la
investigación de control (ACCESS, 2008; LCCC, 2008; MOVIII, 2008)

En 2008, se lanzó un evento anual de una semana llamado '' Semana CPS '', que ha crecido hasta incluir cinco
conferencias colocadas, la Conferencia Internacional ACM / IEEE sobre Sistemas Ciberfísicos (ICCPS), la Conferencia
sobre Sistemas en Red de Alta Confianza ( HiCoNS), Sistemas Híbridos: Computación y Control (HSCC), la
Conferencia Internacional ACM sobre Procesamiento de Información en Redes de Sensores (IPSN) y el Simposio de
Aplicaciones y Tecnología Embebida (RTAS) en tiempo real y IEEE. En 2013, las Actas del IEEE celebraron el
centenario de IRE (el IEEE se formó a partir de la unión de IRE y AIEE en 1963), y publicó un número del centenario
en el que Cyber-Physical Systems fue uno de los diecinueve temas elegidos para su inclusión. (Kim y Kumar, 2012).

También hay un gran interés en '' Internet de las cosas '', que se centra en conectar grandes cantidades de objetos
físicos generales, desde el ganado hasta los automóviles y las cafeteras, que se espera que alcancen los 50 mil
millones para 2020. IEEE está comenzando dos nuevas publicaciones, Transacciones IEEE Sobre el control de los
sistemas de red para comenzar en 2013, y el IEEE Internet of Things Journal para comenzar en 2014.

5.7. Complejidad de los sistemas.

Existe una tendencia general de que los sistemas de ingeniería se están volviendo más complejos. La complejidad es
creada por muchos mecanismos: el tamaño, la interacción y la complejidad de los subsistemas son tres factores que
contribuyen.

Los sistemas de control de procesos químicos pueden tener miles de bucles de retroalimentación. Los esquemas de
recirculación ahorran energía y materia prima y reducen la contaminación, pero introducen el acoplamiento de las
corrientes de salida a las corrientes de entrada, lo que genera interacciones y complejidad. Los sistemas eficientes
para distribuir bienes a nivel mundial utilizando cadenas de suministro asistidas por computadora utilizan redes
complicadas para el transporte de bienes e información. Los telescopios astronómicos con óptica adaptativa pueden
tener una gran cantidad de superficies reflectantes cuyas orientaciones se controlan individualmente mediante
retroalimentación

Sistemas. Incluso en un sistema pequeño, debido a la 'maldición de la dimensionalidad', el tamaño resultante puede
ser extremadamente grande después de la discretización.

Uno de los grandes logros de las últimas cinco décadas ha sido el desarrollo de una base rigurosa para el estudio de
la complejidad de la informática a medida que aumenta el tamaño (Cook, 1971; Karp, 1972), aunque algunas
preguntas básicas aún permanecen abiertas. Un desafío fundamental que prevalece en muchos dominios aplicados,
incluido el diseño y análisis de sistemas de control, es desarrollar modelos que puedan dar lugar a algoritmos
manejables cuya escala de complejidad

Polinomialmente, preferiblemente de bajo grado, en el tamaño del sistema.

Internet y la red eléctrica se encuentran quizás entre los sistemas más complejos que se han diseñado. Ambos
dependen críticamente de la retroalimentación en varios niveles para su operación. Como se señaló en la Sección
5.2, en el caso de la primera, esto es lo que se entiende por control de redes. Los algoritmos adecuados para
sistemas pequeños pueden no ser adecuados para sistemas grandes. También es de interés determinar las leyes de
escala que proporcionan información sobre cómo cambia el rendimiento del sistema a medida que aumenta el
tamaño.

Otra pregunta que atrae un gran interés es cómo aprovechar la creciente disponibilidad de grandes cantidades de
datos, llamada 'big data'. Esto puede ser especialmente útil para comprender el comportamiento de los grandes
sistemas socio-económicos-tecnológicos, cuya 'física' no se entiende bien. Un ejemplo es el control de la respuesta
de la demanda en la red inteligente emergente suministrada por energía renovable y controlada por señales de
precios.

Otro factor que introduce complejidad es que los sistemas son híbridos: los sistemas continuos se mezclan con la
lógica y la secuencia. El control de crucero en automóviles es un ejemplo simple. Otros ejemplos se encuentran en
el control de procesos, donde muchos controladores continuos se combinan con sistemas de lógica y secuenciación.
Tales sistemas son muy difíciles de analizar y diseñar. El automóvil moderno es un ejemplo de un sistema complejo;
Cuenta con varias redes y hasta 100 unidades de control electrónico. La especificación, diseño, fabricación,
operación y actualización de dichos sistemas es una tarea cada vez más compleja.

5.8 Física

Las interacciones entre físicos e ingenieros están aumentando (Bechhoefer, 2005). Los sistemas de control de
retroalimentación han jugado un papel crítico en los instrumentos de física, más aún con la creciente complejidad
de los experimentos. Por ejemplo, los gobernadores fueron utilizados para rastrear el movimiento de los planetas
en los primeros telescopios (Maxwell, 1868), la retroalimentación fue un elemento esencial de los primeros
espectrómetros (Nier, 1935), y el Premio Nobel de Física de 1912 fue otorgado a Gustaf Dahlen por '' Invención de
reguladores automáticos para su uso junto con acumuladores de gas para iluminar faros y niños '' (Nobelstiftelsen,
2013). El ingeniero holandés van der Meer compartió el Premio Nobel de Física de 1984 por un sistema inteligente
de retroalimentación para generar un haz de alta densidad en un acelerador de partículas (Nobelstiftelsen, 2013).

La retroalimentación también ha demostrado ser crucial para los experimentos de física. Los telescopios grandes
utilizan ópticas adaptativas para reducir las perturbaciones causadas por las variaciones de densidad en la
atmósfera. Los sistemas de control también se utilizan ampliamente en las micro y nanoescalas (Eleftheriou y
Moheimani, 2012; Gorman y Shapiro, 2012). Binning y Rohrer compartieron el Premio Nobel de Física de 1986 por
la invención del microscopio de túnel de exploración. Una variación, el microscopio de fuerza atómica, es ahora una
herramienta estándar para biólogos y científicos de materiales, capaz de proporcionar imágenes con una resolución
a nanoescala inferior. Los sistemas de control en los instrumentos son críticos; El control mejorado brinda
beneficios inmediatos en términos de imágenes más nítidas y rápidas. Los grandes desafíos que enfrenta la
ingeniería de control moderna se superaron al hacer operativo el Gran Colisionador de Hadrones (LHC). Muchos
componentes interactivos del sistema funcionan en escalas de tiempo que difieren en varios órdenes de magnitud,
desde nanosegundos para la dirección del haz de partículas hasta meses para enfriar grandes electroimanes.

El control también ha tenido un impacto en un nivel más fundamental. Hace mucho tiempo se intentó explicar la
turbulencia del flujo de corte al linealizar la ecuación de Navier Stokes. La hipótesis era que las ecuaciones
linealizadas se volverían inestables cuando aumentara el número de Reynolds, lo que sorprendentemente no
sucedió. Bamieh y Dahleh (2001) hicieron otro intento basado en el análisis lineal. Calcularon la ganancia del
operador mapeando las irregularidades de la superficie a la velocidad en base a un modelo linealizado, y
encontraron que la ganancia aumentó con el número de Reynolds de una manera compatible con los datos
experimentales.

El control también se ha aplicado a los sistemas cuánticos (Fradkov, 2007; Huang et al., 1983; Khaneja et al., 2001),
las imágenes de RMN (Khaneja, Reiss, Schulte-Herbrüggen y Glaser, 2005) son una aplicación. Otra aplicación
espectacular se da en Brown y Rabitz (2002) donde se propone romper las moléculas en iones mediante la
aplicación de pulsos láser muy rápidos. El problema puede formularse como un problema de control óptimo para la
ecuación de Schrödinger para la molécula, donde el criterio es romper la molécula con una energía mínima.
5.9. Biología y medicina

En 1932, el fisiólogo Walter Cannon escribió el libro La sabiduría del cuerpo (Cannon, 1939), en cuya introducción
dice:

Nuestros cuerpos están hechos de material extraordinariamente inestable. Pulsos de energía, tan pequeños que se
requieren métodos muy delicados para medirlos, recorren nuestros nervios. . . . La inestabilidad de la estructura
corporal se muestra también por su rápido cambio.

Cuando las condiciones se alteran. . . . La capacidad del mecanismo vivo para mantener su propia constancia ha
impresionado a los biólogos.

Luego continuó diciendo:

Los organismos compuestos de material que se caracteriza por la máxima inconstancia e inestabilidad, de alguna
manera han aprendido los métodos para mantener la constancia y mantenerse estables en presencia de
condiciones que razonablemente podrían ser profundamente perturbadoras.

El libro de Cannon se basa en ideas obtenidas mediante observaciones y experimentos cuidadosos. En nuestra
terminología podemos resumir las declaraciones anteriores como: el cuerpo humano tiene sistemas de control
sorprendentes. Sin embargo, es un largo camino desde esta declaración cualitativa hasta resultados cuantitativos
basados en modelos y análisis, ilustrados por la siguiente cita del libro The Way Life Works (Hoagland y Dodson,
1995):

La retroalimentación es una característica central de la vida. Todos los organismos tienen la capacidad de
sentir cómo están y de hacer las modificaciones necesarias. El proceso de retroalimentación gobierna
cómo crecemos, respondemos al estrés y los desafíos, y regulamos factores como la temperatura
corporal, la presión arterial y el nivel de colesterol. Los mecanismos operan en todos los niveles, desde la
interacción de proteínas en las células hasta la interacción de organismos en ecologías complejas.

La retroalimentación se ha utilizado ampliamente cuando se investigan sistemas biológicos. Hodgkin y Huxley


recibieron el Premio Nobel de Medicina de 1963 por 'sus descubrimientos sobre los mecanismos iónicos involucrados
en la excitación e inhibición en las porciones periféricas y centrales de la membrana de las células nerviosas' . También
utilizaron un inteligente sistema de retroalimentación para investigar la propagación de potenciales de acción en el
axón. La técnica de medición fue refinada aún más por Neher y Sakmann, quienes recibieron el Premio Nobel de
Medicina de 1991 'por sus descubrimientos sobre la función de los canales de iones individuales en las células'.

Hoy en día, hay muchos esfuerzos para desarrollar herramientas eficientes para pacientes y médicos y
para aumentar los sistemas naturales de retroalimentación del cuerpo cuando fallan (Doyle III et al.,
2011). La cirugía robótica ahora está bien establecida. Los corazones mecánicos ya están en uso.

Se realizan experimentos con el control en línea del azúcar en la sangre (Sansum Diabetes Research
Institute, 2013; Parker, Doyle III y Peppas, 1999), al igual que el control automático de la anestesia, por
mencionar algunos ejemplos.

Se están explorando subsistemas de control en animales. Se están investigando los comportamientos de


los insectos y las aves mediante experimentos en túneles de viento y en vuelo libre. También se ha
intentado hacer dispositivos artificiales que imiten a los animales. Algunas de las funciones más básicas,
como estar de pie, caminar y correr, ahora pueden ser realizadas por robots (Westervelt et al., 2007).
Algunas de estas funciones son tareas de control simples que implican estabilización y regulación, pero
hay muchas tareas más complicadas que requieren cognición.

El profesor Hiroshi Ishiguro de la Universidad de Osaka ha realizado esfuerzos interesantes en esta


dirección y ha diseñado varios robots humanoides (Asada, MacDorman, Ishiguro y Kuniyoshi, 2001).
También se realizan experimentos con biología sintética a nivel molecular (Andrianantoandro, Basu, Karig
y Weiss, 2006).

Ha aumentado el interés en el control y la biología de sistemas (Cury y Baldissera, 2013; Gaohua y Kimura,
2009; Iglesias e Ingalls, 2009; Khammash y El-Samad, 2004). En lugar de adoptar un enfoque reduccionista
que consiste en estudiar una entidad aislada, la biología de sistemas que se originó alrededor de 1988
tiene como objetivo comprender cómo interactúan los componentes como sistemas dinámicos, ya sea a
nivel celular u orgánico. Por lo tanto, tiene como objetivo desentrañar la complejidad de las redes
biológicas y de enfermedades. Una cita del Instituto de Biología de Sistemas (2012) lo resume así:
Incluso la célula viva más simple es una máquina molecular increíblemente compleja. Contiene
largas cadenas de ADN y ARN que codifican la información esencial para el funcionamiento y la
reproducción de las células. Las moléculas de proteínas grandes e intrincadamente plegadas
catalizan las reacciones bioquímicas de la vida, incluida la organización celular y la fisiología. Las
moléculas más pequeñas transportan información, energía y materias primas dentro y entre las
células, y se transforman químicamente durante el metabolismo. Vista en su conjunto, una celda
es como una inmensa ciudad llena de personas y objetos y llena de actividad.

La interacción entre los ingenieros de control y los biólogos está aumentando y se están estableciendo nuevos
departamentos académicos y programas educativos en las principales universidades.

5.10. Ciencias económicas

Hay intereses comunes entre economistas e ingenieros de control en teoría de juegos, modelos de entrada-salida,
control estocástico, optimización e identificación de sistemas (econometría). Los economistas Simon, Nash y Arrow
ya han sido mencionados en este artículo.

Los primeros trabajos en economía fueron realizados por Adam Smith y Maynard Keynes. El trabajo de Keynes fue
en gran parte conceptual, pero también introdujo modelos simples que fueron importantes para salir de la Gran
Depresión en la década de 1930, como la noción de multiplicadores que indican el impacto de la inversión del
gobierno en el PIB. Una forma de evaluar la investigación en economía es mirar los trabajos que han recibido el
Premio Sveriges Riksbank en Ciencias Económicas en Memoria de Alfred Nobel (el Premio de Economía) desde el
primero en 1969. Varios tienen fuertes conexiones para controlar:

Los Premios de 1978 y 1986 sobre la toma de decisiones, los Premios de 1994 y 2005 para teoría de juegos, el
Premio de 1997 sobre evaluación de derivados, el Premio de 2004 para impulsar las fuerzas detrás de los ciclos
económicos y los Premios de 1969, 1980, 1989 y 2003 para Modelado y análisis de series de tiempo.

La economía nos influye a todos y requiere nuestra atención, y los economistas han sido muy conscientes del papel
del control durante mucho tiempo (Kendrick, 1981). Sin embargo, el sistema económico es un sistema grande,
complejo, global, distribuido y dinámico con muchos actores, gobiernos, bancos, bancos de inversión, empresas y
particulares. Los gobiernos controlan por leyes e impuestos, los bancos centrales establecen tasas de interés y
controlan la oferta de dinero, las empresas y los individuos compran, venden e invierten. Los diferentes actores
tienen objetivos muy diferentes. La economía del comportamiento muestra que las decisiones individuales pueden
basarse en aspectos emocionales y sociales. El sistema oscila en los ciclos económicos y hay crisis ocasionales que
apuntan claramente a problemas de control.

Krugman, quien recibió el Premio de Economía de 2008, dice lo siguiente en su libro (Krugman, 2008): Tenemos
magnetotrouble, dijo John Maynard Keynes al comienzo de la Gran Depresión. La mayor parte del motor económico
estaba en buena forma, pero un componente crucial, el sistema financiero, no funcionaba. También dijo esto: 'Nos
hemos involucrado en un desorden colosal, habiendo cometido un error en el control de una máquina delicada,
cuyo funcionamiento no entendemos'. Ambas declaraciones son tan ciertas ahora como lo fueron entonces.

Al comparar esto con la cita de Wilbur Wright sobre las dificultades de equilibrar y dirigir los aviones en la Sección
2.5, está claro que los principales economistas se dan cuenta de que existen graves problemas de control en la
economía.

6. La interacción de la teoría y las aplicaciones.

El control de retroalimentación es un componente clave de una gama increíblemente amplia de aplicaciones, de


hecho, toca casi todo en el mundo moderno. La teoría del control es un campo igualmente profundo, que se basa
en una amplia gama de matemáticas y, a veces, incluso contribuye a ello. Uno puede preguntarse cómo surgió una
gama tan amplia de aplicaciones y teoría profunda. La respuesta es rica en textura, como se expone en este
documento.

Los sistemas de control necesitan tecnologías habilitadoras para ser implementables. La disponibilidad de tales
tecnologías y los avances tecnológicos, a veces avances revolucionarios, han jugado un papel clave en la
configuración de la evolución del control. También se ha desempeñado un papel importante al motivar aplicaciones
de gran desafío que han llevado a una gran inversión social, es decir, gubernamental e industrial, en el desarrollo
tanto de la tecnología de control como de la teoría. El desarrollo del moderno sistema universitario de investigación
con financiación sistemática de la investigación también ha desempeñado un papel clave en el fomento de la
investigación académica. Y, por supuesto, ha habido visionarios e investigadores profundos que han estado en
primera línea.

La evolución del campo no ha sido fluida. Hubo varios ataques y arranques en el proceso que, a la larga, resultaron
en grandes avances tanto en la práctica como en la teoría. La 'brecha entre la teoría y las aplicaciones' ha sido un
proceso dinámico que con frecuencia ha generado controversia en la comunidad. En un editorial matizado en 1964
(Axelby, 1964), Axelby observa que:

Ciertamente, se debe mantener una brecha entre la teoría y la aplicación, ya que sin ella no habría progreso. . . .
Parece que el problema de la brecha es un problema de control en sí mismo; Debe identificarse y optimizarse
adecuadamente mediante una acción adecuada.

Hubo períodos de tiempo en que las aplicaciones se adelantaron a la teoría, y el éxito no resultó hasta que se
lograron avances teóricos clave. En otras ocasiones, la brecha estaba en la dirección inversa. La teoría se desarrolló
de manera abierta sin retroalimentación de la implementación y aplicación del mundo real, investigando las
posibles aplicaciones posibles en el futuro y sugiriendo posibilidades imaginativas, a pesar de que la tecnología para
la implementación aún no estaba lo suficientemente madura o las limitaciones se entendieron completamente. El
campo ha visto tanto la aplicación de la teoría como la aplicación de la teoría de las aplicaciones. Se podría decir
que esta brecha, en cualquier dirección, ha sido una fuente de tensión creativa que finalmente condujo a avances
en beneficio tanto de la teoría como de las aplicaciones.

Comprender la interacción de estas diversas interacciones proporciona una idea de cómo la investigación, el
desarrollo y el conocimiento de ingeniería han evolucionado frente al control, un pilar clave de la era tecnológica
moderna.

Ha habido varios períodos en que las aplicaciones se han desarrollado sin mucha teoría. En 1933, uno de los
principales actores en el control de procesos, Ivanoff, dijo (Bennett, 1979, p. 49):

La ciencia de la regulación automática de la temperatura se encuentra actualmente en la posición anómala de haber


erigido un vasto edificio práctico sobre bases teóricas insignificantes.

Incluso hoy, el control PID es enormemente exitoso; Es una de las formas más simples de beneficiarse del poder de
la retroalimentación. En la dirección del barco, el manipulador Sperry superó al teórico Minorsky, como se cuenta
en Bennett (1979). Una situación similar prevaleció en el control de vuelo temprano (McRuer, Ashkenas y Graham,
1972, p. 5):

. . . Parecían haber progresado con una cantidad mínima de matemáticas hasta después del final de la guerra de
1939-1945. . . . Durante los primeros 50 años de la historia de la aviación, el estudio de la dinámica de las aeronaves
y su sistema de control fue de un interés insignificante para los diseñadores, que aprendieron a seguir las reglas
generales. . . Esto fue a pesar del hecho de que una teoría matemática para la estabilidad del movimiento
desatendido y de la respuesta de la aeronave al control se desarrolló en una fecha temprana. Muy
afortunadamente, las presiones en tiempos de guerra produjeron dos desarrollos que alteraron fue la teoría de los
servomecanismos: el segundo fue la computadora electrónica. El análisis y la simulación son hoy los pilares gemelos
en los que se basa el entablamento del diseño del sistema de control de vuelo de la aeronave.

La evolución gradual durante varias décadas desde una aplicación de retroalimentación a un marco teórico amplio y
profundo para su análisis y diseño puede verse claramente en el caso del regulador centrífugo. Utilizado al principio
en molinos de viento en 1745 Mayr (1969), y posteriormente por Watt en máquinas de vapor en la década de 1780,
originalmente era un controlador proporcional, con integral y derivada

Acción agregada posteriormente (Bennett, 1979). Aproximadamente un siglo después, Vyshnegradskii (1876) y
Maxwell (1868) iniciaron una investigación teórica. Esto llevó al trabajo de Hurwitz (1895) y Routh (1877) sobre el
análisis de estabilidad.

En una línea similar, el desafío de diseñar repetidores para telefonía de larga distancia llevó a la invención del
amplificador de retroalimentación por Black (1934) en 1927, aunque sin una teoría. En ausencia de una
comprensión teórica fundamental, esta era una tecnología muy difícil de emplear. Las dificultades con la
inestabilidad encontradas en el laboratorio inspiraron a Bode y Nyquist a desarrollar la teoría del amplificador de
retroalimentación (Bode, 1940; Nyquist, 1932). Hubo otro factor extremadamente importante en este caso: la
presencia de una corporación poderosa con un laboratorio de investigación y desarrollo: AT&T. Los tres, Black,
Nyquist y Bode, eran sus empleados. Este es un ejemplo supremo del éxito de un gran esfuerzo concentrado, en
este caso por parte de un monopolio, para generar recursos suficientes durante un largo período para resolver los
desafíos fundamentales de la aplicación.

Otro ejemplo en la misma línea fue el desarrollo del control de incendios, originalmente para la guerra naval y
posteriormente para el fuego antiaéreo. Este último recibió el apoyo sostenido del gobierno de los EE. UU. En un
proyecto dirigido por Vannevar Bush, y finalmente condujo al desarrollo de la teoría del servomecanismo, como se
describe en la Sección 3. En su trabajo anterior sobre redes de sistemas de energía en el MIT, Bush (Wildes y
Lindgren, 1986) había observado que:

La ingeniería no puede avanzar más rápido que el análisis matemático en el que se basa. Las matemáticas formales
son con frecuencia inadecuadas para numerosos problemas que presionan por una solución, y en ausencia de
matemáticas radicalmente nuevas, una solución mecánica ofrece el ataque más prometedor y poderoso.

Del mismo modo, la red de defensa aérea de la guerra fría Semi-Automatic Ground Environment (SAGE) condujo
eventualmente a trabajar en sistemas de datos muestreados de Jury (1958); Ragazzini y Franklin (1958) (Sección
3.1). Más tarde, el control de vuelo con requisitos más estrictos que se derivan de empujar la envolvente de vuelo
llevó a trabajar en márgenes de estabilidad multivariables, es decir, robustez (Safonov y Fan, 1997) (Sección 4.13).
Más recientemente, la necesidad de diseñar sistemas integrados seguros y confiables, por ejemplo, para
automóviles, está impulsando el trabajo en el desarrollo, validación y verificación basados en modelos.

El desarrollo del modelo de control predictivo es otra instancia interesante de interacción, en este caso fortuita,
entre la teoría y la práctica. Richalet, Rault, Testud y Papon (1978) resolvieron una serie de problemas prácticos en
un contexto de tiempo discreto calculando la trayectoria óptima, pero solo usando la parte inicial de la misma y
luego volviendo a calcular la trayectoria después de cada muestra. Este procedimiento se denominó control de
retroceso del horizonte; También se había investigado en Kwon y Pearson (1977). Más tarde, dos ingenieros
químicos, Charlie Cutler y Brian Ramaker, dirigían una refinería durante una huelga. Un problema clave fue que
varios

Las variables de control tuvieron que establecerse durante un cambio de calificación. Cutler y Ramaker resolvieron
el problema determinando primero la ganancia de estado estable experimentalmente. Dados los cambios deseados
en la salida, los cambios apropiados en los controles se obtuvieron por inversión de matriz. Para realizar cambios
más rápidos, midieron la respuesta de pulso multivariable y calcularon un conjunto de controles futuros que
cambiarían el estado de acuerdo con una trayectoria deseada. Aplicaron la primera señal de control y repitieron el
procedimiento. Sin estar versados en la teoría del control, llamaron a la respuesta al impulso la 'matriz dinámica', y
el procedimiento de diseño se denominó control de matriz dinámica (DMC) (Cutler y Ramaker, 1980; Prett, Ramaker
y Cutler, 1982). Cuando terminó la huelga, Cutler

Y Ramaker volvió a la investigación y el desarrollo, y comenzó a refinar el método. Patrocinaron investigaciones y


organizaron talleres en Shell para interactuar con la academia (Prett, García y Ramaker, 1990; Prett y Morari, 1987),
que a su vez iniciaron investigaciones sobre estabilidad y robustez (Bemporad, Morari, Dua y Efstratios, 2002;
García, Prett y Morari, 1989; Mayne et al., 2000; Morari y Lee, 1999)

Por otro lado, hubo un largo período en la segunda mitad del siglo XX cuando la investigación teórica en control fue
exuberante. Cuando la computadora digital se introdujo en el ciclo de retroalimentación, como se señaló en la
Sección 4, causó una revolución en la plataforma. Obviamente necesitaba un tipo diferente de teoría, la teoría del
espacio de estados, de la teoría del dominio de frecuencia que había sido tan apropiada para aprovechar el
amplificador de retroalimentación. De hecho, para su trabajo (Kalman, 1961a), Kalman afirmó que 'este trabajo
inicia el estudio de la teoría pura del control'. La teoría del espacio de estados encontró aplicación inmediata.
Swerling aplicó su filtro (Swerling, 1959) a la estimación de trayectorias satelitales utilizando mediciones terrestres
(Grewal & Andrews, 2010), y SF Schmidt, del Centro de Investigación Ames de la NASA, aplicó el filtro de Kalman
(Kalman, 1960) al problema de la navegación circunlunar, y Lo desarrolló para la navegación a bordo en tiempo real
en la misión Apollo (Grewal y Andrews, 2010). El desarrollo de la teoría del espacio de estado se convirtió en un
tema de investigación muy activo en la academia desde aproximadamente 1960 durante casi cuatro décadas. El
grupo de matemáticas y control en el Instituto de Investigación para Estudios Avanzados (RIAS) que Solomon
Lefschetz comenzó a dirigir en 1957 jugó un papel importante, el centro se fundó en 1955 para llevar a cabo un
trabajo similar al que se estaba haciendo en la Unión Soviética (Grewal & Andrews, 2010). Los investigadores de
control profundizaron en el estudio de ecuaciones diferenciales / diferenciales lineales que modelan sistemas
lineales, y más allá, en sistemas estocásticos, sistemas no lineales, sistemas descentralizados y sistemas de
parámetros distribuidos. Esto fue facilitado por programas de investigación bien financiados del gobierno de los EE.
UU. Para investigadores universitarios, un legado de los esfuerzos de Vannevar Bush en tiempos de guerra en
investigación y desarrollo de defensa y la posterior defensa de la creación de la National Science Foundation en los
EE. UU. Se investigaron muchas posibilidades imaginativas. Comenzó a surgir una rica teoría de sistemas basados en
modelos. Hubo algunos importantes

Aplicaciones que surgieron, como la identificación del sistema y el control adaptativo, como se describe en la
Sección 4. Este fue particularmente el caso en el control de procesos donde había una rica tradición de
experimentación.

La teoría en este momento estaba en algunos aspectos por delante de la tecnología, ya que muchas ideas
exploradas aún no podían implementarse, y tuvieron que esperar el desarrollo de poderosas computadoras, redes,
etc. La teoría exploró los límites de lo factible, ya sea debido a La dimensionalidad infinita de la solución resultante,
o la maldición de la dimensionalidad de la programación dinámica, o la complejidad más amplia de la solución o su
implementación. Por ejemplo, se investigó cuidadosamente la clase de problemas de filtrado no lineal para los
cuales la solución óptima era de dimensión finita.

Esfuerzos como este cumplieron un valioso propósito al calibrar lo que era factible y que eran importantes en sí
mismos, a la teoría de la información, a pesar de que no dieron lugar a aplicaciones importantes. Sin embargo, la
teoría que antes mostraba los límites de la solución explícita se revisó en las décadas posteriores después de que la
potencia computacional disponible había aumentado considerablemente. Un ejemplo es el control de parcialmente

Sistemas observados, que ahora es uno de los pilares del aprendizaje automático y la inteligencia artificial (Shani et
al., 2013), como se señala en Sección 4.10.

Por las razones señaladas anteriormente, este período extremadamente fértil para la investigación teórica también
condujo al desarrollo de la teoría de control en una forma de 'bucle abierto' sin retroalimentación constante de las
aplicaciones del mundo real contra las cuales podría probarse. Hubo un lapso de tiempo entre las ideas teóricas y su
prueba contra la realidad, si es que se podían probar, ya que, en algunos casos, la tecnología de implementación
aún no estaba madura. Deficiencias importantes solo se descubrieron después de que la teoría fue probada en una
aplicación. Un ejemplo es la falta de márgenes de estabilidad multivariables para el control lineal gaussiano
cuadrático (Doyle, 1978) aludido en la Sección 4.13, descubierto en pruebas de simulación de submarinos (Safonov
y Fan, 1997). De hecho, la robustez para modelar la incertidumbre fue en general una de las principales deficiencias
de las primeras teorías del espacio de estado basadas en modelos.

Que esto era cierto incluso en el control adaptativo cuando la clase de modelo dentro de la cual se ajustan los
parámetros no contiene el verdadero sistema se convirtió en una causa celebre (Rohrs, Valavani, Athans y Stein,
1981) que posteriormente resultó en actividad frenética

En el control adaptativo 'robustecimiento'. Finalmente, se desarrolló una teoría que abarcaba la incertidumbre del
modelo, que culminó en un artículo que ganó el IEEE W.R.G. Premio Baker (Doyle et al., 1989).

En la edad de oro para la investigación de la teoría del control, el control se estableció en la academia. Hubo una
masa crítica de investigadores teóricos para profundizar en muchas áreas, facilitando la formación de una teoría
sólida. Un artículo de Berkeley (Bergbreiter, 2005), titulado 'Pasar de la práctica a la teoría: control automático
después de la Segunda Guerra Mundial', describe este fenómeno en detalle. Inevitablemente, había una actitud de l
´art pour l’art.

Algunas veces también se dedicó un gran esfuerzo a los problemas menos importantes para olvidar o olvidar las
siguientes palabras de von Neumann (1947):

Creo que es una aproximación relativamente buena a la verdad, que es demasiado complicada para permitir nada
más que aproximaciones, que las ideas matemáticas se originan en la empírica. Pero, una vez que se conciben, el
sujeto comienza a vivir una vida peculiar propia y es. . . Gobernado por motivaciones casi totalmente estéticas.

En otras palabras, a una gran distancia de su fuente empírica, o después de una endogamia 'abstracta', un sujeto
matemático está en peligro de degradación. Cada vez que se alcanza esta etapa, el único remedio me parece ser el
retorno rejuvenecedor a su origen:

La reinyección de ideas empíricas más o menos directas. . .

Por supuesto, un factor importante que influye en la evolución del control ha sido la disponibilidad de tecnología
para la implementación. Si bien la computadora digital generó una revolución, el poder computacional fue
inicialmente limitado, y no había redes de datos en ningún grado apreciable. Por lo tanto, en muchos aspectos en
esta era, la investigación teórica lideró la tecnología, como se señaló anteriormente, y naturalmente necesitó
correcciones de curso a medida que las posibilidades y limitaciones tecnológicas se hicieron más claras. Sin
embargo, la investigación imaginativa dejó el campo en un buen estado creativo para aprovechar las oportunidades
que se han abierto después de las revoluciones en potencia computacional, software, redes de datos, sensores y
actuadores, después de la revolución de la microelectrónica realizada por cuatro décadas incesantes de la Ley de
Moore.

It is impossible to list the applications of control in their entirety; a crude random sampling yields the following:
process control, telephony, cellular phones, power systems, aircraft and spacecraft, the Internet, computer control
of fuel injection, emission control, cruise control, braking and cabin comfort in automobiles, production and
inventory control, missile guidance, robotics, appliances, semiconductor wafer fabs, active noise canceling,
automated highways, atomic force microscopes, quantum control, mass spectroscopy, large space structures. At
present, almost every technology has feedback control at its core. As an exemplar, a recent article (Perry, 2013)
describing the efforts of the most recent awardee of the IEEE Medal of Honor, Irwin Jacobs, a co-founder of
Qualcomm, has this to say:

Es imposible enumerar las aplicaciones de control en su totalidad; Un muestreo aleatorio crudo produce lo
siguiente: control de procesos, telefonía, teléfonos celulares, sistemas de energía, aeronaves y naves espaciales,
Internet, control por computadora de inyección de combustible, control de emisiones, control de crucero, frenado y
confort de cabina en automóviles, producción y control de inventario, Guía de misiles, robótica, electrodomésticos,
placas de obleas de semiconductores, cancelación activa de ruido, autopistas automatizadas, microscopios de
fuerza atómica, control cuántico, espectroscopía de masas, grandes estructuras espaciales. En la actualidad, casi
todas las tecnologías tienen un control de retroalimentación en su núcleo. Como ejemplo, un artículo reciente
(Perry, 2013) que describe los esfuerzos del galardonado más reciente de la Medalla de Honor IEEE, Irwin Jacobs,
cofundador de Qualcomm, dice lo siguiente:

. . . Él imaginó un sistema de respuesta rápida: los teléfonos CDMA monitorearían la potencia de la señal
proveniente de la torre; Si las señales caen repentinamente, por ejemplo, cuando un usuario entra a un edificio, el
teléfono aumenta su señal de transmisión, pensando que si tiene problemas para escuchar la torre, entonces la
torre tendrá problemas para escuchar el teléfono. Luego, el equipo en las torres CDMA tomaría un puñado de bits
recibidos y calcularía una potencia de señal promedio; Si esa señal cae por encima o por debajo de un umbral
preestablecido, entonces la torre le indicará al teléfono que baje o aumente su potencia. . . . ‘‘ Alguien más podría
haber examinado todas las complejidades y las preocupaciones y concluido que simplemente no era posible ’’.

No es por nada que el control, omnipresente en todas partes, se llama tecnología oculta.

Además de la ingeniería y la tecnología, también hay muchos usos de retroalimentación y retroalimentación en


otras áreas. En economía, la planificación central tal vez podría considerarse como un ejemplo de
retroalimentación, mientras que una economía de mercado podría considerarse como un ejemplo de
retroalimentación. Tustin escribió un libro (Tustin, 1953) sobre aplicaciones de control a la economía ya en 1953. Al
menos en lo técnico

En los sistemas se sabe que los mejores resultados se obtienen combinando retroalimentación y retroalimentación.
El control también está entrando en campos inusuales como la publicidad en Internet Karlsson y Zhang (2013) y el
arte Andrea (0000).

Y luego está la biología, tal vez al borde de una revolución, donde desentrañar y aprovechar los procesos de
retroalimentación omnipresentes es el sueño de la humanidad.

Con todos los avances antes mencionados, el escenario está preparado para la construcción de sistemas a gran
escala. El siglo XXI bien podría ser una época de construcción de sistemas a gran escala. No solo nos encontramos
con limitaciones de recursos y ambientales, ya sea en energía o agua, sino que al mismo tiempo también
enfrentamos grandes demandas de transporte moderno, energía, agua, servicios de atención médica, etc., de
grandes segmentos del mundo que Anteriormente no tenía acceso a dichos servicios. Los principales esfuerzos en
todo el mundo están dirigidos a grandes desafíos con respecto a la red eléctrica inteligente, el transporte
automatizado, la atención médica, etc., para todos los cuales la detección y la actuación, a saber, el control son
clave.

7. Observaciones finales

El control es un campo con varias características únicas. Su evolución es un verdadero microcosmos de la historia
del mundo tecnológico moderno. Proporciona una interacción fascinante de personas, proyectos, tecnología e
investigación.
El control trasciende los límites de los campos de ingeniería tradicionales, como la ingeniería aeronáutica, química,
civil, eléctrica, industrial, mecánica y nuclear. Su desarrollo fue desencadenado no por un área tecnológica única
sino por varios proyectos tecnológicos, como control de incendios, telefonía, sistemas de energía, control de vuelo,
exploración espacial y robótica, en diferentes momentos de su evolución. El control también ha tenido impacto en
varios campos no relacionados con la ingeniería, como la biología, la economía, la medicina y la física. Conceptos e
ideas han migrado entre los campos.

El desarrollo del control se ha beneficiado enormemente de varios grandes desafíos, por ejemplo, telefonía
transcontinental, control de incendios y aterrizaje de un hombre en la luna. Su desarrollo también se benefició del
poder concentrado de las industrias monopolísticas y del gobierno. Se benefició aún más del gran auge de la
investigación académica posterior a la segunda guerra mundial.

Las diferentes áreas de aplicación han enfatizado diferentes aspectos del control, lo que lleva al desarrollo de un
marco rico para el control. A su vez, cerrando el ciclo, la evolución del control ha

Influenciado, radicalmente en muchos casos, el desarrollo de cada una de estas áreas.

El control es la primera disciplina de sistemas. Reconoció la comunidad de problemas en el corazón de muchos


problemas de ingeniería. El punto de vista de los sistemas (hacer que la salida de la 'planta' o la entidad se comporte
de manera deseable manipulando su entrada) es un punto de vista unificador que proporciona una gran claridad al
proceso de diseño, independientemente del campo de aplicación. La tecnología habilitadora para la
implementación tuvo un gran impacto en la evolución de las técnicas para el diseño de control

Y la teoría subyacente, como lo demuestra el desarrollo de la teoría del dominio de la frecuencia en la era de la
computación analógica, y más tarde por el desarrollo del enfoque de espacio de estado y la toma de decisiones en
varias etapas en la era de la computación digital.

El control es un campo cuyo progreso ha sido puntuado por varias contribuciones teóricas clave. Estos han
involucrado una variedad de subdisciplinas matemáticas, como análisis complejos, ecuaciones diferenciales, teoría
de probabilidad, geometría diferencial, optimización y teoría de grafos. Como tal, el control es actualmente uno de
los campos de ingeniería más matematizados.

La investigación en el campo ha dado como resultado una colección extremadamente rica de libros avanzados y
especializados que cubren varios subcampos. La gama incluye control adaptativo, control clásico, sistemas de
eventos discretos, juegos diferenciales, control digital, sistemas de parámetros distribuidos, programación
dinámica, estimación, identificación, sistemas lineales, control multivariable, sistemas en red, sistemas no lineales,
control óptimo, control robusto , control de modo deslizante, estabilidad, control estocástico. Incluso hay
enciclopedias de control.

El control se ha convertido en un componente central de muchas tecnologías modernas, aunque a menudo está
oculto a la vista. De hecho, es difícil concebir una tecnología que se ocupe de fenómenos dinámicos que no
impliquen control.

Ha habido una brecha dinámica entre la teoría y la práctica. En ocasiones, las aplicaciones consistían principalmente
en retoques. En ocasiones, fueron las graves dificultades encontradas en la práctica las que llevaron a avances
teóricos dramáticos que fueron extremadamente relevantes e importantes en la práctica; Un ejemplo es el trabajo
de Bode y Nyquist. En otras ocasiones, posibilidades tecnológicas incipientes.

Abrió nuevos campos de investigación teórica. Esto dio como resultado una amplia exploración de los conceptos
teóricos de los sistemas, tales como estabilidad, capacidad de control, estructuras de información, optimización,
complejidad y robustez. En ocasiones, la exploración se desarrolló de forma abierta sin retroalimentación de
aplicaciones prácticas, y algunas veces como un esfuerzo matemático. En algunos casos, la tecnología aún no estaba
madura para implementar y probar algunos de los conceptos que se están explorando.

¿Dónde estamos ahora y qué podemos aprender de la historia? ¿Cómo puede el pasado proporcionar alguna
orientación y retroalimentación para el futuro? Presentamos nuestro punto de vista.

En el aspecto tecnológico, con la evolución dramática de sensores, actuadores, redes, hardware y software
computacional, se ha hecho posible implementar e implementar sistemas grandes y complejos. Con este
considerable fortalecimiento de las capacidades de implementación, la brecha teoría-práctica debe reducirse. Es
posible que esto deba suceder en ambos frentes: más teoría para resolver las dificultades encontradas en las
aplicaciones, así como más experimentación para determinar cuáles son las dificultades y así identificar los
problemas que necesitan una solución.
Por un lado, donde los problemas se entienden bien, es necesario que haya grandes esfuerzos teóricos para
desarrollar soluciones. Un ejemplo es la necesidad de métodos formales. Una buena teoría puede obviar la
necesidad de pruebas masivas basadas en simulación que son muy caras tanto en costo como en tiempo. Diseño,
implementación, mantenimiento.

Y la actualización de sistemas complejos no puede realizarse de manera segura sin métodos formales que abarquen
desde los requisitos hasta el producto final.

Por otro lado, debe haber una mayor experimentación para comprender cuáles son los cuellos de botella, calibrar
las supuestas soluciones y comprender qué funciona o mejora el rendimiento y qué no. Un ejemplo es el objetivo de
construir sistemas autónomos, donde las distribuciones previas de incertidumbres o clases de modelos no se
comprenden bien. La experimentación en tales situaciones es importante para aprender sobre el mundo real, y
pretende ser reveladora. Puede conducir a una teoría relevante.

La experimentación es diferente de las demostraciones. La experimentación implica una interacción dinámica


bidireccional entre teorías o modelos y prácticas; Es decir, un ciclo de retroalimentación. Por otro lado, las
demostraciones son solo eso: demuestran que una solución particular funciona como se afirma. No son un sustituto
de experimentos o laboratorios genuinos.

Es importante para la investigación investigar aplicaciones, guiándose por ellas, por lo que funciona y lo que no. Es
importante conocer cuáles son los cuellos de botella reales para el rendimiento, la robustez, la confiabilidad y cómo
acortar el ciclo de diseño e implementación.

Los investigadores de sistemas de control deben asumir la responsabilidad total de los sistemas De hecho, como lo
ha demostrado la historia, por ejemplo, en el caso del amplificador de retroalimentación, el reconocimiento de cuál
es realmente el problema es en sí mismo un logro importante en la investigación. Tal conciencia puede conducir a
avances relevantes que tienen un profundo impacto en la práctica.

La pedagogía también debe desempeñar un papel importante. El campo debe educar a los estudiantes que son
capaces de resolver todo el problema, desde el diseño conceptual hasta la implementación y la puesta en servicio.

Debido a la convergencia del control, la comunicación y la informática, los estudiantes también deberán tener
conocimientos en un amplio frente de todos estos campos, así como en matemáticas. También debemos dejar
espacio para que los estudiantes adquieran conocimientos de campos como la biología, donde los avances han sido
extraordinariamente rápidos. Cómo se puede lograr todo esto dentro de los límites de tiempo limitados de un plan
de estudios de pregrado requiere un examen exhaustivo. A nivel de posgrado, uno también tiene el desafío
adicional de preservar la profundidad, ya que eso es crítico para la investigación y, de hecho, ha sido una fortaleza
importante del campo.

La escritura de libros tiene un papel importante que desempeñar. Los tremendos avances de la investigación de las
últimas siete décadas deben destilarse con el beneficio de la retrospectiva en libros compactos. Necesitamos
comprimir el conocimiento actual, enfatizando los fundamentos. Esto debe hacerse tanto a nivel de pregrado como
de posgrado. También hay desafíos con respecto a cómo se dispersa el control en varios departamentos de
ingeniería. Dado que la educación y la investigación en ingeniería surgieron de tecnologías específicas como la
minería, la construcción de carreteras y presas, la construcción de máquinas, la generación y transmisión de
electricidad, el uso industrial de la química, etc., condujo a una organización de escuelas de ingeniería basadas en
departamentos De minería, ingeniería civil, ingeniería mecánica, ingeniería eléctrica, ingeniería química, etc. Esto
sirvió muy bien a fines del siglo XIX y principios del siglo XX. ¿Pero es esta la estructura óptima en el siglo XXI para
enseñar una disciplina de sistemas cada vez más poderosa?

Como el control que atraviesa estas áreas?

El campo de control tiene un futuro brillante ya que hay muchos grandes desafíos. Existe una gran demanda en todo
el planeta de sistemas avanzados de transporte, atención médica, energía, agua, etc., que deben diseñarse en un
entorno de recursos limitados. La biología es otra frontera importante de la investigación. El siglo XXI bien podría
ser la era de la construcción de grandes sistemas.

También podría gustarte