Está en la página 1de 110

CENTRO DE INVESTIGACIN Y DE ESTUDIOS AVANZADOS DEL INSTITUTO POLITCNICO NACIONAL DEPARTAMENTO DE CONTROL AUTOMTICO

Modelado y control para una clase de sistemas no lineales desconocidos en tiempo discreto
TESIS QUE PRESENTA EL:

M. en C. Jos de Jess Rubio Avila

Para obtener el grado de Doctor en Ciencias en la Especialidad de Control Automtico

DIRECTOR DE TESIS: Dr. Wen Yu Liu

Mxico, D.F., 2007

AGRADECIMIENTO

Agradezco al Consejo Nacional de Ciencia y Tecnologa el apoyo brindado para cursar los estudios de Doctorado en el Centro de Investigacin y de Estudios Avanzados del IPN, a travs de la beca que me fue concedida durante el transcurso de los mismos.

ndice general
1. Introduccin 1.1. Estado del arte . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.1. Redes neuronales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.2. Algoritmo elipsoidal . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.1.3. Control por modos deslizantes en tiempo discreto . . . . . . . . . . . 1.1.4. Control con redes neuronales . . . . . . . . . . . . . . . . . . . . . . . 1.2. Motivacin del tema de tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.1. Tiempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.2. Redes neuronales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.3. Algoritmo elipsoidal . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.2.4. Modos deslizantes . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.3. Objetivo de la tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 1.4. Contenido de la tesis . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2. Modelado y control con redes neuronales en tiempo discreto 2.1. Control discreto para plantas en tiempo continuo . . . . . . . . . . . . . . . 2.1.1. Sistema de control por computadora . . . . . . . . . . . . . . . . . . 2.2. Control en tiempo discreto . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.2.1. Control para plantas en tiempo discreto . . . . . . . . . . . . . . . . 2.2.2. Control para plantas discretizadas . . . . . . . . . . . . . . . . . . . . 2.3. Redes neuronales para modelado . . . . . . . . . . . . . . . . . . . . . . . . . 1 2 2 3 4 4 5 5 5 6 6 7 7 9 9 9 11 11 13 17

ii

NDICE GENERAL 2.3.1. Redes neuronales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3.2. Algoritmo de propagacin hacia atrs en tiempo discreto . . . . . . . 2.3.3. Estructuras de identicacin que usan las redes neuronales . . . . . . 2.4. Espacios elipsoidales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.5. Control por modos deslizantes en tiempo discreto . . . . . . . . . . . . . . . 2.5.1. Generalidades acerca de los modos deslizantes en tiempo continuo . . 2.5.2. Generalidades acerca de los modos deslizantes en tiempo discreto . . 2.6. Conclusin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 18 21 24 26 29 29 31 37

3. Modelado con una red neuronal recurrente y el algoritmo elipsoidal acotado 3.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.2. Red neuronal recurrente para modelacin de sistemas no lineales . . . . . . . 3.3. Algoritmo elipsoidal para el entrenamiento de los pesos de la red neuronal . . 3.4. Anlisis de estabilidad . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5. Simulaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 3.5.1. Identicador propuesto aplicado al modelo de trco . . . . . . . . . 3.5.2. Identicador propuesto aplicado al proceso de combustin de gas . . . 3.6. Conclusin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4. Control por modos deslizantes con redes neuronales 4.1. Introduccin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 4.2. Sistema no lineal en tiempo discreto . . . . . . . . . . . . . . . . . . . . . . . 4.3. Modelado de funciones no lineales usando redes neuronales . . . . . . . . . . 4.3.1. Algoritmo con zona muerta y su modicacin . . . . . . . . . . . . . 4.3.2. Anlisis de estabilidad de la identicacin . . . . . . . . . . . . . . . 4.4. Control por modos deslizantes en tiempo discreto . . . . . . . . . . . . . . . 4.4.1. Estructura del controlador . . . . . . . . . . . . . . . . . . . . . . . . 4.4.2. Anlisis de estabilidad para el control en lazo cerrado . . . . . . . . . 4.5. Simulaciones . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 39 39 41 44 52 56 56 59 62 63 63 65 67 67 70 74 74 79 82

NDICE GENERAL 4.5.1. Control propuesto aplicado al modelo de trco . . . . . . . . . . . . 4.5.2. Control propuesto aplicado a un sistema no lineal acadmico complejo 4.6. Conclusin . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5. Conclusiones y trabajo futuro 6. Apndice: publicaciones

iii 82 85 87 89 91

iv

NDICE GENERAL

ndice de guras
2.1. Sistema de control por computadora . . . . . . . . . . . . . . . . . . . . . . 2.2. Operacin del muestreador . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.3. Operacin del retenedor de orden cero . . . . . . . . . . . . . . . . . . . . . 2.4. Control de una planta en tiempo discreto . . . . . . . . . . . . . . . . . . . . 2.5. Control de una planta discretizada . . . . . . . . . . . . . . . . . . . . . . . 2.6. Modelo de una neurona . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.7. Perceptrn multicapa . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.8. Algoritmo de propagacin hacia atrs . . . . . . . . . . . . . . . . . . . . . . 2.9. Estructura de identicacin paralela . . . . . . . . . . . . . . . . . . . . . . . 2.10. Estructura de identicacin serie paralela . . . . . . . . . . . . . . . . . . . . 2.11. Espacio elipsoidal . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2.12. Ejemplo de un espacio elipsoidal . . . . . . . . . . . . . . . . . . . . . . . . . 2.13. Espacio elipsoidal que contiene la interseccin de dos espacios elipsoidales . . 2.14. Comportamiento de la salida del sistema y(k) con el control que satisface la condicin de modos deslizantes (2.32) . . . . . . . . . . . . . . . . . . . . . . 2.15. Comportamiento de la salida del sistema y(k) con el control que satisface la condicin de modos deslizantes (2.33) para a = 0,5 . . . . . . . . . . . . . . . 2.16. Comportamiento de la salida del sistema y(k) con el control que satisface la 2.17. Comportamiento de la salida del sistema y(k) con el control que satisface la condicin de modos deslizantes (2.34) para a = 0,5 . . . . . . . . . . . . . . . 36 condicin de modos deslizantes (2.33) para a = 0,5 . . . . . . . . . . . . . 34 34 33 10 11 12 12 13 18 21 22 25 26 27 28 28

vi

NDICE DE FIGURAS 3.1. Estructura de la red neuronal recurrente . . . . . . . . . . . . . . . . . . . . 3.2. Relacin entre los volmenes de k y k+1 . . . . . . . . . . . . . . . . . . . 3.3. Caracteristica de convergencia del error de identicacin . . . . . . . . . . . 3.4. Relacin densidad-ujo utilizada en el mtodo de densidad de bloque . . . . 3.5. Clculo del ujo entre bloques vecinos . . . . . . . . . . . . . . . . . . . . . 3.6. Movimiento de los vehiculos en tiempo discreto . . . . . . . . . . . . . . . . 3.7. Identicacin del estado x25 (k) para el ejemplo 1 . . . . . . . . . . . . . . . . 3.8. Error promedio cuadratico para el identicador del ejemplo 1 . . . . . . . . . 3.9. Identicacin para y(k) del ejemplo 2 . . . . . . . . . . . . . . . . . . . . . . 3.10. Error promedio cuadratico para el identicador del ejemplo 2 . . . . . . . . . 4.1. Comportamiento del actuador en el sistema de control . . . . . . . . . . . . 4.2. Control neuronal utilizando modos deslizantes . . . . . . . . . . . . . . . . . 4.3. Desempeo del controlador por modos deslizantes con ganancia variante . . . 4.4. Errores de seguimiento de trayectoria . . . . . . . . . . . . . . . . . . . . . . 4.5. Desempeo del controlador por modos deslizantes con ganancia variante . . . 4.6. Errores de seguimiento de trayectoria . . . . . . . . . . . . . . . . . . . . . . 42 50 55 57 57 58 60 60 61 62 66 77 84 84 86 87

Captulo 1 Introduccin
El conocimiento total del modelo de una planta en general es muy difcil tenerlo, ya que al paso del tiempo, las condiciones de operacin o climticas y otros factores del entorno de la planta pueden ocasionar desgaste o degradacin de sus componentes, por lo que sus parmetros pueden cambiar. De manera que si se construye un modelo de la planta antes de que suceda algn deterioro a lo largo del tiempo, seguramente se esta enfrentando a un problema en el que no se conocen completamente los parmetros del modelo, a esta falta de conocimiento sobre el modelo de la planta se le llama incertidumbre paramtrica. A su vez, es posible que en el modelo que se este construyendo no se hayan tomado en cuenta por alguna razn ciertas dinmicas de la planta, en este caso la estructura real de la planta tendr diferencia con respecto a la estructura del modelo matemtico, a esta falta de informacin del modelo de la planta se le conoce como incertidumbre estructural. Por esta razn, un problema interesante surge cuando alguna parte o toda la dinmica del sistema no es conocida. Por esto, el diseo de controladores robustos que enfrentan esta falta de informacin es un tema importante. Esto conduce a entender que un sistema que no ha sido hecho a la medida y este sistema siempre tiene incertidumbre estructural o paramtrica. Es decir, es mas fcil que un ingeniero de control se enfrente a controlar una planta con incertidumbre que a una que tenga un modelo exacto. Por esta razn, una manera natural de modelar las plantas que tienen incertidumbre,

Introduccin

es considerando un modelo que tenga trminos nominales o valores centrales conocidos mas otra parte no modelada o incierta. Este punto de vista es utilizado como una forma de enfrentar los sistemas no lineales con incertidumbre en la presente tesis, debido a que la incertidumbre es parcial algunos autores nombran a este sistema como caja gris, en lugar de caja negra que es la situacin en la que hay una incertidumbre total del sistema y slo se tiene lectura de la salida e introduccin de seales en la entrada. Resultados recientes muestran que la tcnica de redes neuronales es muy efectiva para identicar una gran cantidad de sistemas no lineales complejos cuando no se tiene informacin completa del modelo. Las redes neuronales se clasican en redes neuronales con conexin hacia adelante y redes neuronales recurrentes [28]. Aunque el algoritmo de propagacin hacia atrs se ha usado ampliamente como mtodo de entrenamiento para redes neuronales, la limitacin es que este algoritmo tiene una convergencia de parmetros muy lenta. La estabilidad de un algoritmo de gradiente descendiente modicado se da en [93]. El mtodo de modos deslizantes tradicional es la aplicacin de una seal de control conmutando a alta frecuencia que consigue llevar el estado del sistema a una supercie cercana al origen denominada supercie de deslizamiento o funcin de conmutacin y una vez llegando a la supercie de deslizamiento se debe permanecer en sta ante posibles perturbaciones externas. Dicha supercie de deslizamiento debe ser denida por el diseador con el objeto de que el estado cumpla las especicaciones deseadas. El control por modos deslizantes en tiempo continuo genera castaeo debido a la discontinuidad en la accin de control y el castaeo es indeseable en la mayora de las aplicaciones [11].

1.1.
1.1.1.

Estado del arte


Redes neuronales

En 1957, Frank Rosenblat comenz el desarrollo del perceptrn, el perceptrn es la red neuronal ms antigua. En 1959 Bernard Widrow y Marcial Ho desarrollaron el modelo de

1.1 Estado del arte

elementos lineales adaptables, esta fue la primera red neuronal aplicada a un problema real (ltro adaptable para eliminar ecos en las lneas telefnicas). En 1967 Stephen Grossberg realizaron una red avalancha que consista en elementos discretos con actividad que varia con el tiempo que satisface ecuaciones diferenciales continuas para resolver actividades como reconocimiento del habla y el aprendizaje del movimiento de los brazos de un robot. En 1982 Marvin Minsky y Seymour Papert publicaron el libro llamado Perceptrons. En 1977 Teuvo Kohonen desarroll un modelo de red neuronal para el reconocimiento de patrones visuales [43]. En 1982 John Hopeld present una red que le ha dado su nombre [30]. En 1985 se form la International Neural Network Society (INNS) bajo la iniciativa y direccin de Grosberg en Estados Unidos, Kohonen en Finlandia y Amari en Japn. En 1987 la IEEE celebr la primer conferencia sobre redes neuronales. En 1988 se unieron la INNS y la IEEE para formar la llamada International Joint Conference on Neural Networks (IJCNN ) [29].

1.1.2.

Algoritmo elipsoidal

En 1979 L.G.Khachiyan indic como un mtodo elipsoidal se puede implementar para programacin lineal [3]. Este resultado ha causado gran inters y ha estimulado a la investigacin en este tema. La tcnica elipsoidal tiene importantes ventajas en la estimacin de estados con perturbaciones acotadas [21]. Hay muchas aplicaciones potenciales para problemas semejantes a la programacin lineal. [89] obtuvo elipsoides los cuales eran validos para un nmero nito de datos. [69] present una programacin elipsoidal tal que el nuevo elipsoide satisface una relacin afn con otro elipsoide. En [12], el algoritmo elipsoidal se usa como una tcnica de optimizacin que toma en cuenta las restricciones sobre coecientes agrupados. [52] describi a detalle varios mtodos que pueden ser usados para derivar una incertidumbre elipsoidal apropiada. En [57], se considera el problema elipsoidal con comportamiento asinttico para sistemas lineales en tiempo discreto. Hay pocas publicaciones de elipsoides en combinacin con redes neuronales. En [15] se usan aprendizajes supervisado y no supervisado en forma elipsoidal para encontrar y sintonizar las reglas de funciones difusas para un proceso de identicacin difuso. En [42] se proponen funciones de activacin de tipo

4 elipsoidal para redes neuronales con conexin hacia adelante.

Introduccin

1.1.3.

Control por modos deslizantes en tiempo discreto

En 1987 Sarpturk fue el primero que consider el control por modos deslizantes en tiempo discreto al cual era un control de estructura variable [77]. En 1999 Sira y Ramirez trataron las generalidades de los modos deslizantes en tiempo discreto [82]. En 1999 Fang dise un control por modos deslizantes con redes neuronales recurrentes estable para el problema de regulacin [19]. En 2000 Muz propuso un controlador en modos deslizantes el cual usa una supercie de deslizamiento que produce un bajo castaeo en la seal de control, este usa un termino adaptable y una red neuronal para la modelado del error de modelado y la cancelacin de este, ste control satisface las condiciones necesarias pero no las sucientes que aseguran la estabilidad del sistema en lazo cerrado [55].

1.1.4.

Control con redes neuronales

En 1990 Narendra fue el primero en tratar el control con redes neuronales en tiempo discreto [56]. En 1995 Chen y Khalil disearon un control con redes neuronales estable para sistemas anes para el problema de seguimiento de trayectoria [8]. En 1999 Cabrera y Narendra propusieron controladores por redes neuronales basados en el control inverso [5]. En 2000 Jagannathan propuso un control por redes neuronales para una clase de sistemas desconocidos para el cual garantiza su estabilidad [38]. En 2004 Ge, Zhang y Lee propusieron un controlador con redes neuronales para una clase de sistemas con mltiples entradas y mltiples salidas [24].

1.2 Motivacin del tema de tesis

1.2.
1.2.1.

Motivacin del tema de tesis


Tiempo discreto

Para el diseo de algoritmos de control en tiempo continuo se requiere usar Simulink o LabView y una tarjeta de adquisicin de datos especial lo cual muchas veces no esta al alcance de cualquier persona o institucin. Para el diseo de algoritmos de control en tiempo discreto se tienen ecuaciones de diferencia las cuales se pueden pasar directamente al sistema real a travs de un programa en C, en Visual Basic o en Ensamblador y una tarjeta de adquisicin de datos diseada por el usuario con lo cual los costos estn al alcance de prcticamente cualquier persona o institucin. Esta situacin ha favorecido el diseo de algoritmos de control a partir de un modelo discretizado, o ms an cuando el proceso original opera en tiempo discreto como es el caso de este documento. El trabajo a realizar en el control en tiempo discreto es extender, hasta donde sea posible, la teora de control existente para sistemas no lineales en tiempo continuo, al caso de sistemas en tiempo discreto. En el caso de sistemas lineales invariantes en tiempo, existe un paralelismo casi perfecto entre los sistemas en tiempo continuo y en tiempo discreto. Desafortunadamente, en el caso no lineal la situacin es mucho ms compleja.

1.2.2.

Redes neuronales

Ocurre a menudo en ingeniera qumica, como en muchas otras disciplinas, que la principal, y a veces nica, informacin de que se dispone de un proceso es una serie numrica temporal. Dicha serie se corresponde con los valores de una funcin, de una o ms variables, que contiene la dinmica interna del sistema. El problema radica entonces en la identicacin de la funcin generadora de la serie de valores, esta tarea se ha realizado ampliamente con las redes neuronales [28], [29].

Introduccin

1.2.3.

Algoritmo elipsoidal

Comparado al algoritmo de aprendizaje de propagacin hacia atrs, el algoritmo elipsoidal acotado tiene una convergencia de parmetros ms rpida, ya que este es similar en estructura al algoritmo del ltro de Kalman extendido [70], pero en el algoritmo elipsoidal no se requiere que la incertidumbre estructural se modele como un proceso Gaussiano como en el algoritmo del ltro de Kalman extendido, solo se requiere que el error de la incertidumbre estructural est acotado.

1.2.4.

Modos deslizantes

La principal ventaja del control por modos deslizantes es que aporta robustez ante perturbaciones cuando estas tienen cotas conocidas. El control por modos deslizantes en tiempo discreto se tiene la ventaja de que puede o no presentarse castaeo a diferencia del control por modos deslizantes en tiempo continuo en el que siempre se presenta castaeo [82]. Si se desconoce la planta, se pueden usar redes neuronales para modelar la planta [8], [55]. Para el siguiente sistema: y(k + 1) = f (z(k)) + u(k) (1.1)

con z(k) = y(k 1), . . . , y(k n), u(k 1), . . . , u(k m). Se tienen los siguientes casos para el control. Caso 1: Usar modos deslizantes para controlar (1.1). Se propone la ley de control u(k) = referencia, con K1 f, |f (z(k))| < f,, se asegura que es estable el controlador, en este caso K1 sign(ec (k)) + ym (k + 1) donde ec (k) = ym (k + 1) y(k + 1), ym (k + 1) es la salida de

se genera castaeo con magnitud K1 que puede ser grande.

Caso 2. Usar redes neuronales. Si se usan redes neuronales para aproximar f(z(k)) como b f(z(k)) en lnea con el controlador, se sabe que se tendr un error de identicacin ei (k) = ei (k) f, pero no se asegura la estabilidad del controlador. y (k + 1) y(k + 1), y (k + 1) es la salida de la planta modelada, entonces si se usa la ley b b b de control u(k) = f(z(k)) + ym (k + 1) siempre persistir el error de modelado ei (k) donde

1.3 Objetivo de la tesis

Caso 3. Usar modos deslizantes y redes neuronales. Si se usa la ley de control u(k) = b f(z(k)) K2 sign(ec(k)) + ym (k + 1) con K2 e, |ei (k)| < e, si se asegura la estabilidad ei (k) f. del controlador y adems este control genera menos castaeo debido a que K2 K1 ya que

1.3.

Objetivo de la tesis

El primer objetivo de esta tesis es proponer un algoritmo de elipsoidal acotado para el entrenamiento de una red neuronal recurrente, comparando su comportamiento con el del algoritmo de propagacin hacia atrs. El segundo objetivo de esta tesis es proponer un control neuronal por modos deslizantes en tiempo discreto con ganancia variante en tiempo, comparando su comportamiento con el del control neuronal por modos deslizantes con ganancia ja y el del control neuronal por retroalimentacin para controlar una clase especial de sistemas no lineales en tiempo discreto.

1.4.

Contenido de la tesis

En el captulo 2 se presenta la teora general para el control en tiempo discreto aplicado a una planta de naturaleza discreta o aplicado a una planta discretizada y sus mtodos de discretizacin, despus se presenta la teora general para el control en tiempo discreto de una planta en tiempo continuo. Despus se presenta un panorama general de las redes neuronales as como la descripcin de las estructuras de identicacin empleadas para control y el algoritmo de propagacin hacia atrs. Posteriormente se presentan algunas deniciones espacios elipsoidales acotados. Finalmente, se presentan las caractersticas el control por modos deslizantes en tiempo discreto. En el captulo 3 se propone un algoritmo elipsoidal acotado el cual se usa para el entrenamiento de una red neuronal recurrente para la identicacin de sistemas no lineales.

Introduccin Se modica el algoritmo elipsoidal acotado tal que se garantice que se tiene un elipsoide el cual acote la interseccin de dos espacios elipsoidales en cada iteracin. Se actualizan capa oculta y capa de salida. Se prueba la estabilidad del error de identicacin para el algoritmo elipsoidal acotado usando una tcnica semejante a la tcnica de Lyapunov. Desde el punto de vista de sistemas dinmicos, tal entrenamiento es til para todas las aplicaciones de redes neuronales que requieren la actualizacin de los pesos en lnea. En el captulo 4 se presenta un control por modos deslizantes con un aproximador de funciones neuronal. El aproximador de funciones neuronal usa doble zona muerta y una modicacin para asegurar la estabilidad del error de modelado y la no singularidad del controlador. Con el n de reducir el castaeo, se modica el control por modos deslizantes en tiempo discreto utilizando una ganancia variante en tiempo. Se da una condicin necesaria para la existencia de la funcin de conmutacin en tiempo en lazo cerrado del control por modos deslizantes y el aproximador de funciones por discreto, la cual satisface la condicin |s(k)| q donde q > 0. Se prueba que el sistema

redes neuronales es uniformemente estable y que el error de seguimiento de trayectoria est acotado y la cota de este error depende de la cota del error de la incertidumbre estructural. En el captulo 5 se presentan las conclusiones nales de esta tesis y el trabajo a futuro.

Captulo 2 Modelado y control con redes neuronales en tiempo discreto


Este captulo se presenta se presenta la teora general para el control en tiempo discreto aplicado a una planta de naturaleza discreta o aplicado a una planta discretizada y sus mtodos de discretizacin, despus se presenta la teora general para el control en tiempo discreto de una planta en tiempo continuo. Despus se presenta un panorama general de las redes neuronales as como la descripcin de las estructuras de identicacin empleadas para control y el algoritmo de propagacin hacia atrs. Posteriormente se presentan algunas deniciones espacios elipsoidales acotados. Finalmente, se presentan las caractersticas el control por modos deslizantes en tiempo discreto.

2.1.
2.1.1.

Control discreto para plantas en tiempo continuo


Sistema de control por computadora

Un lazo de control de proceso digital variable sencillo con un proceso de tiempo continuo, sistema de datos muestreados una entrada una salida, tendr la conguracin que se muestra en la Figura 2.1. Los subsistemas de actuacin y medicin pueden considerarse incorporados

10

Modelado y control con redes neuronales en tiempo discreto


Controlador digital Retenedor de orden cero Planta continua

R(z) + E(z)

D(z)

M(z)

1eTs s

Gp(s)

Y(s)

Muestreador

Y(z)

Figura 2.1: Sistema de control por computadora en la planta, de modo que la estructura que se aprecia en la Figura es general. La salida continua de planta y(t) debe convertirse en datos de tiempo discreto por muestreo en puntos discretos en el tiempo. De manera fsica, el muestreo se lleva normalmente usando un dispositivo convertidor analgico digital y un programa de muestreo de computadora digital, se da por hecho que el muestreo se lleva a cabo a intervalos iguales de tiempo, es decir, el periodo de muestreo T . La Figura 2.2 deja ver la relacin entre la funcin continua y(t) y la funcin muestreada yk , que es una aproximacin de tiempo discreto de la funcin de tiempo continuo. La funcin muestreada es tambin una secuencia atrasada en el tiempo de valores o nmeros f (kT ), k = 0, 1, . . ., y tiene una transformada z y(z) [18]. Una serie de nmeros mk = m(kT ), k = 0, 1, 2, . . ., es una descripcin limitada de una funcin continua m(t). En particular, los valores en tiempos diferentes de los instantes de muestreo son indenidos y deben aproximarse, por lo comn mediante alguna tcnica de interpolacin. La ms simple de tales reconstrucciones de m(t) que utiliza la informacin mnima es una aproximacin de primer orden o de Euler de pendiente cero ilustrada en

2.2 Control en tiempo discreto

11

Figura 2.2: Operacin del muestreador la Figura 2.3, a esta operacin se le conoce como retenedor de orden cero, es decir, una operacin en la que el valor de cada seal muestreada se mantiene constante con pendiente cero sobre el periodo de muestreo de T unidades de tiempo. El resultado es una seal de patrn de escalera como se muestra en la gura 2.3. Fsicamente, la conversin de los datos de tiempo discreto en una seal de tiempo continuo se suele llevar a cabo con un dispositivo convertidor digital a analgico [18].

2.2.
2.2.1.

Control en tiempo discreto


Control para plantas en tiempo discreto

En este documento se trata con este tipo de controles, en este sistema de control no se tiene periodo de muestreo. Ver Figura 2.4. Hay algunas plantas que se encuentran en tiempo discreto:

12

Modelado y control con redes neuronales en tiempo discreto

mk

Datos de computadora

m(t )

Funcin del retenedor de orden cero

t
Figura 2.3: Operacin del retenedor de orden cero

yr (k) + ec (k)

Controlador en tiempo discreto

Planta en tiempo discreto

y(k)

Figura 2.4: Control de una planta en tiempo discreto

2.2 Control en tiempo discreto

13

yr (k) + ec (k)

Controlador en tiempo discreto

Planta discretizada

y(k)

Figura 2.5: Control de una planta discretizada

1. La planta no se obtiene a travs de un modelo fsico ni a travs de ecuaciones diferenciales sino que se obtiene a travs de anlisis de datos. Por ejemplo: trco urbano, trco de redes, poblacin, etc.

2. El modelo es una caja negra solamente se pueden tomar datos de entrada y salida para el modelado. Por ejemplo, series de tiempo, sistemas nancieros, procesamiento de gas, etc.

Se tratar este caso mas a detalle en las simulaciones de los captulos 3 y 4.

2.2.2.

Control para plantas discretizadas

Este caso se representa en la Figura 2.5. Algunos autores recomiendan que el periodo de muestreo de la planta sea 10 veces ms pequeo que el del controlador para que se aproxime el sistema continuo y que el controlador funcione correctamente [18], [60]. Los mtodos de discretizacin considerados en este texto son el mtodo de Euler y el mtodo de Runge-Kuta los cuales se analizan a continuacin. Notar que se tienen una planta discretizada diferente para cada periodo de muestreo diferente.

14

Modelado y control con redes neuronales en tiempo discreto

Discretizacin de sistemas lineales Primero se va a obtener la representacin en tiempo discreto para la siguiente ecuacin en espacio de estados lineal en tiempo continuo: x(t) = Ax(t) + Bu(t) y(t) = Cx(t) + Du(t)

(2.1)

donde x(t) <n es el vector de estados, u(t) <m es el vector de entradas, A <nxn es

C <rxn es una matriz constante y D <rxm es una matriz constante. La ecuacin (2.1) tiene la siguiente solucin [60]: Zt
0

una matriz constante, B <nxm es una matriz constante, y(t) <r es el vector de salidas,

x(t) = eAt x(0) + eAt

eA Bu( )d

(2.2)

donde x(0) es la condicin inicial de x(t). La representacin de la ecuacin (2.1) en tiempo discreto dada en [60] es: x(k + 1) = G(T )x(k) + H(T )u(k) (2.3)

Notar que las matrices G(T ) y H(T ) dependen del periodo de muestreo T , una ves que el periodo de muestreo es jo, G y H son matrices constantes. Para determinar G(T ) y H(T ), se usa la ecuacin (2.2). Se asume que la entrada u(t) es muestreada y alimentada a un retenedor de orden cero as que todos los componentes de u(t) son constantes en el intervalo entre cualquiera dos instantes consecutivos de muestreo, o: u(t) = u(k) para k t < k + 1 (2.4)

entonces se tiene G(T ) y H(T ) como sigue [60]: G(T ) = eAT H(T ) = ZT
0

(2.5) ZT
0

e dB = e

AT

eAt dtB

(2.6)

2.2 Control en tiempo discreto La salida de la ecuacin (2.1) se convierte en: y(k) = Cx(k) + Du(k)

15

(2.7)

donde las matrices C y D son constantes y no dependen del periodo de muestreo. Si la matriz A es no singular y usando el hecho de que la siguiente equivalencia: H(T ) = eAT ZT
0 d At e dt

= AeAt = eAt A se tiene para H(T)

eAt dtB = A1 eAT eAT I B = A1 eAT I B = eAT I A1 B

(2.8)

Ejemplo 2.1 Considere el sistema en tiempo continuo dado a continuacin: x(t) = ax(t) + u(t) y(t) = x(t) obtener la representacin del sistema en espacio de estados en tiempo discreto. Usando ecuaciones (2.5) y (2.6) se tiene lo siguiente: G(T ) = eaT ZT H(T ) = ea d =
0

1eaT a

por lo tanto el sistema en tiempo discreto es: x (k + 1) = eaT x(k) + y(k) = x(k) Mtodo de Euler para discretizacin de sistemas no lineales El problema que se desea resolver es el siguiente: dada la funcin vectorial f (x, t), encuentre la funcin vectorial x que sea una solucin aproximada a la ecuacin ordinaria vectorial: d x = f (x, t)____x(t0 ) = x0 dt (2.9)
1eaT a

u(k)

16

Modelado y control con redes neuronales en tiempo discreto

N subintervalos de longitud T , de manera que:

para el intervalo de tiempo t0 t tf . Considere el intervalo de tiempo [t0 , tf ], dividido en tk = t0 + kT (2.10)

es posible obtener los valores aproximados x1 , x2 , . . . , xN , para los valores exactos x(t1 ), x(t2 ), . . . , x(tN ), utilizando la aproximacin directa ms sencilla de la derivada en el punto (xk , tk ) que es el 1 (xk+1 xk ) (2.11) T Esta aproximacin da la frmula de recursin conocida como mtodo de Euler [18]: f (xk , tk ) xk+1 = xk + T f(xk , tk )___tk = t0 + kT (2.12) cociente de diferencia:

La desventaja de este sencillo mtodo, es que para una precisin razonable la longitud del paso T debe ser muy pequeo. Ejemplo 2.2 Considere la ecuacin de estado lineal y homognea de primer orden: d x = ax___x(0) = x0 dt La solucin exacta: x(t) = x0 eat (2.14) (2.13)

sabemos que es estable para todo a < 0. Sin embargo, la solucin aproximada, segn el mtodo de Euler, esta determinada por la ecuacin de diferencia: xk+1 = xk + T axk que se escribe como: xk+1 = (1 + T a)xk = pxk ___x0 dado (2.16) El modo para comportamiento de estabilidad es pk o (1+T a)k . As el sistema es inestable para dado que a < 0. todo |1 + T a| > 1, Esto proporciona la estabilidad para el mtodo de Euler como 2 < T a < 0 2 T < a (2.17) (2.15)

2.3 Redes neuronales para modelado Mtodo de Runge-Kuta para discretizacin de sistemas no lineales

17

En el problema de Runge-Kuta para mejorar la solucin de (2.9) consiste en calcular f(x, t) en varios puntos elegidos de manera estratgica cerca de la curva de solucin en el intervalo [tk , tk + T ], y combinar estos valores de tal forma que se obtenga una buena precisin en el incremento calculado xk+1 xk . El mtodo de Runge Kuta de cuarto orden es el siguiente [18]: R1 = T f (xk , tk ) R2 = T f (xk + 1 R1 , tk + 1 T ) 2 2 R3 = T f (xk + 1 R2 , tk + 1 T ) 2 2 R4 = T f(xk + R3 , tk + T ) xk+1 = xk + 1 [R1 + 2R2 + 2R3 + R4 ] 6 Esta frmula es de cuarto orden, lo que en esencia signica que el error global de truncado en el polinomio de aproximacin del orden T 4 . Si bien la funcin f se calcula cuatro veces en cada paso de tiempo, la programacin de las frmulas de la ecuacin (2.18) es relativamente sencilla. (2.18)

2.3.

Redes neuronales para modelado

Una variedad de arquitecturas de redes neuronales para control han sido propuestas para el control de sistemas no lineales con incertidumbre. Una de las principales ventajas de las redes neuronales en el diseo de control no lineal es precisamente la capacidad de construir mapeos no lineales complejos. Por esto, las metodologas con redes neuronales se pueden considerar para identicar no linealidades desconocidas en un sistema y despus utilizar este modelo identicado para construir una ley de control que logre los propsitos de control deseados [28].

18

Modelado y control con redes neuronales en tiempo discreto

y1 y2

w 1 w2
wn
(.)

yn

Figura 2.6: Modelo de una neurona

2.3.1.

Redes neuronales

Una red neuronal articial es un elemento capaz de procesar gran cantidad de informacin de forma paralela y distribuida y esta inspirada en las redes neuronales biolgicas, las cuales pueden almacenar conocimiento y tenerlo disponible para su uso. La red neuronal articial tiene similitudes con el cerebro, como lo son: El conocimiento es adquirido a travs de un proceso de aprendizaje. Las conexiones entre neuronas son llamadas pesos sinpticos y son utilizados para almacenar el conocimiento. La funcin del proceso de aprendizaje es modicar los pesos sinpticos de las redes neuronales con el objetivo de minimizar una funcin de costo. La modicacin de los pesos sinpticos es el mtodo tradicional para el diseo y el funcionamiento de las redes neuronales. La neurona es la unidad fundamental para la operacin de la red neuronal. La Figura 2.6 muestra el esquema de una neurona, el cual esta compuesto por: 1. Un conjunto de pesos sinpticos, con cada elemento caracterizado por su propio peso wi .

2.3 Redes neuronales para modelado

19

2. Un sumador el cual suma los componentes de la seal de entrada, multiplicados por su respectivo peso sinptico denido en 1. 3. Una funcin de activacin no-lineal () que transforma la salida del sumador en la salida y. En trminos matemticos, la neurona se puede describir como: v=
n X j=1

wi xi (2.19)

y = (v) donde: yi wi v y i sima componente de la entrada. peso de la conexin entre la i-sima componente de la entrada y la neurona. salida del sumador. salida neurona.

() funcin de activacin no lineal. La funcin de activacin no-lineal denotada por (), recibe como entrada v y genera el elemento de la salida y. La funcin de activacin () tiene se clasica en: 1. Diferenciable y no diferenciable. Las funciones de activacin diferenciables (por ejemplo la funcin sigmoidal o la funcin tangente hiperblica) son necesarias para algunos algoritmos de adaptacin como es el caso del algoritmo de propagacin hacia atrs, mientras que las funciones discontinuas (por ejemplo la funcin escaln unitario o la funcin signo) se emplean para generar una salida binaria y comnmente se emplea en el perceptrn de una sola capa. 2. Positiva y de promedio cero. Para las funciones diferenciables: las funciones positivas (por ejemplo la funcin sigmoidal) pueden tomar cualquier valor entre 0 y 1 y las funciones de promedio cero (por ejemplo la funcin tangente hiperblica) pueden tomar cualquier valor entre 1 y 1. Para las funciones discontinuas: las funciones positivas

20

Modelado y control con redes neuronales en tiempo discreto (por ejemplo la funcin escaln unitario) pueden tomar los valores de 0 y 1 y las funciones de promedio cero (por ejemplo la funcin signo) pueden tomar los valores de 1 y 1. La forma como se interconectan las neuronas de una red neuronal determina su estructura.

Para propsitos de identicacin y control, las estructuras ms usadas son: 1. Red con conexin hacia adelante de una capa tambin llamada perceptrn de una sola capa. 2. Red con conexin hacia adelante multicapa tambin llamada perceptrn multicapa. 3. Red con funciones de base radial. Las redes neuronales anteriores se les conoce como redes neuronales con conexin hacia adelante o redes neuronales estticas. Redes neuronales con conexin hacia adelante multicapa La red neuronal con conexin hacia adelante multicapa tambin llamada perceptrn multicapa se distingue por la presencia de una o ms capas ocultas, (ver Figura 2.7). Tpicamente, las neuronas en cada capa tienen como seales de entrada las seales de salida de la capa precedente. Si cada neurona en cada capa es conectada con todas las neuronas de las capas adyacentes, entonces la red neuronal es llamada totalmente conectada, en el caso opuesto es llamada parcialmente conectada [28], [29]. Las ecuaciones que describen el perceptrn multicapa son: P yj = n wij yi para j = 1, 2, . . . q i=1 P yi = i (vi ) , vi = m wki yk para i = 1, 2, . . . n k=1

El perceptrn multicapa tiene las siguientes caractersticas [28], [29]:

1. La funcin de activacin para cada neurona debe ser diferenciable a diferencia a la funcin de activacin discontinua la cual se puede usar en el perceptrn de una sola capa. Comnmente, la funcin no-lineal empleada es la sigmoide, denida como sigue: 1 i (vi ) = 1 + evi

2.3 Redes neuronales para modelado

21

y1

w,1 1

1
2

y1

w,1 1

y1

ym

wm,n

n y n

wn,q

yq

Figura 2.7: Perceptrn multicapa 2. La red esta compuesta por una o ms capas ocultas. 3. La red presenta un alto grado de conectividad.

El perceptrn multicapa obtiene su poder computacional a travs de la combinacin de estas caractersticas y su habilidad de aprender de la experiencia. Sin embargo, la presencia de no linealidades distribuidas y la alta conectividad de la red complican su anlisis terico.

2.3.2.

Algoritmo de propagacin hacia atrs en tiempo discreto

El algoritmo de aprendizaje usado para ajustar los pesos del perceptrn multicapa es conocido como el algoritmo de propagacin hacia atrs. En la Figura 2.8 se muestra una parte del perceptrn multicapa, donde dj es la salida deseada, yi es la i sima neurona de salida, i, j y k indican neuronas, wij son los pesos entre la neurona i y la neurona j. i () es la funcin de activacin no lineal para la i sima neurona.

22

Modelado y control con redes neuronales en tiempo discreto

dj k Wki vi i yi n Wij vj j yj

Figura 2.8: Algoritmo de propagacin hacia atrs La salida del perceptrn multicapa es: yj = j (vj ) , vj =
n X i=1

wij yi

El error de la neurona de salida j esta dado como sigue: ej (k) = yj (k) dj (k) La suma instantnea de la suma de los errores de salida cuadrados es: 1X 2 (k) = e (k) 2 j=1 j donde q es el nmero de neuronas en la capa de salida. Usando el gradiente descendente, se actualizan los pesos que conectan las neuronas i y j como sigue: wij (k + 1) = wij (k) donde es el coeciente de aprendizaje. El trmino (k) wij (k) se calcula como sigue:
q

(k) wij (k)

(k) (k) ej (k) yj (k) vj (k) = wij (k) ej (k) yj (k) vj (k) wij (k)

2.3 Redes neuronales para modelado Las derivadas parciales son


(k) ej (k)

23
ej (k) yj (k)

= ej (k) ,

= 1,

yj (k) vj (k)

Comnmente se usa una funcin lineal en la capa de salida, as: wij (k + 1) = wij (k) yi (k) ej (k) Similarmente wki se calcula como sigue: wki (k + 1) = wki (k) donde: yi = i (vi ) , el trmino
(k) wki (k)

0 = j vj (k) ,

vj (k) wji (k)

= yi (k) .

(2.20)

(k) wki (k)

vi =

m X k=1

wki yk

se calcula como sigue: = o n 0 0 ej (k) j vj (k) wij (k) i [vi (k)] yk (k) = 0 0 ej (k) wij (k) i [vi (k)] yk (k) = ei (k)i [vi (k)] yk (k) wki (k + 1) = wki (k) yk (k) ei (k) i [vi (k)]
0

(k) wki (k)

(k) ej (k) yj (k) vj (k) yi (k) vi (k) ej (k) yj (k) vj (k) yi (k) vi (k) wki (k)

donde ei (k) = ej (k) wij (k). As

(2.21)

donde ei (k) i [vi (k)] es el error de propagacin hacia atrs. El algoritmo de propagacin hacia atrs se ha convertido en el algoritmo ms popular para el entrenamiento del perceptrn multicapa [74]. Este es fcil de calcular y esta habilitado para clasicar informacin no lineal separable. El algoritmo de propagacin hacia atrs usa la tcnica del gradiente, la tcnica del gradiente en cada paso busca el mnimo de una funcin de costo del error de identicacin, este podra ser un mnimo local y no se tendra optimizacin, as que no es posible demostrar la convergencia del error de identicacin hacia un mnimo global. La investigacin de un algoritmo ms rpido al algoritmo de propagacin hacia atrs para entrenar lo pesos de la red neuronal considera dos categoras. La primera categora considera

24

Modelado y control con redes neuronales en tiempo discreto

tcnicas heursticas dentro de las cuales incluye considerar un coeciente de aprendizaje variante en tiempo, usar el momento o usar variables de escalamiento [28]. En la otra categora de investigacin se han considerado tcnicas de optimizacin en donde la red neuronal con conexin hacia adelante se convierte en un problema de optimizacin.

2.3.3.

Estructuras de identicacin que usan las redes neuronales

A continuacin se presentan 4 estructuras para la representacin de plantas con una entrada y una salida, stas se pueden generalizar para el caso multivariable. Estas estructuras se han usado en sistemas adaptables para la identicacin y para el control de sistemas no lineales. Las cuatro estructuras para plantas en tiempo discreto se describen mediante las siguientes ecuaciones de diferencias: Estructura I Estructura II y(k + 1) =
n1 X i=0

i y(k i) + g [u(k), u(k 1), . . . , u(k m + 1)]


m1 X j=0

y(k + 1) = f [y(k), y(k 1), . . . , y(k n + 1)] +

j u(k j)

Estructura III y(k + 1) = f [y(k), y(k 1), . . . , y(k n + 1)] + g [u(k), u(k 1), . . . , u(k m + 1)] Estructura IV y(k + 1) = f [y(k), y(k 1), . . . , y(k n + 1); u(k), u(k 1), . . . , u(k m + 1)] (2.22)

donde i < para i = 0 . . . n y j < para j = 0 . . . m son parmetros constantes desconocidos, m n, u(k) < es la entrada de la planta y y(k) es la salida de la planta, f [], g [] < son funciones no lineales de las cuales se desconoce su comportamiento. neuronal que sea la misma que tiene la planta. A continuacin se muestran las estructuras de identicacin para el Modelo I con n = 1 y m = 1 como se denota a continuacin [56]: y(k + 1) = 0 y(k) + g [u(k)] El argumento es similar para las otras 3 estructuras de identicacin.

Una aproximacin obvia del mtodo del sistema es seleccionar la estructura de la red

2.3 Redes neuronales para modelado

25

z 1
u(k )
Planta
y(k )
+

e(k )
_ Re d _ neuronal

y(k )

z 1
Figura 2.9: Estructura de identicacin paralela (a) Estructura de identicacin paralela En este caso se tiene la estructura siguiente: y (k + 1) = 0 y (k) + N [u(k)] b b b (2.23)

esta estructura de identicacin se encuentra en la Figura 2.9. (b) Estructura de identicacin serie paralela En este caso se tiene la estructura siguiente: y (k + 1) = 0 y(k) + N [u(k)] b b (2.24)

esta estructura de identicacin se encuentra en la Figura 2.10. El proceso de identicacin consiste en la estimacin del parmetro 0 y en ajustar los parmetros de la red neuronal para aproximar la funcin no lineal g [u(k)], esto se hace comnmente con el algoritmo de propagacin hacia atrs basndose en el error e(k) entre la no consideran perturbaciones directamente. salida de la estructura de identicacin y (k) y la salida de la planta y(k). Estas estructuras b

26

Modelado y control con redes neuronales en tiempo discreto

z 1
u(k )
Planta
y(k )
+

e(k )
_ Re d _ neuronal

y(k )

Figura 2.10: Estructura de identicacin serie paralela

2.4.

Espacios elipsoidales

Denicin 2.1 Un espacio elipsoidal E1 = E1 (b, P ) es todos los x que caen dentro del x siguiente espacio [69], [79]: n o E1 = x R4m | (b x )T P 1 (b x ) 1 x x (2.25)

propios de P , (1 , . . . , 4m ) como caso de dos dimensiones.

donde P > 0, el centro de la elipsoide se determina por x, la orientacin del elipsoide esta b dado por los vectores propios de P , (u1 , . . . , u4m ), y los ejes estn dados por los valores
1 i

[69], [79], en Figura 2.11 se ve un ejemplo para un " #

y eje mayor= 1 2 = 1. Los vectores propios se obtienen de i ui = P ui para i = 1, 2, se tiene

y s R escalar. Se tiene que 1 = 9 y 2 = 1, entonces se va a tener eje menor= 1 1 =

Ejemplo 2.3 Gracar la elipsoide que corresponde al espacio elipsoidal con P = 4 5 " # 3 yx= b . 4 Los valores propios de P se obtienen con det (sI P ) = 0 con I R22 matriz identidad
1 3

5 4

2.4 Espacios elipsoidales

27

u2

u1

E1

Figura 2.11: Espacio elipsoidal " 1 # " 1 #

y u2 = los cuales determinan la orientacin de eje menor y eje mayor, 1 1 respectivamente a partir del centro x. El resultado de ve en la Figura 2.12. b u1 =

n o 1 b b La interseccin de dos espacios elipsoidales Ea = x R4m : [x xa ]T Pa [x xa ] 1 n o T 1 n b b y Eb = x R : [x xb ] Pb [x xb ] 1 denotada como Ea Eb en general no es un de los espacios elipsoidales, el cual de denota como Ea Eb Ec .

espacio elipsoidal. Entonces se emplea un espacio elipsoidal Ec el cual contenga la interseccin

Denicin 2.2 La interseccin elipsoidal denotada como Ec se dene como sigue [41], [69], [79]: n o T T n 1 1 b b b b Ec = x R : (1 ) [x xa ] Pa [x xa ] + [x xb ] Pb [x xb ] 1 (2.26)

Eb , respectivamente. Ver Figura 2.13.

1 b b b donde (1 ) [x xa ]T Pa [x xa ] 1 y [x xb ]T Pb1 [x xb ] vienen de Ea y b

28

Modelado y control con redes neuronales en tiempo discreto

X2

1
4
(3,4)

u1

1/ 3

E1
3 2 1

u2

X1

Figura 2.12: Ejemplo de un espacio elipsoidal

Ea Eb

Eb Ea Ec

Figura 2.13: Espacio elipsoidal que contiene la interseccin de dos espacios elipsoidales

2.5 Control por modos deslizantes en tiempo discreto

29

2.5.

Control por modos deslizantes en tiempo discreto

El mtodo de modos deslizantes tradicional se presenta como la aplicacin de una seal de control conmutando a alta frecuencia que consigue llevar el estado del sistema a una supercie cercana al origen denominada supercie de deslizamiento o funcin de conmutacin y una vez llegando a la supercie de deslizamiento se debe permanecer en sta ante posibles perturbaciones externas. Dicha supercie de deslizamiento es denida por el diseador con el objeto de que el estado cumpla las especicaciones deseadas. La principal ventaja del control por modos deslizantes es que aporta robustez ante perturbaciones, tanto internas como externas, cuando estas tienen cotas conocidas.

2.5.1.

Generalidades acerca de los modos deslizantes en tiempo continuo

En aos recientes, se ha tenido mayor atencin hacia los sistemas donde se emplea una accin de control discontinua [86]. Debido a una seleccin inteligente de la accin de control, las trayectorias del estado podran cambiar tal que correspondan con las trayectorias deseadas en el sistema controlado. El problema de diseo de controlador se puede reducir a un problema de convergencia hacia una supercie especial. Cuando se satisfacen ciertas condiciones, se tiene un tipo de movimiento llamado modos deslizantes [87]. Los modos deslizantes tienen ciertas caractersticas atractivas. La idea bsica en el diseo de sistemas con modos deslizantes corresponde con los siguientes dos pasos: Primero, se tiene el movimiento de modos deslizantes debido a la seleccin apropiada de las supercies discontinuas; Segundo, se elige la ley de control tal que la supercies de discontinuidad sea estable. Formalmente, tales sistemas discontinuos se podran describir mediante la siguiente ecuacin x = f (x, t, ut )

(2.27)

30

Modelado y control con redes neuronales en tiempo discreto

donde xt <n es el vector de estados del sistema y ut <m es una entrada de control discontinua, t <+ . Se dene una clase de control discontinuo como sigue: ut,i = ( u+ (x, t) t,i u t,i (x, t) si si (x) > 0 si si (x) < 0 i = 1, 2 . . . , m

(2.28)

donde ut = [ut,1 , ut,2 , . . . ut,m ]T y todas las funciones u+ (x, t) y u (x, t) son continuas. La t,i t,i funcin si (x) es la supercie de discontinuidad denida por: si (x) = 0, Comnmente se dene como sigue: si (x) <1 , i = 1, 2 . . . , m

si (x) |x=xt,i x = ki x, t,i

ki > 0

donde x es el i-simo componente de la trayectoria deseada. t,i Algunas estrategias de conmutacin de los controles continuos u+ (x, t) y u (x, t) podran i i llevar a un comportamiento discontinuo en donde las trayectorias podran ser no acotadas. Modos deslizantes existen en una supercie de discontinuidad cuando para cualquier distancia a esta supercie y sus velocidades s son de signo contrario, es decir: l s > 0 y l s < 0 m m
s+0

s0

(2.29)

o si si < 0 La condicin (2.29) es til para la determinacin de u+ (x, t) y u (x, t) . El problema de eni i contrar el dominio de modos deslizantes se puede reducir al problema especco de garantizar la estabilidad de un sistemas no lineal.

2.5 Control por modos deslizantes en tiempo discreto

31

2.5.2.

Generalidades acerca de los modos deslizantes en tiempo discreto

Considere un sistema no lineal una entrada una salida en tiempo discreto que tiene la forma: x(k + 1) = F (x(k), u(k)) y(k) = h (x(k)) (2.30)

y(k) Y R es la salida del sistema, se considera que las funciones F : X U X y h : X Y son analticas. salida s(k) = y(k). Una ley de control por retroalimentacin de estructura variable para el sistema (2.30) es la siguiente: u= con u+ (x) > u (x) en X. u+ (x) para h(x) > 0 u (x) para h(x) < 0 0 para h(x) = 0 Comentario 2.1 En esta seccin se va a considerar la supercie de deslizamiento como la

denido x(k) X Rn es el estado del sistema, u(k) U R es la entrada del sistema,

(2.31)

Denicin 2.3 El sistema controlado (2.30) presenta un movimiento deslizante alrededor de Z = {x X : h (x(k)) = 0} cuando se satisface la siguiente condicin [82]: y(k) [y(k + 1) y(k)] < 0 (2.32)

Comentario 2.2 Notar que el movimiento deslizante no se crea con una ley de control discontinua de la forma (2.31). De todas maneras es importante darse cuenta que se puede alcanzar el movimiento deslizante con una ley de control continua. La denicin anterior es la contraparte en tiempo discreto para la condicin de modos deslizantes en tiempo continuo dada como y dy < 0 y se puede considerar su equivalente dt

32

Modelado y control con redes neuronales en tiempo discreto

movimientos deslizantes inestables como en el siguiente ejemplo.

en tiempo discreto como y(k) [y(k + 1) y(k)] < 0. La condicin (2.32) permite tambin

Ejemplo 2.4 Considere el siguiente sistema no lineal en tiempo discreto x1 (k + 1) = 1 + x1 (k) x2 (k + 1) = x1 (k)u(k) y(k) = x2 (k) con x1 (1) = 1 y x2 (1) 6= 0.

Se propone la siguiente ley de control de estructura variable: u(k) = sign (y(k))

En este caso se tiene y(k + 1) = x2 (k + 1) = x1 (k)u(k) = x1 (k)sign (y(k)), por lo tanto se tiene: y(k) [y(k + 1) y(k)] = y(k) [x1 (k)sign (y(k)) y(k)] y(k) [y(k + 1) y(k)] = x1 (k) |y(k)| y 2 (k) < 0 donde se satisface condicin (2.32) para todos los x1 (k) 0. El comportamiento de la salida del sistema y(k) con el control que satisface la condicin de modos deslizantes (2.32) es claramente inestable como se ve en la Figura 2.14. Denicin 2.4 El sistema controlado (2.30) presenta un movimiento convergente alrededor de Z = {x X : h (x(k)) = 0}, si existe una ley de control para la cual se satisface la siguiente condicin [82]: |y(k + 1)| < |y(k)| (2.33)

Comentario 2.3 Se puede pensar que el movimiento en modos deslizantes en tiempo discreto produzca castaeo, el castaeo ocurre en el movimiento en modos deslizantes en tiempo continuo. Con las condiciones (2.32) y (2.33) puede o no presentarse castaeo.

2.5 Control por modos deslizantes en tiempo discreto

33

Figura 2.14: Comportamiento de la salida del sistema y(k) con el control que satisface la condicin de modos deslizantes (2.32) Ejemplo 2.5 Considere el sistema: x1 (k + 1) = x2 (k) x2 (k + 1) = u(k) y(k) = ax1 (k) + x2 (k) con |a| < 1, x1 (1) = 5 y x2 (1) = 5.

Se propone la siguiente ley de control: u(k) = a2 x1 (k)

En este caso se tiene y(k + 1) = ax1 (k + 1) + x2 (k + 1) = ax2 (k) + u(k) = ax2 (k) + a2 x1 (k) = a [ax1 (k) + x2 (k)] = ay(k) donde se satisface la condicin (2.33) para |a| < 1. Si 0 < a < 1 el movimiento deslizante

condiciones alrededor de y = 0 como se ve en la Figura 2.16.

alcanza y=0 de manera asinttica como se ve en la Figura 2.15. Si 1 < a < 0 se tiene

34

Modelado y control con redes neuronales en tiempo discreto

Figura 2.15: Comportamiento de la salida del sistema y(k) con el control que satisface la condicin de modos deslizantes (2.33) para a = 0,5

Figura 2.16: Comportamiento de la salida del sistema y(k) con el control que satisface la condicin de modos deslizantes (2.33) para a = 0,5

2.5 Control por modos deslizantes en tiempo discreto

35

Lemma 2.1 Una condicin necesaria para la existencia de un movimiento deslizante y convergente alrededor de Z = {x X : h (x(k)) = 0}, es que se satisfaga la condicin de modos deslizantes dada en (2.33), [82]. Demostracin. Suponga que se satisface la condicin (2.33), entonces se tiene |y(k + 1)| |y(k)| < |y(k)|2

y(k + 1)y(k) < |y(k + 1)y(k)| < y 2 (k) y(k) [y(k + 1) y(k)] < 0 Como se tiene (2.32) si se satisface el lema. Teorema 2.1 Se tiene un movimiento en modos deslizantes convergente si y solo si [82]: |y(k + 1)y(k)| < y 2 (k) (2.34)

Demostracin. La necesidad se tiene del lema anterior. La suciencia se tiene empleando el hecho de que |y(k + 1)y(k)| = |y(k + 1)| |y(k)| < y 2 (k), es decir se tiene |y(k + 1)| < |y(k)|. Ejemplo 2.6 Considere el siguiente sistema no lineal en tiempo discreto x1 (k + 1) = 1 + x1 (k) x2 (k + 1) = x1 (k)u(k) y(k) = x2 (k) con x1 (1) = 1 y x2 (1) 6= 0.

Se propone la siguiente ley de control de estructura variable: u(k) = ax2 (k)x1 (k)sign (y(k)) 1

ay(k)sign (y(k)), por lo tanto se tiene:

con |a| < 1. En este caso se tiene y(k + 1) = x2 (k + 1) = x1 (k)u(k) = ax2 (k)sign (y(k)) = y(k) [y(k + 1) y(k)] = y(k) [ay(k)sign (y(k)) y(k)] y(k) [y(k + 1) y(k)] = y 2 (k) [asign (y(k)) + 1] < 0

36

Modelado y control con redes neuronales en tiempo discreto

Figura 2.17: Comportamiento de la salida del sistema y(k) con el control que satisface la condicin de modos deslizantes (2.34) para a = 0,5 es decir existe movimiento deslizante alrededor de y = 0. Tambin se tiene |y(k + 1)| = |ay(k)sign (y(k))| = |a| |y(k)| < |y(k)| es decir se tiene convergencia alrededor de y = 0. El resultado se muestra en la Figura 2.17.

La condicin (2.33) puede asegurar la convergencia en la funcin de conmutacin del error de seguimiento de trayectoria a una regin cercana al origen, pero es muy dicil disear un controlador que satisfaga esta condicin. As [2] da otra condicin de modos deslizantes en tiempo discreto, la supercie de deslizamiento s(k) = 0 debe satisfacer: |s(k)| q (2.35)

donde el parmetro q > 0 es llamado ancho de banda de los modos deslizantes. Este no requiere que la trayectoria cruce la supercie de deslizamiento en cada paso de control.

2.6 Conclusin

37

2.6.

Conclusin

Habiendo comprendido este captulo, se considera que se tienen los conocimiento bsicos para comprender de mejor manera lo expuesto en los captulos siguientes.

38

Modelado y control con redes neuronales en tiempo discreto

Captulo 3 Modelado con una red neuronal recurrente y el algoritmo elipsoidal acotado
3.1. Introduccin

Resultados recientes muestran que la tcnica de redes neuronales es muy efectiva para identicar una gran cantidad de sistemas no lineales complejos cuando no se tiene informacin completa del modelo. Las redes neuronales se clasican en redes neuronales con conexin hacia adelante y redes neuronales recurrentes [28]. Aunque el algoritmo de propagacin hacia atrs se ha usado ampliamente como mtodo de entrenamiento para redes neuronales, la limitacin es que este algoritmo tiene una convergencia de parmetros muy lenta. La estabilidad de un algoritmo de gradiente descendiente modicado se da en [93]. Para resolver este problema, se han propuesto en la identicacin y la teora de ltraje algoritmos para estimar los pesos de la red neuronal. Por ejemplo, el algoritmo del ltro de Kalman extendido aplicado al entrenamiento de redes neuronales en [36], [61], [70], [73] y [81]. La mayora de los autores mencionados usan redes neuronales estticas, algunas veces se considera que la capa de salida (lineal) se actualiza en cada iteracin y en la capa oculta (no lineal) los

40

Modelado con una red neuronal recurrente y el algoritmo elipsoidal acotado

pesos se eligen aleatoriamente al principio del entrenamiento [10]. Se tiene una convergencia en parmetros ms rpida con el algoritmo del ltro de Kalman extendido, por que este alcanza la convergencia de parmetros en menos iteraciones [36]. De cualquier manera, se incrementa la complejidad computacional en cada iteracin, esto es, este requiere una gran cantidad de memoria. Se usa la tcnica de desacoplamiento para decrementar la complejidad computacional [65], algoritmo del ltro de Kalman extendido con matriz de covarianza del error en parmetros diagonal es similar al algoritmo de propagacin hacia atrs [28], pero el coeciente de aprendizaje del algoritmo del ltro de Kalman es una matriz variante en tiempo. Una gran desventaja del algoritmo del ltro de Kalman extendido esta en el anlisis del algoritmo ya que se requiere que la incertidumbre estructural de la red neuronal se modele como un proceso Gaussiano. El algoritmo elipsoidal acotado requiere solamente que la incertidumbre estructural de la red neuronal est acotada y este tiene estructura similar al algoritmo del ltro de Kalman extendido [79]. El algoritmo elipsoidal acotado ofrece una atractiva alternativa para problemas de identicacin y ltraje que consideran sistemas anes en parmetros. En 1979 L.G.Khachiyan indic como un mtodo elipsoidal se puede implementar para programacin lineal [3]. Este resultado ha causado gran inters y ha estimulado a la investigacin en este tema. La tcnica elipsoidal tiene importantes ventajas en la estimacin de estados con perturbaciones acotadas [21]. Hay muchas aplicaciones potenciales para problemas semejantes a la programacin lineal. [89] obtuvo elipsoides los cuales eran validos para un nmero nito de datos. [69] present una programacin elipsoidal tal que el nuevo elipsoide satisface una relacin afn con otro elipsoide. En [12], el algoritmo elipsoidal se usa como una tcnica de optimizacin que toma en cuenta las restricciones sobre coecientes agrupados. [52] describi a detalle varios mtodos que pueden ser usados para derivar una incertidumbre elipsoidal apropiada. En [57], se considera el problema elipsoidal con comportamiento asinttico para sistemas lineales en tiempo discreto. Hay pocas publicaciones de elipsoides en combinacin con redes neuronales. En [15] se usan aprendizajes supervisado y no supervisado en forma elipsoidal para encontrar y sintonizar las reglas de funciones difusas para un proceso de identicacin difuso. En [42] se proponen funciones de activacin de tipo

3.2 Red neuronal recurrente para modelacin de sistemas no lineales

41

elipsoidal para redes neuronales con conexin hacia adelante. De la revisin de literatura se ha encontrado que hasta ahora no se ha propuesto un algoritmo elipsoidal acotado para el entrenamiento de una red neuronal recurrente. En esta seccin se propone un algoritmo elipsoidal acotado el cual se usa para el entrenamiento de los pesos de una red neuronal recurrente para la identicacin de sistemas no lineales. Se actualizan capa tanto la oculta como la capa de salida. Se prueba la estabilidad del error de identicacin para el algoritmo elipsoidal acotado usando una tcnica semejante a la tcnica de Lyapunov. Desde el punto de vista de sistemas dinmicos, tal entrenamiento es til para todas las aplicaciones de redes neuronales que requieren la actualizacin de los pesos en lnea. Una simulacin muestra la efectividad del algoritmo propuesto.

3.2.

Red neuronal recurrente para modelacin de sistemas no lineales

Considere el siguiente sistema no lineal en tiempo discreto: x(k + 1) = f [x(k), u(k)] (3.1)

donde u (k) <m es el vector de entrada, |u(k)|2 u, x (k) <n es el vector de estados, red neuronal recurrente para identicar la planta (3.1):

u (k) y x (k) son conocidos. f es una funcin suave no lineal, f C . Se usa la siguiente

W1,k , W2,k Rmn , es una funcin m dimensional, = [ 1 m ]T , () <mm es una

estable. Los pesos de la capa de salida son V1,k , V2,k Rnm , los pesos de la capa oculta son

donde x (k) <n representa el estado de la red neuronal. La matriz A <nn es una matriz b

x(k + 1) = Ab(k) + V1,k [W1,k x(k)] + V2,k [W2,k x(k)] u(k) b x

(3.2)

42

Modelado con una red neuronal recurrente y el algoritmo elipsoidal acotado

A V1Tk , z 1 x (k )

W1Tk ,

x (k + 1)

V
T 2 ,k

MLP W2T,k MLP u(k )

Figura 3.1: Estructura de la red neuronal recurrente matriz diagonal. [W1,k x(k)] = [ 1

w1,1,j xj , 2 w1,2,j xj , m w1,m,j xj ]T j=1 ! j=1 n ! j=1 n ! n X X X [W2,k x(k)] u(k) = [1 w2,1,j xj u1 , 2 w2,2,j xj u2 , m w2,m,j xj um ]T
j=1 j=1 j=1

n X

n X

n X

(3.3)

donde i y i son funciones sigmoidales o funciones tangentes hiperblicas Ver Figura 3.1. El sistema no lineal (3.1) se puede escribir en la siguiente forma: x(k + 1) = Ax(k) + V1,k [W1,k x(k)] + V2,k [W2,k x(k)] u(k) (k) (3.4)

donde (k) es la incertidumbre estructural. Debido a [45] se conoce que el termino (k) se puede hacer arbitrariamente pequeo seleccionando el numero apropiado de neuronas en la

3.2 Red neuronal recurrente para modelacin de sistemas no lineales

43

capa oculta de (3.2), este es m. En el caso de dos variables independientes, una funcin suave f tiene la siguiente expansin de Taylor cerca al punto [x0 , x0 ] , 1 2 l1 X 1 k 0 0 f= + x2 x2 f + x1 x1 k! x1 x2 0 k=0
0 x0 , x0 corresponden con W1 x (k) y V10 , entonces se tiene: 1 2

(3.5)

donde es el residuo de la serie de Taylor. Si x1 y x2 corresponden con W1,k x (k) y V1,k , 0 V1,k [W1,k x(k)] = V10 W1 x (k) + 1,k B1,k + 1

(3.6)

respecto a W1,k x(k), ver la denicin (3.3), 0 <mm , similarmente se obtiene: 0 V2,k [W2,k x(k)] u(k) = V20 W2 x (k) u(k) + 2,k B2,k + 2

T 0 0 T donde V10 , V20 , W1 y W2 son los pesos iniciales constantes conocidos, B1,k = , 0 V1,k x T T R2m1 , 1,k = V1,k , W1,k Rn2m , 0 es la derivada de la funcin de activacin () con (3.7)

tidumbre estructural como sigue:

T T T T donde B2,k = u, 0 diag(u)V2,k x (k) , 2,k = V2,k , W2,k . Se dene el error de la incer(k) = 1 + 2 (k) (3.8)

substituyendo (3.6) y (3.7) en (3.4) se tiene: y(k) = k Bk + (k) donde el parmetro es: T T T k = [1,k , 2,k ]T = V1,k , W1,k , V2,k , W2,k Rn4m T T T Bk = [B1,k , B2,k ]T = , 0 V1,k x, u, 0 diag(u)V2,k x (k) R4m1 0 0 y(k) = x(k + 1) Ax(k) V10 W1 x (k) V20 W2 x (k) u(k) (3.10) (3.9)

el dato es:

(3.11)

la salida es:

(3.12)

44

Modelado con una red neuronal recurrente y el algoritmo elipsoidal acotado Se escribe (3.9) y (3.12) en forma de salidas individuales:
T yi (k) = Bk i (k) + i,k

(3.13)

donde i = 1 n, i (k) R4m1 , k = [1 (k) , n (k)]T , y (k) = [y1 (k) , yn (k)] , T = 1,k n,k , Bk R4m1 . La salida de la red neuronal recurrente (3.1) se dene como:
T yi (k) = Bk i (k) b

0 0 yi (k) = xi (k + 1) ai xi (k) + V10 W1 xi (k) + V20 W2 xi (k) u(k)

(3.14)

El error del entrenamiento se dene como:

Entonces se dene el error de identicacin como sigue:


i

ei (k) = yi (k) yi (k) b


i

(3.15)

(k) entre la planta (3.1) y la red neuronal (3.2) (3.16)

3.3.

Algoritmo elipsoidal para el entrenamiento de los pesos de la red neuronal

(k) = xi (k) xi (k) b

Ahora se usa el algoritmo elipsoidal acotado para entrenar los pesos de la red neuronal (3.2) tal que se garantize que el error de identicacin
i

(k) est acotado.

elipsoidal en general. El espacio elipsoidal Ec contiene la interseccin normal de los espacios ptima ( ), ver [41], [69] y [79]. En este documento, no se trata de encontrar , se va a disear un algoritmo tal que el nuevo elipsoide que contiene la interseccin sea cada vez ms pequeo. La Figura 2.13 muestra esta idea. elipsoidales, Ea Eb Ec y existe un elipsoide mnimo el cual corresponde a encontrar

La interseccin de dos espacios elipsoidales Ea Eb denida en (2.26) no es un espacio

3.3 Algoritmo elipsoidal para el entrenamiento de los pesos de la red neuronal

45

Ahora se usa la denicin de elipsoide dada en (2.25) para la identicacin de los pesos de la red neuronal, se dene el espacio elipsoidal Ek como sigue: n o T 1 Ek = i (k) | ei (k)Pk ei (k) 1 (3.17)

donde ei (k) = i (k), es el peso ptimo que minimiza la incertidumbre estructural i,k i i
T en (3.13), Pk = Pk > 0. T A1 Se asume que yi (k) Bk pertenece a un espacio elipsoidal Sk , i

i = 1 n. La ecuacin (3.18) se puede escribir como sigue:


T yi (k) = Bk + i,k i

donde i > 0 es la cota conocida del error de la incertidumbre estructural i,k , | i,k | < i ,

1 T T 2 Sk = Bk i | 2 yi (k) Bk i 1 i

(3.18)

(3.19)

A2 Se asume que el error de los pesos iniciales esta dentro de una elipsoide denotada como E1 n o eT (1)P 1ei (1) 1 E1 = i (1) | i 1 (3.20)

T Comentario 3.1 La suposicin A1 requiere que el trmino yi (k) Bk sea acotado por i la planta (3.1) tiene entrada acotada y salida acotada, es decir, x(k) y u(k) en (3.1) son acotados y dado que y son acotados: 0 0 T T yi (k) Bk = xi (k + 1) ai xi (k) + V10 W1 xi (k) + V20 W2 xi (k) u(k) Bk i i

T donde P1 = P1 > 0, P1 R4m4m , ei (1) = i (1), es el peso desconocido ptimo. i i

i . En esta seccin se considera solamente la identicacin en lazo abierto, se asume que

T todos los datos son acotados, entonces yi (k) Bk tambin es acotado. La suposicin i A2 requiere que los pesos iniciales de la red neuronal sean acotados, esto se puede lograr eligiendo P1 y bi (1) adecuados.

46

Modelado con una red neuronal recurrente y el algoritmo elipsoidal acotado Se puede ver que la parte comn de los espacios elipsoidales S1 , S2 , es , as: i { } i
k \

Sj

(3.21)

j=1

macin en (3.21) crece linealmente con k. De cualquier manera, evaluar i (k) en (3.21) es el centro comn de los espacios elipsoidales E1 , E2 , ,as: { } i
k \

Encontrar { } utilizando esta propiedad es una tarea dicil ya que la cantidad de infori

encontrar la solucin de ecuaciones de 2k n orden. Desde la denicin de Ek en (3.17), es i

Ej ,

j=1

{ } Ek i

(3.22)

Entonces el problema de identicacin es encontrar el espacio elipsoidal Ek el cual satisfaga (3.22). Se va a encontrar un algoritmo recursivo de identicacin tal que Ek+1 se encuentra en el espacio que corresponde a Ek y a los datos [yi (k) , Bk ] . Debido a que los dos elipsoides satisfacen (3.17) y (3.18), se calcula la interseccin de elipsoides (1 k ) Ek + k Sk , sta interseccin satisface:
T 1 (1 k ) ei (k)Pk ei (k) (1 k ) 1 yi (k) B T 2 k k i 2 k i 2 T 1 T k (1 k ) ei (k)Pk ei (k) + 2 yi (k) Bk 1 i
i

(3.23)

El siguiente teorema muestra el proceso de propagacin de los elipsoides. Teorema 3.1 Si Ek en (3.17) es un espacio elipsoidal, se usa el siguiente algoritmo recursivo para actualizar Pk y i (k): Pk+1 =
1 1k

i (k + 1) = i (k) + (k) ( 2 2 i i , si e2 (k) 1 T i 1+Bk Pk Bk k = 2 i si e2 (k) < 1 0, i

h i k T Pk Pk Bk (1k ) 2 +k BT Pk Bk Bk Pk
i k

k P B e 2 k+1 k i i

(3.24)

3.3 Algoritmo elipsoidal para el entrenamiento de los pesos de la red neuronal

47

donde P1 es una matriz positiva denida, 0 < < 1 y 0 < 2 < 1, 0 < k < 1 y i (1 k ) > 0, entonces Ek+1 es un espacio elipsoidal y satisface: T k 1 e 2 Ek+1 = i (k + 1) | ei (k + 1)Pk+1 i (k + 1) 1 2 [1 ] ei (k) 1 i donde ei (k) = i (k) y ei (k) estn dados en (3.15).
i 1 Pk+1

(3.25)

Demostracin. Primero se aplica el lema de inversin de matrices [26] para calcular en (3.24): #1 1 k k T T = (1 k ) Pk Pk 2 Bk Bk Pk 2 Bk + (1 k ) Bk Pk i i " 1 DA1 (A + BCD)1 = A1 A1 B DA1 B + C 1

1 Pk+1

el lema de inversin de matrices es:

donde A, B, C y D son matrices de dimensiones adecuadas. La pasada ecuacin se escribe como sigue: 1 1 A1 A1 B DA1 B + C 1 DA1 = A + BCD

Especcamente usando A R4m4m , B R4m1 , C R11 y D R14m , A1 = Pk , B=


k B , 2 k i 1 T C 1 = (1 k ) y D = Bk , se tiene que Pk+1 es: i h 1 1 1 T k Pk+1 = (1 k ) Pk + 2 Bk (1k ) Bk
i

= (1

1 k ) Pk

k B BT 2 k k i

(3.26)

1 Ahora se calcula ei (k + 1)T Pk+1ei (k + 1) para e2 (k) i k P B e 2 k+1 k i i

2 i 1

(k) se tiene:

Substituyendo (3.26) en (3.27), se tiene el siguiente resultado: eT (k + 1)P 1 ei (k + 1) i h k+1 T = e (k) (1 k ) P 1 +


i

2 eT (k + 1)P 1 ei (k + 1) = eT (k)P 1 ei (k) 2 k eT (k)Bk ei (k) + k B T Pk+1 Bk e2 (k) (3.27) i i i k+1 k+1 2 i 4 k i i

por (3.24) o ei (k + 1) = ei (k)

= (1

T 2 T k k k B B T ei (k) 2 2 ei (k)Bk ei (k) + 4 Bk Pk+1 Bk e2 (k) i k 2 k k i i i T 2 T k eT k eT 1e Te k k ) ei (k)Pk i (k) + 2 i (k)Bk Bk i (k) 2 2 i (k)Bk ei (k) + 4 Bk Pk+1 Bk e2 i i i i

(k) (3.28)

48

Modelado con una red neuronal recurrente y el algoritmo elipsoidal acotado

Debido a la propiedad de interseccin de espacios elipsoidales (3.23), se tiene lo siguiente: 2 T k 1 T (1 k ) ei (k)Pk ei (k) 1 2 yi (k) Bk i i

Entonces (3.28) se convierte:

T Ahora usando ei (k) = i (k), ei (k) = yi (k)Bk i (k) como en (3.15), el segundo trmino i

eT (k + 1)P 1 ei (k + 1) i k+1 2 T T 2 T k T T k k k 1 2 yi (k) Bk + 2 ei (k)Bk Bk ei (k) 2 2 ei (k)Bk ei (k) + 4 Bk Pk+1 Bk e2 (k) i i i i h i i 2 i T T 2 T T T k k 1 + 2 yi (k) Bk + ei (k)Bk Bk ei (k) 2ei (k)Bk ei (k) + 4 Bk Pk+1 Bk e2 (k) i i
i i

se calcula como sigue: 2 T T T T yi (k) Bk + ei (k)Bk Bk ei (k) 2ei (k)Bk ei (k) i 2 T T T = yi (k) Bk + [ i (k)]T Bk Bk [ i (k)] 2 [ i (k)]T Bk yi (k) Bk i (k) i i i i 2 2 T T = yi (k) 2T (k)Bk yi (k) + T (k)Bk Bk i (k) = yi (k) Bk i (k) i i = e2 (k) i
2 eT (k + 1)P 1 ei (k + 1) 1 k e2 (k) + k B T Pk+1 Bk e2 (k) i i k+1 2 i 4 k i i k B BT . 2 k k i

As:

1 1 Desde (3.26) se conoce que Pk+1 = (1 k ) Pk + 2 i TP 1+Bk k+1 Bk

Usando el hecho de que k =

> 0, Pk+1 > 0 ya que P1 > 0. Usando el algoritmo de actualizacin (3.24):


T 2 Bk Pk+1 Bk e2 (k) = i k T 2 k Bk Pk+1 Bk e2 (k) k i i 2 e2 (k) 4 T i i i 1 + Bk Pk+1 Bk

As:

que es (3.25). Ya que < 1 y k > 0

eT (k + 1)P 1 ei (k + 1) 1 k [1 ] e2 (k) i i k+1 2 i eT (k + 1)P 1 ei (k + 1) 1 i k+1


2 i , 1

(3.29)

(3.30)

entonces para e2 (k) i

2 i 1

Ahora se considera el caso cuando e2 (k) < i

T 1 el trmino ei (k+1)Pk+1ei (k+1) pertenece a un espacio elipsoidal.

entonces k = 0, sustituyendo en (3.24) se

3.3 Algoritmo elipsoidal para el entrenamiento de los pesos de la red neuronal

49

1 1 1 tiene Pk+1 = 10 [Pk 0] = Pk Pk+1 = Pk , i (k + 1) = i (k) + 0 = i (k) ei (k + 1) = T ei (k), sustituyendo en e (k + 1)P 1 ei (k + 1) 1 se tiene: i k+1

para e2 (k) < i

2 i 1

Entonces Ek+1 es un espacio elipsoidal.

T 1 el trmino ei (k +1)Pk+1ei (k +1) tambin pertenece a un espacio elipsoidal.

eT (k + 1)P 1 ei (k + 1) = eT (k)P 1ei (k) 1 i i k+1 k

Comentario 3.2 Se va a comparar la interseccin de Ek y Sk con la interseccin de Ek+1 y Sk+1 . La interseccin de Ek y Sk es (3.23), denida como sigue: n o T 1 k = zi (k) | [zi (k) i ] [zi (k) i ] 1 (3.24) es: 2 T 1 T (1 k+1 ) ei (k + 1)Pk+1ei (k + 1) + 12 k+1 yi (k + 1) Bk+1 i h i i k 2 (1 k+1 ) 1 2 [1 ] ei (k) + k+1
i

donde z (k) es una variable desconocida. La interseccin de Ek+1 y Sk+1 con el algoritmo

=1 as: k+1

k 2 i

(1 k+1 ) [1 ] e2 (k) i

(1 k+1 ) k (1 ) 2 T 1 = zi (k + 1) | [zi (k + 1) i ] [zi (k + 1) i ] 1 ei (k) 2 i V ol(k ) = p det ()U

El volumen de k es [69]:

donde U es una constante que representa de una bola unitaria en Rn . Debido a que se tiene (3.21) y (3.22) se conoce que la parte comn de k y k+1 es { } . Entonces la interseccin i (1 k+1 ) k (1 ) e2 (k) > 0, el volumen de k+1 es menor que el volumen de k . Desde i

k converger a { } cuando ei (k) 6= 0, ver Figura 3.2. i

Comentario 3.3 El algoritmo (3.24) es para cada subsistema. De (3.6) y (3.7) se conoce
T T que los datos Bk dependen de los parmetros V1,k y V2,k , esto no afecta el algoritmo de

50

Modelado con una red neuronal recurrente y el algoritmo elipsoidal acotado

k Ek

i*

Ek +1 Sk +1 Sk k +1

Figura 3.2: Relacin entre los volmenes de k y k+1 identicacin (3.24), por el parmetro desconocido i (k + 1) se calcula con los parmetros conocidos i (k) y los datos Bk . Para cada elemento de T y Bk en (3.24) se tiene: k V1,k+1 = V1,k + W1,k+1 =
k P [W1,k x(k)] eT (k) 2 k+1 i T k W1,k + 2 Pk+1 0 [W1,k x(k)] V1,k x(k)eT i

(k)

(3.31)

Este tiene la misma forma que el algoritmo de propagacin hacia atrs [28], pero en este caso en coeciente de aprendizaje no es una constante positiva, en este caso es una matriz positiva denida
k P 2 k+1 i

la cual varia con el tiempo. Esta puede ser la razn por la cual el

algoritmo elipsoidal acotado es mas rpido. Comentario 3.4 El algoritmo elipsoidal acotado (3.24) tiene una estructura similar a la estructura del algoritmo de ltro de Kalman extendido [71], [73], [81]. El algoritmo del ltro de Kalman extendido es: 1 T i (k + 1) = i (k) + Pk Bk R2 + Bk Pk Bk ei (k) h 1 T i T Bk Pk Pk+1 = R1 + Pk Pk Bk R2 + Bk Pk Bk (3.32)

3.3 Algoritmo elipsoidal para el entrenamiento de los pesos de la red neuronal

51

donde ei (k) es el mismo que se tiene en (3.15), R1 se puede elegir como I, donde es una constante positiva pequea, R2 es la covarianza del ruido de la dinmica no modelada la cual se considera como ruido. Cuando R1 = 0, este algoritmo se convierte en el algoritmo 1 T de mnimos cuadrados recursivos [26]. Si R1 = 0 en (3.32), entonces R2 + Bk Pk Bk corresponde a
k T (1k ) 2 +k Bk Pk Bk i

en (3.24). Hay una gran diferencia, el algoritmo elipsoidal

acotado es para el caso determinstico y el algoritmo del ltro de Kalman es para el caso estocstico. Los siguientes pasos muestran como entrenar los pesos de la red neuronal recurrente con el algoritmo elipsoidal acotado: 1. Construir el modelo de red neuronal recurrente (3.2) para identicar el sistema no lineal (3.1). La matriz A se selecciona tal que la red neuronal es estable. 2. Se escribe la red neuronal recurrente en la siguiente forma:
T y(k) = Bk k + (k) T T T k = V1,k , W1,k , V2,k , W2,k = [1 (k) , n (k)] T T T Bk = , 0 V1,k x, u, 0 diag(u(k))V2,k x (k)
k i (k + 1) = i (k) + 2 Pk+1 Bk ei (k) i h iT bT bT Bk = , 0 V1,k x, u, 0 diag(u(k))V2,k x (k) , ( 2 2 i i , si e2 (k) 1 T i 1+Bk Pk Bk k = 2 i si e2 (k) < 1 0, i

3. Se entrenan los pesos de la red neuronal como sigue:

4. Pk se actualiza con el algoritmo elipsoidal acotado: k 1 T Pk+1 = Pk Pk Bk B Pk T 1 k (1 k ) 2 + k Bk Pk Bk k i Con i (1) que son las condiciones iniciales para los pesos y P1 > 0 se inicia la identicacin con la red neuronal recurrente.

52

Modelado con una red neuronal recurrente y el algoritmo elipsoidal acotado

3.4.

Anlisis de estabilidad

En esta seccin se usa el anlogo de la teora de estabilidad de Lyapunov para probar que el algoritmo elipsoidal acotado propuesto (3.24) con zona muestra es estable para identicacin de sistemas no lineales. Por (3.14), (3.15) y (3.19) se tiene:
T ei (k) = Bk ei (k) + i,k T e (k)Bk = B T ei (k) = ei (k) i,k i k

(3.33)

donde ei (k) = i (k), i = 1 n. i

El teorema de la pasada seccin nos dice Ek =

elipsoide acotada siempre. As se tiene que los pesos de la red neuronal recurrente estn acotados durante el algoritmo de entrenamiento (3.24). El siguiente teorema da la cota del error de identicacin.

n o T 1 i (k) | ei (k)Pk ei (k) 1 es una

Teorema 3.2 Si se usa el algoritmo elipsoidal (3.24) se puede asegurar que el error de identicacin
i

(k) es uniformemente estable y que el error ei (k) converge a: l supe2 (k) m i


k

2 i 1

(3.34)

Demostracin. Se usa la siguiente funcin de energa:


T 1 V (k) = ei (k)Pk ei (k)

(3.35)

Evaluando V (k) como:

Primero, se considera cuando l supe2 (k) m i


k

T T 1 1 V (k) = ei (k + 1)Pk+1ei (k + 1) ei (k)Pk ei (k) 2 i . 1

(3.36) Desde (3.15), (3.33)

As k =

2 i . T 1+Bk Pk+1 Bk

y (3.24), se tiene lo siguiente: ei (k + 1) = ei (k) k Pk+1 Bk ei (k) 2 i (3.37)

3.4 Anlisis de estabilidad usando (3.37) y (3.33) se tiene: h iT i h T 1 1 k k V (k) = ei (k) 2 Pk+1 Bk ei (k) Pk+1 ei (k) 2 Pk+1 Bk ei (k) ei (k)Pk ei (k) i i 1 2 T T k T 1 k = ei (k) Pk+1 Pk ei (k) 2 2 ei (k)Bk ei (k) + 4 Bk Pk+1 Bk e2 (k) i
i i

53

1 1 desde (3.26) se tiene Pk+1 = (1 k ) Pk +

k B BT , 2 k k i

entonces: k T Bk Bk 2 i

1 1 1 Pk+1 Pk = k Pk +

(3.38)

substituyendo (3.38) en V (k) da: h i k eT (k) k P 1 + 2 Bk B T ei (k) 2keT (k)Bk ei (k) + V (k) = i i k k y substituyendo (3.33) en V (k) y usando k =
T 1 = kei (k)Pk ei (k) + k eT T (k)Bk Bk ei (k) 2 i i
i k 2 2 ei (k)Bk ei (k) + i

2 T k B P B e2 (k) 4 k k+1 k i i 2 T k B P B e2 (k) 4 k k+1 k i


i

2 i T 1+Bk Pk+1 Bk

da lo siguiente:
2

T k T 1 k k k V (k) = 2 ei (k)Pk ei (k) + 2 [ei (k) i,k ]2 2 2 [ei (k) i,k ] ei (k) + 4 Bk Pk+1 Bk e2 (k) = i i i i i 2 k k k k k k eT (k)P 1ei (k) + 2 e2 (k) 2 2 ei (k) i,k + 2 2 2 2 e2 (k) + 2 2 ei (k) i,k + 4 B T Pk+1 Bk e2 (k) k i k i i i,k i i i i T 2 T k 2 k 2 1e 2 k = kei (k)Pk i (k) 2 ei (k) + 4 Bk Pk+1 Bk ei (k) + 2 i,k i i i TP T i k k e (k)P 1ei (k) 2 e2 (k) + k4 2 Bk T k+1 Bk e2 (k) + 2 2 = k i i i k 1+B P i,k B i
i i k k+1 k i

k 2 e2 i i

(k) +

k e2 i 2 i

(k) + k

entonces se tiene: V (k) es acotado. Si e2 (k) < i


2 i 1

Dada la zona muerta se tiene que e2 (k) i

k 2 2 2 (1 ) ei (k) i i
2 i 1

(3.39)

se conoce de (3.24) que k = 0 y ninguno de los pesos cambia,


2 i , 1

y k > 0, V (k) 0, por lo tanto V (k)

entonces los pesos permanecen acotados, as V (k) es acotado. Cuando e2 (k) i (3.39) desde 1 a T :
T X k 2 2 2 (1 ) ei (k) i V (1) V (T + 1) k=1 i

sumando

(3.40)

54

Modelado con una red neuronal recurrente y el algoritmo elipsoidal acotado

ya que V (T + 1) es acotado: l sup m


k T X [(1 ) e2 (k) 2 ] i i k=1 T 2 (1 + Bk Pk Bk ) i

<

(3.41)

sabiendo que e2 (k) i as

2 i 1

[(1 ) e2 (k) 2 ] i i 0 T 2 (1 + Bk Pk Bk ) i 2 i (1 ) e2 (k) 2 = 0 i i T (1 + Bk Pk Bk ) l sup (1 ) e2 (k) 2 m i i


k

l sup m
k

T sabiendo que V (k) est acotado, entonces Bk Pk+1 Bk <

(3.42)

Esto es (3.34). El error de entrenamiento ei (k) no es el mismo que el error de identicacin


i

y (3.15), se tiene:

(k) = xi (k) xi (k), pero ambos se minimizan al mismo tiempo. Desde (3.2), (3.4), (3.13) b
i

(k + 1) = ai i (k) + ei (k)

(3.43)

donde A = diag {ai } . Usando la relacin:


i i

(2) = ai i (1) + ei (1) (3) = ai i (2) + ei (2)

= a2 i (1) + ai ei (1) + ei (2) i . . .


i

(k + 1) =

ak i i

(1) +

k X j=1

akj ei (j) i

y que |ai | < 1 | i (k + 1)| | i (1)| + ya que


i

(1) es una constante, la minimizacin del error de entrenamiento ei (j) es la minii

k X j=1

|ei (j)| (k + 1) . Cuando ei (j) es acotado,

mizacin de la cota superior del error de identicacin


i

tambin est acotado.

3.4 Anlisis de estabilidad

55

ei Tc

Figura 3.3: Caracteristica de convergencia del error de identicacin Comentario 3.5 Aunque los parmetros convergen a sus valores ptimos con el algoritmo de entrenamiento (3.24), desde (3.4) se conoce que siempre existe error de la incertidumbre estructural (error en la estructura). As que no se puede alcanzar que ei (k) 0. Comentario 3.6 es el parmetro llamado coeciente de aprendizaje y determina la velocidad de aprendizaje de la red neuronal, cuando es grande se tiene una cota grande para la incertidumbre estructural 2 dada en (3.34) y la red neuronal aprende rpidamente el i comportamiento de la funcin no lineal f , cuando es pequeo se tiene una cota pequea para la incertidumbre estructural 2 dada en (3.34) y la red neuronal aprende lentamente i el comportamiento de la funcin no lineal f. Se tienen las siguientes condiciones extremas: cuando = 1, el tiempo de convergencia del error de identicacin Tc es mnimo, pero la cota superior del error de identicacin es innitamente grande,esto es, ei = cuando = 0, la cota superior del error de identicacin ei = Figura 3.3.
2 i 1 2 i 1

es mnima, pero el tiempo

de convergencia del error de identicacin Tc es innitamente grande,esto es, Tc , ver

56

Modelado con una red neuronal recurrente y el algoritmo elipsoidal acotado

3.5.

Simulaciones

A continuacin se tratan dos modelos para comprobar el desempeo del identicador propuesto.

3.5.1.

Identicador propuesto aplicado al modelo de trco

Una avenida emplea el mtodo de densidad de bloque hbrido como su modelo de ujo de trco. El clculo de ujo de ste mtodo se basa en el mtodo de densidad de bloque [9], el cual trata el ujo de trco de manera continua. En el mtodo de densidad de bloque, cada va se divide en varios bloques de los cuales su longitud es igual a la distancia a la que el vehculo corre a velocidad de ujo libre en la va durante las iteraciones consideradas en cada intervalo de tiempo. El ujo de entrada y salida y la densidad de cada bloque se revisan en cada bloque en cada intervalo de tiempo basndose en la ley de conservacin de ujo y la relacin f mostradas en la Figura 3.4. Este mtodo puede razonablemente reproducir las condiciones de trco de movimiento libre y de embotellamiento incluyendo la propagacin de los carros en los bloques [31], [32]. La Figura 3.5 muestra las variables usadas en el clculo de ujo entre dos bloques vecinos con sujos i e i + 1. En cada iteracin, el ujo permitido de salida y entrada a cada bloque se calculan acorde a la relacin f , entonces el ujo entre dos bloques vecinos se determina al tomar el mnimo del ujo permitido a la salida del bloque i y el ujo permitido a la entrada del bloque i + 1. Las densidades en la siguiente iteracin se calculan usando el ujo de entrada y de salida de cada bloque. Las siguientes ecuaciones muestran el clculo de ujo de cada bloque con sujo i [31], [32]. ( Aout (k) = m ci , i (k)) L n( i k m ci , Ji i (k)) L si i (k) ci n( k (3.44)

Ain (k) i

i (k

donde Aout (k) es el ujo permitido a la salida del bloque i, Ain (k) es el ujo permitido i i a la entrada del bloque i, i (k) es la densidad del bloque i, fi,i+1 (k) es el ujo desde el

ci (Ji i (k)) L si i (k) > ci Ji ci ink fi,i+1 (k) = m Ai+1 (k), Aout (k) n i k k + 1) = i (k) fi,i+1 (k) L + fi1,i (k) L

3.5 Simulaciones

57

Velocidad libre

Figura 3.4: Relacin densidad-ujo utilizada en el mtodo de densidad de bloque

J
i
i +1 Aiin1 +

c
Aiout L
Figura 3.5: Clculo del ujo entre bloques vecinos

fi ,i +1 f

58

Modelado con una red neuronal recurrente y el algoritmo elipsoidal acotado

J
c

i 1

i +1

i 1

i +1

k +1

k+2

Densidad

Vehculos

Figura 3.6: Movimiento de los vehiculos en tiempo discreto bloque i hacia el bloque i + 1, ci es la densidad critica del bloque i, Ji es la densidad de embotellamiento, L es la longitud del bloque, k es el intervalo de tiempo para cada iteracin. Ya que la aproximacin de ujo de trco tiene algunas dicultades en el manejo de vehculos individuales tal como es su bloque destino [9], [20], el mtodo de densidad de bloque fue extendido hacia el mtodo de densidad de bloque hbrido, es decir, los bloques no solamente contienen densidad de trco continuo, tambin tienen imgenes discretas de vehculos que contienen diferentes atributos como son el tipo de vehculos, el destino y el criterio de eleccin de la ruta para la conveniencia del modelado del comportamiento del vehculo. La Figura 3.6 ilustra los movimientos de los vehculos en tiempo discreto en este mtodo. El nmero de vehculos que se mueven desde el bloque i hacia el bloque i + 1, es proporcional a el ujo que se tiene desde el bloque i al bloque i + 1. El numero de vehculos que permanece entre los bloques i e i + 1 en la iteracin k + 1 ser considerado como k para la siguiente iteracin. El sistema no lineal (3.44) tiene la forma (3.1), donde i = 1, 2, . . . , 100, ci = 6 i, Ji =

3.5 Simulaciones

59

se toman datos cada 20 segundos, cuando se tiene menos de 6 vehculos en el bloque de 40

10 i, k = 20 segundos y L = 40 metros, esto es, cada bloque tiene 40 metros de largo,

metros se tiene movimiento libre, pero cuando se tiene ms de 6 vehculos en el bloque de 40 metros se tiene un embotellamiento, cada x(k) = [x1 (k) , x2 (k) , . . . , x100 (k)]T = [1 (k) , 2 (k) , . . . , 100 (k)]T , Se usa la red neuronal dada en (3.2) para identicar este sisA = diag(0,1). En esta seccin, con el n de examinar la efectividad del algoritmo elipsoidal acotado para el entrenamiento, se usan 20 nodos en la capa oculta. Los pesos en la capa de salida son V1,k <10020 , los pesos en la capa oculta son W1,k <20100 , = [ 1 , 2 , . . . , 100 ]T . tema no lineal con x (k) R100 , A <100100 es una matriz diagonal estable denida como b

Los elementos de los pesos iniciales W1,0 , y V1,0 , se eligen como nmeros aleatorios en-

tre (0, 1x103 ) y (0, 1x101 ) respectivamente. La entrada es fi1,i (1) = 2, fi1,i (7) = 4, fi1,i (14) = 6, fi1,i (20) = 4, fi1,i (26) = 6, fi1,i (32) = 4; fi1,i (39) = 6, fi1,i (45) = 4 y fi1,i (52) = 2. Se selecciona P = diag(100) <4040 , = 0,5, 2 = 1 tal que 2 < 1. Se i i PN 2 1 dene el error promedio cuadrtico para un tiempo nito como J (N ) = 2N k=1 e (k) .

Ahora se compara el algoritmo elipsoidal acotado propuesto dado en (3.24) con el algo-

ritmo de propagacin hacia atrs [28] con coeciente de aprendizaje de 0,01 para entrenar la red neuronal dada en (3.2). El resultado de identicacin para x25 (k) se muestra en la Figura 3.7. El resultado de identicacin para J (N) se muestra en la Figura 3.8. Se aprecia que el algoritmo elipsoidal acotado tiene un mejor desempeo que el algoritmo de propagacin hacia atrs.

3.5.2.

Identicador propuesto aplicado al proceso de combustin de gas

Los datos del proceso de gas de Box y Jenkin se usan frecuentemente para evaluar los mtodos de identicacin [46], el proceso de muestreo consiste de 200 datos de entradasalida tomados con un periodo de muestreo de 9 segundos. El proceso de combustin de gas tiene una variable de entrada que es el ujo de gas, u(k), y una variable de salida que es la concentracin de CO2 , y(k). El salida se puede considerar inuenciada por las variables

60

Modelado con una red neuronal recurrente y el algoritmo elipsoidal acotado

Figura 3.7: Identicacin del estado x25 (k) para el ejemplo 1

Figura 3.8: Error promedio cuadratico para el identicador del ejemplo 1

3.5 Simulaciones

61

Figura 3.9: Identicacin para y(k) del ejemplo 2

y(k 1), y(k 2), . . . , y(k 4), u(k 1), u(k 2), . . . , u(k 4). Se usa la red neuronal usan 16 nodos en la capa oculta, i.e., Vk <816 , W1,k <168 , = [ 1 , 2 , . . . , 16 ]T .

dada en (3.1) con la estructura entrada-salidas para identicar este sistema no lineal, se

Los pesos iniciales W1 y V1 se eligen como aleatorios entre (0, 1) y (0, 0,2) respectivamente. algoritmo elipsoidal (3.24) con la estructura entradas salidas con el algoritmo de propagacin hacia atrs [28] con coeciente de apredizaje de 0,5. Se dene el error promedio cuadrtico P 1 para un tiempo nito como J (N) = 2N N e2 (k). El resultado de identicacin para la k=1 Se selecciona P (1) = diag(100) <3232 , = 0,5, 2 = 1 tal que 2 < 1. Se compara el

salida y(k) se muestra en la Figura 3.9. El resultado de identicacin para J (N) se muestra en la Figura 3.10.

62

Modelado con una red neuronal recurrente y el algoritmo elipsoidal acotado

Figura 3.10: Error promedio cuadratico para el identicador del ejemplo 2

3.6.

Conclusin

En esta seccin se propone un mtodo de identicacin para redes neuronales. Se modica el algoritmo elipsoidal acotado con un coeciente de aprendizaje variante en tiempo para entrenar una red neuronal. Se actualizan tanto capa oculta como capa de salida de una red neuronal recurrente en espacio de estados. Se prueba que el error de identicacin converge a una zona la cual depende del error de la incertidumbre estructural.

Captulo 4 Control por modos deslizantes con redes neuronales


4.1. Introduccin

El mtodo de modos deslizantes tradicional es la aplicacin de una seal de control conmutando a alta frecuencia que consigue llevar el estado del sistema a una supercie cercana al origen denominada supercie de deslizamiento o funcin de conmutacin y una vez llegando a la supercie de deslizamiento se debe permanecer en sta ante posibles perturbaciones externas. Dicha supercie de deslizamiento debe ser denida por el diseador con el objeto de que el estado cumpla las especicaciones deseadas. La principal ventaja del control por modos deslizantes es que aporta robustez ante perturbaciones cuando estas tienen cotas conocidas. En este documento se trata con un control por modos deslizantes en tiempo discreto el cual no tiene el mismo comportamiento que el control por modos deslizantes en tiempo continuo. El control por modos deslizantes en tiempo discreto tiene la ventaja de que puede generar o no generar castaeo a diferencia del control por modos deslizantes en tiempo continuo que siempre genera castaeo [82]. El castaeo se genera debido a la discontinuidad en la accin de control y el castaeo es indeseable en la mayora de las aplicaciones [11]. En

64

Control por modos deslizantes con redes neuronales

tiempo continuo, la condicin en modos deslizantes es: ss < 0

(4.1)

donde s es la funcin de conmutacin, la funcin de conmutacin conmuta a cada instante cuando las trayectorias del error de seguimiento de trayectoria cruzan al origen. La condicin de modos deslizantes ms simple es substituir la derivada de (4.1) por una diferencia, as la condicin de modos deslizantes es [23]: s(k) [s(k + 1) s(k)] < 0 (4.2)

Esta condicin es necesaria pero no suciente para la existencia de un movimiento en modos deslizantes [22], [82]. Adems, sta condicin no puede asegurar la convergencia del error de seguimiento a una regin cercana al origen, y esto podra incrementar la amplitud del castaeo [85]. Una condicin de modos deslizantes necesaria y suciente en tiempo discreto es la propuesta en [77] y [34] es: |s(k + 1)| < |s(k)| (4.3)

Esta condicin puede asegurar la convergencia en la funcin de conmutacin del error de seguimiento de trayectoria a una regin cercana al origen, pero es muy dicil disear un controlador que satisfaga esta condicin. As [2] da otra condicin de modos deslizantes en tiempo discreto, la supercie de deslizamiento s(k) = 0 debe satisfacer: |s(k)| q (4.4)

donde el parmetro q > 0 es llamado ancho de banda de los modos deslizantes. Este no requiere que la trayectoria cruce la supercie de deslizamiento en cada paso de control. El diseo de los controladores por modos deslizantes mencionados requiere de informacin parcial para los controles equivalentes [75], es decir, cuando el controlador equivalente se disea cuidadosamente, la funcin de conmutacin satisface (4.2), (4.3) y (4.4). Si se desconoce la planta, se pueden usar redes neuronales para estimar la planta. [19] propone un control por modos deslizantes con una red neuronal en tiempo discreto para el caso de regulacin, se

4.2 Sistema no lineal en tiempo discreto

65

prueba la estabilidad de la regulacin usando la tcnica de Lyapunov. [55] da un controlador por modos deslizantes en tiempo discreto con una funcin de conmutacin modicada con el n de mantener un castaeo pequeo y se adiciona un trmino adaptable para mejorar su desempeo. Para mejorar la robustez del controlador por modos deslizantes en tiempo discreto, [51] usa redes neuronales difusas para compensar las incertidumbres. [85] considera la regulacin de sistemas lineales en espacio de estados con control por modos deslizantes. [22] presenta un controlador por modos deslizantes en tiempo discreto estable el cual no es sensible al intervalo de muestreo. Los autores mencionados no consideran la estabilidad del modelo neuronal y el problema de que se puedan presentar singularidades en la ley de control, adems consideran que la ganancia del control por modos deslizantes es constante. En este capitulo se presenta un control por modos deslizantes con un modelador por redes neuronales. El modelador por redes neuronales usa doble zona muerta y una modicacin para asegurar la estabilidad del error de modelado y la no singularidad del controlador. Con el n de reducir el castaeo, se modica el control por modos deslizantes en tiempo discreto con una ganancia variante en tiempo. Se da una condicin necesaria para la existencia de la funcin de conmutacin en tiempo discreto, la cual satisface la condicin (4.4). Se prueba que el sistema en lazo cerrado por modos deslizantes y el modelador por redes neuronales es uniformemente estable, se obtiene el resultado de que el error de seguimiento de trayectoria est acotado y esta cota depende de la incertidumbre estructural.

4.2.

Sistema no lineal en tiempo discreto

Se considera el sistema con una entrada y una salida descrito como sigue: y(k + 1) = f [z(k)] + g [z(k)] (u(k)) (4.5)

donde z(k) = [y(k), y(k 1) . . . y(k n), u(k 1), u(k 2) . . . u(k m)]T , n es el orden de y(k) y m es el orden de u(k), m < n, y es la salida, u es la entrada, f() y g() son funciones

66

Control por modos deslizantes con redes neuronales

Controlador

u(k)

Actuador

(u(k))

Planta desconocida

Figura 4.1: Comportamiento del actuador en el sistema de control reales desconocidas. () es una funcin descrita como sigue: ( u(k) si |u(k)| b (u(k)) = b si |u(k)| > b

(4.6)

donde b es un parmetro dado por las restricciones del actuador. Ver la Figura 4.1. El sistema no lineal se asume que es controlable y observable. A (4.5) se le llama sistema afn. Se asume que f [z(k)] y g [z(k)] son funciones continuas y diferenciables, g [z(k)] es acotada y diferente de cero: 0 < g |g (z(k))| g < y zi (k) = u(k n m 1 + i) para (n + 1 i n + m). z1 (k + 1) = z2 (k) . . . y(k) = zn (k) (4.8) se puede escribir como un sistema en espacio de estados: z(k + 1) = fu [z (k) , u (k)] , y(k) = h [z (k)] (4.9) (4.7)

(4.5) se puede escribir en espacio de estados [38]. Sea zi (k) = y(k n + i) para (1 i n) zn+1 (k + 1) = zn+2 (k) . . .

zn (k + 1) = f [z(k)] + g [z(k)] (u(k)) zn+m (k + 1) = (u(k))

(4.8)

donde z (k) <n+m es el vector de estados. fu y h son funciones no lineales suaves fu , h C . Desde (4.9) se tiene: y(k) = h [z (k)] = F1 [z (k)] , y(k + 1) = h [fu [z (k) , u (k)]] = F2 [z (k) , u (k)] y(k + n 1) = Fn [z (k) , u (k) , u(k + 1) u(k + n 2)] (4.10)

4.3 Modelado de funciones no lineales usando redes neuronales

67

Denotando Y (k) = [y (k) , y (k + 1) , y (k + n 1)]T , U (k) = [u (k) , u (k + 1) , u (k + n 2)]T , puede expresar como x(k + 1) = g [Y (k + 1), U(k + 1)] . As (4.9) se puede transformar en un modelo NARMAX [95] y(k) = h [z (k)] = [X (k)] (4.11) as Y (k) = F [x (k) , U (k)] , F = [F1 Fn ]T . Si
Y x

es no singular en x = 0, U = 0, (4.10) se

donde X (k) = [y(k), y(k 1) . . . y(k n), u(k 1), u(k 2) . . . u(k m)]T . () es una ecuacin de diferencias no lineal que representa la dinmica de la planta, u (k) y y (k) son entrada y salida escalares medibles, d es un retardo en tiempo. [16] muestra que un sistema no lineal general (4.11) se puede transformar en un sistema afn (4.5).

4.3.

Modelado de funciones no lineales usando redes neuronales

4.3.1.

Algoritmo con zona muerta y su modicacin

respectivamente, estas se pueden expresar como:


q X

Si las funciones no lineales f y g en (4.5) son desconocidas, se pueden usar redes neub g ronales multicapa para aproximarlas. Se denen f y b como las estimaciones de f y g, n+m ! X f f b f= vj (k)f wji (k)zi (k) j j=1 i=1 n+m ! q X g X g g b= vj (k)g wji (k)zi (k) j
j=1 i=1

(4.12)

f f donde vj (k) y wji (k) son lo pesos de la capa de salida y oculta, respectivamente, q es el

nmero de capas ocultas. Las funciones de activacin de las redes neuronales se eligen como sigue: f () es una funcin tangente hiperblica, esta puede ser positiva y negativa. g () j j es una funcin sigmoidal, esta es positiva, as g () > 0. Las funciones no lineales f y g se j

68 pueden modelar como sigue:

Control por modos deslizantes con redes neuronales

n+m ! X f f vj f wji zi (k) + f= j j=1 i=1 ! q X g g n+m g X g= vj j wji zi (k) +


q X j=1 i=1

(4.13)
g

f f donde vj y wji son los pesos ptimos los cuales minimizan el error de la incertidumbre es-

tructural

f,

g g wji y vj son los pesos ptimos los cuales minimizan el error de la incertidumbre g.

estructural

sistema no lineal (4.5) se puede modelar con una red neuronal como sigue: b b(k + 1) = f [z(k)] + b [z(k)] (u(k)) y g

b b Ya que las funciones no lineales f y g son aproximadas por f y g , respectivamente, el (4.14)

donde es una constante positiva > 0 la cual es un parmetro de diseo. El sistema no lineal (4.5) se puede expresar con la siguiente red neuronal: " q n+m # " q n+m ! ! X f X f X g X g y(k + 1) = vj j wji zi (k) + f + vj j wji zi (k) +
j=1 i=1 j=1 i=1 f f wji (k)zi (k) y vj :

(u(k)) (4.15)

b Para la funcin derivable f, se aplica la serie de Taylor a (4.12) cercano a los puntos b f=
q X

donde Rf es el residuo de la formula de Taylor, n+m ! i h X f f f f f = j wji (k)zi (k) = j vj (k) f [wj (k)] i=1 n+m X
f [
f wji (k)zi (k)

i h f f f f vj j wji zi (k) + vj (k) vj wff(k) [ j ] j=1h i=1 i f f f + wji (k)zi (k) wji zi (k) wf (k)z (k) + Rf [ ji i ]

n+m X

(4.16)

f = vj (k)

f j [

i=1 f wji (k)zi (k)

f wji zi (k)

f = wj (k)j

4.3 Modelado de funciones no lineales usando redes neuronales e b Se dene f = f f, desde (4.12), (4.13) y (4.16) se tiene:
f

69

se tiene:

f f f f donde wji (k) = wji (k) wji , vj (k) = vj (k) vj , f = Rf f . Similarmente para g = g g ef ef e b g g g g donde wji (k) = wji (k) wji , vj (k) = vj (k) vj , g = Rg eg eg g g e = vj (k)wji (k)zi (k)j + vj (k)g + g eg eg j g. g

f e ef ef f = vj (k)wji (k)zi (k)j + vj (k)f + f j

(4.17)

(4.18)

Se dene el error de modelado del sistema como:

La dinmica del error de puede obtener desde (4.14) y (4.15):


f ei (k + 1) = vj (k)f + vj (k)wji (k)zi (k)j + vj (k)g (u(k)) ef ef eg j j g +vj (k)wji (k)zi (k)j (u(k)) + (k) eg g f

ei (k + 1) = y (k + 1) y(k + 1) b

(4.19)

(4.20)

donde (k) = f + g (u(k)) es el error de la incertidumbre estructural el cual est acotado dada (4.6). Con el n de asegurar la estabilidad del modelado y la no singularidad en el controlador (b 6= 0), se usa la siguiente ley de aprendizaje para actualizar los pesos del modelador por g redes neuronales (4.12):
f f vj (k + 1) = vj (k) (k)f ei (k) j

f f f wji (k + 1) = wji (k) (k)vj (k)j zi (k)ei (k)

g g g g wji (k + 1) = wji (k) (k)vj (k)j zi (k) (u(k)) ei g v g (k + 1) = vj (k) (k)g (u(k)) ei (k) j j

(4.21) (k)

donde j = 1 . . . q, i = 1 . . . n + m. Se aplica la doble zona muerta a (k) como: 2 si e2 (k) 1 y ei (k) ei (k + 1) e2 (k) i i 1 + a(k) (k) = 2 0 si e2 (k) < 1 o ei (k) ei (k + 1) < e2 (k) i i

(4.22)

70 f 2 j

Control por modos deslizantes con redes neuronales f 2 2 g f j v (k)zi (k) + (u(k)) g 2 + (u(k)) j vg (k)zi (k) , 0 < < 1. + j j j

donde a(k) =

es la cota superior de (k), | (k)| .

donde M > 0. Desde la denicin de (4.12) se conoce que g () > 0. Con el n de obtener j
g g b [z(k)] > 0, se necesita asegurar vj (k) > 0. La proyeccin (4.23) asegura esta condicin.

g El algoritmo de proyeccin se aplica a vj (k + 1). g vg (k + 1) si vg (k + 1) vj (1) M j j g g vj (k + 1) = vg (k+1)vj (1) g g j M + vj (1) si v g (k + 1) vj (1) > M g g j |vj (k+1)vj (1)|

(4.23)

4.3.2.

Anlisis de estabilidad de la identicacin

Comparado a otros algoritmos de entrenamiento convencionales, tales como el algoritmo de propagacin hacia atrs [74], la ley de actualizacin de los pesos (4.21) es ms compleja. En este documento se usan dos tcnicas juntas: zona muerta [8] y una modicacin [88]. En [8] la zona muerta se usa en la ley de control, en este documento de usa doble zona muerta para la actualizacin de los pesos y asegura que el error de modelado est acotado. muerta. Se puede ver que la doble zona muerta y la modicacin se aplican cuando el proceso de aprendizaje alcanza algunas condiciones extremas. El aprendizaje normal (4.21) tiene la misma forma que el algoritmo de propagacin hacia atrs [74], la nica diferencia es que se usa coeciente de aprendizaje variante en tiempo (k), [38], [56], [74] usan coeciente de aprendizaje jo. El coeciente de aprendizaje variante en tiempo asegura la estabilidad del modelado. El parmetro que esta en el coeciente de aprendizaje variante en tiempo es fcil de conseguir, no se requiere ninguna informacin previa, por ejemplo se puede seleccionar = 0,5. El siguiente teorema da la estabilidad del modelador por redes neuronales y la no singularidad en el controlador con el algoritmo (4.21). Teorema 4.1 Si se usa el modelo de red neuronal (4.14) para modelar el sistema no lineal (4.5), la ley de aprendizaje (4.21) con zona muerta (4.22) y su modicacin (4.23) hace Con el n de asegurar que b es diferente de cero, se usa la modicacin en la doble zona g

4.3 Modelado de funciones no lineales usando redes neuronales

71

el modelado estable y no se tiene singularidad en el controlador, es decir, 1) el error de g modelado ei (k) est acotado y b [z(k)] 6= 0, 2) El error de modelado ei (k) satisface: l supe2 m i k (k) 1
2

(4.24)

donde es la cota superior de (k) . Demostracin. Se selecciona la siguiente funcin de energa Vi (k) como: ef ef vg eg (4.25) Vi (k) = vj (k)2 + wji (k)2 + ej (k)2 + wji (k)2 g g 1) Primero se considera vg (k + 1) vj (1) M . Desde (4.23), se sabe que vj (k + 1) = j g vg (k + 1), as v (k + 1) v g (1) M, vg (k + 1) esta en la bola con centro vg (1) y radio M.
j j j j j f wji (k + 1) = wji (k) (k)vj (k)j zi (k)ei (k) ef ef

Por la actualizacin (4.21), se tiene:

Por (4.20), se sabe que el ultimo trmino de (4.26) es: f g f f f f g g g g e e e e 2(k)ei (k) j vj (k) + j vj (k)zi (k)wji (k) + j vj (k) (u(k)) + j vj (k)zi (k)wji (k) (u(k)) = 2(k)ei (k) [ei (k + 1) (k)] = 2(k)ei (k) ei (k + 1) + 2(k) (k) ei (k)

Ahora se calcula Vi (k): 2 h i2 f f f f f f 2 Vi (k) = vj (k) (k)j ei (k) wj (k) + wji (k) (k)vj (k)j zi (k)ei (k) wji (k)2 + e e e ef 2 g 2 g g g g g 2 v e eg vj (k) (k)j (u(k)) ei (k) ej (k) + wji (k) (k)vj (k)j zi (k) (u(k)) ei (k) wji (k)2 e ( f g 2 ) g 2 f2 f g e2 (k) = 2 (k) j + j vj (k)zi (k) + j (u(k)) + j vj (k)zi (k) (u(k)) i f g f f f f g g g g e e e e 2(k)ei (k) j vj (k) + j vj (k)zi (k)wji (k) + j vj (k) (u(k)) + j vj (k)zi (k)wji (k) (u(k)) (4.26)

g wji (k + 1) = wji (k) (k)vj (k)j zi (k) (u(k)) ei (k) eg eg

vj (k + 1) = vj (k) (k)g (u(k)) ei (k) eg eg j


g

ef vj (k + 1) = vj (k) (k)f ei (k) ef j

72 si e2 (k) i
1
2

Control por modos deslizantes con redes neuronales y ei (k) ei (k + 1) e2 (k) , usando (4.20) y (k) 0 i 2(k)ei (k) ei (k + 1) + 2(k) (k) ei (k) 2(k)e2 (k) + (k)e2 (k) + (k) 2 (k) i i 2(k)e2 (k) + 2(k) (k) ei (k) i

Por las deniciones a(k) = , (k) = 1 + a(k)

f 2 j

f 2 2 g f j v (k)zi (k) + (u(k)) g 2 + (u(k)) j vg (k)zi (k) y + j j j

Vi (k) 2 (k)a(k)e2 (k) (k)e2 (k) + (k) 2 (k) i i 2 a(k)ei (k) (k)e2 (k) + (k) 2 (k) (k) i 1 + a(k) (k)e2 (k) (k)e2 (k) + (k) 2 (k) i i Usando 2 (k) se tiene:
2

i h 2 Vi (k) (k) (1 ) e2 (k) i


1
2

(4.27)
1
2

Ya que la zona muerta, e2 (k) i

o ei (k) ei (k + 1) < e2 (k) , desde (4.21) se conoce que (k) = 0, ninguno de los pesos cambia, i por tanto el error de pesos est acotado, as Vi (k) est acotado. g Ahora, se considera vg (k + 1) vj (1) > M, desde (4.23) se tiene: j
g g vj (k + 1) = vj (1) + vj (k+1)vj (1) M g g | j g |j v (k + 1) v g (1) = M j j v g (k+1)v g (1)

y (k) > 0, Vi (k) 0. Vi (k) es acotado. Si e2 (k) < i

g g g g As vj (k+1) esta en la bola con centro vj (1) y radio M. Ya que vj (k+1)vj (1) = M entonces g vg (k + 1) est acotado. Desde la prueba anterior para el caso v (k + 1) v g (1) M, se j j j

conoce que cuando

g vj (k

+ 1) esta en la bola, Vi (k) est acotado. As para cualquier caso,

Vi (k) est acotado.

g g g Con esto se forza que vj (k + 1) est en la bola con centro vj (1) y radio M. Si vj (k + 1) g esta dentro de la bola (vg (k + 1) vj (1) M), se usa el algoritmo de gradiente normal. j

4.3 Modelado de funciones no lineales usando redes neuronales

73

Ya que

g g g Cuando v g (k + 1) esta fuera de la bola, vj (k + 1) vj (1) = M, as vj (k + 1) esta dentro de j g la bola, es decir, v g (k + 1) nunca abandonar la bola. Si se elige v (1) > M, v g (k + 1) 6= 0.
j j j

g g vj (k + 1) ya esta dentro de la bola con centro vj (1) y radio M. Cuando e2 (k) i

sumando (4.27) desde 1 a T se tiene:


T X k=1

() se selecciona como () 6= 0, g en (4.12) es diferente de cero. b g g g g 2) Si vj (k + 1) vj (1) M, desde (4.23) se conoce que vj (k + 1) vj (1) M,
, 1
2

g j

g j

i h 2 (k) (1 ) e2 (k) Vi (1) Vi (T + 1) i i h 2 2 (1 ) ei (k) 1 + a(k)

(4.28)

Usando que V (T + 1) est acotado:


T X k=1

l sup m
T

<

(4.29)

Ya que e2 (k) i

, 1

i h 2 (1 ) e2 (k) i

0, as: 1 + a(k) h i 2 (1 ) e2 (k) = 0 l sup m i 1 + a(k) k


2

(4.30)

Ya que Vi (k) est acotado, as a(k) < implica que: l sup (1 ) e2 (k) m i
k

(4.31)

Esto es (4.24). Cuando e2 (k) < i

, [1]

g ya esta en esta zona. As cuando wj (k + 1) esta dentro

g o fuera de la bola con centro vj (1) y radio M, (4.31) es correcto. g g g g g Si v j (k + 1) vj (1) > M, desde (4.23) se conoce vj (k + 1) vj (1) = M, vj (k + 1) g esta sobre la bola con centro vj (1) y radio M. Esta es una condicin para (4.31).

Comentario 4.1 La doble zona muerta usada en (4.21) es para resolver el problema de robustez causado por las dinmica no modelada (k) . La modicacin usada en (4.21) es para garantizar que los parmetros permanecen dentro de una regin restringida y no alteran

74

Control por modos deslizantes con redes neuronales

las propiedades de la ley adaptable normal. Si ei (k) y ei (k + 1) tienen el mismo signo, se selecciona sucientemente grande, una de las zonas muertas se hace pequea, la condicin ei (k) ei (k + 1) e2 (k) no altera mucho la ley de aprendizaje. i Comentario 4.2 es el parmetro llamado coeciente de aprendizaje y determina la velocidad de aprendizaje de la red neuronal, cuando es grande se tiene una cota grande para la dinmica no modelada dada en (4.24) y la red neuronal aprende rpidamente el comportamiento de las funciones no lineales f y g, cuando es pequeo se tiene una cota pequea para la dinmica no modelada dada en (4.24) y la red neuronal aprende lentamente el comportamiento de las funciones no lineales f y g. Se tienen las siguientes condiciones extremas: cuando = 1, el tiempo de convergencia del error de identicacin Tc es mnimo, pero la cota superior del error de identicacin es innitamente grande,esto es, ei = cuando = 0, la cota superior del error de identicacin ei = Figura 3.3 con la consideracin de que = .
1
2

es mnima, pero el tiempo

de convergencia del error de identicacin Tc es innitamente grande,esto es, Tc , ver

4.4.
4.4.1.

Control por modos deslizantes en tiempo discreto


Estructura del controlador

En esta seccin se disea el control por modos deslizantes con modelado por redes neuronales para forzar al sistema no lineal (4.5) a que siga la trayectoria generada por el modelo de referencia estable que tiene la siguiente forma: ym (k + 1) = a0 ym (k) + . . . + an ym (k n) + b0 v(k) + . . . + bm v(k m) sigue: ec (k + 1) = ym (k + 1) y(k + 1) Ahora se dene el vector e(k) = [ec (k) ec (k n + 1)]T (4.33) (4.32)

donde v(k) es la entrada de referencia. Se dene el error de seguimiento de trayectoria como

4.4 Control por modos deslizantes en tiempo discreto

75

En este documento se propone un controlador por modos deslizantes como sigue: ( 1 b u(k) = g {f + ym (k + 1) + K T e(k) (k)sign [s(k)]} si |u(k)| b (u(k)) = si |u(k)| > b u(k) = b (4.34) b b donde f y g se tienen del modelador por redes neuronales, considerando el algoritmo de modicacin dado en (4.23) se tiene que g > 0, tambin se tiene: b K = [k1 kn ]T Rnx1 el cual se selecciona tal que sn + n 2k1 sn1 + + 2 2 kn es estable, (k + 1) es una ganancia (4.35)

variante en tiempo la cual satisface:

(k) = ei (k)sign [s(k)] + eck y se dene la funcin signo como sigue: 1 si s(k) > 0 sign [s(k)] = 0 si s(k) = 0 1 si s(k) < 0

donde ei (k) es el error de modelado el cual esta dado en (4.5), (4.14) y (4.19), c > 0 y > 0

(4.36)

s(k) es la funcin de conmutacin la cual se dene como sigue: s(k) = ec (k) + K T e(k 1) = ec (k) + k1 ec (k 1) + . . . + kn ec (k n) (4.37)

Comentario 4.3 El control por modos deslizantes propuesto en esta seccin es similar al control propuesto en [55], la diferencia es que en [55] la ganancia es constante, aqu la ganancia (k) varia con el tiempo con el error debido a la variacin del error modelado ei (k) y a un termino exponencial decreciente eck . El castaeo de u(k) depende de dos hechos: del error de modelado y de las constantes c y . Una c ms pequea causa menos castaeo y mas grande error de seguimiento de trayectoria. Un mejor c se puede elegir por simulaciones. La amplitud del castaeo en u(k) esta determinado por la ganancia (k), esta ganancia decrece

76

Control por modos deslizantes con redes neuronales

al decrecer el error de modelado ei (k). Desde el Teorema de la seccin pasada se conoce que ei (k) converge a una bola con radio
, 1
2

la amplitud del castaeo se reduce conforme el error

de modelado ei (k) converge. El controlador por modos deslizantes normal requiere de una ganancia constante mayor que la cota de la incertidumbre para garantizar la robustez [55], [87]. La robustez del controlador (4.34) se puede explicar como sigue: cuando la incertidumbre estructural es mas grande ( es ms grande), la zona muerta (4.22) y el radio grandes. As ei (k) es ms grande y el castaeo se incrementa. La estructura del control por modos deslizantes con modelador por redes neuronales esta dada en la Figura 4.2. Desde la desigualdad (4.24) obtenida del Teorema de la seccin pasada se conoce que el error de modelado ei (k) est acotado, es decir: l supe2 m i k |ei (k + 1)| H (k) 1
2 1
2

son mas

|ei (k)| H

(4.38)

donde H es una constante positiva. El siguiente lema da la cota de la funcin de conmutacin. Lemma 4.1 La funcin de conmutacin (4.37) en el controlador por modos deslizantes en tiempo discreto (4.34) satisface la condicin (4.4), es decir: |s(k + 1)| + (1 + ) H donde y H estn dadas en (4.14) y (4.38) . Demostracin. Desde (4.14) y (4.15) el error de modelado satisface lo siguiente: e g ei (k + 1) = f + e (u(k)) (4.40) (4.39)

e b donde f = f f y e = b g. Sustituyendo el control (4.34) en la planta (4.5), el sistema en g g lazo cerrado es: b e b y(k + 1) = f f + gg [f + ym (k + 1) + K T e(k) (k)sign [s(k)]] g e = f(k) + ym (k + 1) + K T e(k) (k)sign [s(k)] e(k) (u(k)) g

4.4 Control por modos deslizantes en tiempo discreto

77

Figura 4.2: Control neuronal utilizando modos deslizantes

78 Desde (4.33):

Control por modos deslizantes con redes neuronales

La funcin de conmutacin (4.37) es:

e e ec (k + 1) + K T e(k) = (k)sign [s(k)] + f(k) + g (k) (u(k)) s(k + 1) = ec (k + 1) + K T e(k)

(4.41)

(4.42)

Usando (4.42) y (4.40), (4.41) se convierte en: s(k + 1) = (k)sign [s(k)] + ei (k + 1) = ei (k)sign [s(k)]2 + sign [s(k)] eck + ei (k + 1) Se calcula s(k + 1) con (4.43). Si s(k) 6= 0, sign2 [s(k)] = 1, (4.43) se convierte en: s(k + 1) = ei (k + 1) ei (k) + sign [s(k)] eck Desde (4.38) se conoce que: |s(k + 1)| (1 + ) H + |sign [s(k)]| eck (1 + ) H + si s(k) = 0, sign2 [s(k)] = 0 se tiene: s(k + 1) = ei (k + 1) entonces, usando (4.38), (4.46) se convierte en: |s(k + 1)| H < (1 + ) H + desde (4.45) y (4.47), (4.39) es cierto. Comentario 4.4 Si se desconoce el comportamiento de las funciones no lineales f() y g(), se propone que se aproximen estas con redes neuronales, para esto solamente se cuenta con el error de identicacin ei (k), como el aproximador de funciones con redes neuronales es lento y trabaja en lnea con el controlador, si se considera el controlador con redes neuronales sin modos deslizantes se tiene la siguiente dinmica del error s(k + 1) = ei (k + 1) que (4.47) (4.46) (4.45) (4.44) (4.43)

4.4 Control por modos deslizantes en tiempo discreto

79

diere a (4.44), en este caso se tiene que siempre va a permanecer el error de identicacin ei (k + 1) debido a que las redes neuronales no proporcionan una buena identicacin. Los modos deslizantes no pueden compensar a la funcin no lineal g() dado que esta multiplica al control como indica en (4.5), se tiene que utilizar el aproximador por lo menos para estimar g(), si se considera esto el controlador con redes neuronales para aproximar g() y modos deslizantes con ganancia ja para compensar f() se tiene la siguiente dinmica del error s(k + 1) = ei (k + 1) Kei (k) con lo cual dado que ei (k + 1) es grande debido a lo ya explicado, se requiere de una ganancia de modos deslizantes K grande para compensar este tiene la siguiente dinmica del error s(k + 1) = ei (k + 1) ei (k) + sign [s(k)] eck donde el un controlador exponencialmente estable. error, lo cual produce castaeo. En el controlador con aproximador de funciones neuronal de trmino ei (k) + sign [s(k)] eck compensa a ei (k + 1). Si se conociera ei (k + 1) se tendra

4.4.2.

Anlisis de estabilidad para el control en lazo cerrado

Ahora se discute la estabilidad del sistema en lazo cerrado. (4.5) se puede escribir en espacio de estados como (4.8) [38]. El subsistema de control de (4.8) es: zn+1 (k + 1) = zn+2 (k) . . . z (k + 1) = (u(k))
n+m

este se puede expresar como sigue:

0 1 0 . ... . . (k + 1) = (k) + bu (u(k)) 0 1 0 0

(4.48)

80

Control por modos deslizantes con redes neuronales 0 . . . 1

0 ... es estable, 0 1 0 0 el sistema (4.48) es estable. La funcin de conmutacin (4.42) se escribe como sigue: T T donde (k) = [zn+1 (k) zn+m (k)] , bu = [0 1] . Ya que ec (k + 1) = K T e(k) + s(k + 1) Por la denicin e(k) = [ec (k n + 1) ec (k)]T , (4.49) se escribe como sigue: e(k + 1) = Ae(k) + bs(k + 1) (4.50) 0 1 0 0 0 0 1 0 . . ... . Rnxn , b = [0, 0, 1]T Rnx1 . Ya que det (sI A) = donde A = . . . 0 0 1 kn k1 n n1 kn + kn1 s + + k1 sn1 + sn [33], se selecciona K = [k1 kn ]T tal que 2A es estable ( = 2). Un valor estable de 2A puede hacer que la siguiente funcin tenga soluciones positivas denidas para P y Q: 2AT P A P = Q donde P = P T > 0, Q = QT > 0. Teorema 4.2 El sistema en lazo cerrado con control por modos deslizantes (4.34) y modelador por redes neuronales (4.12) y (4.21), es uniformemente estable y la cota superior del error de seguimiento de trayectoria es: l sup m
k T 2pnn 2 1X T r e (k)e(k) T k=1 m (Q) n

(4.49)

(4.51)

(4.52)

donde r = (1 + ) H + , y H estn dadas en (4.14) y (4.38), P y Q estn dados en (4.51), b = [0, 0, 1]T , bT P b = pnn .

4.4 Control por modos deslizantes en tiempo discreto Demostracin. Se dene la siguiente funcin de energa: V (k) = eT (k)P e(k) donde P es una solucin de (4.51). Usando (4.50) se calcula V (k): V (k) = eT (k + 1)P e(k + 1) eT (k)P e(k) = eT (k) AT P A P e(k) + 2eT (k)AT P bs(k + 1) + bT P bs2 (k + 1) 2eT (k)AT P bs(k + 1) eT (k)AT P Ae(k) + bT P bs2 (k + 1) Sea: 2bT P bs2 (k + 1) cs2 (k + 1) (4.54) es:

81

(4.53)

(4.54)

Usando la siguiente desigualdad:

(4.55)

(4.56)

donde c = 2bT P b 0. Por (4.51) y desde (4.39) se tiene |s(k + 1)| r = (1 + ) H + , V (k) eT (k) 2AT P A P e(k) + cr2 V (k) eT (k)Qe(k) + cr2 multiplicando por P 1 P se tiene lo siguiente: V (k) eT (k)QP 1 P e(k) + cr2 (4.57)

usando (4.51) se tiene lo siguiente:

V (k) m (Q) m (P 1 ) eT (k)P e(k) + cr2 n n V (k) V (k) + cr2 donde = m (Q) m (P 1 ) > 0, desde [37] se tiene que V (k) est acotado, as e(k) n n est acotado. Sumando (4.57) desde 1 a T y usando sabiendo que V (T ) > 0 y que V (1) es constante: V (T ) V (1)
1 l sup T m T T X k=1 T X k=1

m (Q) eT (k)e(k) + 2bT P br2 n


T

1 m (Q) eT (k)e(k) V (1)l sup T + 2bT P br2 m n

82

Control por modos deslizantes con redes neuronales

el error de seguimiento de trayectoria ec (k) tambin est acotado.

entonces (4.52) si se satisface. Por la denicin e(k) = [ec (k) ec (k n + 1)]T se tiene que

Comentario 4.5 P y Q debe satisfacer la ecuacin (4.51), entonces ninguno de estos parmetros se puede usar para hacer mas pequeo el error de seguimiento de trayectoria en (4.52).

4.5.

Simulaciones

En esta seccin, se dan dos ejemplos para ilustrar como se aplican los resultados terico propuestos en esta seccin. El primer ejemplo es el modelo de traco tomado de [31] y [32] el cual se explica a detalle en el captulo anterior. El segundo ejemplo es ms complejo y con mayor dimensin, este tambin es usado por varios autores como son [48] y [8].

4.5.1.

Control propuesto aplicado al modelo de trco

El modelo se explica a detalle en el captulo anterior. Se va a consideras solamente el control para i = 1, tomando esto se cuenta a partir de (3.44) se tiene el siguiente modelo: ( n( Aout (k) = m c1 , 1 (k)) L 1 k m c2 , J2 2 (k)) L si 2 (k) c2 n( k c2 (4.58)

Ain (k) = 2

1 (k

c2 (J2 2 (k)) L si 2 (k) > J2 c2 k f1,2 (k) = m (Ain (k), Aout (k)) n 2 1 k k + 1) = 1 (k) f1,2 (k) L + f0,1 (k) L

donde f0,1 (k) = (u(k)) es la variable de control, 2 (k) = 8, y(k) = 1 (1) = 8, c1 = 6, J1 = 10, k = 20 segundos y L = 40 metros, esto es, cada bloque tiene 40 metros de largo, se toman datos cada 20 segundos, donde, cuando se tiene menos de 6 vehculos en 40 metros se tiene movimiento libre, pero cuando se tiene ms de 6 vehculos en 40 metros se tiene un embotellamiento. Notar que se tiene en el bloque 2 la condicin de embotellamiento y la condicin inicial del bloque 1 es tambin de embotellamiento, el sistema (4.58) tiene la misma

4.5 Simulaciones estructura que (4.5) con g(1) = r (k + 1) = yr (k + 1) como: r (k + 1) = 4 r (k + 1) = 2 si 50 < k 100 si 0 k 50
k L

83 > 0 que satisface (4.7). Se va a disear un controlador

para forzar que (4.58) siga a un modelo de referencia. Se selecciona el modelo de referencia

r (k + 1) = 2 si 150 < k 200 notar que se tiene una seal de referencia tal que obligue a que se tenga la condicin de vehculos viajando con movimiento libre. Se usa usa una red neuronal para modelar f [z(k)] =
k 1 (k) f1,2 (k) L y g (1) = k , L

r (k + 1) = 0 si 100 < k 150

(4.59)

el numero de estados es n + m = 1, as el nmero de neuronas

f f g en la capa oculta es q = 1, = 1. Los pesos iniciales son vj (1), wji (1) y wji (1) se eligen

g como nmeros aleatorios entre (0, 1), vj (1) = 0,95 y M = 0,05. La ley de actualizacin es

(4.21) con = 0,01. Usando el modelador neuronal propuesto, el control por modos deslizantes empleado es (4.34), se seleccionan los parmetros del controlador como k1 = 0,01 y c = 100 , = 0,1. Ahora se compara el comportamiento del controlador por modos deslizantes con ganancia variante en el tiempo contra el control por retroalimentacin con modelador por redes neuronales [8] y contra el controlador por modos deslizantes con ganancia ja [55], la ganancia ja se elige como = 0,05. Si > 0,05, el control por modos deslizantes con ganancia ja [55] general mucho castaeo. En [8] y [55] la modelado por redes neuronales es fuera de lnea, es decir, el control se aplica despus que se ha nalizado la etapa de modelado. En este documento se consideran modelador y controlador en lineal (on-line). Los resultados del control en modos deslizantes con ganancia variante en tiempo se muestran en Figura 4.3. El error de seguimiento de trayectoria de los 3 controladores se muestra en la Figura 4.4. Se puede ver que aunque el error de modelado no es muy pequeo, el error de seguimiento de trayectoria si es muy pequeo por la compensacin de los modos deslizantes. Tambin la funcin de conmutacin es decreciente, pero esta no converge a cero. El control por modos deslizantes en tiempo discreto con redes neuronales propuesto en este documento tiene un

84

Control por modos deslizantes con redes neuronales

Figura 4.3: Desempeo del controlador por modos deslizantes con ganancia variante

Figura 4.4: Errores de seguimiento de trayectoria

4.5 Simulaciones

85

mejor seguimiento de trayectoria an cuando el modelado no es muy bueno. Para este sistema no lineal simple el control neuronal por modos deslizantes con ganancia variante en el tiempo tiene mejor desempeo que el control neuronal por modos deslizantes con ganancia ja y que el control neuronal.

4.5.2.

Control propuesto aplicado a un sistema no lineal acadmico complejo

Considerando el sistema dado en [8], [48] y [56]: y(k + 1) = 0,2y 2 (k) + 0,2y(k 1) (4.60)

+0,4 sin [0,5 (y(k) + y(k + 1))] cos [0,5 (y(k) + y(k + 1))] + 1,2 (u(k))

donde (u(k)) es el ujo de entrada (entrada de control), la cual puede ser positivo o negativo. Se desea forzar la salida del sistema (4.60) que siga el siguiente modelo de referencia lineal: yr (k + 1) = 0,6 yr (k + 1) = 0,4 si 50 < k 100 si 0 k 50

yr (k + 1) = 0,2 si 100 < k 150 yr (k + 1) = 0,4 si 150 < k 200

(4.61)

Se usa una red neuronal para modelar f (z(k)) = 0,2y 2 (k)+0,2y(k1)+0,4 sin [0,5 (y(k) + y(k + 1))] cos [ y g (1) = 1,2, el nmero de estados es n + m = 2, el nmero de neuronas en la capa oculta
f f g se selecciona como q = 2, los pesos iniciales son vj (1), wji (1), y wji (1) se seleccionan como g nmeros aleatorios entre (0, 1), vj (1) = 0,95 y M = 0,05. La ley de actualizacin es (4.21)

con = 0,01. Se seleccionan los parmetros " controlador como k1 = 0,01, k2 = 0,001 del # 0 1 y c = 100 y = 0,1. Para (4.50), A = , los valores propios de A son 0,001 0,01 1 (2A) " 0,054 y # 2 (2A) = 0,074, as # es estable. Una posible combinacin de P y Q = A " 1 0 1 0 es P = >0yQ= > 0. Se compara el algoritmo propuesto en este 0 5,0021 0 1 documento contra el control por retroalimentacin con modelador por redes neuronales [8] y

86

Control por modos deslizantes con redes neuronales

Figura 4.5: Desempeo del controlador por modos deslizantes con ganancia variante

contra el controlador por modos deslizantes con ganancia ja [55] con ganancia = 0,1. El desempeo del control por modos deslizantes de ganancia ja variante en tiempo contra el de ganancia ja se muestran en la Figura 4.5. La ganancia variante en tiempo (k) en (4.34) reduce el castaeo comparado al de ganancia ja. El error de seguimiento de trayectoria de los tres controladores se muestra en la Figura 4.6. Si c es pequea, el castaeo es menor pero el error de seguimiento es mas grande. Para este sistema no lineal complejo el control neuronal por modos deslizantes con ganancia variante en el tiempo tiene mejor desempeo que el control neuronal por modos deslizantes con ganancia ja y que el control neuronal.

4.6 Conclusin

87

Figura 4.6: Errores de seguimiento de trayectoria

4.6.

Conclusin

En esta seccin se propone un nuevo controlador por modos deslizantes para una clase de sistemas no lineales en tiempo discreto. Las principales contribuciones son: 1) Se propone un nuevo algoritmo de redes neuronales para la aproximacin de funciones no lineales, el cual usa las tcnicas de zona muerta y proyeccin. La zona muerta asegura que el error de modelado es acotado, la proyeccin evita cualquier singularidad en la ley de control. 2) La ganancia variante en tiempo en el controlador por modos deslizantes asegura menor castaeo comparado al controlador por modos deslizantes con ganancia ja. Se prueba la estabilidad del sistema en lazo cerrado con el controlador por modos deslizantes y el modelador por redes neuronales. El modelador y el controlador trabajan en lnea. Desde el punto de vista de los sistemas dinmicos, este control puede ser til para aplicaciones de control con redes neuronales que requieren actualizacin de los pesos en lnea.

88

Control por modos deslizantes con redes neuronales

Captulo 5 Conclusiones y trabajo futuro


Se propone un mtodo de identicacin para redes neuronales recurrentes. Para aplicar el algoritmo de elipsoidal acotado se requiere que el error de incertidumbre estructural sea acotado, adems este algoritmo tiene una convergencia en parmetros ms rpida que el algoritmo de propagacin hacia atrs. Se modica el algoritmo elipsoidal con un coeciente de aprendizaje variante en tiempo para entrenar una red neuronal. Se actualizan tanto capa oculta como capa de salida de una red neuronal recurrente en espacio de estados. Se prueba que el error de identicacin converge a una zona la cual depende del error de la incertidumbre estructural. Se propone un nuevo controlador por modos deslizantes para una clase de sistemas no lineales en tiempo discreto. Las principales contribuciones son: 1) Se propone un nuevo algoritmo de redes neuronales para la aproximacin de funciones no lineales, el cual usa las tcnicas de zona muerta y una modicacin. La zona muerta asegura que el error de modelado es acotado, la su modicacin evita cualquier singularidad en la ley de control. 2) La ganancia variante en tiempo en el controlador por modos deslizantes asegura menor castaeo comparado al controlador por modos deslizantes con ganancia ja. Se prueba la estabilidad del sistema en lazo cerrado con el controlador por modos deslizantes y el modelador por redes neuronales. El modelador y el controlador trabajan en lnea. Desde el punto de vista de los sistemas dinmicos, este control puede ser til para aplicaciones de control con redes

90 neuronales que requieren actualizacin de los pesos en lnea. Los trabajos futuros son los siguientes:

Conclusiones y trabajo futuro

Se pretende encontrar otra ganancia adaptable para el control por modos deslizantes la cual elimine el castaeo. En la actualidad, se utiliza una variante del algoritmo de propagacin hacia atrs para el modelado de funciones en el control por modos deslizantes, se puede cambiar el algoritmo de propagacin hacia atrs por una variante del algoritmo elipsoidal acotado para el modelado de funciones en el control por modos deslizantes. Se pretende trabajar con sistemas no lineales con modelo en espacio de estados en tiempo discreto.

Captulo 6 Apndice: publicaciones


1. Jos de Jess Rubio and Wen Yu, A new discrete-time sliding-mode control with timevarying gain and neural identication, International Journal of Control, Vol. 79, No. 4, 338-348, 2006 2. Jos de Jess Rubio and Wen Yu, Dead-zone Kalman lter algorithm for recurrent neural networks, 44rd IEEE Conference on Decision and Control, CDC05, Seville, Spain, 2562-2567, 2005. 3. Jos de Jess Rubio, Wen Yu, Andrs Ferreyra, A new discrete-time sliding-mode control with neural identication, 25th American Control Conferences, ACC06, Minneapolis, Minnesota, USA, 5413-5418, 2006 4. Jos de Jess Rubio, Wen Yu, Discrete-Time Sliding-Mode Control Based on Neural Networks, Advances in Neural Networks -ISNN 2006, Srpinger-Verlgag, Lecture Notes in Computer Science, LNCS 3972, 956-961, 2006 5. Wen Yu, Jos de Jess Rubi, Xiaoou Li, Recurrent Neural Networks Training with Stable Risk-Sensitive Kalman Filter Algorithm, Internal Joint Conference on Neural Networks, IJCNN05, Montreal, Canada, 700-705, 2005

92

Apndice: publicaciones 6. Jos de Jess Rubio, Wen Yu, A new discrete-time sliding-mode control using neural networks, Congreso anual de la Asociacin de Mxico de Control Automtico 2005, Cuernavaca, Mexico, 213-218, 2005 7. Jos de Jess Rubio, Nonlinear system identication with recurrent neural networks and dead-zone Kalman lter algorithm, Neurocomputing, Vol. 70, No. 13, 2460-2466, 2007. 8. Jos de Jess Rubio, Wen Yu, Recurrent neural networks training with optimal bounded ellipsoid algorithm, 26th American Control Conferences, ACC07, New York, USA, 2007. Aceptado para publicacin.

Bibliografa
[1] A.Alessandri, MCuneo, S.Pagnan, M.Sanguineti, On the convergence of EKF-based parameters optimization for neural networks, 42nd IEEE Conference on Decision and Control, 6181 - 6186, 2003 [2] A. Bartoszewicz, Discrete-Time Quasi-Sliding Mode Control Strategies, IEEE Transactions on Industrial Electronics, Vol.45, No.4, 633-637, Nobember 1998. [3] R.G.Bland, D.Goldfarb, and M.J.Todd, The ellipsoid method: A survey, Operation Research, vol. 29, pp. 10391091, 1981. [4] R.K. Boel, M.R.James and I.R.Petersen, Robustness and Risk-Sensitive Filtering, IEEE Trans. Automatic Control, Vol.47, No.3, 451-462, 2002. [5] J. B. D. Cabrera and K. S. Narendra, Issues in the Application of Newral Networks for Tracking Based on Inverse Control, IEEE Transactions on Automatic Control, Vol.44, No.11, 2007-2027, Nobember 1999. [6] F. Charbonnier, H. Alla and R. David, The Supervised Control of Discrete-Event Dynamic Systems, IEEE Transactions on Control Systems Technology, Vol.7, No.2, 175187, March 1999. [7] S. Chen, S. A. Billings and P. M. Grant, A recursive hybrid algorithm for nonlinear system identication using radial basis function networks, Int. J. Contr., Vol.55, No.5, 1051-1070, 1992.

94

BIBLIOGRAFA

[8] F.-C. Chen and H. K. Khalil, Adaptive Control of a Class of Nonlinear Discrete Time Systems Using Neural Networks, IEEE Transactions on Automatic Control, Vol.40, No.5, 791-801, May 1995. [9] B. Chopard P. O. Luthi, P-A Queloz, Cellular automata model of car trac in a twodimensional street network, IJ. Phys. A: Math. Gen. 29, 2325-2336, 1996. [10] F.N.Chowdhury, A new approach to real-time training of dynamic neural networks, International Journal of Adaptive Control and Signal Processing, 509-521, 2003. [11] M. J. Corless and G. Leitman, Continuous State Feedback Guaranteeing Uniform Ultimate Buondnesss for Uncertain Dynamic Systems, IEEE Transactions on Automatic Control, Vol.26, 1139-1144, 1981. [12] M.V.Correa, L.A.Aguirre, and R.R.Saldanha, Using Steady-State Prior Knowledge to Constrain Parameter Estimates in Nonlinear System Identication, IEEE Transactions on Circuits and Systems, Part I, Vol.49, No.9, 1376-1381, 2002. [13] G.Cybenko, Approximation by Superposition of Sigmoidal Activation Function, Math.Control, Sig Syst, Vol.2, 303-314, 1989. [14] S.Dey and J.B. Moore, Finite-Dimensional Risk-Sensitive Filters and Smoothers for Discrete-Time Nonlinear Systems, IEEE Trans. Automatic Control, Vol.44, No.6, 12341239, 1999. [15] J.A. Dickerson, B.Kosko, Fuzzy function approximation with ellipsoidal rules, IEEE Transactions on Systems, Man and Cybernetics, Vol.26, 542-560, Aug 1996. [16] M. Dogruel, Input Linearization of Nonlinear Systems via Pulse-With control, IEEE Transactions on Automatic Control, Vol.48, No.4, 635-638, April 2003. [17] El Ghaoui, Robust ltering for discrete-time systems with bounded noise and parametric uncertainty, IEEE Trans. Automatic Control, Vol.46 , No.7, 1084 - 1089, 2001

BIBLIOGRAFA

95

[18] E. Umes-Eronini, Dinmica de sistemas y control, International Thomsom Editores, 2001. [19] Y. Fang, T. W. S. Chow and X. D. Li, Use of a Recurrent Neural Network in Discrete Sliding-Mode Control, IEE Proceeding-Control Theory Applications, Vol.146, No.1, 8490, 1999. [20] A. D. Febraro, G. Giglio, N. Sacco, Urban Trac Control Structure Based on Hybrid Petri Nets, IEEE Transactions on intelligent transportation systems, Vol. 5,No.4, 224236, 2004. [21] E. Fogel and Y. F. Huang, On the value of information in system identication: Bounded noise case, Automatica, vol. 18, no.2, pp. 229238, 1982. [22] K. Furuta, Sliding mode control of a discrete system, Systems and Control Letters, No.14, 145-152, 1990. [23] W. Gao, Y. Wang, and A. Homaifa, Discrete-time variable structure control systems, IEEE Trans. Ind. Electron., Vol.42, 117122, 1995. [24] S. S. Ge, J. Zhang and T. H. Lee, Adaptive Neural Network Control for a Class of MIMO Nonlinear Systems with Disturbances in Discrete-Time, IEEE Transactions on Systems, Man and Cybernetics, Vol.34, No.4, 1630-1645, August 2004. [25] S. Gollamudi, S.Nagaraj, S.Kapoor and Y.F.Huang, Set Membership State Estimation with Optimal Bounding Ellipsoids, Proc. Int. Symp. on Information Theory and its App., pp. 262-265, Victoria, B.C., Canada, September, 1996. [26] G. C. Goodwin and K. Sang Sin, Adaptive ltering prediction and control, Prentice Hall, Englewood Clis, NJ07632, 1984. [27] L.Guo, Estimating time-varying parameters by the Kalman lter based algorithm: stability and convergence, IEEE Trans. Automatic Control, 141-147, 1990.

96

BIBLIOGRAFA

[28] S.Haykin, Neural Networks- A Comprehensive Foundation, Macmillan College Publ. Co., New York, 1994. [29] Jos Ramn Hilera Gonzles y Vctor Jos Martnez Hernando, Redes Neuronales Articiales, Adison-Wesley Iberoamericana, E.U.A., 45-180, 1995. [30] J. Hopeld. Networks with graded response have collective computational properties like those of two-state networks, Procedings of the National Acaddemic of Sciences, 3088-3092, 1982. [31] R. Horiguchi, M. Katakura, H. Akahane, M. Kuwahara, A Development of a Trac Simulator for Urban Road Networks: Avenue, Vehicle Navigation and Information Systems Conference Proceedings, 245-250, 1994. [32] R. Horiguchi, M. Katakura, I. Nishikawa, The Model Validation of Trac System for Urban Road Networks: Avenue, Proceedings of The Second Worl Congress on Intelligent Transport Systems, 1977-1982, 1995. [33] R.A.Horn, C.R.Johnson, Matrix Analysis, Cambridge University Press, 1985. [34] S. Hui and H. Kak, On discrete-time variable structure sliding mode control, Systems and Control Letters, No.38, 283-288, 1999. [35] C.-L. Hwang, and C.-H. Li, A Discrete-Time Multivariable Neuro-Adaptive Control for Nonlinear Unknown Dynamic Systems, IEEE Transactions on Systems, Man and Cybernetics, Vol.30, No.6, 865-877, December 2000. [36] Y. Iiguni, H. Sakai, Member, IEEE and Higekatsu Tokumaru, A Real-Time Learning Algorithm for a Multilayered Neural Network Based on the Extended Kalman Filter, IEEE Transactions on Signal Processing, Vol.40, No.4, 959-966, April 1992. [37] P.A.Ioannou and J.Sun, Robust Adaptive Control, Prentice-Hall, Inc, Upper Saddle River: NJ, 1996

BIBLIOGRAFA

97

[38] S. Jagannathan, Control of a Class of Nonlinear Discrete-Time Systems Using Multilayer Neural Networks, IEEE Transactions on Neural Networks, Vol.12, No.5, 1113-1120, September 2001. [39] M. Jayakumar and R.N. Banavar, Risk-Sensitive Filters for Recursive Estimation of Motion From Images, IEEE Trans. Pattern Analysis and Machine Intelligence, Vol.20, No.6, 659-667, 1998. [40] D.Joachim and J.R.Deller, Multiweight Optimization in Optimal Bounding Ellipsoid Algoritms, ITransactions on Signal Processing, August 2004. [41] S.Kapoor, S.Gollamudi, S. Nagaraj and Y. F.Huang, Tracking of Time-Varing Parameters using Optimal Bounding Ellipsoid Algorithms, Proc. of 34th Allerton Conference on Comm., Contr. and Computing., Monticello, Oct. 1996. [42] N.S. Kayuri,V.Vienkatasubramanian, Representing bounded fault classes using neural networks with ellipsoidal activation functions, Computers & Chemical Engineering, Vol. 17, no. 2, pp. 139-163. 1993 [43] T. Kohonen, Associative Memory. Asystem theoretical approach, Springer Verlag, 1977. [44] S. Kollias and D. Anastassiou, An adaptive least square algorithm for ecient training of articial neural networks, IEEE Transactions on Circuits Systems, Vol.36, No.5, 10921101, 1989. [45] E.B. Kosmatopoulos, M.M. Poly carpou, M.A. Christodoulou and P.A. Ioannou, HighOrder Neural Network Structures for Identication of Dynamical Systems, IEEE Transactions on Neural Networks, Vol.6, No.2, 422-431, 1995. [46] D. Kukolj and E. Levi, Identication of Conplex Systems Based on Neural TakagiSugeno Fuzzy Model, IEEE Transactions on Systems, Man and Cybernetics, Vol.34, No.1, 272-1282, 2004.

98

BIBLIOGRAFA

[47] L.Jin, P. N. Nikiforunk, M.M. Gupta, Adaptive Model Reference Control of DiscreteTime Nonlinear Systems Using Neural Networks, Control-Theory and Advanced Technolnogy, Vol.10, No.4, Part.3, 1373-1399, September 1999. [48] C.-H. Lee and C.-C. Teng, Identication and Control of Dynamic Systems Using Recurrent Fuzzy Neural Networks, IEEE Transactions on Fuzzy Systems, Vol.8, No.4, 349-366, August 2000. [49] F. L. Lewis, Control of Robot Manipulators, NJ10022, 1993. [50] S. Limanond and J. Si, Neural- Network-Based Control Design: An LMI Approach, IEEE Transactions on Neural Networks, Vol.9, No.6, 1402-1429, November 1998. [51] F.-J.Lin, R.-F. Fung and R.-J. Wai, Conparison of Sliding-Mode and Fuzzy Neural Network Control for Motor-Toggle Servomechanism, IEEE Transactions on Mechatronics, Vol.3, No.4, 302-318, December 1998. [52] R.G.Lorenz, and S.P.Boyd, Robust Minimum Variance Beamforming, IEEE TRANSACTIONS ON SIGNAL PROCESSING, VOL. 53, NO. 5, 1684-1696, 2005. [53] J.T.Lo and T.Wanner, Existence and Uniqueness of Risk-Sensitive Estimates, IEEE Trans. Automatic Control, Vol.47, No.11, 1945-1 [54] D. Q. Mayne and H. Michalska, Receding Horizont Control for Nonlinear Systems, IEEE Transactions on Automatic Control, Vol.35, No.7, 814-824, November 1990. [55] D. Muoz and D. Sbarbaro, An Adaptive Sliding-Mode Controller for Discrete Nonlinear Systems, IEEE Transactions on Industrial Electronics, Vol.47, No.3, 574-581, June 2000. [56] K.S.Narendra and K.Parthasarathy, Identication and Control of Dynamical Systems Using Neural Networks, IEEE Trans. Neural Networks, Vol.1, No.1, 4-27, 1990. [57] S.A.Nazin and B.T.Polyak, Limiting Behavior of Bounding Ellipsoids for State Estimation, .

BIBLIOGRAFA

99

[58] K.Nishiyama, K.Suzuki, H -learning of layered neural networks, Neural Networks, IEEE Trans.Neural Networks, Vol.12, No. 6, 1265 - 1277, 2001 [59] H. N. Nounou and K. M. Passino, Stable Auto-Tuning of Adaptive Fuzzy /Neural Controllers for Nonlinear Discrete-Time Systems, IEEE Transactions on Fuzzy Systems, Vol.12, No.1, 70-83, February 2004. [60] K. Ogata, Discrete-time control systems, Prentice Hall, Englewood Clis, NJ07458, 1995. [61] A. G. Parlos, S. K. Menon and A. F. Atiya, An Algorithm Approach to Adaptive State Filtering Using Recurrent Neural Network, IEEE Transactions on Neural Networks, Vol.12, No.6, 1411-1432, 2001. [62] A. G. Parlos, S. Parthasarath and A. F. Atiya, Neuro-Predictive Process Control Using On-Line Controller Adaptation, IEEE Transactions on Control Systems, Vol.9, No.5, 741-755, September 2001. [63] S. Pich, B. S.-R., D. Jonson and Mark Gerules, Nonlinear Model Predictive Control Using Neural Networks, IEEE Control Systems Magazine, 53-62, June 2000. [64] K. M. Passino and S. Yurkovich, Fuzzy Control. Menlo Park, CA: Addison-Wesley Longman, 1998. [65] G. V. Puskorius and L. A. Feldkamp, Neurocontrol of Nonlinear Dynamical Systems with Kalman Filter Trained Recurrent Networks, IEEE Transactions on Neural Networks, Vol.5, No.2, 279-297, March 1994. [66] K. Reif and R. Unbehauen, The Extended Kalman Filter as an Exponential Observer for Nonlinear Systems, IEEE Transactions on Signal Processing, Vol.47, No.8, 2324-2328, August 1999.

100

BIBLIOGRAFA

[67] K.Reif, S.Gunther, E.Yaz, R.Unbehauen, Stochastic stability of the continuous-time extended Kalman lter, IEE Proceedings-Control Theory and Applications, 1350-2379, 2000 [68] I. Rivals and L. Personnanz, Nonlinear Internal Model Control Using Neural Networks: Application to Processes with Delay and Design Issues, IEEE Transactions on Neural Networks, Vol.11, No.1, 80-90, January 2000. [69] L.Ros, A.Sabater and F.Thomas, An Ellipsoidal Alculus Based on Propagation and Fusion, IEEE Transactions on Systems, man, and Cybernetics, Vol.32, No.4, 430-442, 2002. [70] Jos de Jess Rubio and Wen Yu, Nonlinear system identication with recurrent neural networks and dead-zone Kalman lter algorithm, Neurocomputing, 2007. [71] Jos de Jess Rubio and Wen Yu, Dead-zone Kalman lter algorithm for recurrent neural networks,44rd IEEE Conference on Decision and Control, CDC05, Seville, Spain, 25622567, 2005. [72] Wen Yu, Jos de Jess Rubi, Xiaoou Li, Recurrent Neural Networks Training with Stable Risk-Sensitive Kalman Filter Algorithm, 2005 International Joint Conference on Neural Networks, IJCNN05, Montreal, Canada, 700-705, 2005. [73] D. W. Ruck, S. K. Rogers, M. Kabrisky, P. S. Maybeck and M. E. Oxley, Comparative Analysis of propagacin hacia atrs and the Extended Kalman Filter for Training Multilayer Perceptrons, IEEE Transactions on Pattern Analysis and Machine Intelligence, Vol.14, No.6, 686-691, June 1992. [74] D.E.Rumelhart, G.E.Hinton and R.J.Williams, Learning representations by backpropagating errors, Nature, Vol.323, 533-536, 1986 [75] M. C. Saaj, B. Bandyopadhyay and H. Unbehauen, A new Algorithm for Discrete-Time Sliding-Mode Control Using Fast output Sampling Feedback, IEEE Transactions on Industrial Electronics, Vol.49, No.3, 518-523, June 2002.

BIBLIOGRAFA

101

[76] M.G. Safonov, M. Athans, Robustness and computational aspects of nonlinear stochastic estimators and regulators, IEEE Trans. on Automatic Control, vol. 23, no. 4, 717-725, 1978. [77] S. Z. Sarpturk, Y. Istefanopolos and O. Kaynak, On the Stability of Discrete-Time Sliding Mode Control Systems, IEEE Transactions on Automatic Control, Vol.32, No.10, 930-932, October 1987. [78] R. S. Scalero and N. Tepelenlioglu, A Fast New Algorithm for Training Feedforward Neural Network, IEEE Transactions on Signal Processing, Vol.40, No.1, 202-210, January 1992. [79] F.C.Schueppe, Uncertain dynamic systems, Englewood clis, Prentice-Hall, 1973 [80] S. Shah F. Palmeieri and M. Datum, Optimal ltering algorithms for fast learning in feed forward neural networks, Neural Networks, Vol.5, 779-787, 1992. [81] S. Singhal and L. Wu, Training multilayer perceptrons with the extended Kalman algorithm, Advances in Neural inform. Processing Syst. I, 133-140, 1989. [82] H. Sira-Ramirez, Nonlinear discrete variable strusture systems in quasi-sliding mode, Int. J. Control, No.5, 1171-1187, 1999. [83] J. E. Slotine, W. Li, Applied Nonlinear Control, Macmillan Pub.Co., Englewood Clis, NJ 07632, 1991. [84] J.Sum, C.L., G. H. Young and W. Kan, On the Kalman Filtering Method in NeuralNetwork Training and Pruning, IEEE Transactions on Neural Networks, Vol.10, No.1, 161-166, 1999. [85] C.-H. Tsai and H.-Y. Chung, Neuro Sliding Mode Control With Its Appications to Seesaw Systems, IEEE Transactions on Neural Networks, Vol.15, No.1, 124-134, January 2004.

102

BIBLIOGRAFA

[86] V.I.Utkin, Sliding Modes and Their Application in Variable Structure Systems, MIR Publishers, Moscow, Soviet Union, 1978. [87] V.I.Utkin, Sliding Modes in Optimization and Control, Springer-Verlag, 1992. [88] L. X. Wang, A Course in Fuzzy Systems and Control, Prentice Hall, Englewood Clis, NJ 07458, 1997. [89] E.Weyer, M.C. Campi, Non-asymptotic condence ellipsoids for the least squares estimate, 39rd IEEE Conference on Decision and Control, Sydney, Australia, 2688-2693, 2000. [90] P. Whittle, Risk-sensitive Optimal Control, John Wiley & Sons, NY 10158-0012, USA, 1990. [91] K. W. Wong, C. S. Leung and S. J. Chang., Use of periodic and monotonic activation functions in multilayer feedforward neural networks trained by extended Kalman lter algorithm, IEE Image Signal Process, Vol.149, No.4, 217-224, August 2002. [92] S. Yamada, M. Nakashima and S. Shiono, Reinforcement Learning to Training a Cooperative Network with Both Discrete and Continuous Output Neurons, IEEE Transactions on Neural Networks, Vol.9, No.6, 1502-1508, November 1998. [93] W.Yu, Nonlinear system identication using discrete-time recurrent neural networks with stable learning algorithms, Information Sciences, Vol.158, No.1, 131-147, 2004.949, 2002. [94] X.Yu and G.Chen, Discretization Behaviors of Equivalent Control Based Sliding-Mode Control Systems, IEEE Transactions on Automatic Control, Vol.48, No.9, 1641-1646, 2003. [95] Q. Zhu and L. Guo, Stable Adaptive Neurocontrol for Nonlinear Discrete- Time Systems, IEEE Transactions on Neural Networks, Vol.15, No.3, 653-662, May 2004.

También podría gustarte