Documentos de Académico
Documentos de Profesional
Documentos de Cultura
RESUMEN
Este trabajo se enmarca en el área de la Ingeniería de los Sistemas de Control y trata en particular el desarrollo de
controladores basados en redes neuronales aplicados a robots manipuladores. Este tipo de controladores explotan
fundamentalmente la capacidad de las redes neuronales de aproximar funciones no lineales. Se propone una
estructura de control en paralelo formada por un lazo de realimentación lineal, tipo proporcional-derivativo, más un
lazo de precompensación de la dinámica inversa del robot. La dinámica inversa del manipulador es modelada
mediante una red neuronal utilizando un perceptrón multicapa entrenado con backpropagation. El entrenamiento se
realiza en dos etapas, fuera de línea y en línea. Los algoritmos de control desarrollados fueron simulados para un
robot de dos grados de libertad.
a1 m1
g 2 = m2 g a 2 cos(q1 + q 2 )
q1
La ecuación (7) puede expresarse como
0 x
Figura 1. Robot planar de 2 GDL´s τ = D (q ) q&& + C (q, q& ) + G (q ) (8)
1
K1 = m1 a12 q&12 (3) Simplificando la notación, haciendo
2
P1 = m1 g a1 sin q1 (4) N (q, q& ) = C (q, q& ) + G (q ) + F (q& ) + τ p
Las ecuaciones (11) y (12) representan la dinámica Red neuronal y algoritmo de entrenamiento
inversa del manipulador, es decir, nos dan la posición Ha sido probado [Hornik 1989] que una red
de los elementos del mismo en función de los torques multicapa feedforward es capaz de aproximar
aplicados. cualquier función continua real con precisión
arbitraria. En este trabajo se utilizan perceptrones
Estructura del Controlador multicapa con funciones de activación
En la Figura 2 se aprecia la estructura del controlador sigmoidales. Debido a que la salida de las
propuesto. La señal de control µ, está dada por neuronas sigmoidales está comprendida en el
rango [0 1], y se necesitan valores de salida
µ = µ fb + µ ff (13) positivos y negativos en un rango mayor, se
agrega una última capa de salida con funciones de
activación lineales, siendo su objetivo el de
La acción del controlador PD, está dada por
transformar el rango de salida de las neuronas
sigmoidales a valores adecuados para generar la
µ fb = K P e + K v e& (14) señal de control.
El algoritmo de entrenamiento utilizado es el de
siendo e el vector error de posición, dado por la backpropagation. Mediante este algoritmo se
diferencia entre la posición deseada qd, y la real q. O minimiza una función de error cuadrática dada
sea e = qd – q. e& es el vector error de velocidad. Kp es por la diferencia entre los valores de salida
la matriz diagonal con las ganancias proporcionales de esperados y los que realmente entrega la red
cada articulación y Kv es la matriz diagonal con las [Haykin 1994], esto es, se minimiza la función
ganancias derivativas.
E =
1
(γˆ − γ )2 (16)
µff 2
FF
donde γˆ es el vector de salida dado por la RN, y
+ γ es el vector de salida deseado. Esta técnica es
+ µ q conocida como descenso por gradiente ya que se
PD Robot
ajustan los pesos sinápticos de la red ωij, de forma
qd µfb
proporcional al gradiente de la función de error
dado por la ecuación (16). O sea, según
∂E
La acciónFigura 2. Controlador
del compensador FF,PD
está+ dada
FF por ∆ω ij ( k +1) = −α + β ∆ω ij ( k )
∂ω ij
µ ff = γ (q d , q& d , q&&d ) (15) (17)
donde α es el factor de aprendizaje, cuyo valor está
comprendido normalmente entre 0 y 1, y β es el µff
RN
momento, factor que ayuda a una convergencia más
rápida y sin oscilaciones y cuyo valor típico es 0,9.
+
Estructuras de aprendizaje de la dinámica inversa µ q
Siguiendo a [Patiño 1995] se entrena a la red neuronal PD Robot
en dos etapas. En la primera se logra un ajuste grueso qd µfb +
de los parámetros de la RN utilizando la estructura de
aprendizaje generalizado [Psaltis et al 1988]
representada en la Figura 3. El aprendizaje es ‘off-
line’ y realizado a partir de patrones de entrenamiento
obtenidos de las características de lazo cerrado de la Figura 4. Estructura de Aprendizaje
planta [Omatu et al. 1996]. Esto es, se hace funcionar por Error de Realimentación
al robot con el control PD extrayéndose el conjunto de
datos de entrenamiento de la red a partir de la
observación de su comportamiento. Esta forma de Si escribimos la (15) como
aprendizaje es similar al usado en reconocimiento de
patrones. µ ff = RN (q d , q& d , q&&d ) (18)
de la (13), tendremos
RN
γ$ +
µ fb = µ − RN (qd , q&d , q&&d ) (19)
III. SIMULACIÓN
Para la simulación se utilizó el Matlab 5.2 con el
toolbox de redes neuronales 3.0. Las ecuaciones
fueron implementadas en forma discreta tomando un
tiempo de muestreo ∆T = 0.005 seg.
Los parámetros del robot de la Figura 1 se tomaron
siguiendo a [Lewis et al 1999], resultando a1 = a2 = 1
[m], m1 = m2 = 1 [Kg], y g = 9.8 [m/seg2]. La posición Figura 5 (continua). Respuesta sin Compensador
inicial del robot es siempre q0 = [0.1 0 0 0]T.
En todos los casos, los valores del controlador PD
En la Figura 6 se ve la respuesta del sistema con
fueron Kp = diag{100, 100} y Kv = diag{20, 20}.
compensación de la dinámica inversa mediante
La trayectoria deseada utilizada es
una red neuronal de una capa oculta de 13
neuronas. En la primera etapa de entrenamiento
qd1 = 0.1sin(π t) fueron α = 0.005, y β = 0.9. En la segunda fueron
(24)
qd 2 = 0.1cos(π t) α = 0.0001, y β = 0.9.
AGRADECIMIENTOS
Los autores agradecen el apoyo recibido por parte del
vicerrector de la Universidad Tecnológica Nacional
Ing. B. Possetto, impulsor del programa de
intercambio académico con Alemania UTN-DAAD.
REFERENCIAS
HAYKIN S. (1994). Neural Networks: A
Comprehensive Foundation. Prentice Hall.
HORNIK K. (1989). Multilayer Feedforward
Networks are Universal Aproximators. Neural
Networks, vol 2, 359-366.
KAWATO M., UNO Y., ISOBE M., SUZUKI R.
(1988). Hierarchical Neural Network Model for
Voluntary Movement with Application to Robotics.
IEEE Con. Sys. Mag., vol 8, 8-16.
KELLY R., SALGADO R. (1994). PD Control with
Computed Feedforward of Robot Manipulators: A
Design Procedure. IEEE Trans. Rob. Aut., vol 10, no
4, 566-571.
LEWIS F. L., JAGANNATHAN S., YESILDIREK A.
(1999). Neural Network Control of Robot
Manipulators and Nonlinear Systems. Taylor
&Francis.
OMATU S., KHALID M., YUSOF R. (1996). Neuro-
Control and its Applications. Springer.
PATIÑO H. D. (1995). Control Dinámico de
Manipuladores Robóticos Usando Redes
Neuronales. Tesis Doctoral, Facultad de Ingeniería,
Universidad Nacional de San Juan, Argentina.
PSALTIS D., SIDERIS A., YAMAMURA A. (1988).
A Multilayered Neural Network Controler. IEEE
Con. Sys. Mag., vol 8, 17-21.