Está en la página 1de 4

Redes de Base Radial: RBF

Luz Karime Ramírez ± 0 --0 8, Iván Hernando González - 06---29


  Universidad del Valle, 3ali, 3olombia
Email: {mime2-, espartaco--3}@hotmail.com
c ( %   
 
S  ô    
       
           3uando se realiza el entrenamiento para aprender una función
    
        no se realiza un proceso de interpolación exacta por lo cual se

  gana capacidad de generalización. El parámetro de la
 desviación estándar de la función de Gauss que se definen

  ô           !  
para la capa oculta, es un aspecto fundamental para la
 !   
aproximación de funciones con redes RBF.

En la Tabla- se presentan los datos obtenidos después de


 " !# 
variar el parámetro de la desviación estándar a través del
campo denominado desviación:

L as redes neuronales de Base Artificial son redes multicapa


que se caracterizan por tener una única capa oculta. Las
redes RBF construyen sus modelos con funciones de
P  P 

 

xesviación Neuronas 3apa - Entradas MSE
activación que son diferentes tanto en la capa oculta como en
0.- 22 - 0.998-85
la capa de salida. En la capa oculta las neuronas son activadas
mediante funciones de activación radial ij (Gaussiana) y las 0.5 6 - 0.998-85
neuronas de la capa de salida mediante funciones lineales. La - 5 - 0.998-85
capa de entrada es una simple interfaz entre el proceso a 2 6 - 0.998-85
analizar o solucionar y la RNA, es decir no existe -00 32 - 0.- -5-3
"%&%* $#&"%! $! $%&!%! &% ! +%"&%
procesamiento de la información.
Los parámetros de la capa de entrada y de la segunda capa se
Las redes RBF son redes con conexiones hacia adelante
(Feedforward), debido a que las conexiones de la capa de pueden obtener mediante los comandos de la figura-
entrada a la capa oculta no llevan asociado ningún peso, respectivamente:
mientras que las conexiones de la capa oculta a la capa de  P  
salida si llevan asociados pesos. Además no existe  P   
realimentaciones de ninguna capa a una capa anterior. * +%! $,%% "  ,%%+ " $! &%$%,%$

El aprendizaje es hibrido por lo que incluye el aprendizaje no 3abe aclarar que en la tabla - solo se presentan los parámetros
supervisado en la capa oculta donde se determinan los valores de la capa de entrada, en la figura 2 se muestra solo el primer
iniciales de centros y radios de la red. Y el aprendizaje caso de la obtención de los parámetros de la segunda capa, de
supervisado en la capa de salida donde se calcula los valores la misma manera se obtienen para los demás casos.
exactos de los pesos óptimos de la red.
" ! " #$%$&'($)*+
+ !"
,,  P  
   
,,  P   
 ! $% && ! &&% %"  
      
-. %   
 '  ( $%&!%! &% ! +%"&%

En el anexo- se encuentran las salidas de la red para diferentes


valores de desviación.
El valor de la desviación determina el ancho del área del
"  (       #)$% espacio de entrada al que cada neurona responde. Este
parámetro debe ser lo suficientemente grande como para que
las neuronas puedan responder fuertemente a regiones
solapadas del espacio de entrada, mejorando así la capacidad
de generalización. Pero si este valor es demasiado grande,
todas las neuronas de la capa de base radial tomarán como
salida valores cercanos a - con todos los patrones de entrada,
perdiendo así la información almacenada en la capa de base
radial.
 &'()*) '
+,)  )  

- 
    .    ,  


  
   ×
 

#$

% 
Para la identificación de un sistema de primer orden se 
×

procede de la siguiente manera:    

-. 3on simulink se modela una planta lineal de primer orden   !"

mediante la cual se obtienen los patrones de


× ×
entrenamiento por simulación.   

2. Se ajusta el tiempo de muestreo a 0.-


3. Se ejecuta el script para el entrenamiento y validación de
la red, teniendo en cuenta que se hicieron pruebas para
diferentes valores del error cuadrático medio deseado, 
gráficamente se pudo observar que a menor error deseado 1 $/# +% $+#&0,%%)%&!% &+ ! & 
mejor era la validación de la red. Por tanto la red mejor
entrenada fue para un periodo de muestreo de 0.-s fue con El mejor resultado fue para un periodo de muestreo de 0.2s
un valor de error esperado de 0.0000-. Para un periodo de con un valor de error esperado de 0.000-. Ver anexo.
muestreo de 0.2s fue con un valor de error esperado de
0.000-. Ver anexo3.
. Se valida la red mediante simulink adicionando a la red de   &#$  $
validación los elementos de retardo para representar las 
dos entradas de la red que corresponden a un retardo de la À Gráficamente (Anexo2) se puede observar que a una
entrada y un retardo de la salida, como se observa en la desviación estándar pequeña (0.-) la red se vuelve muy
figura . selectiva por lo cual se pierde la capacidad de
generalización debido a que se presenta un sobre

entrenamiento. Por el contrario si la desviación estándar
 ! "#  $   !
% &      
      es grande (-00) la red se vuelve poco selectiva y tiende a
 generar datos que no pertenecen a ninguna región.
     
     

  À La función de entrenamiento incrementa el número de


×
neuronas hasta obtener el error cuadrático medio deseado.
 
 
À Las neuronas de la capa oculta cumplen una función
         
     
específica para una región dada debido a que su función
de activación radial se caracteriza porque posee un nivel
×
máximo de activación para valores de entrada cercanos a
cero.
- $/# +% $+#&0,%%)%&!% &+ ! & 
À Por tanto cuando la variable de entrada se aleja del centro
dicho nivel decrece y de esta manera las neuronas ocultas
1 
       .         no se activan. xe esta manera las neuronas ocultas cuyos
$2     centros estén en la vecindad de dicha entrada son las que
se van a activar.
Para la identificación de un sistema de Segundo orden se À A diferencia de las redes MLP donde las funciones de
procede muy similar al del primer orden pero teniendo en activación se activan en todo el rango de valores
cuenta que en el modelo de validación se deben incluir cuatro
retardos que representan las cuatro entradas generadas que
corresponden a dos retardos de la entrada y de la salida. ) & %%
[-./01./0 12/012/0 3 À Guía de Laboratorio.
En la figura  se presenta el esquema en simulink para la
validación del modelo. À 3aicedo, Eduardo. López, Jesús. Una aproximación a
las redes neuronales artificiales. Programa Editorial
Universidad del Valle. 2009.
ANEXOS

 4

(5'& P 
#65
77889
 4

(5'& P 
#65
77889
 4
9
(5'& P 
#65
77889
 4
(5'& P 
#65
77889
 4 
(5'& P 
#65
77889
 4


(5'& P 
#65
77889
(5'& P  9#65
:)::
 4


(5'& P 
#65
77889
(5'& P  9#65
)) 8; 

% ' * $%&!%! &% ! +%"&%


       
       
 

ü
ü

ü
ü
ü
ü



 

 


 
ü       ü      

%! $)%  $"%!%34*          ! $)%  $"%!%3*



       
       
 



ü

ü
ü
ü
ü
ü




   

 
ü       ü      


    3*44 !    3*444



% ' ( $%&!%! &% ! ! $)%  $"%!%
% ,%"  $!  " %+ " $+#&%! $


)%&!% ! &+ ! & "34*$  )%&!% ! &+ ! & "34($

% ' -! "% ! #$$" +%! ,+  !  #% !

      %,%"  $!  " %+ " $+#&%! $)%&!% ! &+ ! & "34($

% ' 1! "% ! #$$" +%! $ #!  !  #% !

También podría gustarte