Está en la página 1de 5

TALLER INTELIGENCIA ARTIFICIAL

JORGE ROJAS 1801765


JORGE RIVEROS 1801750
7/ABRIL/2015

Funcin de Base Radial

Capa de salida tambin completamente


interconectada a la capa oculta y activada a
travs de una funcin lineal continua

La funcin de base radial o proveniente de la


traduccin, radial beasis function (RBF).
Los autores Broomhead y Lowe, en el ao de 1988.
Proponen un mtodo alternativo al perceptron
multicapa, para hacer ajuste a funciones no lineales,
la red RBF.
En el Backpropagation se tenia a disposicin las
funciones de activacin que permite construir
modelos de entrenamiento, las nuevas redes
basadas en RBF contruyen sus modelos con
funciones de activacin que son diferentes tanto en
la capa oculta como la de salida. Esta es la
caracterstica de una red RBF, que esta diseada
con neuronas en la capa oculta activadas mediante
funciones radiales de carcter no lineal con sus
centros gravitacionales propios y en la capa de
salida mediante funciones lineales.
El modelo clsico de una red RBF esta construido
por tres etapas: la entrada , la oculta y la salida.
esta red tiene un mejor desempeo con un mayor
volumen de datos de entrenamiento ,
adicionalmente esta red necesita de una mayor
cantidad de neuronas en los nodos ocultos que en
las redes que se usaban en el backpropagation.
FUNCIONAMIENTO
La red RBF esta formada por tres capas como se
menciono anteriormente

Entrada que sirve para los patrones de


entrenamiento
Capa oculta que esta completamente
interconectada entre todos sus nodos con la
capa de entrada y activada a traves de la
funcin Gaussiana

El primer clculo a realizar es la capa oculta la


distancia radial entre el vector de entrada x, con n
observaciones, a ese nodo en particular y el centro
de gravedad c de ese mismo nodo. Es decir:

Este valor d es un componente de la entrada para


activar la funcin radial G(), dicho valor es la
principal diferencia a la backpropagation,
La radial G(),una de las mas utilizadas exp(-r^2 ),
donde r es el contenido evaluado en cada nodo de
la capa oculta, que es la distancia euclidiana d.

Ejemplo tomado del libro Simon Haykin


El se refiere al problema XOR, que de acuerdo a lo
que podemos recordar, no pudo ser clasificado por
una TLU.

TALLER INTELIGENCIA ARTIFICIAL


JORGE ROJAS 1801765
JORGE RIVEROS 1801750
7/ABRIL/2015
Supongamos que tenemos los siguientes patrones
de entrenamiento
x1 x2 z
1
0
0
1

1
1
0
0

1
0
1
0

La funcin gaussiana es ( ) ( ) 2 exp G i i x c = x


c , i=1,2.
Deben existir dos centros y ellos ya son conocidos.
Vienen dados por: c1 = [1 1]T , c2 = [0 0]T .
Por las caractersticas del problema, se asume lo
siguiente: Los pesos son compartidos por la simetra
del problema. La capa de salida incluye un bias.
De este modo la arquitectura de la red RBF es:

Definamos el problema en forma matricial como


z=Gw. Resolviendo mediante Matlab tenemos: % %
Resolviendo el problema XOR usando la expresin
z=Gw.
% x=[1 1; 0 1; 0 0; 1 0]
x=11010010
z=[1; 0; 1; 0]
z=1010
% % los centros estn dados por
% c1=[1 1]; c2=[0 0];
% % La funcin gaussiana es exp(-norm(x-c)^2)
% % Redefinamos los centros en una matriz
% Redes Neuronales Captulo 4 Gerardo
Colmenares 93 c=[c1;c2] c = 1 1 0 0
% De este modo el clculo de las funciones radiales
y las
% distancias la vamos a realizar por un
procedimiento continuo
% con dos lazos donde todos los patrones de
entrada van a ser
% revisados.
% for j=1:4

1 x 2 x z 1 -1 w w +1

for i=1:2

Funcin Gi() Funcin Lineal Entradas Bias Redes


Neuronales Captulo 4 Gerardo Colmenares 92 La
relacin entrada-salida est expresada por:

G(j,i) = exp(-norm(x(j,:)'-c(i,:)')^2);

G b i F = w +x-t +b

end G

i x x t 2 1 ( ) donde b es el bias y F(x) es z.

G = 1.0000 0.1353 0.3679 0.3679 0.1353 1.0000


0.3679 0.3679

end

TALLER INTELIGENCIA ARTIFICIAL


JORGE ROJAS 1801765
JORGE RIVEROS 1801750
7/ABRIL/2015
% La matriz ampliada incluyendo el bias es G=[G
ones(4,1)] G = 1.0000 0.1353 1.0000 0.3679 0.3679
1.0000 0.1353 1.0000 1.0000 0.3679 0.3679 1.0000
% Ahora debemos resolver el clculo de los pesos
entre la capa
% oculta y la capa de salida mediante la expresin
Gw=z.
% Desde donde w es w=inv(G)z
% Aqu podremos tener ciertos problemas con la
singularidad de la matriz G. % Para cuidarnos,
usaremos la seudoinversa de la siguiente
% manera w=inv(G'G)G'z. Donde G' es la
transpuesta de G. Redes Neuronales Captulo 4
Gerardo Colmenares 94 % w=inv(G'*G)*G'*z w =
2.5027 2.5027 -1.8413

SOM: mapas autorganizativos. (Self-organizing


Feature Map)
Son el orden para emular la actividad de un
Sistema sin haberse implementado las
conexiones de retroalimentacin no lineales.
La red de mapa auto-organizativo primero
determina a la neurona ganadora, usando
algn procedimiento conforme al nivel
competitivo.
Teniendo en cuenta lo anterior el peso de los
vectores para todas las neuronas dentro de una
cierta cercana de la neurona portadora se
actualiza usando la regla de kohonen.
Kohonen dise la anterior simplificacin.
Regla de kohonen:

% Procedamos a realizar una prueba para conocer


el nivel de error

( )

)
(

( ( )
) (

(
)

))
( )

% con respecto a los valores deseados.


Z_estimado=G*w;

Donde

% % Luego los valores de la salida calculados son:

El SOM Bsico:

% Z_estimado Z_estimado = 1.0000 0.0000 1.0000


0.0000

El ejemplo ms representativo de
entrenamiento no supervisado y competitivo es
el algoritmo SOM Bsico.

% % Los valores deseados de la salida son: % z z = 1


010
% los resultados son exactamente iguales.
% Por tanto la red entrenada para el XOR para los
centros dados
% incluira los siguientes pesos w w = 2.5027 2.5027
-1.8413

Los mapas de conocimiento que resaltan


relaciones de similitud y revelan la estructura
topolgica del conjunto de datos X.

TALLER INTELIGENCIA ARTIFICIAL


JORGE ROJAS 1801765
JORGE RIVEROS 1801750
7/ABRIL/2015

Ilustracin 1 Esquema del algoritmo SOM Bsico

En el modelo SOM Bsico la


arquitectura(N ,W), consta de una capa bsica
de entrada N I y una capa de
procesamiento N p R 2, con nodos en
los vrtices de una malla hexagonal o
rectangular.
La configuracin inicial W 0 se establece
de manera aleatoria con una distribucin
uniforme sobre el mnimo paraleleppedo
que contiene a X.
El espacio de entrada es X R n.
En la figura muestra el esquema del algoritmo
de entrenamiento SOM Bsico. Cada vez que
se determina c (x t), la idea clave en el
algoritmo de aprendizaje es que aquellas
neuronas de N P que se encuentran dentro
de una vecindad en la malla, tambin
aprendern del estmulo x t.
Para determinar la magnitud del factor de
actualizacin d e los vectores de referencia
w , se utiliza la distancia d N P ( c ( t ) , )
entre las neuronas c ( t ) y correspondientes.

TALLER INTELIGENCIA ARTIFICIAL


JORGE ROJAS 1801765
JORGE RIVEROS 1801750
7/ABRIL/2015
ARTQUITECTURA

También podría gustarte