Documentos de Académico
Documentos de Profesional
Documentos de Cultura
CH Csaavedrav
CH Csaavedrav
1. Introduccin.
Las actividades de investigacin desarrolladas en torno al
estudio de redes neuronales artificiales, simplemente redes
neuronales o neuroredes, estn motivadas en modelar la
forma de procesamiento de la informacin en sistemas
nerviosos biolgicos.
Especialmente, por la forma de
funcionamiento del cerebro humano, que es completamente
distinta al funcionamiento de un computador digital
convencional. El cerebro humano corresponde al de un
sistema altamente complejo, no-lineal y paralelo. En trminos
sencillos lo anterior equivale a decir que puede realizar
muchas operaciones simultneamente a diferencia de los
computadores comunes que son de tipo secuencial, o sea,
realizan slo una operacin a la vez. En este sentido, una
neurored es un procesador de informacin, de distribucin
altamente paralela, constituido por muchas unidades sencillas
de procesamiento llamadas neuronas. La neuroredes se
caracterizan principalmente por:
Tener una inclinacin natural a adquirir el conocimiento
a travs de la experiencia, el cual es almacenado, al
igual que en el cerebro, en el peso relativo de las
conexiones interneuronales.
Tienen una altsima plasticidad y gran adaptabilidad,
son capaces de cambiar dinmicamente junto con el
medio.
Poseen un alto nivel de tolerancia a fallas, es
decir, pueden sufrir un dao considerable y continuar
teniendo un buen comportamiento, al igual como ocurre
en los sistemas biolgicos.
2. Neurobiologa
Una neurona tpica posee el aspecto y las partes que se
muestran en la figura 1. Sin embargo, debemos observar que
el dibujo no est a escala, el axn alcanza un largo tpico de
centmetros y a veces de varios metros, las dendritas tambin y
las terminales sinpticas, son ms largas, numerosas y tupidas.
F. IZAUTIRETA Y C. SAAVEDRA
Botn Sinptico
Dendrita
3. Modelo Neuronal.
Aqu se desea introducir un modelo sencillo de la
neurona, para construir redes, nuestro fin ltimo es modelar
correctamente el comportamiento global de toda la red. No se
pretende modelar exactamente el comportamiento fisiolgico
de la neurona, sino ms bien slo sus caractersticas ms
relevantes, que entran en juego en su interaccin con toda la
red.
Tenemos un esquema de neurona en la figura 3. En l
nuestra neurona de inters es la yj . Las n neuronas xi estn
enviando seales de entradas, que son los valores numricos
de algo. Los valores wji representan los pesos sinpticos en
las dendritas de yj . Obsrvese la notacin: el primer ndice
denota a la neurona hacia donde se dirige la informacin, el
segundo ndice denota de qu neurona procede la informacin.
x1
xi
(y j(in) ) v
1j
yj
v2j
wj1
wji
wj0
xn
Figura 3: Esquema de Neurona.
Lo que hace cada peso sinptico es simplemente multiplicar
a su entrada correspondiente y define la importancia relativa
de cada entrada. Recordemos que en el soma de la neurona
biolgica se sumaban las entradas provenientes de todas las
dendritas. Entonces tenemos que la entrada total a la neurona
yj es:
(in)
yj
n
X
wji xi
(1)
i=1
(in)
yj = ' yj
(2)
y(in)
Figura 4: Escaln.
Figura 5: Sigmoidea.
1=
x0
x1
xi
y(in)
yj
n
X
wji xi ; con x0 = 1.
(3)
i=0
wj0
wj1
wji
wj0
(y j
(in)
)v
1j
yj
xn
Figura 6: Esquema con Inclinacin.
v2j
F. IZAUTIRETA Y C. SAAVEDRA
x1
1
x2
1
y
1
0
1
0
1
0
0
0
0
0
x1
y
x2
x1
1
x2
1
y
1
0
1
1
0
1
1
x1
y
x2
Figura 8: Funcin Or
En todos estos ejemplos, se supone que el umbral de cada neurona no lineal es 2. O sea,
0 si y in < 2
y=
1 si y in 2
(4)
Ahora es muy fcil comprobar que las tablas de verdad efectivamente se cumplen1 , por ejemplo, la primera lnea de la tabla de
verdad para el And:
1 1 + 1 1 = 2 = y in ) y = 1
Veamos una funcin lgica ms: el xOr u Or excluyente.
x1
1
x2
1
z
0
0
1
0
1
0
0
1
1
0
x1
2
-1
y1
z
x2
-1
2
y2
x0
w0
x1
w1
y
x2
w2
y (in) = w0 + w1 x1 + w2 x2 ;
y la respuesta, por:
(5)
y=
0 si y(in) < 0
1 si y(in) 0
(6)
i=0
x 1+ x 2= 2
x2
LinealmenteSeparable:
n
wji xi =0
C la s e 1
0
i =0
x1
x2
1
Clase2
Clase2
Clase1
Clase1
C la s e 0
No- Linealmente
Separable:
x1
Espaciox
F. IZAUTIRETA Y C. SAAVEDRA
w10
1=
x0
wj0
wn0
w11
x1
wj1
y1
wn1
xi
wji
Salida
Entrada
w1i
yj
wni
w1m
xm
Capa 0
wjm
wnm
yn
Capa 1
1
u10
x0
Entrada
x1
xi
xm
Capa 0
uj0
y0
vk0
un0
vp0
u11
v11
uj1
y1
vk1
un1
vp1
u1i
v1i
uji
yj
vkj
uni
vpj
u1m
w1n
ujm
unm
yn
Capa 1
Figura 15: Red Multicapa.
z1
zk
wkn
zp
wpn
Capa 2
Salida
1=
v10
Profesor
{xi(n);dj(n)}
xi (n)
oj (n)
Neurored
ej (n)
4. Aprendizaje o Entrenamiento.
El aprendizaje es la clave de la plasticidad de una neurored
y esencialmente es el proceso en el que se adaptan las
sinapsis, para que la red responda de un modo distinto a los
estmulos del medio. Recordemos que en una neurored, toda
la informacin adquirida se guarda en el valor de cada peso
sinptico. De hecho, las neuronas de la mayor parte de los
seres vivos con sistema nervioso, desde un caracol hasta el
hombre son esencialmente iguales. Lo que nos hace ms
inteligentes que un caracol es el nmero, organizacin y modo
de cambio de las conexiones sinpticas. El aprendizaje se
divide principalmente en dos tipos: Aprendizaje con Profesor
o Supervisado y sin Profesor o No Supervisado. Nosotros slo
estudiaremos aprendizaje con profesor y algunas variantes de
ste.
dj (n)
(7)
en donde wji (n) son los pesos sinpticos con los que
la red responder al n-simo ejemplo. Esto equivale a
no cambiar los pesos sinpticos en forma radical, sino
que simplemente los variamos en una cantidad pequea
wji (n) con respecto a su estado anterior. Lo que diferencia
a los algoritmos o reglas de aprendizaje, es bsicamente como
encontrar wji (n). El que hayan distintos algoritmos tiene
cierta base biolgica. Neuronas de distintas partes del cerebro
aprenden de forma distinta tambin.
4.2. Regla de Hebb.
> 0;
(8)
F. IZAUTIRETA Y C. SAAVEDRA
X
O
x
O
x
O
1: E s una X
-1 : N o es u n a O
-1 : N o es u n a X
1: E s una O
(9)
Paso 3: j = 1; :::; m1
(in)
yj
(n) =
m0
X
i=0
8
(in)
>
< 1 si yj (n) < 0
(in)
yj (n) =
0 si yj (n) = 0
>
:
(in)
1 si yj (n) > 0
Clase 1
Clase 2
Espacio x
Figura 18: Infinitas Soluciones.
O sea, o no existe ninguna solucin, o existen infinitas.
Es posible demostrar que si existe solucin, entonces
el algoritmo perceptrnico converger a una de las infinitas
soluciones en un nmero finito de pasos.
Experimentos Computacionales. A modo de ejemplo se
incluyen dos experimentos (computacionales), ambos de
clasificacin de letras. Para el primero, usamos las siguientes
entradas:
10
F. IZAUTIRETA Y C. SAAVEDRA
4
0
-4
4
0
-4
(n))xi (n)
(10)
11
x( [n+1]T )
x( nT )
wn
Sistema
x( iT )
x( [n+1]T )
wi
Dinmico
w1
x( T )
e(n)
w0
wi(n)
1
figura 25: Predictor Lineal
Aqu vemos que el papel de profesor es llevado de modo
automtico por el mismo sistema dinmico. La red conoce
todas las entradas desde x (T ) hasta x (nT ), y debe predecir
el valor de x ([n + 1] T ). El papel de respuesta deseada lo
juega x ([n + 1] T ) y el de entrada el historial del proceso.
Es completamente anlogo al proceso de aprendizaje con
profesor, excepto por que el nmero de neuronas de entrada
debe aumentar constantemente.
Experimento computacional. Usamos un = 0:01 y una
neurona de salida con la funcin identidad. Nuestro sistema
dinmico era una seal senoidal con variaciones aleatorias.
1
0.8
Neurored
0.6
0.4
0.2
0
-0.2
-0.4
-0.6
-0.8
-1
50
100
Tiem po
150
200
[T]
250
12
Salida
Entrada
F. IZAUTIRETA Y C. SAAVEDRA
m0 m1
m2 ... mL-2
mL-1
mL
la seal de salida.
- Seales de Error: Luego de la etapa hacia adelante,
viene la retropropagacin del error, hacia atrs. Cuando
corregimos las sinapsis, corregimos las de la capa L
primero. Luego, observando las sinapsis de la capa L,
corregimos las de la capa L 1, y as sucesivamente
hasta la primera capa. A esto se le llama seal de
error, vamos desde las ltimas capas hasta las primeras
corrigiendo sinapsis. Esto es lo que se ilustra en la
figura 28:
Seal de Funcin
2 Etapas:
Seal de Error
Figura 28: Etapas hacia adelante y hacia atrs.
4.4.2. Definiciones.
Error: Supongamos que la capa de salida est constituida
Entonces, el error cometido al
por las neuronas zk .
presentarse el n-simo par de entrenamiento es:
ek (n) = dk (n) zk (n):
(11)
L
1X
"(n) =
e2k (n)
2
(12)
k=1
"pro =
N
1 X
"(n)
N n=1
(13)
13
@"pro
(15)
@wji (p)
En donde p simplemente seala que estamos en el p-simo
paso. Lo que estamos haciendo es esquiar o resbalarnos
sobre la superficie de error, tratando de llegar al mnimo
global de la superficie. Sin embargo, haciendo esto, corremos
el peligro de quedar atrapados en un minmo local de la
superficie, y nunca alcanzar el mnimo global, como se ilustra
en la figura 29.
wji (p + 1) = wji (p)
av
wji
@"(n)
:
@wji (n)
(16)
(n+1)
(n)
wji
wji
Entonces
(17)
14
F. IZAUTIRETA Y C. SAAVEDRA
wkj (n) =
@"(n)
= k (n)yj (n),
@wkj
k = 1; :::; mL ;
vji (n) =
@"(n)
= j (n)xi (n),
@vji
j = 1; :::; mL1 ;
vji
j = 0; :::; mL1
i = 0; :::; mL2
wkj
xi
mL-2
yj
mL-1
(18)
Salida
zk
mL
(L)
(in)
),
k = 1; :::; mL
(19)
(in)
'0j (yj (n))
mL
X
k=1
(L)
(L)
k (n)wkj (n);
(20)
(L1)
5. Conclusiones
Este trabajo ha pretendido realizar una pequea introduccin
a algunas caractersticas de neuroredes conocidas. De hecho,
an los estudios ms avanzados que existen hoy da sobre el
tema estn muy alejados de entender el funcionamiento del
cerebro, que fue su motivacin inicial. El tema en realidad es
muy vasto. Sin embargo, pese a que hemos visto una parte
nfima del total, hemos podido apreciar algunas cualidades de
este mecanismo de procesamiento de informacin.
En primer debemos lugar destacar que es posible modelar
el funcionamiento de una neurona en forma extremadamente
simple, y sin embargo, posee una gran capacidad, vemos la
sencillez y la complejidad unidas de un modo maravilloso.
Por ejemplo, de describi la posibilidad de procesar
cantidades increbles de informacin en forma paralela, de un
modo sencillo y natural.
Al poder establecerse las funciones lgicas mediante la
combinacin de neuronas vemos tambin la posibilidad de
15
6. Bibliografa
[1] Laurene Fausett, Fundamentals of Neural Networks
(Prentice-Hall, New Yersey, USA, 1994).
[2] Simon Haykin, Neural Networks (Prentice-Hall, New
Yersey, USA, 1999).