Documentos de Académico
Documentos de Profesional
Documentos de Cultura
EL CEREBRO HUMANO.
2.1
LA NEURONA BIOLOGICA
2.2
EL CUERPO.
LAS DENTRITAS.
Las dentritas son ramas que salen del cuerpo. Estas poseen algunas
conexiones sinápticas en donde se reciben señales que generalmente vienen de otros
axones. Hay un número significativo de conexiones sinápticas de axon a axon, axon a
cuerpo y dentrita a dentrita.
A diferencia de los circuitos eléctricos comunes, no hay conexión física en las
sinapses, sino que un espacio separa los químicos especiales que son liberados por el
axon y se transmiten hacia la dentrita. Estos químicos se llaman neurotransitores.
Algunos neuro-transitores son "activadores" y otros son inhibidores.
EL AXON.
Puede ser tan corto como 0.1 mm. ó tan largo como 1 mt. El axón tiene varias
ramas cerca de la punta, cada una terminando con una sinapse desde donde la señal
se trasmite, así el neurón puede generar pulsos que pueden activar o inhibir otras
neuronas (cientos o miles), las cuales a su vez son activadas por cientos o miles de
otras neuronas. De esta manera es como la conectividad de las neuronas, más que su
complejidad funcional, da la capacidad de procesamiento al cerebro humano.
La conexión sináptica es un pequeño bulbo que contiene estructuras esféricas
llamadas vesículas sinápticas, las cuales contienen un gran número de moléculas
neurotransmisoras. Además de este proceso de activación neuronal, algunas neuronas
que han sido activadas muy débilmente transmiten ciertos signos electromagnéticos a
través de su interior con cierta respuesta. Podemos decir que son "locales" pues el
impulso muere después de cierta distancia.
LA MEMBRANA CELULAR
2.3
Las bombas mueven iones a través de la membrana para mantener
concentraciones. Los canales permiten selectivamente el paso de iones y controlan un
flujo a través de la membrana. Algunos canales se abren o cierran dependiendo del
potencial eléctrico de la membrana; otros se controlan químicamente.
Los receptores reconocen y unen varios tipos de moléculas y son muy
específicos. Las enzimas en las membranas aceleran una gran variedad de reacciones
químicas. La concentración de sodio en una neurona es 10 veces más baja que en sus
alrededores y la concentración de potasio es 10 veces más alta. Estas concentraciones
tienden a nivelarse por medio de "fugas" en la célula debido a poros en las membranas.
Para mantener las concentraciones una proteína llamada "bomba de sodio"
contínuamente saca sodio de la célula y mete potasio. Se pueden mover cientos de
millones de iones de potasio por segundo. La combinación de estos dos químicos es
responsable de crear y mantener el equilibrio dinámico químico que constituye el estado
de reposo de un neurón.
La concentración iónica causa que en el interior de la célula se genere un
potencial de -70 milivolts con respecto a sus alrededores. Para que la célula se
"encienda" o sea activada, las entradas sinápticas deben reducir este nivel a
aproximadamente -50 milivolts. Cuando esto ocurre, los niveles de sodio y potasio se
invierten repentinamente, en un milisegundo el interior de la célula se vuelve 50 milivolts
positivo con respecto al medio ambiente externo. Este cambio de polaridad se transmite
a través del axon y a sus conexiones. Cuando el pulso llega a la terminal del axon, se
abren canales de calcio con voltaje controlado, esto acciona la liberación de moléculas
neuro-transmitoras y el proceso continúa a otras células. Después de generar un
potencial, la célula entra en un período de varios milisegundos en el cual regresa a su
estado de reposo en preparación para otro pulso .
Los investigadores han encontrado una gran complejidad bioquímica en el
cerebro. Se cree que más de 30 substancias trabajan como neuro-transmisores y hay
un gran número de receptores con diferentes modos de respuesta. Además, la acción
de una molécula neurotransmisora depende del tipo de receptor en la membrana
sináptica. El mismo neurotransmisor puede ser activador en una sinapsis e inhibidor en
otra.
Se ha tratado de alcanzar un patrón simple que unifique estas o otras muchas
observaciones, pero la mayoría de los descubrimientos crean más dudas de las que
resuelven. El cerebro humano es muy difícil de modelar, no existen matemáticas
suficientemente complejas para hacerlo y probablemente nunca las haya.
2.4
F OUT
Muchos autores representan a los neurones con un circulo, como muestra la fig. 2.3
X
1 W
1
W2
X2 SALIDA
Wn
Xn
Las entradas, que podemos llamar vector X, corresponden a las señales que
llegan a la sinápsis de una neurona biológica. Cada señal se multiplica por un peso que
tiene asociado , W 1,W 2 ... W n. Los pesos los podemos llamar vector W. Cada peso
corresponde a la "intensidad" o fuerza de la conexión de una sinápsis en un neurón
biológico. Estas multiplicaciones se suman. Este "sumador" corresponde vagamente a
el cuerpo de una neurona biológica . Como podemos observar, esta es una suma
algebraica de las entradas ponderadas, entonces queda que
NET = X1 W 1 + X2 W 2 + X3 W 3 + ... Xn W n
ó representado en notación matricial:
NET = XW
FUNCIONES DE ACTIVACION
2.5
La que hemos llamado señal NET generalmente se procesa por medio de una
función de activación F, la cual producirá una señal que será la salida del neurón, que
llamaremos OUT:
OUT = F(NET)
0 si no
F también puede ser alguna otra función que simule mejor las características no
lineales de transferencia de una neurona biológica.
Si F reduce el rango de NET de manera que OUT nunca se salga de algún límite,
independientemente de lo grande que sea NET, entonces F es una función "squash".
Una función squash muy popular es la "sigmoide" o función logística.
1
F(X) =
1 + e -X
2.6
Figura 2.4. Función sigmoide ó logística.
1
OUT = - NET
(1 + e )
2.7
Figura 2.5 Función tangente hiperbólica
2.8
X1 W11
Y1
W 12
W13
W21
W 22 Y2
X2
W23
W31
W32
X3 Y3
W33
NODOS DE
ENTRADA
(no hacen nada)
2.9
Y2 y Y3 se pueden calcular de manera similar. En notación matricial tenemos
que:
W 11 W 12 W13
X1X2 X3 W 21 W 22 W23
W 31 W 32 W33
X1W 11 + X 2 W 21 + X3 W 31, X1 W12 + X 2 W 22 + X 3 W 32 X 1 W13 + X 2 W 23 + X 3 W 33 Y
2.10
2.4 REDES NEURONALES DE VARIOS NIVELES
X1 Y1
X2
Y2
X3
X4
2.11
porque algunos cuentan el nivel de entrada como una capa, y otros no. El libro de texto
utilizado para el curso [Wasserman, 89] no considera la capa de neurones de entrada
como uno de los niveles de la red.
En una red con varios niveles o capas, la función de activación debe ser no
lineal, ya que de no ser así una red con varios niveles equivaldría a una red con un
nivel. Esta afirmación puede demostrarse de la siguiente manera:
Si F es una función lineal, entonces la salida del primer nivel de la red esta dada
por:
OUT 1 = F (X W1 )
Si F es lineal,
OUT 1 = K1 X W1
este resultado equivaldria a tener solo un nivel, ya que siempre podemos hallar valores
para una W 3 = W1 W2
Las redes que hemos visto hasta ahora no presentan retroalimentación. Este tipo
de redes se conocen como no recurrentes o "alimentadas hacia adelante" (feed-forward
neural networks). También hay otros tipos de redes que presentan retroalimentación,
esto es, la salida de sus neurones se utilizan como otra entrada ya sea a sí mismos o a
otros en el mismo nivel. En este tipo de redes la salida de la red se determina por las
entradas y por valores en salidas previas. Estas redes presentan propiedades parecidas
a la memoria corta de los humanos.
Los algoritmos de aprendizaje de las redes recurrentes se pueden representar
por medio de ecuaciones diferenciales o ecuaciones en diferencia. Cuando se trabaja
con máquinas analógicas la primera representación es deseable.
ENTRENAMIENTO SUPERVISADO.
2.12
En este tipo de entrenamiento se requiere que cada vector de entrada esté
relacionado con una salida deseada representando cada vector. Al par de vectores
representando los valores de entrada y salida deseada se le llama el par de
entrenamiento. (Ver fig. 2.8)
DATOS DE
ENTRADA
ENTRENAMI ENTO
SALI DA P ESOS
DESEADA
Cada vector de entrada se aplica a la red, la correspondiente salida (dada por los
pasos de la red) se calcula y se compara con la salida deseada. La diferencia o error se
da a la red y los pasos se cambian de acuerdo a algoritmos que minimizan este error.
Diferentes vectores de entrenamiento se aplican a la red secuencialmente hasta que el
error en el conjunto de aprendizaje es suficientemente pequeño.
Por ejemplo supongamos que queremos enseñar a una red que aprenda la tabla
del OR exclusivo (XOR).
Representando al problema del XOR por medio de una caja negra, tenemos:
A RE D
NEURONAL A XOR B
B
A B A +B
0 0 0
0 1 1
1 0 1
1 1 0
2.13
Para este problema, una red con entrenamiento supervisado debería utilizar el
siguiente conjunto de entrenamiento:
X1 = { 0,0 } Y1 = { 0 }
X2 = { 0,1 } Y 2 = { 1}
X3 = { 1,0 } Y 3 = { 1}
X4 = { 1,1 } Y 4 = { 0}
ENTRENAMIENTO NO SUPERVISADO
DATOS DE
ENTRADA
ENTRENAMI ENTO
P ESOS
CLASES
2.14
ALGORITMOS DE ENTRENAMIENTO
Hoy en día hay algoritmos más efectivos de aprendizaje que el propuesto por
Hebb. Lo que haremos de hoy hasta que termine el curso será estudiar los algoritmos y
arquitecturas más populares .
2.15