Está en la página 1de 23

Conceptos

¿Qué son las RNA´s?... ¿Para qué se usan?... ¿Por qué usarlas?... ¿Cómo Trabajan?... Las redes
neuronales artificiales consisten en implementaciones software/hardware de modelos
funcionales de las diversas estructuras biológicas que posee el cerebro, y que le sirven a la
toma de decisiones por procesamiento de información captada desde su entorno donde
median los sentidos. Mientras los softwares simulan procesos, los hardware emulan muy
eficazmente, sus interconexiones eléctricas y electroquímicas. El cerebro, biológicamente
hablando, es un dispositivo de alta complejidad cuya unidad de procesamiento básico es la
neurona.

Según (Rabunal & Dorado, 2006), las Redes Neuronales Artificiales RNA´s,
consisten en un sistema de procesamiento de información cuya base radica en una
generalización de la cognición humana. Por medio de ellas, es posible imitar
modelos biológicos de la cognición y mecanismos que se suceden a nivel cerebral.
Posibilitando, tanto la simulación de su complejo entramado electrónico de
procesamiento de datos sensoriales, como su capacidad de almacenamiento de
información y cómputo, hacia tareas y fines específicos.

Podríamos decir entonces, las redes neuronales no son más que modelos
biológicos de procesamiento de información sensorial trasladados hacia unidades
de software (agentes inteligentes), o unidades de hardware basadas en
dispositivos tipo membranas con características de semipermeabilidad, y que
emulan procesos de conducción a través de corrientes iónicas. El fundamento
teórico de las Redes Neuronales se sostiene sobre la tesis conexionista.
En atención a (Galushkin, 2007), una red neuronal artificial representa un sistema
dinámico altamente paralelizado con topología gráfica directa capaz de emitir
información de salida, por reacción de sus estados en las entradas. A los
elementos de procesamiento que la componen, atados a sus canales directos de
conexión, se les denomina nodos de la red neuronal. Estas redes neuronales
artificiales pueden ser caracterizadas también, por poseer un número finito de
capas. Éstas, consisten en unidades de procesamiento nodal separadas unas de
las otras, y que se asemejan a las neuronas biológicas presentando diferentes
tipos de conexión entre capas. El número de neuronas artificiales en una capa ha
de ser suficiente para proveer una solución de calidad al requerimiento de la
solución a un problema.

Estructura Básica de una Neurona Artificial

Una red neuronal artificial está conformada por un agregado de componentes


individuales conectados para funcionar inteligentemente y tendentes a la
consecución de respuestas esperadas a problemas específicos. Su organización
topológica y arquitectural puede variar dependiendo del tipo de procesamiento que
se le asigne, y en función de otros sub-procesos internos que se les encarguen. El
primero, y más básico de sus elementos, es el llamado Nodo. A un nodo podemos
definirlo como un tipo de grafo contentivo de conexiones, tanto aferentes como
eferentes a él. A estas conexiones es común que se les denominen arcos, aunque
realmente mantengan formas linearizadas para algunas arquitecturas, (Graf. 2.1).

A los nodos se les utiliza para representar tanto conceptos simbólicos como
matemáticos, y dentro de los formatos gráficos de las redes neuronales artificiales,
realmente son objetos científicamente interpretables. Un arco por su lado, es un
link de conexión entre nodos que indican la naturaleza del flujo de la información, y
su intensidad de transferencia. Es decir, un arco señala el origen y destino de la
transferencia de datos que se suceden entre nodos anteriores y posteriores,
incluso, nodos adyacentes.

En la notación matemático-simbólica de las redes neuronales, a estos arcos suelen


asignárseles magnitudes numéricas que denominaremos pesos de las conexiones,
y que serán ampliadas conceptual y funcionalmente más adelante. Cuando esto se
suceda, lo denominaremos simplemente arcos de conexión. Este, se constituye
como un link que parte desde un nodo (a), y se dirige hacia otro nodo (b),
transfiriendo un flujo de señales, propagándolas.

Denominaremos Sinapsis a este arco cuando, gráficamente, le sea asignado un


valor numérico que estipule el denominado peso de la conexión asociada, y que se
usa para determinar la fuerza con la cual la señal es transferida. Se entiende
entonces que, existiendo múltiples conexiones mediante arcos denotadas con
magnitudes numéricas disímiles, la intensidad de transferencia de cada una variará
en función del peso de la conexión sináptica entre nodos.

En redes neuronales decimos que un nodo es la mínima unidad computacional, y


también lo conocemos como neurona. Anteriormente, habíamos referenciado que
una neurona es una célula capaz de procesar información. Una de sus
características es que puede tener muchas conexiones de entrada denominadas
dendritas, y a veces, un solo túbulo contentivo de muchas dendritas
denominado espina dendrítica. No obstante, una neurona sólo tiene una salida, el
axón.

Como una neurona es una célula capaz de procesar información, nos centraremos
en analizar el cómo se sucede tal proceso. Una de las ventajas de las neuronas
como elementos de procesamiento primitivo del cerebro, se esquematiza en la
gráfica 2.2. Una neurona puede tener muchas conexiones de entrada encargadas
de recibir señales externas, con ello se causa un proceso interno, y este arroja una
sola salida que se irradia a través del axón. En un constante fluir, propagar y
realimentar. Desde la visual de un modelo biológico, una neurona generalmente se
encuentra en un estado activo estable (homeostático), quiere decir, a la espera de
estimulaciones sensoriales externas. Estos estímulos siempre estarán presentes
para la neurona. No obstante, esta solo responderá cuando la sumatoria de
estimulaciones aferentes logre exceder un nivel umbral preestablecido, cuando
esto se sucede, entonces la neurona pasa a un estado de activación funcional, y
que describiremos matemáticamente a continuación.
Como lo que ejecutan internamente las neuronas son operaciones matemáticas de
dependencia funcional (regresiones lineales), en otras palabras, necesitan de una
causa para producir un efecto, llamaremos a esto Función de Activación. Bajo
aportes de (Negnevitsky, 2005), una función de activación es simplemente una
función matemática que mapea las entradas a la red neuronal direccionándolas
hacia la salida luego de un procesamiento interno. De estas funciones de
activación por lógica de umbral las más comunes son: las de Paso (Step), las del
tipo Sign, las Lineales y las Sigmoidales.

Las funciones de activación obedecen a relaciones causales donde la salida es


comparada con la entrada mediante el mencionado Nivel de Activación, (véanse
a, b, c, en Graf. 4.2.4). Denominaremos nivel de activación, al nivel que la señal de
salida ha de alcanzar para lograr el disparo neuronal. Y, es este quien determina si
la neurona dispara, o se inhibe, bajo la lógica de umbral del todo o nada, actuando
como conmutador natural o compuerta digital bajo la lógica de cero o uno. Ya
estamos al tanto de que una sinapsis consiste en un punto de contacto desde
donde un grupo de neuronas interactúan. En RNA´s, las sinapsis son modeladas
matemáticamente asignándoles magnitudes numéricas que representan los
denominados pesos de la conexión, o Pesos Sinápticos y donde, cada entrada es
multiplicada por su respectivo peso antes de alcanzar el cuerpo celular. Dentro de
la neurona, cada señal entrante que ha sido multiplicada por su respectivo peso es
procesada por una simple función aritmética de suma, tal como se denota en la
gráfica 4.2.4. En una neurona biológica el flujo de señales se asemeja a la
mostrada en la gráfica 4.2.5 a continuación:

Desde el punto de vista de la ingeniería, el pico de salida de esta señal puede ser
estudiado examinando sus componentes fundamentales de frecuencia, duración y
amplitud. Cuando una neurona se activa y admite el paso de señales (véase señal
“c” en la gráfica 2.4), lo hace por influencia de cambios proporcionales en su
permeabilidad como consecuencia de la interacción entre una membrana
presináptica y una postsináptica, y que entre ambas obligan a la neurona a emitir
un Potencial de Acción bien de excitación, bien de inhibición (Gurney, 1997).

Según (Negnevitsky, 2005), un Potencial de Acción es en sí una señal de salida,


también denominada en neurobiología impulso nervioso. Se sucede gracias a
que la señal de una neurona biológica no pierde su fuerza aun atravesando
grandes distancias. En el núcleo de la neurona se produce, bien una integración de
las señales entrantes, o una sumatoria de estas, ambas inclusive. De acuerdo a
Gurney, Óp. Cit, una neurona normalmente recibe miles de conexiones entrantes
vía espinas dendríticas, muchas de ellas son del tipo inhibitorias, siendo su función
la de evitar la activación de un potencial de acción.
En arquitecturas de redes neuronales, estos nodos previamente referidos son
conformados estratégicamente en arreglos por capas. De manera que cada señal
entrante tiene su origen en un sensor de estimulación o de entrada de datos, y
ésta va atravesando nodos hasta alcanzar una salida más allá de la cual ya no se
transformará más. Observemos, primeramente, a una neurona de capa simple
como la que se muestra a continuación:

Según esta topología básica, designaremos a “p” como señal de entrada y a “w”
como el peso sináptico asociado a esta señal. Convergerán entonces en el bloque
sumatorio funcional: [(p*w) +b], y cuya salida será una función “f” de “a”. En este
punto nos encontramos con un nuevo e importante parámetro de redes
neuronales, el Sesgo o Bias adicionado al bloque de procesamiento. Como nos
indica (Raynor, 1999), denominaremos sesgo, a una constante que se le adiciona
a la suma de las entradas ponderadas, y cuyo valor comúnmente es -1 o 1, incluso
un valor arbitrario diferente. Se les utiliza para hacer que la salida del nodo flote,
por así decirlo, a un valor distinto de cero en el origen cuando todas las entradas
son cero. Este sesgo es común a todos los nodos de una capa y matemáticamente
representa un desplazamiento vertical de la línea de regresión.

Apoyemos esta explicación del funcionamiento de una neurona simple con un


modelo. Ejemplo 2.1(a): supongamos una entrada p=1,3; un peso sináptico
asociado a esa entrada con un valor w=1,7; y un sesgo o Bias . Supondremos para
este caso, que el nivel de activación umbral de la neurona se alcanza a los +0,5v,
tenemos entonces:
Podemos apreciar entonces, el cómo una neurona biológica, mimetizada por su
matemática ingenieril, trabaja como una compuerta lógica binaria que cambia sus
estados de salida en función del comportamiento de sus estados en las entradas, y
simplemente, procesa funciones lineales. El formato de la ecuación (XXX) obedece
al Modelo de Regresión Lineal Simple, donde la variable , marca dependencia
lineal contra la variable independiente La Ecuación de regresión tiene la forma:
Si cambiamos Nos
queda la ecuación (XX) que obedece a una Ecuación de Regresión Lineal

Simple donde, los parámetros serán nuestros parámetros a ser


estimados. Observemos que en esta nueva ecuación de regresión, los pesos de

las conexiones se convierten ahora en la pendiente de la recta,

y, representará a sesgo o bias de nuestro modelo neuronal. En los modelos


regresivos la variable 'Y' funge como variable dependiente y que es explicada
conforme se acontecen los cambios sobre la variable independiente 'X'.

El término se interpreta estadísticamente como un error aleatorio no


observable, pero, en redes neuronales, denota a una función objetivo o función
de error. Algunas de sus variantes, dependiendo del tipo de arquitectura y modelo

matemático de prevalencia, son: hace referencia a la derivada de la función de

error. significa generalización del error. alude a un error adquirido durante

los entrenamientos y determina un error de validación. En los casos donde el

conjunto de tuplas observacionales se presenten, y


donde sea linealmente dependiente a su correspondiente , podemos reescribir la
ecuación del modelo con subíndices:
Si el modelo seleccionado es un Modelo Lineal Generalizado, el parámetro de
error será el . Según el enfoque de estos modelos, algunas funciones de valor
esperado para la variable respuesta se organizan como una combinación lineal de
las variables explicativas

o neurona objetivo, y que matemáticamente denotaremos siguiendo las


consideraciones subsecuentes: . La letra 'w' refiere a la denominación inglesa
Weight o peso, y los subíndices señalan origen y destino de la conexión. Como
modelo, la denotación , nos indica que existe un valor de dato de entrada originado
en X1, que será multiplicado por el peso de la conexión entre las neuronas N1 y
N5, N1(primer subíndice) y N5(segundo subíndice). Siguiendo las instrucciones
previas nos queda:

Cada función lineal que es trabajada por una neurona simple es


denominada Función Primitiva. Ambos casos de estos ejemplos previos reciben
tal denominación. Ahora bien, si la red está compuesta por múltiples neuronas,
como debe ser y es común, a esa salida totalizadora la llamaremos Función de
Red. Agreguemos otro ejemplo más, ahora con dos entradas, y examinemos sus
procesos y resultados:

Ejemplo 2.3. Asumiremos para este caso, que hay 4 señales de entradas binarias
captadas por las neuronas sensitivas [N1, N2, N3 y N4]. Que existen ahora dos
neuronas de procesamiento a las que denominaremos Neuronas
Ocultas, ubicadas en una capa del mismo nombre, y todas a su vez linkadas a
una única neurona de salida (N7). De cada neurona de entrada emerge una
conexión con su respectivo valor de peso sináptico hasta la neurona diana
o neurona objetivo, y que matemáticamente denotaremos siguiendo las

consideraciones subsecuentes: La letra 'w' refiere a la denominación inglesa


Weight o peso, y los subíndices señalan origen y destino de la conexión. Como

modelo, la denotación nos indica que existe un valor de dato de


entrada originado en X1, que será multiplicado por el peso de la conexión entre las
neuronas N1 y N5, N1(primer subíndice) y N5(segundo subíndice). Siguiendo las
instrucciones previas nos queda:
La regla nos indica que en la neurona 5 habrá activación, dado su estado 8>0;
pero, en la neurona 6 habrá inhibición puesto que -6<0. Examinaremos ahora lo
que sucede a la salida; siguiendo la lógica anterior nos queda:
Por ende, la salida al sistema cuando las entradas presentan el patrón anterior es
cero (inhibición). Pero, ¿realmente de qué dependen las salidas?, ¿dependen de
las entradas? Si el lector se está haciendo estas preguntas, permítanme
responderles que las salidas no necesariamente dependen de las entradas, una
dependencia se da en función de los pesos sinápticos de conexión obtenidos
producto de los entrenamientos de la red. En el siguiente aparte veremos sus
porqués.

Función de los Nodos Ocultos

Designaremos como Capas Ocultas (Hidden Layers), a la/s capa/s de neuronas


que se interpone/n entre las entradas y las salidas, siendo las encargadas de la
ejecución de los cálculos que serán posteriormente enviados a la capa de salida
para su presentación. Reciben la denominación de ocultas, a causa de que esta
capa es inobservable a través de la monitorización del comportamiento
individualizado, o en conjunto, de las entradas y las salidas. Las neuronas
radicadas en esta capa reciben el nombre de Neuronas Ocultas.

Es en estas capas ocultas donde radica todo el poder computacional de las RNA´s.
En este tipo de redes, la capa de entrada solo recibe señales y las direcciona hacia
las capas ocultas, pero no tiene el poder de computar nada, ni de capturar
patrones específicos algunos. Son las neuronas de la capa oculta las que
realmente procesan y detectan características, como el valor de los pesos de
conexión entrantes. Tiene, además, la capacidad de identificar particularidades y
especificidades de los patrones de entrada para lo cual la red ha sido entrenada,
ajustándolos conforme otras características de función computacional.
Manteniendo a la red dentro de los valores aceptables para los errores de
predicción. La capa de salida, al igual que la de entrada, sólo se encarga de recibir
patrones ya procesados y ajustados desde las capas ocultas determinando la
función de red final.

En la gráfica 4.4.1 se alude a nodos de entrada circulares cuya forma es la misma


de los nodos ocultos. No obstante, eso no siempre sucede así, dado que no tienen
los mismos roles. En posteriores ejercicios denotaremos a las entradas y salidas
en forma de cuadrados, dado que las primeras sólo cumplen funciones de
recepción de señales, no calculan pesos ni tienen poder de ejecutar cálculo
alguno. Y las salidas, sólo se encargan de presentar la información.

Mientras que las computadoras almacenan información accesando aleatoriamente


a sectores de memoria, el cerebro altera los valores de los pesos sinápticos de las
conexiones que asocian neuronas de diferentes dependencias modulares. La
memoria de una red neuronal, así como del cerebro, está relacionada con las
neuronas ocultas, con los valores de los pesos y su arquitectura de interconexión.
Sabemos que el cerebro procesa información modularmente según la Teoría de la
Modularidad de Fodor. Cuando un módulo recibe una señal para su
procesamiento, y que posteriormente da como resultado una salida, es imposible
saber cuál o cuáles, de tantos billones de neuronas actuantes, son responsables
por individualidad, del producto final.
Es esto precisamente lo que las RNA´s tratan de imitar, el cómo nuestro cerebro,
usando valores de los pesos productos de alteraciones sistemáticas en las
conexiones sinápticas y asociación neuronal, nos brinda esta maravillosa
capacidad de almacenamiento de información que nos lleva a tan esplendidos
aprendizajes. Ninguna neurona por sí sola, al igual que un transistor, posee la
capacidad de almacenar información. Es el cerebro, a través de una intrigante
biomatemática, quien altera la forma como las neuronas están asociadas.

A continuación, un ejemplo práctico tomado desde (Kim, 2017), prestemos


atención a la gráfica 4.4.3 donde se esquematiza un nodo receptor de 3

entradas, y una única salida. A cada entrada le corresponde su

respectivo peso sináptico La señal ʹbʹ, que apunta al nodo, será


nuestro Bias o parámetro que según el autor, también está asociado con el
almacenamiento de información.

Cada señal de entrada es multiplicada por su peso de conexión antes de que


alcance llegar al nodo, éste último, se encargará de sumar cada valor resultante
para cada entrada, de manera que la ecuación de red tendrá la forma: Ecuación:
4.4.1.
Si observamos bien la ecuación 4.4.1, notaremos que consiste simplemente en
una suma de productos, como se sucede cuando 4 salidas de compuertas AND se
constituyen en entradas para otra compuerta OR, en lógica booleana. Esto quiere
decir, que la señal con mayor valor tendrá mayor impacto sobre la salida.

Supongamos que como consecuencia, el peso de la


segunda entrada será 5 veces más grande que el peso de la primera. Podríamos
inferir también que si o , estas señales estarán desactivadas o sin efectos sobre
la salida. Este ejemplo busca mostrar que las redes neuronales solo tratan de
imitar la forma mediante la cual el cerebro procesa información alterando las
asociaciones neuronales. La ecuación 4.4.1 puede simplificarse y tomar la

forma: Como las entradas a una red neuronal suelen ser


asociadas a vectores, su modelo matemático adquiere la forma:

Finalmente, la sumatoria anterior es trasladada hacia la función de activación, la


cual es mostrada a la salida. Kim asegura que es la función de activación la que
determina finalmente, el comportamiento del nodo.

Función de los Pesos Sinápticos

Bien sabemos, en neuronas biológicas, la comunicación se establece a través de


las conexiones dendríticas en los puntos sinápticos donde median los
neuromoduladores. Estas dendritas contienen una carga potencial o valor de
intensidad que se desplaza de una célula a otra, y que será convertida en alguna
forma de acción. De perfil análogo, en RNA´s, denominamos a este tipo de fuerza
en las conexiones como Pesos Sinápticos. Son estas conexiones entre neuronas
las que determinan la función de red. Fue Donald Hebb (1949), quien afirmó en su
teoría de aprendizaje, que la fortaleza sináptica puede ser reforzada mediante
entrenamientos y en correspondencia entre las actividades que ejecutan las
células pre y post sinápticas. Según (Ertel, 2017, pág. 249), la Regla de Hebb se
interpreta matemáticamente así:
Donde el parámetro ' será denominado Tasa de Aprendizaje, y con el cual
se determina el tamaño de los pasos del aprendizaje. El valor asignado a estas
conexiones puede ser modificado haciendo a unas uniones más fuertes que otras
siguiendo la regla de Hebb. De allí que una conexión tenga un nivel de peso
sináptico mayor a otro. A esta facilidad de adaptación y variación entre un peso y
otro, se le conoce como Plasticidad Sináptica Hebbiana.

Cada entrada a una neurona es escalada con un peso, y este afecta en gran
medida la función computacional de esta unidad. En cuanto a la determinación de
las funciones de red, los pesos sinápticos se constituyen como el factor más
importante a considerar. Siendo estas funciones, las que tienen mayor impacto
sobre los entrenamientos pues, pesos más elevados indican mayor relevancia
sobre el proceso de aprendizaje. En RNA´s, el peso es todo valor asociado a la
conexión entre dos neuronas. Cuando se opera con simulaciones por software, los
pesos se identifican por el grosor, o delgadez, de sus cables conectores.

Por ende, podríamos afirmar que el peso sináptico es el parámetro que media
entre dos neuronas cambiando sus valores en concordancia con los ciclos de
iteraciones. Además, el aprendizaje en estas redes se determina cambiando los
valores de los pesos de conexión. Según (Aggarwal, 2018), el ajuste de los pesos
de conexión se sucede como respuesta a errores de predicción sobre los
parámetros estimados deseados. El objetivo de cambiar los pesos, consiste en
modificar la función de red direccionándola hacia predicciones más correctas en
futuras iteraciones. Estos pesos serán modificados si con esta acción se justifica
matemáticamente, una reducción del error de predicción. Cierto es que, como el
entrenamiento es algo que se repite, se espera que la red neuronal haga
predicciones más correctas y precisas en el transcurrir del tiempo.

Los pesos sinápticos a su vez tienen funciones interesantes, poseen la capacidad


de regular el valor de la entrada antes de que esta sea propagada al interior de la
red. Si retomamos el ejemplo previo, la neurona N4 tiene un valor de entrada 1 y
un peso de conexión de 6. Si este peso fuese de 0,5, el valor que recibiría N5 sería
también de 0,5. Esto hace que el peso determine cuánto de la cantidad de la capa
previa, será transmitido hacia la capa siguiente. En atención a (Valluru, 1995), para
entrenar la red siguiendo el esquema de los pesos sinápticos estas acciones
pueden ser ejecutadas:

· Iniciar con un conjunto de pesos y correr la red (sin entrenamiento).

· Iniciar con un conjunto de pesos, correr la red, y modificar alguno o todos los
pesos, posteriormente, correr de nuevo la red con estos nuevos valores. Se repite
este proceso hasta que cierta meta sea alcanzada, a esto se le denomina
entrenamiento.

· Entrenar significa que hasta que la red no alcance una salida deseada, los
valores de los pesos necesitaran ser repetidamente ajustados.

El entrenamiento, al que ya hemos mencionado, se constituye como aquel acto de


presentar unas entradas a la red producto de muestras con el fin de modificar los
pesos sinápticos en concordancia con ciertas leyes de aprendizaje pre
establecidas, y que estos pesos ajusten los valores de la función de red lo más
cercanamente posible a lo estimado. Cuatro son los paradigmas de aprendizaje
más importantes en la literatura actual y que auxilian en los entrenamiento al ajuste
de los valores de los pesos sinápticos: el Aprendizaje no
Supervisado; el Aprendizaje Supervisado; el Aprendizaje Reforzado y los
Aprendizajes Híbridos. Dado sus alcances, en este libro sólo aludiremos a los
dos primeros. Ambos modelos siguen los esquemas prescritos para toda
estructura de aprendizaje, las entradas, la búsqueda, la evaluación y la salida.

En atención a (Coppin, 2004), el aprendizaje no supervisado es un método o forma


de aprendizaje que no requiere entrenamiento o cualquier clase de intervención
humana. Bajo este modelo, las clases no presentan etiquetas indicadoras de que
es lo que deben aprender y que no. Tanto el modelo de aprendizaje Hebb descrito
previamente, como los Mapas de Kohonen, son modelos basados en este tipo de
aprendizaje. Los referidos Mapas de Kohonen son capaces de clasificar data en
conjuntos sin habérseles especificado un modelo a seguir.

El aprendizaje supervisado por su lado, es un método de aprendizaje en el cual al


sistema que aprende le es presentado para su reconocimiento, un conjunto de
datos previamente clasificados y etiquetados. Con ello se espera que la red
clasifique datos que nunca ha visto por asociación y características de similaridad
a los de los patrones etiquetados. En atención a (Carpenter et al., 1992) en
(Sammut & Webb, 2011), el aprendizaje no supervisado significa que el sistema
puede aprender a categorizar nuevos patrones de entrada sin realimentación
externa alguna. Mientras que el aprendizaje supervisado, usa al error predictivo
para que el sistema identifique y compare si ha categorizado correctamente la
información. Con el método supervisado, se fuerza una búsqueda de nuevas
categorías no basadas en características de similaridad tratadas separadamente.
No importa el método de aprendizaje o entrenamiento utilizado, todos basan su
operacionalidad sobre el criterio de que les es posible modificar los pesos de las
conexiones sinápticas

La Lógica de Umbral

En este punto del libro ya entendemos algunas funciones básicas de las RNA´s, a
pesar de, todavía nos faltan muchas cosas por razonar. Una de ellas se deriva de
la pregunta: ¿en qué momento pasamos desde una lógica booleana basada en
compuertas, para trascender hacia otro tipo de lógica soportada ahora en la teoría
de los umbrales neuronales? El centro de atención de este aparte, gira en la
consecución de respuestas sensatas a esta interrogante. Para ello, es bueno
comenzar por el inicio, dilucidando primero qué es un umbral. La Lógica
Electrónica de Umbral o Lógica de Umbral, apareció por primera vez en los
trabajos de McCulloch y Pitts en 1943, de hecho, al modelo original se le
denominó Neurona McCulloch Pitts, una neurona que produce una salida bipolar.
Aunque no fue sino hasta las décadas de los 60`s y los 70´s, cuando
efectivamente comenzaron a publicarse una gran cantidad de trabajos
direccionados a esta teoría.
El denominado umbral es una función matemática dado que marca dependencia
funcional con actividades externas a la célula. Bajo estos parámetros,
una Función Umbral es una función de señal eléctrica originada desde las
dendritas debido a desiguales concentraciones de potenciales de carga, y que
debe atravesar canales activados por voltajes de sodio. Esta señal eléctrica debe
alcanzar un valor específico para lograr trascender el denominado Umbral de
Excitabilidad de la Neurona tal que, acumule la cantidad de estímulo necesario
para provocar reactividad. A saber, la señal logrará propagarse siempre que la
entrada supere el nivel establecido por el Límite de Decisión.

Se denomina límite de decisión, a la línea divisoria donde la activación es igual al


umbral. Esta línea señaliza las regiones superiores e inferiores donde dos planos
se intersectan. Cada vez que el sistema, producto de los entrenamientos, altera
tanto los valores de los pesos sinápticos como los del umbral, el límite de decisión
tiende a desplazarse. Es posible perturbar cualquier respuesta de la unidad lógica
de umbral sobre los vectores de entrada, y que será reflejada sobre las salidas, a
través del simple movimiento de esta línea. Bien sabemos que una neurona recibe
señales desde varias dendritas de manera simultánea. No obstante, ninguna
ramificación dendrítica suele ser longitudinalmente simétrica con respecto a sus
otras (refiérase a la gráfica 4.5.2).
Comúnmente, unas serán más largas y otras más cortas. Con todo, el potencial de
acción que recorre la distancia impulsado por canales de sodio, igualmente llegará
a su destino. Si tomamos en cuenta la apreciación del tiempo en la mecánica
clásica, veremos que este es directamente proporcional a la distancia e
inversamente proporcional a su velocidad de desplazamiento. Como la
permeabilidad es la misma para todas las dendritas, asumiremos a esta velocidad
como una constante para todas las ramificaciones, quiere decir, todas tendrán el
mismo tiempo de despolarización. Entonces, lo que variará entre ellas será el
tiempo de arribo de cada impulso. Presentemos un ejemplo de (Arbib, 2003) para
ilustrar mejor la situación. En la gráfica siguiente se considera una neurona con 4
dendritas: [A, B, C, D], todas con desiguales longitudes a partir del cono axónico, y
donde cada una recibe una sinapsis simple desde un receptor visual.

Asumiremos que cada receptor reacciona al paso de un punto de luz o variación


de una longitud de onda lumínica sobre su superficie, cediendo un potencial de
acción que alcanza la membrana postsinaptica, propagandose pasivamente tal
como lo hacen las olas del mar. Véase gráfica 4.5.4.
Observemos que las 4 dendritas se propagan de manera diferente, donde A es
más semejante al impulso original que D. Si 4 entradas alcanzaren A, B, C y D
simultáneamente, sus efectos sumados tal vez serían menor al efecto requerido
para disparar el impulso de salida, Véase gráfica 4.5.5 (izquierda). Ahora bien, si
una entrada alcanza D, antes de que otro alcance C, y así sucesivamente. De
manera que los picos de las cuatro señales coincidan superponiéndose en el cono
axónico, el efecto cooperativo total de las señales haría exceder el umbral,
disparándose un potencial de acción (Graf. 4.5.5 derecha). He aquí uno de los
orígenes de aplicar sumatoria en el núcleo celular como elemento de
procesamiento y que discutiremos más adelante.

Computacionalmente, en el proceso de determinar el nivel de excitabilidad


neuronal, su respuesta puede ser graficada con respecto a su entrada, al hacerlo,
se asemejará a una señal de paso. Dado a ello, es común que en la literatura
especializada se le denomine Función Escalonada.
n ingeniería de RNA´s, se toma esta señal de entrada y se le transforma en otros
modelos con mayor amplitud y significancia matemática. Las neuronas son
realmente Funciones Lineales Umbrales. En atención a (Raynor, 1999), éstas,
se constituyen como una función de señal que se compone de una función lineal
acotada. Donde, siempre que la entrada excede un cierto nivel, la salida se limita
al máximo y, de manera similar acontece, cuando la salida cae por debajo de un
valor particular. Se utiliza como función de salida en una red neuronal para
mimetizar el funcionamiento de una neurona real y su lógica de operación.

Una Unidad Lógica de Umbral (neurona), puede procesar cualquier función


lógica tal como lo hace la lógica booleana tradicional. Según afirma (Galushkin,
2007), el propósito de esta lógica radica en un intento por diseñar unidades
computacionales separadas, y donde las neuronas ejecutarán transformaciones
lógicas de señales de entrada, hacia otras de salida, siguiendo el modelo a
continuación:

La ecuación anterior obedece a una interpretación simplificada de una Función

de Transferencia Neuronal. La salida a la red está denotada por “y”. alude a

los coeficientes de los pesos de conexión sinápticos. Para cuando el

coeficiente se transforma en obedeciendo al valor de umbral.

Los son los valores de las entradas tal que, . La notación se lee:

para todas las entradas que pertenecen al intervalo entre 0 y 1. Su


acotamiento tendría la siguiente forma:
El modelo neuronal McCulloch Pitts sirve para ejemplificar las semejanzas entre
las operaciones de una neurona y su contraparte booleana basada en compuertas
AND, OR y NOT. Este modelo fue diseñado combinando neurofisiología (Warren
McCulloch) y lógica matemática (Walter Pitts), aprovechando las propiedades
neuronales del todo o nada de reciente descubrimiento. Así como las compuertas
ejecutan operaciones lógicas y matemáticas de multiplicación (AND), suma (OR) e
inversión (NOT). Las neuronas hacen lo mismo sobre procesos de activación,
inhibición y umbral. La idea fundamental consistió en dividir el tiempo en unidades
comparables al período refractario.

Observemos que cada neurona tiene adherido e identificado su respectivo peso


sináptico y su umbral. En notación de redes neuronales el parámetro

' denota una función umbral. En la neurona (a) de la gráfica 4.5.7, esta se

activa y dispara a un tiempo sólo en el caso donde los valores de los


pesos de sus entradas a un tiempo 't' alcancen el valor umbral. En el caso de la
neurona (b), deben configurarse los pesos y el umbral para que funcione como una
compuerta multiplicadora AND. Donde, habrá disparo de salida si hay presencia de

señal tanto en como en simultáneamente. Cuando se trata de la neurona


(c), para que esta actúe como una compuerta OR, habrá disparo a la salida si hay
señal de entrada en o en , o en ambas inclusive. Por último, para que la neurona
(d) funcione como una compuerta NOT, habrá disparo a la salida si no lo hay en la
entrada.
Por otro lado, y siguiendo lineamientos de (Galushkin, 2007, págs. 36 - 37), una
neurona posee ciertas ventajas sobre los elementos tipo compuertas AND, OR y
NOT, por un conjunto de consideraciones que se describirán a continuación:

· Una neurona está en la capacidad de ejecutar una mayor cantidad de


funciones lógicas complejas que las compuertas mencionadas. Dado que permite
la ejecución de las mismas funciones lógicas con una cantidad reducida de
elementos. Como resultado, posibilita la minimización del tamaño del equipo a
diseñar.

· Una red neuronal posee una alta tolerancia a fallos dado que opera con
elementos separados e independientes. Como ejemplo, es común que se sucedan
accidentes cerebro vasculares sin ningún reflejo o efecto evidente sobre
operaciones motrices o que reduzcan capacidades cerebrales en humanos. El
cerebro gracias a su plasticidad, puede recuperar la comunicación entre los nodos
afectados. Si esto se aconteciese en un circuito digital, donde varias compuertas
lógicas se dañasen en el mismo sector, no habría forma de recuperar el trabajo
que circuitalmente realizan.

Refiere el autor, que, en el perceptron de 3 capas, la falla masiva de un gran


número de neuronas con conexión arbitraria de la primera capa, no resultó en el
decremento de la calidad en la solución al problema. Incluso bajo la ausencia de
procedimientos especiales de diagnóstico y reconfiguración de su estructura. Esta
es una habilidad observada hoy día sólo en computadores con multi
microprocesadores con paralelismo extendido. Aludiendo a casos de
arquitecturas SIMD (Single Instruction – Multiple Data) y MIMD (Multiple
Instruction – Multiple Data) cuando procedimientos de diagnóstico y
reconfiguración son implementados sobre estas.

Una de las propiedades de tales estructuras es la llamada Degradación


Permanente. De acuerdo a ella, la principal cualidad del desempeño del sistema
(la probabilidad del reconocimiento correcto y eficiencia) alcanza su máximo
cuando todos los elementos se encuentran funcionando apropiadamente. Pero,
esta cualidad decrece cuando ocurre una falla que no llegue a ser catastrófica.

· Las redes neuronales tienen una tolerancia incrementada contra aquellas


variaciones en los parámetros de su circuitería. Un circuito basado en redes
neuronales cuyos parámetros sean función de los coeficientes de los pesos
sinápticos y valores umbrales, no arrojan errores como resultado de su
implementación lógica.

· Implementaciones sobre plataformas VLSI o dispositivos ópticos con


algoritmos adecuados a redes neuronales se realizan de forma análoga. Esta
metodología proporciona una mayor velocidad de operación que aquellas
realizadas sobre circuiterías digitales.

· Una red neuronal puede ser descrita como un sistema discreto con el uso de
la Técnica de Máquina Secuencial Lineal. Esto abre la posibilidad no solo de
analizar el comportamiento del sistema por los métodos de la teoría de control
clásica. Sino de sintetizar estructuras de redes neuronales de acuerdo a criterios
preestablecidos.
Como hemos podido apreciar, las funciones de las salidas de una red neuronal es
que esta clasifique datos de entrada, así como, el que sea capaz de relacionar por
patrones de asociación, la diversidad de patrones de entrada que puedan
presentársele. Las funciones umbral y las funciones de activación son sinónimas,
quiere decir, que, aunque ejecutan mismas funciones en diversa literatura se las
trata por separado. Las funciones umbrales son las que adecuan al sistema a un
tipo de mapeo específico y en correspondencia con la solución a un problema
concreto. No pudiere haber una salida como respuesta de una red neuronal en
óptimas condiciones de operación que no sea resulta de una restricción de las
señales a los niveles de umbrales.

En redes multicapas estos umbrales podrán variar a medida que la señal atraviese
la red. A esta variabilidad la llamaremos Escalamiento Umbralizado. La función
de este escalamiento es proporcionar una salida significativa y acorde a la función
objetivo. Este escalamiento umbralizado reviste vital importancia en los modelos
multicapas dado que ayuda a preservar un rango matemático significativo para
cada operación que ejecute la capa en cuestión.

También podría gustarte