Documentos de Académico
Documentos de Profesional
Documentos de Cultura
¿Qué son las RNA´s?... ¿Para qué se usan?... ¿Por qué usarlas?... ¿Cómo Trabajan?... Las redes
neuronales artificiales consisten en implementaciones software/hardware de modelos
funcionales de las diversas estructuras biológicas que posee el cerebro, y que le sirven a la
toma de decisiones por procesamiento de información captada desde su entorno donde
median los sentidos. Mientras los softwares simulan procesos, los hardware emulan muy
eficazmente, sus interconexiones eléctricas y electroquímicas. El cerebro, biológicamente
hablando, es un dispositivo de alta complejidad cuya unidad de procesamiento básico es la
neurona.
Según (Rabunal & Dorado, 2006), las Redes Neuronales Artificiales RNA´s,
consisten en un sistema de procesamiento de información cuya base radica en una
generalización de la cognición humana. Por medio de ellas, es posible imitar
modelos biológicos de la cognición y mecanismos que se suceden a nivel cerebral.
Posibilitando, tanto la simulación de su complejo entramado electrónico de
procesamiento de datos sensoriales, como su capacidad de almacenamiento de
información y cómputo, hacia tareas y fines específicos.
Podríamos decir entonces, las redes neuronales no son más que modelos
biológicos de procesamiento de información sensorial trasladados hacia unidades
de software (agentes inteligentes), o unidades de hardware basadas en
dispositivos tipo membranas con características de semipermeabilidad, y que
emulan procesos de conducción a través de corrientes iónicas. El fundamento
teórico de las Redes Neuronales se sostiene sobre la tesis conexionista.
En atención a (Galushkin, 2007), una red neuronal artificial representa un sistema
dinámico altamente paralelizado con topología gráfica directa capaz de emitir
información de salida, por reacción de sus estados en las entradas. A los
elementos de procesamiento que la componen, atados a sus canales directos de
conexión, se les denomina nodos de la red neuronal. Estas redes neuronales
artificiales pueden ser caracterizadas también, por poseer un número finito de
capas. Éstas, consisten en unidades de procesamiento nodal separadas unas de
las otras, y que se asemejan a las neuronas biológicas presentando diferentes
tipos de conexión entre capas. El número de neuronas artificiales en una capa ha
de ser suficiente para proveer una solución de calidad al requerimiento de la
solución a un problema.
A los nodos se les utiliza para representar tanto conceptos simbólicos como
matemáticos, y dentro de los formatos gráficos de las redes neuronales artificiales,
realmente son objetos científicamente interpretables. Un arco por su lado, es un
link de conexión entre nodos que indican la naturaleza del flujo de la información, y
su intensidad de transferencia. Es decir, un arco señala el origen y destino de la
transferencia de datos que se suceden entre nodos anteriores y posteriores,
incluso, nodos adyacentes.
Como una neurona es una célula capaz de procesar información, nos centraremos
en analizar el cómo se sucede tal proceso. Una de las ventajas de las neuronas
como elementos de procesamiento primitivo del cerebro, se esquematiza en la
gráfica 2.2. Una neurona puede tener muchas conexiones de entrada encargadas
de recibir señales externas, con ello se causa un proceso interno, y este arroja una
sola salida que se irradia a través del axón. En un constante fluir, propagar y
realimentar. Desde la visual de un modelo biológico, una neurona generalmente se
encuentra en un estado activo estable (homeostático), quiere decir, a la espera de
estimulaciones sensoriales externas. Estos estímulos siempre estarán presentes
para la neurona. No obstante, esta solo responderá cuando la sumatoria de
estimulaciones aferentes logre exceder un nivel umbral preestablecido, cuando
esto se sucede, entonces la neurona pasa a un estado de activación funcional, y
que describiremos matemáticamente a continuación.
Como lo que ejecutan internamente las neuronas son operaciones matemáticas de
dependencia funcional (regresiones lineales), en otras palabras, necesitan de una
causa para producir un efecto, llamaremos a esto Función de Activación. Bajo
aportes de (Negnevitsky, 2005), una función de activación es simplemente una
función matemática que mapea las entradas a la red neuronal direccionándolas
hacia la salida luego de un procesamiento interno. De estas funciones de
activación por lógica de umbral las más comunes son: las de Paso (Step), las del
tipo Sign, las Lineales y las Sigmoidales.
Desde el punto de vista de la ingeniería, el pico de salida de esta señal puede ser
estudiado examinando sus componentes fundamentales de frecuencia, duración y
amplitud. Cuando una neurona se activa y admite el paso de señales (véase señal
“c” en la gráfica 2.4), lo hace por influencia de cambios proporcionales en su
permeabilidad como consecuencia de la interacción entre una membrana
presináptica y una postsináptica, y que entre ambas obligan a la neurona a emitir
un Potencial de Acción bien de excitación, bien de inhibición (Gurney, 1997).
Según esta topología básica, designaremos a “p” como señal de entrada y a “w”
como el peso sináptico asociado a esta señal. Convergerán entonces en el bloque
sumatorio funcional: [(p*w) +b], y cuya salida será una función “f” de “a”. En este
punto nos encontramos con un nuevo e importante parámetro de redes
neuronales, el Sesgo o Bias adicionado al bloque de procesamiento. Como nos
indica (Raynor, 1999), denominaremos sesgo, a una constante que se le adiciona
a la suma de las entradas ponderadas, y cuyo valor comúnmente es -1 o 1, incluso
un valor arbitrario diferente. Se les utiliza para hacer que la salida del nodo flote,
por así decirlo, a un valor distinto de cero en el origen cuando todas las entradas
son cero. Este sesgo es común a todos los nodos de una capa y matemáticamente
representa un desplazamiento vertical de la línea de regresión.
Ejemplo 2.3. Asumiremos para este caso, que hay 4 señales de entradas binarias
captadas por las neuronas sensitivas [N1, N2, N3 y N4]. Que existen ahora dos
neuronas de procesamiento a las que denominaremos Neuronas
Ocultas, ubicadas en una capa del mismo nombre, y todas a su vez linkadas a
una única neurona de salida (N7). De cada neurona de entrada emerge una
conexión con su respectivo valor de peso sináptico hasta la neurona diana
o neurona objetivo, y que matemáticamente denotaremos siguiendo las
Es en estas capas ocultas donde radica todo el poder computacional de las RNA´s.
En este tipo de redes, la capa de entrada solo recibe señales y las direcciona hacia
las capas ocultas, pero no tiene el poder de computar nada, ni de capturar
patrones específicos algunos. Son las neuronas de la capa oculta las que
realmente procesan y detectan características, como el valor de los pesos de
conexión entrantes. Tiene, además, la capacidad de identificar particularidades y
especificidades de los patrones de entrada para lo cual la red ha sido entrenada,
ajustándolos conforme otras características de función computacional.
Manteniendo a la red dentro de los valores aceptables para los errores de
predicción. La capa de salida, al igual que la de entrada, sólo se encarga de recibir
patrones ya procesados y ajustados desde las capas ocultas determinando la
función de red final.
Cada entrada a una neurona es escalada con un peso, y este afecta en gran
medida la función computacional de esta unidad. En cuanto a la determinación de
las funciones de red, los pesos sinápticos se constituyen como el factor más
importante a considerar. Siendo estas funciones, las que tienen mayor impacto
sobre los entrenamientos pues, pesos más elevados indican mayor relevancia
sobre el proceso de aprendizaje. En RNA´s, el peso es todo valor asociado a la
conexión entre dos neuronas. Cuando se opera con simulaciones por software, los
pesos se identifican por el grosor, o delgadez, de sus cables conectores.
Por ende, podríamos afirmar que el peso sináptico es el parámetro que media
entre dos neuronas cambiando sus valores en concordancia con los ciclos de
iteraciones. Además, el aprendizaje en estas redes se determina cambiando los
valores de los pesos de conexión. Según (Aggarwal, 2018), el ajuste de los pesos
de conexión se sucede como respuesta a errores de predicción sobre los
parámetros estimados deseados. El objetivo de cambiar los pesos, consiste en
modificar la función de red direccionándola hacia predicciones más correctas en
futuras iteraciones. Estos pesos serán modificados si con esta acción se justifica
matemáticamente, una reducción del error de predicción. Cierto es que, como el
entrenamiento es algo que se repite, se espera que la red neuronal haga
predicciones más correctas y precisas en el transcurrir del tiempo.
· Iniciar con un conjunto de pesos, correr la red, y modificar alguno o todos los
pesos, posteriormente, correr de nuevo la red con estos nuevos valores. Se repite
este proceso hasta que cierta meta sea alcanzada, a esto se le denomina
entrenamiento.
· Entrenar significa que hasta que la red no alcance una salida deseada, los
valores de los pesos necesitaran ser repetidamente ajustados.
La Lógica de Umbral
En este punto del libro ya entendemos algunas funciones básicas de las RNA´s, a
pesar de, todavía nos faltan muchas cosas por razonar. Una de ellas se deriva de
la pregunta: ¿en qué momento pasamos desde una lógica booleana basada en
compuertas, para trascender hacia otro tipo de lógica soportada ahora en la teoría
de los umbrales neuronales? El centro de atención de este aparte, gira en la
consecución de respuestas sensatas a esta interrogante. Para ello, es bueno
comenzar por el inicio, dilucidando primero qué es un umbral. La Lógica
Electrónica de Umbral o Lógica de Umbral, apareció por primera vez en los
trabajos de McCulloch y Pitts en 1943, de hecho, al modelo original se le
denominó Neurona McCulloch Pitts, una neurona que produce una salida bipolar.
Aunque no fue sino hasta las décadas de los 60`s y los 70´s, cuando
efectivamente comenzaron a publicarse una gran cantidad de trabajos
direccionados a esta teoría.
El denominado umbral es una función matemática dado que marca dependencia
funcional con actividades externas a la célula. Bajo estos parámetros,
una Función Umbral es una función de señal eléctrica originada desde las
dendritas debido a desiguales concentraciones de potenciales de carga, y que
debe atravesar canales activados por voltajes de sodio. Esta señal eléctrica debe
alcanzar un valor específico para lograr trascender el denominado Umbral de
Excitabilidad de la Neurona tal que, acumule la cantidad de estímulo necesario
para provocar reactividad. A saber, la señal logrará propagarse siempre que la
entrada supere el nivel establecido por el Límite de Decisión.
Los son los valores de las entradas tal que, . La notación se lee:
' denota una función umbral. En la neurona (a) de la gráfica 4.5.7, esta se
· Una red neuronal posee una alta tolerancia a fallos dado que opera con
elementos separados e independientes. Como ejemplo, es común que se sucedan
accidentes cerebro vasculares sin ningún reflejo o efecto evidente sobre
operaciones motrices o que reduzcan capacidades cerebrales en humanos. El
cerebro gracias a su plasticidad, puede recuperar la comunicación entre los nodos
afectados. Si esto se aconteciese en un circuito digital, donde varias compuertas
lógicas se dañasen en el mismo sector, no habría forma de recuperar el trabajo
que circuitalmente realizan.
· Una red neuronal puede ser descrita como un sistema discreto con el uso de
la Técnica de Máquina Secuencial Lineal. Esto abre la posibilidad no solo de
analizar el comportamiento del sistema por los métodos de la teoría de control
clásica. Sino de sintetizar estructuras de redes neuronales de acuerdo a criterios
preestablecidos.
Como hemos podido apreciar, las funciones de las salidas de una red neuronal es
que esta clasifique datos de entrada, así como, el que sea capaz de relacionar por
patrones de asociación, la diversidad de patrones de entrada que puedan
presentársele. Las funciones umbral y las funciones de activación son sinónimas,
quiere decir, que, aunque ejecutan mismas funciones en diversa literatura se las
trata por separado. Las funciones umbrales son las que adecuan al sistema a un
tipo de mapeo específico y en correspondencia con la solución a un problema
concreto. No pudiere haber una salida como respuesta de una red neuronal en
óptimas condiciones de operación que no sea resulta de una restricción de las
señales a los niveles de umbrales.
En redes multicapas estos umbrales podrán variar a medida que la señal atraviese
la red. A esta variabilidad la llamaremos Escalamiento Umbralizado. La función
de este escalamiento es proporcionar una salida significativa y acorde a la función
objetivo. Este escalamiento umbralizado reviste vital importancia en los modelos
multicapas dado que ayuda a preservar un rango matemático significativo para
cada operación que ejecute la capa en cuestión.