Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Si nos pidiesen calcular la raz cuadrada de 5 con tres decimales de precisin y sin usar calculadora ni lpiz ni papel diramos
que no somos capaces de realizarlo. Sin embargo, esta tarea es una operacin rutinaria y muy sencilla para un ordenador. No obstante,
tareas como coger una moneda al vuelo que lanzamos al aire o reconocer una cara en una fotografa que son acciones cotidianas para
nosotros son tareas realmente duras para un ordenador. Es decir, tareas de reconocimiento de patrones, control de dispositivos,
clasificacin de objetos, etc. que suponen gran cantidad de clculo y tiempo para un ordenador pueden ser realizadas de forma
instantnea por un ser vivo, no necesariamente un ser humano.
El murcilago debe determinar la velocidad relativa, tamao y la posicin del obstculo a travs de su sonar. Todo el
proceso de extraccin de informacin ocurre en un cerebro del tamao de un garbanzo en un tiempo que es la envidia de los ingenieros
que trabajan en sonar y radar.
De estas observaciones nos surge la cuestin que va ha suponer el nacimiento de las Redes Neuronales Artificiales o ANS
(Artificial Neural Systems).Qu parmetros hacen posible la supremaca del cerebro en unas determinadas tareas frente a las
computadoras?.
Curiosamente, las neuronas son mucho ms simples, lentas y menos fiables que una CPU, y a pesar de ello, existen problemas
difcilmente abordables mediante un computador convencional que el cerebro resuelve eficazmente (reconocimiento del habla, visin de
objetos inmersos en ambiente natural (Ver figura 1), respuestas ante estmulos de entorno, etc.).
Por lo tanto, la idea que subyace en los ANS es que para abordar el tipo de problemas que el cerebro resuelve con eficiencia,
puede resultar conveniente construir sistemas que simulen la estructura de las redes neuronales biolgicas con el fin de alcanzar una
funcionalidad similar.
Como hemos comentado, una neurona es un procesador elemental tal que a partir de un vector de entrada procedente del
exterior o de otras neuronas, proporciona una nica respuesta o salida (Fig. 4).
1
Entradas: x (t). Las variables de entrada y salida pueden ser binarias (digitales) o continuas (analgicas) dependiendo del
modelo de aplicacin.
Pesos sinpticos: w . Representan la intensidad de interaccin entre cada neurona presinptica j y la neurona postsinptica i.Regla
de propagacin: (w , x (t)). Proporciona el valor del potencial postsinptico, h (t), de la neurona i en funcin de sus pesos y
entradas.
Es decirh (t) = (w , x (t)) La funcin ms habitual es de tipo lineal, y se basa en una suma ponderada de las entradas con los pesos
sinpticos
h (t) = =w
El peso sinptico w define en este caso la intensidad de interaccin entre la neurona presinptica j y la postsinptica i. Dada
una entrada positiva, si el peso es positivo tender a excitar a la neurona postsinptica, si el peso es negativo tender a inhibirla. As, se
habla de sinapsis excitadoras (peso positivo) e inhibidoras (peso negativo).
En muchos modelos de ANS se considera que el estado actual de la neurona no depende de su estado anterior, sino
nicamente del actual
La funcin de activacin se suele considerar determinista, y en la mayor parte de los modelos es montona creciente y
continua. La forma de las funciones de activacin ms empleadas en los ANS se muestra en la siguiente tabla, donde
representa el potencial postsinptico e el estado de activacin.
2
Figura 5. Funciones de activacin habituales.
Funcin de salida: . Proporciona la salida actual, , de la neurona i en funcin de su estado de activacin actual,
. Muy frecuentemente la funcin de salida es simplemente la identidad , de modo que el estado de activacin de la
neurona se considera como la propia salida. Es decir
Por ltimo, veamos como podra ser la interconexin entre varias neuronas:
3
Figura 6. Interconexin entre una neurona
Considerando que la regla de propagacin es la suma ponderada y que la funcin de salida es la identidad, la neurona estndar
consiste en:
Un conjunto de entradas .
Todos estos elementos quedan recogidos en la siguiente ilustracin que pone de manifiesto el modelo considerado.
Con frecuencia se aade al conjunto de pesos de la neurona un parmetro adicional, , que denominaremos umbral, que se
resta del potencial postsinptico, por lo que el argumento de la funcin de activacin queda
4
De forma equivalente, si hacemos que los ndices i y j comiencen por 0 y definiendo y (constante)
podemos obtener el comportamiento de la neurona a travs de:
Tan slo nos quedara determinar que funcin de activacin tendra la neurona para determinarla por completo. Dichas
funciones son las mostradas en la tabla de la figura 5.
A continuacin mostraremos algunos de los tipos ms usuales de neuronas.
Consideraremos que las entradas son digitales, por ejemplo , y la funcin de activacin es la escaln
(Heavside), definida entre 0 y 1, se tiene
Es decir, si el potencial de membrana supera un valor umbral (umbral de disparo), entonces la neurona se activa, si no lo
supera, la neurona no se activa. Este es el modelo de neurona del Perceptrn original o dispositivo de tipo umbral.
McCulloch y Pitts demostraron en 1943 que mediante redes basadas en este modelo de neurona se poda realizar cualquier
funcin lgica.
Las entradas pueden ser tanto digitales como analgicas y las salidas exclusivamente analgicas. Tomando como funcin de
activacin una sigmoidea (Fig. 5), la cual se puede definir de las dos formas siguientes en funcin del intervalo considerado.
, con ]
5
, con ]
Se denomina arquitectura a la topologa o estructura en la que las distintas neuronas constituyentes de la red neuronal se
asocian. En un ANS, los nodos se conectan por medio de sinapsis; esta estructura de conexiones sinpticas determina el comportamiento
de la red. Las conexiones sinpticas son direccionales, es decir, la informacin slo puede fluir en un sentido (desde la neurona
presinptica a la neurona postsinptica).
En general, las neuronas se suelen agrupar en unidades estructurales denominadas capas. Dentro de una capa las neuronas
pueden agruparse formando grupos neuronales. Dentro de una misma capa o agrupacin, las neuronas suelen ser del mismo tipo. El
conjunto de una o ms capas constituye una red neurona.l.
Capa de entrada: compuesta por neuronas que reciben datos o seales procedentes del entorno.
Capa oculta: aquella que no tiene una conexin directa con el entorno.
Las conexiones entre las enuronas pueden ser excitatorias o inhibidoras, segn el signo del peso sinptico asociado a la
conexin. Si dicho peso sinptico es negativo, entonces tendremos una conexin inhibitoria, si por el contrario ste es positivo estaremos
frente a una conexin excitatoria. Esta distincin no suele usarse demasiado, ya que el peso y su magnitud vendrn determinados en cada
instante por el algoritmo de entrenamiento.
Las conexiones pueden clasificarse tambin en conexiones intracapa y conexiones intercapa. Las primeras se corresponden
con las conexiones entre las neuronas de una misma capa y, la segunda se corresponde a las conexiones entre neuronas de distintas capas.
Para obtener una definicin de red neuronal tenemos que hacer uso del concepto matemtico de grafo. A travs de este
trmino, podemos definir una red neuronal de la siguiente forma:
6
1) A cada nodo i se le asocia un variable de estado .
4) Para cada nodo i se define una funcin , que depende de los pesos de sus conexiones,
del umbral y de los estados de los nodos j a l conectados. Esta funcin proporciona el nuevo estado del
nodo.
Una vez vistos los elementos bsicos de toda red neuronal, se pasar a enumerar las diferentes estructuras en las que dichos
elementos se pueden asociar.
Se corresponde con la red neuronal ms sencilla ya que se tiene una capa de neuronas que proyectan las
entradas a una capa de neuronas de salida donde se realizan los diferentes clculos. (Ver figura 9).
Es una generalizacin de la anterior, existiendo un conjunto de capas intermedias entre la capa de entrada y la de salida (capas
ocultas). Este tipo de red puede estar total o parcialmente conectada. (Ver figura 10).
7
Este tipo de red se diferencia de las anteriores en la existencia de lazos de realimentacin en la red. Estos lazos pueden ser
entre neuronas de diferentes capas, neuronas de la misma capa o, entre una misma neurona. Esta estructura la hace especialmente
adecuada para estudiar la dinmica de los sistemas no lineales. (Ver figura 11).
Puede definirse el aprendizaje como el proceso por el que se produce el ajuste de los parmetros libres de la red a partir de un
proceso de estimulacin por el entorno que rodea a la red. En la mayora de los casos el aprendizaje consiste simplemente en determinar
un conjunto de pesos sinpticos que permita a la red realizar correctamente el tipo de procesamiento deseado.
Al construir un sistema neuronal, se parte de un cierto modelo de neurona y de una determinada arquitectura de red,
establecindose los pesos sinpticos iniciales como nulos o aleatorios. Para que la red resulte operativa es necesario entrenarla. El
entrenamiento o aprendizaje se puede llevar a cabo a dos niveles:
1) A travs del modelado de las sinpsis; que consiste en modificar los pesos sinpticos siguiendo una cierta regla
de aprendizaje, construida normalmente a partir de la optimizacin de una funcin de error o coste, que mide la eficacia actual
de la operacin de la red.
que da la modificacin que se debe incorporar en dicho peso, el cual quedar actualizado de la forma:
El proceso de aprendizaje es usualmente iterativo, actualizndose los pesos de la manera anterior, una y otra vez,
hasta que la red neuronal alcanza el rendimiento deseado.
2) A travs de la creacin o destruccin de neuronas; en el cual se lleva a cabo una modificacin de la propia
arquitectura de la red.
8
Los tipos de aprendizaje que pueden distinguirse son:
Supervisado.
No supervisado o Autoorganizado.
Hbrido.
Reforzado.
Los algoritmos de aprendizaje se basan usualmente en mtodos numricos iterativos que tratan de reducir una funcin de
coste, lo que puede dar lugar a veces a problemas en la convergencia del algoritmo. En un sentido riguroso, la convergencia es una
manera de comprobar si una determinada arquitectura, junto a su regla de aprendizaje, es capaz de resolver un determinado problema.
En el proceso de aprendizaje es importante distinguir entre el nivel de error alcanzado al final de la fase de aprendizaje para el
conjunto de datos de entrenamiento, y el error que la red ya entrenada comete ante patrones no utilizados en el aprendizaje, lo cual mide
la capacidad de generalizacin de la red. Interesa ms una buena generalizacin que un error muy pequeo en el entrenamiento, pues ello
indicar que la red ha capturado el mapping subyacente en los datos.
En el aprendizaje supervisado se presenta a la red un conjunto de patrones, junto con la salida deseado u objetivo, e
iterativamente sta ajusta sus pesos hasta que la salida tiende a ser la deseada, utilizando para ello informacin detallada del error que se
comete en cada paso. De este modo, la red es capaz de estimar relaciones entrada/salida sin necesidad de proponer una cierta forma
funcional de partida. Es decir, si E[W] es una funcin que representa el error esperado de la operacin de la red, expresado en funcin de
sus pesos sinpticos W, se pretende estimar una cierta funcin multivariables a partir de muestras (
tomadas aleatoriamente por medio de la minimizacin iterativa de E[W] mediante aproximacin estocstica
(las tcnicas de aproximacin estocstica estiman valores esperados a partir de cantidades aleatorias observadas).
El aprendizaje no supervisado se puede describir genricamente como la estimacin de la funcin densidad de probabilidad
En este tipo de aprendizaje se presentan a la red multitud de patrones sin adjuntar la respuesta que deseamos. La red, por
medio de la regla de aprendizaje, estima , a partir de lo cual podemos reconocer regularidades en el conjunto de entradas, extraer
rasgos o agrupar patrones segn su similitud (clustering).
9
7.1.3. Aprendizaje HBRIDO.
En este caso existen en la red los dos tipos de aprendizaje bsicos, supervisado y autoorganizado, normalmente en distintas
capas de neuronas.
Se sita a medio camino entre al aprendizaje supervisado y el autoorganizado. Como en el primero, se emplea informacin
sobre el error cometido, pero en este caso existe una nica seal de error, que representa un ndice global del rendimiento de la red
(solamente le indicamos lo bien o lo mal que est actuando). Como en el caso del no supervisado, no se suministra explcitamente la
salida deseada.
Una vez que el sistema ha sido entrenado, el aprendizaje se desconecta, por lo que los pesos y la estructura quedan fijos,
estando la red neuronal ya dispuesta para procesar datos.
En las redes unidireccionales, ante un patrn de entrada, las neuronas responden proporcionando directamente la salida del
sistema. Al no existir bucles de realimentacin, no existe ningn problema en relacin con su estabilidad. Por el contrario, las redes con
realimentacin son sistemas dinmicos no lineales, que requieren ciertas condiciones para que su respuesta acabe convergiendo a un
estado estable o punto fijo. Existe una serie de teoremas generales que establecen las condiciones que aseguran la estabilidad de la
respuesta en una amplia gama de redes neuronales en ciertas condiciones.
Para demostrar la estabilidad del sistema, dichos teoremas se basan en el mtodo de Lyapunov. Dicho mtodo constituye una
manera asequible de estudiar la estabilidad de un sistema dinmico. Consiste en tratar de encontrar una funcin energa del sistema, que
disminuya siempre en su operacin, entonces el sistema es estable.
Dependiendo del modelo de neurona concreto que se utilice, de la arquitectura o topologa de conexin, y del algoritmo de
aprendizaje, surgirn distintos modelos de redes neuronales.
10
Figura 12. Clasificacin de los ANS por el tipo
de aprendizaje y la arquitectura.
Este modelo neuronal fue introducido por Rosenblatt a finales de los aos cincuenta. La estructura del perceptrn se inspira
en las primeras etapas de procesamiento de los sistemas sensoriales de los animales (por ejemplo, el de visin), en los cuales la
informacin va atravesando sucesivas capas de neuronas, que realizan un procesamiento progresivamente de ms alto nivel.
El perceptrn simple es un modelo neuronal unidireccional, compuesto por dos capas de neuronas, una de entrada y otra de
salida (Figura 19). La operacin de una red de este tipo, con n neuronas de entrada y m neuronas de salida, se puede expresar de la
siguiente forma:
11
Las neuronas de entrada no realizan ningn cmputo, nicamente envan la informacin (en principio consideraremos
seales discretas {0, 1}) a las neuronas de salida. La funcin de activacin de las neuronas de la capa de salida es de tipo escaln (Ver
Figura 5). As, la operacin de un perceptrn simple puede escribirse
Por tanto, concluimos aadiendo que el perceptrn simple est formado por dispositivos de umbral y, por tanto, son tiles
para la representacin de funciones booleanas.
Ejemplo: Sea el perceptrn que se muestra en la figura 14, tal que su salida es
Figura 15. A) Patrones que pertenecen a dos clases. B) Lmite de decisin determinado por entrenamiento.
12
Dando valores lgicos a y podemos construir la siguiente tabla de verdad:
0 0 1
0 1 1
1 0 1
1 1 0
NOTA: Puede demostrarse que un nodo de tipo umbral solamente puede implementar funciones linealmente separables, como
la NAND. La XOR (OR-Exclusiva) no es linealmente separable, por lo que no puede ser implementada por un nodo sencillo como el
anterior.
Ejemplo: Sea la red de dos capas con dos nodos en la capa de entrada, tal que las entradas son binarias. Desearamos que la
red fuera capaz de responder a las entradas de tal modo que la salida fuera la funcin XOR de las entradas. (Figura 16)
13
Para ilustrar el funcionamiento de la funcin lgica XOR (OR-Exclusiva), veamos la siguiente tabla que pone de manifiesto su
funcionalidad.
0 0 0
0 1 1
1 0 1
1 1 0
Nuevamente podemos ver como las entradas constituyen un plano en el que se pueden colocar los posibles valores de las
entradas (Figura 17). De esta forma podemos observar que no hay forma de encontrar valores para , y tal que la
representacin de la salida de la red consiga separar el plano en dos regiones como mximo. Esto es para poder clasificar los puntos de
una regin como pertenecientes a la clase que posee una salida de 1, y los de otra regin como pertenecientes a la clase que posee una
salida nula. Esto se debe a que la sencilla unidad de umbral lineal no es capaz de llevar a cabo correctamente la funcin XOR.
Para tratar de resolver esta dificultad tenemos que acudir al concepto de hiperplanos.
En el espacio tridimensional, un plano es un objeto de dos dimensiones. Un nico plano puede descomponer el espacio
tridimensional en dos regiones distintas; dos planos en tres o cuatro regiones distintas, dependiendo de sus orientaciones relativas, y as
sucesivamente. Por extensin, en un espacio n-dimensional, los hiperplanos son objetos de (n-1) dimensiones.
Hay muchos problemas reales que implican la separacin de regiones de puntos de un hiperplano en categoras individuales o
clases, que deben distinguirse de otras clases. Una forma de hacer estas distinciones consiste en seleccionar hiperplanos que
descompongan el espacio en regiones adecuadas. Esta tarea es bastante difcil de llevar a cabo en espacio de muchas dimensiones. Sin
embargo, ciertas redes neuronales pueden aprender la descomposicin adecuada, as que no es preciso determinarla por anticipado.
14
En un espacio general n-dimensional, la ecuacin de un hiperplano se puede escribir de la forma
En donde los son constantes, con al menos un , y los son las coordenadas del espacio.
Continuando con el ejemplo de la XOR veamos como podemos encontrar una solucin aproximada. Si observamos la figura
17 vemos que podramos obtener una solucin si descomponemos el espacio en tres regiones tal y como se pone de manifiesto en la
figura 18. Una regin pertenecera a una de las clases de salida, y las otras dos perteneceran a la segunda clase de salida.
15
La adicin de dos unidades de capa oculta, o capa intermedia, dan a la red la flexibilidad necesaria para resolver el problema.
De hecho, la existencia de esta capa oculta nos da la capacidad de construir redes que puedan resolver problemas complejos.
16
17