Documentos de Académico
Documentos de Profesional
Documentos de Cultura
neuronales
Inteligencia
Artificial
Redes neuronales
Las redes neuronales artificiales o el
modelo conexionista
Introducción
A lo largo de este módulo veremos los métodos estadísticos de aprendizaje
y razonamiento, veremos que estos métodos van desde simples cálculos
hasta modelos más complejos, como lo son las redes neuronales multicapa.
Fundamentos biológicos
Cada neurona en nuestro cerebro está compuesta por un cuerpo, axones y
dendritas. Las dendritas forman un "cepillo filamentoso" muy fino que rodea
el cuerpo de la neurona.
Partes de una célula nerviosa o neurona (Fuente: Russell y Norvig, 2004, p. 13)
Si tomamos a cada neurona por separado veremos que son
extremadamente lentas comparándolas con sus homologas artificiales, ya
que trabajan en el rango de los milisegundos, lo cual representa una
eternidad para una computadora digital. Sin embargo, los humanos
podemos llevar a cabo tareas extremadamente complejas, como la
interpretación de una escena visual o la comprensión de una frase
incompleta en la décima parte de un segundo. En, otras palabras, que lo que
nosotros somos capaces de realizar en 100 pasos, a una computadora puede
llevarle 10 millones de pasos.
Pero, ¿cómo puede ser esto posible si cada una de nuestras neuronas es tan
lenta? La diferencia está en que nuestro cerebro contiene un número
gigantesco de elementos procesadores que actúan en paralelo.
Redes neuronales
Podemos decir que una red neuronal artificial es, básicamente, la
reproducción mediante computadores del funcionamiento del cerebro
humano. “Su principal aplicación es en torno a las tareas en que los seres
humanos fácilmente superan a los computadores tradicionales, como en
procesamiento de señales, procesamiento de imágenes, procesamiento de
voz, robótica y otros”. (Gamarra Moreno, http://goo.gl/y4pqoq, p. 165)
Nuestro cerebro está formado por miles de millones de neuronas
interconectadas entre sí en forma variable y compleja.
A su vez, cada uno de los elementos simples que componen una red
neuronal está formado por:
Modelo matemático sencillo para la neurona. (Fuente: Russell y Norvig, 2004, p. 839)
Función umbral:
Las unidades neuronales con los pesos adecuados pueden representar las funciones
booleanas AND, OR y NOT. (Fuente: Russell y Norvig, 2004, p. 840)
¿Te atreverías a verificar, utilizando una función
sigmoide, si se cumple la representación de las
funciones booleanas “AND, OR y NOT” utilizando
estas unidades básicas neuronales?
Estructuras
Brevemente, diremos que existen dos estructuras principales de redes
neuronales:
Las entradas (x1, x2, x3,…, xn) y los pesos de las conexiones (w1, w2, w3,…, wn)
son valores normalmente reales que pueden ser negativos o positivos. Si la
presencia de alguna entrada xi tiende a causar la activación del perceptrón,
el peso wi será positivo, y si la entrada xi inhibe al perceptrón, entonces el
peso wi será negativo.
Lo más interesante es que cualquiera que sea el cálculo que se tenga que
realizar con un perceptrón, este puede aprender a calcularlo.
Llegado a este punto, se debe aclarar que por lo general los perceptrones
solo pueden representar funciones linealmente separables. Esto se debe a
la forma de calcular que tiene intrínsecamente un perceptrón y porque,
además, este se comporta como un “separador lineal”. Si vemos
detalladamente el modo de cálculo de un perceptrón, entenderemos más
este concepto. Si tenemos un vector de entrada x (x1, x2, x3,…, xn), podemos
advertir (como vimos anteriormente con las unidades neuronales básicas)
que la función de la suma ponderada g(x) y la función de salidas o(x) se
definen como:
g(x) = wi . xi (para i=0 hasta n)
x2 = -((w1/w2).x1) – (w0/w2)
Como puede verse, la ecuación de esta recta está determinada por los pesos
w0, w1 y w2. Por lo tanto, si un vector de entrada se sitúa hacia uno de los
dos lados de la recta, el perceptrón da como salida 1, y si se sitúa al otro lado
el perceptrón, da como salida 0; es decir que tendremos una recta que
separa dos casos de entrenamiento correctamente. Dicha recta suele
denominarse superficie de decisión. Para perceptrones con muchas
entradas, la superficie de decisión es un hiperplano en el espacio
multidimensional de los posibles vectores de entrada.
Separación lineal del perceptrón para el caso de las funciones booleanas AND y OR
(gráficos a y b respectivamente) y el problema de intentar representar una función no
lineal, como lo es la función XOR (gráfico c). (Fuente: Russell y Norvig, 2004, p. 843)
Dos cuestiones muy importantes a tener en cuenta son que:
2. Inicializar los pesos (w1, w2, w3,…, wn) con valores reales aleatorios.
5. Modificar los pesos (w1, w2, w3,…, wn), añadiendo los elementos del
vector S a éstos. Volver al paso 3.
Podríamos decir que una red multicapa es capaz de calcular cualquier cosa.
Dado un conjunto de entradas, se pueden utilizar unidades de suma y
umbral simples como compuertas “AND, OR y NOT”, seleccionando
apropiadamente el umbral y los pesos de conexión. Con esto se pretende
decir que es posible construir un circuito combinacional cualquiera
constituido por dichas unidades lógicas básicas.
Aplicaciones
Las redes neuronales artificiales son un tema apasionante y tienen un
ámbito muy grande de aplicación, desde los juegos de computadora hasta la
medicina. A continuación, se detallaran brevemente algunos de estos casos.
Se eligieron las redes neuronales para llevar este trabajo debido a que estas
son muy buenas para representar funciones o reconocer patrones. Además,
la ventaja de la segunda configuración es que el tiempo de entrenamiento
se reduce considerablemente en relación con otros algoritmos y, a su vez, se
garantiza una buena velocidad de convergencia.
Proceso seguido para el desarrollo de la red neuronal para este caso. (Fuente: Ponce Cruz, 2010, p. 26).
Imagen del corazón que remarca los marcadores anatómicos (Fuente: Ponce Cruz,
2010, p. 27)
Gamarra Moreno, Abraham (s. f.). Aprendizaje con redes neuronales artificiales.
Recuperado de http://goo.gl/y4pqoq