Documentos de Académico
Documentos de Profesional
Documentos de Cultura
RANAS
RANAS
Facilitador:
Dr. SORIA QUIJAITE JUAN JESÚS
EMAIL: jesussoria@upeu.edu.pe
Tema:
INTRODUCCIÓN A LA INTELIGENCIA ARTIFICIAL
NOCIONES DE REDES NEURONALES
La neurona es la unidad funcional y estructural del sistema nervioso que
produce y transmite el impulso nervioso. Se encuentra formada por tres
partes: el cuerpo neuronal o soma; una prolongación larga y poco
ramificada llamada axón, y otras prolongaciones muy ramificadas alrededor
del soma llamadas dendritas.
1
MODELO NEURONAL DE McCULLOCH-PITTS
El primer modelo Matemático de una neurona artificial
creado con el fin de llevar a cabo tareas simples, fue
presentado en el año 1943 en un trabajo conjunto entre
el psiquiatra y neuroanatomista Warren McCulloch y el
matemático Walter Pitts.
2
MODELO NEURONAL DE McCULLOCH-PITTS
La siguiente figura muestra un ejemplo de modelo neuronal con n entradas que consta:
Un conjunto de entradas x1, x2, … , xn.
Los pesos sinápticos w1, w2, … ,wn, correspondientes a cada entrada.
Una función de agregación, ∑.
Una función de activación, f.
Una salida Y.
Las entradas son el estímulo que la neurona artificial recibe del entorno que la rodea, y
la salida es la respuesta a tal estímulo. La neurona puede adaptarse al medio
circundante y aprender de él modificando el valor de sus pesos sinápticos, y por ello
son conocidos como los parámetros libres del modelo, ya que pueden ser modificados
y adaptados para realizar una tarea determinada. En este modelo, la salida neuronal Y
esta dada por Y f i x i
n
i 1
3
FUNCIONES DE ACTIVACIÓN
La función de activación se elige de acuerdo a la tarea realizada por
la neurona. Entre las más comunes dentro del campo de las RANAs
podemos destacar:
4
FUNCIONES DE ACTIVACIÓN
5
FUNCIONES DE ACTIVACIÓN
a f . x b
9
RED BACK PROPAGATION
La red Neuronal Back
Propagation es un tipo de red de
aprendizaje supervisado, que
emplea un ciclo propagación –
adaptación de dos fases. Una vez
que se ha aplicado un patrón a la
entrada de la red como estímulo,
este se propaga desde la primera
capa a través de las capas
superiores de la red, hasta generar
una salida. La señal de salida se
compara con la salida deseada y
se calcula una señal de error para
cada una de las salidas.
14
RED BACK PROPAGATION
i 1
i 1
Se realizaron los mismos cálculos para obtener las respectivas
salidas de las neuronas de la capa de salida
0 0
m
w x pj b
m
f N pk w kj x pj bk
0 0 0
N pk kj k y pk k
0 0
i 1 i 1
18
ETAPAS BACKPROPAGATION
Se determinaron los cálculos de error (salida deseada-salida
obtenida) e d y
pk pk
19
ETAPAS BACPROPAGATION
Para los pesos de las neuronas de la capa oculta
w hji ( t 1) w hji ( t ) w hji ( t 1) w hji ( t 1) min pjh x pi
Se cumple la condición de paro. El proceso se repite hasta que el
término de error resulta aceptablemente pequeño para cada uno de
los patrones aprendidos. (Garcia Martinez, Servente, & Pasquín,
2003) E 1 . M 2
p
2
i 1
pk
20
MODELO DE RED NEURONAL DEL ESTUDIO
21