Documentos de Académico
Documentos de Profesional
Documentos de Cultura
- Redes monocapa
- Redes multicapa
- Redes Feedforward
- Redes recurrentes
Redes monocapa
1
(“(19) (PDF) Relaciones Neuronales Para Determinar la Atenuación del Valor de la
Aceleración Máxima en Superficie de Sitios en Roca Para Zonas de Subducción,”
n.d.)
Redes multicapa
2
Redes Feedforward
Redes recurrentes
3
4
Redes Neuronales
El proceso de pensar de un ser humano está regido por las neuronas, las cuales
cohabitan en el cerebro, su función principal es adquirir y emitir señales del tipo
eléctrico. Las neuronas tienen características que les permiten comunicarse entre
ellas, lo que las distingue del resto de las células biológicas. Una neurona
biológica (Fig. III.3) está integrada fundamentalmente por: un cuerpo celular
llamado soma (mismo que contiene un núcleo celular), un importante número de
fibras o dendritas y una fibra larga conocida como axón. Las dendritas son los
elementos responsables de recibir la información proveniente de neuronas
vecinas, y de conducirla hacia el soma, en donde es procesada y en su caso
transmitida a otras neuronas por medio del axón. Se estima que una neurona
biológica se conecta con entre 10 y 100 000 neuronas mediante procesos de
5
sinapsis que facilitan o inhiben la propagación de las señales por medio de
reacciones electroquímicas; lo que trae como consecuencia la formación de RN.
En general las conexiones sinápticas no son permanentes y al igual que los
estímulos de entrada, necesarios para activar una neurona, pueden cambiar
durante su periodo de vida; permitiendo de esta forma la realización del proceso
de aprendizaje (Tettamanzi y Tomassini, 2001).
6
- Capa oculta: no tiene conexión directa con el entorno, esta puede ser
precedida por otras capas ocultas, o bien, por la capa de entrada.
- Capa de salida: neuronas que proporcionan la solución de la RN.
El primer modelo neuronal fue propuesto por McCulloch y Pitts (1943) en términos
de un sistema computacional de “actividad nerviosa”, que sirvió de ejemplo para
los modelos posteriores de Jhon Von Neumann, Marvin Minsky (Minsky y Papert,
1969), Frank Rosenblatt (Rosenblatt, 1959), entre otros. En los años 80,
Rumelhart y McClellant construyeron la primer RN bajo el concepto de
Procesamiento Distribuido en Paralelo PDP, cuya naturaleza era no-lineal
(Rumelhart y McClelland, 1986). A partir de entonces, las RN han sido utilizadas
con mayor interés en tareas de predicción y clasificación en un gran número de
campos de la ciencia.
1. Neurona artificial
7
El proceso de aprendizaje de una neurona artificial, Fig. III.5, consiste en:
8
4. Una regla de propagación, que permite obtener a partir de las entradas y
los pesos el valor del potencial post-sináptico ni de la neurona:
ni (t )=σ [wij , x j ( t ) ]
5. Una función de transferencia, conocida también como función de
activación, se encarga de atribuir las características no lineales al
procesamiento en los nodos. Esta participa sobre el valor determinado
por la función de entrada limitando su crecimiento numérico.
Y i ( t ) =f i [ ni ( t ) ]
6. Existen diferentes tipos de funciones de transferencia, las más usadas
son: lineal, umbral, umbral-lineal, sigmoide, hiperbólica-tangente,
gaussiana y senoidal entre otras.
7. Una función de salida y i (t) de la neurona 𝑖 en función de su estado de
activación actual a i( t). Muy frecuentemente la función de salida es
simplemente la identidad F ( x )=x, de modo que el estado de activación
de la neurona se considera como la propia salida, es decir:
y i ( t )=F i [ ai ( t ) ] =ai (t)
2. Arquitectura Neuronal
En el campo de las RN se conoce con el nombre de arquitectura a la forma
en la que se unen los diferentes elementos (neuronas) mediante una serie
de conexiones (pesos sinápticos). En principio se pueden distinguir tres
niveles que se definen como:
o Microestructura: este nivel hace referencia al elemento más pequeño
que se puede encontrar en un modelo conexionista: la neurona. Este
es el nivel más pequeño, pero no por ello es el menos importante;
aquí se fijan características tan importantes como la función de
entrada.
9
o Mesoestructura: una vez sobrepasado el nivel neuronal llegamos a
este nivel donde se fija la forma de conexión y la disposición de los
elementos que actúan en la neurona.
o Macroestructura: las diferentes redes planteadas en el nivel anterior
se pueden combinar entre sí para dar estructuras mayores
alcanzándose mejores resultados.
La arquitectura de una red se define por medio de: i) número de capas, ii) el
tipo de conexiones y iii) el grado de conexión. Cabe mencionar que aún no
existe una metodología precisa para determinar la mejor arquitectura, la
elección hasta el momento se basa en la experiencia del diseñador de la
RN.
i) Numero de capas
o Redes Neuronales monocapa: son conocidas como la RN más
sencilla ya que se tiene una capa de neuronas que proyectan las
entradas a una capa de neuronas de salida donde se realizan los
cálculos. Este tipo de redes es útil en tareas relacionadas con la
auto-asociación, es decir, regenera la información incompleta o
distorsionada de patrones que se presentan a la red, Fig. III.6a.
o Redes Neuronales multicapa: es una generalización de la anterior
existiendo un conjunto de capas intermedias entre la entrada y la
salida (capas ocultas). Este tipo de red puede estar total o
parcialmente conectada. Estas redes se pueden clasificar de
acuerdo con la manera en que se conectan sus capas, Fig. III.6b.
ii) Tipos de conexiones
o Redes Neuronales no recurrentes: en esta red la propagación de las
señales se produce en un sentido solamente, no existiendo la
posibilidad de realimentación, por lo que estas estructuras no tienen
memoria.
10
o Redes Neuronales recurrentes: esta red está caracterizada por la
existencia de lazos de realimentación. Estos lazos pueden ser entre
neuronas de diferentes capas, neuronas de la misma capa o,
sencillamente, entre una misma neurona. Esta estructura recurrente
la hace especialmente adecuada para estudiar la dinámica de
sistemas no lineales, Fig. III.6c.
iii) Grado de conexión.
o Redes Neuronales totalmente conectadas: en este caso todas las
neuronas de una capa se encuentran conectadas con las de la capa
siguiente (redes no recurrentes) o con las de la anterior (redes
recurrentes).
o Redes parcialmente conectadas: en este caso no se da la conexión
total entre neuronas de diferentes capas.
11
estas deben ser linealmente separables (Minsky y Papert, 1969). Para
lograr esta separación es necesario introducir una capa de neuronas entre
la salida y la entrada. Aparece entonces el problema de asignar un “error”
durante el proceso de aprendizaje a estas neuronas.
3. Métodos de aprendizaje
El aprendizaje de una RN consiste en determinar un conjunto de pesos
sinápticos que permita a la red realizar una tarea asignada. Para que la red
resulte operativa es necesario entrenarla. Antes de iniciar el entrenamiento
se debe definir la condición de ajuste a una tarea específica, es decir
cuando la red ha aprendido. Entre los criterios más comunes se
encuentran:
12
o Se ha alcanzado una cota de error que se considere suficientemente
pequeña.
o Se ha llegado a un número máximo de iteraciones.
o Se ha llegado a un punto de saturación en el que, por más que se
entrene, ya no es posible reducir el error.
Los métodos de aprendizaje se pueden dividir en las siguientes categorías:
1. No supervisado: En los algoritmos no supervisados no se conoce la
salida que debe presentar la RN. La red en este caso se organiza ella
misma agrupando, según sus características, los diferentes patrones de
entrada. Estos sistemas proporcionan un método de clasificación de las
diferentes entradas mediante técnicas de agrupamiento o clustering.
2. Supervisado: Presenta a la red las salidas que debe proporcionar ante
los patrones de entrada. Se observa la salida de la red y se determina la
diferencia entre ésta y la señal deseada; para realizar esto es necesario
presentar un conjunto de datos o patrones de entrenamiento para
determinar los pesos (parámetros de diseño) de las interconexiones de
las neuronas. Posteriormente, los pesos de la red son modificados de
acuerdo con el error cometido. Este aprendizaje admite dos variantes:
aprendizaje por refuerzo o aprendizaje por corrección
a. Supervisado por refuerzo: En el aprendizaje por refuerzo solo
conocemos sí la salida de la red corresponde o no con la señal
deseada, es decir, la información es de tipo booleana (verdadero
o falso).
b. Supervisado por corrección: En el aprendizaje por corrección
conocemos la magnitud del error y ésta determina la magnitud en
el cambio de los pesos.
Por lo general se pueden establecer que para un satisfactorio proceso de
entrenamiento y una adecuada capacidad de generalización es
fundamental:
13
i) El conocimiento sobre el fenómeno o problema que se pretenda
modelar para realizar una correcta selección de las variables que lo
representen.
ii) Integrar una base de datos que incluya un importante número de
casos, así como una gran diversidad de estos.
iii) Hacer una correcta selección de las funciones que determinaran la
salida, así como un buen diseño del modelo neuronal.
iv) Probar la integridad de este y su capacidad para generalizar
conocimiento aprendido utilizando patrones que no fueron
considerados durante el entrenamiento.
14
una representación interna de la función. El conjunto de prueba se utiliza
para evaluar la capacidad de generalización de la red.
15
Fuente: LINO F, MANJARREZ M. Relaciones Neuronales para determinar
la atenuación del valor de la aceleración máxima en superficie de sitios en
roca para zonas de subducción. Mexico D.F. Tesis par optar por el grado de
maestro en ingeniería. Universidad nacional autónoma de México,
Programa de maestría y doctorado en ingeniería, Ingeniería civil –
geotecnia. 88 p.
16
función de las entradas y los pesos asociados aplicados a esa neurona. La función
también se conoce como la señal de entrada.
17
pesos sinápticos de cada neurona de salida de acuerdo con el algoritmo de
corrección de errores.
¿Pero cómo asignamos crédito o culpa por la acción de las neuronas ocultas
cuando el
18