Está en la página 1de 38

REDES NEURONALES ARTIFICIALES

Una red neuronal artificial es una herramienta diseñada para imitar la forma
en que el cerebro humano funciona. Se parece al cerebro en dos aspectos,
por una parte la red adquiere conocimientos a través de un proceso de
aprendizaje, y por otra las conexiones interneuronales, conocidas como
cargas sinápticas presentan una gran solidez que se encargan de almacenar
los conocimientos.

¿ Cómo funciona el cerebro humano ?

¿ Cómo aprende el ser humano ?

¿ Dónde se guarda el conocimiento ?

¿Por qué es tan eficiente el cerebro humano ?


El cerebro humano está compuesto por una gran cantidad de elementos
básicos denominados neuronas

Básicamente las neuronas están formadas por:

 Un Cuerpo central o Núcleo


 Dendritas
 Sinapsis (Un mecanismo de conexión con otras neuronas)
 Axón
• Los estímulos recibidos en el cerebro son transmitidos entre las
neuronas mediante las conexiones sinápticas.
• Cuando una neurona es estimulada libera una pequeña cantidad de un
componente químico (neurotransmisor). Este viaja a través del axón
hasta llegar a las dendritas de otras neuronas en las cuales el proceso se
repite.
• Este proceso sirve para incrementar o disminuir la relación entre las
neuronas involucradas en el.
• Así, ante un determinado estímulo ciertas neuronas se activan y otras se
inhiben
Del mismo modo que el cerebro está constituido por neuronas, la unidad
básica constituyente de la red neuronal es el nodo, (neurona) Un nodo es
un elemento de cálculo interconectado con otros muchos elementos,
imitando las sinapsis nerviosas. La idea era que, tal vez, conectando un
número suficientemente alto de neuronas o nodos la inteligencia
naciese de modo natural del aprendizaje.

A un nodo pueden llegar muchas entradas, xi, proporcionando gran


cantidad de información. El nodo condensará esta información de algún
modo.
Mediante un proceso de aprendizaje se logran establecer los niveles
correctos de activación-inhibición de las neuronas.

Cuando este proceso se completa entonces ante determinados estímulos


sabemos como responder y “aprendemos”.

El “conocimiento” adquirido está entonces en los niveles de relación entre


las neuronas logrados durante el proceso de aprendizaje.

El cerebro es “entrenado” por repetición de estímulos !

¿ Cómo puede ser el cerebro tan eficiente ?

Por la enorme cantidad de neuronas (aprox. 100billones) y la manera en que


están interconectadas (aprox. 60 trillones de sinapsis).

Por la capacidad de organizarse, construir reglas y aprender de la experiencia

¿ Qué es y cómo construir una red neuronal artificial?


Beneficios de usar RNA

•Generalización: Capacidad para producir respuestas razonables a


estímulos no presentados durante su entrenamiento.

•Adaptabilidad: La red puede ser construida para adaptar sus pesos


sinápticos al medio ambiente (re-entrenar).

•Robusta: Por su carácter distributivo, una red maneja muy bien daños a
su estructura (ruido).

•Complejidad: Puede capturar comportamiento complejo que no es


posible con métodos tradicionales.

•No-paramétrico: No hace suposiciones a priori.


I.- CLASIFICACIÓN DE LAS REDES NEURONALES

Se clasifica por; su conexión que presenta, la arquitectura o topología, y el


método de aprendizaje empleado para su entrenamiento.

1.- Según sus Conexiones: Se clasifican en

1.1 Redes con conexiones “hacia adelante” (feedforward)


La información se propaga hacia adelante por las distintas capas a través
de los pesos. Son la mayoría de los casos que se estudiara

1.2 Redes con conexiones “hacia adelante” y “hacia atrás” (feedforward /


feedback)
La información circula tanto hacia adelante como hacia atrás, pues existen
conexiones y pesos, en ambos sentidos, que pueden ser diferentes.
Generalmente son redes bicapa. Basan su comportamiento en la
resonancia, esto es, en la interacción de las informaciones de la primera y
la segunda capa, hasta alcanzar un estado estable. En ocasiones se dan
conexiones laterales entre neuronas de una misma capa.
2.- Según su Topología
Las dos arquitecturas de redes neuronales más usada son los
Perceptrones Multicapa (MLP- Multilayer Perceptron), y las Funciones de
Base Radial (Radial Basis Functions Básicas).

2.1 El Perceptrón (F. Rosenblatt 1958)


El primer modelo con él que se pretendía ilustrar algunas propiedades de
los sistemas inteligentes. se desarrollaron diversas variantes del perceptrón,
como el perceptrón simple, esto es, sin capa oculta, la gran flexibilidad de
acabó desembocando en las redes neuronales. Los perceptrones se
clasifican por el número de capas que presentan. Así aquellos con dos
capas, esto es, sin capa oculta, son perceptrones simples, y los de una o
más capas ocultas se llaman perceptrones multicapa.

Un perceptrón simple calcula la combinación lineal de las entradas (con un


término de sesgo) lo que se llama entrada de red; a esa combinación lineal
se aplica una función de activación, dando lugar a la salida de la red. La
figura 1.4 muestra el diseño de un perceptrón simple.
a.- Esquema del Perceptron Simple

La Función de activación y las ecuaciones del proceso son las siguientes


b.- Esquema de un Perceptron Multicapa, con una capa oculta (NI-NH-NO)

La Función de activación y las ecuaciones del proceso son las siguientes


2.2 Redes Neuronales de Base Radial (RBF)

La filosofía es huir de los modelos pre establecidos, y que las observaciones


pasadas den el comportamiento de las salidas. La influencia radica en el
entrenamiento, pero además se establecen ciertos valores de las variables
de entrada y sus correspondientes variables respuesta de tal forma que
represen a todos los estados del sistema que se desea modelar. Lo que
diferencia a estas redes es el modo en que actúan sobre los datos de
entrada, esto es, cómo condensan la información que les proporcionan las
distintas variables. Las neuronas de la capa oculta calculan las funciones
radiales básicas de las entradas.
Esquema de un Red de Base Radial Múltiple con Salida Unidimensional

La Función de activación y las ecuaciones del proceso son las siguientes


3 Según el Tipo de Aprendizaje

La característica distintiva y original de las redes neuronales es el


aprendizaje, generando sus propias reglas, aprendiendo de los datos, El
aprendizaje consiste en la modificación de los pesos. El proceso de
aprendizaje se llama entrenamiento, los tipos de aprendizaje son.

3.1 Redes On-Line frente a Redes Off-Line

a.- Off line.- Para realizar su aprendizaje se detiene el funcionamiento. Se


tiene dos etapas: una de entrenamiento y otra en que se dedica a
predecir. Cuando proporciona predicciones, no entrena, y mientras
entrena está inhabilitada para dar respuesta a nuevos datos.

b.- On line,- Se característica porque entrena con cada nuevo dato, sin
necesidad de detenerse. Los datos se modifican dinámicamente con
cada nueva información. Pero a cambio su carácter estático durante los
períodos de predicción hace más estable al sistema.
3.2 Redes con Aprendizaje Supervisado versus No Supervisado

La diferencia principal radica en la existencia de un "supervisor” que


controla el aprendizaje, indicando, bien hacia dónde han de modificarse
los pesos, o si la modificación es correcta o no.

a.- Aprendizaje Supervisado


Se caracteriza por la existencia de una agente externo que conoce la
respuesta que debería generar la red a partir de una determinada entrada.
La salida de la red es comparada con la respuesta deseada, y si no
coinciden los pesos de las conexiones serán modificados de modo que la
salida obtenida se aproxime a la deseada. La Regla de Aprendizaje del
Perceptrón, constituye el primer ejemplo de aprendizaje supervisado.
Existen tres grandes clases de aprendizaje supervisado

(i) Aprendizaje por corrección de error.


(ii) Aprendizaje por refuerzo.
(iii) Aprendizaje estocástico.
(i) Aprendizaje por corrección de error. El conjunto de entrenamiento está
constituido por las variables de entrada (situación del sistema) y la salida
(variables objetivo). El ajuste de los pesos se realizará en función de la
diferencia entre los valores deseados y los que se obtuvieron en la salida.

(ii) Aprendizaje por refuerzo. En este caso el supervisor no conoce la


respuesta, pero dispone de algún mecanismo que indica si la respuesta es
buena o no. Si la respuesta es adecuada se reforzarán las conexiones que
actuaron para obtener esa respuesta, y si no es, se inhibirán.

(iii) Aprendizaje estocástico. Los cambios de los pesos son de modo


aleatorio, y si el nuevo estado resulta ser más estable, se aceptarán los
cambios. En caso de que los nuevos pesos aumenten la inestabilidad del
sistema, no serán rechazados de modo inmediato, sino que se
aceptarán los cambios en función de cierta distribución de probabilidades.

Otro tipo de clasificación. Redes Heteroasociativas tiene variables objetivo


diferentes de las variables de entrada, y Redes Autoasociativas tienen
variables objetivo iguales a las variables de entrada.
Diagrama de Flujo del Entrenamiento
b.- Aprendizaje No Supervisado
No existe supervisor. Las redes no reciben ninguna señal del exterior que les
indique si su salida es o no la adecuada, se auto organizan, en función de las
similitudes y diferencias que presenten los datos de entrada (Análisis
Cluster). Hay dos tipos de aprendizaje.

(i) Regla de Hebb.- El peso de conexión entre dos neuronas se incrementa


cuando aparecen la entrada y la salida deseada. Se considera que se ha
activado la conexión, si el producto de los valores de los nodos es positivo,
esto es, ambas neuronas son activas (+) o pasivas (-). Cada vez que se activa
una conexión se incrementará el peso. Si una neurona es activa y otra
pasiva el peso que las une disminuirá su valor (inhibirá).

(ii) Aprendizaje Competitivo.-Los nodos de la capa oculta compiten entre


sí, de modo que sólo uno de ellos se activa, y el resto de salidas
permanecen inactivas. Una de las neuronas de la capa de salida será la
vencedora (winner take all). Se trata de asociar los datos según sus
características de modo que observaciones próximas den como vencedora a
la misma neurona en la capa de salida.
II.- MODELO DE UNA NEURONA
Pesos Sinápticos:
Dendritas: Cada dendrita tendrá un
Recibe el peso wi para guardar el
estímulo o conocimiento adquirido
establece las
conexiones x1
w1
sinápticas
x2
w2
.
.
.
Núcleo:
wi Procesa la
xi
informaci
.
. wp ón
. Axón:
Envía la
xp w0=b respuesta
Parâmetro
x0=1 de sesgo
El estímulo es procesado en el núcleo mediante la operación
Los estímulos es un vectores. Cada entrada del vector corresponde a un estímulo
o variable en particular de la cual se tiene cierta cantidad de observaciones.
𝒑 1 𝑏
𝝋 𝒙𝒊 𝒘𝒊 = 𝝋 𝒃 + 𝒙𝟏 𝒘𝟏 + ⋯ +𝒙𝒑 𝒘𝒑 = 𝝋 𝑿´𝑾 𝑥1 𝑤1
X= . W= .
𝒊=𝟎 . .
𝑥𝑝 𝑤𝑝
Estímulo
x1
w1 que recibe
la neurona Respuesta de la
x2 w2 neurona al
. estímulo recibido
. 𝒑
wi 𝒙𝒊 𝒘𝒊
xi 𝝋 𝑿´𝑾
. 𝒊=𝟎
. wp
xp Parámetros del modelo Neuronal:
w0=b
x0=1 𝝋: Función de transferencia (link, activación)
w: Pesos sinápticos
b : Sesgo
III.- FUNCIÓN DE TRANSFERENCIA (LINK, ACTIVACIÓN)

La función de transferencia se utiliza para limitar el rango de valores de la


respuesta de la neurona. Generalmente los rangos de valores se limitan a
[0,1] o [-1,1], sin embargo otros rangos son posibles de acuerdo a la
aplicación o problema a resolver. Las funciones de transferencia más
conocidas son las siguientes

1.-FUNCIÓN UMBRAL
𝟏 𝑠𝑖 𝑦 ≥ 0
Se define como: 𝝋 𝒚 = 𝒃 + 𝒙𝟏 𝒘𝟏 + ⋯ +𝒙𝒑 𝒘𝒑 = 𝝋 𝒚 =
𝟎 𝑠𝑖 𝑦 < 0

Los valores se pueden asociar a éxito y fracaso esta condición dependerá si.

𝒙𝟏 𝒘𝟏 + ⋯ +𝒙𝒑 𝒘𝒑 ≥ −𝒃 ó 𝒙𝟏 𝒘𝟏 + ⋯ +𝒙𝒑 𝒘𝒑 < −𝒃

Éxito Fracaso
1.1-GRÁFICA DE LA FUNCIÓN UMBRAL:
1 0
Para dos variables donde: X= 𝑥1 W= 1
𝑥2 1

𝝋 𝒃 + 𝒙𝟏 𝒘𝟏 + ⋯ +𝒙𝒑 𝒘𝒑 = 𝝋 𝑿´𝑾 = 𝝋 𝒙 + 𝒚

𝑿´𝑾 ≥ 𝟎
1 𝝋 𝑿´𝑾 =1=

𝝋 𝑿´𝑾 =0=

-1 1

-1
𝑿´𝑾 ≤ 𝟎
1.2- EJEMPLO:
1 −1
0 0.8
Sea; X= 1 W= 1
−1 1
0 0.5
Estimulo Pesos sinápticos

Sesgo b =-1

𝝋 𝒃 + 𝒙𝟏 𝒘𝟏 + ⋯ +𝒙𝒑 𝒘𝒑 = 𝝋 𝑿´𝑾 = 𝝋(-1+0*0.8+1*1-1*1+0*0.5)= 𝝋(-1)

𝝋(-1)=0
2.-FUNCIÓN SIGNO

Se define como:
−𝟏 𝑠𝑖 𝑦 < 0

𝝋 𝒚 = 𝒃 + 𝒙𝟏 𝒘𝟏 + ⋯ +𝒙𝒑 𝒘𝒑 = 𝝋 𝒚 = 𝟎 𝑠𝑖 𝑦 = 0

𝟏 𝑠𝑖 𝑦 > 0

La respuesta de la neurona es entonces -1, 0 ó 1.


𝝋

-1
2.1- GRÁFICA DE LA FUNCIÓN SIGNO:
1 0
Para dos variables donde: X= 𝑥1 W= 1
𝑥2 1

𝝋 𝒃 + 𝒙𝟏 𝒘𝟏 + ⋯ +𝒙𝒑 𝒘𝒑 = 𝝋 𝑿´𝑾 = 𝝋 𝒙 + 𝒚

𝑿´𝑾 > 𝟎
1 𝝋 𝑿´𝑾 =1=

𝝋 𝑿´𝑾 =-1=

𝝋 𝑿´𝑾 =0 =

-1 1

𝑿´𝑾 = 𝟎

-1
𝑿´𝑾 ≤ 𝟎
2.2- EJEMPLO:
1 −1
0 0.8
Sea; X= 1 W= 1
−1 1
0 0.5
Estimulo Pesos sinápticos

Sesgo b =-1

𝝋 𝒃 + 𝒙𝟏 𝒘𝟏 + ⋯ +𝒙𝒑 𝒘𝒑 = 𝝋 𝑿´𝑾 = 𝝋(-1+0*0.8+1*1-1*1+0*0.5)= 𝝋(-1)

𝝋(-1)=-1
3.-FUNCIÓN LOGÍSTICA (más utilizada)

Se define como:
𝟏
𝝋 𝒚 = 𝒃 + 𝒙𝟏 𝒘𝟏 + ⋯ +𝒙𝒑 𝒘𝒑 =𝝋 𝒚 = ; 𝒚 ∈ 𝑹, ∝> 𝟎
𝟏 + 𝒆−∝𝒚

Es la versión continua de la función umbral. Es continua en [0,1] e


infinitamente diferenciable. Se utiliza en problemas de aproximación.
3.1- EJEMPLO:
1 −1
0 0.8
Sea; X= 1 W= 1
−1 1
0 0.5
Estimulo Pesos sinápticos

Sesgo b =-1

Cuál es la respuesta de la neurona si α =1 (Parámetro)

𝝋 𝒃 + 𝒙𝟏 𝒘𝟏 + ⋯ +𝒙𝒑 𝒘𝒑 = 𝝋 𝑿´𝑾 = 𝝋(-1+0*0.8+1*1-1*1+0*0.5)= 𝝋(-1)

𝟏
𝝋 −𝟏 = = 0.2689
𝟏+𝒆𝟏
4.-FUNCIÓN TANGENTE HIPERBÓLICA

Se define como:
𝟏 − 𝒆−∝𝒚
𝝋 𝒚 = 𝑻𝒂𝒏 𝒚/𝟐 = ; 𝒚 ∈ 𝑹, ∝> 𝟎
𝟏 + 𝒆−∝𝒚

Es la versión continua de la función signo. Es continua en [1,-1] e


infinitamente diferenciable. Se utiliza en problemas de aproximación
4.1- EJEMPLO:
1 −1
0 0.8
Sea; X= 1 W= 1
−1 1
0 0.5
Estimulo Pesos sinápticos

Sesgo b =-1

Cuál es la respuesta de la neurona si α =2 (Parámetro)

𝝋 𝒃 + 𝒙𝟏 𝒘𝟏 + ⋯ +𝒙𝒑 𝒘𝒑 = 𝝋 𝑿´𝑾 = 𝝋(-1+0*0.8+1*1-1*1+0*0.5)= 𝝋(-1)

𝟏−𝒆𝟐
𝝋 −𝟏 = = 0.76159
𝟏+𝒆𝟐
5.-FUNCIÓN LINEAL (IDENTIDAD)

Se define como: 𝝋 𝒚 =𝒚 ; 𝒚 ∈ 𝑹, ∝> 𝟎

No limita la respuesta de la neurona, Se utiliza en aproximación o


estimación lineal
𝝋

5.1- EJEMPLO:
𝝋 −𝟏 = 𝟏
5.2.-FUNCIÓN REGRESIÓN LINEAL SIMPLE

Se define como:
𝝋 𝒃 + 𝒂𝒙 = 𝒃 + 𝒂𝒙 ; 𝒚 ∈ 𝑹, ∝> 𝟎

1 𝑏
X= W=
𝑥 𝑎

x1= x w1= a
𝒃 + 𝒂𝒙 𝝋 𝒃 + 𝒂𝒙 = 𝒃 + 𝒂𝒙
w0 = b
x0=1
6.-FUNCIÓN LINEAL ACOTADA 𝟎 𝑠𝑖 𝑦 ≤ 0

Se define como: 𝝋 𝒚 = 𝒙 𝑠𝑖 0 ≤ 𝑦 ≤ 1

𝟏 𝑠𝑖 𝑦 ≥ 𝟏
𝝋

6.1- EJEMPLO:
𝝋 −𝟏 = 𝟎
7.-FUNCIÓN LINEAL ACOTADA SIMÉTRICA −𝟏 𝑠𝑖 𝑦 ≤ −1

Se define como: 𝝋 𝒚 = 𝒙 𝑠𝑖 − 1 ≤ 𝑦 ≤ 1

𝟏 𝑠𝑖 𝑦 ≥ 𝟏
𝝋

-1 1

-1

7.1- EJEMPLO:
𝝋 −𝟏 = −𝟏
IV.- PESOS SINÁPTICOS
Los pesos sinápticos guardan el conocimiento adquirido, los valores se
obtienen mediante un proceso de aprendizaje que se divide en.

1.- Paradigmas de aprendizaje


Se debe a la manera en que la red neuronal interactúa o se relaciona con el
ambiente en el cual opera, y pueden ser Aprendizaje supervisado
(Supervisedlearning) Aprendizaje no supervisado (Non supervisedlearning)

2.- Algoritmos de entrenamiento


Técnicas que permiten obtener los valores de los pesos sinápticos y el
parámetro de sesgo (No modifican la función de activación). Consiste en
modificar los pesos sinápticos utilizando el valor anterior de este mas un
factor de corrección y se diferencian uno de otro en la forma en que dicha
corrección es obtenida.
𝒘𝒏𝒖𝒆𝒗𝒐 = 𝒘𝒗𝒊𝒆𝒋𝒐 + ∆𝒘
Existen una variedad de algoritmos de entrenamiento cada cual con sus
fortalezas y debilidades.
Nota: Distintos paradigmas de aprendizaje junto con distintos algoritmos de entrenamiento producen diversas redes neuronales.
2.1 Error correction learning or delta rule:
Se usa el error obtenido en la presentación del estímulo para determinar el
factor de corrección. Se utiliza bajo un paradigma de entrenamiento
supervisado. La respuesta de la red neuronal se compara con la respuesta
deseada y el error cometido se utiliza para modificar los pesos sinápticos

x2 w1 Neurona k
.
. 𝒑
𝒑
wi 𝒙𝒊 𝒘𝒊
xi 𝒀𝒌 = 𝝋𝒌 𝒙𝒌𝒊 𝒘𝒊
. 𝒊=𝟎
wp 𝒊=𝟎
.

xp w0=b

x0=1 𝒘𝒌𝒊 𝒏 + 𝟏 = 𝒘𝒌𝒊 𝒏 +∝ 𝒆𝒌 𝒏 𝒙𝒊 (𝒏)


∆𝒘𝒌𝒊 =∝ 𝒆𝒌 𝒏 𝒙𝒊 (𝒏)
𝒆𝒌 = 𝒅𝒌 − 𝒀𝒌
α=Contante de aprendizaje
2. Hebbian learning o ractivity product rule (Hebb, 1949) :

Correlaciona la actividad pre y post sináptica (si ambas neuronas se activan


se fortalece la conexión y se debilita en caso contrario). Aquí el factor de
corrección es multiplicativo entre la actividad pre y post sináptica.

El postulado de Hebb establece: Cuando dos neuronas conectadas


(sinápsis) se activan simultáneamente, la relación entre estas se fortalece.
En caso contrario, la relación se debilita o es eliminada.

La formulación es establecer la correlación entre el estimulo de entrada y la


respuesta a dicho estímulo y utilizar esta información para actualizar el valor
de los pesos sinápticos.
xi
wki
𝒘𝒌𝒊 𝒏 + 𝟏 = 𝒘𝒌𝒊 𝒏 +∝ 𝒚𝒌 𝒏 𝒙𝒊 (𝒏) 𝒀𝒌
∆𝒘𝒌𝒊 =∝ 𝒚𝒌 𝒏 𝒙𝒊 (𝒏)
α=Contante de aprendizaje Neurona k
2.3 Competitive learning:

Las neuronas compiten entre si para hacerse activas estableciendo. Solo


una se activa a la vez. Es decir se establece un mecanismo de competencia
entre las neuronas y la respuesta de la red ante un determinado estímulo
proviene exclusivamente de la neurona ganadora.

𝒘𝒊 𝒕 + 𝟏 = 𝒘𝒊 𝒕 + 𝒏(𝒕) 𝒙 𝒕 − 𝒘𝒊 (𝒕)

∆𝒘𝒊 𝒕 = 𝒏(𝒕) 𝒙 𝒕 − 𝒘𝒊 (𝒕)

X(t)
2.4 Memory Based learning:

La red almacena data ya procesada en memoria. Un nuevo patrón es


procesado según su cercanía (en sentido euclideo) a un patrón en memoria.

En este tipo de entrenamiento las experiencias pasadas están almacenadas


en la “memoria” de ejemplos que han sido clasificados correctamente.

En este tipo de entrenamiento un nuevo patrón de entrada es comparado


con k patrones cercanos (concepto de vecindad) y luego es asignado la
clasificación más frecuente en la vecindad.

Las RBF utilizan este tipo de postulado en su entrenamiento, al igual que las
redes SOM
Distancias x ||x-y||
•Euclidea : ||x-y||
•Producto interno : xt*y
y
xt y

También podría gustarte