Está en la página 1de 17

REDES NEURONALES ARTIFICIALES

Introducción

Jesús Alfonso López


jalopez@uao.edu.co
Introducción

Conjunto de elementos de procesamiento que emulan algunas


características de funcionamiento del cerebro humano
Motivación y Origen
[1] [2]

[3]
La Neurona Biológica
Aspectos funcionales de una
neurona biológica:

1. Los elementos de proceso (neuronas)


reciben las señales de entrada

2. Las señales pueden ser modificadas


por los pesos sinápticos

3. Los elementos de proceso suman las


entradas afectadas por las sinápsis

4. Bajo una circunstancia apropiada la


neurona transmite una señal de salida

5. La salida del elemento de proceso puede


ir a muchas neuronas
La Neurona Artificial
Modelo propuesto a partir de la neurona biológica:

[1] [2]
x1 wj1
[3] [5]
x2 wj2 [4]
Netj yj

Σ Ф(.)

wjn

xn
Pesos Sinápticos
La matriz de pesos sinápticos es el parámetro que se utiliza para
representar la conexión entre las neuronas, de manera similar a
lo que hace la sinapsis en las neuronas biológicas. Esta matriz
será fundamental en el proceso de aprendizaje, como veremos
más adelante.
Representaremos el término genérico de esta matriz así:

wij

Este término representa el valor de la conexión que va a la


neurona i-ésima, proveniente de la neurona j-ésima.
Entrada Neta
La magnitud que denominamos Neta representa la entrada total de
información o estímulo que recibe una neurona, proveniente de
fuentes externas o de otras neuronas a las cuales está conectada.

Este valor lo evaluamos en la función de activación para generar la


salida total de la neurona, tal como lo vemos en la expresión que
sigue:

n
Neta j = ∑ w ji xi + b j
i =1

y j = Φ ( Net j )
Función de Activación Lineal
Con este tipo de función de activación
la salida es continua e igual al
10
estímulo de entrada o Entrada Neta de
8
la red, como la hemos denominado.
6

4
En las neuronas de entrada,
naturalmente, seleccionaremos este
2
tipo de función de activación puesto
0
que no hay ningún tipo de
-2
procesamiento.
-4
Suele utilizarse también en la capa de
-6
salida cuando queremos justamente
-8
una salida continua e igual a los
-10
-10 -8 -6 -4 -2 0 2 4 6 8 10 estímulos provenientes de la capa
oculta. Eventualmente la utilizaremos

f ( x) = x
en las capas ocultas.
Función de Activación Tipo Escalón
1

0.9
Con este tipo de función de activación
la salida no es continua y tiene dos
0.8
valores, 1: si la entrada neta a la
0.7
neurona es mayor o igual a cero; 0: si
0.6
la entrada neta es menor que cero.
0.5

0.4
Este tipo de función de activación se
0.3
utiliza en la capa de salida cuando
éstas son de naturaleza discontinua.
0.2
No tiene mucho sentido utilizarla en
0.1
las redes multicapa y hasta ahora no
0
-10 -8 -6 -4 -2 0 2 4 6 8 10 conocemos aplicación alguna donde se
haya hecho. Incluso veremos como,
para ciertos algoritmos de
1 x ≥ 0 aprendizaje, no se debe definir este
f ( x) =  tipo de función de activación en sus
0 x < 0 capas.
Función de Activación Bipolar
1 Con este tipo de función de activación la
0.8 salida no es continua y tiene dos valores, 1:
0.6 si la entrada neta a la neurona es mayor o
0.4 igual a cero; -1: si la entrada neta es menor
0.2 que cero.
0
Este tipo de función de activación se utiliza
-0.2
en la capa de salida cuando éstas son de
-0.4 naturaleza discontinua. No tiene mucho
-0.6 sentido utilizarla en las redes multicapa y
-0.8 hasta ahora no conocemos aplicación
-1
-10 -8 -6 -4 -2 0 2 4 6 8 10
alguna donde se haya hecho. Incluso
veremos como, para ciertos algoritmos de
1 x≥0 aprendizaje, no se debe definir este tipo de
f ( x) =  función de activación en sus capas.
− 1 x < 0
Función de Activación Sigmoidal
1
Con este tipo de función de activación la salida es
continua y la podemos ver como una función tipo
0.9
escalón pero suavizada, de tal manera que la
0.8
transición entre el cero y el uno, no sea brusca o
0.7 discontinua.
0.6
La ventaja significativa que le da este tipo de
0.5
función a una neurona o red neuronal, es que al
0.4 procesamiento le propicia características de no
0.3 linealidad, por lo que la aplicaremos en algoritmos
0.2 de aprendizaje más complejos que los permitidos
0.1
por neuronas cuya función de activación es del
tipo escalón.
0
-10 -8 -6 -4 -2 0 2 4 6 8 10
Puede utilizarse tanto en las capas ocultas como
en la de salida. En las capas ocultas ganaremos
no linealidad y en la de salida, la usaremos
1 cuando la naturaleza de ésta sea similar a la
f ( x) = binaria o escalón, pero requiramos que la

1 + e −σx
magnitud sea continua para realizar algún tipo de
pos-procesamiento.
Función de Activación TangenteSigmoidal
Con este tipo de función de activación la salida es
1
continua y la podemos ver como una función tipo
0.8 escalón pero suavizada, de tal manera que la
0.6 transición entre el cero y el uno, no sea brusca o
0.4
discontinua.
0.2 La ventaja significativa que le da este tipo de
0
función a una neurona o red neuronal, es que al
procesamiento le propicia características de no
-0.2
linealidad, por lo que la aplicaremos en algoritmos
-0.4
de aprendizaje más complejos que los permitidos
-0.6 por neuronas cuya función de activación es del
-0.8 tipo escalón.
-1
-10 -8 -6 -4 -2 0 2 4 6 8 10 Puede utilizarse tanto en las capas ocultas como
en la de salida. En las capas ocultas ganaremos
no linealidad y en la de salida, la usaremos
2 cuando la naturaleza de ésta sea similar a la
f ( x) = −σx
−1 binaria o escalón, pero requiramos que la

1+ e magnitud sea continua para realizar algún tipo de


pos-procesamiento.
Emulación de una Neurona Artificial
Semejanza con el Cerebro
• Emula el funcionamiento del cerebro en dos aspectos:
– El conocimiento es obtenido por la red a través de un
proceso de aprendizaje.
– Las conexiones entre neuronas conocidas como
pesos sinápticos son utilizadas para almacenar dicho
conocimiento.
• Las RNA se desarrollan como generalizaciones de
modelos matemáticos del conocimiento humano o de la
biología neuronal, con base en los siguientes
considerandos:
– Elementos de procesamiento simples (Neuronas)
– Conectividad
– Enlaces de conexión con pesos
– Función de Activación
Algunas Características de las RNA

1. Capacidad de aprendizaje
2. Capacidad de generalización
3. Extraen características esenciales de
información irrelevante
Ventajas Significativas
1. Aprendizaje Adaptativo
2. Auto – Organización
3. Tolerancia a Fallos
4. Operación en Tiempo Real
Campos de Aplicación
[4] [6]
[1]

[2] [7]
Redes
Neuronales
Artificiales

[3] [8]

[5]

También podría gustarte