Está en la página 1de 13

FUNDAMENTOS DE REDES NEURONALES

3. NEURONA ARTIFICIAL (UNIDAD ELEMENTAL)


U1
Y1
Wj 1 Uj
U2
Y2
Wj 2
Net j Yj = f (Net j) Yj

Wj n
Yn Y0 = 1
Un Wj 0 = -Ө
Neurona Ficticia o
BIASS
La neurona Uj recibe información Yi de las neuronas a las que
esta conectada su entrada, Yi es ponderada por los pesos Wj n de
las conexiones para obtener la entrada neta Net j. Se aplica la
función f de activación o transferencia a Net j para obtener la salida
o señal resultante Yj.
2 /73
NEURONA ARTIFICIAL
• Salida Yj : Es la información resultante que envía una neurona
a otras neuronas, conectadas a su salida.
• Pesos de las conexiones Wj i: Las conexiones entre neuronas
tienen asociados pesos (números).

> 0 = conexión excitadota (Y i tiende a activar la neurona Uj)


Wj i = 0 ≡ a que no haya conexión entre U i y Uj
< 0 = conexión inhibidora (Y i tiende a desactivar la neurona Uj)

Yi
Wj i
Ui Uj

3 /73
NEURONA ARTIFICIAL
Entrada Neta Net j Es la entrada total a la unidad, se calcula con
la función de propagación o de red, que es una de las siguientes:
•Función lineal de base (LBF): Es la sumatoria de las entradas
ponderadas. Es una función de tipo hiperplano, de primer orden.
Dada una unidad j, y n unidades conectadas a ésta, si llamamos
X al vector de entradas (que coincide con las salidas de las
unidades de la capa anterior) y Wj al vector de pesos de las
conexiones correspondientes, esta función es:

Net j  Y1  W j 1  Y2  W j 2    Yn  W j n
n
Net j   y k  w j k
K 1

•Función radial de base (RBF): Función de tipo hiperesférico,


de segundo orden, no lineal. El valor de red representa la
distancia a un determinado patrón de referencia.

4 /73
NEURONA ARTIFICIAL
Estado de activación de una neurona
Es igual a la entrada neta Net j . Por ejemplo:
Net j > 0 → Neurona activa
Net j ≤ 0 → Neurona no activa o inhibida
Función de activación o de transferencia F
Se aplica a la entrada neta, para obtener la salida:
Y = F(NET)
Las principales funciones de transferencia son las siguientes:
• Función escalón
• Función lineal o lineal mixta
• Función sigmoidal
• Función tangente hiperbólica

5 /73
NEURONA ARTIFICIAL

1) Función escalón

Escalón Unitario Escalón no Unitario

1 si Net i    0 1 si Net  0
y j  f ( Net i   ) yj  f ( Net j ) 
0 si Net i    0  1 si Net  0

6 /73
FUNCION DE ACTIVACIÓN: DESPLAZAMIENTO
(UMBRAL)
Analizamos el caso de la función escalón unitario (lo mismo
sucede en las demás funciones de activación).
En la figura, en el eje X esta NETu(entrada neta), en el eje Y, Yu
(salida). Como Yu = F(NETu), el cambio de Yu de 0 a 1 se
produce cuando NETu =0:

1 si Net  0
y j  f ( Net j ) 
0 si Net  0
7 /73
FUNCION DE ACTIVACIÓN: DESPLAZAMIENTO
(UMBRAL)
Sin embargo, al implementar en hardware, el cambio no es en
NETu =0, sino que hay un desplazamiento, por las
características de los componentes. El cambio de Yu de 0 a 1
sucede cuando NETu =  .  se denomina desplazamiento o
umbral (el cual es considerado en muchos casos en la
simulación en software, ya que proporciona un parámetro
adicional).

1 si Net i    0
y j  f ( Net i   ) 
0 si Net i    0
8 /73
FUNCION DE ACTIVACIÓN: DESPLAZAMIENTO
(UMBRAL)
Para que F no sea una función de 2 variables  y NETu, el
desplazamiento o umbral - se puede incluir dentro de NETu.
Como NETu = X1W1u+…+XNWNu
Se hace: NETu = - + X1W1u+…+XNWNu
NETu es la suma de las salidas de las neuronas conectadas a la
entrada de la neurona u multiplicada por los pesos de las
conexiones. - se toma como X0W0u con X0=1 la salida de una
neurona ficticia (biass) conectada a la entrada de la neurona u y
W0u = - el peso de la conexión NETu = X0W0u+…+XNWNu
1 X1
Entonces Yu = F(NETu),
.. W1u
queda como al principio
(pero NETu incluye a -): .
Xk Wku
k u
1 si Net  0 .. Yu
y j  f ( Net j )
0 si Net  0
. Xn
Wnu
W0u= -
n X0 =1 (biass) 9 /73

NEURONA ARTIFICIAL

2) Función lineal o lineal mixta


Lineal (Identidad):
y j  Net j

10 /73
NEURONA ARTIFICIAL
Función Lineal Mixta
Con esta función, el estado de activación de la unidad debe
permanecer en un intervalo de valores reales prefijados.

1 
si Net j  B 
y j  1 si Net   B 
j

si  B  Net  B 
1
Net j
B j

11 /73
NEURONA ARTIFICIAL
3) Función sigmoidal
Tiene la ecuación siguiente, donde K es una constante que
determina el tamaño del intervalo de transición de 0 a 1.
1
yj  ( Net j *ki )
(1  e )

12 /73
NEURONA ARTIFICIAL
4) Función Tangente Hiperbólica
Esta función es usada por biólogos como un modelo matemático de
activación nervioso, está dada por la ecuación siguiente.
y j  Tanh( Net j * k )

13 /73

También podría gustarte