Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Wj n
Yn Y0 = 1
Un Wj 0 = -Ө
Neurona Ficticia o
BIASS
La neurona Uj recibe información Yi de las neuronas a las que
esta conectada su entrada, Yi es ponderada por los pesos Wj n de
las conexiones para obtener la entrada neta Net j. Se aplica la
función f de activación o transferencia a Net j para obtener la salida
o señal resultante Yj.
2 /73
NEURONA ARTIFICIAL
• Salida Yj : Es la información resultante que envía una neurona
a otras neuronas, conectadas a su salida.
• Pesos de las conexiones Wj i: Las conexiones entre neuronas
tienen asociados pesos (números).
Yi
Wj i
Ui Uj
3 /73
NEURONA ARTIFICIAL
Entrada Neta Net j Es la entrada total a la unidad, se calcula con
la función de propagación o de red, que es una de las siguientes:
•Función lineal de base (LBF): Es la sumatoria de las entradas
ponderadas. Es una función de tipo hiperplano, de primer orden.
Dada una unidad j, y n unidades conectadas a ésta, si llamamos
X al vector de entradas (que coincide con las salidas de las
unidades de la capa anterior) y Wj al vector de pesos de las
conexiones correspondientes, esta función es:
Net j Y1 W j 1 Y2 W j 2 Yn W j n
n
Net j y k w j k
K 1
4 /73
NEURONA ARTIFICIAL
Estado de activación de una neurona
Es igual a la entrada neta Net j . Por ejemplo:
Net j > 0 → Neurona activa
Net j ≤ 0 → Neurona no activa o inhibida
Función de activación o de transferencia F
Se aplica a la entrada neta, para obtener la salida:
Y = F(NET)
Las principales funciones de transferencia son las siguientes:
• Función escalón
• Función lineal o lineal mixta
• Función sigmoidal
• Función tangente hiperbólica
5 /73
NEURONA ARTIFICIAL
1) Función escalón
1 si Net i 0 1 si Net 0
y j f ( Net i ) yj f ( Net j )
0 si Net i 0 1 si Net 0
6 /73
FUNCION DE ACTIVACIÓN: DESPLAZAMIENTO
(UMBRAL)
Analizamos el caso de la función escalón unitario (lo mismo
sucede en las demás funciones de activación).
En la figura, en el eje X esta NETu(entrada neta), en el eje Y, Yu
(salida). Como Yu = F(NETu), el cambio de Yu de 0 a 1 se
produce cuando NETu =0:
1 si Net 0
y j f ( Net j )
0 si Net 0
7 /73
FUNCION DE ACTIVACIÓN: DESPLAZAMIENTO
(UMBRAL)
Sin embargo, al implementar en hardware, el cambio no es en
NETu =0, sino que hay un desplazamiento, por las
características de los componentes. El cambio de Yu de 0 a 1
sucede cuando NETu = . se denomina desplazamiento o
umbral (el cual es considerado en muchos casos en la
simulación en software, ya que proporciona un parámetro
adicional).
1 si Net i 0
y j f ( Net i )
0 si Net i 0
8 /73
FUNCION DE ACTIVACIÓN: DESPLAZAMIENTO
(UMBRAL)
Para que F no sea una función de 2 variables y NETu, el
desplazamiento o umbral - se puede incluir dentro de NETu.
Como NETu = X1W1u+…+XNWNu
Se hace: NETu = - + X1W1u+…+XNWNu
NETu es la suma de las salidas de las neuronas conectadas a la
entrada de la neurona u multiplicada por los pesos de las
conexiones. - se toma como X0W0u con X0=1 la salida de una
neurona ficticia (biass) conectada a la entrada de la neurona u y
W0u = - el peso de la conexión NETu = X0W0u+…+XNWNu
1 X1
Entonces Yu = F(NETu),
.. W1u
queda como al principio
(pero NETu incluye a -): .
Xk Wku
k u
1 si Net 0 .. Yu
y j f ( Net j )
0 si Net 0
. Xn
Wnu
W0u= -
n X0 =1 (biass) 9 /73
•
NEURONA ARTIFICIAL
10 /73
NEURONA ARTIFICIAL
Función Lineal Mixta
Con esta función, el estado de activación de la unidad debe
permanecer en un intervalo de valores reales prefijados.
1
si Net j B
y j 1 si Net B
j
si B Net B
1
Net j
B j
11 /73
NEURONA ARTIFICIAL
3) Función sigmoidal
Tiene la ecuación siguiente, donde K es una constante que
determina el tamaño del intervalo de transición de 0 a 1.
1
yj ( Net j *ki )
(1 e )
12 /73
NEURONA ARTIFICIAL
4) Función Tangente Hiperbólica
Esta función es usada por biólogos como un modelo matemático de
activación nervioso, está dada por la ecuación siguiente.
y j Tanh( Net j * k )
13 /73