Está en la página 1de 10

Redes Neuronales

Resumen

Métodos Numéricos
Índice general

1 Introducción a las redes neuronales artificiales 2


1.1 Nociones generales . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.1.1 Neurona artificial . . . . . . . . . . . . . . . . . . . . . . . . . . . . . 2
1.2 Modelo matemático de una capa de neuronas artificiales . . . . . . . . . . . . 3
1.3 Funciones de transferencia . . . . . . . . . . . . . . . . . . . . . . . . . . . . 5
1.4 Control de un entrenamiento . . . . . . . . . . . . . . . . . . . . . . . . . . . 6
1.5 Ejemplo de una red para aproximar una función . . . . . . . . . . . . . . . . . 7

1
Capítulo 1

Introducción a las redes neuronales


artificiales

1.1 Nociones generales

1.1.1 Neurona artificial

Las neuronas biológicas tienen esencialmente tres componentes: el cuerpo de la célula, las
dendritas que actúan como canales de recepción de señales que vienen de otras neuronas y el
axón es el canal de emisión de señales de una neurona. El punto de unión de una dentrita de una
célula con el axón de otra, se denomina sinapsis. En este punto de unión, que es entre membranas
celulares, se produce intercambios de sustancias químicas y por ende reacciones químicas e
impulsos eléctricos, es decir todo un proceso complejo de transferencia de información.

Modelo matemático de una neurona artificial

Un modelo de neurona artificial recoge las características esenciales señaladas en la introducción


y se formula mediante el siguiente diagrama:
El vector P = [P1 , P2 , P3 , . . . , Pn ] representa a un conjunto de n señales Pk , donde cada una
de ellas ingresa a la neurona por la correspondiente dentrita; a esta última le está asociado un
número Wk denominado peso. Al conjunto de las n dentritas le corresponde el vector de pesos
W = [w1 , w2 , . . . , wk ] . Cuando un vector de señales P que llega a la neurona el proceso que
sigue dentro del cuerpo de la célula, se representa mediante la suma de los productos de cada
señal por su peso, más un valor b denominado ganancia o sesgo de la neurona. Todo esto se
representa por la transformación afín:

W P + b = w1 P1 + w2 P2 + . . . wk Pk + b

Interprestación de la expressión W P + b

Esta expresión matemática trata de representar lo que ocurre en una neurona biológica. Por
ejemplo una persona que conduce un vehículo, tiene el sentido de la visión en estado de mayor
alerta en comparación a los del oído o del gusto. La vista recibe información relativa a las
características de la pista, que el cerebro lo procesa y emite una respuesta, que se traduce en
reflejos orientados a los músculos de los brazos para controlar el timón y al de los pies para el
control de la caja de cambios y el freno. En este proceso unos datos son acrecentados frente a
otros que son disminuidos o anulados. Si P = [P1 , P2 , . . . , , Pn ] representa todos los datos que
recibe el conductor, los pesos W = [w1 , w2 , . . . , , wn ] representan la intensidad con que son
tomados en cuenta cada uno de los ellos. La ganancia o sesgo b , podría interpretarse como una
reacción de la neurona para incentivar, disminuir o anular el valor final del producto W p.
Finalmente, el valor de W p + b es transformado mediante una función de transferencia f (s) de
la neurona, dando lugar a la respuesta final de la misma: q = f (W p + b) .

1.2 Modelo matemático de una capa de neuronas artificiales


Una capa de neuronas está formada por m neuronas, dispuestas en paralelo, esto es no hay
comunicación entre ellas, operan independientemente. A cada neurona j, de la capa le está
asociada una matriz fila W j = [w j,1 , w j,2 , . . . , , w j,n ] que es la matriz de pesos de dicha
neurona. El proceso, dentro de la neurona j , se representa mediante la suma de los productos
de cada señal por su peso, más un sesgo b j , que se expresa:

W j P + b j = w j,1 p1 + w j,2 p2 + . . . + w j,n pn + b j

. Este valor es transformado por la función de transferencia f j (s) de la misma neurona j , dando
lugar a la respuesta final: q j = f (w j P + b j ) . Este proceso se da en cada neurona en forma
independiente. Entonces la matriz de pesos de una capa de m neuronas será una matriz de orden
m×n :

 
w w1,2 . . . w1,n
 1,1 
 
 w2,1 w2,2 . . . w2,n 
W = [w j,k ] = 
 .. .. ... .. 

 . . . 
 
wm,1 wm,2 . . . wm,n

y la ganancia o sesgo de la capa será la matriz columna


 
b
 1
 
 b2 
b=
 .. 

 . 
 
bm

de los sesgos de cada neurona de la capa.


Donde la primera fila de las dos matrices corresponde a la primera neurona, la segunda a la
segunda neurona de la capa y así sucesivamente.
Para un vector P = [p1 , p2 , . . . , pn ] que llega a la capa de neuronas, el proceso se representa
mediante el producto de la matriz de pesos W por el vector P , más el vector b de ganancias
de la capa de neuronas. Luego cada componente de este vector es transformado por la función
de transferencia de cada neurona. Las funciones de transferencia en cada capa se representa
mediante una función vectorial con valores vectoriales: F : Rm −→ Rm , donde para cada vector
s = (s1 s2 , . . . , sm ) ∈ Rm la función F está definida como: F(s) = ( f1 (s1 ) , f2 (s2 ) , . . . fm (sm ))
En consecuencia la respuesta de la capa será el vector q = F(W p + b) , donde

F(W p + b) = [ f1 (w1 p + b1 ) , f2 (w2 p + b2 ) , fm (wm p + bm )]

que es la señal procesada y transformada por la capa de neuronas. Entonces es el vector de salida
de la capa de neuronas es q = F(W p + b) . De aquí, el proceso en una capa de m neuronas, no
es otra cosa que una función
T : Rn −→ Rm

que transforma una señal pm en un vector qm , definido por q = T (p) = F(W p + b)

1.3 Funciones de transferencia


Existen muchas funciones de transferencia empleadas en el diseño de redes neuronales, las más
comunes son:

a) Limitador fuerte (Hardlim):





 0 si s < 0

f (s) =


 1 si s ≥ 0

b) Limitador fuerte simétrico (Hardlims):





 −1 si s < 0

f (s) =


si s ≥ 0

 1

c) Función de transferencia lineal (purelin):

f (s) = s
d) Función de transferencia lineal saturada (satlin)



 0 si s<0







f (s) = s si 0 ≤ s ≤ 1









 1 si 1<s

e) Función de transferencia lineal saturada Simétrico (satlins)





 −1 si s < −1







f (s) = s si −1 ≤ s ≤ 1









 1 si 1<s

f) Función de transferencia sigmoidal (logsig):

1
f (s) =
1 + e−s

g) Función de transferencia tangente sigmoidal hiperbólica (tansig):

es − e−s
f (s) = tanh(s) =
es + e−s

h) Función de transferencia competitiva (compet)





 1 si Neurona con s máximo

f (s) =



 0 si En los demás casos.

1.4 Control de un entrenamiento


El entrenamiento de una red neuronal consiste en minimizar el error

1
Ek = kTk − Rk k2
2
con Tk lo que se espera lograr y Rk la respuesta de la RNA en cada componente del vector de
entrada P .

1.5 Ejemplo de una red para aproximar una función


Considerando la función

π π
f (x) = sen( x)cos( x), −2 ≤ x ≤ 2
3 6

Un vector P = [p1 , p2 , . . . , pn ] cuyas componentes son los puntos de una partición del intervalo
[−2 , 2].
Se quiere construir una RNA (Red Neuronal artificial), que para el vector de entrada P aproxime
los valores de la función f (x) en los puntos de esta partición P. Para ello se obtnedrá

π π
Tk = sen( pk )cos( pk )
3 6

Donde k = 1, 2, . . . , n los valores que se espera verificar o interpolar. Siendo Rk : Los resultados
que se obtiene luego del entrenamiento de la red.
Para ellos se usará:

• Vector de entrada P

• En la programación se debe inicializar los pesos, ganancias y el valor pequeño s.

• Utilizando 2 capas, para el aprendizaje de la red.

• La función de transferencia a usar es tansig

• El control del entrenamiento es con minimizar la media cuadrática de Tk con Rk

1
Ek = kTk − Rk k2
2

También podría gustarte