Está en la página 1de 7

See discussions, stats, and author profiles for this publication at: https://www.researchgate.

net/publication/308948042

FUNCIÓN DE TRANSFERENCIA DE UN PERCEPTRÓN CON MATLAB

Article · June 2013

CITATIONS READS
0 3,232

1 author:

Ancizar Paredes Ardila


Secretaría de Educación del Distrito Capital
3 PUBLICATIONS   0 CITATIONS   

SEE PROFILE

Some of the authors of this publication are also working on these related projects:

DISEÑO DE UN MODELO DE CONTROL PARA AUTOMATIZAR LAS ACTIVIDADES DE DESCARGUE Y PESAJE DEL PROCESO DE PREMEZCLA DE MATERIA PRIMA, PARA PREPARAR
JUGOS A BASE DE AZÚCAR, EN LA EMPRESA QUALA S.A. View project

All content following this page was uploaded by Ancizar Paredes Ardila on 08 October 2016.

The user has requested enhancement of the downloaded file.


CIDE. Programa de electrónica.
.

FUNCIÓN DE TRANSFERENCIA DE UN PERCEPTRÓN CON


MATLAB.
ANCIZAR PAREDES ARDILA
Ingeniero Electrónico
Universidad Antonio Nariño
Docente Programa Electrónica Mecatrónica
e-mail: ancizar.paredes967.doc@cide.edu.co
e-mail: solin83@hotmail.com
COLOMBIA

propuesto en el código, de libre distribución, el


RESUMEN: Una de las estructuras de las redes implementar otras estrategias de aprendizaje.
Neuronales es el Perceptrón, aunque existen Se debe hacer claridad sobre cada uno de los
innumerables documentos y aportes entorno a la función conceptos, anteriormente mencionados, estrategias de
de transferencia de ésta estructura, el presente artículo aprendizaje, entradas a la neurona, salidas deseadas,
es el fruto del estudio hecho en una primera para ello se aborda el tema desde la explicación
aproximación al concepto, generando un material funcional biológica, luego se presenta el modelo
didáctico, como estrategia de divulgación en la matemático del Perceptrón, no siendo la única estructura
Corporación Internacional para el Desarrollo Educativo existente en las redes neuronales, luego se presenta el
(CIDE), entorno al proyecto Redes Neuronales código del aplicativo, para finalmente, ilustrar los
Artificiales (RNA), adscrito al grupo de Investigación de resultados obtenidos en el aplicativo con un ejemplo.
la Facultad de Ingenierías y Administración de la misma
(IARN-CIDE). El presente material didáctico se aplicará Los alcances de éste artículo, son los de presentar
en la fase exploratoria del concepto hacia la una herramienta tecnológica ampliamente conocida y de
implementación del algoritmo en un prototipo robótico, fácil uso para las personas que están familiarizadas con
específicamente un robot de tipo móvil, sin embargo, el código de programación; sin embargo puede ser
éste se puede usar en cualquier campo del usado por personas en estado inicial del uso de
conocimiento, de los programas ofertados en la CIDE, a software, ya que la interface le permite aplicar el
nivel tecnológico, tales como Sistemas, Gestión concepto de RNA fácilmente, ejecutando el código
Empresarial, Electrónica, Mecatrónica, Alimentos, entre desde Matlab, con las limitaciones que se exponen en el
otros. apartado respectivo al ejemplo de aplicación.

PALABRAS CLAVE: Redes Neuronales Artificiales, 2 APROXIMACION TEORICA


Perceptrón, Función de Transferencia, Matlab.
Según las intenciones planteadas del artículo,
Abstract: tratando de abordar el tema de manera integral, se
plantea una aproximación teórica en tres dimensiones:
Keywords:  Biológica: Sin profundizar en ella, se plantea la
explicación de cómo funciona una neurona en el
ser humano.
1 INTRODUCCIÓN  Matemática: Se presenta la información delimitada
del funcionamiento y modelo matemático de la
Las Redes Neuronales Artificiales, son estructura de un Perceptrón, ubicándola en el
consideradas una de las herramientas de amplio uso en contexto global de las Redes Neuronales
los algoritmos que incluyen el concepto de Inteligencia Artificiales
Artificial (IA). En éste trabajo, se plantea el uso de  Técnica: Se hace referencia al uso de Matlab, en la
Matlab como herramienta en la simulación de una codificación del modelo matemático del Perceptrón.
estructura fundamental de las redes Neuronales
Artificiales (RNA), el Perceptrón; dicho algoritmo se
2.1 CONCEPTO BIOLOGICO
plantea de manera genérica, el estudiante puede usarla
en cualquier situación donde lo único que debe tener es
La estructura fundamental del sistema nervioso
un computador con el software de MathWorks™
central es la Neurona, ésta como unidad funcional, hace
(Matlab©), definidas las entradas a la Neurona y las
parte de una estructura más compleja, el cerebro.
salidas deseadas, la neurona responderá según se le
Aunque se presume que el lector tiene nociones de este
entrene mediante una estrategia de aprendizaje, de las
tema, se plantea la descripción de ésta para explicar su
muchas que se pueden implementar, quedando
funcionamiento

1
CIDE. Programa de electrónica.
.

El Perceptrón es concebido por el psicólogo Frank


Rosenblatt de la Universidad de Corell en 1959. Éste es
utilizado inicialmente para la solución de situaciones
donde los estados a la salida, son diferenciados y de
fácil separación. A partir de la estructura sencilla del
Perceptrón se pueden construir estructuras más
complejas, sin embargo, dada su simplicidad, su estudio
fue abandonado a mediados de los 70 pues se
descubrió que en tareas de clasificación como la XOR,
era incapaz de funcionar adecuadamente [Minsky y
Papert].

Figura 1. Estructura Biológica de una Neurona. [1] Como se indicó en la sección anterior las RNA,
funcionan de manera similar a su contraparte biológica,
Como se puede observar, la célula está dividida en con algunas características: aprendizaje, plasticidad y
partes funcionales, cada una de ellas se describe a procesamiento en paralelo. Aprendizaje: ya que la
continuación: neurona puede ser entrenada y aprender a responder
según las entradas a una situación específica, mediante
Axón: Rama principal que sale del cuerpo de la las salidas deseadas; Plasticidad: pues si alguna de las
Neurona, su principal función es la de transmitir la estructuras funcionales llegase a fallar, existen otras que
información a las dendritas, éstas a su vez conectan respaldan la función de la neurona, evitando que ésta
dicha información a las otras Neuronas. responda de manera errada y Procesamiento en
paralelo: ya que al recibir varios estímulos al mismo
Dendritas: Ramas más cortas que el axón, las tiempo responde según el estímulo más fuerte o según
cuales llevan los impulsos nerviosos a otras neuronas. A sea configurada.
través de ellas se realizan las conexiones o Sinapsis con
otras Neuronas. Para explicar el funcionamiento del Perceptrón se
debe hacer referencia a su concepción matemática, éste
Soma: Es el cuerpo de la célula nerviosa, su modelo, permite realizar una aproximación a la
función es la de fabricar los elementos necesarios para programación necesaria que emulará el funcionamiento
la vida de la Neurona, tal como sucede en las otras de la Neurona.
células del cuerpo.

Una red Neuronal, se genera a partir de un proceso


de aprendizaje, es decir, cuando estamos aprendiendo
algo, se crea una conexión entre las neuronas,
constituyendo el aprendizaje, para luego ejecutar la
función de la red creada, cuando nos enfrentemos a una
situación similar, es decir, cuando aprendemos a leer se
generan una serie de conexiones neuronales que son
utilizadas, cada vez que nos enfrentamos a la misma
tarea.

De manera similar, se plantea el concepto de las


Redes Neuronales Artificiales, las cuales se usan cada Figura 2.2.1 Estructura de un perceptrón [1]
vez que el algoritmo se entrena, en una aplicación
específica, sin embargo no se debe compara las unas Como se observa en la Figura 2.1.1 las partes
con las otras, pues las RNA, solo emulan una de las constitutivas del Perceptrón son:
muchas funciones complejas de las redes neuronales
biológicas.  Capa de Entrada: Constituye las entradas de la
Neurona, las cuales se toman una a una y se
conectan a la capa oculta con sus pesos
respectivos.
2.2 Redes Neuronales Artificiales: El
 Capa Oculta: Allí está configurada la función de
Perceptrón. transferencia de la RNA, es decir, la forma como
toma cada entrada y la evalúa.
No es la única estructura conocida y concebida
para el desarrollo de las redes Neuronales, entre otras
 Capa de salida: Constituye la salida, en éste caso
se encuentran: Kohonen, ART, Hopfield, entre otros.
es una sola.
Para el caso que nos ocupa se realiza el estudio a partir
del Perceptrón multicapa.
Ahora bien, aunque es importante resaltar las
características más importantes de las Redes

2
CIDE. Programa de electrónica.
.

Neuronales Artificiales (RNA), en el presente artículo tipo lineal o Sigmoidal. En el caso de los datos discretos,
solo haremos referencia al Perceptrón Básico. la función de activación debe ser de tipo escalón.

Además de su estructura se debe reconocer en las RNA, Tabla 2.2.4.1 Resumen de RNA según tipo de datos [1]
4 características importantes: Topología, mecanismo de RNA CONTINUAS RNA HIBRIDAS RNA
aprendizaje, asociación entre la información de entrada E:ANALOGA DISCRETAS
y la información de salida y la forma como se representa S:ANALOGA E: ANALOGA E: BINARIA
S: BINARIA S: BINARIA
la información, de ello depende la comprensión del
funcionamiento de éste primer acercamiento al BACKPROPAGATIO PERCEPTRON HOPFIELD
Perceptrón. N DISCRETO
A continuación se presenta una breve descripción de LINEAR ADALINE/MADA ART
tales características. ASOCIATIVE LINE (ASOCIATIVE
MEMORY RESONANCE
2.2.1 Topología: THEORY)

Hace referencia a la forma como se conectan las redes Como se observa en la tabla se escriben tres ejemplos
neuronales, el número de conexiones entre las para que el lector profundice en el estudio de cada uno
neuronas, la cantidad de neuronas en cada capa y el de ellos, y de otros propuestos para cada una de las
grado de conectividad. En éste caso se habla de Redes clasificaciones presentadas.
Monocapa y Redes Multicapa.

2.2.2 Mecanismo de aprendizaje: 2.3 Matlab en la modelación del Perceptrón

Es la forma como la red actualiza los pesos de acuerdo Para identificar la estructura del Perceptrón simple, (De
a la información de entrada; como analogía a los una sola capa), se debe partir de las características
sistemas biológicos, se puede pensar en la forma como mencionadas en el apartado anterior.
se conecta o desconecta una red neuronal; cuando se
produce un aprendizaje, se genera una conexión esto
quiere decir que para la RNA, el peso es distinto de
cero, pero cuando se realiza una desconexión por el
proceso de aprendizaje que sucede en el cerebro, esto
se interpreta en la RNA, como el equivalente a cero del
peso que conecta a la entrada respectiva.
Figura 2.3.1 Estructura del Perceptrón Simple [1]
Según esta característica las RNA pueden ser: con
aprendizaje supervisado o con aprendizaje no
supervisado. Cada uno de ellos tienen sus propias
A continuación se realiza una descripción del algoritmo
características no se profundizará en ellos ya que ésta
usado para implementar un Perceptrón básico, bajo
intensión escapa a los límites del presente artículo.
entorno Matlab, se aplican conceptos de programación
estructurada, para que el código sea de fácil
2.2.3 Asociación de la información Entrada / Salida: comprensión y se realice la adaptación necesaria si se
quiere usar otro entorno de programación. Se hace
Es la forma como la red neuronal almacena los pesos necesario mencionar, que Matlab ya trae en sus
nuevos a partir de los aprendizajes, estos son formas de herramientas (Toolbox), los algoritmos de algunas redes
representación del “nuevo conocimiento” para la RNA.
neuronales, sin embargo en el presente artículo se
Es decir tiene un comportamiento similar al encontrado presenta un código genérico el cual se puede
en los sistemas biológicos y que se conoce como implementar en diferentes ambientes de programación.
memoria asociativa.
Para explicar la estructura del código, se plantea el
Según éste criterio, las RNA pueden ser: siguiente orden en el algoritmo planteado.
Heteroasociativas (Mantienen la información gracias a la
existencia de dos capas una para captar la información y 1. Se fijan los pesos aleatorios: Son valores que
otra para retenerla) y Autoasociativas (compara las
multiplican a la entrada, generalmente entre 0 y
entradas actuales con los datos almacenados y escoge 1, sin embargo estos valores son irrelevantes,
el más parecido en el estado presente). es decir su valor no interesa pero deben existir,
la única restricción es que no pueden ser cero,
2.2.4 Representación de la información esto indicaría que la entrada no se tiene en
Entrada/Salida: cuenta.
2. Se establecen las entradas: Se configura la
Los datos a tratar pueden ser continuos o discretos, en matriz de entrada, según el número de entradas
el primer caso se habla de datos tipo analógicos, y los valores que toman cada una de ellas.
tomados de variables reales, por tanto la función de
activación debe ser de la misma naturaleza, es decir de

3
CIDE. Programa de electrónica.
.

3. Se calcula la salida según la función de estado de entrada una salida, en éste caso
aprendizaje. Para el Perceptrón se usará la será un vector de una columna con cuatro
función hardlim, de Matlab®. filas, como se indica a continuación
4. Se actualizan pesos según respuesta. De Y=[0 0 0 1]
acuerdo a la función determinada, se recalculan La salida deseada corresponde a una
los nuevos pesos, éstos ayudarán a reevaluar compuerta AND, cuya salida depende de las
las nuevas entradas. entradas
5. Se regresa al paso 3 hasta obtener la
respuesta deseada. Tabla 3.1 Estados compuerta AND

A éste algoritmo se le conoce como aprendizaje por X1 X2 Y


refuerzo, la neurona repite el proceso hasta conseguir el 0 0 0
aprendizaje de las salidas deseadas. 0 1 0
1 0 0
1 1 1
3 DISEÑO DE LA APLICACIÓN EN MATLAB
Observe como se resumen los datos de la
Como se indicó anteriormente, Matlab® es la tabla, la columna “X1” corresponde a la primer
herramienta por excelencia en el modelamiento e entrada, la columna “X2” la segunda entrada y
implementación de la función de transferencia del la columna “Y” a la salida, para definir el vector
Perceptrón. Aunque en la sección 2.3 se planteó la de salida deseada, se puede usar el comando:
forma de hacerlo, en éste apartado se deja el código yd=[0;0;0;1], que es un vector columna, el lector
para ser usado en diferentes contextos. puede verificarlo usando el comando en
Matlab®.
Para explicar el algoritmo usado, en éste caso Teniendo en cuenta la salida deseada, ahora se
particular, se explica paso a paso la implementación en calcula la salida a partir de la función de
Matlab ®, correlacionando mencionado código con las activación de la red neuronal, en éste caso el
ecuaciones que rigen cada una de las etapas de dicho Perceptrón.
algoritmo, citadas en la sección 2.3. La función de activación que se usa es de tipo
escalón unitario, ésta función permite clasificar
1. Se fijan los pesos aleatorios: En Matlab, se en dos estados la respuesta del Perceptrón,
pueden usar los vectores de datos, el lector como se puede observar en la Tabla 3.1 solo
debe estar familiarizado con el Algebra Lineal. hay dos estados “0” o “1”. Para aplicar la
Para ello se digita en el editor de Matlab ®, la función escalón unitario, se usa en Matlab el
línea de código: comando: Hardlim.
W=rand(2,1). La estructura de la nueva salida, se escribe
Con éste comando se genera un vector como: y=Hardlim((X*W)-Th) si el lector en éste
llamado “W”, que consta de dos datos punto está comprobando el resultado puede
aleatorios organizado en dos filas y una observar que aún la respuesta no es la
columna (2,1) deseada.
Para obtener la respuesta adecuada, se debe
2. Se establecen las entradas: La matriz de realizar el proceso varias veces hasta que la
entrada debe estar organizada de tal forma respuesta calculada “y” sea igual a la respuesta
que el número de entradas designa el número deseada “yd”
de columnas, las filas son designadas por las
posibilidades de combinación de las 4. Se actualizan los pesos, para ello se usa la
mencionadas entradas. En nuestro caso se función de la red neuronal planteada en la
pretende que la red se comporte como una Ecuación:
compuerta lógica de dos entradas. Esto indica
que el vector de entrada “X”, debe definirse en 𝑤𝑖 (𝑡 + 1) = 𝑤𝑖 (𝑡) + 𝛼[𝑑(𝑡) − 𝑦(𝑡)]𝑥𝑖 (𝑡)
Matlab como sigue: 0≤𝑖≤𝑁
X = [0 0; 0 1; 1 0; 1 1] Dicha ecuación se puede escribir en Matlab de
Se debe observar que al ejecutar esta línea de la siguiente manera:
código se genera una matriz de 2 columnas y
4 filas. Wn(k,1)=Wn(k,1)+(n*(X(i,k)*e(i,1)));
Luego se estableces el “BIas” o velocidad de
aprendizaje, esta es una constante entre 0 y 1, El ciclo que debe realizarse se debe detener
se puede definir usando el comando: Th=0.1, cuando el error sea menor a 1, como se puede
en éste caso el “Bias” tiene un valor de 0.1. observar el nuevo peso (Wn), se calcula a partir
del producto de la ganancia (α=n), por la
3. Calculo de la salida: Inicialmente se establece entrada (X(i,k)=xi(t)), por la diferencia entre la
la salida deseada, ésta debe estar conformada salida deseada (d(t)), menos la salida calculada
por un vector “Y” que contenga por cada (y(t)).

4
CIDE. Programa de electrónica.
.

El programa final, como se utilizó en Matlab ® hasta obtener la salida deseada, se establece el
fue: ciclo “for”, donde “T” es el número de
%1. Fijar pesos aleatorios iteraciones que el programa debe recalcular los
Wn=rand(2,1); pesos hasta obtener los adecuados para que la
%2. Establecer los valores de entrada neurona aprenda a resolver la compuerta OR.
X=[0 0; 0 1;1 0;1 1]; Se sugiere que el lector cambie las salidas
Th=0.1; %Bias o referencia del Perceptrón deseadas y revise el número de iteraciones que
%3. Calcular la salida de la neurona el Perceptrón requiere para obtener las
yd=[0;0;0;1]; respuestas a las compuertas AND.
y=hardlim((X*Wn)-Th);
plot(X,y),grid on, hold on 4 EJEMPLO DE APLICACION
e=yd-y; %Se calcula el error al restar la
salida deseada de la salida obtenida.
Como ejemplo de aplicación, se plantea el de
ed=0.1;% Se establece el error aceptado,
seleccionar una prenda de vestir, según sus
en éste caso 0.1
características en cuanto a la Calidad de la tela y Tipo
N=2; %se establecen las iteraciones,
de Tela. Para la categoría “Calidad” se establecen dos
pueden ser definidas por la velocidad de
estados, Buena =1, Baja =0; para la categoría “Tipo”, los
aprendizaje
estados son: No paño=0 y Paño=1.
%Aquí empieza el entrenamiento de la
neurona, se hace de manera recursiva La idea es que el Perceptrón seleccione dos
%W(i,j) i=fila; j= Columna opciones, por costos, ya que de otra manera se
n=0.9; %Factor de ganancia en el rango de excedería en el presupuesto asignado para la compra de
0.0 a 1.0 las prendas, de tal forma que cuando las categorías Tipo
ent=2; y Calidad sean las parejas ordenadas:
r=0; No Paño, Buena y Paño, Baja.
% Se inician los nuevos pesos Respectivamente, pero que no seleccione los
for T=1:N %Ciclo for correspondiente a las estados:
iteraciones del aprendizaje por refuerzo No Paño, Baja y Paño, Buena
if e==0 La situación se puede resumir en la Tabla 4.1:
break
else Tabla 4.1. Resumen situación selección de una
for i=1:4 %Ciclo for correspondiente a prenda
las filas según no de entradas i=filas
for k=1:ent %Ciclo for para Categoría de la Tela
Selección
actualizar pesos. k=columnas Tipo Calidad
Wn(k,1)=Wn(k,1)+(n*(X(i,k)*e(i,1))) No Paño Baja No
end No Paño Buena Si
yn(i,1)=(hardlim((X(i,1)*(Wn(1,1)- Paño Baja Si
Th))+((X(i,2)*Wn(2,1)-Th)))) Paño Buena No
%Función para calcular las nuevas
salidas. Ahora bien, si la Tabla 4.1 se interpreta en binario,
end se puede representar así:
e=yd-yn
M=e-ed Tabla 4.2. Selección de una prenda en binario.
T %si el error es mayor que la tolerancia
continua haciendo el proceso se define la T C S
velocidad de aprendizaje para aplicar la 0 0 0
forma de calcular nuevos peso
0 1 1
end
1 0 1
end
%5. Continua hasta que el error sea menor 1 1 0
que la tolerancia
La función que se ajusta al comportamiento de la
situación anterior es la de una compuerta tipo XOR, se
Se dejaron los comentarios para ubicar al lector sugiere revisar éste concepto si el lector no está
con respecto a los 5 pasos planteados en el familiarizado.
apartado anterior y el desarrollo de éste. Si se Para ello solo se debe modificar en el programa
quiere cambiar la salida deseada, solo se anterior el vector de salida deseada “yd”, y observar la
deben modificar los datos del vector “yd”, que salida que la neurona calcula, al finalizar el aprendizaje
para efectos del ejemplo, corresponde a una “yn”, analizar el error “M” y determinar el número de
compuerta OR y observar la respuesta en el iteraciones “T”, así cómo identificar los pesos en las
vector “yn”. entradas ajustados a la respuesta deseada, permite
identificar la velocidad de respuesta y la capacidad de
Para determinar el número de veces que la aprendizaje.
neurona tuvo que realizar el ajuste de los pesos

5
CIDE. Programa de electrónica.
.

Al ejecutar el programa con las modificaciones Available:


sugeridas anteriormente se obtienen los siguientes datos http://www.mathworks.com/help/nnet/ug/neuron-
de las variables analizadas: model.html?searchHighlight=neuron+model. [Último
Los pesos iniciales se asignan de forma aleatoria, acceso: 21 Octubre 2013].
como se observa en el código, mediante el comando: Ancizar Paredes Ardila
Wn =rand(2,1); el programa asigna los valores,
para éste caso:
Wn =
0.5688
0.4694
Docente de tiempo completo desde 2008 hasta la fecha,
Se debe aclarar que cada vez que el programa se en la CIDE; ha orientado las materias relacionadas con
ejecuta, los pesos iniciales cambian, pues estos valores la Ingeniería Electrónica, en los programas de
son aleatorios, los valores finales de este vector son los Tecnología en la institución. Docente Universitario en
que se ingresan a la función finalmente para que la Red UNIMINUTO y TEINCO donde se ha desempeñado en
Neuronal (RNA), se comporte ahora como una áreas afines a la disciplina de su titulación, Co-
compuerta XOR. investigador del grupo Neurociencia de la Universidad de
Antioquía, como pasante de Maestría; líder del grupo de
Investigación IARN-CIDE.
Docente en los niveles de formación del ciclo 5 en
5 CONCLUSIONES colegios del distrito. Bachiller Pedagógico, (Normal
Nacional para varones de Pamplona N de S) Ingeniero
A pesar de los múltiples recursos y programas que Electrónico (Universidad Antonio Nariño) y candidato a
se encuentran en torno a la implementación de un Máster en Tecnologías de la Información Aplicadas a la
algoritmo para implementar una Red Neuronal, muchos Educación (MTIAE-Universidad Pedagógica Nacional de
no explican ampliamente los pasos a seguir, éste es un Colombia).
ejercicio que permite al estudiante implementar un
Perceptrón de manera genérica.

A pesar de los esfuerzos por emular el


comportamiento de un Perceptrón, se debe aclarar que
para acercarse al comportamiento de una red neuronal
se debe implementar el procesamiento en paralelo, en
éste caso se usa un algoritmo secuencial, lo que debería
corregirse si se quiere realizar un ejercicio de
implementación más acertado, la mejor opción es usar
elementos de hardware para conseguir un resultado
aproximado.

Se debe tener especial cuidado al utilizar valores


adecuados para el Bias, ya que éste puede afectar el
comportamiento de la Red, toda vez que puede ofrecer
valores y comportamientos no adecuados, éste debe
estar entre 0 y 1 así como el factor de ganancia que se
observa en el programa de Matlab.

6 REFERENCIAS
[1] E. Marrero, «Página Profesor: Eddie Marrero,» Marzo
2005. [En línea]. Available:
http://academic.uprm.edu/eddiem/psic3001/id36.htm.
[Último acceso: 5 Febrero 2012].
[2] «Aldabas, Emiliano. Introducción al reconocimiento
de patrones mediante redes neuronales,» [En línea].
Available: www.eel.upc.es.. [Último acceso: 23 Marzo
2013].
[3] J. R. Hilera, Redes Neuronales Artificiales.
Fundamentos, Modelos y Aplicaciones, Madrid,
españa: Alfaomega, 1995.
[4] MathWorks, Inc., «Neuron Model,» 2013. [En línea].

View publication stats

También podría gustarte