Está en la página 1de 20

UNIVERSIDAD AUTNOMA DE NUEVO LEN

FACULTAD DE CONTADURA PBLICA Y


ADMINISTRACIN

Maestro: Dr. Klender Aimer Cortez Alejandro

Materia: Seminario de Finanzas

Sesin 8
Nombres
Alumno: Brandon Alejandro Cant Aguirre
Alumno: Angel Eduardo Vargas Lpez

1479443
1496315

Investigacin

Redes Neuronales Artificiales.

Ciudad Universitaria, San Nicols de los Garza, Nuevo Len, lunes 26 de Octubre 2015

ndice.
Introduccin

Pg. 3

Justificacin e importancia del tema

Pag.4

Objetivos

Pag.5

Definicin

Pag.5

Historia

Pag.6

Definicin y elementos que la componen

Pag.11

Clasificacin

Pag.14

Aplicacin en las finanzas

Pag.18

Conclusiones

Pag.19

Bibliografa.

Pag.20

Introduccin.

En la ltima dcada las Redes Neuronales Artificiales (ANN) han recibido un


inters particular como una tecnologa para minera de datos, puesto que ofrece
los medios para modelar de manera efectiva y eficiente problemas grandes y
complejos. Los modelos de ANN son dirigidos a partir de los datos, es decir, son
capaces de encontrar relaciones (patrones) de forma inductiva por medio de los
algoritmos de aprendizaje basado en los datos existentes ms que requerir la
ayuda de un modelador para especificar la forma funcional y sus interacciones.
Las ANN son un mtodo de resolver problemas, de forma individual o
combinadas

con

otros

mtodos,

para

aquellas

tareas

de

clasificacin,

identificacin, diagnstico, optimizacin o prediccin en las que el balance


datos/conocimiento se inclina hacia los datos y donde, adicionalmente, puede
haber la necesidad de aprendizaje en tiempo de ejecucin y de cierta tolerancia a
fallos.
En estos casos las RNAs se adaptan dinmicamente reajustando
constantemente los pesos de sus interconexiones.
Las ANN se basan en la analoga que existe en el comportamiento y funcin
del cerebro humano, en particular del sistema nervioso, el cual est compuesto
por

redes

de

neuronas

biolgicas que

poseen

bajas

capacidades

de

procesamiento, sin embargo toda su capacidad cognitiva se sustenta en la


conectividad de stas. La unidad de una red neuronal artificial es un procesador
elemental llamado neurona que posee la capacidad limitada de calcular, en
general, una suma ponderada de sus entradas y luego le aplica una funcin de
activacin para obtener una seal que ser transmitida a la prxima neurona.

Estas neuronas artificiales se agrupan en capas o niveles y poseen un alto


grado de conectividad entre ellas, conectividad que es ponderada por los pesos. A
travs de un algoritmo de aprendizaje supervisado o no supervisado, las ANN
ajustan su arquitectura y parmetros de manera de poder minimizar alguna
funcin de error que indique el grado de ajuste a los datos y la capacidad de
generalizacin de las ANN. Existe un gran nmero de arquitecturas neuronales,
sin embargo, en este proyecto mostraremos dos de las arquitecturas ms
famosas, las redes feedforward y los mapas auto organizativos.
Justificacin.
Este tema es muy importante ya que las redes neuronales son una rama de la
inteligencia artificial, y el conocimiento se incorpora mediante el aprendizaje a
partir de ejemplos.
Estas redes son ampliamente utilizadas en la actualidad, por ejemplo para el
escaneo de imgenes, reconocimiento de patrones, problemas de optimizacin,
clasificacin de datos financieros, apoyo al diagnstico mdico, etc.
Un computador convencional es el nico capaz de realizar complicadas
operaciones lgicas y aritmticas de una forma muy rpida, mucho ms que el
cerebro humano.
Por esta razn es importante este tema, ya que algunos cientficos han vuelto
la vista hacia el cerebro tratando de estudiarlo desde el punto de vista de la
computacin.
Las redes neuronales operan sobre la base de reconocimiento de patrones y
pueden adquirir, almacenar y utilizar conocimiento experimental.

Objetivos.
Estos mtodos estn orientados a resolver problemas donde es necesario
manejar informacin masiva, imprecisa, incierta o distorsionada propia del mundo
real (tomada de decisiones, reconocimiento de formas, habla, etc.).
Algunos de estos son la lgica borrosa o difusa (fuzzylogic), las redes
neuronales artificiales, los algoritmos genticos, la teora del caos y la teora del
aprendizaje.

Siendo todos estos enfoques diferentes, existe una tendencia a

buscar combinaciones entre ellos, de mande que a cada aspecto de los problemas
reales que deban ser resueltos se les aplica la tcnica que resulta ms apropiada.
Definicin.
Existe actualmente una gran tendencia a establecer un nuevo campo de
la computacin que

integrara

los

diferentes mtodos de

resolucin

de problemas que no pueden ser descritos fcilmente mediante un enfoque


algortmico tradicional. Estos mtodos tienen su origen en la emulacin
de sistemas biolgicos.
Las redes de neuronas artificiales (denominadas habitualmente como RNA o
en ingls como:

"ANN")

son

un paradigma de aprendizaje

y procesamiento

automtico inspirado en la forma en que funciona el sistema nervioso de los


animales. Se trata de un sistema de interconexin de neuronas que colaboran
entre s para producir un estmulo de salida. En inteligencia artificial es frecuente
referirse a ellas como redes de neuronas o redes neuronales.

Historia.
En 1943, el neurobilogo Warren McCulloch, y el estadstico Walter Pitss,
publicaron el artculo "A logical calculus of Ideas Imminent in Nervous Activity".
Este artculo constituy la base y el inicio del desarrollo en diferentes campos
como son los Ordenadores Digitales (John Von Neuman), la Inteligencia Artificial
(Marvin Minsky con los Sistemas Expertos) y el funcionamiento del ojo (Frank
Rosenblatt con la famosa red llamada Perceptron).
En 1956, los pioneros de la Inteligencia Artificial, Minsky, McCarthy, Rochester,
Shanon, organizaron la primera conferencia de Inteligencia Artificial que fue
patrocinada por la Fundacin Rochester. Esta conferencia se celebr en el verano
de 1956 en la localidad inglesa de Darmouth y en muchos libros se hace
referencia al verano de este ao como la primera toma de contacto seria con las
redes neuronales artificiales. Nathaural Rochester del equipo de investigacin de
IBM present el modelo de una red neuronal que l mismo realiz y puede
considerarse como el primer software de simulacin de redes neuronales
artificiales.
En 1957, Frank Rosenblatt public el mayor trabajo de investigacin en
computacin neuronal realizado hasta esas fechas. Su trabajo consista en el
desarrollo de un elemento llamado "Perceptron". El perceptron es un sistema
clasificador de patrones que puede identificar patrones geomtricos y abstractos.
El primer perceptron era capaz de aprender algo y era robusto, de forma que su
comportamiento variaba slo si resultaban daados los componentes del sistema.
6

Adems presentaba la caracterstica de ser flexible y comportarse correctamente


despus de que algunas celdas fueran destruidas.
El perceptron fue originalmente diseado para el reconocimiento ptico de
patrones. Una rejilla de 400 fotoclulas, correspondientes a las neuronas de la
retina sensibles a la luz, recibe el estmulo ptico. Estas fotoclulas estn
conectadas a elementos asociativos que recogen los impulsos elctricos emitidos
desde las fotoclulas. Las conexiones entre los elementos asociativos y las
fotoclulas se realizan de forma aleatoria. Si las clulas presentan un valor de
entrada superior a un umbral predeterminado entonces el elemento asociativo
produce una salida. La Figura (1.4) presenta la estructura de la red perceptron.

El perceptron presenta algunas limitaciones debido a que se trataba de un


dispositivo en desarrollo. La mayor limitacin la reflejaron Minsky y Papert aos
ms tarde, y ponan de manifiesto la incapacidad del perceptron en resolver
algunas tareas o problemas sencillos como por ejemplo la funcin lgica OR
exclusivo. Uno de los mayores cambios realizados en el perceptron de

Rossenblatt a lo largo de la dcada de los 60 ha sido el desarrollo de sistemas


multicapa que pueden aprender y categorizar datos complejos.
En 1959, Bernard Widrow en Stanford desarroll un elemento adaptativo lineal
llamado "Adaline" (Adaptive Linear Neuron). La Adaline y una versin de dos
capas, llamada "Madaline", fueron utilizadas en distintas aplicaciones como
reconocimiento de voz y caracteres, prediccin del tiempo, control adaptativo y
sobre todo en el desarrollo de filtros adaptativos que eliminen los ecos de las
lneas telefnicas.
A mediados de los aos 60, Minsky y Papert pertenecientes al Laboratorio de
Investigacin de Electrnica del MIT (Massachussets Institute Technology)
comenzaron un trabajo profundo de crtica al perceptron. El resultado de este
trabajo, el libro Perceptrons, era un anlisis matemtico del concepto del
perceptron.

La conclusin de este trabajo, que se transmiti a la comunidad

cientfica del mundo entero, es que el Perceptron y la Computacin Neuronal no


eran temas interesantes que estudiar y desarrollar. A partir de este momento
descendieron drsticamente las inversiones en la investigacin de la computacin
neuronal. Uno de los pocos investigadores que continuaron con su trabajo en la
computacin neuronal tras la publicacin del libro Perceptrons fue James
Anderson. Su trabajo se bas en el desarrollo de un modelo lineal que consiste en
un modelo asociativo distribuido basado en el principio de Hebb (las conexiones
son reforzadas cada vez que son activadas las neuronas). Una versin extendida
de este modelo lineal es el llamado modelo Brain-State-in- a Box (BSB). Teuvo
Kohonen, de la Universidad de Helsinki, es uno de los mayores impulsores de la
computacin neuronal de la dcada de los 70. De su trabajo de investigacin
8

destacan dos aportaciones: la primera es la descripcin y anlisis de una clase


grande de reglas adaptativas, reglas en las que las conexiones ponderadas se
modifican de una forma dependiente de los valores anteriores y posteriores de las
sinapsis.
Y la segunda aportacin es el principio de aprendizaje competitivo en el que los
elementos compiten por responder a un estmulo de entrada, y el ganador se
adapta l mismo para responder con mayor efecto al estmulo.
Otro investigador que continu con su trabajo de investigacin en el mundo de
la computacin neuronal a pesar del mal presagio que indicaron Minsky y Papert
fue Stephen Grossberg. Grossberg estaba especialmente interesado en la
utilizacin de datos de la neurologa para construir modelos de computacin
neuronal. La mayora de sus reglas y postulados derivaron de estudios
fisiolgicos. Su trabajo ha constituido un gran impulso en la investigacin del
diseo y construccin de modelos neuronales. Una de estas clases de redes es la
Adaptive Resonance Theory (ART). En 1982 John Hopfield con la publicacin del
artculo Hopfield Model o Crossbar Associative Network, junto con la invencin del
algoritmo Backpropagation se consigui devolver el inters y la confianza en el
fascinante campo de la computacin neuronal tras dos dcadas de casi absoluta
inactividad y desinters. Hopfield presenta un sistema de computacin neuronal
consistente en elementos procesadores interconectados que buscan y tienden a
un mnimo de energa. Esta red con este tipo de funcin de energa y mecanismo
de respuesta no es ms que un caso de la clase genrica de redes que consider
Grossberg.
Investigacin de hoy en da.
9

Existen muchos grupos con sede en diferentes universidades de todo el mundo


que estn realizando trabajos de investigacin en el rea de las redes neuronales
artificiales. Cada grupo tiene diferente nfasis y motivacin con los neurlogos,
psiclogos del conocimiento, fsicos, programadores y matemticos. Todos ellos
ofrecen nuevos puntos de vista e intuiciones en esta rea de la tcnica.
Grossberg continua trabajando en compaa de Carpenter en la Universidad de
Boston, mientras Teuvo Kohonen est en la Universidad de Helsinki. Uno de los
mayores grupos de investigacin de los ltimos aos ha sido el grupo PDP
(Parallel Distributed Processing) formado por Rumelhart, McClelland y Hinton.
Rumelhart de la Universidad de Stanford es uno de los principales impulsores de
la red ms utilizada en la mayora de las aplicaciones actuales, la famosa red
neuronal Backpropagation.
En la Universidad de Carnegie-Mellon, el grupo de investigacin a la cabeza
con McClelland destaca por el estudio de las posibles aplicaciones de la
Backpropagation.
Y en la Universidad de Toronto, Hinton y Sejnowski han desarrollado una
mquina llamada Boltzman que consiste en la red de Hopfield con dos
modificaciones significativas. Bart Kosko ha diseado una red llamada BAM
(Bidirectional Associate Memory) basado en la red de Grossberg. Por ltimo
indicar la existencia de grandes grupos de investigacin como los de California
Institute of Technology, Massachussets Institute of Technology, University of
California Berkeley y University of California San Diego.
Conviene no olvidar el esfuerzo econmico y tcnico que estn realizando las
empresas privadas tanto en USA como en Japn y en la Comunidad Econmica
10

Europea. Como botn de muestra de las inversiones en estos pases baste


conocer que slo en USA se gasta ms de 100 millones de dlares al ao.

Definicin y elementos que la componen.


Una red neuronal artificial (ANN) es un esquema de computacin distribuida
inspirada en la estructura del sistema nervioso de los seres humanos.
Son modelos que intentan reproducir el comportamiento del cerebro. Como
tal modelo, realiza una simplificacin, averiguando cules son los elementos
relevantes del sistema, bien porque la cantidad de informacin de que se dispone
es excesiva o bien porque es redundante. Una eleccin adecuada de sus
caractersticas, ms una estructura conveniente, es el procedimiento convencional
utilizado para construir redes capaces de realizar determinada tarea.
1. Unidad de proceso: La neurona Artificial. Existen tres tipos de unidades en
cualquier sistema: entradas, salidas y ocultas. Las unidades de entrada
reciben seales desde el entorno; las de salida envan la seal fuera de
la red, y las unidades ocultas son aquellas cuyas entradas y salidas se
encuentran dentro del sistema.
Se conoce como capa o nivel a un conjunto de neuronas cuyas entradas
provienen de la misma fuente y cuyas salidas se dirigen al mismo destino
2. estado de Activacin. Los estados del sistema en un tiempo t se
representan por un vector A(t). Los Valores de activacin pueden ser
continuos o discretos, limitados o ilimitados. Si son discretos, suelen tomar
un conjunto discreto de valores binarios, as un estado activo se indicara
11

con un 1 y un estado pasivo se representara por un cero. En otros modelos


se considera un conjunto de estados de activacin, en cuyo valor entre
[0,1], o en el intervalo [-1,1], siendo una funcin sigmoidal.
3. Funcin de Salida o de Transferencia. Asociada con cada unidad hay una
funcin de salida, que transforma el estado actual de activacin en una
seal de salida.
Existen cuatro funciones de transferencia tpicas que determinan distintos
tipos de neuronas:
Funcin Escaln
Funcin Lineal y Mixta
Sigmoidal
Funcin Gaussiana
4. . Conexiones entre neuronas. Las conexiones que unen a las neuronas que
forman una RNA tiene asociado un peso, que es el que hace que la red
adquiera conocimiento. Se considera que el efecto de cada seal es aditivo,
de tal forma que la entrada neta que recibe una neurona es la suma
del producto de cada seal individual por el valor de la sinapsis que conecta
ambas neuronas y es lo que se conoce como red de propagacin. Se utiliza
una matriz W con todos los pesos, Si wji es positivo indica que la relacin
entre las neuronas es excitadora, es decir, siempre que la neurona i est
activada, la neurona j recibir una seal que tender a activarla. Si wji es
negativo, la sinapsis ser inhibidora. En este caso si i est activada, enviar
una seal que desactivar a j. Finalmente si wji es 0 se supone que no hay
conexin entre ambas
5. . Funcin o Regla de Activacin. Se requiere una regla que combine las
entradas con el estado actual de la neurona para producir un nuevo estado
de activacin. Esta funcin F produce un nuevo estado de activacin en una

12

neurona a partir del estado que exista y la combinacin de las entradas con
los pesos de las conexiones.
Es importante sealar que la propiedad ms importante de las redes
neuronales artificiales es su capacidad de aprender a partir de un conjunto de
patrones de entrenamientos, es decir, es capaz de encontrar un modelo que ajuste
los datos. El proceso de aprendizaje tambin conocido como entrenamiento de la
red puede ser supervisado o no supervisado. El aprendizaje supervisado consiste
en entrenar la red a partir de un conjunto de datos o patrones de entrenamiento
compuesto por patrones de entrada y salida. El objetivo del algoritmo de
aprendizaje es ajustar los pesos de la red w de manera tal que la salida generada
por la ANN sea lo ms cercanamente posible a la verdadera salida dada una cierta
entrada.
Este aprendizaje se llama supervisado pues se conoce el patrn de salida el
cual hace el papel de supervisor de la red. En cambio en el aprendizaje no
supervisado se presenta slo un conjunto de patrones a la ANN, y el objetivo del
algoritmo de aprendizaje es ajustar los pesos de la red de manera tal que la red
encuentre alguna estructura o configuracin presente en los datos.
La arquitectura de una red neuronal es formada conectando mltiples
procesadores elementales, siendo ste un sistema adaptivo que posee un
algoritmo para ajustar sus pesos (parmetros libres) para alcanzar los
requerimientos de desempeo del problema basado en muestras representativas.
Por lo tanto podemos sealar que una ANN es un sistema de computacin
distribuida caracterizada por:

13

Un conjunto de unidades elementales, cada una de las cuales posee bajas

capacidades de procesamiento.
Una densa estructura interconectada usando enlaces ponderados.
Parmetros libres que deben ser ajustados para satisfacer

requerimientos de desempeo.
Un alto grado de paralelismo.

los

Clasificacin.
La topologa o arquitectura de una red consiste en la organizacin y disposicin
de las neuronas en la red. Las neuronas se agrupan formando capas, que pueden
tener muy distintas caractersticas. Adems las capas se organizan para formar la
estructura de la red. Se puede observar en la siguiente figura.
La jerarqua de las redes neuronales:

Donde podemos ver que las neuronas se agrupan para formar capas y las
capas se unen entre ellas formando redes neuronales. Para clasificar por la
topologa usaremos el nmero de capas en redes monocapas o redes multicapas.

Las redes monocapa son redes con una sola capa. Para unirse las
neuronas crean conexiones laterales para conectar con otras neuronas de
su capa. Las redes ms representativas son la red de Hopfield, la red
BRAIN-STATE-IN-A-BOX o memoria asociativa y las maquinas estocsticas
de Botzmann y Cauchy.
14

Entre las redes neuronales monocapa, existen algunas que permiten que
las neuronas tengan conexiones a si mismas y se denominan auto
recurrentes.

Las redes monocapa han sido ampliamente utilizada en circuitos elctricos


ya que debido a su topologa, son adecuadas para ser implementadas
mediante hardware, usando matrices de diodos que representan las

conexiones de las neuronas.


Las redes multicapa estn formadas por varias capas de neuronas (2,3...).
Estas redes se pueden a su vez clasificar atendiendo a la manera en que
se conexionan sus capas.
Usualmente, las capas estn ordenadas por el orden en que reciben la
seal desde la entrada hasta la salida y estn unidas en ese orden. Ese tipo
de conexiones se denominan conexiones feedforward o hacia delante.
Por el contrario existen algunas redes en que las capas aparte del orden
normal algunas capas estn tambin unidas desde la salida hasta la
entrada en el orden inverso en que viajan las seales de informacin. Las
conexiones de este tipo se llaman conexiones hacia atrs, feedback o
retroalimentadas.
Redes con conexiones hacia adelante:
Como decamos antes, Este tipo de redes contienen solo conexiones
entre capas hacia delante. Esto implica que una capa no puede tener

15

conexiones a una que reciba la seal antes que ella en la dinmica de la


computacin. Ejemplos de estas redes son Perceptron, Adaline,

Madaline, Backpropagation y los modelos LQV y TMP de Kohonen.


Redes con conexiones hacia atrs:
Este tipo de redes se diferencia en las anteriores en que si pueden existir
conexiones de capas hacia atrs y por tanto la informacin puede
regresar a capas anteriores en la dinmica de la red. Este Tipo de redes
suelen ser bicapas. Ejemplos de estas redes son las redes ART,
Bidirectional Associative Memory (BAM) y Cognitron

Clasificacin respecto al aprendizaje.


El aprendizaje se basa en el entrenamiento de la red con patrones, que
usualmente son llamados patrones de muestra o entrenamiento. El proceso usual
del algoritmo es que la red ejecuta los patrones iterativamente, cambiando los
pesos de las sinapsis, hasta que convergen a un conjunto de pesos ptimos que
representan a los patrones lo suficientemente bien, entonces mostrar una
respuesta satisfactoria para esos patrones. Esto es, sus pesos sinpticos se
ajustan para dar respuestas correctas al conjunto de patrones de entrenamiento
que le hemos mostrado.
Sin embargo, hay que destacar que algunas redes no tienen un aprendizaje
iterativo como el descrito en el prrafo anterior de presentar los patrones una y
otra vez hasta que la red se establece para dar resultados correctos.
Si no que los pesos de las sinapsis son calculados previamente a partir de los
patrones, como en la red de Hopfield. Podemos distinguir tres tipos de aprendizaje

16

El modo ms intuitivo es el Aprendizaje supervisado, que consiste en que la


red dispone de los patrones de entrada y los patrones de salida que
deseamos para esa entrada y en funcin de ellos se modifican los pesos de

las sinapsis para ajustar la entrada a esa salida.


Otro modo de aprendizaje, Aprendizaje no supervisado, consiste en no
presentar patrones objetivos, sino solo patrones de entrada, y dejar a la red
clasificar dichos patrones en funcin de las caractersticas comunes de los

patrones.
Existe otro tipo de aprendizaje, que usa una formula hbrida, el supervisor
no ensea patrones objetivos si no que solo le dice se acierta o falla en su
respuesta ante un patrn de entrada. Es el aprendizaje reforzado.

Red Neuronal Feedforward


Las redes neuronales feedforward (FANN) corresponde a la clase de ANN ms
estudiada por el mbito cientfico y la ms utilizada en los diversos campos de
aplicacin. Las diferentes clases de ANN se distinguen entre s por los siguientes
elementos:

Las neuronas o nodos que constituye el elemento bsico de procesamiento.


La arquitectura de la red descrita por las conexiones ponderadas entre los

nodos.
El algoritmo de entrenamiento, usado para encontrar los parmetros de la
red.
Arquitectura de una FANN Morfolgicamente, las FANN consisten en un
conjunto de neuronas organizadas en capas como se muestra en la figura

17

Aplicacin en las finanzas.


Las caractersticas especiales de los sistemas de computacin neuronal
permiten que sea utilizada esta nueva tcnica de clculo en una extensa variedad
de aplicaciones.
Modelos Econmicos y Financieros: una de las aplicaciones ms importantes
del modelado y pronstico es la creacin de pronsticos econmicos como por
ejemplo los precios de existencias, la produccin de las cosechas, el inters de las
cuentas, el volumen de las ventas etc. Las redes neuronales estn ofreciendo
mejores

resultados

en

los

pronsticos

financieros

que

los

mtodos

convencionales.

Conclusiones.
18

Ya al terminar el trabajo, y haber visto toda esta informacin en lo que respecta


las Redes Neuronales Artificiales, es necesario comprender que para resolver con
eficiencia un problema, este debe de comprenderse bien, debe de descomponerse
en partes para su debido entendimiento, usar o ensayar posibles resultados con
diferentes mtodos, pueden ser neuronales o no, pero usar estos cuando el
problema en verdad no sea comprendido del todo.
Ningn software resolver los problemas, es imposible, solamente entrenara la
red neuronal empleando ciertos algoritmos, la experiencia en la resolucin de
problemas con esta tcnica es de suma utilidad, pero la compresin del problema
es determinante.
Es necesario resaltar la significacin e importancia que las redes neuronales
estn adquiriendo en la actualidad como lo evidencia el hecho de formar parte de
los estudios centrales de instituciones gubernamentales a nivel mundial. As que la
intencin principal es profundizar en esta nueva tecnologa, aprovechando el
hecho de que ser est una materia en cursos posteriores en el transcurso de mi
carrera, para as lograr un alto grado de aprendizaje y con l la implementacin
practica de alguna red neuronal.

Bibliografas.

19

H. Allende, C. Moraga y R. Salas (2002). Artificial Neural Networks in Time Series


Forecasting: A Comparative Analysis". Kybernetika, Volume 38, number 6, pages
685-707. ISIISSN: 0023-5954
P. Viuela y I.M. Galvn (2003) Redes de Neuronas Artificiales". Editorial:
Pearson Prentice Hall ISBN: 84-205-4025-0
B. del Bro & A. Sanz Molina (2001) Redes Neuronales y Sistemas Borrosos ".
Editorial: RA-MA, 2 Edicin 2001, 84-7897-466-0
X. Basogain Olabe (1998) Redes Neuronales Artificiales y sus Aplicaciones Redes
Neuronales Artificiales y sus Aplicaciones" Formato Impreso: Publicaciones de la
Escuela de Ingenieros, Formato html: Campus Virtual-Material Docente-Curso
RNA.
Rodrigo Salas. (2009). Redes Neuronales Artificiales. Octubre 23, 2015, de
Universidad de Valparaso Sitio web:
http://www.inf.utfsm.cl/~rsalas/Pagina_Investigacion/docs/Apuntes/Redes
%20Neuronales%20Artificiales.pdf
Villanueva Espinoza y M. del rosario (2002) Las Redes neuronales artificiales y su
importancia como herramienta en la toma de decisiones. Sitio web:
http://sisbib.unmsm.edu.pe/bibvirtual/tesis/Basic/Villanueva_EM/Contenido.htm

20

También podría gustarte