Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Fecha:02/02/2021
Las redes neuronales fueron un área importante de investigación tanto en neurociencia como
en ciencias de la computación hasta 1969, cuando, según la tradición de la ciencia de la
computación, fueron asesinadas por los matemáticos del MIT Marvin Minsky y Seymour
Papert, quienes un año más tarde se convertirían en codirectores de la nuevo Laboratorio de
Inteligencia Artificial del MIT.
Las redes neuronales son un medio de hacer aprendizaje automático, en el que una
computadora aprende a realizar una tarea analizando ejemplos de entrenamiento. Por lo
general, los ejemplos se han etiquetado a mano por adelantado. Un sistema de
reconocimiento de objetos, por ejemplo, podría alimentar miles de imágenes etiquetadas de
automóviles, casas, tazas de café, etc., y encontraría patrones visuales en las imágenes que se
correlacionan consistentemente con etiquetas particulares.
Modelada libremente en el cerebro humano, una red neuronal consta de miles o incluso
millones de nodos de procesamiento simples que están densamente interconectados. La
mayoría de las redes neuronales de hoy en día están organizadas en capas de nodos, y son
"feed-forward", lo que significa que los datos se mueven a través de ellas en una sola
dirección. Un nodo individual puede estar conectado a varios nodos en la capa debajo de él,
desde donde recibe datos, y a varios nodos en la capa superior, a los que envía datos.