Está en la página 1de 23

Minería de Datos

Métodos de Redes Neuronales

Equipo 7
Integrantes:
Luis Javier Iturbide Cruz 1622654
Pablo Esteban Verástegui Martínez 1754444
Ángel Eduardo Guzmán Medina 1595319
Robert Joaquín García Armijo 1664674
¿De donde comenzó el concepto?
Se estima que el cerebro humano contiene más de cien
mil millones (1011) de neuronas y más de diez mil
millones (1014 )de sinapsis en el sistema nervioso. Los
estudios realizados sobre la anatomía del cerebro
humano concluyen que hay, en general, más de 1000
sinapsis por término medio a la entrada y a la salida de
cada neurona.

El objetivo principal de las redes neuronales de tipo


biológico es desarrollar operaciones de síntesis y
procesamiento de información, relacionadas con los
sistemas biológicos.
¿Qué es?
El nombre, como se puede imaginar, viene de la idea de
imitar el funcionamiento de las redes neuronales de los
organismos vivos: un conjunto de neuronas conectadas
entre sí y que trabajan en conjunto, sin que haya una
tarea concreta para cada una.
Aplicaciones
Reconocimiento de imágenes
Análisis genético
Un poco de historia….

1958 – Perceptron
Entre las décadas de 1950 y 1960 el
científico Frank Rosenblatt, inspirado
en el trabajo de Warren McCulloch y
Walter Pitts creó el Perceptron, la
unidad desde donde nacería y se
potenciarían las redes neuronales
artificiales.
Los 1980s: aprendizaje automático

Para poder lograr que las redes de


neuronas aprendieran solas fue
necesario introducir un nuevo tipo de
neuronas. Las llamadas Neuronas
Sigmoides son similares al
1965 – Multilayer Perceptron perceptron, pero permiten que las
entradas, en vez de ser ceros o unos,
Es una «amplicación» del percepción puedan tener valores reales como 0,5
de una única neurona a más de una. ó 0,377 ó lo que sea.
Además aparece el concepto de capas
de entrada, oculta y salida.
1986 – Backpropagation

En es mismo año Gracias al algoritmo


de backpropagation se hizo posible
Redes Feedforward. Se les llama así a entrenar redes neuronales de
las redes en que las salidas de una multiples capas de manera
capa son utilizadas como entradas en supervisada. Al calcular el error
la próxima capa. Esto quiere decir obtenido en la salida e ir propagando
que no hay loops «hacia atrás». hacia las capas anteriores se van
Siempre se «alimenta» de valores haciendo ajustes pequeños
hacia adelante. (minimizando costo) en cada
iteración para lograr que la red
aprenda consiguiendo que la red
pueda.
1989 – Convolutional Neural Network 1997 Long Short Term Memory /
Las Convolutional Neural Networks son Recurrent Neural Network
redes multilayered que toman su
inspiración del cortex visual de los
Esta arquitectura permite conexiones
animales. Esta arquitectura es útil en
«hacia atrás» entre las capas. Esto las
varias aplicaciones,
hace buenas para procesar datos de tipo
principalmente procesamiento de
«time series» (datos históricos). En 1997
imágenes. La primera CNN fue creada
se crearon las LSTM que consisten en
por Yann LeCun y estaba enfocada en el
unas celdas de memoria que permiten a la
reconocimiento de letras manuscritas.
red recordar valores por períodos cortos o
largos.
2014 – Generative Adversarial Networks

La idea detrás de GAN es la de tener dos


2006 – Deep Belief Networks (DBN) modelos de redes neuronales
compitiendo. Uno, llamado Generador,
Hoy en día las DBN no se utilizan toma inicialmente «datos basura» como
demasiado, pero fueron un gran hito en la entrada y genera muestras. El otro
historia en el desarrollo del deep learning modelo, llamado Discriminador, recibe a
y permitieron seguir la exploración para la vez muestras del Generador y del
mejorar las redes existentes CNN, LSTM, conjunto de entrenamiento (real) y deberá
etc. ser capaz de diferenciar entre las dos
fuentes.
2014 – Generative Adversarial Networks

Estas dos redes juegan una partida


continua donde el Generador aprende a
producir muestras más realistas y el
Discriminador aprende a distinguir
entre datos reales y muestras
artificiales. 
FUNCIONES DE LAS REDES NEURONALES

• ASOCIACIÓN. DE ESPECIAL INTERÉS SON LAS DOS CLASES DE ASOCIACIÓN


AUTOASOCIACIÓN Y HETEROASOCIACIÓN. EL PROBLEMA DE LA AUTOASOCIACIÓN
ES RECUPERAR UN PATRÓN ENTERAMENTE, DADA UNA INFORMACIÓN PARCIAL DEL
PATRÓN DESEADO. LA HETEROASOCIACIÓN ES RECUPERAR UN CONJUNTO DE
PATRONES B, DADO UN PATRÓN DE ESE CONJUNTO.
• CLASIFICACIÓN. EN MUCHAS APLICACIONES DE CLASIFICACIÓN, POR EJEMPLO EN
RECONOCIMIENTO DE VOZ, LOS DATOS DE ENTRENAMIENTO CONSISTEN EN PARES
DE PATRONES DE ENTRADA Y SALIDA. EN ESTE CASO, ES CONVENIENTE ADOPTAR
LAS REDES SUPERVISADAS, COMO LAS REDES DE RETROPROPAGACIÓN. ESTE TIPO
DE REDES SON APROPIADAS PARA LAS APLICACIONES QUE TIENEN UNA GRAN
CANTIDAD DE CLASES CON LÍMITES DE SEPARACIÓN COMPLEJOS.
GENERALIZACIÓN
SE PUEDE EXTENDER A UN PROBLEMA DE INTERPOLACIÓN. EL SISTEMA ES
ENTRENADO POR UN GRAN CONJUNTO DE MUESTRAS DE ENTRENAMIENTO
BASADOS EN UN PROCEDIMIENTO DE APRENDIZAJE SUPERVISADO.

OPTIMIZACIÓN. LAS REDES NEURONALES SON HERRAMIENTAS INTERESANTES


PARA LA OPTIMIZACIÓN DE APLICACIONES, QUE NORMALMENTE IMPLICAN LA
BÚSQUEDA DEL MÍNIMO ABSOLUTO DE UNA FUNCIÓN DE ENERGÍA. PARA
ALGUNAS APLICACIONES, LA FUNCIÓN DE ENERGÍA ES FÁCILMENTE DEDUCIBLE;
PERO EN OTRAS, SIN EMBARGO, SE OBTIENE DE CIERTOS CRITERIOS DE COSTE Y
LIMITACIONES ESPECIALES.
DIAGRAMA DE UNA RED NEURONAL
Las redes neuronales permiten buscar la
combinación de parámetros que mejor se ajusta a
un determinado problema.
Gradiante
descendiente
Ajuste del error
BIBLIOGRAFÍAS

 HTTPS://WWW.APRENDEMACHINELEARNING.COM/BREVE-HISTORIA-DE-LAS-REDE
S-NEURONALES-ARTIFICIALES/
 HTTP://HALWEB.UC3M.ES/ESP/PERSONAL/PERSONAS/JMMARIN/ESP/DM/TEMA3DM.
PDF
 HTTPS://WWW.XATAKA.COM/ROBOTICA-E-IA/LAS-REDES-NEURONALES-QUE-SON-
Y-POR-QUE-ESTAN-VOLVIENDO
GRACIAS POR SU ATENCIÓN

También podría gustarte