Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Entre ellas se encuentran las redes neuronales, los sistemas difusos y los
algoritmos genticos, entre otros.
Introduccin:
Detection of the Tiredness Level of Drivers Using Machine Vision Techniques. Robinson Jimnez M.,
Flavio Prieto, Victor H. Grisales. Congreso de Electrnica, Robtica y Mecnica Automotriz-CERMA
2011. Cuernavaca - Mxico .
Video surveillance for monitoring driver's fatigue and distraction , Robinson Jimnez, Flavio Prieto,
Victor H. Grisales. Optics, Photonics, and Digital Technologies for Multimedia Applications 2012 Bruselas-
Blgica .
Ejemplo Introduccin
Detection of the Tiredness Level of Drivers Using Machine Vision Techniques. Robinson Jimnez M.,
Flavio Prieto, Victor H. Grisales. Congreso de Electrnica, Robtica y Mecnica Automotriz-CERMA
2011. Cuernavaca - Mxico .
El problema con las redes multicapa
Una red neuronal puede tener ms de una capa oculta: en ese caso, las capas superiores
estn "construyendo" nuevas abstracciones en la parte superior de las capas anteriores.
Sin embargo, el aumento del nmero de capas ocultas conduce a dos problemas
conocidos:
1011 Neuronas
1014 Sinapsis
Red neuronal Compleja
El aprendizaje modifica la sinapsis
De forma simultanea un 1% de neuronas se activan simultneamente
(109 Neuronas).
Arquitectura en mltiples capas V1.Vn, red profunda.
Motivaciones del Deep Learning
Donde W representa los pesos de conexin entre las variables ocultas y las visibles,
b y c representa offsets de cada tipo de variable.
Convolutional Neural Networks
La capa de entrada tpica de una red neuronal convolucional corresponde a un
grupo de mapas de caractersticas, cada mapa se obtiene por la aplicacin repetida
de una funcin a travs de sub-regiones de toda la imagen de entrada. Es decir se
realiza la convolucin de la imagen de entrada con un filtro lineal sometida
posteriormente a una funcin no lineal. En (3) se establece la relacin matemtica
para el clculo de pesos en el k-simo mapa de caractersticas, de una capa
determinada y denotada hk, los filtros de este mapa se determinan por los pesos
Wk y el bias correspondiente bk, de forma anloga al procedimiento de
entrenamiento de una red tipo perceptron.
CCN: conclusin
Se mantiene el concepto de capas, pero cada neurona de
una capa no recibe conexiones entrantes de todas las
neuronas de la capa anterior, sino slo de algunas. Esto
favorece que una neurona se especialice en una regin de
la lista de nmeros de la capa anterior, y reduce
drsticamente el nmero de pesos y de multiplicaciones
necesarias. Lo habitual es que dos neuronas consecutivas
de una capa intermedia se especialicen en regiones
solapadas de la capa anterior.
Cuanto mayor es la entrada ms pesos hay que
entrenar, y ms lento es todo el proceso de
entrenamiento. Si tenemos imgenes de 10001000
pixeles, y utilizamos 1000 neuronas en la capa oculta,
necesitaramos entrenar 2000 millones de pesos,
mientras que si utilizamos parches de 88 y utilizamos
100 neuronas en la capa oculta, entrenamos slo
12800 pesos.
Convolutional Neural Networks
Una red neuronal convolucional trabaja con imgenes directas para
clasificarlas, aprendiendo las caractersticas propias para determinar su
clasificacin, aprendizaje de principio a fin.
Filtro de convolucin forman estructuras simples de segmentos verticales y horizontales,
que generan caractersticas nicas de reconocimiento del objeto deseado el tamao y
numero de cada filtro es uno de los hiperparametros de la capa de convolucin. El filtro
por cada posicin calcula el valor escalar sobre el volumen de entrada y se suma cada
resultado, generndose diferentes mapas de asignacin para cada filtro, los valores de los
filtros son aprendidos por la red, activndose al ser sometidos a dichas caractersticas
(reconocimiento del objeto).
La figura muestra los volmenes de entrada y de salida para la capa de convolucion, que se
conforma por k filtros 3D de dimensiones Hk y Wk.
La altura y anchura F se asume pero no requiere ser simtrica, la profundidad del filtro es D1
Stride : intervalo desde el cual aplicar los filtros al volumen de entrada
Zero padding o relleno con ceros, extiende los lados con ceros.
Las dimensiones del volumen de salida se calculan con:
Capa ReLU (Unidad lineal rectificada) no aade complejidad es un capa de funcin de activacin,
por medio de una rampa por ejemplo:
Pooling opera independiente por capa y reduce progresivamente el tamao de las capas
mediante los mtodos del mximo o del promedio. Por ejemplo, para un filtro 2X2 con stride =2
se tiene:
Entrenamiento de la red:
Requiere base de datos de entrada, deben ser homogneos, miles a millones de imgenes
etiquetadas, datos pequeos producen sobreajuste.
Data aumentation: recortar, rotar e invertir imgenes para aumentar datos.
Establecer la arquitectura de la red, nmero de capas (profundidad).