Documentos de Académico
Documentos de Profesional
Documentos de Cultura
RESUMEN
ABSTRACT
Recent model learning techniques based on deep learning with artificial intelligence are
expected to achieve high recognition rates. But the process of preparing training and test image
sets, the number and complexity of the networks that implement them, and the number of
parameters to be evaluated make their use difficult in a comparative way. The neural networks
used in deep learning are made up of multiple layers of neurons, which simulate the functions of
the cerebral cortex, the cerebellum or the human retina. Each layer allows new features to be
INTRODUCCIÓN
Las técnicas de aprendizaje profundo (deelearning) tienen como objetivo automatizar este
proceso de abstracción, creando nuevas abstracciones además de las existentes. La topología de
red neuronal más común consta de varias capas, cada una de las cuales recibe como entrada la
salida de la capa anterior. De esta forma se implementa un sistema modular donde cada capa
proporciona un mayor nivel de abstracción con respecto a la entrada que recibe la red neuronal.
El nivel de abstracción de una red neuronal multicapa le permite elegir, en cada momento,
características comunes de los ejemplos que tiene que identificar, características que ha
diseñado explícitamente. Al mismo tiempo, la red puede ignorar pequeños cambios locales
específicos de cada instancia en particular, manteniendo efectivamente la esencia de la clase a la
que pertenece la instancia.
Las técnicas de deep learning parten de la idea base de que, si somos capaces de aprender con
éxito múltiples niveles de representación, podremos generalizar correctamente. En lugar de
depender de un algoritmo que se limite a extraer características concretas de los datos
disponibles, el deep learning proporciona herramientas que nos permiten construir
características a partir de otras características.
MATERIALES Y MÉTODOS
Material
A. Imágenes de números.
B. Etiquetas.
Metodología
A. Analisis de entradas (inputs): imagen en pixeles.
B. Evaluación de pixel valor.
C. Identificiación de bordes.
D. Combinación de los bordes (formas)
E. Identificación de características.
F. Combinación de características identificadas.
G. Salida (outpout) imagen identificada y número acertado.
RESULTADOS
Para la evaluación de las imágenes se deben de tener imágenes de los números, los cuales deben
ser separados en píxeles, para lo cual es necesario tomar tomar su valor en escala de grises
donde 0 es un píxel totalmente negro y 255 totalmente blanco, asi mismo las imágenes deben de
tner una resolución de 28 por 28 píxeles, al escoger una imagen con una resolución de 28 por 28
píxeles , se tendra imágenes de 784 píxeles.
Data sets
Let's explore the dataset a little bit
# Load the data, shuffled and split between train, valid and test sets
(x_known, y_known), (x_test, y_test) = mnist.load_data()
x_train, x_valid, y_train, y_valid = train_test_split(x_known, y_known, test_size=0.2,
shuffle=True)
# this is the shape of the np.array known and unkown. They are 3 dimensional.
print(x_known.shape, y_known.shape, 'Known samples for training')
print(x_test.shape, y_test.shape, 'Unknown samples for testing')
(60000, 28, 28) (60000,) Known samples for training
(10000, 28, 28) (10000,) Unknown samples for testing
# this is the shape of the np.array x_train. It is 3 dimensional.
print(x_train.shape, y_train.shape, 'train samples')
print(x_valid.shape, y_valid.shape, 'validation samples')
(48000, 28, 28) (48000,) train samples
(12000, 28, 28) (12000,) validation samples
# What is the corresponding label in the training set?
index = 200
print("Digit:", y_train[index])
plt.imshow(x_train[index], cmap='Greys_r')
Digit: 3
Out[8]:
<matplotlib.image.AxesImage at 0x28d1f357a48>
Como el problema de evaluación de las imágenes en función a los pícxeles es complejo se debe
de agregar a la red dos capas ocultas cada una con 64 neuronas más, recordando siempre que
hay un lineamiento fijo que nos diga cuántas capas ocultas utilizar, ya que en función al numero
de entradas y capas ocultas se podrán desarrollar distintas configuraciones; como salida se
tendrá 10 neuronas en su capa de salida representando los números del 0 al 9.
CONCLUSIONES
1. El uso de múltiples capas de neuronas ocultas es lo que permite a las redes neuronales
artificiales utilizadas en deep learning extraer características más complejas a partir de otras
características más simples.
2. En la que se estudian algoritmos para ajustar los parámetros de una red neuronal artificial
durante su fase de entrenamiento, desde el aprendizaje del perceptrón hasta el algoritmo de
propagación de errores (backpropagation), su uso en la práctica, las técnicas que se emplean
para prevenir el sobreaprendizaje y las técnicas numéricas de optimización empleadas en deep
learning.
3. Para convertir un problema de aprendizaje en un problema de optimización, definimos una
función de error, coste o pérdida f(x) : R n R. Como pretendemos reducir ese error, que
depende del conjunto x de parámetros de nuestro modelo.
REFERENCIAS BIBLIOGRÁFICAS