Está en la página 1de 7

Procesamiento de imágenes numéricas dediante Deepleaning

Processing of numerical images using Deepleaning

Arroyo Gabino Roberto Carlos (1)


Fabian Coronel Carol (2)
Mora Bonilla Anthony Vladimir (3)

RESUMEN

Se espera que las recientes técnicas de aprendizaje de modelos basadas en el aprendizaje


profundo (deeplearning) con inteliugencia artificial logren altas tasas de reconocimiento. Pero el
proceso de preparación de conjuntos de imágenes de entrenamiento y prueba, el número y la
complejidad de las redes que los implementan y el número de parámetros a evaluar dificultan su
uso de forma comparativa. Las redes neuronales usadas en deeplearning se emplean están
formadas por múltiples capas de neuronas, que simulan las funciones del córtex cerebral, el
cerebelo o la retina humana. Cada capa permite construir nuevas características a partir de las
características identificadas por las capas anteriores, lo que resulta especialmente útil en el
análisis de datos no estructurados como imágenes. Normalmente, el entrenamiento de la red se
realiza sobre el 75% a 80% del total de datos, llamado set de train, mientras que el 20-25%
restante se usa como set de test. Este proceso evita que el entrenamiento de la red se sobreajuste
a un conjunto único de datos, realizando la validación sobre unos datos “nuevos” para la red, y
evaluando así la capacidad de generalización del modelo.

Palabras clave: Deeplearning, redes neuronales, entrenamiento

ABSTRACT

Recent model learning techniques based on deep learning with artificial intelligence are
expected to achieve high recognition rates. But the process of preparing training and test image
sets, the number and complexity of the networks that implement them, and the number of
parameters to be evaluated make their use difficult in a comparative way. The neural networks
used in deep learning are made up of multiple layers of neurons, which simulate the functions of
the cerebral cortex, the cerebellum or the human retina. Each layer allows new features to be

(1) Magister en Gerencia de Tecnologías de Información y Comunicación - email: rarroyog@mail.upla.edu.pe

(2) Magister en Gerencia de Tecnologías de Información y Comunicación – email: d.cfabian@upla.edu.pe

(3) Magister en Gestión de la Construcción y Negocios Inmobiliarios – email: antovmb@gmail.com


built from the features identified by previous layers, which is especially useful in the analysis of
unstructured data such as images. Typically, network training is performed on 75% to 80% of
the total data, called the train set, while the remaining 20-25% is used as the test set. This
process prevents the network training from overfitting a single set of data, performing the
validation on "new" data for the network, and thus evaluating the generalizability of the model.

Keywords: Deeplearning, neural networks, training

INTRODUCCIÓN

Las técnicas de aprendizaje profundo (deelearning) tienen como objetivo automatizar este
proceso de abstracción, creando nuevas abstracciones además de las existentes. La topología de
red neuronal más común consta de varias capas, cada una de las cuales recibe como entrada la
salida de la capa anterior. De esta forma se implementa un sistema modular donde cada capa
proporciona un mayor nivel de abstracción con respecto a la entrada que recibe la red neuronal.
El nivel de abstracción de una red neuronal multicapa le permite elegir, en cada momento,
características comunes de los ejemplos que tiene que identificar, características que ha
diseñado explícitamente. Al mismo tiempo, la red puede ignorar pequeños cambios locales
específicos de cada instancia en particular, manteniendo efectivamente la esencia de la clase a la
que pertenece la instancia.
Las técnicas de deep learning parten de la idea base de que, si somos capaces de aprender con
éxito múltiples niveles de representación, podremos generalizar correctamente. En lugar de
depender de un algoritmo que se limite a extraer características concretas de los datos
disponibles, el deep learning proporciona herramientas que nos permiten construir
características a partir de otras características.

MATERIALES Y MÉTODOS

Material
A. Imágenes de números.
B. Etiquetas.

Metodología
A. Analisis de entradas (inputs): imagen en pixeles.
B. Evaluación de pixel valor.
C. Identificiación de bordes.
D. Combinación de los bordes (formas)
E. Identificación de características.
F. Combinación de características identificadas.
G. Salida (outpout) imagen identificada y número acertado.

RESULTADOS

Para la evaluación de las imágenes se deben de tener imágenes de los números, los cuales deben
ser separados en píxeles, para lo cual es necesario tomar tomar su valor en escala de grises
donde 0 es un píxel totalmente negro y 255 totalmente blanco, asi mismo las imágenes deben de
tner una resolución de 28 por 28 píxeles, al escoger una imagen con una resolución de 28 por 28
píxeles , se tendra imágenes de 784 píxeles.

Data sets
Let's explore the dataset a little bit
# Load the data, shuffled and split between train, valid and test sets
(x_known, y_known), (x_test, y_test) = mnist.load_data()
x_train, x_valid, y_train, y_valid = train_test_split(x_known, y_known, test_size=0.2,
shuffle=True)
# this is the shape of the np.array known and unkown. They are 3 dimensional.
print(x_known.shape, y_known.shape, 'Known samples for training')
print(x_test.shape, y_test.shape, 'Unknown samples for testing')
(60000, 28, 28) (60000,) Known samples for training
(10000, 28, 28) (10000,) Unknown samples for testing
# this is the shape of the np.array x_train. It is 3 dimensional.
print(x_train.shape, y_train.shape, 'train samples')
print(x_valid.shape, y_valid.shape, 'validation samples')
(48000, 28, 28) (48000,) train samples
(12000, 28, 28) (12000,) validation samples
# What is the corresponding label in the training set?
index = 200
print("Digit:", y_train[index])
plt.imshow(x_train[index], cmap='Greys_r')
Digit: 3
Out[8]:
<matplotlib.image.AxesImage at 0x28d1f357a48>

ANÁLISIS Y DISCUSIÓN DE RESULTADOS


Por tanto el algoritmo tendra la capa 1 de la red neuronal el cual tiene 784 neuronas como capa
de entrada, el cual basado en los valores de escala gris, totalmente nego y totalmente blanco
permitira su evaluación.

Como el problema de evaluación de las imágenes en función a los pícxeles es complejo se debe
de agregar a la red dos capas ocultas cada una con 64 neuronas más, recordando siempre que
hay un lineamiento fijo que nos diga cuántas capas ocultas utilizar, ya que en función al numero
de entradas y capas ocultas se podrán desarrollar distintas configuraciones; como salida se
tendrá 10 neuronas en su capa de salida representando los números del 0 al 9.

Posterior mente obtenemos set de dtos y metadatos mediante mediante el tensenflow,


obteniendo la cantidad de datos de entrenamiento y los datos de evaluación, definiendo
etiquetas simples para cada posible respuesta de la red; así mismo se debe definir una función
de normalización para que el rango de valores de los pixeles sea de 0 a 1, ahora se define la
estructura de la red indicando primero al capa de entrada 784 neuronas las cuales llegaran en
una forma cuadra de 28 x 28 agregamos dos capa ocultas cn 64 neuronas y por ultimo se tiene la
salida. Ordeanamos de forma aleatoria, especificamos los datos de entrenamiento cuantas
epocas o vueltas completas a todos los datos del set se utilizara en el entrenamiento, una vez
entrenada utilizaremos los datos de evaluación para ver tan bien entrenada quedo, por ultimo
imprimir los rsultados de la precisión.
Por tasto se puede apreciar en el resultado de la progarmación con phyton para que el algoritmo
pueda evaluar y reconocer el numero en evaluación, primero entrena una red simple de nivel A
y luego reutiliza el peso de la red A para inicializar los siguientes modelos complejos, de modo
que la velocidad de convergencia del entrenamiento sea más rápida, esto se realiza mediante la
predicción de clasificación, promedie los resultados de clasificación de diferentes ventanas y
luego promedie los resultados de diferentes tamaños Q para obtener el resultado final. Esto
puede mejorar la utilización de los datos de imagen y mejorar la precisión de la predicción.

CONCLUSIONES
1. El uso de múltiples capas de neuronas ocultas es lo que permite a las redes neuronales
artificiales utilizadas en deep learning extraer características más complejas a partir de otras
características más simples.
2. En la que se estudian algoritmos para ajustar los parámetros de una red neuronal artificial
durante su fase de entrenamiento, desde el aprendizaje del perceptrón hasta el algoritmo de
propagación de errores (backpropagation), su uso en la práctica, las técnicas que se emplean
para prevenir el sobreaprendizaje y las técnicas numéricas de optimización empleadas en deep
learning.
3. Para convertir un problema de aprendizaje en un problema de optimización, definimos una
función de error, coste o pérdida f(x) : R n  R. Como pretendemos reducir ese error, que
depende del conjunto x de parámetros de nuestro modelo.

REFERENCIAS BIBLIOGRÁFICAS

Berzal, F. (2018). Redes neuronales y deeplearning. Latex.


Hebert, M. N. (2021). Enfoque interpretable en el aprendizaje profundo para el reconocimiento
de la amrcha. Universidad de California.
Oliva, R. A. (2018). Desarrollo de una aplicación de reconocimiento en imágenes utilizando
Deep Learning con OpenCV. Universidad Politécnica de Valencia.
Sáenz, L. N. (2020). Procesado de imagen con deelearning. Escuela técnica superior de
ingeniería.
Sánchez, A. J. (2020). Evaluación de algoritmos de detección de objetos basados en deep
learning para detección de incidencias en carreteras. Valladolid.

También podría gustarte