Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Lab 4 Imga
Lab 4 Imga
El informe de síntesis reveló que la arquitectura Prewitt consume menos área y el retraso es
menor en comparación con la arquitectura Sobel. La arquitectura de Sobel consume menos
energía que el algoritmo de Prewitt. Se recopilan imágenes biomédicas de muestra, se aplica el
algoritmo de detección de bordes y se presentan los resultados de la simulación. La arquitectura
propuesta para la detección de bordes se puede sintetizar y se puede implementar en hardware.
Entrene a la red.
Para calcular la cantidad de imágenes en cada categoría se utiliza labelCountes este crea una tabla
que contiene las etiquetas y el número de imágenes que tiene cada etiqueta. El almacén de datos
contiene 1000 imágenes para cada uno de los dígitos del 0 al 9, para un total de 10000 imágenes.
Se puede especificar el número de clases en la última capa completamente conectada de su red
como OutputSizeargumento.
Capa convolucional, el primer argumento es filterSize, que es la altura y el ancho de los filtros que
usa la función de entrenamiento mientras explora las imágenes. Para una capa convolucional con
un paso predeterminado de 1,'same'padding asegura que el tamaño de salida espacial sea el
mismo que el tamaño de entrada. También puede definir las tasas de zancada y aprendizaje para
esta capa utilizando argumentos de par nombre-valor de convolution2dLayer.
Capa de normalización por lotes Las capas de normalización por lotes normalizan las activaciones
y gradientes que se propagan a través de una red, lo que hace que el entrenamiento de la red sea
un problema de optimización más fácil. Utilice capas de normalización por lotes entre capas
convolucionales y no linealidades, como las capas ReLU, para acelerar el entrenamiento de la red y
reducir la sensibilidad a la inicialización de la red. Úselo batchNormalizationLayerpara crear una
capa de normalización por lotes.
Capa ReLU La capa de normalización por lotes va seguida de una función de activación no lineal. La
función de activación más común es la unidad lineal rectificada (ReLU). Úselo reluLayerpara crear
una capa ReLU.
Capa de agrupación máxima convolucionales a veces van seguidas de una operación de muestreo
descendente que reduce el tamaño espacial del mapa de características y elimina la información
espacial redundante. Una forma de muestreo descendente es usar una agrupación máxima, que
crea usando maxPooling2dLayer
Capa de clasificación La capa final es la capa de clasificación. Esta capa utiliza las probabilidades
devueltas por la función de activación softmax para cada entrada para asignar la entrada a una de
las clases mutuamente excluyentes y calcular la pérdida. Para crear una capa de clasificación, use
classificationLayer.
La gráfica de progreso del entrenamiento muestra la pérdida y precisión de mini lotes y la pérdida
y precisión de la validación. Para obtener más información sobre el gráfico de progreso del
entrenamiento, consultar para supervisar el progreso del entrenamiento del aprendizaje
profundo. La pérdida es la pérdida de entropía cruzada. La precisión es el porcentaje de imágenes
que la red clasifica correctamente.
Figura 9. Opciones de entrenamiento.
Clasifique las imágenes de validación y calcule la precisión: Para predecir las etiquetas de los
datos de validación se utiliza la red entrenada y se calcula la precisión de validación final. La
precisión es la fracción de etiquetas que la red predice correctamente. En este caso, más del 99%
de las etiquetas predichas coinciden con las etiquetas verdaderas del conjunto de validación.
Figura 10.Precisión