Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Consulta
INTEGRANTES
1. Pazmiño Nayro
La red neuronal monocapa se corresponde con la red neuronal más simple, está
compuesta por una capa de neuronas que proyectan las entradas a una capa de
neuronas de salida donde se realizan los diferentes cálculos.
Las redes neuronales recurrentes no tienen una estructura de capas, sino que permiten
conexiones arbitrarias entre las neuronas, incluso pudiendo crear ciclos, con esto se
consigue crear la temporalidad, permitiendo que la red tenga memoria.
Las redes de base radial tienen la ventaja de que no presentan mínimos locales donde
la retropropagación pueda quedarse bloqueada.
Aprendizaje supervisado
Ajusta los pesos de las conexiones de la red en función del error cometido, es decir la
diferencia entre los valores esperados y los obtenidos.
Ejemplos de algoritmos:
Perceptrón
Delta o Mínimo error cuadrado (LMS Error: Least Mean Squared)
Backpropagation o Programación hacia atrás (LMS multicapa)
Aprendizaje estocástico
Una red neuronal convolucional (CNN o ConvNet) es una arquitectura de red para
deep learning que aprende directamente de los datos, sin necesidad de extraer
características manualmente.
Estas redes son particularmente útiles para encontrar patrones en imágenes para
reconocer objetos, caras y escenas. También resultan eficaces para clasificar datos
sin imágenes, tales como datos de audio, series temporales y señales.
Imágenes médicas: las CNN pueden examinar miles de informes patológicos para
detectar visualmente la presencia o ausencia de células cancerosas en las imágenes.
Procesamiento de audio: la detección de palabras clave se puede utilizar en cualquier
dispositivo con un micrófono para detectar cuándo se pronuncia una palabra o frase
determinada ("Oye Siri"). Las CNN pueden aprender y detectar con precisión la
palabra clave e ignorar todas las demás frases, independientemente del entorno.
Detección de señales de stop: la conducción autónoma se basa en CNN para detectar
con precisión la presencia de una señal u otro objeto y tomar decisiones basadas en el
resultado.
Generación de datos sintéticos: utilizando redes generativas antagónicas (GAN), se
pueden producir nuevas imágenes para su uso en aplicaciones de deep learning, tales
como reconocimiento facial y conducción autónoma. (Redes neuronales
convolucionales, 2021)
Tenemos una arquitectura de red neuronal 1:2:1 por defecto, lo que significa 1 capa
en entradas con 2 nodos, 2 capas ocultas con la primera capa con 4 nodos, 2 nodos en
2ª capa oculta y una capa de salida final. Usted puede sentirse libre de alterar esto de
acuerdo a su elección. Para esta demostración, usaré todas las configuraciones
predeterminadas.
En las capas ocultas, las líneas están coloreadas por los pesos de las conexiones entre
las neuronas. El azul muestra un peso positivo, lo que significa que la red está
utilizando esa salida de la neurona como se da. Una línea naranja muestra que la red
está asignando un peso negativo.
En la capa de salida, los puntos son de color naranja o azul, dependiendo de sus valores
originales. El color de fondo muestra lo que la red está prediciendo para un área en
particular. La intensidad del color muestra cuán segura es esa predicción.
La figura anterior es donde veremos los respectivos puntos de tren, y tiene la opción
de ver los datos de prueba o discretizar la salida.
Después de ejecutarlo durante 300 épocas, podemos ver que la pérdida se reduce a
casi insignificante.
Hay toneladas de opciones diferentes para probar, y les animo a todos a jugar y
meterse con ellas. Con eso, hemos llegado a un final para la breve explicación y guía
de TensorFlow Playground. (Neural Networks Made Fun With TensorFlow
Playground!, 2021)
Teachable Machine 2.0 es una red neuronal que ayudará a los usuarios a entrenar
modelos de aprendizaje automático basado en sonidos o movimientos. Básicamente,
la herramienta es una versión mejorada de Teachable Machine que inicialmente
realizaba pruebas de entrenamiento de IA. Ahora la compañía de Mountain View está
mejorando su versión para que los usuarios literalmente puedan crear modelos con
machine learning.
IA y Machine Learning para todos
Con Teachable Machine 2.0, los usuarios podrán acceder a la tecnología de
aprendizaje automático de Google en sus aplicaciones o sitios web. Es decir, si quieres
crear una aplicación para identificar sonidos basados en un modelo de machine
learning sin crear un extenso desarrollo de software.
Todo lo que necesitas es colocarte frente al computador y activar Teachable Machine
2.0, el dispositivo podrá reconocer imágenes, movimientos, sonidos y gestos para
generar un modelo que luego podrás instalar en tu app, sitio web y más.
Cabe destacar que esta herramienta es gratuita y de acuerdo con Google los
entrenamientos los almacena localmente, por lo que podrás decidir entre guardar el
modelo o subirlo a la nube, pero esto no será automático señala la compañía.
Bibliografía:
Barroyeta, R., 2021. Teachable Machine 2.0 de Google crea modelos de machine learning para
tu negocio. [online] TekCrispy. Available at: <https://www.tekcrispy.com/2019/11/07/teachable-
machine-2-0-google-ia/> [Accessed 3 September 2021].
Medium. 2021. Neural Networks Made Fun With TensorFlow Playground!. [online] Available at:
<https://towardsdatascience.com/neural-networks-made-fun-with-tensorflow-playground-
4e681a0c4529> [Accessed 3 September 2021].