Está en la página 1de 15

DEPARTAMENTO DE ENERGÍA Y MECÁNICA

CARRERA DE INGENIERIA MECATRÓNICA

INTRODUCCION A LOS SISTEMAS CYBERFISICOS

Consulta

Tema: REDES NEURONALES

INTEGRANTES

1. Pazmiño Nayro

03 de Septiembre de 2021 – SANGOLQUÍ


Tema:
Redes Neuronales

Clasificación de redes neuronales artificiales

Clasificación de redes neuronales según la topología de red

Red neuronal Monocapa – Perceptrón simple

La red neuronal monocapa se corresponde con la red neuronal más simple, está
compuesta por una capa de neuronas que proyectan las entradas a una capa de
neuronas de salida donde se realizan los diferentes cálculos.

Red neuronal Multicapa – Perceptrón multicapa

La red neuronal multicapa es una generalización de la red neuronal monocapa, la


diferencia reside en que mientras la red neuronal monocapa está compuesta por una
capa de neuronas de entrada y una capa de neuronas de salida, esta dispone de un
conjunto de capas intermedias (capas ocultas) entre la capa de entrada y la de salida.
Dependiendo del número de conexiones que presente la red esta puede estar total o
parcialmente conectada.

Red neuronal Convolucional (CNN)

La principal diferencia de la red neuronal convolucional con el perceptrón multicapa


viene en que cada neurona no se une con todas y cada una de las capas siguientes sino
que solo con un subgrupo de ellas (se especializa), con esto se consigue reducir el
número de neuronas necesarias y la complejidad computacional necesaria para su
ejecución.
Red neuronal recurrente (RNN)

Las redes neuronales recurrentes no tienen una estructura de capas, sino que permiten
conexiones arbitrarias entre las neuronas, incluso pudiendo crear ciclos, con esto se
consigue crear la temporalidad, permitiendo que la red tenga memoria.

Los datos introducidos en el momento t en la entrada, son transformados y van


circulando por la red incluso en los instantes de tiempo siguientes t + 1, t + 2, …
Redes de base radial (RBF)

Las redes de base radial calculan la salida de la función en función de la distancia a


un punto denominado centro. La salida es una combinación lineal de las funciones de
activación radiales utilizadas por las neuronas individuales.

Las redes de base radial tienen la ventaja de que no presentan mínimos locales donde
la retropropagación pueda quedarse bloqueada.

Clasificación de redes según el método de aprendizaje

Aprendizaje supervisado

Se caracteriza porque el proceso de aprendizaje se realiza mediante un entrenamiento


controlado por un supervisor que determina la respuesta que que se debe generar para
cada entrada.
El supervisor controla la salida y si esta no es correcta, modifica los pesos de las
conexiones, con el fin de que la salida obtenida se aproxime a la deseada.
A su vez el aprendizaje supervisado se puede subdividir en:

Aprendizaje por corrección de error.

Ajusta los pesos de las conexiones de la red en función del error cometido, es decir la
diferencia entre los valores esperados y los obtenidos.
Ejemplos de algoritmos:
 Perceptrón
 Delta o Mínimo error cuadrado (LMS Error: Least Mean Squared)
 Backpropagation o Programación hacia atrás (LMS multicapa)

Aprendizaje estocástico

Realiza cambios aleatorios sobre los pesos va calculando se la predicción va


mejorando o empeorando con cada uno de los cambios, quedándose evidentemente
con los cambios que mejoren los resultados.

Aprendizaje no supervisado o autosupervisado

Se caracteriza porque no requieren influencia externa para ajustar los pesos.

Este tipo de aprendizaje busca encontrar las características, regularidades,


correlaciones o categorías que se puedan establecer entre los datos que se presenten
como entrada.
La interpretación de sus datos depende de su estructura y del algoritmo de aprendizaje
empleado.
La salida podía representar el grado de similitud entre los datos, un clustering o
establecimiento de categorías.
A su vez el aprendizaje no supervisado se puede subdividir en:
Aprendizaje hebbiano

Permite medir la familiaridad o extraer las características de los datos de entrada.

Aprendizaje competitivo y comparativo


Permite realizar clasificaciones de los datos de entrada.
La forma de actuación consiste en ir añadiendo elementos a una clase, si este nuevo
elemento se determina que es de esta clase matiza los pesos, en caso contrario se puede
crear una nueva clase con el elemento asociando a una serie de pesos propios.
Aprendizaje por refuerzo
Se considera un aprendizaje más lento que el aprendizaje por corrección de errores,
en este caso no se dispone de un conjunto completo de los datos exactos de salida sino
que se le indica solamente si el dato es aceptable o no, con esto el algoritmo ajusta los
pesos basándose en un mecanismo de probabilidades. (2021)

Red Neuronal Artificial Alexnet de Matlab

Una red neuronal convolucional (CNN o ConvNet) es una arquitectura de red para
deep learning que aprende directamente de los datos, sin necesidad de extraer
características manualmente.

Estas redes son particularmente útiles para encontrar patrones en imágenes para
reconocer objetos, caras y escenas. También resultan eficaces para clasificar datos
sin imágenes, tales como datos de audio, series temporales y señales.

Las aplicaciones que utilizan reconocimiento de objetos y visión artificial, tales


como las aplicaciones para vehículos autónomos y para reconocimiento facial,
dependen en gran medida de CNN.
El uso de CNN con deep learning es popular debido a tres factores importantes. Las
CNN:

Aprenden características directamente sin necesidad de extraerlas manualmente.


Generan resultados de reconocimiento altamente precisos.
Se pueden volver a entrenar para nuevas tareas de reconocimiento, lo que permite
aprovechar las redes preexistentes.

Las CNN proporcionan una arquitectura óptima para descubrir y aprender


características principales en imágenes y datos de series temporales. Las CNN son una
tecnología clave en aplicaciones tales como:

Imágenes médicas: las CNN pueden examinar miles de informes patológicos para
detectar visualmente la presencia o ausencia de células cancerosas en las imágenes.
Procesamiento de audio: la detección de palabras clave se puede utilizar en cualquier
dispositivo con un micrófono para detectar cuándo se pronuncia una palabra o frase
determinada ("Oye Siri"). Las CNN pueden aprender y detectar con precisión la
palabra clave e ignorar todas las demás frases, independientemente del entorno.
Detección de señales de stop: la conducción autónoma se basa en CNN para detectar
con precisión la presencia de una señal u otro objeto y tomar decisiones basadas en el
resultado.
Generación de datos sintéticos: utilizando redes generativas antagónicas (GAN), se
pueden producir nuevas imágenes para su uso en aplicaciones de deep learning, tales
como reconocimiento facial y conducción autónoma. (Redes neuronales
convolucionales, 2021)

Plataforma Playground de Tensor Flow

TensorFlow Playground es un sitio web extremadamente impresionante donde puede


visualizar y comprender intuitivamente cómo funcionan las redes neuronales. Este
sitio web, desarrollado por el equipo de TensorFlow en Google, es una de las mejores
plataformas que le permitirá explorar las poderosas redes neuronales profundas.
Este breve artículo lo guiará sobre cómo puede comenzar a trabajar en TensorFlow
Playground sin ninguna experiencia previa con redes neuronales en menos de 5
minutos.
Recomiendo encarecidamente a todos ustedes que abran este sitio web en una nueva
pestaña en su navegador desde el siguiente enlace proporcionado y lo sigan. Después
de leer este artículo, se familiarizará con los conceptos básicos de cómo usar esta
fantástica herramienta.
Primero se abre la pagina web de Tensor Flow Playground
.

Después de la confirmación de que todos estamos ahora en la misma página, podemos


proceder a entender la primera barra en consecuencia.
¡De acuerdo! Ahora entendamos todas las funciones en la barra que se muestra a
continuación.

El botón ejecutar y pausar se utiliza para comenzar a ejecutar las épocas


continuamente hasta que decida detenerlo. Mientras corren las épocas, el modelo
seguirá entrenando. Hay un botón de reinicio para restablecer toda la red en el lado
izquierdo del botón Reproducir. El lado derecho del botón de reproducción es el botón
de aumento de pasos utilizado para aumentar las épocas en un paso a la vez. Este botón
es útil porque el botón de ejecución/ pausa a veces puede ser demasiado rápido para
alcanzar el resultado adecuado. Pase el mouse sobre cada uno de estos botones para
saber qué son exactamente.
Tasa de aprendizaje: La velocidad a la que la red neuronal va a aprender a ajustarse
correctamente a la salida. Puede cambiarlo según su deseo y sentirse libre de
experimentar con él. Sin embargo, usaremos todos los valores predeterminados para
esta demostración.
Activación: La función de activación se utiliza para mejorar el rendimiento de las
redes neuronales. Tenemos cuatro opciones proporcionadas por ellos que son tanh,
ReLU, Sigmoid y lineal.
Regularización: Es una técnica que realiza ligeras modificaciones en el algoritmo de
aprendizaje de tal manera que el modelo generaliza mejor. Tenemos las opciones de
regularización L1 y L2 para usar, pero usaremos la predeterminada ninguna.
Tasa de regularización: Esta opción nos permite elegir una tasa de regularización si
elegimos un método de regularización.
Tipo de problema: Tenemos dos opciones para elegir, es decir, problemas de
clasificación o tipo regresión. Utilizaremos un tipo de clasificación para esta
demostración.
Ahora pasemos a entender el tipo de datos con los que estamos tratando y las opciones
que tenemos.
Tiene cuatro opciones de conjunto de datos de dificultad creciente, a saber, Circular,
OR exclusivo, Gaussiano y Espiral. Tenemos la opción de dividir el conjunto de datos
en un tren y probar con una división predeterminada del 50% en cada uno. Puede
introducir hasta 50 puntos de ruido si así lo desea. También contiene un botón de
tamaño de lote que ejecuta un lote particular para cada época. Un botón de
regeneración final para generar los datos una vez más.
El naranja y el azul se utilizan a lo largo de la visualización de maneras ligeramente
diferentes, pero en general, el naranja muestra valores negativos, mientras que el azul
muestra valores positivos. Los puntos de datos (representados por pequeños círculos)
son inicialmente de color naranja o azul, que corresponden a uno positivo y uno
negativo.
Pasemos a la siguiente sección, que es la arquitectura de la red neuronal.

Tenemos una arquitectura de red neuronal 1:2:1 por defecto, lo que significa 1 capa
en entradas con 2 nodos, 2 capas ocultas con la primera capa con 4 nodos, 2 nodos en
2ª capa oculta y una capa de salida final. Usted puede sentirse libre de alterar esto de
acuerdo a su elección. Para esta demostración, usaré todas las configuraciones
predeterminadas.
En las capas ocultas, las líneas están coloreadas por los pesos de las conexiones entre
las neuronas. El azul muestra un peso positivo, lo que significa que la red está
utilizando esa salida de la neurona como se da. Una línea naranja muestra que la red
está asignando un peso negativo.
En la capa de salida, los puntos son de color naranja o azul, dependiendo de sus valores
originales. El color de fondo muestra lo que la red está prediciendo para un área en
particular. La intensidad del color muestra cuán segura es esa predicción.
La figura anterior es donde veremos los respectivos puntos de tren, y tiene la opción
de ver los datos de prueba o discretizar la salida.

Después de ejecutarlo durante 101 épocas, podemos notar que la pérdida ha


disminuido significativamente y se realiza una clasificación casi perfecta.

Después de ejecutarlo durante 300 épocas, podemos ver que la pérdida se reduce a
casi insignificante.
Hay toneladas de opciones diferentes para probar, y les animo a todos a jugar y
meterse con ellas. Con eso, hemos llegado a un final para la breve explicación y guía
de TensorFlow Playground. (Neural Networks Made Fun With TensorFlow
Playground!, 2021)

Plataforma Teachable Machine de Google

Google piensa en nuestro agitado estilo de vida y en aportar mejoras a nivel


tecnológico para todos utilizando soluciones basadas en su plataforma de aprendizaje
automático. En este sentido, la compañía liberó Teachable Machine 2.0, una poderosa
herramienta que literalmente “enseña a enseñar” modelos de inteligencia artificial
fácilmente.

Teachable Machine 2.0 es una red neuronal que ayudará a los usuarios a entrenar
modelos de aprendizaje automático basado en sonidos o movimientos. Básicamente,
la herramienta es una versión mejorada de Teachable Machine que inicialmente
realizaba pruebas de entrenamiento de IA. Ahora la compañía de Mountain View está
mejorando su versión para que los usuarios literalmente puedan crear modelos con
machine learning.
IA y Machine Learning para todos
Con Teachable Machine 2.0, los usuarios podrán acceder a la tecnología de
aprendizaje automático de Google en sus aplicaciones o sitios web. Es decir, si quieres
crear una aplicación para identificar sonidos basados en un modelo de machine
learning sin crear un extenso desarrollo de software.
Todo lo que necesitas es colocarte frente al computador y activar Teachable Machine
2.0, el dispositivo podrá reconocer imágenes, movimientos, sonidos y gestos para
generar un modelo que luego podrás instalar en tu app, sitio web y más.

Cabe destacar que esta herramienta es gratuita y de acuerdo con Google los
entrenamientos los almacena localmente, por lo que podrás decidir entre guardar el
modelo o subirlo a la nube, pero esto no será automático señala la compañía.

Es realmente interesante que Google abra la tecnología y el universo de inteligencia


artificial a las comunidades, dando la oportunidad a sectores que tal vez tengan
grandes ideas pero no la capacidad para invertir en un capital humano para
desarrollarlas. Asimismo, la compañía ofrece la oportunidad a las personas de conocer
de lo que es capaz de hacer la inteligencia artificial. (Barroyeta, 2021)

Bibliografía:

Diegocalvo.es. 2021. [online] Available at: <https://www.diegocalvo.es/clasificacion-de-redes-


neuronales-artificiales/> [Accessed 3 September 2021].

Barroyeta, R., 2021. Teachable Machine 2.0 de Google crea modelos de machine learning para
tu negocio. [online] TekCrispy. Available at: <https://www.tekcrispy.com/2019/11/07/teachable-
machine-2-0-google-ia/> [Accessed 3 September 2021].

Medium. 2021. Neural Networks Made Fun With TensorFlow Playground!. [online] Available at:
<https://towardsdatascience.com/neural-networks-made-fun-with-tensorflow-playground-
4e681a0c4529> [Accessed 3 September 2021].

La.mathworks.com. 2021. Redes neuronales convolucionales. [online] Available at:


<https://la.mathworks.com/discovery/convolutional-neural-network-matlab.html> [Accessed 3
September 2021].

También podría gustarte