Documentos de Académico
Documentos de Profesional
Documentos de Cultura
VICERRECTORADO ACADÉMICO
FACULTAD DE INGENIERÍA
ESCUELA DE INGENIERÍA DE SISTEMAS
SAN JOAQUÍN DE TURMERO ESTADO ARAGUA
Redes Neuronales
Artificiales
Profesor: Participante:
José Ceballos Beatriz Paredes C.I: 27.864.010
Octubre 2022
Redes Neuronales Artificiales: Pasado, presente y futuro a beneficio de
la humanidad
Beatriz de Los Angeles Paredes
beangelesp@gmail.com
RESUMEN
Este artículo busca mostrarle a la humanidad la importancia que tienen las
redes neuronales artificiales (RNA) a beneficio de la humanidad, en todo un
contexto global se puede reseñar que han impactado profundamente en cada
campo de la ciencia para mejorar los procesos y ofrecer resultados eficaces.
Las RNA es un milagro de la programación ya que buscan imitar las
neuronas humanas resaltando su comportamiento de aprendizaje y
procesamiento en forma automática. Entre los temas que desarrollare se
encuentran fundamentos matemáticos de una neurona artificial, funciones de
activación usadas en las redes neuronales, relación que existe entre redes
neuronales y el Deep learning o aprendizaje profundo, diferencias entre el
machine learning el Deep learning y su relación con la inteligencia artificial.
Palabras claves: Redes neuronales artificiales, ciencia, programación,
inteligencia artificial.
ABSTRACT
This article seeks to show humanity the importance of artificial neural
networks (ANN) a benefit of humanity, in a global context it can be noted that
they have deeply impacted each field of science to improve processes and
offer effective results. . ANNs are a programming miracle as they seek to
mimic human neurons by highlighting their learning and processing behavior
automatically. Among the topics that are developed are the mathematical
foundations of an artificial neuron, activation functions used in neural
networks, the relationship between neural networks and deep learning or
deep learning, differences between machine learning and deep learning and
its relationship with artificial intelligence.
Keywords: Artificial neural networks, science, programming, artificial
intelligence
Introducción
El ser humano no se detiene en la búsqueda de conocimientos que hagan
más fácil su vida en el mundo, uno de los inventos que han cambiado la vida
del hombre es la computadora y a medida que pasa el tiempo se ha
perfeccionado sus sistemas, equipos y usos. El hardware el software
trabajan de forma equilibrada uniendo fuerzas para facilitar todas las
operaciones de acuerdo a la necesidad de cada operario. Sin restarle
importancia a ninguno de ellos, quiero resaltar la impactante función que
tiene la programación en la ejecución y resolución de tareas. Esto nace
cuando los científicos en busca de mejorar y resolver situaciones complejas
en todo ámbito, han estudiado las capacidades humanas cerebrales, siendo
ésta la base para la creación de nuevas máquinas por ello la inteligencia
computacional se las ha ingeniado para reproducir tecnológicamente
comportamientos biológicos. Todo comienza entre las décadas de 1950 y
1960 el científico Frank Rosenblatt, inspirado en el trabajo de Warren
McCulloch y Walter Pitts creó el Perceptron, la unidad desde donde nacería y
se potenciarían las redes neuronales artificiales. Desde entonces los
estudiosos de esta materia no se han detenido y con mucho afán han creado
y demostrado como la tecnología ha evolucionado en favor de la humanidad
en todos los campos de la ciencia.
El objetivo de las redes neuronales artificiales es tratar de buscar modelos
que solucionen problemas difíciles de resolver mediante técnicas
algorítmicas convencionales; estando inspiradas en el funcionamiento del
sistema nervioso y el comportamiento humano, siendo capaces de crear
patrones, reconocer información o resolver enigmas complejos, pudiendo ser
de gran utilidad para sectores como la moda o la lucha contra el crimen. Las
RNA contribuyen a la creación de redes, ya que al ser muy rápidas en cuanto
a procesamiento de información, son capaces de transmitir datos a gran
velocidad entre dos puntos.
Estas son algunas funciones que el hombre disfruta de las redes neuronales
artificiales, en la mayoría de las ocasiones somos ignorantes de ellas y no le
damos el uso que deberíamos; o no conocemos que es lo que hay detrás de
un aparato electrónico para que funcione de la forma que lo hace; siendo
estas reproducciones parecidas al cerebro humano, pero jamás podrán
igualarse.
La función ReLU simplemente rectifica los datos (z) negativos y los vuelve
cero a la salida. Las entradas con valores positivos no sufren modificación
alguna a la salida. Esta función generará una salida igual a cero cuando la
entrada (z) sea negativa, y una salida igual a la entrada cuando dicha esta
última sea positiva. La función de activación ReLU se ha convertido en la
más usada en los modelos Deep Learning durante los últimos años, lo cual
se debe principalmente a:
La no existencia de saturación, como sí ocurre en las funciones
sigmoidal y tanh. Lo anterior hace que el algoritmo del gradiente
descendente converja mucho más rápidamente, facilitando así el
entrenamiento.
Es más fácil de implementar computacionalmente en comparación con
las otras dos funciones, que requieren el cálculo de funciones
matemáticas más complejas como la exponencial.
La función de activación: recomendaciones de uso
La primera recomendación es usar siempre la función ReLU en las capas
ocultas de la Red Neuronal. Lo anterior hace que el entrenamiento sea más
rápido y es mucho más probable que logre la convergencia del algoritmo del
gradiente descendente. En segundo lugar, se recomienda el uso de las
funciones sigmoidal o tanh únicamente para las capas de salida, por ejemplo,
en la implementación de un clasificador binario.
De acuerdo a la cantidad de información que se nos ofrecen en la actualidad
se puede notar que existen una gran cantidad de funciones de activación, sin
embargo, las antes expuestas pueden ser aplicadas en las redes neuronales,
teniendo una preferencia por ReLU en el uso de las capas ocultas de la red
implementada, siendo la función de activación más usada en la actualidad,
pues no tiene problemas de saturación y es más fácil de implementar que las
otras funciones. Es recomendable usar las funciones sigmoidal
y tanh únicamente en las capas de salida, para tareas de clasificación
binaria.
Ciberseguridad
Referencias
Alonso, R. (2021). IA, Machine Learning y Deep Learning ¿cuál es la
diferencia?
Disponible en: https://hardzone.es/tutoriales/rendimiento/diferencias-ia-deep-
machine-learning/. Consultado en: octubre 11, 2022.