Está en la página 1de 8

INSTITUTO POLITÉCNICO NACIONAL

ESCUELA SUPERIOR DE INGENIERÍA MECÁNICA Y ELÉCTRICA


UNIDAD CULHUACAN

INGENIERÍA EN COMPUTACIÓN

ALUMNO:
CONTRERAS VIDAL EMMANUEL

PROFESORA:
TOSCANO MEDINA LINDA KARINA

GRUPO:
8CM41

REDES NEURONALES

RESUMEN UNIDAD 1

2023
INTELIGENCIA ARTIFICIAL
La inteligencia artificial (IA) se refiere a la capacidad de las máquinas o sistemas
informáticos para realizar tareas que, si fueran realizadas por seres humanos,
requerirían de inteligencia. En otras palabras, la IA se centra en el desarrollo de
algoritmos, software y sistemas que permiten a las máquinas aprender, razonar,
tomar decisiones y realizar acciones de manera autónoma o semiautónoma, todo ello
con el objetivo de imitar la inteligencia humana o incluso superarla en algunas áreas.
La inteligencia artificial abarca una amplia gama de técnicas y enfoques, incluyendo
el aprendizaje automático (machine learning), el procesamiento de lenguaje natural
(NLP), la visión por computadora, la robótica y muchos otros campos. Estas
tecnologías se utilizan en una variedad de aplicaciones, como asistentes virtuales,
sistemas de recomendación, diagnóstico médico, conducción autónoma, y mucho
más.
Las redes neuronales son un componente fundamental de la inteligencia artificial y se
inspiran en el funcionamiento del cerebro humano. Estas son estructuras de
procesamiento de información que constan de capas de nodos interconectados,
llamados neuronas artificiales.
Una red neuronal artificial, es un modelo matemático y computacional que se inspira
en el funcionamiento del cerebro humano para procesar información. Se compone de
un conjunto de unidades interconectadas llamadas "neuronas artificiales" que trabajan
en conjunto para resolver problemas y aprender patrones a partir de datos.

VENTAJAS DE LOS RN SEMEJANZAS A LOS DEL CEREBRO HUMANO


Aprendizaje adaptativo
El aprendizaje adaptativo de las redes neuronales se refiere a la capacidad de una
red neuronal para ajustar sus parámetros y comportamiento en función de la
retroalimentación y las experiencias previas. A continuación, se detallan algunos
aspectos clave del aprendizaje adaptativo en el contexto de las redes neuronales:
Aprendizaje Continuo: Las redes neuronales pueden estar diseñadas para aprender
de manera continua a medida que se les proporciona nueva información. Esto
significa que la red puede adaptarse a cambios en los datos o en las condiciones del
entorno sin necesidad de un reinicio completo.
Retroalimentación: El aprendizaje adaptativo implica utilizar la retroalimentación de
las predicciones y resultados anteriores para ajustar los pesos y parámetros de la red
neuronal. La retroalimentación puede provenir de datos de entrenamiento
actualizados o de la interacción en tiempo real con el entorno.
Adaptación a la Variabilidad de Datos: Las redes neuronales adaptativas pueden ser
robustas frente a la variabilidad en los datos de entrada, lo que significa que pueden
generalizar y tomar decisiones adecuadas incluso cuando se enfrentan a datos que
no han visto previamente.
Optimización de Hiperparámetros: En algunos casos, el aprendizaje adaptativo
también puede incluir la adaptación de los hiperparámetros del modelo, como la tasa
de aprendizaje, la arquitectura de la red o la función de activación, para mejorar el
rendimiento de la red en tareas específicas.
Aprendizaje en Línea: En situaciones en las que los datos están disponibles de
manera secuencial o en tiempo real, las redes neuronales adaptativas pueden
aprender de manera continua a medida que nuevos datos llegan, lo que las hace
adecuadas para aplicaciones como el procesamiento de flujos de datos en tiempo
real.

Auto organización
La autoorganización en redes neuronales se refiere a la capacidad de una red para
aprender y representar patrones o características inherentes en los datos de entrada
de manera automática, sin necesidad de una supervisión externa o etiquetas
explícitas. Esto se logra mediante el ajuste de los pesos y conexiones entre las
neuronas de la red en función de las estadísticas y estructuras presentes en los
datos.
Uno de los conceptos más conocidos relacionados con la autoorganización en redes
neuronales es el "Mapa Autoorganizado" o "SOM" (Self-Organizing Map, por sus
siglas en inglés), que fue propuesto por Teuvo Kohonen. En un SOM, las neuronas se
organizan en una estructura bidimensional (o en ocasiones tridimensional) que
representa un mapa de características. Durante el entrenamiento, el SOM ajusta sus
pesos para asignar cada entrada de datos a una ubicación específica en el mapa en
función de la similitud entre la entrada y los pesos de las neuronas. Esto crea una
representación topológica de los datos en el mapa, lo que significa que las
ubicaciones cercanas en el mapa representan datos similares.
La autoorganización es particularmente útil en aplicaciones de análisis de datos y
visualización, ya que puede ayudar a identificar patrones ocultos en grandes
conjuntos de datos. Algunas aplicaciones comunes de las redes autoorganizadas
incluyen la reducción de dimensionalidad, la agrupación de datos, la visualización de
datos multidimensionales y la detección de anomalías.
Tolerancia a fallos
La tolerancia a fallos en las redes neuronales se refiere a la capacidad de una red
neuronal o sistema basado en redes neuronales para mantener su funcionamiento
adecuado a pesar de la presencia de fallos o errores en los componentes del sistema.
Esta capacidad es especialmente importante en aplicaciones críticas donde la
fiabilidad y la seguridad son fundamentales.
Redundancia: Una estrategia común para mejorar la tolerancia a fallos es la
redundancia, que implica tener múltiples copias de componentes críticos de la red
neuronal. Si uno de los componentes falla, otro puede tomar su lugar para mantener
el funcionamiento del sistema.
Detección de Fallos: Implementar mecanismos de detección de fallos es esencial.
Esto implica monitorear constantemente el estado de la red neuronal y sus
componentes para identificar cualquier anomalía o fallo. Las técnicas de detección de
fallos pueden incluir la comparación de resultados entre componentes redundantes o
el seguimiento de métricas de rendimiento clave.
Recuperación: Una vez que se detecta un fallo, es importante tener procedimientos
de recuperación para tomar medidas correctivas. Esto puede incluir la activación de
componentes redundantes, el ajuste de parámetros, la recalibración de la red o
incluso la interrupción segura de la operación si es necesario.
Tolerancia a Errores en Datos de Entrada: Además de los fallos internos, las redes
neuronales también deben ser tolerantes a errores o ruido en los datos de entrada.
Esto implica implementar técnicas de preprocesamiento de datos y algoritmos
resistentes para minimizar el impacto de datos inexactos o ruidosos.
Pruebas Rigurosas: Las redes neuronales y sistemas basados en ellas deben
someterse a pruebas rigurosas y validación para garantizar su comportamiento
adecuado bajo diversas condiciones, incluyendo escenarios de fallos simulados.
Diversidad en Arquitecturas: En algunos casos, se pueden utilizar arquitecturas de
red neuronal diversas o múltiples modelos para aumentar la tolerancia a fallos. Si un
modelo falla en una situación particular, otro modelo puede tomar el control.
Documentación y Políticas de Seguridad: Es fundamental contar con documentación
clara y políticas de seguridad que especifiquen cómo se deben manejar los fallos,
quién es responsable de la recuperación y cuáles son los procedimientos de
contingencia en caso de fallos críticos.
Operación en tiempo real
La operación en tiempo real de las redes neuronales se refiere a la capacidad de una
red neuronal para procesar datos y generar respuestas o resultados de manera
inmediata y dentro de un intervalo de tiempo definido. Esto es esencial en
aplicaciones donde las respuestas deben ser instantáneas o en tiempo real, como la
conducción autónoma, el procesamiento de voz, la detección de fraudes, el control de
procesos industriales y muchos otros casos de uso.
Latencia: En aplicaciones en tiempo real, la latencia, es decir, el tiempo que
transcurre entre la entrada de datos y la obtención de una respuesta, debe ser lo más
baja posible y estar dentro de límites predefinidos. Reducir la latencia es esencial
para garantizar que las decisiones o acciones basadas en las salidas de la red
neuronal se produzcan en tiempo real.
Optimización de Hardware: Utilizar hardware especializado, como unidades de
procesamiento de gráficos (GPU) o unidades de procesamiento de tensor (TPU),
puede acelerar significativamente la operación en tiempo real de las redes
neuronales. Estos dispositivos están diseñados para realizar cálculos matriciales de
manera eficiente, lo que es fundamental para el procesamiento de datos en paralelo
utilizado en redes neuronales.
Diseño de Modelo Eficiente: El diseño de la arquitectura de la red neuronal y la
elección de algoritmos pueden influir en la eficiencia del modelo. Utilizar modelos más
pequeños y livianos o técnicas de cuantización (reducción de precisión) pueden
ayudar a reducir la carga computacional y acelerar la inferencia en tiempo real.
Inferencia en el Borde (Edge): Llevar a cabo la inferencia (procesamiento de datos de
entrada para obtener resultados) en dispositivos locales o en el borde (edge) en lugar
de en servidores remotos puede reducir la latencia y mejorar la operación en tiempo
real. Esto es especialmente importante en dispositivos IoT y aplicaciones embebidas.
Preprocesamiento Rápido: El preprocesamiento de datos debe ser rápido y eficiente,
ya que a menudo es una parte esencial de la inferencia en tiempo real. La
preparación de datos debe realizarse de manera que minimice la latencia y permita
una inferencia rápida.
Optimización de Código: El código que implementa la red neuronal debe estar
optimizado para aprovechar al máximo los recursos de hardware y minimizar los
cuellos de botella de rendimiento.

NEURONA BIOLÓGICA Y NEURONA ARTIFICIAL


Neurona Biológica:
• Las neuronas biológicas son las unidades fundamentales del sistema nervioso
en organismos vivos, incluyendo humanos.
• Tienen una estructura compleja con una cabeza llamada soma, axones que
transmiten señales, y dendritas que reciben señales.
• Las neuronas biológicas se comunican a través de señales eléctricas y
químicas, conocidas como potenciales de acción y sinapsis, respectivamente.
• Las neuronas biológicas son altamente adaptables y pueden aprender y formar
conexiones nuevas a lo largo del tiempo.
• Desempeñan un papel fundamental en funciones cognitivas, sensoriales y
motoras del cuerpo humano.
Neurona Artificial:
• Las neuronas artificiales son unidades básicas de procesamiento en sistemas
de inteligencia artificial, como redes neuronales.
• Son modelos matemáticos simplificados inspirados en las neuronas biológicas.
• Cada neurona artificial recibe entradas ponderadas, realiza cálculos y produce
una salida.
• Las conexiones entre neuronas artificiales tienen pesos que se ajustan durante
el entrenamiento para aprender patrones en los datos.
• Las neuronas artificiales se utilizan para realizar tareas específicas, como el
reconocimiento de patrones o la toma de decisiones en una variedad de
aplicaciones de aprendizaje automático e inteligencia artificial.

ELEMENTOS MAS IMPORTANTES DE UNA RNA


Los elementos más importantes de una red neuronal artificial incluyen:
Neuronas (Nodos): Son las unidades fundamentales de procesamiento en una red
neuronal artificial. Cada neurona recibe entradas, realiza cálculos y produce una
salida.
Pesos: Cada conexión entre las neuronas tiene un peso asociado que determina la
importancia de esa conexión para el cálculo. Los pesos se ajustan durante el
entrenamiento de la red para aprender de los datos.
Funciones de Activación: Cada neurona tiene una función de activación que
determina cómo combina sus entradas ponderadas para producir una salida.
Funciones comunes incluyen la función sigmoide, ReLU (Rectified Linear Unit), y
otras.
Capas: Las neuronas se organizan en capas, que incluyen la capa de entrada, capas
ocultas y la capa de salida. Las capas ocultas ayudan a la red a aprender patrones
complejos.
Arquitectura: La arquitectura de la red neuronal se refiere a la disposición y
conectividad de las neuronas y las capas. Las redes pueden ser simples (como
perceptrones) o profundas (como redes neuronales profundas).

Una red neuronal artificial (RNA) funciona mediante un proceso de aprendizaje


automático que se basa en el procesamiento de información a través de una serie de
neuronas interconectadas, imitando el funcionamiento del cerebro humano.
Entrada: La red neuronal comienza con un conjunto de datos de entrada. Cada dato
de entrada se representa como un vector numérico, y estos vectores se utilizan para
alimentar la red.
Pesos y Conexiones: Cada neurona en la red está conectada a las neuronas de la
capa anterior y posterior a través de conexiones con pesos asociados. Estos pesos
determinan la importancia de las conexiones y se ajustan durante el entrenamiento de
la red.
Procesamiento en Neuronas: Cada neurona realiza dos pasos importantes: primero,
suma las entradas ponderadas por los pesos de las conexiones, y luego aplica una
función de activación a esta suma. La función de activación introduce no linealidad en
la red y determina si la neurona debe activarse o no.
Capas Neuronales: Las neuronas se organizan en capas dentro de la red, que
incluyen la capa de entrada, capas ocultas (si las hay) y la capa de salida. Las capas
ocultas permiten que la red aprenda y represente patrones más complejos en los
datos.
Propagación de la Información: La información fluye hacia adelante a través de la red,
desde la capa de entrada hasta la capa de salida, a medida que las neuronas realizan
sus cálculos.
Función de Costo: Durante el proceso de entrenamiento, se compara la salida de la
red con las salidas deseadas (etiquetas de entrenamiento). Se utiliza una función de
costo para evaluar cuán cerca están las predicciones de la red de las respuestas
correctas. El objetivo es minimizar esta función de costo.
Aprendizaje: Para ajustar los pesos de las conexiones y mejorar el rendimiento de la
red, se utiliza un algoritmo de optimización (como el descenso de gradiente) que
actualiza gradualmente los pesos en función de las derivadas de la función de costo.
Iteración: El proceso de alimentación hacia adelante, cálculo de errores, ajuste de
pesos y retroalimentación se repite a lo largo de múltiples iteraciones (épocas) hasta
que la red neuronal alcance un nivel satisfactorio de rendimiento en los datos de
entrenamiento.
Validación y Pruebas: Después del entrenamiento, la red se evalúa utilizando datos
de validación y pruebas para asegurarse de que pueda generalizar correctamente a
datos no vistos y que no haya sobreajuste.
Inferencia: Una vez entrenada, la red se utiliza para hacer predicciones en nuevos
datos de entrada. La información fluye hacia adelante desde la capa de entrada hasta
la capa de salida, y la red produce una respuesta basada en su entrenamiento previo.

FUNCIÓN DE TRANSFERENCIA
La función de transferencia, también conocida como función de activación, es una
parte fundamental de una neurona artificial en una red neuronal. Esta función
determina cómo una neurona combina sus entradas ponderadas y decide si debe
activarse o no. La función de transferencia introduce no linealidad en el modelo, lo
que permite que la red neuronal aprenda y represente patrones complejos en los
datos de entrada.
Función Sigmoide (Sigmoid): La función sigmoide es una función logística que
mapea cualquier número real a un valor en el rango de 0 a 1. Su fórmula es:
1
f(x) =
1 + 𝑒 −x
Esta función se utiliza comúnmente en capas de salida para problemas de
clasificación binaria, donde la neurona puede interpretarse como la probabilidad de
pertenencia a una clase.

Función Tangente Hiperbólica (Tanh): La función tangente hiperbólica es similar a


la sigmoide pero mapea los números reales al rango de -1 a 1. Su fórmula es:
𝑒 𝑥 − 𝑒 −𝑥
𝑓(𝑥) = x
e + 𝑒 −𝑥
Se utiliza a menudo en capas ocultas de redes neuronales y tiene la ventaja de ser
centrada en cero, lo que facilita el entrenamiento de la red.

Rectified Linear Unit (ReLU): La función ReLU es una función de activación no lineal
que retorna el valor de entrada si es positivo y cero en caso contrario. Su fórmula es:
f(x) = max⁡(0, x)
ReLU es muy popular en redes neuronales profundas debido a su simplicidad y
eficacia. Sin embargo, puede presentar problemas con gradientes explosivos durante
el entrenamiento.
CLASIFICACIÓN DE LAS REDES NEURONALES ARTIFICIALES
Fijas
Las "redes neuronales fijas" no son un término comúnmente utilizado en el campo de
la inteligencia artificial o las redes neuronales artificiales. En general, las redes
neuronales, independientemente de su arquitectura específica, se caracterizan por su
capacidad para aprender y adaptarse a partir de los datos de entrada, lo que implica
que sus conexiones y pesos se ajustan durante el proceso de entrenamiento.
(Hopfield, LAM, BAM, HAMMING)

Adaptables
Las "redes neuronales adaptables" se refieren a redes neuronales artificiales (RNAs)
que tienen la capacidad de cambiar y ajustarse en función de los datos y las
experiencias que se les presentan. Esta adaptabilidad es una característica
fundamental de las RNAs y es esencial para su capacidad de aprendizaje automático
y resolución de problemas complejos.
Aprendizaje Supervisado y No Supervisado: Las RNAs pueden aprender de
manera supervisada, donde se les proporciona un conjunto de datos de
entrenamiento con ejemplos de entrada y salidas deseadas, o de manera no
supervisada, donde la RNA busca patrones o estructuras en los datos sin
etiquetas de salida explícitas. Esta adaptabilidad les permite abordar una
amplia variedad de problemas.
Binarias
Las "redes neuronales binarias" son una variante de las redes neuronales artificiales
(RNAs) en la que se utilizan únicamente dos valores distintos en las neuronas y
conexiones en lugar de valores continuos. En este contexto, estos dos valores son
típicamente 0 y 1, lo que hace que las RNAs binarias sean discretas en lugar de
continuas.
Analógicas
Las redes neuronales analógicas son una variante de las redes neuronales artificiales
(RNAs) que utilizan componentes y señales analógicas en lugar de componentes y
señales digitales. A diferencia de las RNAs digitales, que trabajan con valores
discretos como 0 y 1, las RNAs analógicas utilizan valores continuos en un rango
específico, lo que les permite realizar cálculos y procesamiento de información de
manera análoga a las neuronas biológicas.

También podría gustarte