Está en la página 1de 11

REDES NEURONALES

ELECTIVA EN ESTADÍSTICA

ESTUDIANTES; WILINTON TINJACA


NICOLAS GOMEZ

DOCENTE: ALBERTO ZEA HIGUERA

UNIVERSIDAD PEDAGÓGICA Y TECNOLÓGICA


DE COLOMBIA
SEDE DUITAMA BOYACA
2022
INTRODUCCION A REDES NEURONALES

A pesar de que pasa el tiempo todavía se ignora demasiado sobre la forma en que el
cerebro aprende a procesar toda la información recaudada en el trayecto de la vida, se
han desarrollado modelos que tratan de imitar ciertas habilidades; denominados redes
neuronales (artificiales) o modelos de computación conexionista. La elaboración de
estos modelos supone en primer lugar la deducción de los rasgos o ciertas características
esenciales de las neuronas y sus conexiones, y, por otra parte, la implementación del
modelo en una computadora de forma que se pueda simular.

REDES NEURONALES
Sabemos que la inteligencia artificial es el área científica de mucha información que se
enfoca en crear ciertos programas o mecanismos que puedan mostrar unos
comportamientos considerados inteligentes.

APRENDIZAJE AUTOMÁTICO
El aprendizaje automático es la ciencia de construcción de sistemas computacionales
que ayudan a mejorar automáticamente con la experiencia y esto ayuda a estudiar cuales
son las leyes fundamentales que gobiernan todos los procesos de aprendizaje.

¿Para que nos sirve el aprendizaje automático?


Podemos decir que para entender como funciona el aprendizaje en animales (en
humanos en especial).
También para descubrir nuevos conceptos, patrones que están ocultos, estructuras útiles
difíciles de conocer por la mente brillante del ser humano.
Para resolver problemas similares a los que sabemos resolverlos los seres humanos y
construcción de programas que pueda adaptarse a usuarios a otros programas.

Luego podemos decir que una máquina aprende con respecto a una tarea específica T,
una métrica de rendimiento P y un tipo de experiencia E si mejora sustancialmente su
rendimiento P para realizar la tarea T a partir de los ejemplos E.
El aprendizaje automático surgió en la frontera entre las Ciencias de la Computación y
la Estadística:
• La ciencia de la computación se pregunta cómo construir máquinas capaces aprender
automáticamente a resolver problemas y cuales problemas son tratables.
• La estadística se ocupa de estudiar qué se puede inferir de un conjunto de datos a los
cuales agregamos un conjunto de suposiciones que modelan el sistema.
La matemática, la física, la ingeniería y la psicología han ayudado notablemente al
desarrollo del aprendizaje automático.

En el aprendizaje automático tenemos unas aplicaciones:


Reconocimiento y procesamiento de lenguaje natural, oral y escrito. Bots de soporte.
• Visión por computadora
• Reconocimiento de imágenes
• Seguridad de datos
• Seguridad personal
• Comercio
• Detección de fraudes
• Fidelización de clientes
• Marketing personalizado
• Recomendaciones personalizadas
• Búsqueda en línea
• Control automático
• Conducción automática de vehículos
• Antivirus
• Detección de intrusos
• Ayuda a disciplinas científicas (genómica, biología,
ingeniería, física, geografía, etc).

Todas estas aplicaciones las redes neuronales puede aplicar ellos.


Esto tiene una clasificación:
Algoritmos de regresión
• Arboles de decisión
• Algoritmos bayesianos
• Algoritmos de conglomerado
• Algoritmos de reducción de dimensionalidad
• Redes neuronales (Perceptrons (back propagation), Redes recurrentes (Hopfield))
Aprendizaje profundo (Deep Boltzmann Machine, Deep Belief Networks,
Convolutional Neural Networks (CNN), Staked Auto Encoders)

TAREAS USUALES
Clasificación:

REGRESION:
Clustering

También tenemos unos algoritmos

En nuestro aprendizaje supervisado los datos recolectados incluyen las respuestas


correctas el cual podemos evaluar a medida que el sistema aprende, a medida que la
tarea se realice bien.
Luego en el aprendizaje no supervisado no se dispone del resultado deseado y el sistema
debe segmentar los datos en clases adecuadamente.
Por último, en el aprendizaje con refuerzo se agrega una recompensa o un castigo para
mejorar la prueba o el proceso, haciendo creer algunas formas de aprendizaje natural.

ALGORITMO COMPUTACIONAL
Este se define como una secuencia de pasos que representan cierto modelo de solución
de hallar un tipo de problema o también como un conjunto de pasos que repetidas en
forma ordenada nos llevan a soluciones de dicho problema.
AUTÓMATA
Es una maquina que se programa para que tenga la capacidad de realizar repetidamente
ciertas operaciones de manera autómata, sin ser supervisada.

EL CEREBRO
1. Es el órgano más complejo del mundo animal.
2. En los humanos pesa cerca de 1,3 kg.
3. Contiene aproximadamente 1 000 000 000 000 (1012) neuronas
4. Cada neurona se conecta aproximadamente, en promedio, con otras
10.000neuronas (104). Por lo tanto, tiene aproximadamente 1016 conexiones
sinápticas.
5. Consume muy poca energía.
6. Almacena a través de asociaciones (memoria se direcciona por contenido).
7. Trabaja en forma masivamente paralelo. Posee millones de redes neuronales.
8. Es flexible y plástico, lo cual le permite adaptarse y adaptar a los organismos
que lo poseen.
9. El cerebro es un sistema auto-organizado y no programado.
10. Se ocupa de controlar todo el organismo, en sus múltiples funciones.
11. Es robusto y tolerante a fallas.

EL PARADIGMA CONEXIONISTA
Este paradigma asume que el procesamiento y el almacenamiento de la información
recae en la compleja arquitectura de conexiones que forma las neuronas entre ellas
mismas y con otras células, y también decimos que las neuronas son simples unidadaes
de procesamiento y transmisión de señales.

NEURONAS
LA SINAPSIS

TREN DE ESPIGAS

Entonces para definir la red neuronal debemos tener:


1. Conjunto N de neuronas artificiales simples
2. Una variable Y sub k para describir el estado de cada neurona (k=1,..,N). Así, el
estado de la red al tiempo t está dado por el vector

3. Un conjunto de conexiones sinápticas modeladas por una matriz de números


reales W sub ij, que pueden ser positivas, negativas o nulas. Esta matriz
determina la arquitectura que almacena y procesa la información.
4. Cierta regla que determine la entrada de cada neurona en función de los disparos
de las otras. Luego usamos:
5. Una función de activación que determina si la neurona dispara y con cual
intensidad.

CIERTAS FUNCIONES DE ACTIVACION Fsub k( S sub k)

TOPOLOGÍAS MAS COMUNES


NEURONA ARTIFICIAL

APRENDIZAJE SUPERVISADO

Conexiones sinápticas:
Esto consiste en encontrar la matriz de conexiones que permitan que dicha red asigne
correctamente patrones de entrada con los de salida de la actividad que queremos que
realice. Si lo aprendido es supervisado, conoceremos de antemano un conjunto de
relaciones entrada-salida correctas etiquetadas con la letra µ. De ellas un subconjunto
será utilizado primero para entrenar a la red, o sea, buscar el conjunto de sinapsis {w0,
w1, …., wN} , y luego el resto se utilizará para evaluar su desempeño.
Si esta red funciona bien, entonces dará solución casi siempre las relaciones entrada-
salida el cual nunca ha sido presentada previamente.
Corregiremos todos las sinapsis de tal forma que que minimice el error, descendiendo
por el gradiente

EJEMPLOS
APRENDIZAJE PROFUNDO:
Se sabe que no se pueden entrenar bien las redes neuronales con mas de unas pocas
capas, por diferentes problemas técnicos (matemáticos).

Hoy en día podemos generar y entrenar ciertas estructuras de bastantes capas, muy
heterogéneas que pueden mezclarse técnicas de aprendizaje supervisado con técnicas de
aprendizaje no supervisado y esto nos lleva a resolver de forma muy eficiente casi todos
los problemas.

También podría gustarte