Está en la página 1de 29

REDES NEURONALES

Prof. Cristhian Riaño


Contenido
• Introducción
• Aplicación de las redes Neuronales
• Perceptron
• Instalación de herramientas
• Tipos de aprendizaje de maquina
• Entrenamiento/ajuste de pesos en Perceptron
• Implementación paso a paso de una red neural con solamente una capa.


Contexto
• Problemas que son resueltos por algoritmos pre-determinados (sistemas para
sugerir, búsqueda, grafos, ordenación).
 Estos tipos de problemas son resueltos con algoritmos predeterminados o

específicos para cada problema.


• Algoritmos predefinidos para reconocimiento facial
 No tiene un algoritmo especifico para su solución

 La red neuronal se va adaptar y resolver el problema.

• Procesamiento de lenguaje natural


 No tiene un algoritmo especifico para su solución.

 La red neuronal se va adaptar y resolver el problema.


Contexto
• Aplicaciones:

 Desarrollo de nuevos remedios


 Entendimiento de lenguaje natural
 Carros autónomos
 Reconocimiento facial
 Cura para enfermedades
 Bolsas de valores
 Control de trafico

 Muchos datos y problemas complejos


Contexto
• Problemas que son resueltos por algoritmos pre-determinados (sistemas para
sugerir, búsqueda, grafos, ordenación).
 Estos tipos de problemas son resueltos con algoritmos predeterminados o

específicos para cada problema.


• Algoritmos predefinidos para reconocimiento facial
 No tiene un algoritmo especifico para su solución

 La red neuronal se va adaptar y resolver el problema.

• Procesamiento de lenguaje natural


 No tiene un algoritmo especifico para su solución.

 La red neuronal se va adaptar y resolver el problema.


Contexto
En esa figura tenemos cada una de
las unidades que conforman la red
neuronal que es una neurona.
• Neuronas: Usa para procesar
informaciones.
• Axón: Transmite la señal de una
neurona para otra (señales
electricas, sinapsis) conecta las
neuronas.
Sustancias químicas son lanzadas de las sinapsis y entran por las dendritas,
dependiendo de esa señal el nivel de potencial eléctrico del cuerpo de la cédula.

La neurona dispara si la entrada es mayor que un numero definido.


Redes neuronales
• Después de suministrado un valor de entrada, la red procesa y retorna una
respuesta.
• La neurona es activada solamente si el valor fuera mayor de un umbral.
1943 - Maculloch e Pitts

 Peso positivo, sinapsis excitadora 1958 – Frank Rosenblatt (perceptron)


 Peso negativo, sinapsis inhibidora

𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠
𝑛𝑛

= � 𝑥𝑥𝑥𝑥
 𝑖𝑖 neuronal
El conocimiento de la red
son los pesos. ∗ 𝑤𝑤𝑤𝑤
 Naive bayes Entender como la red neuronal va aprender de los pesos.
 Arboles de decisión
Instalación de herramientas
Instalación de herramientas

 Numpy
 Pandas
 matplotlib
Ejemplo
• Después de suministrado un valor de entrada, la red procesa y retorna una
respuesta.
• La neurona es activada solamente si el valor fuera mayor de un umbral.

𝑛𝑛

𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠 = � 𝑥𝑥𝑥𝑥 ∗ 𝑤𝑤𝑤𝑤 𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠


𝑖𝑖 = −0.09999
𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠 = 1.5
Ejemplo

Aprendizaje de Maquina
• Razones para que un agente aprenda?
• Quien proyecta un agente no puede anticipar todas las situaciones posibles en
que el agente se pueda encontrar.
• Quien proyecta no puede anticipar todos los cambios a lo largo del tiempo.
• Muchas veces el programador humano no tiene idea de como programar una
solución por si solo.
• Sistemas de aprendizaje:
 Modelos lineales,

 Modelos no lineales (redes neuronales),

 No parametricos,

 Maquinas vector,

 Conjuntos de modelos superan un modelo único.


Aprendizaje de Maquina
• Componentes a ser aprendidos:
• Mapeo directo de condiciones en estado actual para acciones.
• Medio para deducir propiedades relevantes del mundo a partir de percepción
• Informaciones sobre como el mundo evoluciona y sobre los resultado de acciones
a ejecutar por el agente.
• Informaciones sobre utilidad indicando deseos de estados del mundo
• Informaciones de valores de acciones indicando acciones deseadas
• Metas que describen clases de estados cuya realización maximiza la utilidad del
agente.
Aprendizaje de Maquina
Feedback para aprender:
• Aprendizaje no supervisada: La tarea más común es el agrupamiento. Detección
de grupos de ejemplos de entrada potencialmente útiles.

• Aprendizaje por refuerzo: El agente aprende a partir de una serie de refuerzos


recompensas o puniciones.

• Aprendizaje supervisada: El agente observa algunos ejemplos de pares de


entrada y salida y aprende una función que hace mapeo de entrada para salidas
Aprendizaje de Maquina
• Aprendizaje no supervisada:
 Asociación

 Regresión

 Agrupamiento

 Detección de desvíos

 Padrones de secuencias

• Aprendizaje supervisada:
 Clasificación

 Regresión
Aprendizaje de Maquina
• Aprendizaje supervisada

Ajustes de pesos
• AND

x1 x2 clase
0 0 0
0 1 0
1 0 0
1 1 1

Es necesario ajustar los pesos. En este escenario tuvo un 75% de acertó.


Error
• Los pesos pueden ser calculados en función del cambio del error.
• Los pesos son actualizado hasta el error ser menor.

• Error = respuesta deseada – respuesta obtenida

𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 𝑛𝑛 + 1 = 𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 𝑛𝑛 + 𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡 ∗ 𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒 ∗ 𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒

𝑝𝑝 𝑛𝑛 + 1 = 0 + 0.1 ∗ 1 ∗ 1
Ajustes de pesos
• AND

x1 x2 clase
0 0 0
0 1 0
1 0 0
1 1 1

𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 𝑛𝑛 + 1 = 𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 𝑛𝑛 + 𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡 ∗ 𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒 ∗ 𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒


Es necesario ajustar los pesos nuevamente.
𝑝𝑝 𝑛𝑛 + 1 = 0.1 + 0.1 ∗ 1 ∗ 1 = 0.2
Ajustes de pesos
• AND

x1 x2 clase
0 0 0
0 1 0
1 0 0
1 1 1
Ajustes de pesos
• AND

x1 x2 clase
0 0 0
0 1 0
1 0 0
1 1 1
Ejercicio en clase
• Clasificación

Longitud Diámetro clase Longitud Diámetro clase


4cm 3mm A 4cm 8mm ?
1cm 1mm A 7cm 1mm ?
2cm 2mm B 2cm 2mm ?
2cm 3mm B 3cm 4mm ?
1cm 2mm A
5cm 3mm A
3cm 3mm B
Ejercicio en clase
• Clasificación

Longitud Diámetro clase Longitud Diámetro clase


4cm 3mm A 4cm 8mm ?
1cm 1mm A 7cm 1mm ?
2cm 2mm B 2cm 2mm ?
2cm 3mm B 3cm 4mm ?
1cm 2mm A
5cm 3mm A
3cm 3mm B
Contenido
• Una capa x multicapa.
• Funciones de activación. (STEPFunction)
• Funciones de error
• Gradient descent (descenso de gradiente)
• BackPropagation (retro propagación)
Contexto

𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 𝑛𝑛 + 1 = 𝑝𝑝𝑝𝑝𝑝𝑝𝑝𝑝 𝑛𝑛 + 𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡𝑡 ∗ 𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒 ∗ 𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒𝑒


Ideal para problemas linealmente
separables. 𝑝𝑝 𝑛𝑛 + 1 = 0.1 + 0.1 ∗ 1 ∗ 1 = 0.2
Redes multicapa
• Se proporciona un valor de entrada la red procesa esta entrada y genera una
respuesta (Feed Forward).
• La neurona es activado solamente si el valor es mayor que un umbral.

 Peso positivo, sinapsis excitadora


 Peso negativo, sinapsis inhibidora

𝑠𝑠𝑠𝑠𝑠𝑠𝑠𝑠
𝑛𝑛

= � 𝑥𝑥𝑥𝑥
 𝑖𝑖 neuronal
El conocimiento de la red
son los pesos. ∗ 𝑤𝑤𝑤𝑤
 Naive bayes
 Arboles de decisión
Función Step
Función Sigmoid
Función Hyperbolic tanget (función tangente
hiperbólica)

https://en.wikipedia.org/wiki/Activation_function

También podría gustarte