Está en la página 1de 30

REDES NEURONALES

 Neurona: base del funcionamiento del cerebro.

 Sistema de procesamiento cerebral de la información:


 Complejo, No lineal y Paralelo.

 Elementos de que consta: sinapsis, axón, dentritas y soma o cuerpo


NEURONA ARTIFICIAL
 Neurona artificial: unidad de procesamiento de la información, es un dispositivo simple de
cálculo que ante un vector de entradas proporciona una única salida.

 Elementos:
 Conjunto de entradas, xj

 Pesos sinápticos, wi
 Polarización: bj
a
 Entrada Neta: w1·x1+ w2·x2 + ... + wn·xn +b=a
 Función de Activación: Define cuando esta activa la Neurona y cuando no y

 Función de transferencia: y = F (w1·x1+


w2·x2 + ... + wn·xn + b)

 Bias o polarización: entrada constate de magnitud 1, y peso b que se introduce en el


sumador
NEURONA ARTIFICIAL

 Principales funciones de transferencia:


 Lineal: y=ka
 Escalón: y = 0 si a<0; y=1 si a>=0
 Sigmoide
 Gaussiana.
Relación
Nombre Icono Función
Entrada /Salida

Limitador Fuerte hardlim

Limitador Fuerte Simétrico hardlims

Lineal Positiva poslin

Lineal purelin

Lineal Saturado satlin

Lineal Saturado Simétrico satlins

Sigmoidal Logarítmico logsig

Tangente Sigmoidal Hiperbólica tansig

Competitiva compet
RNA DE UNA CAPA
 Una neurona aislada dispone de poca potencia de cálculo.
 Los nodos se conectan mediante la sinapsis
 Las neuronas se agrupan formando una estructura llamada
capa.
 Los pesos pasan a ser matrices W (n x m)
 La salida de la red es un vector: Y=(y1, y2, ... , yn)T
 Y=F(W·X+b)

a1

y1

a2

y2

an

yn
RNA MULTICAPA
 Redes multicapa: capas en cascada.
 Tipos de capas:
 Entrada
 Salida
 Oculta
 No hay realimentación => red feedforward
 Salida depende de entradas y pesos.

 Si hay realimentación => red recurrente


 Efecto memoria

 Salida depende también de la historia


pasada.
 Una RNA es un aproximador general de
funciones no lineales.
ENTRENAMIENTO I

 Entrenamiento: proceso de aprendizaje de la red.


 Objetivo: tener un comportamiento deseado.
 Método:
 Uso de un algoritmo para el ajuste de los parámetros libres de la red:
los pesos y las bias.
 Convergencia: salidas de la red = salidas deseadas.
 Tipos de entrenamiento:
 Supervisado.
 Pares de entrenamiento: entrada - salida deseada.
 Error por cada par que se utiliza para ajustar parámetros
 No-supervisado.
 Solamente conjunto de entradas.
 Salidas: la agrupación o clasificación por clases
 Reforzado.
TEMA 3
FUNCIONES DE ACTIVACIÓN DE LAS RNA
CARACTERÍSTICAS

Ver video 0.4. funciones


de activacion
Funciones de activación:
MECANISMOS DE APRENDIZAJE DE LAS
RNA
CARACTERÍSTICAS

Ver video 0.4. funciones


de activacion
EL PERCEPTRÓN SIMPLE
En el campo de las Redes Neuronales, el perceptrón, creado por Frank Rosenblatt,1​ se refiere a:
•la neurona artificial o unidad básica de inferencia en forma de discriminador lineal, a partir de lo cual se
desarrolla un algoritmo capaz de generar un criterio para seleccionar un sub-grupo a partir de un grupo de
componentes más grande.
La limitación de este algoritmo es que si dibujamos en un gráfico estos elementos, se deben poder
separar con un hiperplano únicamente los elementos "deseados" discriminándolos (separándolos) de los
"no deseados".
•El perceptrón puede utilizarse con otros tipos de perceptrones o de neurona artificial, para formar una red
neuronal artificial más compleja.
EL PERCEPTRÓN SIMPLE
Una neurona sola y aislada carece de razón de ser. Su labor especializada se torna valiosa en la medida en
que se asocia a otras neuronas, formando una red. Normalmente, el axón de una neurona entrega su
información como "señal de entrada" a una dendrita de otra neurona y así sucesivamente. El perceptrón que
capta la señal en adelante se extiende formando una red de neuronas, sean éstas biológicas o de sustrato
semiconductor (compuertas lógicas)

El perceptrón usa una matriz para representar las redes neuronales y es un discriminador terciario que

traza su entrada x(un vector binario) a un único valor de salida F(x)(un solo valor binario) a
través de dicha matriz.
EL PERCEPTRÓN SIMPLE

El perceptrón simple, como otras redes neuronales contemporáneas


(el Adaline de Widrow-Hoff, etc.) , se revelaron inútiles cuando años más
tarde Minsky publicó un artículo que venía a recoger todas sus
limitaciones:
El perceptrón simple sólo sirve para clasificar problemas
linealmente separables.
SEPARABILIDAD LINEAL
EJERCICIOS
EJERCICIOS
ALGORITMO DE APRENDIZAJE CON
INCREMENTO FIJO (I)

P1. Crear un perceptrón con N+1 entradas y


N+1 pesos, donde la entrada X0 es siempre
valorizada con 1 y el peso W0 es la
predisposición del perceptrón.

X1 X2 Y
w0
0 0 0
x1 w1 y
0 1 1
x2 w2 1 0 1
1 1 1
ALGORITMO DE APRENDIZAJE CON
INCREMENTO FIJO
P1. Crear un perceptron con N+1 entradas y N+1 pesos, X0=1 y
W0 es la predisposición del perceptron.
P2. Inicializar los pesos (W0,W1,..,Wn) con valores reales aleatorios.
P3. Iterar a través del conjunto de entrenamiento coleccionando
todos los ejemplos mal clasificados por el conjunto actual de
pesos.
P4. Si todos los ejemplos están clasificados correctamente.
Terminar.
P5. En otro caso, computar el vector suma de las entradas mal
clasificadas.
 Xi si yi  0 (produjo0 en lugar de 1) 
S  
xMa lCla sifica d o s 

Xi si yi 1 (produjo1 en lugar de 0) 
P6. Modificar los pesos (w0, w1, ..., wn)
Retornar al paso P3.
W (t 1)  W (t )  * S
ALGORITMO DE APRENDIZAJE CON
INCREMENTO FIJO (II)

P2. Inicializar los pesos (w0,w1,..,wn) con valores reales


aleatorios.
Para el ejemplo tomaremos:
 W(1) = (w0,w1,w2) = (0,0,0)
 =1
P3. Iterar a través del conjunto de entrenamiento
coleccionando todos los ejemplos mal clasificados por el
conjunto actual de pesos.
  n
h( x , w)  h((x0 , x1 , x2 ), ( w0 , w1 , w2 ))   xi wi
i 0
PERCEPTRÓN MULTICAPA
El Perceptrón Multicapa (MLP), debido al grupo PDP (Paralell Distributed Processing) de 1986, es una extensión y
generalización del perceptrón simple en el que:
 Se añaden una o más capas ocultas. Generalmente una capa oculta es suficiente.
 Se permiten entradas continuas.
 Las funciones de activación son de tipo sigmoide (puede ser lineal en la capa de salida).
Su principal ventaja e innovación es su algoritmo de aprendizaje, el algoritmo de retropropagación (en inglés backpropagation,
BP), debido a Werbos, Rumelhart y Parker.

Ver video
PERCEPTRÓN MULTICAPA
El perceptrón multicapa es una red neuronal artificial (RNA) formada por múltiples capas, de tal manera que
tiene capacidad para resolver problemas que no son linealmente separables, lo cual es la principal limitación
del perceptrón (también llamado perceptrón simple). El perceptrón multicapa puede estar totalmente o
localmente conectado. En el primer caso cada salida de una neurona de la capa "i" es entrada de todas las
neuronas de la capa "i+1", mientras que en el segundo cada neurona de la capa "i" es entrada de una serie
de neuronas (región) de la capa "i+1".

Ver video

También podría gustarte