Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Redes Neuronales
Redes Neuronales
❚ Introducción
● Entrenamiento
●
REDES NEURONALES
❚ Elementos:
● Conjunto de entradas, xj
● a
● Pesos sinápticos, wi
y
●
● Función de activación:
w1·x1+ w2·x2 + ... + wn·xn = a
●
● Función de transferencia:
y = F (w1·x1+ w2·x2 + ... + wn·xn )
●
● Bias o polarización: entrada constate de magnitud 1,
NEURONA ARTIFICIAL
● Sigmoide
● Gaussiana.
RNA de una capa
y1
a2
y2
an
yn
RNA Multicapa
● Salida
● Oculta
❚ Tipos de entrenamiento:
● Supervisado.
y
❚
❚ Solo permite discriminar entre dos clases
linealmente separables: XOR.
● 0.5= a = w1·x1 + w2·x2
● No hay combinación de x1 y x2 que resuelva
este problema.
❚ Solución: más capas o funciones de transferencia no lineales.
Aprendizaje del Perceptrón.
❚ Algoritmo supervisado:
① Aplicar patrón de entrada y calcular salida de la red
② Si salida correcta, volver a 1
③ Si salida incorrecta
❘ 0 ➔ ▲◆❍❁❒ ❁ ❃❁❄❁ ❐❅▲❏ ▲◆ ❅■▼❒❁❄❁
❘ ✑ ➔ ❒❅▲▼❁❒ ❁ ❃❁❄❁ ❐❅▲❏ ▲◆ ❅■▼❒❁❄❁
④ ✶❏●❖❅❒ ❁ ✑
④
● ∆ i =δ lr xi
●
● Wi (n+1) = Wi (n) + ∆ i
●
● Razón de aprendizaje lr
● Si las neuronas son
lineales=> un único
Redes Neuronales Lineales.
❚
❚ a
❚ y
❚
❚
❚
❚ Función acotada, monótona creciente y diferenciable.
❚
❚ Red de tipo feedforward.
❚ Suficiente con dos capas.
Algoritmo backpropagation I
❚ Descripción:
● Tras inicializar los pesos de forma aleatoria y con
Adelante
❚ Detalles:
● SSE: E=Σ Ep=Σ (ypk -opk )2
● ∆ wij =-η ∂Ε / ∂ω ι ϕ
❚ Pasos:
● Inicialización:
❘ Construcción de la red.
❘ Inicialización aleatoria de pesos y umbrales (-
0.5, 0.5)
❘ Criterio de terminación (número máximo de
iteraciones,…).
❘ Contador de iteraciones n=0.
● Fase hacia delante:
❘ Calcular la salida de la red para cada patrón
de entrada.
❘ Calcular el error total cometido (SSE)
Algoritmo backpropagation III
❘ Parálisis de la red.
❘ Mínimos locales.
●
Algoritmo Backpropagation IV
● Underfitting.
● Memorización o Sobreaprendizaje.
● Caracterización de la red. ¿Cuantas capas, cuantas
neuronas en cada capa,…?
Redes Neuronales no supervisadas I
❚ Aprendizaje:
● Inicialización de los pesos wij
●
●
❚ Detección de patrones.
❚ Filtrado de señales
❚ Segmentación de datos
❚ Control
❚ Identificación.
❚
Redes Neuronales en
identificación de sistemas
Identificación de sistemas
Entrada: u(t) Salida: y(t)
Sistema
❚ Pasos:
● Seleccionar una clase de modelos (CARIMA, Box-
Jenkis,...)
● Obtener un conjunto de datos experimentales
● Seleccionar un modelo de la clase elegida
● Estimar los parámetros (método de Identificación:
LS,RLS,IV,...)
● Validación (exactitud, adecuación de uso)
RNA que representan el tiempo
● Control de sistemas.
❚ Redes dinámicas:
● Respuesta a:
● No problemas de realimentación
❚ Desventajas
● Información útil debe “caber” en la ventana
temporal
● Muchas entradas ➔ ✳❏❂❒❅❐❁❒❁❍❅▼❒❉❚❁❃❉➳■
u(t)
u(t-1)
u(t-2) ym (t)
…
u(t-m)
y(t-1)
y(t-2)
…
Redes neuronales recurrentes
❚ Redes neuronales
parcialmente recurrentes:
● Conexiones
recurrentes con
valores fijos
● Algoritmo de
aprendizaje “ve”
una red perceptrón
multicapa
● Ejemplos:
❘ Jordan
❚Redes neuronales recurrent es:
Elman
●Todas❘ las neuronas
int erconect
❘ adas
●Com put acionalm ent e
cost oso
Estructuras neuronales para la
identificación
❚ Ventajas:
● Puede aproximar cualquier sistema no-lineal
arbitrariamente bien
● No recurrente.
❚ Desventajas:
● Vector de regresión puede ser grande
● No se modela el ruido
yt
yˆ (t )
g yt yˆ (t ) = g (θ , ϕ (t )),
ut
yˆ (t | θ ) = g (ϕ (t ),θ )
Validación
❚ Enfoque neuronal:
● Conjunto de datos de entrenamiento
❚ …
Ejemplo I
❚ Transforma un producto A en
otro B
Fl, Ca0, Tl0 ❚ Reacción química exotérmica
Reactor
Fr, Tr0 ❚ Se controla la temperatura
Camisa mediante
una camisa por la que circula
un refrigerante
A B
❚ Salidas:
Ca, Cb, Tl Tr ● Ca Cb Tl Tr
●
❚ Entradas:
● Manipulables: Fl Fr
● Perturbaciones medibles:
Ca0 Tl0
Tr0
Ejemplo II
Fl R.N.A. Elman Ca
Fr R.N.A. Elman Cb
Ca0
R.N.A. Elman Tl
Tl0
Tr0 R.N.A. Elman Tr
Ejemplo IV