Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Introducción
Entrenamiento
Elementos:
Conjunto de entradas, xj
Pesos sinápticos, wi
a
Función de transferencia:
y = F (w1·x1+ w2·x2 + ... + wn·xn )
Sigmoide
Gaussiana.
RNA de una capa
a1
y1
a2
y2
an
yn
RNA Multicapa
Redes multicapa: capas en cascada.
Tipos de capas:
Entrada
Salida
Oculta
pasada.
Una RNA es un aproximador general de
funciones no lineales.
Entrenamiento I
Tipos de entrenamiento:
Supervisado.
Algoritmo supervisado:
Aplicar patrón de entrada y calcular salida de la red
Si salida incorrecta
i = lr xi
Wi (n+1) = Wi (n) + i
Razón de aprendizaje lr
Si las neuronas son
lineales=> un único
mínimo
Redes Neuronales Lineales.
Descripción:
Tras inicializar los pesos de forma aleatoria y con valores
Adelante
Detalles:
SSE: E=E = (y -o )2
p pk pk
wij=- wij
Pasos:
Inicialización:
Construcción de la red.
Inicialización aleatoria de pesos y umbrales (-0.5, 0.5)
Criterio de terminación (número máximo de iteraciones,…).
Contador de iteraciones n=0.
Fase hacia delante:
Parálisis de la red.
Mínimos locales.
Algoritmo Backpropagation IV
Underfitting.
Memorización o Sobreaprendizaje.
Caracterización de la red. ¿Cuantas capas, cuantas neuronas en
cada capa,…?
Redes Neuronales no supervisadas I
Autoorganizativas: durante el proceso de aprendizaje la red debe
descubrir por si misma regularidades o categorías => la red debe
autoorganizarse en función de las señales procedentes del entorno.
Mapa de Rasgos Autoorganizados, SOM (Kohonen, 80)
Características:
Red competitiva
Aprendizaje:
Inicialización de los pesos wij
Detección de patrones.
Filtrado de señales
Segmentación de datos
Control
Identificación.
Redes Neuronales en
identificación de sistemas
Identificación de sistemas
Pasos:
Seleccionar una clase de modelos (CARIMA, Box-Jenkis,...)
Control de sistemas.
Redes dinámicas:
Respuesta a:
No problemas de realimentación
Desventajas
Información útil debe “caber” en la ventana temporal
u(t)
u(t-1)
u(t-2) ym (t)
…
u(t-m)
y(t-1)
y(t-2)
…
Redes neuronales recurrentes
valores fijos
Algoritmo de aprendizaje “ve”
Jordan
Elman
interconectadas
Computacionalmente costoso
Estructuras neuronales para la
identificación
Ventajas:
Puede aproximar cualquier sistema no-lineal arbitrariamente
bien
No recurrente.
Desventajas:
Vector de regresión puede ser grande
No se modela el ruido
yt
ˆ(t)
y
g yt yˆ (t ) g ( , (t )),
ut
ŷt ˆ(t)
y
t
y g yt
ut
yˆ (t | ) g ( (t ), )
Validación
Enfoque neuronal:
Conjunto de datos de entrenamiento
…
Ejemplo I
Perturbaciones medibles:
Fl R.N.A. Elman Ca
Fr R.N.A. Elman Cb
Ca0
Tl0
R.N.A. Elman Tl