Documentos de Académico
Documentos de Profesional
Documentos de Cultura
2.
3.
Aprendizaje Supervisado:
Aprendizaje No-Supervisado:
Plausibilidad biológica
Solamente conjunto de entradas.
Salidas: la clasificación o agrupación por clases
Aprendizaje Reforzado:
fase de entrenamiento
fase de operación
5.
El aprendizaje es el proceso por el cual una RNA modifica sus pesos en respuesta a una
información de entrada.( destrucción, modificación o creación)
6.
El proceso de aprendizaje termina cuando los valores de los pesos permanecen estables.
7.
8.
Se entiende por capacidad de generalización de una RNA a la capacidad que tienen estas de,
una vez entrenada, recibir y procesar datos diferentes a los usados.
9.
Cuando a una RNA se la somete a una cantidad excesiva de aprendizaje, esta empieza a
memorizar los datos, lo que hace que no pueda reconocer datos distintos a los usados en el
entrenamiento, perdiendo asi su capacidad de generalización.
10.
11.
Porque la red memoriza los patrones aprendidos y no puede reconocer patrones distintos.
12.
La red perceptron es un modelo unidireccional sin capa oculta: una de entrada y otra
de salida.
La función de transferencia es de tipo escalón
Tiene salida binaria
13.
La red perceptron se utiliza como clasificador de patrones o para la representación de
funciones booleana
Permite discriminar entre dos clases linealmente separable
14.
15.
Adaline tiene una estructura similar a perceptron pero con salida real y aprendizaje continuo.
Su funcion de transferencia es Lineal y utiliza la regla de aprendizaje delta con el algoritmo del
minimo error cuadrático medio (LMS).
16.
17.
En adaline, se busca minimizar la función de error. Como los pesos de las entradas se
actualizan en forma proporcional a la derivada del error, descender por el gradiente significa
aproximar cada vez más la RN al error mínimo.
18.
19.
20.
Adaline tiene una mayor convergencia, ya que realiza una mejor aproximación minimizando el
error mediante el algoritmo LMS.
21.
Se trata de una generalización de la regla delta para poder aplicarla a redes de conexiones
hacia delante con capas o niveles internos ocultos de neuronas que no tienen relación con el
exterior.
22.
Las RNA de backpropagartion (BPN) son redes neuronales multicapa que funcionan de la
siguiente forma:
1. se calcula la salida
2. se compara el resultado en las neuronas de salida con la salida que se desea obtener y
se calcula un valor de error para cada neurona de salida
3. éstos errores se transmiten hacia atrás, partiendo de la capa de salida hacia todas las
neuronas de la capa intermedia que contribuyan directamente a la salida.
4. Este proceso se repite, capa por capa,
5. Hasta que todas las neuronas de la red hayan recibido un error que describa su
aportación relativa al error total.
23.
El método de delta generalizada converge más rápido, porque a la hora de actualizar los pesos,
toma en consideración el efecto de dicha actualización.