Está en la página 1de 4

1.

2.

3.

Aprendizaje Supervisado:

 Se presentan juntos los patrones de entrada y los de salida deseados (Target)


 Se calcula el Error por cada par que se utiliza, para ajustar los parámetros (pesos)

Aprendizaje No-Supervisado:

 Plausibilidad biológica
 Solamente conjunto de entradas.
 Salidas: la clasificación o agrupación por clases

Aprendizaje Reforzado:

 Se limita a indicar si la salida de la red es correcta o incorrecta.


 Simula la psicología conductual reforzado donde tienen mas probabilidad de repetirse
las conductas reforzadas positivamente y viceversa las conductas castigadas o
reforzadas negativamente
4. El proceso de aprendizaje offline se compone de dos fases:

 fase de entrenamiento
 fase de operación

5.

El aprendizaje es el proceso por el cual una RNA modifica sus pesos en respuesta a una
información de entrada.( destrucción, modificación o creación)

Durante el proceso se le suministra a la red un conjunto de datos de entrenamiento y un


conjunto de datos de prueba

6.

El proceso de aprendizaje termina cuando los valores de los pesos permanecen estables.

7.

1. Fijar los valores aleatorios de los pesos


2. Presentar a la red un par de patrones
3. Ejecutar la RNA y obtener la salida para el patrón presentado
4. Calcular el error: error = Target – Out
5. Si hay error, Actualizar los pesos siguiendo la regla de aprendizaje
6. Repetir desde 2. Hasta que los pesos se estabilicen

8.

Se entiende por capacidad de generalización de una RNA a la capacidad que tienen estas de,
una vez entrenada, recibir y procesar datos diferentes a los usados.

9.

Cuando a una RNA se la somete a una cantidad excesiva de aprendizaje, esta empieza a
memorizar los datos, lo que hace que no pueda reconocer datos distintos a los usados en el
entrenamiento, perdiendo asi su capacidad de generalización.

10.

11.

Porque la red memoriza los patrones aprendidos y no puede reconocer patrones distintos.

12.

 La red perceptron es un modelo unidireccional sin capa oculta: una de entrada y otra
de salida.
 La función de transferencia es de tipo escalón
 Tiene salida binaria

13.
 La red perceptron se utiliza como clasificador de patrones o para la representación de
funciones booleana
 Permite discriminar entre dos clases linealmente separable

14.

Perceptron utiliza la regla de aprendizaje de Perceptrón:

W(t+1) = w(t) + α * error * x

α= Coeficiente de aprendizaje (0.1<α<2)

15.

Adaline tiene una estructura similar a perceptron pero con salida real y aprendizaje continuo.

Su funcion de transferencia es Lineal y utiliza la regla de aprendizaje delta con el algoritmo del
minimo error cuadrático medio (LMS).

16.

Adaline se utiliza para procesamiento de información analógica, tanto de entrada como de


salida, procesamiento de señales, como filtros de ruido o ecualizadores, eliminación de eco,
etc.

Tambien puede resolver problemas linealmente separables

17.

En adaline, se busca minimizar la función de error. Como los pesos de las entradas se
actualizan en forma proporcional a la derivada del error, descender por el gradiente significa
aproximar cada vez más la RN al error mínimo.

18.

La regla delta es la regla de aprendizaje de adaline:

W(k+1) = W(k) +N*e(k)*p^t(k)

19.

20.

Adaline tiene una mayor convergencia, ya que realiza una mejor aproximación minimizando el
error mediante el algoritmo LMS.

21.
Se trata de una generalización de la regla delta para poder aplicarla a redes de conexiones
hacia delante con capas o niveles internos ocultos de neuronas que no tienen relación con el
exterior.

En la funcion de incremento de los pesos se añade un termino B(momentum) que determina el


efecto del cambio de los pesos en los tiempos t y t-1:

w ji ( t +1)=w ji ( t )+α ( y−o ) x pi + β (w ji ( t )−w ji ( t−1 ))

22.

Las RNA de backpropagartion (BPN) son redes neuronales multicapa que funcionan de la
siguiente forma:

1. se calcula la salida
2. se compara el resultado en las neuronas de salida con la salida que se desea obtener y
se calcula un valor de error para cada neurona de salida
3. éstos errores se transmiten hacia atrás, partiendo de la capa de salida hacia todas las
neuronas de la capa intermedia que contribuyan directamente a la salida.
4. Este proceso se repite, capa por capa,
5. Hasta que todas las neuronas de la red hayan recibido un error que describa su
aportación relativa al error total.

23.

El método de delta generalizada converge más rápido, porque a la hora de actualizar los pesos,
toma en consideración el efecto de dicha actualización.

También podría gustarte