Documentos de Académico
Documentos de Profesional
Documentos de Cultura
BACKPROPAGATION
La propagacin hacia atrs de errores o retropropagacin (del ingls backpropagation) es un algoritmo de aprendizaje supervisado que se usa para entrenar redes neuronales artificiales. El algoritmo consiste en minimizar un error (comnmente cuadrtico) por medio de descenso de gradiente, por lo que la parte esencial del algoritmo es clculo de las derivadas parciales de dicho error con respecto a los
entrada (input).
EJEMPLOS DE OBJETIVOS
Pueden ser valores que indican xito/fallo, venta/no-venta, prdida/ganancia, o bien ciertos atributos multi-clase como cierta gama de colores o las letras del alfabeto. El conocer los valores de salida deseados permite determinar la calidad de la aproximacin del modelo obtenido por el algoritmo.
El Perceptrn es un tipo de red neuronal artificial desarrollado por Frank Rosenblatt, tambin puede entenderse como perceptrn la neurona artificial y unidad bsica de inferencia en forma de discriminador lineal, que constituye
PERCEPTRN
este modelo de red neuronal artificial, esto debido a que el perceptrn puede
usarse como neurona dentro de un perceptrn ms grande u otro tipo de red neuronal artificial.
DEFINICIN
El perceptrn usa una matriz para representar las redes neuronales y es un discriminador terciario que traza su entrada x (un vector binario) a un nico valor de salida f(x) (un solo valor binario) a travs de dicha matriz.
EJEMPLO
Mc Culloch y Pitts (1943) desarrollan la primera modelizacin de una neurona artificial que busca explicar rudimentariamente la neurona humana. El modelo de Mc Culloch y Pitts se puede representar como: