Está en la página 1de 3

Nombre:

Jonathan Agurto Vargas


Curso:

INTELIGENCIA ARTIFICIAL
Ciclo:

IX
Año:

2018
Modelo de Perceptron

Introducción

Una de las características más significativas de las redes neuronales es su capacidad para aprender a
partir de alguna fuente de información interactuando con su entorno. En 1958 el psicólogo Frank
Ronsenblant desarrolló un modelo simple de neurona basado en el modelo de McCulloch y Pitts y en
una regla de aprendizaje basada en la corrección del error. A este modelo le llamó Perceptrón. Una
de las características que más interés despertó de este modelo fue su capacidad de aprender a
reconocer patrones. El Perceptrón está constituido por un conjunto de sensores de entrada que reciben
los patrones de entrada a reconocer o clasificar y una neurona de salida que se ocupa de clasificar a
los patrones de entrada en dos clases, según que la salida de la misma sea 1 (activada) o 0
(desactivada). Sin embargo, dicho modelo tenía muchas limitaciones, como por ejemplo, no es capaz
de aprender la función lógica XOR. Tuvieron que pasar unos años hasta que se propusiera la regla de
aprendizaje de retropropagación del error para demostrarse que el Perceptrón multicapa es un
aproximador universal.

PERCEPTRÓN SIMPLE
Este modelo neuronal fue introducido por Rosenblatt a finales de los años cincuenta. La estructura
del perceptrón se inspira en las primeras etapas de procesamiento de los sistemas sensoriales de los
animales (por ejemplo, el de visión), en los cuales la información va atravesando sucesivas capas de
neuronas, que realizan un procesamiento progresivamente de más alto nivel.
El perceptrón simple es un modelo neuronal unidireccional, compuesto por dos capas de neuronas,
una de entrada y otra de salida (Figura 19). La operación de una red de este tipo, con n neuronas de
entrada y m neuronas de salida, se puede expresar de la siguiente forma:
PERCEPTRÓN MULTICAPA
El perceptrón multicapa es una red neuronal artificial (RNA) formada por múltiples capas, esto le
permite resolver problemas que no son linealmente separables, lo cual es la principal limitación del
perceptrón (también llamado perceptrón simple). El perceptrón multicapa puede ser totalmente o
localmente conectado. En el primer caso cada salida de una neurona de la capa "i" es entrada de todas
las neuronas de la capa "i+1", mientras que en el segundo cada neurona de la capa "i" es entrada de
una serie de neuronas (región) de la capa "i+1".

También podría gustarte