Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Abstract—La practica se centra en el entrenamiento de dos Los pesos y el sesgo son parámetros ajustables que se
conjuntos de neuronas mediante prohgramacion,utilizando el modifican durante el entrenamiento del perceptrón.
enfoque del perceptron. Con esto podemos controlar velocidad • Regla de aprendizaje: El perceptrón utiliza una regla de
y direccion de motor mediante dipswitch independientes.Al
conbinar la capacidad de la neurona para aprender y adaptarse, aprendizaje para ajustar los pesos y el sesgo de manera
con esto se da un control preciso del motor. iterativa durante el entrenamiento. La regla más conocida
es la regla de aprendizaje del perceptrón propuesta por
I. OBJETIVOS Rosenblatt, que se basa en el concepto de aprendizaje
• Entrenar un grupo de neuronas con un entrenamiento de supervisado. Esta regla actualiza los pesos y el sesgo en
perceptrones para el control de velocidad como direccion función de la diferencia entre la salida calculada y la sal-
de motor. ida deseada para un conjunto de datos de entrenamiento.
• diseño de el circuito con amplificadores operacionales • Capas y arquitectura: El perceptrón es una red neuronal
para el control de las señales recibidas. de una sola capa, lo que significa que consta de una
• Ajustar y probar los circuitos para obtener el fun- capa de entrada y una capa de salida. Las entradas se
cionamiento eficaz del motor. propagan a través de las conexiones ponderadas hasta
la capa de salida, donde se genera la salida final. Esto
II. MATERIAL DE PRACTICA contrasta con las redes neuronales multicapa, como las
redes neuronales profundas, que tienen múltiples capas
• amplificadores operacionales LM741.
ocultas entre la capa de entrada y la capa de salida.
• Arduino Uno.
• Limitaciones: Aunque el perceptrón es un modelo fun-
• Motor Dc con Puente H.
damental, tiene ciertas limitaciones. Por ejemplo, solo
III. M ARCO T EORICO puede resolver problemas linealmente separables, lo que
significa que no puede representar funciones no lineales
El perceptrón es un tipo básico de red neuronal artificial que complejas. Sin embargo, estas limitaciones se superan
fue propuesto por Frank Rosenblatt en 1957. Aunque ha sido con redes neuronales más complejas, como las redes
superado por redes neuronales más complejas, el perceptrón neuronales multicapa.
proporciona una base teórica importante para comprender las
redes neuronales modernas. A continuación, se presenta un
marco teórico del perceptrón:
• Neurona artificial: El perceptrón se basa en el concepto
de una neurona artificial, que es una unidad básica
de procesamiento inspirada en las células nerviosas del
cerebro humano. Una neurona artificial recibe una serie
de entradas, las procesa y genera una salida.
• Función de activación: Cada neurona artificial en un
perceptrón utiliza una función de activación para deter-
Fig. 1. perceptron multicapa
minar si la salida de la neurona debe activarse o no. La
función de activación más comúnmente utilizada en el
perceptrón es la función de paso o función escalón, que Representación matemática: Matemáticamente, un perceptrón
asigna un valor binario a la salida basado en un umbral. puede representarse como una función de entrada y salida.
Otras funciones de activación, como la función sigmoide, Dado un conjunto de entradas x, x, ..., xn y los correspondi-
también se utilizan en redes neuronales más complejas. entes pesos w, w, ..., wn y el sesgo b, la salida del perceptrón
• Pesos y sesgos: Cada conexión entre las entradas y la (y) se calcula mediante la siguiente fórmula:
neurona en el perceptrón está asociada con un peso. y = f(wx + wx + ... + wnxn + b)
Los pesos representan la importancia relativa de cada Aplicaciones: Aunque los perceptrones son modelos
entrada para determinar la salida. Además, se utiliza un básicos, han sido utilizados en diversas aplicaciones. Algunas
sesgo (bias) para ajustar el comportamiento de la neurona. de estas aplicaciones incluyen reconocimiento de patrones,
clasificación de imágenes, procesamiento de texto y control Formula de salida de perceptron
de robots, entre otros. Donde f() es la función de activación.
ωθ = 1.14 (13)
IV. CALCULOS
Formula de salida de un perceptron
Y (t) = f [ω1X1 + ω2X2 − ωθXθ] (14)
donde
•
Y (t) = Salidadeperceptron (15)
• f= es la funcion de activacion
• ω = eselvectordepesos
• ωθ = eselsesgonegativoquerepresentaelumbraldeactivacion
Fig. 2. tabla de verdad neurona de direccion
TABLE I
• 1 -¿ izquierda 0-¿ derecha N EURONA DE DIRECCION
TABLE II
N EURONA DE VELOCIDAD
ωθ = 1.2 (6) R2
V out = V in (16)
inicializamos los pesos de la neurona de velocidad: R1
VI. DATOS DE NEURONA DE DIRECCION
ω1 = 1 (7)
• Vin= 2v
ω2 = 1 (8) • Vout= -2.4V
• R1 = 10 KΩ
ωθ = 1 (9) R1 10k
R2 = V in = 2 = 8.7k (17)
los pesos resultanes de la neurona de la velcidad V out (−2.28)
Rf Rf Rf
V out = V in( ) (19)
R1 R2 R3
obtenemos el valor de R2 Y R3 respectivamente del valor de
umbral
VII. NEURONA DE VELOCIDAD Fig. 8. circuito inversor
para la configuracion de la neurona de velocidad se implem-
neto un amplificador operacional inversor el cual nos permite tenemos que evaluar en una funcion.Lo realizamos mediante
invertir la polaridad de nuestra señal en este caso Vumbral es una configuracion del amplificador operacional en comparador
de -2.28V el valor de salida del ultimo inversor se compara con 2.5V, si
R2
V out = V in (20) el valor es mayor se va a 1(5v) y si el valor es menor a 2.5v se
R1 va a 0 (0v) una vez que las neuronas se encuentran entrenadas
VIII. DATOS DE NEURONA DE VELOCIDAD
• Vin= 2v
• Vout= -2.28V
• R1 = 10 KΩ
R1 10k
R2 = V in = 2 = 8.7k (21)
V out (−2.28)
para la respectiva sumatoria de todos los pesos multiplicamos
por sus respectivas entradas configuramos un amplificador
operacional sumador inversor
Fig. 10. neurona de control de direccion