Está en la página 1de 41

UNIVERSIDAD AUTÓNOMA DE CAMPECHE

FACULTAD DE INGENIERÍA

INGENIERÍA EN MECATRÓNICA

UNIDAD DE APRENDIZAJE: TEMAS SELECTOS DE


AUTOMATIZACIÓN

CAPITULO 9: REDES NEURONALES ARTIFICIALES Y VHDL

CICLO ESCOLAR: 2019-2020 F2

DOCENTE: GOMEZ KU RICARDO

EQUIPO:

EK SALAZAR ANGEL ADRIAN


HERNÁNDEZ GRAMAJO OSCAR LEONEL
PACHECO GARCIA PEDRO ALFONSO
PINZÓN CHI ELIU DAVID
INTRODUCCIÓN
OSCAR LEONEL HERNÁNDEZ GRAMAJO.

En el subcapítulo 9.1 se abordaran conceptos acerca de las redes neuronales


artificiales, sobre el funcionamiento de estas redes, además se hablara su
comparación con las redes neuronales biológicas y sus aplicaciones en las
diferentes áreas.
INTRODUCCION 9.2
PEDRO ALFONSO PACHECO GARCIA 59134
El siguiente tema trata sobre las redes neuronales, en este caso hablaremos de las
neuronas hebbiana y del perceptrón, estos ayudan a la inteligencia artificial ya que
se entrenan para recordar las cosas con las que se cruzan ya que de esta manera al
momento en que se topen con estas situaciones las recuerden de cierta manera.
INTRODUCCIÓN 9.3 APRENDIZAJE POR ERROR MÍNIMO
(LA ADALINE)
ANGEL ADRIÁN EK SALAZAR
Para empezar este tema debemos tener en cuenta un sistema que utiliza la
técnica del mínimo error cuadrático y con esto avanzando con su modelo y
ecuación para terminar con su declaración.
9.4 INTRODUCCIÓN

En las redes asociativas los patrones se almacenan asociándolos con otros patrones.
Existen varias clasificaciones para las redes asociativas; por ejemplo, pueden ser
autoasociativas o heteroasociativas. Una red autoasociativa almacena los patrones
asociándolos con ellos mismos. Una red heteroasociativa se utiliza para asociarlos con
otros patrones.

ELIÚ D PINZÓN CHI 59148


9.1 ¿QUÉ ES UNA RED
NEURONAL ARTIFICIAL?
Las redes neuronales artificiales son sistemas basados en una representación
simplificada de estructura y funcionamiento del sistema nervioso, ya sea
simulado en software o construido en hardware. Se deben entrenar mediante
ejemplos conocidos hasta que son capaces de asociar patrones de entrada
con respuestas definidas sin necesidad de una programación explícita para
un patrón en particular. Esta característica permite a las redes resolver
problemas nuevos donde incluso se crean nuevas categorías de patrones
para los cuales no es posible diseñar algoritmos de solución, con lo cual
pueden enfrentar con éxito casos en que no es posible definir una relación
entre las causas y los efectos.
9.1.1 Funcionamiento de la red

El principio de funcionamiento de las redes neuronales artificiales es, en


términos generales, el de un convertidor vectorial. La información codificada
en forma de vector de entrada controla la red y después de cierta cantidad de
intentos de comparación entre patrones ésta produce un vector de salida, que
es la mejor solución que encuentra en la conversión del vector de entrada.
Similitudes entre una red neuronal artificial y una neurona biológica
El funcionamiento de las redes neuronales se basa en el del sistema nervioso. En
general, las criaturas vivientes tienen receptores que utilizan para ver, oler, oír y sentir.
Con base en el desarrollo de las redes neuronales, se han construido circuitos
electrónicos que pueden aprender de manera similar a como lo hacen los seres vivos. El
fundamento del aprendizaje está en el funcionamiento de la celda nerviosa básica de la
neurona biológica. Estos pequeños bloques o estructuras de todos los sistemas vivientes,
tanto del cerebro como del sistema nervioso de casi cualquier ser vivo, es posible
modelarlos mediante un filtro transversal cuyos pesos varían o se adaptan cuando han
alcanzado el aprendizaje deseado. A esta estructura se le conoce también como filtro
transversal adaptable.
Tanto en la neurona biológica y en los circuitos electrónicos la comunicación
se establece mediante un pulso eléctrico. En la célula nerviosa podemos medir
el voltaje de la membrana, que es cercano a 0.1 volt. En los alambres
conductores también se puede medir el voltaje cuando circula la corriente
eléctrica. La transmisión del impulso nervioso se propaga en la célula a una
velocidad que oscila entre 27 y 132 metros por segundo. Así también las
corrientes en los alambres conductores se pueden propagar (por efectos de la
acción de los campos) a una velocidad cercana a la de la luz (300 000
km/seg).
9.1.2 Aplicaciones de redes neuronales artificiales
Las aplicaciones de las redes neuronales y de la computación son muy abundantes.
De entre ellos se destacan en el campo de procesamiento de señales o
reconocimiento de patrones, la extracción de características, la inspección
industrial, el pronóstico de negocios, la clasificación de crédito, la selección de
seguridad, el diagnóstico médico, el procesamiento de voz, la comprensión del
lenguaje natural, el control de robots y la adaptación de procesos de control.
Elementos de una red neuronal

Las redes neuronales artificiales constan de elementos de procesamiento y


conexión de pesos. La cantidad de éstos depende de la implementación y
diseño de la red. Otros elementos que intervienen dependiendo de la aplicación
son las funciones preestablecidas de los vectores de entrada y los vectores de
salida.
Elementos de entrada y salida
9.2 APRENDIZAJE EN LAS NEURONAS
ARTIFICIALES
9.2.1 NEURONA HEBBIANA

En 1949, Donald Hebb mencionó la primera regla de aprendizaje para una red
neuronal artificial, la cual establece que cuando una neurona estimula a otra, la
conexión entre ellas se refuerza.
En la figura se tienen las ecuaciones generales y el modelo de una neurona hebbiana. El
funcionamiento de ésta es muy sencillo. La neurona artificial calcula la entrada ponderada I.

Donde w es la matriz de pesos, x es el vector de entrada y b es una constante inicializada en 1. Si el


valor de la entrada ponderada es mayor o igual a cero, la salida de la neurona es igual a +1; si es
menor a cero, la salida es -1.
Toda red neuronal se debe entrenar para que responda como se desee. En otras palabras, es necesario
calcular el vector de ponderaciones (pesos) w que le permita comportarse de acuerdo con la
información de entrada. El proceso de entrenamiento para una neurona hebbiana es muy simple. Basta
cambiar el vector de ponderaciones w, por cada patrón de entrenamiento, de acuerdo con la siguiente
regla hebbiana:
ENTRENAMIENTO DE UNA NEURONA HEBBIANA
PROGRAMA EN VHDL PARA ENTRENAR UNA NEURONA
HEBBIANA.
9.2.2 PERCEPTRÓN

Warren S. McCulloch y Walter Pitts desarrollaron la red neuronal perceptrón en


1943 proponiendo las ecuaciones generales y el diagrama de la figura .
El funcionamiento del perceptrón es muy simple. La neurona suma las señales del vector de entrada x,
multiplicadas por el vector de ponderaciones (pesos) w, lo que da la entrada ponderada I.

La ecuación compara la señal con un valor de umbral 6. Si es mayor, la salida es +1. De lo contrario, es -
1.

Para entrenar la red, se escogen valores de x como entrada, llamados patrones de entrenamiento. Por
cada patrón de entrenamiento se calcula si la salida del perceptrón y es correcta o incorrecta, con lo que
se obtiene ¡3.
Por cada iteración el vector de ponderaciones w cambiará de acuerdo con la ley de
Rosenblatt.
ENTRENAMIENTO DEL PERCEPTRÓN
CAPÍTULO 9
9.3 APRENDIZAJE POR ERROR MÍNIMO (LA ADALINE)
ADALINE
Sistema desarrollado en 1960 por Bernard Widrow y Ted Hoff, de la
universidad de Stanford. Ofrece la primera neurona con un entrenamiento
supervisado; es decir, toma en cuenta el posible error cuadrático mínimo
obtenido al calcular la salida de la neurona. El nombre proviene de adaptive
linear element (elemento lineal adaptativo).
En la figura 9.6 se muestra su modelo y ecuaciones.
La adaline, al igual que el perceptrón, tiene una salida bipolar. Ésta genera en su
salida +1, si la entrada ponderada I es mayor que cero, y -1 si la entrada ponderada
es menor o igual a cero. La salida se compara con la salida deseada calculando el
error de la adaline E.
E = < salida deseada > - < salida actual >
Es evidente que el error sólo puede tomar los valores +2, -2 o cero. Una vez calculado
el error, se puede utilizar para ajustar las ponderaciones w, utilizando la regla delta.
Donde i3 es la constante de aprendizaje y puede tomar un valor entre cero y 1. E es el
error ya calculado, x es el vector de entrada ( x¡, X£ ) y w es el vector de
ponderaciones ( w¡, W2 ).
ENTRENAMIENTO DE UNA ADALINE

El proceso de entrenamiento consiste en calcular el error para cada patrón de


entrada. Si el error es diferente a cero, se modifica el vector de ponderaciones,
pero después se debe regresar a los patrones anteriores para revisar que se
siga obteniendo la salida deseada.
USO DE UNA ADALINE
9.4 REDES ASOCIATIVAS
FUNCIONAMIENTO
El funcionamiento de la red es el siguiente: se calculan las entradas ponderadas a cada una
de las neuronas.

La función de transferencia para este tipo de redes está dada por la siguiente ecuación si
las salidas son de tipo bipolar:

Si las salidas son de tipo binario, se puede utilizar una función como la siguiente:
LEY DE HEBB PARA ASOCIACIÓN DE
PATRONES
La ley de Hebb es la regla más simple y el método más usado para determinar los
pesos de una red asociativa. Se puede usar con patrones representados por vectores
binarios (0, 1) o hipóles (—1,1). En este caso se denotan los pares de vectores de
entrenamiento como e: s. Donde e es el vector de entrada y s es el vector de salida
esperado para el vector de entrada.
ENTRENAMIENTO DE UNA RED
HETEROASOCIATIVA MEDIANTE LA LEY DE
HEBB
El algoritmo para entrenar una red heteroasociativa es muy sencillo: para cada uno de
los patrones de entrenamiento se utiliza la ley de Hebb ya mencionada. Cada peso se
almacena en una matriz.
Algoritmo de entrenamiento para una red heteroasociativa mediante la ley de Hebb
CONCLUSIÓN
OSCAR LEONEL HERNÁNDEZ GRAMAJO.

En conclusión de este subcapítulo 9.1 es que el funcionamiento de las redes


neuronales artificiales se basa en las redes neuronales biológicas. Su principal función
es resolver problemas nuevos en base a datos y patrones, ya que estos no se pueden
resolver con algoritmo explicito. Estas redes de neuronas artificiales están construidas
por circuitos eléctricos, los cuales trabajan con niveles lógicos alto y bajo por medio de
diferencias de voltaje. Para poder trabajar necesitan un vector de entrada y un vector
de salida, obtienen la información a través de receptores y la procesan, como las
neuronas biológicas. Por ultimo las aplicaciones de estas se dan en las siguientes
áreas: procesamiento de señales o reconocimiento de patrones, la extracción de
características, la inspección industrial, la selección de seguridad, el diagnóstico
médico.
CONCLUSION 9.2
PEDRO ALFONSO PACHECO GARCIA 59134
Llegue ala conclusión de que Las redes neuronales artificiales son modelos de
comportamiento inteligente que pueden ser construidos como sistemas artificiales
inspirados en el sistema nervioso de seres vivos. Las redes neuronales son capaces de
aprender y, en fin, tener un funcionamiento que se aproxime al comportamiento de la
mente y ser la base de la inteligencia artificial, estas pasan la prueba más
importante basada en el conocimiento de que no basta ser como un cerebro, en
cuanto a la arquitectura se refiere, sino que hay que comportarse como tal para
emular sus propiedades básicas.
CONCLUSIÓN 9.3 APRENDIZAJE POR ERROR MÍNIMO
(LA ADALINE)
ANGEL ADRIÁN EK SALAZAR
Las Adaline son muy útiles, ya que, toma en cuenta el posible error cuadrático
mínimo obtenido al calcular la salida de la neurona y con ello hacer el proceso
de entrenamiento.
9.4 CONCLUSIÓN

Las Redes Asociativas Pathfinder resultan, en nuestra opinión, una herramienta muy titil
para el conocimiento de la estructura cognitiva del alumno.
Sus aplicaciones, que hemos estudiado en el Ámbito de un concepto geométrico, pueden
extenderse a otras dreas no solo de la Didáctica de las Matemáticas sino a las Ciencias
Sociales en general, como lo demuestra la bibliografía existente sobre su uso (Barab, 1996;
Gómez y otros, 1996; Eckert, 1997; Chen, 1998; Ramey, y otros, 2001). Por ello consideramos
de gran interés su difusión en nuestro entorno de investigación.
No sólo esta técnica, sino nuestro modelo teórico creemos que son potentes, pues nos
permiten analizar e interpretar con un gran nivel de detalle aspectos diferenciales en el
ELIÚ D PINZÓN CHI 59148
desarrollo de los alumnos, explicando hechos que no se entienden utilizando otros modelos
teóricos.

También podría gustarte