Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Aplicaciones de Redes Neuronales en MATLAB PDF
Aplicaciones de Redes Neuronales en MATLAB PDF
MATLAB
Simulación de Procesos Industriales
Trabajo Práctico # 5
José Eduardo Laruta Espejo
Resumen
El presente trabajo trata acerca de las aplicaciones básicas de las
redes neuronales, en especı́fico el perceptron, para aproximar funciones
lógicas combinacionales, explorando las ventajas y limitaciones de una
red de un perceptron simple y analizando aspectos acerca de la separa-
bilidad lineal de los problemas. Tambien analizamos los algoritmos de
aprendizaje de dichas redes y su rendimiento. Se implementan 3 fun-
ciones lógicas combinacionales básicas en el software MATLAB con el
fin de analizar los resultados del entrenamiento de dicha red.
x1 x2 x1 ∧ x2
0 0 0
0 1 0
1 0 0
1 1 1
1
Luego, también procederemos a implementar la función OR inclusivo en
nuestra red neuronal, cuya tabla de verdad se muestra a continuación:
x1 x2 x1 ∨ x2
0 0 0
0 1 1
1 0 1
1 1 1
x1 x2 x1 ⊕ x2
0 0 0
0 1 1
1 0 1
1 1 0
2
1.2. Aprendizaje de la red
El aprendizaje de una red neuronal se manifiesta a través del cambio
y ajuste de los pesos sinápticos de sus entradas y de su nivel de umbral.
Iniciando con valores aleatorios, si no se conoce nada del sistema, para luego,
mediante pruebas sucesivas con patrones de entrenamiento, se logre ajustar
dichos pesos para obtener el comportamiento deseado [2].
Para el entrenamiento (ajuste de pesos) utilizamos en siguiente algoritmo:
2. IMPLEMENTACIÓN EN MATLAB
Para la implementación y simulación de nuestras redes neuronales uti-
lizaremos el toolbox de redes neuronales del software especializado MATLAB
3
2.1. Función AND
En primer lugar ingresamos los patrones de entrada con 2 variables de
entrada y su correspondiente salida en matrices y las visualizamos en una
gráfica:
P=[0 0 1 1 ; 0 1 0 1 ] ;
T=[0 0 0 1 ] ;
p l o t p v (P ,T)
4
Despues de inicializar todas las herramientas procedemos a entrenar la
red neuronal:
n e t=t r a i n ( net , P ,T ) ;
p l o t p c ( n et .IW{ 1 , 1 } , n et . b {1})
5
2.2. Función OR
Como en el anterior caso, ingresamos los patrones de entrada con 2 vari-
ables de entrada y su correspondiente salida en matrices y las visualizamos
en una gráfica:
P=[0 0 1 1 ; 0 1 0 1 ] ;
T=[0 1 1 1 ] ;
p l o t p v (P ,T)
6
Figura 7: Red sin entrenamiento
7
Figura 9: Resultados, pesos y umbral
p l o t p v (P ,T)
n e t=n e w f f ( minmax (P ) , [ 2 , 1 ] , { ’ t a n s i g ’ , ’ p u r e l i n ’ } , ’ t r a i n g d ’ )
simulamos su comportamiento inicial:
luego definimos algunos parámetros para el entrenamiento de la red:
n e t . trainParam . show =50;
n e t . trainparam . l r = 0 . 0 5 ;
n e t . trainParam . epochs =30000;
n e t . trainParam . g o a l = 0 . 0 0 1 ;
8
Figura 11: Xomportamiento inicial de la red
9
Figura 13: Comportamiento final de la red
3. CONCLUSIONES
Pudimos implementar y simular las redes neuronales gracias al software
matlab mediante su toolbox de redes neuronales artificiales.
Observamos el fenómeno de la separabilidad lineal con una función XOR
la cual no puede implementarse en una sola neurona. Para realizar esta tu-
vimos que implementar una red multicapa con varias neuronas arrojando los
resultados que se ven en la figuta(13).
10
Referencias
[1] G. Choque, “Redes Neuronales Artificiales, Aplicaciones en MATLAB”
Centro de Publicaciones de la Facultad de Ciencias Puras y Naturales -
UMSA
11