Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Redes Neuronales PDF
Redes Neuronales PDF
2
CONTROVERSIA
Universidad
de Cantabria
3
EVOLUCION DE LA IA
Primera Generación (hasta 1955)
Universidad
de Cantabria
4
EVOLUCION DE LA IA
Segunda Generación
Universidad
de Cantabria
• La Conferencia de Dartmouth
Organizada by John McCarthy y Marvin Minsky
(1956), fundó las bases modernas de esta disci-
plina bajo el lema
to proceed on the basis of the conjecture
that every aspect of learning or any other
feature of intelligence can in principle be so
precisely described that a machine can be
made to simulate it.
• Logic Theorist fue uno de los primeros progra-
mas eficientes desarrollado Allen Newell, Herbert
Simon y J.C. Shaw. Fue capaz de probar 38 de
los primeros 52 teoremas del Capı́tulo 2 del libro
Principia Mathematica de Whitehead y Russell.
• Mycin fue el pionero de los sistemas exper-
tos (desarrollado por Edward Shortliffe). Puede
diagnosticar infecciones bacterianas a partir de
sı́ntomas.
• En 1957 Allen Newell predijo que en un plazo
de 10 años, un ordenador serı́a el campeón del
mundo de ajedrez.
5
EL TEST DE TURING
Universidad
de Cantabria
6
CARACTERISTICAS DE
Universidad
LOS MODELOS DE IA
de Cantabria
7
INSPIRACION BIOLOGICA
Universidad
de Cantabria
8
REDES NEURONALES
Universidad
ARTIFICIALES
de Cantabria
(NEURAL NETWORKS)
9
REDES NEURONALES
Universidad
ESTRUCTURA
de Cantabria
Network Neuron
x1 wi1
x2 wi2 F(wi,x) yi
win
xn
10
REDES NEURONALES
Universidad
CARACTERISTICAS
de Cantabria
11
REDES NEURONALES
Universidad
DEFINICIONES
de Cantabria
12
REDES NEURONALES
Universidad
EJEMPLO
de Cantabria
Red (a)
X1 X4
X7
X2 X5
X8
X3 X6
Neurona (b)
x1 w1
x2 w2
y=f(Σ wi xi)
wn Salida
Neurona
xn Pesos
Entradas
13
EL APRENDIZAJE
Universidad
de Cantabria
14
EL APRENDIZAJE
Universidad
METODOS
de Cantabria
Supervisado No Supervisado
Perceptrón / multicapa Mapa de caracterı́sticas
Modelos temporales Redes competitivas
15
APRENDIZAJE DE HEBB
Universidad
de Cantabria
16
VALIDACION DEL MODELO
Universidad
de Cantabria
3. El error máximo,
max{k bp − b̂p k, p = 1, . . . , r}, (3)
donde b̂p es la salida de la red para el vector de en-
trada ap. Nótese que en el caso de una única sal-
ida, la función norma k . k se reduce a la función
valor absoluto | . | usual.
17
SOBREAJUSTE (OVERFITTING)
Universidad
de Cantabria
En estadı́stica es bien conocido que cuando se uti-
liza un modelo con muchos parámetros para ajus-
tar un conjunto de datos procedente de proceso con
pocos grados de libertad, el modelo obtenido puede
no descubrir las tendencias reales del proceso origi-
nal, aunque pueda presentar un error pequeño.
La curva (a) pasa exactamente por los puntos de
entrenamiento. La curva (b) muestra el compor-
tamiento sobre un conjunto alternativo. La curva
(c) es un polinomio de tercer grado. La diferencia
entre ambos modelos puede verse en (d).
6 6
5 5
4 4
3 3
2 2
1 1
(a) (b)
0 0
0 2 4 6 8 10 0 2 4 6 8 10
6 6
5 5
4 4
3 3
2 2
1 1
(c) (d)
0 0
0 2 4 6 8 10 0 2 4 6 8 10
18
NEURONAS
Universidad
UNIDADES DE PROCESO
de Cantabria
wi2 n n
x2 Σ wij xj
j=1
f( Σ wij xj )
win j=1
xn
Para incluir un valor umbral Θi para la neurona xi,
se considera una neurona auxiliar de valor x0 = −1
y se conecta a xi con un peso Θi.
n
X
u(w, xi) = wij xj − wi0Θi or u(w, xi) = Wi · X
j=1
19
FUNCIONES DE ACTIVACION
Universidad
de Cantabria
• Funciones lineales: f (x) = x.
• Funciones paso:Dan una salida binaria depen-
diente de si el valor de entrada está por encima o
por debajo del valor umbral.
−1, si x < 0,
0, si x < 0,
sgn(x) = , Θ(x) =
1, sino, 1, sino.
• Funciones sigmoidales: Funciones monótonas
acotadas que dan una salida gradual no lineal.
1. La función logı́stica de 0 a 1:
1
fc(x) = −c x
.
1+e
2. La función tangente hiperbólica de −1 a 1
fc(x) = tanh(c x).
20
ARQUITECTURAS DE RED
Universidad
de Cantabria
(a)
(b)
(c)
21
LA RED DE HOPFIELD
Universidad
de Cantabria
La red neuronal de Hopfield es una arquitec-
tura formada por una sóla capa principal-
mente que se utiliza principalmente como
memoria autoasociativa, para almacenar y
recuperar información.
22
LA RED DE HOPFIELD
Universidad
MEMORIZANDO DATOS
de Cantabria
23
LA RED DE HOPFIELD
Universidad
MEMORIZANDO DATOS
de Cantabria
24
EJEMPLO: RECONOCIMIENTO
Universidad
DE CARACTERES
de Cantabria
25
EJEMPLO: RECONOCIMIENTO
Universidad
DE CARACTERES
de Cantabria
26
INFORMACION CORRUPTA
Universidad
de Cantabria
Una vez construı́da la red de Hopfield, ésta
reconoce las tres vocales aún cuando se uti-
liza como entrada cualquier otra cuadrı́cula
(digitalización) 5 × 5 correspondiente a una
versión particular no estándar de la vocal.
27
ESTADOS ESPUREOS
Universidad
de Cantabria
Si se intenta utilizar la misma arquitec-
tura de red para reconocer las cinco vocales
28
REDES MULTI-CAPA
Universidad
de Cantabria
29
EL PERCEPTRON
Universidad
de Cantabria
El perceptrón es un red neuronal de dos capas (una
de entrada y una de salida) con conexiones hacia
delante.
Outputs
y1 y2 y3
wji
x1 x2 x3 x4
Inputs
X
yi = f (Yi) = f ( wij xj )
j
y1 y2 y3
x1 x2 x3 x4
p p p p
a1 a2 a3 a4
30
EL PERCEPTRON
Universidad
(APRENDIZAJE)
de Cantabria
En general, se tiene
∂E
= η (bpi − bˆpi)f 0(Bip)apj.
X
∆wij = −η
∂wij p
31
EL PERCEPTRON
Universidad
(APRENDIZAJE)
de Cantabria
32
CLASIFICACION LINEAL
Universidad
PLANTEAMIENTO
de Cantabria
0.8
0.6
0.4
0.2
0
0 0.2 0.4 0.6 0.8 1
33
CLASIFICACION LINEAL
Universidad
APRENDIZAJE
de Cantabria
0.8
0.7
0.6
e 0.5
0.4
0.3
0.2
0 5 10 15 20 25
n
1 q
w1
0.5 w2
-0.5
0 5 10 15 20 25
1
1
0.8
0.6 0.8
y
0.4
.4 1
0.6
0.2
2
0.4
0
1 0.2
c
0
0
0 0.2
0 2 0.4
0 4 0.6
0 6 0.8
0 8 1 0 0.2 0.4 0.6 0.8 1
x
Introducción a las Redes Neuronales
34
CLASIFICACION LINEAL
Universidad
APRENDIZAJE
de Cantabria
1
1
0.8
0.6 0.8
y
0.4 1
0.6
0.2
2
0.4
1
0
0.2
c
0 0
0 0.2
0 2 0.4
0 4 0.6
0 6 0.8
0 8 1 0 0.2 0.4 0.6 0.8 1
x
1
1
0.8
0.6 0.8
y
0.4 1
0.6
0.2
2
0.4
1 0
0.2
c
0 0
0 0.2
0 2 0.4
0 4 0.6
0 6 0.8
0 8 1 0 0.2 0.4 0.6 0.8 1
x
35
CLASIFICACION NO LINEAL
Universidad
de Cantabria
Supóngase que se tiene un conjunto de
100 puntos aleatorios en el intervalo (−1, 1)
clasificados en dos categorı́as: los que están
dentro del cı́rculo (puntos rellenos), y los
que están fuera (puntos huecos).
1
0.5
-0.5
-1
-1 -0.5 0 0.5 1
36
EL PERCEPTRON MULTI-CAPA
Universidad
de Cantabria
Outputs
y1 y2
Wkj
h1 h2 h3 Hidden
Units
wji
x1 x2 x3 x4
Inputs
37
RETRO-PROPAGACION
Universidad
LA CAPA DE SALIDA
de Cantabria
Entonces
∂E ∂E ∂ bˆpk ∂ B̂kp
∆Wkj = −η = p
∂Wkj ∂ bˆk ∂ B̂kp ∂Wkj
y1 y2
h1 h2 h3
38
RETRO-PROPAGACION
Universidad
LA CAPA OCULTA
de Cantabria
h1 h2 h3
wji
x1 x2 x3 x4
39
RETRO-PROPAGACION
Universidad
ALGORITMO
de Cantabria
5. Calcular:
∆Wkj = η hpj δkp,
y
∆wkj = η api δkp ψjp
y actualizar los pesos.
6. Repetir los pasos anteriores para cada patrón.
40
CLASIFICACION NO LINEAL
Universidad
de Cantabria
Perceptrón multicapa 2 : 5 : 1
0.5
-0.5
-1
-1 -0.5 0 0.5 1
0.5
0.4
0.3
e
0.2
0.1
0
0 100 200 300 400
n
41
MAPAS CAOTICOS:
Universidad
EL MAPA DE HENON
de Cantabria
42
EL MAPA DE HENON
Universidad
RED NEURONAL
de Cantabria
43
REDES COMPETITIVAS
Universidad
de Cantabria
Las redes competitivas son muy utilizadas
para detectar automáticamente grupos, o
categorı́as, dentro de los datos disponibles.
Cada patrón de entrada representa un
punto en el espacio de configuración (el es-
pacio de entradas) donde se quieren obtener
clases. Para ello, la capa de salida contiene
tantas neuronas como clases, o categorı́as,
como se quieran obtener.
a1j x1
y1
a2j x2
y2
a3j x3
yk
aij xi wki
44
REDES COMPETITIVAS
Universidad
APRENDIZAJE
de Cantabria
45
REDES COMPETITIVAS
Universidad
EJEMPLO
de Cantabria
1
0.8
0.6
y
0.4
0.2
0
0 0.2 0.4 0.6 0.8 1
x
(a) (b) z1
w11 w11
x z1 x w12
w12
w13 z2
w21 w21
y w22 z2 y w22
w23 z3
1 1
0.8 0.8
y 0.6 0.6
ω2
0.4 0.4
0.2 0.2
(a) (b)
0 0
0 0.2 0.4 0.6 0.8 1 0 0.2 0.4 0.6 0.8 1
x ω1 x ω1
Introducción a las Redes Neuronales
46
EJERCICIOS
Universidad
de Cantabria
47