Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Neural Nets
Neural Nets
1. 2. 3. 4. 5. 6.
Qu son las Redes neuronales Redes Supervisadas Ejemplos de las Redes Supervisadas Otras Redes Supervisadas Redes Autoorganizadas Ejemplos de Redes Autoorganizadas
Resea
1939 Alan Turing. Mquina de Turing 1944 John Von Neuman. Arquitectura y concepto de programa.
El ordenador se compone de:
Entrada Procesador Memoria Salida
La arquitectura de Von Neuman: Mquina de Turing + arquitectura de Neuman. Se codifican las instrucciones paso a paso. 1945 Nace la Ciberntica. Pretende fusionar los conocimientos informticos con los biolgicos. 1960 Nace el trmino Inteligencia Artificial. 1969 Artculo de Minsky y Papert. Aos 90. Hopfield, Kohonen y Rumelhart impulsan de nuevo las Redes Neuronales.
Cerebro Velocidad de proceso Estilo de procesamiento Nmero de procesadores Conexiones Almacenamiento del conocimiento Tolerancia a fallos Tipo de control del proceso 100 Hz Paralelo 100.000.000.000 10.000 por procesador Distribuido Amplia Autoorganizado
Ordenador 2,5 GHz Secuencial Pocos Pocas Direcciones fijas Nula Centralizado
Qu son las Redes Neuronales? Algoritmos matemticos no lineales. Sirven para predecir y clasificar Se basan en la interpretacin matemtica del funcionamiento del cerebro o de las neuronas Comienzan a desarrollarse a finales de los aos 60. El precario desarrollo de los ordenadores ralentiza su desarrollo hasta la aparicin del Intel 80486
Las primeras, predictoras, se basan en el funcionamiento de las neuronas Las segundas, clasificadores, se basan en la capacidad topolgica de la zona somatosensorial del cerebro.
La neurona biolgica
10 80 micras
100 micras
La transmisin de la informacin
La informacin llega a la neurona mediante neurotransmisores (glutamato o adrenalina). La llegada de stos cambia el potencial elctrico del Soma de -60mV por encima de los -45mV. En ese momento se abren los poros y aumenta la concentracin de Na dentro de la neurona que pasa a tener +50mV. Ese potencial se transmite por el axn.
0,2 micras
Sinapsis
Soma
Informacin
Axn
Despus la neurona queda en reposo durante un tiempo. Se codifica la frecuencia que la neurona puede hacer disparos. Lo habitual son de 1 a 100 pulsos / segundo Pablo Garca Estvez. 9
La neurona artificial
10
Lineal
Y=H
Y = -1 para H < -1
Escaln
1 1 1
11
0.9
0.8
0.7
0.6
0.5
0.4
1 Y= H 1+ e
0.3
0.2
0.1
0 -5
-4
-3
-2
-1
12
0.8
0.6
0.4
0.2
2 1 Y= 2 H 1+ e
-0.2
-0.4
-0.6
-0.8
-1 -5
-4
-3
-2
-1
13
X1
[3 4 2]
X2
X3
Entradas
Ocultas
Salidas
Pablo Garca Estvez. 14
Mecnica de la Red
1.
Entrenamiento
1. 2. 3. 4. 5. 6.
Alimentacin de la red con datos Obtencin de resultados de la red Comparacin de los resultados con los objetivos Obtencin del error Modificacin de pesos Siguiente iteracin hasta conseguir el menor error Alimentacin de la red con los datos del test Analizar los resultados
2.
Test
1. 2.
15
La regla LMS
Denominada Regla de WidrowHoff Es la base de las reglas de aprendizaje Se puede resumir en dos puntos
1. 2. Definicin del error Optimizacin de la funcin del error: pesos sinpticos que minimicen del error. El proceso se denomina Descenso por el Gradiente.
16
Error
1 p n E Wij = t i y i 2 =1 i =1
[ ]
Buscar los pesos W*ij que minimice este error. Para resolver este problema de minimizacin se recurre al descenso por el gradiente. La variacin de los pesos sinpticos es igual al gradiente del error por el ratio de aprendizaje. El gradiente del error es la derivada del error respecto a los pesos sinpticos:
Wij = t i y i xi
=1
La regla Delta
Si la deducimos en neuronas que tengan como funcin de transferencia una funcin sigmoidea, la regla LMS se denomina regla Delta.
19
[n m r]
1
X1
t1
X2
Xn
m
tr
m ' Z k = f Wkj j =1
n ' f W ji X i j k i =1
El error cuadrtico
1 p r E = t k Z k 2 =1 k =1
)]
Lgicamente cuanto ms pequea sea esta funcin, ms eficiente ser nuestro modelo. Hay que proceder a minimizarla. Se har mediante el descenso por el gradiente, tanto en la capa de salida como en la capa oculta.
21
E ' Wkj
' k
( )
La variacin de los pesos que unen la capa oculta con la capa de entrada..
W ji = j xi
=1
22
X2
H2
H3
f (H 1
H2
H3
H 4 ) = (Y1 Y2
Y3 Y4 )
(Y1
Y2
Y3
W '1,1 W ' 2,1 W '1, 2 W ' 2, 2 Y4 ) = (H '1 W' W ' 2,3 1,3 W ' 1, 4 W ' 2, 4
H '2
H '3
H '4 )
f (H '1
H '2
H '3
H ' 4 ) = (Z 1
Z2
Z3
Z4 )
23
Algoritmo Variable Rprop Gradiente conjugado escalar Fletcher Powell CG Polak Ribire CG Powell Beale CG Secante de un paso Quasi Newton BFGS Levenberg Marquardt
Sentencia MatLab Traingdx Trainrp Trainscg Traincgf Traincgp Traincgb Trainoss Trainbfg Trainlm
24
Construir un modelo que nos estime el crecimiento de una empresa en el momento t + 1 en base a los datos del momento t. Elegimos los datos financieros de la empresa Grficas El Pas S. L.
25
1999
Activo Circulante Pasivo Circulante Activo Total Reservas + Remanente Resultado de explotacin Acreedores Acreedores Comerciales Otras Deudas no comerciales Deudas con terceros Fondos Propios 12.270.724.000 8.174.688.000 20.329.018.000 2.628.707.000 9.887.965.000 7.778.000 4.900.062.000 1.241.232.000 6.149.072.000 11.921.060.000
1998
9.764.265.000 7.832.419.000 16.265.030.000 2.570.662.000 6.970.150.000 13.448.000 3.390.470.000 1.293.376.000 4.697.294.000 8.419.163.000
1997
9.040.261.000 7.979.367.000 15.169.978.000 2.534.921.000 6.110.406.000 19.949.000 2.963.345.000 1.226.952.000 4.210.246.000 7.170.662.000
1996
6.859.774.000 7.485.363.000 14.153.602.000 2.512.074.000 4.180.073.000 33.319.000 2.823.370.000 1.652.342.000 4.509.031.000 6.634.920.000
1995
8.559.099.000 8.995.964.000 14.526.634.000 1.658.576.000 3.867.883.000 6.538.000 4.909.294.000 1.256.946.000 6.172.778.000 5.524.132.000
26
27
Coeficientes de Altman
1999 X1 X2 X3 X4
1998
1997
1996
1995
0,20150 0,11880 0,06993 -0,04420 -0,03007 0,12931 0,15805 0,16710 0,17749 0,11417 0,48640 0,42854 0,40280 0,29534 0,26626 1,93868 1,79234 1,70315 1,47147 0,89492 7,22% 7,18% -2,57%
28
X2
W2,2 W1,3
Y1
W1,1
W2,4 Y2 W1,2
activo
X3
W2,3 W1,4
X4
Pautas del anlisis Buscamos la ecuacin que explique la distribucin de los incrementos de activos. Mediante iteraciones buscamos un sobreaprendizaje.
1. 2. 3. 4. 5.
Normalizar los datos en el rango -1 a +1 Construir la red Inicializar los pesos a nmeros aleatorios Entrenar la red Hacer un test con la red entrenada
30
Cdigo de la Red
En el MatLAb, en la ToolBox de Redes Neuronales:
[pn,minp,maxp]=premnmx(p); [pn,minp,maxp]=premnmx(p); net=newff([-1 1;-1 1;-1 1;-1 1],[2 1],{'tansig','purelin'},'trainlm'); net=newff([-1 1;-1 1;-1 1;-1 1],[2 1],{'tansig','purelin'},'trainlm'); net.trainParam.epochs=2000; net.trainParam.epochs=2000; net.trainParam.goal=1e-10; net.trainParam.goal=1e-10; net=train(net,pn,t); net=train(net,pn,t);
31
10
-2
10
-4
Training-Blue Goal-Black
10
-6
10
-8
10
-10
10
-12
10
-14
5 11 Epochs
10
11
32
Test de la Red
a=sim(net,pn); a=sim(net,pn); [m,b,r]=postreg(a,t) [m,b,r]=postreg(a,t) m m =1.0000 =1.0000 b b = -4.3581e-007 = -4.3581e-007 rr =1.0000 =1.0000
33
-2,96577417 0,405841576
Umbral de la capa de salida
-1,673134369 -0,283098225
0,195717862833669
34
t +1 Activo
H1 = X1N 2,4097 X2N 1,3928 + X3N 1,0741 X4N 0,5985 2,9665 H2 = - X1N 0,2005 X2N 0,5053 + X3N 1,1299 X4N 1,3543 1,6728
35
Anlisis de sensibilidad
X1 X2 X3 X4
Crecimiento 45,00% 40,00% 35,00% 30,00% 25,00% 20,00% 15,00% 10,00% 5,00% 0,00%
0 0, 1 0, 2 0, 3 0, 4 0, 5 0, 6 0, 7 0, 8 0, 9 1 1, 1 1, 2 1, 3 1, 4 1, 5 1, 6 1, 7 1, 8 1, 9 2 2, 1 2, 2 2, 3 2, 4 2, 5 2, 6 2, 7 2, 8 2, 9 3
Algoritmo del Crecimiento Pablo Garca Estvez. 36
Validacin de Altman
37
Normalizaremos los datos Usaremos una MLP [4 10 1] Algoritmo de entrenamiento Levenberg Marquardt Funciones de transferencia Tangente Sigmoidea y Lineal
Pablo Garca Estvez. 38
X2
X3
X4
Y1 Y1 Y1 Y1 Y1 Y1 Y1 Y1 Y1 Y1
Pablo Garca Estvez. 39
activo
Las variables todosp (todos los datos de la base de datos) trp (1/2 de la base de datos utilizado para entrenar) trt (objetivos del entrenamiento) vp (1/4 de la base de datos utilizado para validar) vt (objetivos de la validacin) tsp (1/2 de la base de datos utilizado para test) tst (objetivos del test)
40
Los cdigos
[todospn,mintodosp,maxtodosp]=premmnmx(todosp); [todospn,mintodosp,maxtodosp]=premmnmx(todosp); trpn=tramnmx(trp,mintodosp,maxtodosp); trpn=tramnmx(trp,mintodosp,maxtodosp); vpn= tramnmx(vp,mintodosp,maxtodosp); vpn= tramnmx(vp,mintodosp,maxtodosp); v.P=vpn v.P=vpn v.T=vt v.T=vt net=init(net); net=init(net); [net,tr]=train(net,trpn,trt,[ ],[ ],v); [net,tr]=train(net,trpn,trt,[ ],[ ],v);
41
Training-Blue Validation-Green
10
10
-1
5 11 Epochs
10
11
42
43
1.4
1.2
R = 0.133 0.2
-0.2
0.1
0.2
0.3
0.4
0.5 T
0.6
0.7
0.8
0.9
44
Modelo Asset Allocation 11 carteras. Cada una de estas carteras invierte todos los meses la parte correspondiente de la renta variable en el IBEX-35 La parte correspondiente de la renta fija lo invierte en un ndice de renta fija AFI con vencimiento a 10 aos. Al cabo de un mes se vende la cartera y se calcula el rendimiento mensual.
45
La base de datos Los datos utilizados son los niveles de cierre, tanto del IBEX-35, como del ndice AFI a 10 aos desde el 1 de enero de 1997 hasta el 31 de diciembre de 2000. Las carteras con mayor contenido de renta variable consiguen mayores rentabilidades, pero tambin las mayores prdidas.
46
47
Datos utilizados
9 variables x 11 carteras = 99 datos en cada fecha. Al estudiar los rendimientos en 47 fechas diferentes, final de cada mes desde enero de 1997 hasta diciembre de 2000, la cantidad de datos total que se han utilizado es de:
47 x 99 = 4.653 datos.
A estos hay que sumarle los rendimientos de las carteras en cada fecha. Estos suman: 11 carteras x 1 rendimiento x 47 fechas = 517 datos
La suma total de datos computados asciende a 5.170 datos
49
Red utilizada
50
51
Prediccin de la Red
52
Errores de prediccin
53
Los umbrales
-2,383 3,638 -3,539 2,265 0,651 -3,212 1,303 0,692 0,467 -1,075 3,214 1,483 1,134 0,880 -1,557
54
Salida de la red
-1,84777741 1,06081602 -2,58164027 2,33309921 4,01448452 2,28167753
2 y= 1 2n 1+ e
Rendimiento
55
Y
((dist))
X b1
LW
+ b2
Vector de entradas
Modelo hbrido. Utiliza tanto el aprendizaje supervisado como el no supervisado. La ventaja: poco tiempo de entrenamiento
56
(r ) = e
Donde:
R 2
r2 2 2
r = X i W j ,i
i =1
Su funcionamiento
Cuando la distancia entre W y X decrece, la funcin crece. Su mximo sucede cuando W - X = 0, momento en el cual la funcin devuelve 1. Cuando presentamos un vector de entrada, cada neurona de la capa oculta, con funciones de transferencia de base radial, darn una u otra salida dependiendo de lo cerca que est el vector de entrada de los pesos sinpticos
1 0,5
? 0,833
+ 0,833
58
El cdigo
net = newbre(p,t,spread) net = newbr(p,t,goal,spread) Spread es una constante para la funcin de base radial Si Spread = 4 entonces la neurona responder con 0,5 para cualquier entrada dentro de la distancia de 4 desde los pesos sinpticos
59
Redes Autoorganizadas
60
Zona Somatosensorial
Pie Estmago Pecho Brazo Dedo 5 Dedo 4 Dedo 3 Dedo 2 Pulgar Ojo Cara Labio superior Labio inferior Boca Lengua Faringe
61
Redes Competitivas
Capa de entrada
Capa de salida
62
Pesos
2,1
2,2
3,3
4,4
3,1
3,2
3,3
3,4
2
4,1 4,2 4,3 4,4
Entradas Salidas
d i , j , (t ) =
(W
k h =1
i , j ,h
Xk )
]
64
Valor 1 2 3 4 5 6 7 8 9 10
Rendimiento 14,68% 24,39% 14,26% 19,80% 31,01% 7,96% 17,13% 3,36% 18,25% 5,33%
Riesgo 53,10% 23,14% 34,34% 44,92% 22,79% 5,75% 41,69% 59,23% 58,16% 14,89%
Liquidez 43,15% 72,57% 96,25% 99,18% 39,41% 17,84% 82,73% 42,89% 6,19% 69,54%
Valor 11 12 13 14 15 16 17 18 19 20
Rendimiento 21,86% 27,79% 25,24% 39,12% 34,83% 15,59% 34,13% 14,75% 0,25% 19,88%
Riesgo 19,13% 39,94% 54,83% 9,83% 58,75% 40,96% 46,69% 2,49% 19,11% 51,02%
Liquidez 86,87% 7,34% 25,12% 48,98% 32,15% 79,92% 53,06% 86,14% 1,50% 31,65%
65
Cdigo en BASIC
Cdigo 10 REM red competitiva de 4 x 4, 3 de entrada 20 CLS : ref = 1000: g = 0 30 DIM x(20): DIM y(20): DIM w(48): DIM z(20) 40 RANDOMIZE TIMER 50 FOR b = 1 TO 48 60 w(b) = RND 70 NEXT b 80 PRINT "Introduccin de los datos de entrada" 85 PRINT : PRINT 90 FOR a = 1 TO 20 100 PRINT "x "; a; 110 INPUT x(a) 120 PRINT "y "; a; 130 INPUT y(a) 132 PRINT "z "; a; 134 INPUT z(a) 140 NEXT a 150 CLS 160 INPUT "N de ciclos", C 170 FOR d = 1 TO C 175 CLS 180 PRINT d 190 FOR e = 1 TO 20 200 FOR f = 1 TO 48 STEP 3 210 dist = SQR(((w(f) - x(e)) ^ 2) + ((w(f + 1) y(e)) ^ 2) + ((w(f + 2) - z(e)) ^ 2)) 220 IF dist < ref THEN ref = dist : g=f 230 IF dist < ref THEN g = e 240 NEXT f 250 w(g) = w(g) + (.1 * (x(e) - w(g))) 260 w(g + 1) = w(g + 1) + (.1 * (y(e) - w(g + 1))) 265 w(g + 2) = w(g + 2) + (.1 + (z(e) - w(g + 2))) 270 NEXT e 280 NEXT d 290 FOR h = 1 TO 48 300 PRINT h, w(h) 305 LPRINT h, w(h) 310 NEXT h 320 END
66
Resultado de la red
15
10
17
20
11
14
18
19
12
16
67
100,00%
20,00%
0,00% 17 20 6 12 19 4 2 10 11 18 1 8 3 7 16 9 13 15 5 14
68
Mapas Autoorganizados
Teuvo Kohonen introduce en las redes competitivas la funcin de vecindad creando los Mapas de rasgos autoorganizados o SOFM (Self-Ornanizing Feature Maps). En los SOFM se declara una neurona ganadora que tiene una distancia menor entre sus pesos sinpticos y el vector de datos de entrada. Pero ahora, tiene, adems, una funcin de vecindad. Esta funcin define el entorno alrededor de la neurona ganadora, y en la fase de aprendizaje se actualizan tanto los pesos de las neurona ganadora como los pesos de las neuronas pertenecientes a la vecindad.
Pablo Garca Estvez. 69
La vecindad
La vecindad est en funcin de la distancia entre la neurona ganadora y sus vecinas.
70
Topologa La distancia es una zona bidimensional que existe alrededor de cada neurona. Esta zona puede ser circular cuadrada o hexagonal
T3
T2
T1
71
1.
2.
La ordenacin: donde se identifican las neuronas ganadoras y su vecindad. El ajuste fino: donde se especializan las neuronas ganadoras. En esta fase el radio de la vecindad es igual a 1. Es decir , la vecindad se reduce a la neurona ganadora.
72
Mecnica
1. 2.
Los pesos, Wijk son aleatorios Se presenta un patrn de entrada. X(t) Cada neurona calcula su similitud entre los pesos sinpticos y el vector de entrada mediante la Distancia Eucldea
d=
(W
N k =1
ijk
Xk )
3.
Determinacin de la neurona ganadora: g*. Esta es la que muestra la menor distancia al patrn de entrada.
73
Mecnica
4.
t (t ) = 0 + ( f 0 ) t
f (t ) = 0 0
En donde 0 es el ritmo inicial, f es el ritmo final, que suele tomar valores de 0,01, t es la iteracin actual y t es el nmero mximo de iteraciones que se desean realizar La funcin h(i g*,t) es la funcin de vecindad. El tamao de la vecindad se reduce en cada iteracin. En la fase de ajuste fino, vale 0,01 y el radio de vecindad es igual a 1.
74
La funcin de vecindad
La funcin de vecindad depende de:
La distancia El radio de vecindad.
La distancia se mide como:
ig =
(i g1 )
+ ( j g2 )
La funcin de vecindad decrece con la distancia a la vencedora. Cuanto ms alejada, ms pequea ser. Depende del radio de vecindad R(t) que representa el tamao de la vecindad actual.
h(1 g * , t ) = f [R(t )]
Pablo Garca Estvez.
75
La funcin de vecindad Para el clculo de la vecindad se utilizan funciones del tipo Escaln o del tipo Sombrero Mejicano
2 1,5 1 0,5 0 -10 -9 -0,5
-8 -7 -6 -5
-4 -3 -2 -1
10
76
La BMU
Despus de declararse la neurona ganadora (BestMatching Unit), BMU, los vectores de los pesos del SOM son actualizados. Los vectores de los pesos del BMU y sus vecinas topolgicas se mueven haca el vector de entrada, haciendo la distancia ms reducida
77
Clasificacin de pases
sD=som_read_data(ocdec.data); sD=som_read_data(ocdec.data); sD=som_normalize(sD,logistic); sD=som_normalize(sD,logistic); sM=som_make(sD); sM=som_make(sD); sM=som_autolabel(sM,sD,vote); sM=som_autolabel(sM,sD,vote); som_show(sM,umat,all,comp,[1:6]); som_show(sM,umat,all,comp,[1:6]);
78
Resultados
79
Matriz de correlaciones
PIB PARO DEF IN-CP DIF-INT 0,47 -0,06 1,00 -0,42 0,51 -0,19 -0,49 0,23 -0,42 1,00 -0,53 0,12 0,85 -0,31 0,51 -0,53 1,00 -0,70 -0,39 0,51 -0,19 0,12 -0,70 1,00
1,00 -0,15 -0,15 1,00 0,47 -0,06 -0,49 0,23 0,85 -0,31
80
Cdigos de clasificacin
[c,p,err,ind] = kmeans_cluster(sM,8) [c,p,err,ind] = kmeans_cluster(sM,8) [dummy,i]=min(ind) [dummy,i]=min(ind) cl=p{i} cl=p{i} som_cplane(sM,cl) som_cplane(sM,cl)
81
82
83
Monitorizacin
1996
Pablo Garca Estvez.
1997
84
PIB FBCF FBCFPR DEFICIT BPCC INCP INLP PLSP RDE DEPIB
El crecimiento del PIB La variacin anual de la formacin bruta del capital fijo La variacin anual de la formacin bruta del capital fijo privado El dficit en relacin al PIB El saldo de la balanza por cuenta corriente respecto al PIB Los tipos de inters a corto plazo Los tipos de inters a largo plazo La variacin anual de la productividad laboral en el sector privado El ratio de desempleo respecto a la fuerza laboral civil Variacin anual del deflactor del PIB
85
86
Matriz de Correlaciones
PIB PIB FBCF FBCFPR DEFICIT BPCC INCP INLP PLSP RDE DEPIB 1,000 0,777 0,511 0,264 0,078 -0,125 -0,092 0,423 0,014 0,023 FBCF 0,777 1,000 0,622 0,175 0,060 -0,169 -0,111 0,139 0,016 0,020 FBCFPR 0,511 0,622 1,000 0,171 0,088 -0,183 -0,116 0,112 0,048 0,004 DEFICIT 0,264 0,175 0,171 1,000 0,224 -0,151 -0,266 -0,052 -0,432 0,042 BPCC 0,078 0,060 0,088 0,224 1,000 -0,458 -0,456 0,063 -0,103 -0,194 INCP -0,125 -0,169 -0,183 -0,151 -0,458 1,000 0,924 0,025 0,159 0,663 INLP -0,092 -0,111 -0,116 -0,266 -0,456 0,924 1,000 0,070 0,250 0,642 PLSP 0,423 0,139 0,112 -0,052 0,063 0,025 0,070 1,000 0,144 -0,037 RDE 0,014 0,016 0,048 -0,432 -0,103 0,159 0,250 0,144 1,000 0,120 DEPIB 0,023 0,020 0,004 0,042 -0,194 0,663 0,642 -0,037 0,120 1,000
87
rea de excelencia Crecimiento del PIB por encima del 3% Variacin de la Formacin Bruta del Capital Fijo Total y Privado por encima del 8% Dficit cercano a cero o Superavit Balanza de Pagos Comercial positiva Tipos de inters a corto por debajo del 4% y tipos a largo por debajo del 8% Productividad laboral por encima del 3% Tasa de desempleo por debajo del 8% Deflactor del PIB por debajo del 3%
Pablo Garca Estvez. 88
PIB A B C D E F Muy Alto Bajo Medio alto Alto Medio Muy bajo
FBCF Muy Alto Medio bajo Medio alto Muy Alto Medio Medio bajo
FBCFPR Medio alto Medio bajo Medio alto Alto Medio bajo Muy bajo
DEFICIT Muy bajo Medio alto Alto Medio bajo Muy alto Alto
INCP Bajo Muy bajo Medio Muy alto Medio alto Medio alto
INLP Bajo Muy bajo Medio Muy alto Alto Medio alto
PLSP Alto Muy bajo Medio Medio bajo Medio Medio bajo
RDE Bajo Medio bajo Alto Medio bajo Muy alto Medio alto
DEPIB Bajo Muy bajo Medio bajo Alto Muy alto Medio alto
89
90
Alemania y Espaa
91
EE.UU. y Francia
92
Japn
93
Clasificacin de las Call del futuro IBEX Anlisis de las opciones del primer semestre de 2000 sobre el futuro sobre el IBEX-35 mediante SOFM con tres variables: el open interest, el tiempo, el aos, que queda hasta el vencimiento y la relacin entre el valor del precio de ejercicio y el IBEX-35. Para realizar este ejemplo utilizaremos los datos proporcionados por MEFF sobre el contrato Call sobre el futuro del IBEX-35 desde el 3 de enero de 2000 hasta el 30 junio de 2000.
94
La base de datos Slo utilizaremos los datos de los contratos que tuvieron volumen de negociacin; esto reduce a 4.779 referencias. Establecemos utilizar 4.559 referencias, elegidas de manera aleatoria para realizar tanto el entrenamiento como el ajuste fino, reservando las 180 referencias restantes para realizar un test de clasificacin
95
Los cdigos
sD=som_read_data('opibex.data'); sD=som_read_data('opibex.data'); data read ok data read ok sD=som_normalize(sD,'logistic'); sD=som_normalize(sD,'logistic'); sM=som_make(sD); sM=som_make(sD);
96
El entrenamiento
Determining map size... Determining map size... map size [23, 15] map size [23, 15] Initialization... Initialization... Training using batch algorithm... Training using batch algorithm... Rough training phase... Rough training phase... Training: 3/ 3 ss Training: 3/ 3 Finetuning phase... Finetuning phase... Training: 3/ 12 ss Training: 3/ 12 Training: 6/ 12 ss Training: 6/ 12 Training: 9/ 12 ss Training: 9/ 12 Training: 12/ 12 ss Training: 12/ 12 Final quantization error: 0.049 Final quantization error: 0.049 Final topographic error: 0.037 Final topographic error: 0.037
97
Cdigo de visualizacin
sM=som_autolabel(sM,sD,'vote'); sM=som_autolabel(sM,sD,'vote');
som_show(sM,'umat','all','comp',[1:3],'empty','Labels','norm','d'); som_show(sM,'umat','all','comp',[1:3],'empty','Labels','norm','d');
98
Resultados
99
Cdigos de distancias
U=som_umat(sM); U=som_umat(sM); Um=U(1:2:size(U,1),1:2:size(U,2)); Um=U(1:2:size(U,1),1:2:size(U,2)); C=som_colorcode(sM); C=som_colorcode(sM); subplot(1,2,1) subplot(1,2,1) som_cplane(sM,C,1-Um(:)/max(Um(:))); som_cplane(sM,C,1-Um(:)/max(Um(:))); title('Cdigos de color + matrices de distancia') title('Cdigos de color + matrices de distancia') subplot(1,2,2) subplot(1,2,2) som_grid(sM,'Coord',sM.codebook(:,[1 3]),'MarkerColor',C); som_grid(sM,'Coord',sM.codebook(:,[1 3]),'MarkerColor',C); title('Dispersin de puntos'); title('Dispersin de puntos');
100
Matrices de distancia
101
1.4
1.3
1.2
1.1
0.9 1 2 3 4 5 6 7 8 9 10
102
Establecimiento del grfico [dummy,i]=min(ind) [dummy,i]=min(ind) dummy = dummy = 0.9314 0.9314 ii = = 5 5 cl=p{i}; cl=p{i}; subplot(1,2,1) subplot(1,2,1) som_cplane(sM,C,1-Um(:)/max(Um(:))); som_cplane(sM,C,1-Um(:)/max(Um(:))); subplot(1,2,2) subplot(1,2,2) som_cplane(sM,cl) som_cplane(sM,cl)
Pablo Garca Estvez. 103
Los grupos
104