Está en la página 1de 37

PRACTICA 5

Perceptron Multicapa con


EarlyStopping
Neural Networks

Profesor:Moreno Armendariz Marco Antonio


Grupo: 3CM10

Luna Reyes Brandon Manuel


maniboti_642@hotmail.com
Introducción

Las Redes de Neuronas o Redes Neuronales son un paradigma de aprendizaje y


procesamiento automático, inspirado en la forma en la que funciona el sistema
nervioso neuronal biológico. Uno de estos procesos automáticos tiene que ver con
el aprendizaje, la capacidad de adquirir conocimiento por medio del estudio y la
experiencia. El aprendizaje se puede dividir en dos tipos: aprendizaje supervisado
y aprendizaje no supervisado, es por eso que la necesidad de que una red neuronal
aprenda es incondicional y para ello se tienen redes neuronales con procesos
definidos que realizan esta función. Algunas de estas redes pueden llegar a ser tan
sencillas como lo es el Perceptron Simple hasta muy compleja como lo es un
Perceptron de Múltiples Capas.

El Perceptron de Múltiples Capas es una RNA que tiene “n” capas con “s” neuronas,
cada neurona se alimenta de múltiples entradas y bias, la función de activación de
esta(Denominaremos a el Perceptron Múltiples Capas como MLP) MLP que puede
utilizar están entre las señales lineales y no lineales, en el caso de que la regla de
aprendizaje requiera calcular la derivada de una dicha función será necesario usar
señales que sean continuas y diferenciables.

Una MLP tiene diferentes capas, he de ahí el nombre, estas capas pasaran a ser
llamadas:

 Vectores de Entrada: Introducción de señales del exterior a la RNA para su


procesamiento.
 Capas Ocultas: Se lleva a cabo el aprendizaje de la RNA y al menos debe de
existir una capa oculta.
 Vector de Salida: Se refiere a la señal resultante de propagar hacia delante
la señal de entrada, en un aprendizaje supervisado funciona para calcular el
error que existe con el valor de salida deseado.

Para garantizar que una MLP funcione correctamente es necesario que el conjunto
de entrenamiento sea adecuado, es decir que el número de datos sea suficiente y
sea confiable. Además de que la MLP es una red con arquitectura “Completamente
conectado” sin embargo es posible que en algún momento los pesos sinápticos
tomen valores a cero.

A continuación se mostrara un programa en la cual el usuario podrá diseñar su


propia MLP dando solamente la estructura, funciones entre otros valores para
realizarla.
Arquitectura de la RNA

Funciones de la Red

𝑎0 = 𝑃

𝑎𝑚+1 = 𝑓 𝑚+1 (𝑊 𝑚+1 𝑎𝑚 + 𝑏 𝑚+1

𝑎𝑀 = 𝑎 𝑑𝑜𝑛𝑑𝑒 𝑀 = 𝐸𝑙 𝑛𝑢𝑚𝑒𝑟𝑜 𝑑𝑒 𝑐𝑎𝑝𝑎𝑠 𝑑𝑒𝑙 𝑀𝐿𝑃

Aprendizaje

𝑆 𝑀 = −2𝑓̇ 𝑀 (𝑛𝑀 )(𝑡 − 𝑎)

𝑆 𝑚 = −2𝑓̇ 𝑚 (𝑛𝑚 )(𝑛𝑚+1 )(𝑆 𝑚+1 ) 𝑑𝑜𝑛𝑑𝑒 𝑚 = (𝑀 − 1)

𝑓̇ 𝑚 (𝑛1𝑚 ) 0 0
𝑓̇ 𝑚 (𝑛𝑠𝑚 ) = [ 0 𝑓̇ 𝑚 (𝑛2𝑚 ) 0 ]
0 0 𝑓̇ 𝑚 (𝑛𝑠𝑚𝑚 )
𝜕𝑓 𝑚 (𝑛𝑗𝑚 )
𝑓 ̇𝑚 (𝑛𝑗𝑚 ) =
𝜕(𝑛𝑗𝑚 )

𝑊 𝑚 (𝑘 + 1) = 𝑊 𝑚 (𝑘)− ∝ 𝑆 𝑚 (𝑎𝑚−1 )𝑇

𝑏(𝑘 + 1) = 𝑏(𝑘)−∝ 𝑆 𝑚

𝑒 = (𝑡 𝑗 − 𝑎 𝑗 )2

Nota: Diagrama realizado en la página de Cacoo


https://cacoo.com/
Resultados

100 Datos – 100 Iteraciones (Ultima iteración de prueba que verifica lo


aprendido)

>>Iteración de prueba adicional No---- 0.0506


No---- 0.6306

No---- 0.0510
No---- 0.4239

No---- 0.0496
No---- 0.2721

No---- 0.0468
No---- 0.1640

No---- 0.0428
No---- 0.0904

No---- 0.0380
No---- 0.0432

No---- 0.0328
No---- 0.0158

No---- 0.0276
Si---- 0.0029

No---- 0.0225
Si---- 5.8023e-05

No---- 0.0178
Si---- 0.0037

No---- 0.0136
No---- 0.0110

No---- 0.0101
No---- 0.0199

Si---- 0.0072
No---- 0.0290

Si---- 0.0049
No---- 0.0371

Si---- 0.0031
No---- 0.0436

Si---- 0.0019
No---- 0.0481

Si---- 0.0011
Si---- 5.1431e-04

Si---- 5.1596e-04
Si---- 3.1564e-04

Si---- 2.0241e-04
Si---- 1.3235e-04

Si---- 4.7929e-05
Si---- 1.4687e-05

Si---- 4.4097e-07
Si---- 2.7977e-05

Si---- 2.2161e-05
Si---- 2.5215e-04

Si---- 8.7431e-05
Si---- 7.8038e-04

Si---- 1.7979e-04
Si---- 0.0017

Si---- 2.8893e-04
Si---- 0.0032

Si---- 4.0796e-04
Si---- 0.0053

Si---- 5.3112e-04
Si---- 0.0081

Si---- 6.5220e-04
No---- 0.0118

Si---- 7.6350e-04
No---- 0.0165

Si---- 8.5562e-04
No---- 0.0222

Si---- 9.1787e-04
No---- 0.0290

Si---- 9.3950e-04
No---- 0.0369

Si---- 9.1144e-04
No---- 0.0459

Si---- 8.2867e-04
No---- 0.0560

Si---- 6.9272e-04
No---- 0.0671
No---- 0.0791 No---- 0.1439

No---- 0.0917 No---- 0.1255

No---- 0.1047 No---- 0.1041

No---- 0.1179 No---- 0.0809

No---- 0.1309 No---- 0.0571

No---- 0.1433 No---- 0.0344

No---- 0.1547 No---- 0.0154

No---- 0.1647 Si---- 0.0029

No---- 0.1728 Si---- 6.9259e-04

No---- 0.1786 No---- 0.0135

No---- 0.1816 No---- 0.0467

No---- 0.1814 No---- 0.1072

No---- 0.1777 No---- 0.2028

No---- 0.1702 No---- 0.3427

No---- 0.1589 No---- 0.5378


1000 Datos-100 Iteraciones (Ultima iteración de prueba que verifica lo
aprendido)

>>Iteración de No---- 1.1026e+03


prueba adicional No---- 2.7133e+03
No---- 5.5538e+03 No---- 282.8017
No---- 1.0436e+03
No---- 2.6020e+03
No---- 5.3654e+03 No---- 258.7232
No---- 986.6917
No---- 2.4940e+03
No---- 5.1819e+03 No---- 235.9622
No---- 931.9515
No---- 2.3892e+03
No---- 5.0030e+03 No---- 214.4828
No---- 879.2963
No---- 2.2876e+03
No---- 4.8288e+03 No---- 194.2493
No---- 828.6774
No---- 2.1892e+03
No---- 4.6590e+03 No---- 175.2270
No---- 780.0464
No---- 2.0937e+03
No---- 4.4938e+03 No---- 157.3816
No---- 733.3562
No---- 2.0013e+03
No---- 4.3329e+03 No---- 140.6795
No---- 688.5602
No---- 1.9118e+03
No---- 4.1762e+03 No---- 125.0877
No---- 645.6124
No---- 1.8251e+03
No---- 4.0238e+03 No---- 110.5737
No---- 604.4679
No---- 1.7412e+03
No---- 3.8755e+03 No---- 97.1058
No---- 565.0822
No---- 1.6601e+03
No---- 3.7312e+03 No---- 84.6526
No---- 527.4119
No---- 1.5816e+03
No---- 3.5909e+03 No---- 73.1836
No---- 491.4140
No---- 1.5058e+03
No---- 3.4544e+03 No---- 62.6685
No---- 457.0463
No---- 1.4325e+03
No---- 3.3218e+03 No---- 53.0780
No---- 424.2675
No---- 1.3618e+03
No---- 3.1929e+03 No---- 44.3829
No---- 393.0366
No---- 1.2934e+03
No---- 3.0677e+03 No---- 36.5548
No---- 363.3136
No---- 1.2275e+03
No---- 2.9461e+03 No---- 29.5659
No---- 335.0592
No---- 1.1639e+03
No---- 2.8279e+03 No---- 23.3887
No---- 308.2346
No---- 205.2435
No---- 17.9965 No---- 399.9201
No---- 43.7912
No---- 214.6239
No---- 13.3628 No---- 408.5200
No---- 49.8606
No---- 224.0464
No---- 9.4620 No---- 417.0139
No---- 56.2282
No---- 233.5012
No---- 6.2686 No---- 425.3973
No---- 62.8780
No---- 242.9792
No---- 3.7579 No---- 433.6656
No---- 69.7943
No---- 252.4714
No---- 1.9057 No---- 441.8147
No---- 76.9616
No---- 261.9690
No---- 0.6879 No---- 449.8406
No---- 84.3651
No---- 271.4635
No---- 0.0815 No---- 457.7394
No---- 91.9900
No---- 280.9468
No---- 0.0633 No---- 465.5073
No---- 99.8222
No---- 290.4109
No---- 0.6112 No---- 473.1410
No---- 107.8477
No---- 299.8481
No---- 1.7030 No---- 480.6371
No---- 116.0530
No---- 309.2510
No---- 3.3175 No---- 487.9924
No---- 124.4248
No---- 318.6123
No---- 5.4334 No---- 495.2039
No---- 132.9503
No---- 327.9251
No---- 8.0303 No---- 502.2687
No---- 141.6168
No---- 337.1827
No---- 11.0880 No---- 509.1843
No---- 150.4121
No---- 346.3785
No---- 14.5868 No---- 515.9481
No---- 159.3244
No---- 355.5063
No---- 18.5073 No---- 522.5576
No---- 168.3419
No---- 364.5599
No---- 22.8308 No---- 529.0108
No---- 177.4534
No---- 373.5337
No---- 27.5388 No---- 535.3055
No---- 186.6479
No---- 382.4219
No---- 32.6132 No---- 541.4397
No---- 195.9147
No---- 391.2191
No---- 38.0364 No---- 547.4117
No---- 633.5126
No---- 645.0929
No---- 553.2199 No---- 593.6827
No---- 635.7097
No---- 643.9388
No---- 558.8627 No---- 589.9788
No---- 637.7355
No---- 642.6423
No---- 564.3386 No---- 586.1783
No---- 639.5908
No---- 641.2054
No---- 569.6466 No---- 582.2834
No---- 641.2765
No---- 639.6299
No---- 574.7854 No---- 578.2967
No---- 642.7933
No---- 637.9178
No---- 579.7539 No---- 574.2203
No---- 644.1424
No---- 636.0713
No---- 584.5514 No---- 570.0569
No---- 645.3246
No---- 634.0922
No---- 589.1770 No---- 565.8086
No---- 646.3412
No---- 631.9827
No---- 593.6301 No---- 561.4780
No---- 647.1933
No---- 629.7450
No---- 597.9101 No---- 557.0673
No---- 647.8822
No---- 627.3810
No---- 602.0165 No---- 552.5790
No---- 648.4090
No---- 624.8931
No---- 605.9491 No---- 548.0155
No---- 648.7752
No---- 622.2833
No---- 609.7076 No---- 543.3792
No---- 648.9822
No---- 619.5539
No---- 613.2919 No---- 538.6724
No---- 649.0315
No---- 616.7070
No---- 616.7019 No---- 533.8976
No---- 648.9245
No---- 613.7451
No---- 619.9378 No---- 529.0571
No---- 648.6628
No---- 610.6702
No---- 622.9995 No---- 524.1533
No---- 648.2482
No---- 607.4847
No---- 625.8875 No---- 519.1886
No---- 647.6821
No---- 604.1909
No---- 628.6021 No---- 514.1653
No---- 646.9663
No---- 600.7911
No---- 631.1436 No---- 509.0857
No---- 646.1027
No---- 597.2875
No---- 503.9524 No---- 167.3092
No---- 387.7449
No---- 268.6930
No---- 498.7675 No---- 162.7395
No---- 381.9954
No---- 263.2447
No---- 493.5334 No---- 158.2248
No---- 376.2423
No---- 257.8287
No---- 488.2524 No---- 153.7657
No---- 370.4874
No---- 252.4462
No---- 482.9269 No---- 149.3632
No---- 364.7328
No---- 247.0987
No---- 477.5591 No---- 145.0180
No---- 358.9803
No---- 241.7875
No---- 472.1514 No---- 140.7308
No---- 353.2318
No---- 236.5139
No---- 466.7059 No---- 136.5024
No---- 347.4892
No---- 231.2792
No---- 461.2250 No---- 132.3334
No---- 341.7543
No---- 226.0848
No---- 455.7109 No---- 128.2245
No---- 336.0289
No---- 220.9318
No---- 450.1658 No---- 124.1763
No---- 330.3149
No---- 215.8215
No---- 444.5919 No---- 120.1895
No---- 324.6139
No---- 210.7549
No---- 438.9914 No---- 116.2646
No---- 318.9278
No---- 205.7334
No---- 433.3666 No---- 112.4021
No---- 313.2582
No---- 200.7580
No---- 427.7195 No---- 108.6025
No---- 307.6068
No---- 195.8298
No---- 422.0523 No---- 104.8664
No---- 301.9753
No---- 190.9498
No---- 416.3672 No---- 101.1942
No---- 296.3652
No---- 186.1192
No---- 410.6662 No---- 97.5863
No---- 290.7783
No---- 181.3388
No---- 404.9514 No---- 94.0432
No---- 285.2161
No---- 176.6097
No---- 399.2249 No---- 90.5651
No---- 279.6801
No---- 171.9329
No---- 393.4887 No---- 87.1526
No---- 274.1719
No---- 3.7859
No---- 83.8058 No---- 1.9185
No---- 29.0117
No---- 3.1672
No---- 80.5251 No---- 2.3549
No---- 27.1413
No---- 2.6058
No---- 77.3107 No---- 2.8329
No---- 25.3371
No---- 2.1011
No---- 74.1629 No---- 3.3516
No---- 23.5989
No---- 1.6525
No---- 71.0819 No---- 3.9102
No---- 21.9263
No---- 1.2592
No---- 68.0679 No---- 4.5078
No---- 20.3190
No---- 0.9207
No---- 65.1211 No---- 5.1435
No---- 18.7768
No---- 0.6363
No---- 62.2416 No---- 5.8164
No---- 17.2993
No---- 0.4052
No---- 59.4294 No---- 6.5256
No---- 15.8860
No---- 0.2267
No---- 56.6848 No---- 7.2702
No---- 14.5368
No---- 0.1002
No---- 54.0077 No---- 8.0494
No---- 13.2510
No---- 0.0249
No---- 51.3982 No---- 8.8622
No---- 12.0284
Si---- 1.1534e-07
No---- 48.8563 No---- 9.7077
No---- 10.8684
No---- 0.0248
No---- 46.3820 No---- 10.5849
No---- 9.7706
No---- 0.0986
No---- 43.9752 No---- 11.4931
No---- 8.7346
No---- 0.2205
No---- 41.6360 No---- 12.4311
No---- 7.7598
No---- 0.3898
No---- 39.3641 No---- 13.3982
No---- 6.8457
No---- 0.6057
No---- 37.1596 No---- 14.3933
No---- 5.9918
No---- 0.8673
No---- 35.0223 No---- 15.4156
No---- 5.1976
No---- 1.1738
No---- 32.9519 No---- 16.4641
No---- 4.4625
No---- 1.5245
No---- 30.9485 No---- 17.5378
No---- 44.2573
No---- 73.1708
No---- 18.6359 No---- 96.7463
No---- 45.6496
No---- 74.4674
No---- 19.7574 No---- 97.6314
No---- 47.0458
No---- 75.7508
No---- 20.9013 No---- 98.4909
No---- 48.4450
No---- 77.0203
No---- 22.0666 No---- 99.3243
No---- 49.8464
No---- 78.2752
No---- 23.2526 No---- 100.1311
No---- 51.2490
No---- 79.5147
No---- 24.4581 No---- 100.9111
No---- 52.6519
No---- 80.7383
No---- 25.6824 No---- 101.6637
No---- 54.0544
No---- 81.9451
No---- 26.9243 No---- 102.3886
No---- 55.4555
No---- 83.1347
No---- 28.1830 No---- 103.0854
No---- 56.8544
No---- 84.3063
No---- 29.4576 No---- 103.7538
No---- 58.2502
No---- 85.4592
No---- 30.7471 No---- 104.3933
No---- 59.6422
No---- 86.5930
No---- 32.0506 No---- 105.0038
No---- 61.0294
No---- 87.7069
No---- 33.3671 No---- 105.5848
No---- 62.4112
No---- 88.8005
No---- 34.6957 No---- 106.1362
No---- 63.7866
No---- 89.8730
No---- 36.0354 No---- 106.6575
No---- 65.1549
No---- 90.9239
No---- 37.3855 No---- 107.1485
No---- 66.5152
No---- 91.9527
No---- 38.7448 No---- 107.6091
No---- 67.8668
No---- 92.9588
No---- 40.1126 No---- 108.0389
No---- 69.2089
No---- 93.9418
No---- 41.4879 No---- 108.4377
No---- 70.5408
No---- 94.9010
No---- 42.8697 No---- 108.8054
No---- 71.8617
No---- 95.8360
No---- 109.1417 No---- 71.8617
No---- 108.8054
No---- 94.9010
No---- 109.4465 No---- 70.5408
No---- 108.4377
No---- 93.9418
No---- 109.7197 No---- 69.2089
No---- 108.0389
No---- 92.9588
No---- 109.9610 No---- 67.8668
No---- 107.6091
No---- 91.9527
No---- 110.1704 No---- 66.5152
No---- 107.1485
No---- 90.9239
No---- 110.3477 No---- 65.1549
No---- 106.6575
No---- 89.8730
No---- 110.4930 No---- 63.7866
No---- 106.1362
No---- 88.8005
No---- 110.6060 No---- 62.4112
No---- 105.5848
No---- 87.7069
No---- 110.6868 No---- 61.0294
No---- 105.0038
No---- 86.5930
No---- 110.7353 No---- 59.6422
No---- 104.3933
No---- 85.4592
No---- 110.7514 No---- 58.2502
No---- 103.7538
No---- 84.3063
No---- 110.7353 No---- 56.8544
No---- 103.0854
No---- 83.1347
No---- 110.6868 No---- 55.4555
No---- 102.3886
No---- 81.9451
No---- 110.6060 No---- 54.0544
No---- 101.6637
No---- 80.7383
No---- 110.4930 No---- 52.6519
No---- 100.9111
No---- 79.5147
No---- 110.3477 No---- 51.2490
No---- 100.1311
No---- 78.2752
No---- 110.1704 No---- 49.8464
No---- 99.3243
No---- 77.0203
No---- 109.9610 No---- 48.4450
No---- 98.4909
No---- 75.7508
No---- 109.7197 No---- 47.0458
No---- 97.6314
No---- 74.4674
No---- 109.4465 No---- 45.6496
No---- 96.7463
No---- 73.1708
No---- 109.1417 No---- 44.2573
No---- 95.8360
No---- 1.5245
No---- 42.8697 No---- 4.4625
No---- 16.4641
No---- 1.1738
No---- 41.4879 No---- 5.1976
No---- 15.4156
No---- 0.8673
No---- 40.1126 No---- 5.9918
No---- 14.3933
No---- 0.6057
No---- 38.7448 No---- 6.8457
No---- 13.3982
No---- 0.3898
No---- 37.3855 No---- 7.7598
No---- 12.4311
No---- 0.2205
No---- 36.0354 No---- 8.7346
No---- 11.4931
No---- 0.0986
No---- 34.6957 No---- 9.7706
No---- 10.5849
No---- 0.0248
No---- 33.3671 No---- 10.8684
No---- 9.7077
Si---- 1.1534e-07
No---- 32.0506 No---- 12.0284
No---- 8.8622
No---- 0.0249
No---- 30.7471 No---- 13.2510
No---- 8.0494
No---- 0.1002
No---- 29.4576 No---- 14.5368
No---- 7.2702
No---- 0.2267
No---- 28.1830 No---- 15.8860
No---- 6.5256
No---- 0.4052
No---- 26.9243 No---- 17.2993
No---- 5.8164
No---- 0.6363
No---- 25.6824 No---- 18.7768
No---- 5.1435
No---- 0.9207
No---- 24.4581 No---- 20.3190
No---- 4.5078
No---- 1.2592
No---- 23.2526 No---- 21.9263
No---- 3.9102
No---- 1.6525
No---- 22.0666 No---- 23.5989
No---- 3.3516
No---- 2.1011
No---- 20.9013 No---- 25.3371
No---- 2.8329
No---- 2.6058
No---- 19.7574 No---- 27.1413
No---- 2.3549
No---- 3.1672
No---- 18.6359 No---- 29.0117
No---- 1.9185
No---- 3.7859
No---- 17.5378 No---- 30.9485
No---- 87.1526
No---- 171.9329
No---- 32.9519 No---- 279.6801
No---- 90.5651
No---- 176.6097
No---- 35.0223 No---- 285.2161
No---- 94.0432
No---- 181.3388
No---- 37.1596 No---- 290.7783
No---- 97.5863
No---- 186.1192
No---- 39.3641 No---- 296.3652
No---- 101.1942
No---- 190.9498
No---- 41.6360 No---- 301.9753
No---- 104.8664
No---- 195.8298
No---- 43.9752 No---- 307.6068
No---- 108.6025
No---- 200.7580
No---- 46.3820 No---- 313.2582
No---- 112.4021
No---- 205.7334
No---- 48.8563 No---- 318.9278
No---- 116.2646
No---- 210.7549
No---- 51.3982 No---- 324.6139
No---- 120.1895
No---- 215.8215
No---- 54.0077 No---- 330.3149
No---- 124.1763
No---- 220.9318
No---- 56.6848 No---- 336.0289
No---- 128.2245
No---- 226.0848
No---- 59.4294 No---- 341.7543
No---- 132.3334
No---- 231.2792
No---- 62.2416 No---- 347.4892
No---- 136.5024
No---- 236.5139
No---- 65.1211 No---- 353.2318
No---- 140.7308
No---- 241.7875
No---- 68.0679 No---- 358.9803
No---- 145.0180
No---- 247.0987
No---- 71.0819 No---- 364.7328
No---- 149.3632
No---- 252.4462
No---- 74.1629 No---- 370.4874
No---- 153.7657
No---- 257.8287
No---- 77.3107 No---- 376.2423
No---- 158.2248
No---- 263.2447
No---- 80.5251 No---- 381.9954
No---- 162.7395
No---- 268.6930
No---- 83.8058 No---- 387.7449
No---- 167.3092
No---- 274.1719
No---- 393.4887 No---- 646.1027
No---- 509.0857
No---- 600.7911
No---- 399.2249 No---- 646.9663
No---- 514.1653
No---- 604.1909
No---- 404.9514 No---- 647.6821
No---- 519.1886
No---- 607.4847
No---- 410.6662 No---- 648.2482
No---- 524.1533
No---- 610.6702
No---- 416.3672 No---- 648.6628
No---- 529.0571
No---- 613.7451
No---- 422.0523 No---- 648.9245
No---- 533.8976
No---- 616.7070
No---- 427.7195 No---- 649.0315
No---- 538.6724
No---- 619.5539
No---- 433.3666 No---- 648.9822
No---- 543.3792
No---- 622.2833
No---- 438.9914 No---- 648.7752
No---- 548.0155
No---- 624.8931
No---- 444.5919 No---- 648.4090
No---- 552.5790
No---- 627.3810
No---- 450.1658 No---- 647.8822
No---- 557.0673
No---- 629.7450
No---- 455.7109 No---- 647.1933
No---- 561.4780
No---- 631.9827
No---- 461.2250 No---- 646.3412
No---- 565.8086
No---- 634.0922
No---- 466.7059 No---- 645.3246
No---- 570.0569
No---- 636.0713
No---- 472.1514 No---- 644.1424
No---- 574.2203
No---- 637.9178
No---- 477.5591 No---- 642.7933
No---- 578.2967
No---- 639.6299
No---- 482.9269 No---- 641.2765
No---- 582.2834
No---- 641.2054
No---- 488.2524 No---- 639.5908
No---- 586.1783
No---- 642.6423
No---- 493.5334 No---- 637.7355
No---- 589.9788
No---- 643.9388
No---- 498.7675 No---- 635.7097
No---- 593.6827
No---- 645.0929
No---- 503.9524 No---- 633.5126
No---- 597.2875
No---- 391.2191
No---- 631.1436 No---- 195.9147
No---- 541.4397
No---- 382.4219
No---- 628.6021 No---- 186.6479
No---- 535.3055
No---- 373.5337
No---- 625.8875 No---- 177.4534
No---- 529.0108
No---- 364.5599
No---- 622.9995 No---- 168.3419
No---- 522.5576
No---- 355.5063
No---- 619.9378 No---- 159.3244
No---- 515.9481
No---- 346.3785
No---- 616.7019 No---- 150.4121
No---- 509.1843
No---- 337.1827
No---- 613.2919 No---- 141.6168
No---- 502.2687
No---- 327.9251
No---- 609.7076 No---- 132.9503
No---- 495.2039
No---- 318.6123
No---- 605.9491 No---- 124.4248
No---- 487.9924
No---- 309.2510
No---- 602.0165 No---- 116.0530
No---- 480.6371
No---- 299.8481
No---- 597.9101 No---- 107.8477
No---- 473.1410
No---- 290.4109
No---- 593.6301 No---- 99.8222
No---- 465.5073
No---- 280.9468
No---- 589.1770 No---- 91.9900
No---- 457.7394
No---- 271.4635
No---- 584.5514 No---- 84.3651
No---- 449.8406
No---- 261.9690
No---- 579.7539 No---- 76.9616
No---- 441.8147
No---- 252.4714
No---- 574.7854 No---- 69.7943
No---- 433.6656
No---- 242.9792
No---- 569.6466 No---- 62.8780
No---- 425.3973
No---- 233.5012
No---- 564.3386 No---- 56.2282
No---- 417.0139
No---- 224.0464
No---- 558.8627 No---- 49.8606
No---- 408.5200
No---- 214.6239
No---- 553.2199 No---- 43.7912
No---- 399.9201
No---- 205.2435
No---- 547.4117 No---- 38.0364
No---- 23.3887
No---- 363.3136
No---- 32.6132 No---- 1.3618e+03
No---- 29.5659
No---- 393.0366
No---- 27.5388 No---- 1.4325e+03
No---- 36.5548
No---- 424.2675
No---- 22.8308 No---- 1.5058e+03
No---- 44.3829
No---- 457.0463
No---- 18.5073 No---- 1.5816e+03
No---- 53.0780
No---- 491.4140
No---- 14.5868 No---- 1.6601e+03
No---- 62.6685
No---- 527.4119
No---- 11.0880 No---- 1.7412e+03
No---- 73.1836
No---- 565.0822
No---- 8.0303 No---- 1.8251e+03
No---- 84.6526
No---- 604.4679
No---- 5.4334 No---- 1.9118e+03
No---- 97.1058
No---- 645.6124
No---- 3.3175 No---- 2.0013e+03
No---- 110.5737
No---- 688.5602
No---- 1.7030 No---- 2.0937e+03
No---- 125.0877
No---- 733.3562
No---- 0.6112 No---- 2.1892e+03
No---- 140.6795
No---- 780.0464
No---- 0.0633 No---- 2.2876e+03
No---- 157.3816
No---- 828.6774
No---- 0.0815 No---- 2.3892e+03
No---- 175.2270
No---- 879.2963
No---- 0.6879 No---- 2.4940e+03
No---- 194.2493
No---- 931.9515
No---- 1.9057 No---- 2.6020e+03
No---- 214.4828
No---- 986.6917
No---- 3.7579 No---- 2.7133e+03
No---- 235.9622
No---- 1.0436e+03
No---- 6.2686 No---- 2.8279e+03
No---- 258.7232
No---- 1.1026e+03
No---- 9.4620 No---- 2.9461e+03
No---- 282.8017
No---- 1.1639e+03
No---- 13.3628 No---- 3.0677e+03
No---- 308.2346
No---- 1.2275e+03
No---- 17.9965 No---- 3.1929e+03
No---- 335.0592
No---- 1.2934e+03
No---- 3.3218e+03 No---- 4.8288e+03
No---- 4.3329e+03
No---- 3.8755e+03
No---- 3.4544e+03 No---- 5.0030e+03
No---- 4.4938e+03
No---- 4.0238e+03
No---- 3.5909e+03 No---- 5.1819e+03
No---- 4.6590e+03
No---- 4.1762e+03
No---- 3.7312e+03 No---- 5.3654e+03
200 Datos – 100 Iteraciones (Ultima iteración de prueba que verifica lo
aprendido)

Iteración de prueba Si---- 0.0093


adicional Si---- 0.0076
Si---- 0.0099 Si---- 0.0052
Si---- 0.0092
Si---- 0.0074
Si---- 0.0099 Si---- 0.0050
Si---- 0.0091
Si---- 0.0072
Si---- 0.0099 Si---- 0.0048
Si---- 0.0090
Si---- 0.0070
Si---- 0.0099 Si---- 0.0047
Si---- 0.0089
Si---- 0.0069
Si---- 0.0099 Si---- 0.0045
Si---- 0.0088
Si---- 0.0067
Si---- 0.0098 Si---- 0.0043
Si---- 0.0086
Si---- 0.0065
Si---- 0.0098 Si---- 0.0041
Si---- 0.0085
Si---- 0.0063
Si---- 0.0097 Si---- 0.0039
Si---- 0.0083
Si---- 0.0061
Si---- 0.0097 Si---- 0.0038
Si---- 0.0082
Si---- 0.0060
Si---- 0.0096 Si---- 0.0036
Si---- 0.0080
Si---- 0.0058
Si---- 0.0095 Si---- 0.0034
Si---- 0.0079
Si---- 0.0056
Si---- 0.0094 Si---- 0.0033
Si---- 0.0077
Si---- 0.0054
Si---- 0.0031 Si---- 6.0446e-05
Si---- 0.0012
Si---- 1.4730e-04
Si---- 0.0029 Si---- 8.5777e-05
Si---- 0.0011
Si---- 1.1182e-04
Si---- 0.0028 Si---- 1.1536e-04
Si---- 9.6325e-04
Si---- 8.1289e-05
Si---- 0.0026 Si---- 1.4913e-04
Si---- 8.6791e-04
Si---- 5.5680e-05
Si---- 0.0025 Si---- 1.8701e-04
Si---- 7.7746e-04
Si---- 3.4957e-05
Si---- 0.0023 Si---- 2.2892e-04
Si---- 6.9193e-04
Si---- 1.9078e-05
Si---- 0.0022 Si---- 2.7478e-04
Si---- 6.1137e-04
Si---- 8.0004e-06
Si---- 0.0020 Si---- 3.2451e-04
Si---- 5.3579e-04
Si---- 1.6763e-06
Si---- 0.0019 Si---- 3.7803e-04
Si---- 4.6523e-04
Si---- 5.4370e-08
Si---- 0.0018 Si---- 4.3526e-04
Si---- 3.9968e-04
Si---- 3.0797e-06
Si---- 0.0016 Si---- 4.9612e-04
Si---- 3.3916e-04
Si---- 1.0694e-05
Si---- 0.0015 Si---- 5.6051e-04
Si---- 2.8367e-04
Si---- 2.2836e-05
Si---- 0.0014 Si---- 6.2837e-04
Si---- 2.3320e-04
Si---- 3.9443e-05
Si---- 0.0013 Si---- 6.9959e-04
Si---- 1.8775e-04
Si---- 0.0037
Si---- 7.7410e-04 Si---- 0.0056
Si---- 0.0021
Si---- 0.0039
Si---- 8.5181e-04 Si---- 0.0058
Si---- 0.0022
Si---- 0.0040
Si---- 9.3263e-04 Si---- 0.0059
Si---- 0.0023
Si---- 0.0041
Si---- 0.0010 Si---- 0.0060
Si---- 0.0025
Si---- 0.0043
Si---- 0.0011 Si---- 0.0062
Si---- 0.0026
Si---- 0.0044
Si---- 0.0012 Si---- 0.0063
Si---- 0.0027
Si---- 0.0045
Si---- 0.0013 Si---- 0.0064
Si---- 0.0028
Si---- 0.0047
Si---- 0.0014 Si---- 0.0066
Si---- 0.0029
Si---- 0.0048
Si---- 0.0015 Si---- 0.0067
Si---- 0.0031
Si---- 0.0049
Si---- 0.0016 Si---- 0.0068
Si---- 0.0032
Si---- 0.0051
Si---- 0.0017 Si---- 0.0070
Si---- 0.0033
Si---- 0.0052
Si---- 0.0018 Si---- 0.0071
Si---- 0.0035
Si---- 0.0053
Si---- 0.0019 Si---- 0.0072
Si---- 0.0036
Si---- 0.0055
Si---- 0.0020 Si---- 0.0074
Si---- 0.0095
Si---- 0.0086
Si---- 0.0075 Si---- 0.0099
Si---- 0.0096
Si---- 0.0087
Si---- 0.0076 Si---- 0.0099
Si---- 0.0096
Si---- 0.0088
Si---- 0.0077 Si---- 0.0099
Si---- 0.0097
Si---- 0.0089
Si---- 0.0078 Si---- 0.0099
Si---- 0.0097
Si---- 0.0090
Si---- 0.0080 Si---- 0.0099
Si---- 0.0098
Si---- 0.0091
Si---- 0.0081 Si---- 0.0099
Si---- 0.0098
Si---- 0.0092
Si---- 0.0082 Si---- 0.0099
Si---- 0.0098
Si---- 0.0093
Si---- 0.0083 Si---- 0.0099
Si---- 0.0099
Si---- 0.0093
Si---- 0.0084 Si---- 0.0098
Si---- 0.0099
Si---- 0.0094 Se tenido un
Si---- 0.0085 aprendizaje
Si---- 0.0099 exitoso>>
Discusión de Resultados

En el caso de la MLP con 100 datos se puede observar que a medida que se pongan
más iteraciones el error ira disminuyendo gracias al aprendizaje, si es cierto que en
un punto el aprendizaje se estanque por “n” razón se tiene a earlystopping para
impedir esto, en especial esa señal al ponerle 3000 iteraciones se asemeja mucho,
es tardado pero es bueno saber que la MLP funciona correctamente, en caso de los
1000 datos, es una cantidad de datos gigantescos, yo mismo probé con 8000
iteraciones y los valores de salida se movían muy poco y la señal de salida no se
movía para nada, así que deduzco que se necesita una cantidad de iteraciones
bestial para poder llevar a cabo ese aprendizaje(o utilizar un alpha un poco más
grande), en caso de la señal de 200 datos(seno de -1 a 1) se puede visualizar que
el aprendizaje es uno de los más correctos que se tienen ya que las dos señales
graficadas parasen una misma y solo varia por algunos datos en un error marcado
por el usuario(En ese caso 0.05).

En todos los casos a medida que se cambiaban los alpha pude observar que si se
pone un alpha muy grande el error se dispara a infinito y la red neuronal queda en
un bucle en el cual los valores de salida, por obvias razones, tienden a infinito. Para
esta red hay que tener mucho cuidado tanto en las iteraciones como lo es en en
alpha ya que es como que la columna para que el aprendizaje se limite a ser
pequeño o grande.
Conclusiones

Mis conclusiones pasadas siempre han iniciado enfocadas al programa y en si a la


práctica, pero creo que esta merece un comentario más personal sobre cómo me
sentí tanto en la elaboración como en su funcionamiento.

Al principio pensé que era una práctica sencilla, simple, trivial; que solo se
programaba en 3 días, pero no fue así, desde el primer día que la pidió la empecé
a programar y créame han sido las 3 semanas más largas de mi vida, no me
quedaba por razones que desconocía, simplemente me odiaba mi propio
programa. A pasar las semanas sufría de una desesperación constante y me
sumergí en una idea de no poder hacerlo, sinceramente la practica fue frustrante,
a tal grado de solo poder entregar 3 de 4 partes que se requerían. Finalmente, ya
cuando “creo” que salió es como que un alivio pensar que todo el tiempo invertido
valió para algo.

El perceptron de múltiples capas o MLP es una RNA bestial, tan impresionante en


su funcionamiento como en la capacidad de poder realizar cambios y cambios
sobre los pesos y bias, utilizada para grandes y complejos cálculos tanto de
aproximación como clasificación. A medida que la MLP aprende esta misma se va
componiendo por cada error que calcule, sea cual sea el error siempre podrá
calcular los pesos y bias necesarios para poder llegar al target. Algo que es
fascinante es la manera en la cual una MLP puede llegar a detenerse en caso de
que sufra un entrenamiento obsesivo gracias a EarlyStopping el cual en la práctica
nos ha salvado de llegar a un punto sin retorno en el cual las iteraciones pasen y
pasen y no haya cambios notables o simplemente el cambio dispare el error a
infinito, aunque a veces en Matlab si un valor es gigantesco lo convierte en NaN y
daña completamente la MLP.

Finalmente quisiera agregar que la práctica se “cumplió” satisfactoriamente ya que


se puede realizar el aprendizaje y la aproximación a una señal.
Referencias

[1] MATLAB:a practical introduction to Programming and problema solving/Stormy


Attawat. -2en ed.

[2]Neural Networks Design/ Hagan T. Martin, Demuth B. Howard, Beale Mark -2en
ed.
Apéndice
%Luna Reyes Brandon Manuel
format short
clear
clc
fprintf('____________________________________________');
fprintf('\n-------------------MLP----------------------');
fprintf('\n___________________________________________');
fprintf('\n');
iteraciones=1;
errorayuda=0;
mayorval=0;
deten=false;
yes=1;
yes2=1;
arquitectura=input('\nIngresa la arquitectura:');
[l,m]=size(arquitectura);
funciones=input('Ingresa las funciones(1-Logsig|2-Purelin|3-Tansig)
:');
[l2,m2]=size(funciones);
archivo=input('Ingrese el nombre del archivo:','s');
datos=importdata(archivo);
[l3,m3]=size(datos);
erapre=input('Ingrese el error de aprendizaje:');
itmax=input('Ingrese la iteracion maxima:');
itval=input('Ingrese la frecuencia de la iteracion de validacion:');
maxval=input('Ingrese los incrementos consecutivos para validacion:');
alpha=input('Ingrese el factor de aprendizaje:');
sprintf('Seleccione que porcentaje de datos para los conjuntos:');
fprintf('\n 1) 80-10-10');
fprintf('\n 2) 70-15-15');
porcentaje=input('\nEleccion:');
fprintf('\n');
celdas=cell(m-1,1);
%Separacion de datos
switch porcentaje
case 1
separar=[80,10,10];
case 2
separar=[70,15,15];
end
%Separacion de target y datos de entrada
target=datos(:,2);
a=datos(:,1);
a2=datos;
[ay,ay2]=size(a2);
%Aprendizaje Calculos
aprendizaje=zeros(ay*80/100,m3);
[apr,anp]=size(aprendizaje);
prueba=zeros(ay*separar(2)/100,m3);
[pru,pra]=size(prueba);
validacion=zeros(ay*separar(3)/100,m3);
[val,vaa]=size(validacion);
for ma=1:3
i2=1;
while i2<(ay*separar(ma)/100)+1
x=(round(rand*(l3-1)+1));
switch ma
case 1
if a2(x)~=-10
aprendizaje(i2,1)=a2(x,1);
aprendizaje(i2,2)=a2(x,2);
a2(x,1)=-10;
a2(x,2)=-10;
i2=i2+1;
end
case 2
if a2(x)~=-10
validacion(i2,1)=a2(x,1);
validacion(i2,2)=a2(x,2);
a2(x,1)=-10;
a2(x,2)=-10;
i2=i2+1;
end
case 3
if a2(x)~=-10
prueba(i2,1)=a2(x,1);
prueba(i2,2)=a2(x,2);
a2(x,1)=-10;
a2(x,2)=-10;
i2=i2+1;
end
end
end
end
%Calculo de los valores de Pesos y Bias
for i=1:m
for j=1:2
if i~=m
pesos=zeros(arquitectura(i+1),arquitectura(i));
bias=zeros(arquitectura(i+1),1);
for l=1:arquitectura(i+1)
bias(l,1)=rand;
for k=1:arquitectura(i)
pesos(l,k)=rand;
end
end
if j==1
celdas{i,j}=pesos;
else
celdas{i,j}=bias;
end
end
end
end
%Separacion de pesos y bias en celdas
pesosm=celdas(:,1);
biasm=celdas(:,2);
%Celda para los valores de salida
salidas=cell(1,m-1);
%Matrices para las reglas
s=cell(m2,1);
%Propagacion hacia delante
while iteraciones<itmax && mayorval<maxval
errorayuda=0;
if (rem(iteraciones,itval))>0
yes=1;
yes3=1;
yes4=1;
yes5=1;
for j=1:apr
for i=1:m2
if i==1
switch funciones(i)
case 1

salidas{j,i}=logsig((pesosm{i,1}*aprendizaje(j))+biasm{i,1});
case 2

salidas{j,i}=purelin((pesosm{i,1}*aprendizaje(j))+biasm{i,1});
case 3

salidas{j,i}=tansig((pesosm{i,1}*aprendizaje(j))+biasm{i,1});
end
else
%Si falla checar la transpuesta del biasm
switch funciones(i)
case 1
salidas{j,i}=logsig((pesosm{i,1}*salidas{j,i-
1})+biasm{i,1});
case 2
salidas{j,i}=purelin((pesosm{i,1}*salidas{j,i-
1})+biasm{i,1});
case 3
salidas{j,i}=tansig((pesosm{i,1}*salidas{j,i-
1})+biasm{i,1});
end
end
end
%Calculo de error
preerror=(aprendizaje(j,2)-salidas{j,m2});
finerror=preerror^2;
%Comparacion con el target
if salidas{j,m2}==aprendizaje(j,2) || finerror<erapre
fprintf('\nSi');
disp(finerror);
yes=yes+1;
else
fprintf('\nNo');
disp(finerror);

%Inicia Aprendizaje
%Calculo de las matrices derivadas
deriva=cell(1,m2);
mhelp=m2;
while mhelp>=1
derivada=zeros(arquitectura(mhelp+1));
[la,an]=size(derivada);
ayuda=salidas{j,mhelp};
for k=1:la
for k2=1:an
if k==k2
switch funciones(mhelp)
case 1
derivada(k,k2)=(logsig(ayuda(k2,1))*(1-
logsig(ayuda(k2,1))));
case 2
derivada(k,k2)=1;
case 3
derivada(k,k2)=(1-
(tansig(ayuda(k2,1))^2));
end
else
derivada(k,k2)=0;
end
end
end
deriva{1,mhelp}=derivada;
%Calculo de las sensibilidades
if mhelp==m2
s{mhelp}=-2*deriva{1,mhelp}*preerror;
else
s{mhelp}=deriva{1,mhelp}*pesosm{mhelp+1,1}'*s{mhelp+1};
end
%Calculo de el aprendizaje
if mhelp==1
pesosm{mhelp,1}=pesosm{mhelp,1}-
(alpha*(s{mhelp}))*aprendizaje(j)';
biasm{mhelp,1}=biasm{mhelp,1}-(alpha*(s{mhelp}));
else
pesosm{mhelp,1}=pesosm{mhelp,1}-
(alpha*(s{mhelp}))*salidas{1,mhelp-1}';
biasm{mhelp,1}=biasm{mhelp,1}-alpha*(s{mhelp});
end
mhelp=mhelp-1;
end

end
end
if yes==apr+1
break;
end
iteraciones=iteraciones+1;
%Final de iteraciones de apprendizaje
else
errorayuda=0;
fprintf('Iteracion de validacion');
for j=1:val
for i=1:m2
if i==1
switch funciones(i)
case 1

salidas{j+apr,i}=logsig((pesosm{i,1}*validacion(j))+biasm{i,1});
case 2
salidas{j+apr,i}=purelin((pesosm{i,1}*validacion(j))+biasm{i,1});
case 3

salidas{j+apr,i}=tansig((pesosm{i,1}*validacion(j))+biasm{i,1});
end
else
%Si falla checar la transpuesta del biasm
switch funciones(i)
case 1
salidas{j+apr,i}=logsig((pesosm{i,1}*salidas{j+apr,i-
1})+biasm{i,1});
case 2
salidas{j+apr,i}=purelin((pesosm{i,1}*salidas{j+apr,i-
1})+biasm{i,1});
case 3
salidas{j+apr,i}=tansig((pesosm{i,1}*salidas{j+apr,i-
1})+biasm{i,1});
end
end
end
%Calculo de error
preerror=(validacion(j,2)-salidas{j+apr,m2});
finerror=preerror^2;

%Comparacion con el target


if salidas{j+apr,m2}==validacion(j,2) || finerror<erapre
fprintf('\nSi');
fprintf('>>');
disp(finerror);
yes3=yes3+1;
else
fprintf('\nNo');
fprintf('>>');
disp(finerror);
end
%EarlyStopping
if finerror>errorayuda
mayorval=mayorval+1;
%Se guarda el error pasado en ayuda
errorayuda=finerror;
else
mayorval=0;
%Se guarda el error pasado en ayuda
errorayuda=finerror;
end
%Condicion de termino por EarlyStopping
if mayorval==maxval
fprintf('Se ha detenido el aprendizaje por EarlyStopping\n');
deten=true;
break;
end
end
iteraciones=iteraciones+1;
end
if iteraciones==itmax-1 || deten==true
fprintf('\nIteracion de prueba');
for j=1:pru
for i=1:m2
if i==1
switch funciones(i)
case 1

salidas{j+(apr+val),i}=logsig((pesosm{i,1}*a(j))+biasm{i,1});
case 2

salidas{j+(apr+val),i}=purelin((pesosm{i,1}*a(j))+biasm{i,1});
case 3

salidas{j+(apr+val),i}=tansig((pesosm{i,1}*a(j))+biasm{i,1});
end
else
%Si falla checar la transpuesta del biasm
switch funciones(i)
case 1

salidas{j+(apr+val),i}=logsig((pesosm{i,1}*salidas{j+(apr+val),i-
1})+biasm{i,1});
case 2

salidas{j+(apr+val),i}=purelin((pesosm{i,1}*salidas{j+(apr+val),i-
1})+biasm{i,1});
case 3

salidas{j+(apr+val),i}=tansig((pesosm{i,1}*salidas{j+(apr+val),i-
1})+biasm{i,1});
end
end
end
%Calculo de error
preerror=(prueba(j,2)-salidas{j+(apr+val),m2});
finerror=preerror^2;
%Comparacion con el target
if salidas{j+(apr+val),m2}==prueba(j,2) || finerror<erapre
fprintf('\nSi');
fprintf('---->');
disp(finerror);
yes5=yes5+1;
else
fprintf('\nNo');
fprintf('---->');
disp(finerror);
end
end

end
end
salidas2=cell(1,m-1);
fprintf('\nIteracion de prueba adicional');
for j=1:l3
for i=1:m2
if i==1
switch funciones(i)
case 1
salidas2{j,i}=logsig((pesosm{i,1}*a(j))+biasm{i,1});
case 2
salidas2{j,i}=purelin((pesosm{i,1}*a(j))+biasm{i,1});
case 3
salidas2{j,i}=tansig((pesosm{i,1}*a(j))+biasm{i,1});
end
else
%Si falla checar la transpuesta del biasm
switch funciones(i)
case 1

salidas2{j,i}=logsig((pesosm{i,1}*salidas2{j,i-
1})+biasm{i,1});
case 2
salidas2{j,i}=purelin((pesosm{i,1}*salidas2{j,i-
1})+biasm{i,1});
case 3
salidas2{j,i}=tansig((pesosm{i,1}*salidas2{j,i-
1})+biasm{i,1});
end
end
end
%Calculo de error
preerror=(datos(j,2)-salidas2{j,m2});
finerror=preerror^2;
%Comparacion con el target
if salidas2{j,m2}==datos(j,2) || finerror<erapre
fprintf('\nSi');
fprintf('----');
disp(finerror);
yes4=yes4+1;
else
fprintf('\nNo');
fprintf('----');
disp(finerror);
end
end
if deten==true
fprintf('Se ha detenido por EarlyStopping');
end
if yes==apr+1
fprintf('Se tenido un aprendizaje exitoso');
end
if iteraciones==itmax
fprintf('La red no aprendio lo suficiente');
end

%Imprimir las salidas


imprimir=cell2mat(salidas2(:,end));
figure(1)
plot(imprimir,'x');
hold on
plot (datos(:,2),'o');
grid on
xlabel('Datos')
ylabel('Salidas')
title('Salidas finales vs Salidas deseadas')
%Total
figure (5)
hold on
fin=[aprendizaje(:,1);validacion(:,1);prueba(:,1)];
fin3=[aprendizaje(:,2);validacion(:,2);prueba(:,2)];
fin2=[imprimir,fin];
fin4=[fin,fin3];
plot(fin2(:,2),'x');
plot(fin4(:,2),'o');
grid on
xlabel('Datos')
ylabel('Salidas')
title('Salidas Finales(Entrenamiento,Validacion,Prueba)')

También podría gustarte