Está en la página 1de 24

MSTERENTECNOLOGASMULTIMEDIA PROYECTODEFINDEMSTER

EstimacinyclasificacindedaosenmaterialesutilizandomodelosAR yredesneuronalesparalaevaluacinnodestructivaconultrasonidos
REALIZADO POR:

VctorGabrielVlchezGarca
DIRIGIDO POR: JosLuisPrezCrdoba DEPARTAMENTO: TeoradelaSeal,TelemticayComunicaciones Granada, Septiembre de 2010

Palabras Clave: EvaluacinNoDestructivaEND-, ultrasonidos,clasificador,modelosautorregresivos,redesneuronales,anlisisdecomponentesprincipales,GUIDEMATLAB Resumen: Elpresenteproyectoseocupadelaconstruccindeunclasificadordesealesultrasnicasasociadasadeterminadosnivelesdedaoenmateriales.Losdatosde partidasonsealesprovenientesdeexperimentosdeevaluacinnodestructivaultrasnica,alascuales,selesrealizarunaextraccindecaractersticasmedianteel usodemodelosautorregresivos.Adems,seestudiarlaposibilidaddereducirelespaciodecaractersticasyaplicartcnicasdepreprocesadodelasseales.Las caractersticasseleccionadas,sernlaentradaaunclasificadorbasadoenredesneuronalesqueproducirunasalidaqueindiqueelniveldedaoenelmaterial.Eneste sentido,seprobarndistintasconfiguracionesderedesneuronales,ascmodiferentestiposdeentrenamientoanalizandolosresultadosobtenidos. Keywords: Non Destructive Evaluation -NDE-, ultrasounds, classificator, autorregressive models, neural networks, principal component analysis PCA-, GUIDE MATLAB Abstract: This project focuses on building a classifier for ultrasonic signals associated with certain levels of damage in materials. The baseline data are signals from experiments of ultrasonic nondestructive evaluation. A feature extraction procedure using autoregressive models is performed. In addition, dimensionality reduction and preprocessing techniques will be considered. The selected features will be the input to a classifier based on neural networks that produce an output showing the level of damage in the material. In this sense, we tested different configurations of neural networks, as well as different types of training. Finally, we analyze the results.

NDICE
Glosario 1.Introduccin 1.1.Motivacinyobjetivos 1.2.EvaluacinNoDestructiva(END) 1.3. END con ultrasonidos 1.4.Naturalezadelassealesdetrabajo 2.Aplicacindemodelosautorregresivos
http://ceres.ugr.es/~alumnos/esclas/ Page 1 / 24

2.1. Modelos AR 2.2. Estado del arte de modelos AR en clasificadores de materiales 2.3.Reduccindeladimensionalidad:PCA 3.Usoderedesneuronalesparaclasificacin 3.1.Introduccinalaclasificacin 3.2.Usoderedesneuronalesparaclasificacin 3.3.Fundamentosbsicosdelasredesneuronales 3.4. Redes neuronales feed-forward 3.5. Entrenamiento de la red 3.6.Consideracionesprcticas 4.Descripcindelclasificadorimplementado 4.1.Eleccindelaplataformadediseo 4.2. Requisitos iniciales de la interfaz 4.3. Ventana principal 4.4. Ventana de entrenamiento 5.Anlisisdelosresultadosobtenidos 5.1.Descripcindelassealesdeprueba 5.2. Experimento I: eligiendo el algoritmo de entrenamiento 5.3.ExperimentoII:eligiendoelordendelmodeloAR 5.4.ExperimentoIII:eligiendolafuncindeoptimizacin 5.5.ExperimentoIV:aplicandodecimacin 5.6.ExperimentoV:aplicandorecortes 5.7.ExperimentoVI:distincindao/nodao 5.8.ExperimentoVII:distincindaonulo-leve/medio-grave 5.9.ExperimentoVIII:distincindaoleve/medio/grave 5.10.ExperimentoIX:distincingeneral 5.11. Conclusiones 6.Bibliografa

GLOSARIO
A AIC: - An Information Criterion Uncriteriodeinformacin(Akaike) AR: - AutoRegressive - Modelo autorregresivo ARMA: - AutoRegressive Moving Average -Modeloautorregresivodemediamvil ARX: - AutoRegressive model with eXogenous input-Modeloautorregresivoconentradaexgena ARMAX: - AutoRegressive Moving Average model with eXogenous input-Modeloautorregresivodemediamvilconentradaexgena AWG: - Arbitrarious Wave Generator Generador de onda arbitraria B BFG: - BFGS Quasi-Newton Algoritmo de entrenamiento BIC: - Bayesian Information Criterion Criteriodeinformacinbayesiano BP: - Back-Propagation RetroPropagacin C CGB: - Conjugate Gradient with Powell/Beale restarts Algoritmo de entrenamiento CGF: - Conjugate Gradient Fletcher-Powell Algoritmo de entrenamiento CGP: - Conjugate Gradient Polak-Ribire Algoritmo de entrenamiento D DUT: - Device Under Test Dispositivo bajo test E
http://ceres.ugr.es/~alumnos/esclas/ Page 2 / 24

END:EvaluacinNoDestructiva F FB: - Forward-Backward - Hacia delante-haciaatrs FPE: - Final Prediction Error Errorfinaldeprediccin G GDX: - Variable Learning Rate Backpropagation Algoritmo de entrenamiento GUI: -Graphical User Interface-InterfazGrficadeUsuario GUIDE: - Graphical User Interface Design Editor -Editordeinterfacesgrficasdeusuario- GUI. L L-M: - Levenberg-Marquardt Algoritmo Levenberg-Marquardt M MAT: Tipo de archivo en formato de MATLAB. MLP: - MultiLayer Perceptron Perceptrnmulticapa MSE: - Mean Squared Error Errorcuadrticomedio O OSS: - One Step Secant - Algoritmo de entrenamiento P PCA: - Principal Component Analysis -AnlisisenComponentesPrincipales R RNA: Red Neuronal Artificial RP: - Resilient backPropagation Algoritmoderetropropagacinresistente S SCG: - Scale Conjugated Gradient Algoritmo de entrenamiento del gradiente conjugado escalado SHM: - Structure Health Monitoring MonitorizacindelaSaludEstructural SVD: - Singular Value Decomposition -Descomposicinenvaloressingulares SVM: - Support Vector Machine Mquinadesoportevectorial.

Captulo1

INTRODUCCIN
Alolargodeesteprimercaptulo,seindicarnlasmotivacionesyobjetivosdelProyectoFindeMsterdelMsterenTecnologasMultimediadelaUniversidadde Granada, que lleva por nombre EstimacinyclasificacindedaosenmaterialesutilizandomodelosARyredesneuronalesparalaevaluacinnodestructivacon ultrasonidos. Enestesentido,sedescribirelcontextoquerodeaaesteproyecto,destacandociertasnocionesbsicasacercadeladenominadaEvaluacinNo Destructiva(END)conultrasonidos,ascomodelosmodelosautorregresivosydelempleoderedesneuronalespararesolverproblemasdeclasificacin. 1.1.Motivacinyobjetivos Elobjetivoprincipalquesepersigueconlarealizacindeesteproyectofindemster,eseldeestimarelniveldedaopresenteenunosmaterialesdados,atravsdel anlisisdesealesultrasnicasprovenientesdeexperimentosdeevaluacinnodestructiva.Estaestimacindelniveldedao,pretendellevarseacaboconelempleo demodelosautorregresivosyredesneuronales,demaneraquedadounconjuntodesealespuedaefectuarseunaclasificacindeacuerdoalniveldedaoasociadoa cadaseal.Paraello,serequierelaimplementacindeunainterfazalaqueselepresentenlassealesyqueseacapazdeclasificarlas.

http://ceres.ugr.es/~alumnos/esclas/

Page 3 / 24

EsteproyectoseharealizadoenelsenodelDepartamentodeTeoradelaSeal,TelemticayComunicacionesdelaUniversidaddeGranada,elcualcuentaconuna lneadeinvestigacindedicadaalestudiodelassealesprocedentesdeladenominadaevaluacinnodestructivaultrasnica.Estalneadeinvestigacinsurgeenel marcodeunacolaboracinconellaboratoriodeEvaluacinNoDestructivadelDepartamentodeMecnicadeEstructurasconsedeenelEdificioPolitcnicodelaE. T.S.IngenieradeCaminos,CanalesyPuertos.Portanto,esteproyectonaceconelpropsitodedotaralalneadeinvestigacindelprocesadodesealesdela evaluacinnodestructiva,deunaherramientaquepermitaclasificarlassealesadquiridasenexperimentosefectuadosendiversascondiciones,deunamanerafcil, flexibleyautomtica. En la figura 1, podemos observar un esquema general que explica, a grandes rasgos, la tarea a realizar a lo largo de este proyecto. Como puede verse, el punto de partidasonlassealesultrasnicaslascualesseextraerndelamaneraindicadaenelapartado1.4.Dichassealesseseparanensealesusadasenelentrenamientoy sealesusadasparatest,obteniendoparaambosgruposlosparmetrosARdecadaseal.Acontinuacin,puedeefectuarse,demaneraopcional,unareduccindela dimensionalidaddelvectordecaractersticasatravsdelatcnicaconocidacomoPCA(verapartado2.3).Conesto,pasaremosdeunvectordecaractersticascon pcomponentes(elordendelmodeloAR)aunvectorconqcomponentes,conq<p.Seguidamente,podemosusarlosvectoresdecaractersticasobtenidosapartir delassealesdeentrenamientojuntoconsusrespectivassealesobjetivoparaentrenarlaredneuronal.Lascitadassealesobjetivodirnaqugrupo(qunivelde dao)pertenecelasealdeentrenamientoconsiderada.Unavezentrenadalaredneuronal,stayadeberasercapazde clasificarlassealesdetest,indicandoaquclasepertenecen,estoes,quniveldedaopresentan.Todasestastareassellevarnalaprcticamediantela implementacindeunainterfazgrficaenMatlab(vercaptulo4).

Figura1:EsquemageneraldelsistemaaconstruirenelProyectodeFindeMster

1.2.EvaluacinNoDestructiva(END) 1.2.1.Definicin EnesteapartadoprocederemosaexplicarenquconsistelaEvaluacinNoDestructiva(END),yporquestanimportanteelestudioyprocesadodelasseales provenientes de experimentos realizados en este campo. Denominamosevaluacinoensayonodestructivo,END,acualquiertipodepruebapracticadaaundeterminadomaterialquenoalteredeformapermanentesus propiedadesfsicas,qumicas,mecnicasodimensionales.Enestesentido,dichaspruebasimplicanundaoqueresultaimperceptibleonuloenlamuestraexaminada [1].Estosensayoscuentanconunobjetivoclaro:ladeteccindedefectosinternosqueseencuentranocultosdentrodeuncuerpofabricadoconundeterminado material.

http://ceres.ugr.es/~alumnos/esclas/

Page 4 / 24

Parallevaracabocualquiertcnicadeevaluacinnodestructiva,comonormageneral,seprocedeestudiandounamagnitudfsicaquesepropaguedentrodelcuerpo quesequiereanalizar,yquesemanifiesteenunaparteaccesibledesusuperficie.Dichamagnitudproporcionarinformacinrespectoaloquesucedeenelinteriordel cuerpo.Larespuestadelmaterialdefectuosoesdetectadamediantesensores,siendodigitalizadaposteriormente,yportantoestardisponibleparasertratada computacionalmente. Normalmente,paradeterminarlaspropiedadesmecnicasdeunmaterialdado,laformamsdirectadehacerloesmedianteunmtodomecnico,elcualpuedecausar laroturaodegradacindelmismo(mtododestructivo).Encontraste,lossonidosyultrasonidosproporcionan,paralosmismosobjetivos,mtodosdeevaluacinno destructivaloscualessondetalbajaintensidadquenoseproducedaoalgunoenelmaterial[2]. ExistenmultituddetcnicasdeENDyaquelamagnitudfsicaaaplicarpuedesermuyvariada.Envirtuddeesto,lastcnicaspuedenestarbasadasenlosfenmenos depropagacindelaspropiedadeselsticas(comoladeformacinelstica,propagacindeonda,acstica,etc.),medidasdeflujoelctrico,trmico,obasadosen radiacin(rayosX,reconstruccinporfotografa,etc.)[2].Lassealesconlasquesetrabajenesteproyectoprovenandeunatcnicadeevaluacinnodestructiva centradaenelestudiodelarespuestaacsticaultrasnica,esdecir,lapropagacindeondasmecnicasdeultrasonidos. Enlossiguientesapartadosserepasaelestadodelartedelastecnologasimplicadasenesteproyecto,tantoentecnologasENDmedianteultrasonidoscomoenla aplicacindetcnicasdeprocesadodesealenestecampo.

1.2.2. Uso de la END Lanecesidaddeutilizarlaevaluacinnodestructivaapareceenmultituddecamposdelaingenierayotrascienciasaplicadas.Dehecho,ladeteccindedefectos internosquepersiguelaENDsirveparacaracterizarmaterialesavanzadosynuevosmaterialesenfasededesarrollo.Adems,debesabersequelosmaterialesson tambintestadosnosloantesdesuaplicacin,sinotambinenvariasetapasdesuciclodevida.Estosehaceas,paradeterminarsiseestdesarrollandoalgn defecto interno que pudiera causar fallos en el futuro. Otroscamposdelacienciaquehacenusodetcnicasdeestetiposonlabiomecnica,dondesenecesitanparatomografa,identificacineinclusodiagnsticode elementosanmalos,otambinelcampodelabsquedademinasantipersona.Incluso,unodeloscamposmstradicionalesdentrodelaevaluacinnodestructivaha sidoeldelageotecniaylageofsica,nosloporeldeseodedejarintactaslasestructurassinosobretodoporlaimposibilidaddeaccederareasprofundasdeotra manera distinta a la END [3]. 1.2.3.Clasificacindelosmtodosnodestructivos Losmtodosnodestructivosqueseusanparaexaminarlaspropiedadesdeciertosmaterialessincausardao,puedenclasificarsedemuydiversosmodos.Lamanera msnaturaldeclasificarlos,tieneencuentaeltipodetcnicaenlaquesebasan,pudiendoconsiderarselossiguientes[1]: -Mtodosmecnicos,sonaquellosmtodosquesebasanenlaaplicacindefuerzasymedicindelasdeformacionesyotrasaccionesmecnicas. -Mtodosacsticos,sonlosbasadosenladeterminacindelavelocidaddetransmisindelsonidoenelmaterialyotrasmedicionesdenaturalezaacstica.La velocidaddetransmisindeunimpulsogeneradoporunimpactoounasealelctricapuededeterminarseapartirdelamedicindeltiempodepropagacin,y tambinapartirdelafrecuenciapropiadevibracindelapieza.Porotrolado,laemisinacsticadelapieza sometidaacargaspuedeaportarunainformacindeinterssobresuspropiedadesmecnicas. -Mtodoselectromagnticos,sonlosbasadosenlasmedicionesefectuadasmediantecorrienteselctricasocamposmagnticos. -Mtodosnucleares,queempleanlosrayosX,losrayosGammaylaresonanciamagntica. 1.3.Evaluacinnodestructivaconultrasonidos Losmtodosacsticosson,despusdelaclasificacinvisual,losmtodosdeclasificacinnodestructivosmsantiguosqueexisten.Enlacienciadelosmaterialesse utilizannumerosasydiferentestcnicasbasadasenlascaractersticasdepropagacindeunaondaacstica,diferencindose,yaseaenlafuentedelimpulso,enla configuracindelensayo,enlascaractersticasdelarespuestamedidaoenlaformadeprocesarlasealrecibidaytodoello,condicionadoporelmaterialsobreel que se investiga [1]. 1.3.1.Antecedenteshistricos ElprimercientficoenproponerelusodelosultrasonidosparalacaracterizacindematerialesfueelcientficorusoSolokoven1929consutrabajosobreelusodel mtododelassombrasconondascontinuas.Sinembargo,laexistenciadelosultrasonidosseconocadesdeelao1883,porlostrabajosrealizadosporGaltoncon loslmitesdelaaudicinhumana[1]. Anteriormente,sedescubriqueelmtodoultrasnicomsutilizado,eldepulso-eco,eraelusadoporlosmurcilagosparaorientarsecomosugiriSpallanzaen 1798,hechoquenofuecomprobadohasta1938porPierceyGriffin.Enlahistoriadeestatcnica,LangevinyChilowskitambindebensermencionadosyaque resolvieronentre1915y1917elproblemadeladeteccindesubmarinoseicebergsmedianteelusodepulsosultrasnicos[2] Sinembargo,laevaluacindematerialesmedianteultrasonidosnoseusdemaneraefectivahastaelrpidodesarrollodelaingenieraelectrnicaduranteelperiodo de1935a1938parasuusoenradares.Laprimerapropuestaparaelusodetcnicasdepulsoecoparaeltesteadodematerialesfueen1940porFirestoneenla UniversidaddeMichigan,EstadosUnidos.Independientementeyenlamismapoca,cientficosinglesescomoSprouledesarrollanequiposymtodossimilarespara detectar defectos en diversos materiales. Desdelosaos60,estosmtodossehanidodesarrollandoenloslaboratoriosyaplicndoseconmayoromenorxitoenlaindustriayenlasobras,constituyendohoy daimportanteseinsustituiblesherramientasendiversoscampos,porejemplo,eldelcontroldecalidad[1]. 1.3.2.Tcnicadeultrasonidos:

http://ceres.ugr.es/~alumnos/esclas/

Page 5 / 24

Sedenominanultrasonidos,tantoalestudiocomoalaaplicacindeunavibracindelaspartculascuyafrecuenciaessuperioralumbralmximodeaudicinhumana, es decir 20 kHz. Porquultrasonidos? Lapropagacindelasondasdepresinenlosdiferentesmediosmaterialesestsujetaalaatenuacindelapropiasealenesemedio,quesermayor,cuantomayor seasufrecuencia(menorlongituddeonda).Elusodefrecuenciasbajas(grandeslongitudesdeonda)permitebarrermayoresdistancias(seproducemenorabsorcin), peroacostadereducirlasensibilidaddelmtodo,esdecir,aumentaeltamaomnimodeladiscontinuidadcapazdelocalizar[1].Deah,quecadatcnicadeba optimizaralcanceytamaodelparmetroamedir,paraunmaterialdado. Portanto,elpequeovalordelalongituddeondadelosultrasonidoseselfactorquehafacilitadolautilizacindeestasondasparaladeteccindedefectosconalta sensibilidad en una gran variedad de aplicaciones. Aplicaciones Lasaplicacionesqueusanultrasonidosabarcanvariadosydiferentescampos,comolamedicina,bioqumica,cienciadelosmateriales,geologa,acsticasubmarina, etc. En concreto, los ultrasonidos se empezaron a utilizar en el campo de los materiales para el control no destructivo de metales. Existen muchas y variadas aplicacionesdelosultrasonidosenlosmetalesyelhormign,comoson:controldesoldadura,medicindeespesores,deteccindeirregularidadesinternas,inspeccin deelementosestructurales,medicindedimensiones,etc. 1.4.Naturalezadelassealesdetrabajo Duranteeldesarrollodelainterfazclasificadoraimplementadaparaesteproyecto,sehatrabajadocondiversassealesparaejemplificarelfuncionamientodela misma.DichassealesprovenandeexperimentosrealesdeENDrealizadosenellaboratoriodeEvaluacinNoDestructivadelDepartamentodeMecnicade EstructurasconsedeenelEdificioPolitcnicodelaE.T.S.IngenieradeCaminos,CanalesyPuertos(UniversidaddeGranada).Lassealesestabanalmacenadasen ficheros.mat,loscualesconstandeunaestructuradeMatlab(struct)conuncampo(field),quecontenalasmuestrasdelasealadquiridaporelosciloscopiodel laboratorio. Laestructurageneraldeloselementosdelexperimentoenellaboratoriodondeseobtienenlassealesesladelafigura2:

Figura2:ConfiguracinparalarealizacindeunaEND Comoseobservaenlafigura2,elsistemaconstadecuatrocomponentesprincipalesconlassiguientescaractersticas[4]: 1)Espcimen: Eselbloquedematerialaseranalizado.Enconcreto,elespcimenconelqueseobtuvieronlassealesqueheutilizadoenelprocesodedesarrollodelainterfaz,era unalminadealuminio,lacualsecomponadevariaszonascadaunadeellasconunniveldedaodiferente. 2) Transductores: Sontantoloselementostransmisores,loscualesemitenunaondaelsticahaciaelespcimen,comoloselementosreceptores,querecogendichaondatrasatravesarel mismo. 3) Osciloscopio: Capturalassealesrecibidas.Alseconectaunordenadorelcualseencargardealmacenarlassealesparasuposteriorprocesado.Ademsdecapturar,a menudosuelerealizarunciertopreprocesadosobrelaseal(decimacin,filtrado,...). 4) Generador de forma de onda:

http://ceres.ugr.es/~alumnos/esclas/

Page 6 / 24

Generasealeselctricasparalosemisores.Enestecasogenerarpulsosultrasnicos,loscualesantesdeexcitarelespcimen,debenseramplificadosenun amplificador destinado a tal efecto. EnelCaptulo5,seindicarndiferentesdetallesacercadelassealesquefueronusadasduranteesteproyectoyconquconfiguracinseextrajeron.

Captulo2

APLICACINDEMODELOSAUTORREGRESIVOS
Parallevaracabounaclasificacinesnecesarioidearunmtodoconelcualidentificardelamejorformaposiblealosejemplaressusceptiblesdeserclasificados,es decir,debemosproponerunaformadeextraerparmetrosquecaractericendemaneraadecuadaalaseal.Esteproceso,conocidocomolaextraccindelvectorde caractersticasdelasealpuederealizarsedemltiplesformas.steeselpapelqueenesteproyectojueganlosmodelosautorregresivos,loscualesseusarncomo mtododecaracterizacindelassealesqueluegodebernserclasificadas. 2.1. Modelos autorregresivos Losmodelosautorregresivos(modelosAR)sonunapiezabsicaenelanlisisdeseriestemporales[5].Agrandesrasgos,losmodelosARtratandeconsiderarla correlacindelasobservacionesactualesconsuspredecesoras. Definicin: Un modelo AR de una sola variable de orden p, AR(p) para la serie temporal { = 1 1+ 2 2+ + + }, =1,2,, , puedeescribirsecomo:

, donde ,, son los valores actuales y anteriores de las series, 1,, son los coeficientes AR, y es un ruido blanco gaussiano de media cero. Esta formulacinsederivacomouncasoespecialdeunprocesoARMA(p,q)(procesoautorregresivodemediamvil)enelcualseconsideraquenohaycerosyestodopolos (q=0). Para generar un proceso AR(p), el procedimiento que se lleva a cabo [6] es filtrar ruido blanco de varianza unidad, v(n), con un filtro todo-polos de la forma: ( )= (0)/(1+ ( ) =1

ExtraccindeparmetrosAR: ExistenvariosmtodosqueseutilizanalahoradedeterminarlosparmetrosARquemejormodelenunasealdada.Losmtodosusadosenesteproyectohansido losdisponiblesenMatlabatravsdelafuncinar [7].Conestafuncin,ademsdeindicarleelordendelmodeloonmerodecoeficientesARquequeremosque estime,podemoselegirelmtododeestimacindelosparmetrosaaplicar.Lasposibilidadesdisponiblesson: -MtododeBurg:Esunmtodobasadoenlacelosa(lattice)deBurg.ResuelvelasecuacionesdelfiltroencelosadeBurgusandolamediaarmnicadelos erroresdeprediccincuadrticoshaciadelanteyhaciaatrs. -MtodoFB:Eselmtodopordefecto.Sedenominamtodoforward-backwardyseocupademinimizarlasumademnimoscuadradosparaunmodelo forward,yelcriterioanlogoparaunmodeloinversoeneltiempo. -Mtododelacelosageomtrica:EssimilaralmtododeBurgperoparahacerlaminimizacinusalamediageomtricaenvezdelamediaarmnica. -Aproximacindemnimoscuadrados:Minimizalasumaestndardeerroresdeprediccincuadrticoshaciadelante. -AproximacindeYule-Walker: Resuelve las ecuaciones de Yule-Walker,lascualesrelacionanlosparmetrosARconlasecuenciadeautocorrelacindela serie temporal. Elmtodoausardeloscincoindicados,serelquedecidaelusuarioatravsdesuseleccinenlainterfaz(verCaptulo4). Criteriosdeseleccindelorden: Tradicionalmenteelprocesodeconstruccindeunmodeloparaunaserietemporalsebasaenlautilizacindeunconjuntodetestsdehiptesisquevanapermitirir definiendopasoapasoelmodeloquemejorseajusta.Perolosmtodosestadsticosformalespierdensusignificadocuandonoconocemosexactamenteelmecanismo quehageneradolosdatos,nilaformafuncionalconqueintervienenlasvariablesenelmodelo.Adems,nodebemosolvidarquelaeleccindelniveldesignificacin es puramente subjetiva [8]. Akaike[9]propusoestudiarelproblemadelaidentificacindesdelaperspectivadelateoradeladecisinestadstica,loquetrasladaelproblemadelajustedeun modeloalaeleccindelafuncindeprdidamsadecuada.LasolucindadaporAkaikeeselegircomofuncindeprdidaelmnimodelcriteriodeinformacin AIC (An Information Criterion). Estecriterio,sebasaenlamedidadeinformacindeKullback-Leibler, la cual permite interpretar la distancia entre dos distribuciones(ennuestrocaso,laobservadaapartirdelasmuestrasylaterica)apartirdelalog-verosimilituddeunmodelo.ElclculodelAICserealizaapartirde lasiguienteexpresin: =2ln( )+ 2 ( )

Laintroduccindeestecriterioprovocaqueseeliminedelprocesodeidentificacintodalasubjetividadintroducidaalfijarlosnivelesdesignificacinenlostestsde hiptesis.ElprimertrminodeladefinicindelAICeselquerealmentemideeldesajuste,suvaloraumentacuandopeoreselajustemientrasqueelsegundo, denominadodepenalizacin,midelacomplejidaddelmodeloapartirdelnmerodeparmetros.Sielnmerodeparmetrosdeunmodelokaumenta,elmodelogana complejidadyeltrminodepenalizacinseincrementa,peroalavezeldesajustedisminuye,portantoelvalorfinaldelAICsuponeunequilibrioentrereducirla

http://ceres.ugr.es/~alumnos/esclas/

Page 7 / 24

complejidadymantenerunvalormnimodedesajusteentreelmodelotericoyestimado[8].Losresultadosobtenidosdemuestranqueestecriterionosiempre consigueminimizarelnmerodeparmetrosdelmodeloyllevaenalgunasocasionesasobrestimarelmodelo. DentrodelconjuntodeloscriteriosdeespecificacinautomticaelAICessindudaelmsconocido,peroexistenotrosconstruidosconelmismofinperocon caractersticasdiferentes.Porejemplo,tambinexisteelFPE(Final Prediction Error), queesuncriterioespecficoparaprocesosAR,yelcriterioBIC(Bayesian Information Criterion) derivadodelAICalintroducirunamodificacinbayesiana. 2.2. Estado del arte del uso de modelos AR en clasificadores de materiales: Enlasltimasdcadas,ladenominadaMonitorizacindelaSaludEstructural(StructuralHealthMonitoring-SHM-)haatradolaatencindenumerosos investigadores.Apesardeello,annosehanideadomtodosrobustosyfiablesqueseancapacesdedetectar,localizaryestimardaosiendoadems,insensiblesa cambiosenelentornoyavariacionesenlascondicionesdeoperacin[5].UnadelasreasdeinvestigacindentrodelaSHMsonlasaplicacionesdemtodosde seriestemporalesparamtricas,comopuedeserelusodemodelosautorregresivos. Lastcnicasdeseriestemporales,desarrolladasoriginalmenteparaanalizarlargassecuenciasdedatosmuestreadosregularmente,sontotalmenteadecuadasparael anlisisdelasaluddeestructuras[5].Sinembargo,estastcnicasandebenestudiarseconmayorprofundidad.Porejemplo,en[10]sediscuteunenfoquebasadoen modelosparaladeteccindedefectosysuaislamientobasadosenelusodetcnicasdeestimacindeparmetrosdeseriestemporales.Enotrosestudios[11],se exploranunaseriedetcticasvariadasparageneracinderesiduos haciendousodelaestadsticaparadetectarlapresenciadedefectos.Estastcticassuelenclasificarseparamtricasynoparamtricas.Enconcreto,losmodelosde seriestemporalescomolosmodelosautorregresivosseenmarcandentrodelacategoradetcnicasparamtricas.Veamosquvariacionessehanestudiadodentrode este campo. Porejemplo,sehanllevadoacabounnmerodeestudiosenlosquelosmodelosdeseriestemporalesseusancomoherramientasauxiliaresparalaidentificacinde caractersticasdinmicas,usualmenteparmetrosmodales,paramstardeserusadosparadeteccindedao.Variosinvestigadoresexaminaronloserroresenlas respuestasestructuralesproducidosporlosmodelosdeseriestemporalesajustadosadatosdeestructurasdaadasynodaadas,intentandodetectardao[5]. Otrasinvestigacionesimportantessonaquellasdondeseusanloscoeficientesdemodelosdeseriestemporalesparaformarcaractersticassensiblesaldao.Existen estudios[12]queaplicaronmodelosARMAX(modelosautorregresivosconentradaexgena)asealesdinmicasusandocoeficientesdeestosmodeloscomo caractersticassensiblesaldao.Eldaofuedetectadoyampliamentelocalizadomediantelaubicacindelosvectoresdecaractersticasenelhiperespacioabarcado porsusmediasydesviacionesestndar. TambinescomnelestudiodelareduccindeladimensionalidaddelascaractersticasatravsdePCA(anlisisdecomponentesprincipales)yelcriteriode informacinbasadoenentropa.Adems,sehanusadomodelosARMA[13]paramodelarlassealesdelavibracindeunaestructuraexperimental.Enconcreto,se definiunacaractersticaparadiscriminarentrelosestadosdaadoynodaadodelaestructurabasndoseenlostresprimeroscoeficientesAR.Lalocalizacindel daoseconsiguimediantelaintroduccindeotracaracterstica,tambinbasadaenloscoeficientesAR.Otrosautores[14]investigaronunamodelizacinpormezcla degaussianas,unatcnicadereconocimientodepatronesnosupervisadaparamodelarlosprimeroscoeficientesARobtenidosapartirdelajustedeseriestemporales ARMAaunmodeloanalticodeunaestructuraexperimental.Finalmente,mientraslasreferenciaspreviasseocuparondemodelosdeseriestemporaleslineales,eluso deseriestemporalesnolinealestambinhacomenzadoaatraerlaatencin. 2.3.Reduccindedimensionalidad:PCA Elanlisisdecomponentesprincipales(principalcomponentanalysis,PCA)esunatcnicaquetienecomoobjetivolareduccindeladimensionalidaddeunconjunto dedatos.Deestaforma,setratadeunprocedimientomatemticoquetransformaunconjuntodevariablesposiblementecorreladasenotroconjuntodemenortamao devariablesdecorreladas.Estasnuevasvariablesrecibenelnombredecomponentesprincipales.As,sepersiguerevelarlaestructurainternadelosdatosdemanera que se explique mejor la variabilidad de los mismos. Desdeelpuntodevistamatemtico,PCAesunatransformacinlinealortogonalquetransformalosdatosdeentradaaunnuevosistemadecoordenadastalquela mayorvarianzadelconjuntodedatosquedecapturadaenelprimereje(denominadoprimercomponenteprincipal),lasegundamayorvarianzaenelsegundoeje,yas sucesivamente.Enteora,PCAeslatransformadaptimaentrminosdemnimoscuadrados.Dadounconjuntodevectoresp-dimensionales , =1,, obtenidosapartirdeunadistribucinestadsticademedia y matriz de covarianza , el PCA trata de proyectar los datos en un nuevo espacio p-dimensional con coordenadasortogonalesatravsdeunatransformacinlineal.LadescomposicindelamatrizdecovarianzaconlaSVD(singularvaluedecomposition)llevaa[5]: =V VT , donde = [ 12,, 2] es una matriz diagonal que contiene los autovalores de ordenadas de mayor a menor, y es una matriz que contiene los correspondientesautovectoresocomponentesprincipales.Acontinuacin,serealizalatransformacindelosdatosxiencomponentesprincipales: zi= VT(xix ) Las nuevas coordenadas estndecorreladasytienenunamatrizdecovarianzadiagonal. Parareducirladimensionalidad,puedeusarseunaseleccindelos componentes principales < tal,queretengaaquelloscomponentesquecontribuyanmsalavarianzadelosdatos,reduciendoportanto,ladimensindelosdatos hasta .

Captulo3

USODEREDESNEURONALESPARACLASIFICACIN
Lasredesneuronalessehanusadoampliamenteenmultituddeaplicaciones,siendounadeellas,laposibilidaddellevaracabounaclasificacin.Portanto,eneste captulotrataremoslosprincipiosbsicosdelasredesneuronales,ascomolamaneraenquestaspuedenusarseparaefectuarclasificaciones.
http://ceres.ugr.es/~alumnos/esclas/ Page 8 / 24

3.1.Introduccinalaclasificacin Elmundoquenosrodeaestcompuestopormultituddeclasesdiscretas.Esto,provocaqueelhechodeclasificaroponeretiquetasseaunconceptonaturalinherente alserhumano.Estoesas,yaquedaadaclasificamosaspectosmuyvariadosentretodoloquenosrodea,yelhechodeclasificar,nosproporcionagrandes beneficios.Sinembargo,parapoderabordarelproblema,debemosaprenderaformalizarlo,locualpuederealizarseatravsdemltiplesenfoques[15]. Unproblemadeclasificacinsurgecuandounobjetonecesitaserasignadoaunaclaseogrupopredefinidoenbaseaunnmerodeatributosobservadosrelacionados coneseobjeto.Multituddeproblemasdenegocios,ciencias,industriaomedicinapuedentratarsecomoproblemasdeclasificacin[16]. Unaaproximacineficaz[15]alaclasificacinpuedeadoptarseapartirdeunconjuntodeNdatos{x1,...,xN},llamadoconjuntodeentrenamientoelcualseusa paraajustarlosparmetrosdeunmodeloadaptativo.Lasdistintasclasesalasquepertenecenlosdatosdeentrenamientodeconocendeantemano,ysealmacenanen unvectordeobjetivost.Elhechodequegraciasalaaplicacindeunalgoritmoseproduzcaunaprendizajepuedeexpresarsecomounafunciny(x)quetomaun nuevo dato x como entrada y genera una salida y, codificada de la misma forma que los elementos contenidos en el vector objetivo t. La forma que debe tener la funciny(x)debedeterminarsedurantelafasedeentrenamientooaprendizajeapartirdelosdatosdeentrenamiento.Unavezqueelmodeloyaestentrenado,es horadedeterminaraquclasepertenecenlosnuevosdatosquevayanapareciendo(llamadocomoconjuntodepruebaodetest). Lacapacidaddecategorizarcorrectamentenuevosdatosdistintosdelospresentesenlosentrenamientos,seconocecomocapacidaddegeneralizacin.En aplicacionesprcticas,lageneralizacincobraunaimportanciacrtica,yaquelavariabilidaddelosvectoresdeentradasuelesertalqueelconjuntodeentrenamiento contieneslounapequeapartedetodoslosdatosdeentradaposibles.Parareducirestagranvariabilidaddelosdatosdeentradaademsdeparareducirlacarga computacional,losdatosdeentradasuelenpreprocesarserealizndolesporejemplounaextraccindecaractersticas.Enestesentido,enesteproyectolaextraccin decaractersticassellevaacaboenelmodeladoconmodelosautorregresivos. 3.2.Usoderedesneuronalesparaclasificacin Engeneral,aunquepuedenusarsemuchostiposderedesneuronalesparaclasificacin,noscentraremosenlasredesmulticapafeedforwardoperceptronesmulticapa (MLPs)quesonlosclasificadoresbasadosenredesneuronalesmsampliamenteestudiadosyusados[16].Losprocedimientosdeclasificacintradicionales estadsticoscomoelanlisisdeldiscriminanteseconstruyenenbaseaunateoradedecisinbayesiana.Enestosprocedimientos,debeasumirseunmodelode probabilidadsubyacenteparacalcularlaprobabilidadaposterioriconlaqueseefectalaclasificacin.Sinembargo,unalimitacinimportantedelosmodelos estadsticosesquefuncionanbienslocuandosesatisfacenlassuposicionessubyacentesdependiendolaefectividadengranpartedeestassuposiciones.Losusuarios deben tener un buen conocimiento tanto de las propiedades de los datos como de las capacidades del modelo antes de que se apliquen los modelos [16]. Lasredesneuronaleshanemergidocomounaherramientaimportanteparaclasificacin.Larecienteactividadinvestigadoraenlaclasificacinneuronalhaestablecido quelasredesneuronalessonunaalternativaprometedoraavariosmtodosdeclasificacinalternativos.Laventajadelasredesneuronalesradicaenlossiguientes aspectostericos: -Lasredesneuronalessonmtodosadaptativosdirigidospordatosquepuedenajustarseastossinningunaespecificacinexplcitadeformadistribucionalo funcional para el modelo subyacente. -Lasredesneuronalessonaproximadoresfuncionalesuniversalesdadoquepuedeajustarcualquierfuncinconunaprecisinarbitraria.Yaquecualquier procedimientodeclasificacinbuscaunarelacinfuncionalentreelgrupoalqueperteneceylosatributosdelobjeto,unaidentificacinprecisadeestafuncin subyacente es de vital importancia. - Las redes neuronales son modelos no lineales, lo que les hace flexibles en el modelado de las complejas relaciones del mundo real. -Lasredesneuronalessoncapacesdeestimarlasprobabilidadesaposteriori,loqueproporcionalabaseparaestablecerlasreglasdeclasificacinyllevara cabounanlisisestadstico. Lasredesneuronales,sehanusadoampliamenteenlalabordedesarrollarunarelacinentrecaractersticassensiblesaldaoyestadosdedaoondicesdedao cuantitativos [5]. En este sentido, la popularidad adquirida por las redes neuronales artificiales puede atribuirse a su capacidad para el reconocimiento de patrones, clasificacinyaproximacindefunciones.Existennumerosasaplicacionesenlasquelasredesneuronalesseusanparadeteccindedaoestructural,tomandocomo caractersticascomponentesespectralesobasadasenmodelossensiblesaldao.Incluso,existenunnmerolimitadodeestudiosqueusacomocaractersticas,alos mismosparmetrosintrnsecosalasredesneuronales[5]. LacontribucinaesteestudioeseldesarrollodeunmtodoqueintegraelusodemodelosARparaestablecercaractersticassensiblesaldaoyaplicacinaRNA paraclasificacindedao. 3.3.Fundamentosbsicosdelasredesneuronales Lasredesneuronalesartificialessonunintentopormodelarlacapacidaddeprocesamientodeinformacinquesellevaacaboenlossistemasnerviosos.Aunquelos modelospropuestosparaexplicarlaestructuracerebralydelossistemasnerviosossondiferentes,todoscoincidenenquelaesenciaestenelcontrolatravsdela comunicacin [17].Lossistemasnerviososanimalessecomponendemilesomillonesdeclulasinterconectadasquetratanconsealesdeentrada.Apesardeque lasneuronaspresentanuntiempodereaccinmslentoqueeldelaspuertaselectrnicas,elcerebroescapazderesolverproblemasquelosordenadoresnoson capacesdeabordareficientemente.Enunprimermomento,losbilogosyneurlogoscentraronsuintersenelestudiodelasneuronasdemaneraindividual.Sin embargo,adadehoy,apesardequelosmecanismosparalaproduccinytransportedesealesdeunaneuronaaotrasoncausadosporfenmenosfisiolgicosbien conocidos,annoseconoceconcertezacmoesossistemasindividualescooperanentresparaformarsistemasmasivamenteparalelosycomplejoscapacesde procesargrandescantidadesdeinformacin[17]. Lasredesneuronalessonslounademuchasposiblessolucionesalproblemadelprocesadodeinformacin.Laprincipaldiferenciaentrelasredesneuronalesyotros sistemasdecomputacinconvencionalesradicaenelparalelismomasivoylaredundanciadelasprimeras,loquepermitepaliarlafaltadefiabilidaddelas unidadesdecomputacinindividuales.Adems,lasredesneuronalesbiolgicassonsistemasautoorganizativosenlaquecadaneuronaindividualestambinuna estructuracapazdeprocesarinformacindemuchasmaneras. Enlasredesneuronalesartificiales,setrabajaconsistemascuyaestructuraestsloparcialmentepredeterminada.Algunosparmetrosmodificanlashabilidadesdela redporloquedebenencontrarseaquellosparmetrosquedenlamejorsolucinaunproblemadado.Elajustedelosparmetrosdebehacerseatravsdeun
http://ceres.ugr.es/~alumnos/esclas/ Page 9 / 24

algoritmodeaprendizaje,esdecir,noprogramndoloexplcitamentesinoporunmtodoautomticoadaptativo. Debemostenerencuentaqueelmodelomsexitosoderedneuronalenelcontextodelreconocimientodepatroneseslaredneuronalfeed-forward,tambinconocida comoperceptrnmulticapa(MLP).Hemosdesaberqueelnombreperceptrnmulticapa noesdeltodocorrectoyaqueelmodelocomprendemltiplescapasde modelosderegresinlogstica(connolinealidadescontinuas)envezdemltiplesperceptrones(condiscontinuidadesnolineales)[15]. Paramuchasaplicaciones,elmodeloresultantepuedesersignificativamentemscompactoyportantomsrpidodeevaluarqueunSVM(mquinadesoporte vectorial)conelmismorendimientoenlageneralizacin.Elprecioapagarporestarobustezesquelafuncindeverosimilitud,lacualeslabasedelentrenamiento,ya noesunafuncinconvexadelosparmetrosdelmodelo.Enlaprctica,sinembargo,amenudomerecelapenainvertirrecursoscomputacionalesdurantelafasede entrenamientosigraciasaesoobtenemosunmodelocompactoquesearpidoenelprocesadodenuevosdatos. 3.4. Redes neuronales feed-forward Paraverenquconsistematemticamenteelmodeloderedneuronal,veamosprimeroquexpresintieneelmodelolinealparaclasificacin.ste,estbasadoen combinaciones lineales de funciones base no lineales ( ) que toman la forma: ( , )= ( ( ) =1) dondef()esunafuncindeactivacinnolineal.Sinembargo,enlasredesneuronales,estemodeloseextiendehaciendoquelasfuncionesbase unaseriedeparmetrosypermitiendoentoncesqueesosparmetros ( ) dependan de

se ajusten durante un proceso de entrenamiento junto con los coeficientes . Portanto,elmodelobsicoderedneuronalpuededescribirsecomounaseriede transformaciones funcionales. Para verlo, construyamos primero M combinaciones lineales de las variables de entrada 1,..., de la forma: = (1) + =1 0(1)

,dondej=1,...,M,yelsuperndice(1)indicanquelosparmetroscorrespondientesestnenlaprimeracapadelared.Enestaexpresin,llamaremosalosparmetros (1)pesosyalosparmetros 0(1) sesgos. Las cantidades seconocencomoactivaciones,siendocadaunadeellastransformadamediantelaaplicacin deunafuncindeactivacinnolinealyderivableh()paradar = ( )

Esas cantidades sernlassalidasdelasfuncionesbase.Lasfuncionesnolinealeshseeligencomofuncionessigmoidalescomoporejemplolafuncinsigmoide logsticaolafuncintanh.Siguiendolaprimeraecuacin,esosvaloressondenuevolinealmentecombinadosparadaractivacionesdeunidadesdesalida = (2) + =1 0(2)

,dondek=1,...,K,siendoKelnmerototaldesalidas.Estatransformacincorrespondealasegundacapadelared,ydenuevo 0(2)sonparmetrosde sesgo.Finalmente,lasactivacionesdelaunidaddesalidasetransformanmedianteunadeterminadafuncindeactivacinparadarunaseriedesalidas . La eleccindelafuncindeactivacinquedadeterminadaporlanaturalezadelosdatosyladistribucinasumidadevariablesobjetivo. Podemoscombinarlasetapasdescritasenunasolaexpresindemaneraquesedlafuncinglobaldered.Siconsideramosfuncionesdeactivacindesalida sigmoidales,estfuncinglobaldesalidaes: ( , )= ( (2) ( (1) =1 + =1 0(1))+ 0(2) )

,dondeelconjuntodetodoslospesosysesgossehanagrupadoenelvectorw.Portanto,elmodeloderedneuronalsetratasimplementedeunafuncinnolineala partir de un conjunto de variables de entrada { } hacia un conjunto de variables de salida { } controladasporunvectorwdeparmetrosajustables. La estructura de una red backpropagation con una sola capa oculta se muestra en la figura 3. En esta figura X e Y son los vectores de entrada y salida de la red. Comopodemosobservarlasentradassedenotanconcuadradosylasneuronasconcrculos.Adems,losparmetrosdeponderacinopesosserepresentan medianteenlacesentrelosnodos,cuyainformacinseaprendeduranteelprocesodeentrenamientoysealmacenaenelvectorW.Tambinpodemosverlos parmetrosdesesgo(bias)queserepresentanmedianteenlacesprovenientesdeunasentradasadicionalesfijadasen+1.Ladireccindelasflechasindicaladireccin delflujodeinformacinatravsdelaredenunapropagacinhaciaadelante(forward).

http://ceres.ugr.es/~alumnos/esclas/

Page 10 / 24

Figura 3: Estructura general de una red neuronal de una sola capa oculta con n entradas y m salidas Losparmetrosdesesgopuedenmetersedentrodelconjuntodeparmetrosdepesosmedianteladefinicindeunavariabledeentradaadicionalx0cuyovalorsefija en x0 = 1, de manera que: = (1) =0 Deigualforma,sepuedeactuarenlasegundacapa,demaneraquelafuncinglobaldelaredsea: ( , )= ( (2) ( (1) =1 =0) )

Como puede verse en la figura 3, el modelo de red neuronal comprende dos etapas de procesamiento, cada una de las cuales se corresponde con el modelo de perceptrnporloqueelmodeloseconocecomoperceptrnmulticapa.Dehecho,laarquitecturaderedmostradaenlafigure3eslamscomnmenteusadaenla prctica.Sinembargo,estaarquitecturaesfcilmentegeneralizable,porejemploconsiderandocapasadicionales. Enrealidad,existeciertaconfusinenlaliteraturarespectoalaterminologaparacontabilizarelnmerodecapasdetalesredes.Porejemplo,lareddelafigura3 puededescribirsebiencomounaredde3capasoavecescomounareddeunasolacapaoculta.Engeneral,lorecomendableesunaterminologaenlaquelaredde lafigura3seaunareddedoscapas,yaqueeselnmerodecapasdepesosadaptativosimportantesparadeterminarlaspropiedadesdelared. 3.5. Entrenamiento de la red Elhechoqueatradomslaatencindelasredesneuronaleshasidolaposibilidaddellevaracabounaprendizajeoentrenamientodelosparmetros.Dadauna determinada tarea a resolver, y una clase de funciones F, el aprendizaje requiere el uso de una serie de observaciones para encontrar aquella f* F que resuelva la tareadadaenunsentidoptimo.EstoconllevaladefinicindeunafuncindecosteC:F talque,paralasolucinptimaf*,elcosteseaelmnimo.Estafuncinde costeesunamedidadecmodelejosestunadeterminadasolucindelasolucinptimaalproblema.Paraaquellasaplicacionesdondelasolucindependadelos datos,elcostedebesernecesariamentefuncinde lasobservaciones,yaquedeotraforma,nopodramodelarse.Existentresparadigmasprincipalesdeaprendizaje:elaprendizajesupervisado,elaprendizajeno supervisado y el aprendizaje por reforzamiento. Enelaprendizajesupervisado,senosdaunaseriedeparesdeejemplodemaneraqueelobjetivoesencontrarunafuncintalqueseajustealosejemplos.Una funcindecosteusadacomnmenteeselerrorcuadrticomedioelcualtratademinimizarelerrorcuadrticomedioentrelasalidadelared,f(x),yelvalorobjetivoa lolargodetodoslosparesdeejemplo.Cuandotratamosdeminimizarestecosteusandodescensoengradienteparalaclasederedneuronaldenominadaperceptrn multicapa uno obtiene el conocido algoritmo de backpropagation usado en el entrenamiento de redes neuronales. El tipo de tareas que usan este tipo de paradigma de aprendizajesonlaclasificacinylaregresin. Enelaprendizajenosupervisadoseproporcionandatosylafuncindecosteaserminimizada,quepuedesercualquierfuncindelosdatosylasalidadelared.La funcindecostedependedelatareaydelassuposicionesapriori(eltipodemodelo).Porltimo,enelaprendizajeporreforzamientolosdatosnosuelenser proporcionados,sinoquesegeneranapartirdelasinteraccionesdeunagenteconelmedio.Encadapuntoenelinstantet,elagenterealizaunaaccinyelmedio generaunaobservacinconuncosteinstantneo,deacuerdoaalgunadinmicanormalmentedesconocida.Elobjetivoesdescubrirunapolticaparalaseleccinde accionesqueminimicealgunamedidadecostealargoplazo.Portanto,ennuestrocaso,elaprendizajeusadoeselsupervisado.Lamayoradelosalgoritmosusados enelentrenamientodeRNAempleanalgntipodedescensoengradiente.Estosellevaacabotomandoladerivadadelafuncindecosteconrespectoalos parmetrosdelaredycambiandoentoncesesosparmetrosenladireccinindicadaconelgradiente. Desarrollomatemtico: Veamosenquconsisteelentrenamientodesdeelpuntodevistamatemtico.ElerrorEenlaredesfuncindelospesosypuedeescribirsecomo: E(w)=e(w)Te(w) , donde e(w) es un vector de error que viene dado por e(w) = d o(w),deselvectordelosvaloresobjetivo,yelsuperndiceTdenotatransposicin.Enel entrenamiento,elerrorenlaredseminimizamedianteelajusteiterativodelospesosdeacuerdoalalgoritmoBackpropagation.Veamosporejemploenqu consiste el algoritmo de LevenbergMarquardt [18]. En primer lugar, introduzcamos la matriz jacobiana J definida como: ( )= Losnuevospesospuedenhallarseatravsdelaaplicacindelsiguienteprocedimientoiterativo: +1= [ + ]1 =0, el algoritmo

, dondeelsubndicekdenotaelpasodeiteracin.Elparmetro es un escalar que controla las propiedades de convergencia. En concreto, si de LevenbergMarquardtseconvierteenelmtododeGaussNewton. Resilient Backpropagation

El algoritmo Resilient Backpropagation es un algoritmo de entrenamiento derivado del de Levenberg-Marquardt.Comoveremosmsadelanteenelcaptulo5,serel algoritmoquemejoresresultadosnosproporcionearrojandounamayortasadeaciertosdelclasificador.Porello,veremosenquconsisteconmayordetallea continuacin.Paraelrestodealgoritmosdeentrenamientodisponiblesenlainterfaz(apartado4.4),serecomiendaconsultarlabibliografa[7]. Lacaractersticaprincipaldeestealgoritmo[19]esquetomaelsignodeladerivadadelerrorconrespectoalpesodelaneuronaparadeterminarladireccindela actualizacindelospesos.Dehecho,lamagnituddeladerivadanotieneefectoenlaactualizacindelospesos.Enconcreto,elcambiodelospesossedeterminade acuerdo a un factor incremental o decremental, de acuerdo a lo siguiente:

http://ceres.ugr.es/~alumnos/esclas/

Page 11 / 24

-Siladerivadadelerrorconrespectoalpesotieneelmismosignoendositeracionessucesivaselvalordelasiteracionesdelospesosseincrementarporun factor inc -Encasocontrario,elcambiodepesossedecrementarporunfactordec. -Siladerivadaescero,elvalorparalaactualizacindelospesosserelmismo. Deestaforma,silaactualizacindepesosserealizaenunamismadireccinporvariasiteracioneslamagnituddelcambiodepesosseincrementar.Elvalorparainc suele ser 0.2 mientras que dec suele valer 0.5. 3.6.Consideracionesprcticas AtravsdeestudiosdelastcnicasdereconocimientodepatronesqueutilizanRNAsehanllegadoalassiguientesconclusionesdeaplicacinprctica[19]: -Nomerecelapenausarredesneuronalesconmsde3capas,yaquenosepercibeunamejorasignificativa. -Lasfuncionesdeactivacindelasneuronasmscomnmenteusadassonlafuncinlogsig(sigmoidallogartmica)ylatansig(sigmoidaltangencial). -Esrecomendablenointroduciralaredtodoslosvectoresdeunaclasejuntos,yaqueassepierdecapacidaddegeneralizacin. -Normalmente,elnmerodeneuronasenlacapadeentradacorrespondealadimensindelvectordecaractersticas. -Elnmerodeneuronasdelacapaintermediasepuededeterminarpordosmtodos: oElnmerodeneuronasserigualaldobledeneuronasdelacapadesalidamsuno. oElnmerodeneuronasserigualalnmerodeneuronasdelacapadesalidamultiplicadopor10.

Captulo4

DESCRIPCINDELCLASIFICADORIMPLEMENTADO
Duranteestecaptulo,sepresentarlainterfazquesehaimplementadoconobjetodeservircomoherramientaconlaqueprobarlaeficaciadelclasificadorideado.De estaforma,lainterfazdebercargarseales,extraerlessuscaractersticasmodelndolasconmodelosautorregresivos,yprocederalaclasificacinmedianteelempleo deunaredneuronal.Antesdecomenzaradescribirlainterfaz,indicaremosaquellosaspectostenidosencuentaalolargodelprocesodediseodelamisma.En primerlugar,trataremoslosmotivosquellevaronalaeleccindeMatlabcomoherramientaparalaimplementacindelainterfaz.Trasesto,explicaremos detalladamentecmousarlasfuncionalidadesincluidasenlainterfaz,mostrandocapturasdepantalla.Deestaforma,estecaptulovaldrcomounmanualde funcionamiento. 4.1.Eleccindelaplataformadediseo LainterfazquesehaelaboradoestconstruidantegramenteenMatlab.Matlab(abreviaturadeMATrixLABoratory,"laboratoriodematrices")esunsoftware matemticoqueofreceunentornodedesarrollointegrado(IDE)conunlenguajedeprogramacinpropio(lenguajeM). LasrazonesdelaeleccindelaplataformaMatlabparaeldesarrollodelainterfazsonmltiples.Enprimerlugar,Matlabeselsoftwaremsampliamenteutilizadoen elmundodelprocesadodelasealporsuampliaflexibilidadydisponibilidaddefuncionalidades. Adems,Matlabpermitelacreacindeinterfacesdeusuario(GUI)conuneditorespecializadodenominadoGUIDE.Tambinhanresultadodeutilidadalgunos toolboxesdeprocesadodesealyestimacindemodeloscomoporejemploSystem Identification Tool, ascomoeltoolboxdedicadoalasredesneuronales (Neural Network Toolbox). Portanto,dadoquelapretensineraconstruirunainterfazabierta,flexible,ylomsinteractivaposible,demaneraquepuedaseraprovechadaentodasuextensin porcualquierpersona,sehaoptadoporlasposibilidadesqueofreceMatlab.Usualmente,Matlabesutilizadopormediodecomandosycdigo,porloqueconobjeto delograrunamayorinteractividadyefectividadenelestudiodelassealessedecidiimplementarunainterfazquefacilitelalabor.OtraimportanteventajadeMatlab eslagrancantidaddedocumentacineinformacindeayudaexistentetantoenelpropioprogramacomoenelsitiowebdeMathWorks[7],ascomoenotrossitios webs [21], o incluso blogs [22]]. Sibienlainterfazestcentradaparaserutilizadaconsealesprovenientesdelosexperimentosdelaevaluacinnodestructiva,tambinpuedeusarseparamanejar cualquierotrotipodesealessinmsquealmacenarlassealesenarchivos.matquepuedansercargadosenelprograma.Paraqueunarchivopuedasercargadoen lainterfazyaceptadocomotal,debecontenerunaestructuraconuncampoquecontengalasmuestrasdelaseal. 4.2. Requisitos iniciales de la interfaz Enelmomentodecomenzarelproyecto,seplantearonunaseriedecondicionesmnimasquedebareunirlainterfazparalograrquefueraunelementotilcomo clasificadordesealesprovenientesdelaEvaluacinNoDestructivaultrasnica.Dichosrequisitos,loscualesfuerontodoscumplidos,sonlossiguientes: -Lainterfazdebasercapazdecargararchivosconsealesdemaneramltiple(muchosarchivosalmismotiempo). -Deberapermitirselaposibilidaddepersonalizarlaredneuronalpudiendoaadircuntascapasyneuronasdeseaseelusuario. -Lassealescargadasdeberanpoderserrecortadasy/odecimadasconobjetodeeliminarirregularidadesquepudieranafectarnegativamentealprocesode clasificacin. -Lainterfazdeberapermitirdiferentestiposdeentrenamientodelaredneuronal. -Lainterfazdeberaproporcionarunclculodelatasadeaciertosdelclasificadorparaloquesedeberapoderindicarlosgruposalosquepertenecenlas

http://ceres.ugr.es/~alumnos/esclas/

Page 12 / 24

sealesdetest(sloconpropsitosinformativosynoparausarloenlaclasificacin). -Elusuariodeberapoderseleccionarelordendelmodeloautorregresivoquemsleinteresase. 4.3. Ventana principal La ventana principal que se observa en primer lugar cuando se ejecuta el programa es la de la figura 4:

Figura 4: Ventana principal de la interfaz Como se puede observar, la ventana principal aparece subdividida en varias zonas. En concreto, pueden distinguirse seis zonas: - Zona de instrucciones: Se trata de la zona ubicada en la parte izquierda de la ventana principal. En ella se indican aquellos pasos a seguir para llevar a cabo una clasificacindeseales.Amedidaquesevayanefectuandolospasos indicadosapareceruniconodeconfirmacinjuntoalpasoconsiderado.Noesestrictamentenecesarioquelospasossehaganenelordenestipulado.Alfinal, vemosqueexisteunbotnparaClasificar, elcualsirveparaclasificarlassealesunavezqueyasehancumplidotodoslospasos,esdecir,unavezquesehan cargadolasseales,extradolascaractersticasyentrenadolaredneuronal. -Zonadeseales:Estsituadaenlaparteinferiorizquierdadelaventana,yenellapuedencargarseaquellassealesquequeremosclasificar.Adems,encaso desaberlo,podremosindicaraqugrupopertenecenestassealesparaascomprobarlaeficaciadelclasificador.Paracargarsealesdebemoshacerclicken elbotn+. Sinosequivocamos,paraquitarunasealdeungrupo,podemoshacerclickenelbotn-. Como puede verse en la figura 4, es posible cargar variassealesdeformasimultnea

http://ceres.ugr.es/~alumnos/esclas/

Page 13 / 24

Figura5:Cargandosealesdetestenelclasificador - Zona de la red neuronal: Es la zona de la parte central superior de la ventana principal, y en ella, se ubica todo lo relativo a la red neuronal (figura 6). En concreto,podremoscrearlaredyposteriormente,accederaunaventanadondeentrenarlamisma.Adems,unavezcreadalaredstapodreliminarseo ampliarseaadiendonuevascapasoneuronas.

Figura6:readelaredneuronal -Zonadeextraccindecaractersticas:Sesitaenlaparteinferiorcentraldelaventanaprincipal(figura7).Enestazona,podremosllevaracaboelmodelado delasealconmodelosautorregresivosparaasrealizarunprocesodeextraccindecaractersticas.Estemodeladopodrhacersedeacuerdoaalgunodelos algoritmosproporcionadosporMatlab.Paraelegirunodeellos(sinosequiereelestablecidopordefecto),podemoshacerclickenelbotnAlgoritmo figura 8- . Tambinsepermitelaposibilidadderecortarlasseales(botnRecortar figura 9-) odecimarlas(botnDecimar figura10),ascomoreducir ladimensionalidaddelosdatosmedianteelanlisisdecomponentesprincipales.Dehecho,siseleccionamoslatcnicaPCA,surgirunaventanaparaque elijamoselvalordeunfactor(figura11).Estefactorsertal,queseeliminarnaquellosdatoscuyacontribucinalavarianzatotalseamenorqueesevalor.

Figura7:Zonadeextraccindecaractersticas

http://ceres.ugr.es/~alumnos/esclas/

Page 14 / 24

Figura8:VentanadeseleccindelalgoritmoconelquerealizarelmodeladoAR

Figura9:Ventanaparaindicarelintervalodelasealquevaaserrecortado

Figura10:Ventanaparaindicarelfactordedecimacin

Figura 11: Ventana para indicar el factor de PCA -Zonaderesultados:Estazonaseubicaenlapartederechadelaventanaprincipal,yenellaseindicarnlosresultadosdelprocesodeclasificacin(figura12). Enprimerlugar,arribaseindicarparacadaseallaclasealaqueelclasificadorhadecididoquepertenece.Cadavezquehagamosclickenunasealdela lista,semostrarmsabajoungrficodebarrasconelvalorde cadaunadelassalidasdelaredneuronalviendoquelamayorsalidaserlaasignadafinalmente.Abajodeltodo,podremosverungrficodetartaenelque cadaporcinindicarlacantidaddesealesclasificadasdeunaclasedada.Adems,existirunbotnllamadoDetalles quealhacerclickenl,harquesurja unaventanadndepodrnverselosresultadosdelaclasificacinconmayordetalle.

http://ceres.ugr.es/~alumnos/esclas/

Page 15 / 24

Figura 12: Zona de resultados 4.4. Ventana de entrenamiento AlaventanadeentrenamientoseaccedetrascrearlaredneuronalyhacerclickenelbotnEntrenar red de la ventana principal. Esta ventana de entrenamiento es la mostradaenlafigura13.Comopuedeverse,sedivideendoszonas.Enlaparteizquierda,deberncargarseaquellassealesquequeremosque seusenenelentrenamiento.Antesdecargarundeterminadogrupodesealesdeentrenamiento,habremosdetenerseleccionadoenlalistadesplegableelgrupo(nivel dedao)alquepertenecen.Enlazonaderechadeestaventana,sesitaunreacondiferentesopcionesdelprocesodeentrenamiento.Enconcreto,podremos personalizar lo siguiente: -Funcindeentrenamiento:Setratadelalgoritmoqueusaparaentrenarlaredneuronal.Sepermitelaposibilidaddeelegirentreunadelasmuchasfunciones que ofrece Matlab para entrenar. Estas funciones de entrenamiento son las siguientes: o trainlm: Es el entrenamiento basado en el algoritmo de Levenberg-Marquardt. otrainbfg:EstafuncinsebasaenelalgoritmoBFGSQuasi-Newton. otrainrp:ConestafuncinseharusodelalgoritmoResilientBackpropagation. otrainscg:Eselentrenamientobasadoenelmtododelgradienteconjugadoescalado. o traincgb: Es el entrenamiento basado en el algoritmo de gradiente conjugado con reinicios de Powell/Beale. otraincgf:EnestafuncindeentrenamientoseusaelmtododegradienteconjugadoconactualizacionesdeFletcher-Reeves. o traincgp: Se trata del algoritmo de gradiente conjugado con actualizaciones de Polak-Ribire. otrainoss:EselentrenamientobasadoenelmtodoOSS(OneStepSecant). otraingdx:Esunafuncindeentrenamientoqueactualizalosvaloresdelospesosysesgosdeacuerdoaldescensoengradienteyunatasadeaprendizaje adaptativa. -Funcindedivisindedatos:Enelprocesodeaplicacindeunalgoritmodeentrenamiento,Matlabutilizaloquellamaunafuncindedivisindedatos. EstafuncinindicalaformaenqueMatlabusalassealesquelemetemosalafuncindeentrenamientocomoentrada,dividindolasentressubgrupos:seales deentrenamiento,sealesdevalidacinysealesdetest.Deestaforma,laredseentrenarusandosloelsubgrupodesealesde entrenamiento.Esteentrenamientopararencasodecumplirsealgunadelascondicionesdeparada,relacionadasconelsubgrupodesealesdevalidacin. Unavezentrenadalared,sepruebaconlassealesdetestdemaneraindependiente.Laproporcindesealesquesecolocaencadasubgrupoestfijadapor defectoenun60%paraelsubgrupodesealesdeentrenamiento,un20%parasealesdevalidacinyel20%restanteparalassealesdetest.Comopuede verseenlafigura12,lainterfazpermitelaposibilidaddequeelusuarioindiquequporcentajesededicaacadasubgrupo.Porejemplo,sisedeseausarel mayornmerodesealesposiblesenelentrenamiento,deberaindicarsequeseuseun100%paraentrenamientoyun0%paravalidacinytest.Adems, tambinpodemoselegirentretrestcnicasqueusanunaaproximacindistintaalahoradeasignarlassealesacadasubgrupo: odividerand:Lassealesseasignanacadasubgrupodemaneratotalmentealeatoria(respetandolosporcentajesindicados).Eselprocedimientoquese realiza por defecto. odivideblock:Laasignacinserealizaporbloques(elprimerbloqueparaentrenamiento,elsiguienteparavalidacinyelltimoparatest). odivideint:Paraasignarlassealesaestossubgruposseprocedeeligiendolassealesdemaneracclicayentrelazadaparalostressubgrupos. -Funcindeoptimizacin:Porfuncindeoptimizacin(performancefunction)nosreferimosalafuncinqueusalaredparamedirsuperformance.Sepermite elegir entre dos: oMSE:Setratadelosmnimoscuadrados.Eslatcnicausadapordefectoyrespondealasiguienteexpresin: = =1 2 =1= 1 ( =1)2

oMSEregularizada:Esunafuncindemnimoscuadradosmodificada.Seobtienealaadiruntrminoqueconsisteenlamediadelasumadecuadrados de los pesos y sesgos de la red. De esta forma: = +(1 ) =1 2 =1

, donde eselfactorderegularizaciny:

Elhechodeusarestafuncinmodificadahacequelaredneuronaltengopesosysesgosmspequeos,loqueharquelarespuestadelaredseamssuavizada.Sin embargo,unproblemaconlaregularizacinesladificultaddedeterminarelvalorptimodelfactorderegularizacin.Sisehacedemasiadogrande,podrallegarseal sobreajusteysiesdemasiadopequeo,laredpodranoajustarseadecuadamentealosdatos.Comopuedeverse,lainterfazpermitequeelusuarioleindiqueelfactor deregularizacinquedeberoscilarentre0y1ycuyovalorpordefectoes0.5.

http://ceres.ugr.es/~alumnos/esclas/

Page 16 / 24

Figura 13: Ventana de entrenamiento

Captulo5

ANLISISDERESULTADOSOBTENIDOS
Unavezdescritoelclasificadorimplementado,eshoradeprobarlo.Deestamanerapodremosverbajoqucondicioneselclasificadorarrojamejoresresultados,ya queserealizarnpruebasvariadasdemostrandoaselamplioabanicodeposibilidadesqueofrecelaherramientadesarrollada. 5.1.Descripcindelassealesdeprueba Pararealizarlasdistintaspruebassehausadounconjuntodesealesdepruebaprovenientesdeexperimentosdeevaluacinnodestructivaproporcionadasporel DepartamentodeTeoradelaSeal,TelemticayComunicacionesdelaUniversidaddeGranada.Dichassealesseobtuvierondeacuerdoaloindicadoenel apartado 1.4. Enconcreto,elconjuntoconsideradosecomponedeuntotalde240sealesdivididasen6gruposde40sealescadauno.Juntoalasseales,tambinse proporcionunadescripcindeloselementosinvolucradosenlageneracinyextraccindelasmismas(ungeneradordeondaarbitraria(AWG),elmaterialdaadoo dispositivo bajo prueba (DUT), un pre-amplificadoryunatarjetadeadquisicin).Deacuerdoaestadescripcin,enprimerlugar,sesitaelAWGqueemiteunaseal sinusoidal de 5 MHz y 5 Vpp (generada modo burst con burst-period=1ms).Acontinuacin,seconectadirectamenteelAWGconelDUTatravsdelos transductoresmagnticos.EsteDUTsetratadeunaplacadenominadaC(MaterialCFRPde4capas).Seguidamente,serealizaunaconexindesdeelDUTaunpreamplificadorOLYMPUS,acuyasalidaseconectadirectamentelatarjetadeadquisicin.Entodasestasinterconexionessehanutilizadocablescoaxialesno demasiadolargos.Adems,podemosindicarquelatarjetadeadquisicinseconfigurdeacuerdoalassiguientescaractersticas: oNmerodemuestrasaadquirir:1500muestras. o Frecuencia de muestreo: 100 MHz Enrealidad,enunprimermomento,seextrajeronsealespertenecientesa8nivelesdedaodiferentes,aunqueslo5puedenconsiderarsecomotiles,dadoquelos otrostressondaosdemasiadodestructivos.Ademsdebemosdetenerencuentaqueelprimerniveldedaoenrealidadsecorrespondeconelniveldenodao. Todasestas240sealeshansidolasusadasenlosexperimentosquesedescribirnacontinuacin.Sinembargo,debemosindicarqueestenmerodesealesnoes demasiadograndeyquizssehubieranobtenidoresultadosmsfiablessihubisemoscontadoconunmayornmerodeseales.Dehecho,cuantasmssealesse usenparaelentrenamientodelaredneuronal,elclasificadorestar mejorentrenadoeincurrirenmenoserrores.Engeneral,laaproximacinqueseusfueladeentrenarusandoelmayornmerodesealesposibleydejarelrestode sealesparatest.Unapremisabsicaquesehaseguido,esnousarnuncacomosealdetestunasealquesehubierausadopreviamenteparaentrenar.Sehan diseadovariosexperimentosdistintosparalassealesdisponibles,loscualessedescribirnacontinuacin,indicandoparacadaunodeelloselgradodeaciertodel clasificador.Paracadaexperimentosemostrarunatablaconlascondicionesbajolasquesedesarrollyotraconlosresultadosdelaclasificacin.Cadacelda(i,j) delatabladeresultadosindicarelporcentajedesealesquesiendodelgrupoi-simofueronclasificadoscomodelgrupoj-simo.Alladodelporcentaje,seindicar entreparntesiselnmerodesealesenconcreto.Portanto,loscasosenlosquei=j(diagonalprincipaldelatabla)secorrespondernconaciertosyelrestocon fallos.Parafacilitarladiferenciacin,sehanpuestolosporcentajesdefallosencursivaydelosaciertosenletranocursiva.Debajodecadatabla,semostrarun clculodelporcentajeglobaldeaciertodelclasificadorparaelexperimentodado. 5.2. Experimento I: eligiendo el algoritmo de entrenamiento Enesteprimerexperimento,veremosqualgoritmodeentrenamientodelosdisponibles(verapartado4.4)proporcionamejoresresultados.Paraello,haremosvarias clasificacionesdeacuerdoalascondicionesdelatablaquehayacontinuacinyvariandoencadaejecucinelalgoritmodeentrenamientoseleccionado.Los resultadosobtenidossemuestranenelgrficodebarrasdelafigura14. CONDICIONES DEL EXPERIMENTO I

http://ceres.ugr.es/~alumnos/esclas/

Page 17 / 24

SEALES Test PREPROCESADO Decimacin ORDEN DEL MODELO AR RED NEURONAL N neuronas por capa ENTRENAMIENTO

Entrenamiento 10sealesporgrupo(10x6=60) Recorte No 15 N capas ocultas 20 Algoritmo de entren. Divisindedatos(%)

30sealesporgrupo(30x6=180) No

1 L-M, BFG, RP, SCG, CGB, CGF, CGP,OSS,GDX (dividerand) E:60100|V:200|T:200

Funcinoptimizacin

mse

Figura14:Tasadeaciertodeclasificacinparavariastcnicasdeentrenamiento.Decadatcnica,laprimeracolumnasecorrespondeconun entrenamientoenelqueladivisindedatosdaun60% alassealesdeentrenamiento,ylasegundacolumnacuandosedaun100%(verapartado4.4) Como puede observarse en la figura 14, el algoritmo que mejores resultados presenta (un 68,33 %) es el entrenamiento RP (Resilient Backpropagation) cuando se usanparaentrenarlatotalidaddelassealesdestinadasaentrenamiento. 5.3. Experimento II: eligiendo el orden del modelo AR Acontinuacin,trataremosdedilucidardeformaempricaquordendelmodeloAReselptimoparalassealesconlasquesetrabaja.Paraello,seguiremoslas condiciones de la tabla siguiente: CONDICIONES DEL EXPERIMENTO II SEALES Test PREPROCESADO Decimacin ORDEN DEL MODELO AR RED NEURONAL N neuronas por capa ENTRENAMIENTO Entrenamiento 10sealesporgrupo(10x6=60) Recorte No Desde 2 hasta 25 N capas ocultas 20 Algoritmo de entren. RP 1 No 30sealesporgrupo(30x6=180)

http://ceres.ugr.es/~alumnos/esclas/

Page 18 / 24

Divisindedatos(%)

(dividerand) E:60100|V:200|T:200

Funcinoptimizacin

mse

Figura15:TasadeaciertodelaclasificacinparaexperimentoscondiferentesvaloresdelordendelmodeloAR,esdecir,diferentenmerodeentradasala red neuronal Alaluzdelafigura15,tenemosqueelmejorordenparalosmodelosautorregresivosestentornoa15,porloqueserelvalorusadoapartirdeahoraparaelresto de experimentos. 5.4.ExperimentoIII:Eligiendolafuncindeoptimizacin: Veamosahora,culeslafuncindeoptimizacin(verapartado4.4)msadecuadaparalosexperimentosquenosocupan.Paraello,seprobarlafuncinmseyla funcinmseregularizadaconvariosvaloresdelaperformanceratio. CONDICIONES DEL EXPERIMENTO III SEALES Test PREPROCESADO Decimacin ORDEN DEL MODELO AR RED NEURONAL N neuronas por capa ENTRENAMIENTO Divisindedatos(%) Funcinoptimizacin Entrenamiento 10sealesporgrupo(10x6=60) Recorte No 15 N capas ocultas 20 Algoritmo de entren. (dividerand) E: 100 | V: 0 | T: 0 msemseregularizada RP 1 No 30sealesporgrupo(30x6=180)

http://ceres.ugr.es/~alumnos/esclas/

Page 19 / 24

Figura16:Tasadeaciertodelaclasificacinparaexperimentosqueusenfuncionesdeoptimizacindiferentes. Elvalorentreparntesisjuntoamsereg,indicaelvalordelaperfomanceratio Comopuedeverseenlagrficadelafigura16,lamejoropcinesusarlafuncinmseyaquelamseregularizada,apesardecrecersutasadeaciertopara valores altos de la performance ratio, no llega a superar a la tasa de acierto alcanzada con la mse. 5.5.ExperimentoIV:Aplicandodecimacin: Seguidamente,veamossiconseguimosunamejoraenlatasadeaciertoencasoderealizarlesunadecimacin(unareduccindelafrecuenciademuestreo)atodaslas sealesinvolucradasenelexperimento.Dehecho,elpreprocesadodelassealescondecimacinesunatcnicadeusocomnenlaclasificacin[5]. CONDICIONES DEL EXPERIMENTO IV SEALES Test PREPROCESADO Decimacin ORDEN DEL MODELO AR RED NEURONAL N neuronas por capa ENTRENAMIENTO Divisindedatos(%) Funcinoptimizacin Entrenamiento 10sealesporgrupo(10x6=60) Recorte S(variastasas) 15 N capas ocultas 20 Algoritmo de entren. (dividerand) E: 100 | V: 0 | T: 0 mse RP 1 No 30sealesporgrupo(30x6=180)

http://ceres.ugr.es/~alumnos/esclas/

Page 20 / 24

Figura17:Tasadeaciertodelaclasificacinparaexperimentosconsealesdecimadasconunfactordedecimacindistinto. Sinosfijamosenlafigura17,podremosdescubrirlagranventajaquesuponepreprocesarlassealesefectundolesunadecimacin.Estoesasyaquesellegana alcanzartasasmuyaltasdeacierto,quelleganaserdel93,33%cuandoelfactordedecimacines10(estoes,cuandosetomanunadecada10muestrasdelaseal original).Portanto,enexperimentossucesivosaplicaremosunadecimacinalassealesreduciendosufrecuenciademuestreoaladcimaparte. 5.6. Experimento V: Aplicando recortes: Avecessucedequeconseguimosmejorasenlaclasificacinsiconsideramossloundeterminadointervalodeunasealdada.Estoesas,yaquepuedehaberpartes delasealquedisturbencausandoconfusinalclasificador.Enestecaso,trasobservarlassealesultrasnicasdisponibles,sevioquelapartemsrepresentativade lasmismaseralaqueseencontrabaalcomienzoyzonamediadelasmismas.Portanto,sedecidiquepodraserbuenaidearecortarciertapartefinaldelasseales. Acontinuacin,veremossilatasadeaciertosaumentaalrecortarunadeterminadapartedelfinaldelasseales. CONDICIONES DEL EXPERIMENTO V SEALES Test PREPROCESADO Decimacin ORDEN DEL MODELO AR RED NEURONAL N neuronas por capa ENTRENAMIENTO Divisindedatos(%) Funcinoptimizacin Entrenamiento 10sealesporgrupo(10x6=60) Recorte No 15 N capas ocultas 20 Algoritmo de entren. (dividerand) E: 100 | V: 0 | T: 0 mse RP 1 S(variosintervalos) 30sealesporgrupo(30x6=180)

Figura18:Tasadeaciertodelaclasificacinparaexperimentosconsealesquehanvistorecortadassusltimasmuestras Deacuerdoalafigura18,enestecasonoseobtieneunamejoraclaraalaplicaralgnrecorte,respectoalasealoriginalsinrecortar.Portanto,enexperimentos sucesivosnorecortaremoslassealesoriginales. Unavezaclaradoslosparmetrosdeentrenamientoypreprocesadoquemejorseadaptanalascaractersticasdelassealesyexperimentosquequierenllevarsea cabo,acontinuacinrealizaremosvariosexperimentosconlassealesagrupadasdediferentesformas.

http://ceres.ugr.es/~alumnos/esclas/

Page 21 / 24

5.7.ExperimentoVI:Distincindao/nodao Enesteejemplo,distinguiremosentrepresenciayausenciadedao.Dentrodelgrupodenodao irnlassealesdelgrupo0,mientrasqueelgrupodedao se colocarnelrestodeseales(grupos1,2,3,4y5).Comopuedeverseenlatabladecondicionesdelexperimentoquehayacontinuacin,seaplicelalgoritmode entrenamientoResilientBackpropagationysedecimaronlassealesenunfactor10: CONDICIONES DEL EXPERIMENTO VI SEALES Test PREPROCESADO Decimacin ORDEN DEL MODELO AR RED NEURONAL N neuronas por capa ENTRENAMIENTO Divisindedatos(%) Funcinoptimizacin PCA Entrenamiento 10sealesdelgrupoNoDao + 50sealesdelgrupo Dao = 60 Recorte S(factordecimacin=10) 15 N capas ocultas 20 Algoritmo de entren. (dividerand) E: 100 | V: 0 | T: 0 mse No RP 1 No 30sealesdelgrupoNoDao + 150sealesdelgrupo Dao = 180

Losresultadosdeclasificacinobtenidossonlossiguientes:

Comopuedeverseenlatabladeresultados,elgradodeaciertoeselevado.Enconcreto,elclasificadorconsiguereconocerlatotalidaddelassealessindaoyslo fallaadjudicando3sealescondaoalgrupodenodao. 5.8.ExperimentoVII:Distincindaonulo-leve/medio-grave Enesteexperimento,organizaremoslassealesdisponiblesendosgrupos:ungrupodeDaonuloleve dondeirnlassealesdelosgrupos0,1y2,yotrogrupo de Daomediograve dondesecolocarnlassealesdelosgrupos3,4y5. CONDICIONES DEL EXPERIMENTO VII SEALES Test PREPROCESADO Decimacin ORDEN DEL MODELO AR RED NEURONAL N neuronas por capa ENTRENAMIENTO Divisindedatos(%) Funcinoptimizacin PCA Se obtuvieron los siguientes resultados: Entrenamiento 30sealesdelgrupoDaonuloleve + 30sealesde Daomediograve = 60 Recorte S(factordecimacin=10) 15 N capas ocultas 20 Algoritmo de entren. (dividerand) E: 100 | V: 0 | T: 0 mse S(0.05) RP 1 No 90sealesdelgrupoDaonuloleve + 90sealesde Daomediograve = 180

http://ceres.ugr.es/~alumnos/esclas/

Page 22 / 24

Enestecaso,losresultadossonbastantebuenos.Enconcreto,elclasificadorslocometedosfallos,adjudicndoleelgrupodedaonulo-leveadossealesdelotro grupo. 5.9.ExperimentoVIII:Distincindaoleve/medio/grave Acontinuacin,veremoslosresultadosdedividirlassealesentresgrupos.Enconcreto,losgrupossern: -Grupo"Daonulomuyleve: sealesdelosgrupo0y1. - Grupo Daointermedio: sealesdelosgrupos2y3. - Grupo Daograve: sealesdelosgrupos4y5. Eligiendo el algoritmo de entrenamiento Resilient Backpropagation yel100%delassealesdeentrenamientoparaentrenar,seobtienenlossiguientesresultados: CONDICIONES DEL EXPERIMENTO VIII SEALES Test PREPROCESADO Decimacin ORDEN DEL MODELO AR RED NEURONAL N neuronas por capa ENTRENAMIENTO Divisindedatos(%) Funcinoptimizacin PCA Entrenamiento 20sealesdelgrupoDaonulomuyleve + 20sealesde Daointermedio + 20sealesdeDaograve = 60 Recorte S(factordecimacin=10) 15 N capas ocultas 20 Algoritmo de entren. (dividerand) E: 100 | V: 0 | T: 0 mse S(0.05) RP 1 No 60sealesdelgrupoDaonulomuyleve + 60sealesde Daointermedio + 60sealesdeDaograve = 180

Tras efectuar el experimento con las condiciones de la tabla anterior, se obtuvieron los siguientes resultados:

Paraesteexperimento,losresultadossonmuybuenos.Dehecho,elclasificadorslocometeunfallo.Enlafigura19,podemosverunacapturadelainterfaztrasla ejecucindeesteexperimento,dondesemuestralaventanaderesultados.

http://ceres.ugr.es/~alumnos/esclas/

Page 23 / 24

Figura19:AspectodelaventanaprincipaldurantelaejecucindelexperimentoVIII

5.10.ExperimentoIX:Distincingeneral Seguidamente,enesteejemplo,lassealessecolocarnenseisgrupos,demaneraqueencadagrupoestnslosealesdeunmismoniveldedao.Losresultados obtenidos son los siguientes: CONDICIONES DEL EXPERIMENTO IX SEALES Test PREPROCESADO Decimacin ORDEN DEL MODELO AR RED NEURONAL ENTRENAMIENTO Divisindedatos(%) Funcinoptimizacin PCA Entrenamiento 10sealesporgrupo(10x6=60) Recorte S(factordecimacin=10) 15 N capas ocultas N neuronas por capa Algoritmo de entren. (dividerand) E: 100 | V: 0 | T: 0 mse S(0.05) 1 20 RP No 30sealesporgrupo(30x6=180)

http://ceres.ugr.es/~alumnos/esclas/

Page 24 / 24

También podría gustarte