Está en la página 1de 5

26/10/2016

MapasAutoOrganizadosFernandoSanchoCaparrini
Seleccionaridioma
ArtificialNeuralNetworksinNetLogo
EjerciciosAprendizajeAutomtico
RefactorizacinFuncional
Algoritmosdehormigasyelproblema...

FernandoSanchoCaparrini

LocalSearchAlgorithmsinNetLogo
MapasAutoOrganizados
Elm:ElementosVisuales
PSO:Optimizacinporenjambresde...
AGeneralA*SolverinNetLogo
ClasificacinSupervisadayNo...
JornadasFORMA13
Unsecretodepasillo CursoMOOCdeNetLogoenDifundi
IntroduccinalAprendizajeAutomtico

Inicio

Docencia

Investigacin

Publicaciones

Proyectos

ltimasEntradas
AgeneralBFSSolverinNetLogo
Temas
Optimizacinenelespaciode...
Mapassemnticos:clasificaciny...

NetLogo:Unaherramientademodelado...
RedesNeuronales:unavisin...
ClusteringporKmedias

Buscarpalabrasusadasen
entradasypginasdeeste
sitio
Introduzcaaqula[s]
palabra[s]abuscar:

Elm:Creacinrpidade...
EjerciciosdePSOyACO
ClasificacinSupervi||Inicio||EjerciciosAprendizaj

MapasAutoOrganizados

Introducatrminosdebsqueda

ElTeoremadeTakens:cmopredecir...
Algoritmosdehormigasyelproblema...
Losdosejesdelacomplejidad:...
PSO:Optimizacinporenjambresde...
ltimamodificacin:15deMayode2016,yhatenido1131vistas

Etiquetasutilizadas:algoritmos||inteligenciaartificial||machinelearning
Elm:ProyectoJuego
EjerciciosdeAutmatasCelularesy...
Theseiconslinktosocialbookmarkingsiteswherereaderscanshareanddiscovernewwebpages.
CursoaceleradodeLgicaProposicional
Fractales

NEWNETLOGO
BOOK

Cmosedemuestraqueunprogramaes...
AutmatasCelulares
EjerciciosRedesComplejas
Introduccinalasredescomplejas
SistemasComplejos,Sistemas...
EjerciciosInteligenciaColectiva
SistemasColectivos.Inteligencia...
Ejerciciosdebsquedaslocales

AlgoritmosGenticosyComputacin...
BsquedasLocales

Los Self Organizing Maps (Mapas AutoOrganizados), o


EjerciciosdeBsquedaInformada

Access

SOM,fueroninventadosen1982porTeuvoKohonen,profesorde
BsquedasInformadas
laAcademiadeFinlandia,yproporcionanunaformaderepresentar
BsquedasNoInformadas
datos multidimensionales (vectores) en espacios de dimensin

Inenglishandspanish,the
newbooktolearnNetLogo.
16chaptersgoingfromthe
basicstoadvancedfeatures.
Withexercisesproposedin
everychapterandfull
examples.

EjerciciosdeBsquedanoInformada
inferior, normalmente, en 2D.
Este proceso de reducir la
Sobrelosespaciosdeestadoylas...
dimensionalidaddevectoresesunatcnicadecompresindedatos

conocida como CuantizacinEjerciciosNetLogoII


Vectorial. Adems, la tcnica de
EjerciciosdeAlgoritmosGenticos
Kohonencreaunaredquealmacenainformacindeformaquelas
EjerciciosdeLgicadePrimerOrden
relacionestopolgicasdelconjuntodeentrenamientosemantienen.

LOSMSLEDO
1.Algoritmosdehormigasy
elproblemadelviajante
(4699vistas)
2.Introduccinal
AprendizajeAutomtico
(4604vistas)
3.Introduccinalasredes
complejas(3954vistas)
4.PSO:Optimizacinpor
enjambresdepartculas
(3568vistas)
5.SistemasMultiagentey
Simulacin(2939vistas)
6.Unaintroduccina
Prolog(2836vistas)
7.BasesdeDatosenGrafo
(2809vistas)
8.ClusteringporKmedias
(2787vistas)
9.Sobreelmodelado
matemtico(2512vistas)
10.AnlisisFormalde
Conceptos(2474vistas)

Un ejemplo habitual que seEjerciciosdeLgicaProposicional


usa para mostrar cmo funcionan
EjerciciosNetLogoI
los SOM se basa en la proyeccin de colores (asociados a vectores 3D formados
a partir de, por ejemplo, sus 3
SistemasMultiagenteySimulacin
componentesRGB)enunespacio2D.LasiguientefiguramuestraunSOMentrenadoparareconocerlos8coloresque
Elmodeladodeproblemas
aparecenasuderecha.Enlarepresentacin2Dseagrupancoloressimilaresenregionesadyacentes.
SobrelaInteligenciaArtificial...

TEMAS
agentes,algoritmos,
busqueda,complejidad,

inteligencia
artificial,investigacin,
haskell ,

matemticas,modelado,

netlogo,problemas,

programacinfuncional ,
simulacion,sistemas
complejos,

universidad(todas)

ENLACES
Computacin
GMSCUCE
A.I.T.
Programacin
NetLogo
ElmLanguage
Haskell

UnodelosaspectosmsinteresantesdelosSOMesqueaprendenaclasificarsinsupervisin,loqueimplicaque
nonecesitamosunobjetivoqueaproximar,sinoquegeneraladistribucinapartirdelasimilitudentrelosvectores.

Arquitecturaenred
Engeneral,elalgoritmoSOMconsideraunaarquitecturaen2capas:porunapartetenemosunacapadenodosde
aprendizaje, de la que nos importa la relacin geomtrica que hay entre ellos y que sern los que finalmente
contendrnlainformacinacercadelarepresentacinresultante,juntoconunacapadenodosdeentrada,dondese
representarnlosvectoresoriginalesduranteelprocesodeentrenamiento.Adems,todosloselementosdelaprimera
capaestnconectadoscontodosloselementosdelasegundacapa.Lasiguientefiguramuestraunaposiblearquitectura
2D para un entrenamiento SOM, la red de aprendizaje viene representada por los nodos rojos, y los vectores de
entrenamientovienenrepresentadosenverde.Comoenmuchossistemassimilares,laideadelalgoritmoconsistiren
encontrar los pesos adecuados de las conexiones entre ambas capaz para dar una "representacin" adecuada de los
datosdeentradaenlaestructurageomtricadelosnodosdeaprendizaje.

HumanidadesDigitales
CulturePlexLab
SylvaDB
BaroqueArt
Otros
R.G.N.C.
Lg.Computacional
Lg.Matemtica

CONTACTO
Dpto.Cienciasdela
ComputacineInteligencia
Artificial,Universidadde
Sevilla .
Direccin:E.T.S.I.I.
Av.ReinaMercedes,s/n.
Tfno:(+34)954556979,
Fax:(+34)954556599
Despacho:H1.48
email:fsanchoenus(.)es

Enrealidad,comononosimportalarepresentacingeomtricanitopolgicadelosnodosdeentrada,escomnque
solosedeunarepresentacinenlaqueaperecenlosnodosdeaprendizajeylospesosasociadosacadaunodeellosse
muestrancomounvectordepesos(cadaelementodeestevectoreselpesodelaconexinconelcorrespondientenodo
deentrada).Deestaforma,silacapadeentradatienetamao n (queesladimensindelespaciooriginal),cadanodo
deaprendizajetendrunvectordepesos,W ,dedimensinn .

AlgoritmodeAprendizaje
Agrandesrasgos,yaquenohayvectorobjetivoalqueaproximarse,loquesehaceesque,enaquellaszonasenlas

http://www.cs.us.es/~fsancho/?e=76

1/5

26/10/2016

MapasAutoOrganizadosFernandoSanchoCaparrini
Agrandesrasgos,yaquenohayvectorobjetivoalqueaproximarse,loquesehaceesque,enaquellaszonasenlas
quelaredtienenodosconpesosquecoincidenconvectoresdeentrenamiento,elrestodenodosdesuentornotienden
aaproximarsetambinaesemismovector.Deestaforma,partiendodeunadstribucindepesosinicial(normalmente
aleatorios),elSOMtiendeaaproximarseaunadistribucindepesosestable.Cadaunadeestaszonasqueseestabiliza
se convierte en un clasificador de propiedades, de forma que la red se convierte en una salida que representa una
aplicacin de clasificacin. Una vez estabilizada la red, cualquier vector nuevo estimular la zona de la red que tiene
pesossimilares.
Deformamsdetallada,lospasosquesesiguenparaelprocesodeentrenamientoson:
1.

Cadanodoseinicializaconunpeso(aleatorio).Normalmente,vectoresen[0, 1] ,

2.

Seseleccionaalazarunvectordelconjuntodeentrenamiento.

3.

Se calcula el nodo de la red que tiene el peso ms similar al vector anterior, que notaremos como Best
MatchingUnit(BMU).Paraello,simplementesecalculanlasdistanciaseucldeasentrelosvectores W de
cadanodoyelvectordeentrenamiento(pormotivosdeeficiencia,noseaplicalarazcuadradaalclculodela
distanciaeucldea,cosaquenoafectaparacalcularelmnimo).

4.

SecalculaelradiodelentornodeBMU.Esteradiocomenzarsiendogrande(comoparacubrirlared
completa)ysevareduciendoencadaiteracin.

5.

CadanododelentornodeBMUajustasupesoparaparecersealvectordeentrenamientoseleccionadoen
elpaso2,deformaquelosnodosmscercanosalBMUseveanmsmodificados.

6.

Repetirdesdeelpaso2(elnmerodeiteracionesqueseconsiderenecesario).

Lafrmulaqueestableceelradioenfuncindelaiteracin(quehacequevayadisminuyendo,peronolinealmente)
es:
t

r(t) = r0 e

donder eselradioinicial(habitualmente,elradiodelared,esdecir,unosuficienteparacubrirenelprimerpaso
0

todos los nodos) y una constante que permite hacer que el radio sea muy pequeo cuando llegamos a la iteracin
mxima:
T iempo_de_E ntrenamiento
=
ln r0

La siguiente figura muestra el efecto de ir reduciendo paulatinamente el radio del entorno, donde se marcan los
nodosqueseveranafectadossielnodoBMUeselnodoamarillo:

Paraaproximarlospesos(W )delosnodosdelentornoalvectordeentrenamiento(V )usamoslamodificacinque


sugierelafrmulasiguiente:
W (t + 1) = W (t) + L(t)(V (t) W (t))

El factor L(t) se denomina tasa de aprendizaje, y permite aproximar W a V con el paso del tiempo. Como
queremosquesuvalortambindisminuyaamedidaqueeltiempopasa,podemosusarunaexpresinsimilaraladel
radio:

L(t) = L 0 e

ElvalordeL seajustaexperimentalmente,nosotrosusaremoselvalor0.1 .Adems,yconelfindequeelefectode


aprendizajeseamsnotableenlascercanasdelBMU,aadiremosunfactormsalproductoanterior,quehacequelos
nodosmscercanosalBMUseveanmsafectados:
0

W (t + 1) = W (t) + D(t)L(t)(V (t) W (t))

Porejemplo,haciendoqueD(t)sigaunagaussianadelaforma:

D(t) = e

d
2r

(t)

dondedesladistanciadelnodoqueestamosajustandoalBMU(centrodelentorno).

EjemplodeAplicacin
LosSOMseusanhabitualenteparaproporcionarayudasvisuales,yaquepermitenmostrarrelacionesentregrandes
cantidadesdedatosyqueprecisaranmuchasmsdimensiones(algoinviableparaelserhumano)parasermostradas
adecuadamente.Conelfindetrabajarconunatopologaenlosnodosquereflejeunmayornmerodeconexionesentre
ellos, pero sea realista desde un punto de vista 2D, es habitual trabajar con un teselado hexagonal del plano,
identificandoloshexgonosconlosnodosdelared.
Paisesorganizadossegnsuniveldepobreza
Segn los diversos factores que se usan para medir la calidad de vida de los pases, podemos usar SOM para
representarlasagrupacionesqueformanlosdiversospasesenunared2D.

http://www.cs.us.es/~fsancho/?e=76

2/5

26/10/2016

MapasAutoOrganizadosFernandoSanchoCaparrini

Juntoalarepresentacionanterior,unavezextradosloscolores,podemosvolveraproyectarlospasesenunmapa
estndar,deformaquevisualmentepodamosinterpretarsimultneamentelainformacingeogrficaconlaprocedente
delosdatosanteriores:

En general, los SOM se pueden usar para representar datos complejos de una forma muy visual, ya que las
relaciones abstractas se destacan como relaciones de carcana y por colores... desde relaciones semnticas hasta
estructurastopolgicas.

Clasificacindeanimales
Supongamos ahora que tenemos la siguiente tabla de informacin acerca de las propiedades de un conjunto de
animales:

Paloma Gallina Pato Ganso Buho Halcn guila Zorro Perro Lobo Gato Tigre Len Caballo Cebra Vaca

Pequeo S

No

No

No

No

No

No

No

No

No

Medio

No

No

No

No

No

No

No

No

No

No

No

No

Grande

No

No

No

No

No

No

No

No

No

No

No

2patas

No

No

No

No

No

No

No

No

No

4patas

No

No

No

No

No

No

No

Pelo

No

No

No

No

No

No

No

Pezuas

No

No

No

No

No

No

No

No

No

No

No

No

No

Melena

No

No

No

No

No

No

No

No

No

No

No

No

Plumas

No

No

No

No

No

No

No

No

No

Caza

No

No

No

No

No

No

No

No

Corre

No

No

No

No

No

No

No

No

No

No

Vuela

No

No

No

No

No

No

No

No

No

No

No

Nada

No

No

No

No

No

No

No

No

No

No

No

No

No

No

Usando las columnas anteriores como vectores de entrenamiento, y un tamao adecuado del mundo para que los
vectores puedan distribuirse en l con comodidad, podemos obtener una clasificacin 2D de los elementos a los que
caracterizan(animales),dandorelacionesdesimilaridad(clasificndose)automticamente:

http://www.cs.us.es/~fsancho/?e=76

3/5

26/10/2016

MapasAutoOrganizadosFernandoSanchoCaparrini

Aligualqueenelcasoanterior,senormalizanlascomponentesdelosvectores(yaestnnormalizados,convirtiendo
No=0,S=1)ysegeneranpesosalazarconcomponentesaleatoriasentre0y1.Enestecaso,debidoaquecadavector
tiene 13 componentes, usamos slo las 3 primeras para dar una ligera clasificacin por colores, pero no reflejan la
informacinadicionalquehayenlospesosrealesqueseusanenelalgoritmo.
Puedeobservarsequelaclasificacintienesentido,yaqueagrupadeformacoherenteanimalesqueconsideramos
similaresporcausasdiversas.

PreprocesadodeDatos
Rara vez los conjuntos de datos sirven tal
como nos los dan, ya que es habitual encontrar
quevienendadosenescalasmuydiferentes,con
altos grados de variabilidad (y diferente para
cada atributo almacenado), e incluso con
distintos tipos de datos, donde algunos son
numricos y otros categricos. Por eso,
normalmente, y antes de realizar el
entrenamiento, hay que realizar algn tipo
de preprocesamiento que tiene como objetivo conseguir que todas las variables tengan aproximadamente el mismo
rangoylamismadesviacinestndar.Unadelasformasparaconseguirestoeselsiguiente:
Convertir variables categricas que tengan n posibles valores (categoras) en n variables distintas. Los
valoresdeestasvariablesdependerndecmohayamospreprocesadoelrestodelfichero,peronormalmente
se pondr al valor mximo de la normalizacin en caso de que la variable corresponda a esa categora y al
valormnimoencasodequeno.
Normalizarlascolumnasnumricasrestandolamediaydividientoporladesviacinestndar.Astodaslas
variablestendrnlamayorpartedesusvaloresentre1y1.
Otros preprocesos posibles consisten en aplicar logaritmos en caso de que el rango de variacin pase por varios
rdenesdemagnitud,orestarelmnimoydividirporelrangodevariacin,paradardiferentesvariablesenelrango
[0,1].Anas,cuandosetratadevariablescondistribucinmuydesigual,eshabitualquelosmodelosobtenidosnosea
excesivamentebuenos,yhabraquesometerlosaalgnpreprocesoadicional,quesertotalmenteheurstico(esdecir,
hechoadhoc),yquepuedeincluirlaeliminacindealgunasdelasvariables,algnprocesoestadsticoadicionalsobre
elconjuntoresultanteyejecucionespreliminaresdelalgoritmoparacomprobarlosresultadosqueseconsiguen.
En cualquier caso, lo ms importante del preproceso es no desvirtuar las relaciones mtricas entre los diferentes
valoresdelosatributos,yaqueunmalpreprocesadopuededarlugaraartefactos(esdecir,caractersticasnopresentes
en los datos iniciales) en los resultados del algoritmo. Por ejemplo, si las categoras de una variable categrica son
totalmentediferentes,elvectorquerepresentecadacategoratendrquehacersedeformaqueladistanciaatodaslas
dems sea la misma. Sin embargo, con variables que tengan una distancia "natural", por ejemplo, variables del tipo
mediano,pequeo,grande,habrqueconvertirlasanmerosenteros,oavaloresnumricosquemantenganesamisma
relacindeproximidadentreellas.

Parasaberms...
SelfOrganizingMapsResearchLab
WorldPovertyMap
SelfOrganizingMaps
SelfOrganizingMapsforPictures
SOMTutorial

TAMBINTEPUEDEINTERESAR...
1.EjerciciosdeLgicaProposicional(8125vistas)
2.Algoritmosdehormigasyelproblemadelviajante(4699vistas)
3.IntroduccinalAprendizajeAutomtico(4604vistas)
4.Introduccinalasredescomplejas(3954vistas)
5.PSO:Optimizacinporenjambresdepartculas(3568vistas)
6.SistemasMultiagenteySimulacin(2939vistas)
7.UnaintroduccinaProlog(2836vistas)
8.BasesdeDatosenGrafo(2809vistas)
9.Sobreelmodeladomatemtico(2512vistas)
10.AnlisisFormaldeConceptos(2474vistas)

0Comments
Recomendar

Aadeuncomentariosilodeseas...

Share

Login

Ordenarporlosmejores

Iniciaeldebate...

Selprimeroencomentar.

http://www.cs.us.es/~fsancho/?e=76

4/5

26/10/2016

MapasAutoOrganizadosFernandoSanchoCaparrini
Selprimeroencomentar.

ALSOONAADEUNCOMENTARIOSILODESEAS...

Haskell:elLenguajeFuncionalFernandoSancho
Caparrini
2commentshaceunao

4commentshaceunao

fsanchoPensquequerasqueelconjuntodeagentesresolviera

fsanchoMuchasgracias...esperopoderseguirampliandopuntos

msconcretosdeprogramacinfuncional.Ahorameest
resultandomuyinteresanteElmque,aunquefuertemente

BasesdeDatosenGrafoFernandoSanchoCaparrini
2commentshaceunao

unsoloproblemadebsqueda,peroahoraentiendoquecadauno
debeusarunabsquedaparaunproblemadistinto(desdesu

SistemasComplejos,SistemasDinmicosyRedes
Complejas
2commentshaceunao

fsanchoHolaDaniel,Quizsestelibro

(http://graphdatabases.com/)tepuedaservircomoreferencia.Es
introductorioylopuedesdescargargratuitamente.Enlsehace

Subscribe d AadeDisqusatusitiowebAddDisqusAadir

AlgoritmoA*FernandoSanchoCaparrini

fsanchoHolaJuanManuel.Teheescritoalcorreoquemehas

dejado,peromehanrespondidodiciendoquenoeslapersona
adecuada...Supongoquehayalgnerrorenelcorreoquehas

Privacidad

ClasificacinSupervi||Inicio||EjerciciosAprendizaj

MagazineThemeforPivotX byWindmillWebWork in2009,releasedundertheSimplePublicLicense .

http://www.cs.us.es/~fsancho/?e=76

5/5

También podría gustarte