Documentos de Académico
Documentos de Profesional
Documentos de Cultura
RESUMEN.
Se describe las caractersticas de los mapas auto organizados, su regla de
aprendizaje, su algoritmo de entrenamiento, con la finalidad de resolver problemas
de clasificacin.
INTRODUCCIN
Los mapas autoorganizados o SOM (SelfOrganizing Maps), tambin llamados redes de
Kohonen son un tipo de red neuronal no
supervisada, competitiva, distribuida de forma
regular en una rejilla de, normalmente, dos
dimensiones. Su finalidad es descubrir la
estructura subyacente de los datos introducidos
en ella. A lo largo del entrenamiento de la red,
los vectores de datos son introducidos en cada
neurona y se comparan con el vector de peso
caracterstico de cada neurona. La neurona que
presenta menor diferencia entre su vector de
peso y el vector de datos es la neurona ganadora
(o BMU) y ella, y sus vecinas vern
modificados sus vectores de pesos. Este tipo de
mapas permiten reducir la dimensionalidad de
los vectores de entrada para representarlos
mediante una matriz de distancias unificada (Umatriz) generalmente consistente en una matriz
2D, apta para la visualizacin como una imagen
plana.
ESTRUCTURA
Matriz de neuronas: Las neuronas se
distribuyen de forma regular en una
rejilla de dos dimensiones, que pueden
ser rectangulares o hexagonales, en las
que cada neurona puede tener cuatro o
seis vecinos respectivamente.
Espacio de entrada: Los datos de
entrada corresponden a un vector de N
Entrenamiento
Para
cada
paso
del
entrenamiento (poca) se introduce un vector de
datos
correspondiente
a
una
entrada
seleccionada aleatoriamente y se calcula la
similitud entre este vector y el peso de cada
neurona. Aplicacin de SOM a la visualizacin
de datos 4 La neurona ms parecida al vector de
entrada ser la neurona ganadora (BestMatching Unit BMU). Generalmente se usa la
distancia eucldea para medir esta similaridad
entre pesos sinpticos. Tras esto, los vectores de
APLICACIN
DE SOM A
LA VISUALIZACIN DE
DATOS
Las dos caractersticas descritas
anteriormente hacen especialmente
atractivo el uso de SOM para
representacin de datos:
Reduccin
de
la
multidimensionalidad:
Podemos representar conjuntos
de datos de gran nmero de
atributos en mapas 2D.
Asociacin de elementos con
atributos
similares:
Visualmente podemos ver de
forma rpida como quedan
agrupados
elementos
que
tienen valores prximos entre
s.
Aparte de estas razones
tcnico tenemos adems
ventajas como son:
a nivel
muchas
Facilidad de implementacin:
La implementacin de un
sistema SOM es relativamente
fcil
y
se
adapta
perfectamente al modelo de
procesado en paralelo por lo
que
es
tambin
muy
fcilmente optimizable.
Abstraccin de los datos de
entrada:
Los
SOM
son
totalmente transparentes a la
naturaleza de los datos de
entrada, tan solo se limitan a
comparar vectores de entrada
con los pesos sinpticos de las
neuronas de la rejilla. Esto
hace que pueda ser usado en
gran variedad de problemas
sin tener necesidad de cambiar
la aplicacin base.
Facilidad de integracin con
otras tcnicas: Esta tcnica se
puede compaginar con otras
tcnicas de obtencin de
conocimiento como pueden ser
las
redes
bayesianas
APRENDIZAJE
NO
SUPERVISADO
Los algoritmos de clasificacin no supervisados
son aquellos que no requieren etiquetado de
cada uno de los vectores de entrada; se suelen
llamar tambin algoritmos auto-asociativos,
porque asocian entradas a ellas mismas. Una
buena explicacin de estos algoritmos se halla
en la FAQ de redes neuronales.
El tipo ms comn de algoritmos de aprendizaje
o clasificacin no supervisada son los
algoritmos de anlisis de grupos o clustering;
estos algoritmos tratan de dividir las muestras
del conjunto de entrada en una serie de grupos
con caractersticas comunes. Un algoritmo debe
descubrir cules son estos clusters, pero tambin
cules son las caractersticas que define ese
cluster y cuntos clusters hay; pero ste ltimo
es un problema que no tiene solucin fcil.
Dentro de las redes neuronales, uno de los
mtodos no supervisados ms comunes es
precisamente el SOM, pero hay otro mtodo
denominado aprendizaje hebbiano que usa una
ARQUITECTURA EN RED
En general, el algoritmo SOM considera una
arquitectura en 2 capas: por una parte tenemos
una red de nodos de aprendizaje (de la que nos
importa la relacin de distancias que hay entre
ellos) junto con un conjunto de vectores de
entrenamiento, de forma que todos los
elementos de la primera capa estn conectados
con todos los elementos de la segunda capa.
ALGORITMO
DE
APRENDIZAJE
A grandes rasgos, ya que no hay vector objetivo
al que aproximarse, lo que se hace es que, en
aquellas zonas en las que la red tiene nodos con
pesos que coinciden con vectores de
entrenamiento, el resto de nodos de su entorno
tienden a aproximarse tambin a ese mismo
vector. De esta forma, partiendo de una
dstribucin de pesos inicial (normalmente
aleatorios), el SOM tiende a aproximarse a una
distribucin de pesos estable. Cada una de estas
zonas que se estabiliza se convierte en un
clasificador de propiedades, de forma que la red
se convierte en una salida que representa una
aplicacin de clasificacin. Una vez estabilizada
la red, cualquier vector nuevo estimular la zona
de la red que tiene pesos similares.
De forma ms detallada, los pasos que se siguen
para el proceso de entrenamiento son:
notaremos
como Best
Matching
Unit (BMU). Para ello, simplemente se
calculan las distancias eucldeas entre
los vectores W de cada nodo y el
vector de entrenamiento (por motivos
de eficiencia, no se aplica la raz
cuadrada al clculo de la distancia
eucldea, cosa que no afecta para
calcular el mnimo).
Se calcula el radio del entorno de
BMU. Este radio comenzar siendo
grande (como para cubrir la red
completa) y se va reduciendo en cada
iteracin.
Cada nodo del entorno de BMU ajusta
su peso para parecerse al vector de
entrenamiento seleccionado en el paso
2, de forma que los nodos ms
cercanos al BMU se vean ms
modificados.
Repetir desde el paso 2 (el nmero de
iteraciones que se considere necesario).
LOS MAPAS
AUTOORGANIZADOS
APLICADOS A LA
BIBLIOMETRA.
La Bibliometra es una disciplina que estudia los
aspectos cuantitativos de la informacin
registrada, para ello se han creado una serie de
modelos estadsticos que aportan datos
numricos sobre el comportamiento de la
actividad cientfica. Tambin se han adaptado
modelos de otras disciplinas para facilitar los
anlisis
y
representar
los
resultados
desarrollados a partir de la Bibliometra. Los
mapas auto-organizados (SOM) o modelo de
Kohonen (basado en las RNA) es una de estas
herramientas. En los estudios mtricos la
aplicacin de las redes neuronales, y
especficamente los SOM, estn asociados en lo
fundamental
con
la
clasificacin
de
informacin, o sea, la formacin de cluster y su
representacin en mapas bidimensionales de
conceptos y ms especficamente con el
descubrimiento de informacin (data mining).
Este ltimo vinculado con la recuperacin de la
informacin con "ruido" e incompleta o con el
tratamiento de informacin que incluye
diferentes tipos de datos (nmeros, texto,
registros estructurados, etc.). Los SOM facilitan
que el conocimiento tcito se haga explcito, a
partir de la extraccin no-trivial (a partir de los
datos)
de
conocimientos
implcitos
potencialmente
tiles
desconocidos
previamente. Se podrn encontrar patrones o
estructuras en el conocimiento tcito. [3]
Las investigaciones bibliomtricas, a travs de
la utilizacin de las redes neuronales,
incursionan en:
la seleccin de variables.
clasificacin de
informacin
formacin de cluster.
regresin.
relaciones entre variables.
cambios y desviaciones.
representacin de las variables.
APLICACIONES:
Se estima que a pesar de las limitaciones
tcnicas, las redes neuronales aplicadas a la
Bibliometra constituyen un campo de
investigacin muy prometedor. Un ejemplo es
presentado a continuacin. La disciplina
muldidisciplinar de las redes neuronales es
aplicada en esta seccin, donde se asume a la
produccin de los documentos de patentes como
indicador de la capacidad de desarrollo
industrial. El objetivo es identificar posibles
competidores,
alianzas
estratgicas,
dependencia tecnolgica, etc. Se escogi para el
primer ejemplo la representacin de la situacin
tecnolgica de la Neisseria meningitidis.3 Las
diferentes instituciones en la primera hoja de sus
patentes hacen referencias a otras patentes, a
partir de estos datos se puede inferir el impacto
que produce una tecnologa o institucin en
otra. Con el objetivo de determinar la
dependencia tecnolgica entre instituciones, se
realiz un anlisis de citas, estas formaron los
cluster que aparecen en la figura.
ANLISIS
DE
DIABTICOS
INTERNADOS
PACIENTE
ANLISIS
DE PACIENTE
FACTORES DE RIESGO
ROBUSTEZ:
En la data real existen diversos puntos
denominados outliers los cuales difieren del
comun de los datos. Las SOM no son sensibles
a la presencia de este tipo de datos, no logranso
realizar una buena generalizacion del conjunto
de entrada, siendo otro problema importante que
se debe abordar. [6]
RIESGOS
VARIABLES
DATOS [5]
BANCARIOS
DE
LOS
INTERFERENCIA
CATRASTOFICA
Sucede cuando cuanod la informacion que fue
recientemente aprendida a menudo elimina la
CONCLUSIONES:
El uso de las redes neurales incide en las
empresas mejorando el proceso de calificacin
de las finanzas econmicas al margen de error
en el ranking. Todo esto demuestra su
Bibliografa
[1] [En lnea]. Available:
http://geneura.ugr.es/~jmerelo/tutoriales/bioinfo/Kohonen.html. [ltimo
acceso: 22 mayo 2015].
[2] D. C. d. l. C. e. I. A. U. d. Sevilla, 10 enero 2014. [En lnea]. Available:
http://www.cs.us.es/~fsancho/?e=76. [ltimo acceso: 22 mayo 2015].
[3] [En lnea]. Available:
http://halweb.uc3m.es/esp/Personal/personas/jmmarin/esp/DM/tema5d
m.pdf. [ltimo acceso: 22 MAYO 2015].
[4] M. V. Guzmn. [En lnea]. Available:
http://www.dynamics.unam.edu/DinamicaNoLineal/Articulos/MineriaDato
s/Articulo03.pdf. [ltimo acceso: 22 mayo 2015].
[5] G. Meschino. [En lnea]. Available:
http://www3.fi.mdp.edu.ar/meschino/Presentaciones/GUSTAVO
%2008%20-%20KOHONEN.pdf. [ltimo acceso: 22 mayo 2015].
[6] [En lnea]. Available: http://www.doc4net.es/doc/1850344633707/.
[ltimo acceso: 22 mayo 2015].