Documentos de Académico
Documentos de Profesional
Documentos de Cultura
Conceptos similares: Las redes convolucionales neuronales, y las redes recurrentes neuronales son
técnicas de deep learning para el análisis de datos en el espacio euclidiano. Por ejemplo, las imágenes y
videos pueden ser representados con matrices.
Las GNN se desarrollaron por la ncesidad de analizar problemas no modelables en el espacio
euclidiano. Por ejemplo, un análisis en el que se busque encontrar las relaciones semánticas entre los
objetos de una imagén, requiere que se analicen los relaciones entre los objetos. O el ánalisis de un
servicio de e-commerce involucra relaciones entre precios, clientes y productos.
Las recurrent grapf neural networks fueron el primer acercamiento a las GNN, e inspiraron la
siguiente clase de neural networks.
Convolutional Grapgh Neural Networks (ConvGNN): Son similares a las RecGNN, pero en
lugar de usar la misma función en cada filtro, se usa una capa convolutiva diferente en cada paso.
Hay dos clasificaciones, dependiendo de los fundamentos matemáticos que se usan:
Spatial Based: Son similares a las RecGNN en el sentido en que usan la información de
los nodos vecinos para encontrar el estado oculto de un nodo. Por ejemplo una Gated Graph Neural
Network entra dentro de esta categoría. La GGNN utuliza un “gated recurrent unit” como función
recursiva para encontrar el valor oculto de un nodo. Por ejemplo
hk(x) = GRU(hk-1(x), SUM( N(x) ). Donde N(x) son los vecinos de x.
Graph Autoencoders: Se pueden implementar con ConvGNN o RecGNN. Reciben de entrada grafos
y con un codificador se transforma ese grafo a un “espacio latente vectorial”. Despues el Autoencoder
transforma de vuelta esa información a un grafo.
De igual forma una GNN puede hacer el analisis de los ejes de un grafo, recibiendo como input el
estado oculto de un nodo, y como salida una predicción de las caracteristicas del eje entre esos dos
nodos
Los GNN tambien pueden ser utilizados para clasificar grafos. Se pueden utilizar las GNN para obtener
una represnetación mas compacta del grafo cuando se utiliza “pooling y redouts”