Está en la página 1de 2

Graph Neural Networks – Resumen

Definición: Técnicas de deep learning para analizar datos representados en gráficas.

Conceptos similares: Las redes convolucionales neuronales, y las redes recurrentes neuronales son
técnicas de deep learning para el análisis de datos en el espacio euclidiano. Por ejemplo, las imágenes y
videos pueden ser representados con matrices.
Las GNN se desarrollaron por la ncesidad de analizar problemas no modelables en el espacio
euclidiano. Por ejemplo, un análisis en el que se busque encontrar las relaciones semánticas entre los
objetos de una imagén, requiere que se analicen los relaciones entre los objetos. O el ánalisis de un
servicio de e-commerce involucra relaciones entre precios, clientes y productos.

Clasificacion las redes neuronales gráficas:

Recurrent Graph Neural Networks: (RecGNN) Para encontrar la información latente de un


nodo h(x), usan la información del nodo y de sus vecinos. Usualmente es una función recursiva, por
ejemplo hk(x) = SUM( f(hk-1(x), x, N(x)) . Donde N(x) son todos los vecinos de x. Siempre se usan los
mismos parametros, y se itera hasta que se llegue a un balance. Por su naturaleza, la informacion de los
nodos se propaga en la gráfica en cada iteración.

Las recurrent grapf neural networks fueron el primer acercamiento a las GNN, e inspiraron la
siguiente clase de neural networks.

Convolutional Grapgh Neural Networks (ConvGNN): Son similares a las RecGNN, pero en
lugar de usar la misma función en cada filtro, se usa una capa convolutiva diferente en cada paso.
Hay dos clasificaciones, dependiendo de los fundamentos matemáticos que se usan:

Spectral Based: Estan basados en la teoria espectral de gráficas. Se usa para el


procesamiento de “graph signals”. Tienen el problema de tener que calcular los eigenvectors de la
matriz de adyacencia, O(N^3) . No son tan populares como la siguiente categoria.

Spatial Based: Son similares a las RecGNN en el sentido en que usan la información de
los nodos vecinos para encontrar el estado oculto de un nodo. Por ejemplo una Gated Graph Neural
Network entra dentro de esta categoría. La GGNN utuliza un “gated recurrent unit” como función
recursiva para encontrar el valor oculto de un nodo. Por ejemplo
hk(x) = GRU(hk-1(x), SUM( N(x) ). Donde N(x) son los vecinos de x.

Graph Autoencoders: Se pueden implementar con ConvGNN o RecGNN. Reciben de entrada grafos
y con un codificador se transforma ese grafo a un “espacio latente vectorial”. Despues el Autoencoder
transforma de vuelta esa información a un grafo.

Spatial-Temportal Graph Neural Networks (STGNNs):


Se usan para el analisis de grafos en el que la informacion de cada nodo cambia a través del tiempo.
Usualmente se utilizan ConvGNN para estudiar las relaciones espaciales del grafo, y una CNN para
estudiar el cambio de caracteristicasde cada nodo con el tiempo.
Otra manera de clasificar las GNN son con el tipo informacion que reciben/devuelven.
Por ejemplo una ConvGNN puede extraer la informacion oculta de cada nodo en un grafo. Usando un
“multi-perceptron o un layer softmax” se pueden analizar los nodos de un grafo end-to-end.

De igual forma una GNN puede hacer el analisis de los ejes de un grafo, recibiendo como input el
estado oculto de un nodo, y como salida una predicción de las caracteristicas del eje entre esos dos
nodos

Los GNN tambien pueden ser utilizados para clasificar grafos. Se pueden utilizar las GNN para obtener
una represnetación mas compacta del grafo cuando se utiliza “pooling y redouts”

Tambien existe la clasificación por metodos de entrenamiento:

También podría gustarte