Está en la página 1de 15

Falsa detección de noticias en las redes sociales utilizando

Geométrico profundo aprendizaje

Federico Monti 1,2 Fabricio Frasca 1,2 Davide Eynard 1,2 Damon Mannion 1,2

Michael M. Bronstein 1,2,3

1 Fabula AI 2 USI Lugano 3 colegio Imperial

Reino Unido Suiza Reino Unido

Resumen
arXiv: 1902.06673v1 [cs.SI] 10 de febrero 2019

Los medios sociales son hoy en día una de las principales fuentes de noticias para millones de personas en todo el mundo
debido a su bajo costo, fácil acceso, y la difusión rápida. Sin embargo, esto viene a costa de confiabilidad dudosa y riesgo
significativo de exposición a la 'falsa noticia', escrita intencionalmente para engañar a los lectores. La detección automática
de falsas noticias plantea retos que desafían los enfoques de análisis basados ​en los contenidos existentes. Una de las
razones principales es que a menudo la interpretación de la noticia requiere el conocimiento del contexto político o social o de
'sentido común', que los actuales algoritmos de procesamiento de lenguaje natural siguen desaparecidos. Estudios recientes
han demostrado empíricamente que la falsificación y la propagación de noticias reales de manera diferente en las redes
sociales, la formación de patrones de propagación que podrían ser aprovechadas para la detección automática de noticias
falsas. enfoques basados ​en la propagación tienen varias ventajas en comparación con sus homólogos basados ​en
contenidos, entre los cuales es la independencia del lenguaje y una mejor resistencia a los ataques de confrontación. En este
trabajo, nos muestran un nuevo modelo de detección de falsas noticias automático basado en el aprendizaje profundo
geométrica. Los algoritmos básicos subyacentes son una generalización de las redes neurales convolucionales clásicos a los
gráficos, lo que permite la fusión de datos heterogéneos tales como el contenido, el usuario per fi l y la actividad, gráfico
social, y la propagación de noticias. Nuestro modelo fue entrenado y probado en las noticias, Veri fi cada por las
organizaciones profesionales comprobación de los hechos, que se difundieron en Twitter. Nuestros experimentos indican que
la estructura de la red social y propagación son características importantes que permiten alta precisión (92,7% AUC ROC) de
detección falsa noticia. Segundo, observamos que falsa noticia se puede detectar de manera fiable en una etapa temprana,
después de unas pocas horas de propagación. En tercer lugar, probar el envejecimiento de nuestro modelo de formación y
las pruebas de datos separados en el tiempo. Nuestros resultados apuntan a la promesa de los enfoques basados ​en la
detección de propagación de noticias falsas como una estrategia alternativa o complementaria a los enfoques basados ​en los
contenidos.
1. Introducción

En la última década, las redes sociales se han convertido en una de las principales fuentes de información para las
personas de todo el mundo. Sin embargo, el uso de medios sociales para el consumo de noticias es una espada de doble
filo. Por un lado, se ofrece un bajo costo, fácil acceso, y la difusión rápida. Por otro lado, se trata con el peligro de la
exposición a la 'falsa noticia' que contiene información mal facturado o incluso intencionalmente falsa destinada a engañar y
manipular a los lectores a seguir ciertas agendas políticas o económicas. La amplia difusión de noticias falsas ha convertido
recientemente en un problema global y amenaza a las democracias modernas. La amplia difusión de noticias falsas antes
de las elecciones presidenciales de los Estados Unidos de 2016 [3] y el voto Brexit en Reino Unido se ha convertido en la
pieza central de la controversia en torno a estos eventos políticos y acusaciones de manipulación de la opinión pública.

La detección automática de falsas noticias plantea retos que desafían el análisis basado en el contenido de enfoques existentes. Una de las razones
principales es que a menudo la interpretación de la noticia está llena de matices y requiere el conocimiento del contexto político o social, o “sentido
común”, que actualmente incluso los más avanzados algoritmos de procesamiento de lenguaje natural siguen desaparecidos. Por otra parte, noticias
falsas se escribe a menudo intencionalmente por malos actores para aparecer como noticias reales, pero que contengan información falsa o
manipulador de formas que son difíciles incluso para los expertos humanos capacitados para detectar.

trabajos anteriores. Los enfoques existentes para la detección falsa de noticias se pueden dividir en tres categorías principales, con base en contenido,
contexto social, y propagación [ 36, 44]. enfoques basados ​en contenido, que se utilizan en la mayoría de los trabajos sobre la detección falsa
noticia, se basan en lingüística (léxico y sintáctico) Las características que pueden captar señales engañosas o estilos de escritura [1, 32, 30, 29,
28]. El principal inconveniente de los enfoques basados ​en los contenidos es que pueden ser de fi cados por su fi cientemente sofisticado noticias
falsas que no aparece inmediatamente como falso. Por otra parte, la mayoría de los rasgos lingüísticos dependen del idioma, limitar la generalidad
de estos enfoques.

características contexto social incluyen demografía de los usuarios (como la edad, el género, la educación y af política filiación [37, 21]), red
social estructura [38, 35] (en forma de conexiones entre los usuarios como la amistad o seguidor / relaciones followee) y reacciones de los
usuarios (por ejemplo, mensajes que acompañan a una noticia [33] o gustos [40]).

enfoques basados ​en la propagación son quizás la dirección de investigación más interesantes y prometedores basado en el estudio
del proceso de proliferación de noticias a través del tiempo. Se ha argumentado que el proceso de difusión de noticias falsas es similar
a la propagación de la enfermedad infecciosa [14] y puede ser entendido con los modelos de epidemias de red. Existe evidencia
empírica sustancial que los falsos noticias se propagan de manera diferente de la verdadera noticias [42] formando patrones de
propagación que potencialmente podrían ser aprovechadas para la detección falsa de noticias automático. En virtud de ser contenido
agnóstica, las funciones basadas propagación son probables generaliza en diferentes idiomas, locales, y zonas geográficas, en
contraposición a las funciones basadas en el contenido que se deben desarrollar por separado para cada idioma. Por otra parte, el
control de los patrones de propagación de noticias en una red social es generalmente más allá de la capacidad de los usuarios
individuales,

contribución principal. Hasta ahora, los intentos de explotar propagación de noticias para la detección falsa de noticias aplicada características
gráfico-teórico 'hechos a mano' tales como centralidad, camarillas, o componentes conectados [15]. Estas características son bastante arbitraria,
demasiado general, y no necesariamente significativo para la tarea específico de detección falsa noticia. En este trabajo, se propone el aprendizaje de
noticias falsas especí fi cas de propagación mediante la explotación de los patrones aprendizaje profundo geométrica, una nueva clase de métodos de
aprendizaje profundas diseñado para trabajar en los datos del gráfico-estructurada [4]. aprendizaje profundo geométrica natural se ocupa de datos
heterogéneos (como demografía de usuarios y la actividad, estructura de la red social, la propagación de noticias y contenidos), llevando así el potencial
de ser un marco unificador para el contenido, el contexto social y la propagación enfoques basados.

El modelo propuesto en este documento es entrenado de una manera supervisada en un gran conjunto de falsa anotado y verdaderas historias
repartidas en Twitter en el período 2013-2018. Llevamos a cabo pruebas exhaustivas de nuestro modelo en diferentes entornos difíciles, lo que
demuestra que se logra una precisión muy alta (casi el 93% AUC ROC), requiere tiempos de propagación muy corto de noticias (sólo unas pocas horas
de propagación), y un buen rendimiento cuando se entrena el modelo en los datos distantes en el tiempo a partir de los datos de prueba.

2
Figura 1: Ejemplo de una sola noticia difusión en un subconjunto de la red social Twitter. Las conexiones sociales entre usuarios se visualizan como
bordes de color azul claro. Una URL de noticias se tweeted de múltiples usuarios (raíces cascada denota en rojo), cada uno produciendo una cascada
sobre la propagación de un subconjunto del gráfico social (bordes rojos). tamaño del círculo representa el número de seguidores. Tenga en cuenta
que algunas son pequeñas cascadas, que contiene sólo la raíz (el usuario que pia) o sólo unas pocas retweets.

2 Conjunto de datos

Uno de los principales retos en los enfoques basados ​en la máquina de aprendizaje en general, y en la detección automática de noticias falsas, en
particular, está recogiendo una su fi cientemente grande, rica, y etiquetados de forma fiable conjunto de datos en la que los algoritmos pueden ser
entrenados y evaluados. Por otra parte, la noción de 'falsa noticia' en sí es bastante vago y lleno de matices. Para empezar, no hay consenso en cuanto
a lo que podría considerarse 'noticias', por no hablar de la etiqueta 'verdadero' o 'falso'. Un gran número de estudios explotar la noción de fiable o no
fiable fuentes como un proxy para verdadero o falso cuentos. Al tiempo que permite reunir grandes conjuntos de datos, estos enfoques han sido
criticadas por ser demasiado crudo [42]. En nuestro estudio, hemos optado por un proceso de recogida de datos en la que cada 'historia' tiene un
artículo subyacente publicado en la web, y cada una de esas historias es veri fi individualmente. En nuestra clasificación de las afirmaciones verdaderas o
falsas nos basamos en fi cio periodista organizaciones profesionales comprobación de los hechos no-profesionales como Snopes, 1 PolitiFact, 2 y
Buzzfeed. 3 Observamos que el uso del término noticias falsas, aunque no le gustaba en la comunidad de investigación en ciencias sociales por su abuso
en el discurso político, se refiere tanto a la información errónea y desinformación, es decir, no intencional, así como la propagación deliberada de inducir
a error o narrativa o hechos mal.

protocolo de recogida de datos. Nuestro proceso de recolección de datos se inspiró en y siguió en gran medida el trabajo pionero de Vosoughi et al. [42].
Se utilizó una colección de noticias Veri fi cado por las organizaciones de verificación de datos con reputación establecida en desacreditar los rumores;
cada organización fuente de verificación de datos proporciona un archivo de noticias con una corta asociada Reclamación ( por ejemplo, 'La actriz Allison
Mack confesó que se vende a los niños a los Rothschild y Clinton') y una etiqueta la determinación de su veracidad ( 'false' en el ejemplo anterior). En
primer lugar, nos reunimos la lista general de los artículos comprobación de los hechos de este tipo de archivos y, por simplicidad, reclamaciones
desechados con etiquetas ambiguas, como 'mixta' o 'parcialmente verdadero / falso'. En segundo lugar, para cada uno de los artículos que se filtra fi
identificado potencialmente relacionado URL referenciada por los verificadores, fi ltrado fuera a todos los que no se menciona al menos una vez en Twitter.
En tercer lugar, los anotadores humanos capacitados se emplearon para determinar si las páginas web asociadas a las direcciones URL fueron recogidos pareo
o negando la reclamación, o eran simplemente no relacionado con esa afirmación. Esto proporciona un método simple para propagar la verdad etiquetas
de veredictos comprobación de los hechos a las direcciones URL: si una URL coincide con un reclamo,

1 https://www.snopes.com/
2 https://www.politifact.com/
3 https://www.buzzfeed.com/

3
10 5

10 4
Número de cascadas
10 3

10 2

10 1

10 0

0 500 1000 1500 2000 2500 3000 3500 4000 4500 5000 5500 6000
tamaño cascada

Figura 2: Distribución de tamaños de cascada (número de tweets por cascada) en nuestro conjunto de datos.

10 - 2
Fracción de cascadas

10 - 3

10 - 4
0 100 200 300 400 500 600 700 800 900
URL ID

Figura 3: Distribución de las cascadas sobre las URLs 930 disponibles en nuestro conjunto de datos con al menos seis tweets por cascada, ordenados
por las cascadas de números en orden descendente. El primer 15 URLs (~ 1,5% de todo el conjunto de datos) corresponden a 20% del total de las
cascadas.

entonces se hereda directamente el veredicto; si se rechaza una reclamación, hereda el opuesto del veredicto (por ejemplo, URL que coincidan con una verdadera
reivindicación están etiquetados como verdadero, URLs negando una verdadera reivindicación están etiquetados como falso). URL recogidos de diferentes fuentes,
con la misma veracidad y fecha de la primera comparecencia en Twitter fueron inspeccionados, además, para asegurar que se referían a diferentes artículos.

La última parte del proceso de recolección de datos consistió en la recuperación de datos de Twitter relacionados con la propagación de noticias
asociadas con una URL concreta. Siguiendo la nomenclatura de [42], que denominamos como cascada el árbol de noticias de difusión producida
por una fuente pío referencia a una URL y todas sus retweets. Para cada URL, se realizaron búsquedas de todos las cascadas relacionados y
enriquecido su caracterización basada en Twitter (es decir, usuarios y datos pío) dibujando bordes entre los usuarios de acuerdo con la red
social de Twitter (véase el ejemplo en la Figura 1).

Con respecto a esta última etapa de recopilación de datos, nuestro enfoque es fi significativamente diferente del protocolo de [42], donde se recogieron los
tweets con enlaces a un sitio web de comprobación de los hechos, por lo tanto recuperar esencialmente sólo cascadas en la que alguien ha publicado un
'enlace de la prueba "con la veracidad de la noticia. Aunque significativamente más laborioso, creemos que nuestro protocolo de recogida de datos produce
un conjunto de datos más limpia mucho.

Estadísticas. Las figuras 2-3 muestran las estadísticas de nuestro conjunto de datos. En general, nuestra colección constaba de

1, 084 reclamaciones etiquetados, que se distribuyen en Twitter en 158, 951 cascadas que cubren el período de mayo de 2013 hasta enero de 2018. El
número total de usuarios únicos involucrados en la difusión era 202, 375 y su respectivo gráfico social compone 2, 443, 996 bordes. Mientras nos
reuníamos 1, 129 URL, el número medio de URL de artículos por siniestro es de alrededor 1,04; como tal, una dirección URL puede ser considerado como
un buen indicador de una reclamación en nuestra base de datos y por lo tanto vamos a utilizar los dos términos como sinónimos en adelante. También
observamos que, de manera similar a [42], una gran proporción de las cascadas eran de pequeño tamaño (el número medio de

4
Figura 4: subconjunto de la red Twitter utilizado en nuestro estudio con la credibilidad de usuario estimada. Vértices representan los usuarios, los
bordes grises las conexiones sociales. color de vértice y tamaño codificar la credibilidad de usuario (azul = fiable, rojo = no fiable) y el número de
seguidores de cada usuario, respectivamente. Los números 1 a 9 representan los nueve usuarios con más seguidores.

tweets y los usuarios en una cascada es 2.79, véase también la Figura 2 representa la distribución de tamaños de cascada), que requieren para utilizar un
umbral en un tamaño mínimo de cascada para la clasificación de estos de forma independiente en algunos experimentos (ver detalles en la Sección 4.1).

Caracteristicas. Se extrajeron las siguientes características que describen noticias, los usuarios, y su actividad, agrupados en cuatro categorías: Usuario
per fi l ( la geolocalización y el per fi l de la configuración, el idioma, la palabra de la incrustación de usuario per fi l de auto-descripción, fecha de creación
de la cuenta, y si ha sido Veri fi cado), Actividad del usuario
(Número de favoritos, listas y estados), La red y la difusión ( conexiones sociales entre los usuarios, el número de seguidores y
amigos, cascada árbol frondoso, marcas de tiempo de retweet y dispositivo de origen, número de respuestas, citas, los favoritos y
retweets para el tweet fuente), y Contenido ( la incorporación del contenido textual pío palabra y hashtags incluidos).

La credibilidad y la polarización. La red social recogido en nuestros manifiestos de estudio polarización notable representan
en la Figura 4. Cada usuario en esta trama se le asigna una puntuación de credibilidad en el rango [ - 1, 1] calcula como la
diferencia entre la proporción de (re) tuiteó verdadera y falsa noticia (valores negativos representan falsa se representan en
rojo, los usuarios más creíbles están representadas en azul). Las posiciones de nodo del gráfico se determinan por
inmersión topológica computado a través del algoritmo de la fuerza dirigida Fruchterman-Reingold [9], la agrupación de
nodos juntos de la gráfica que son más fuertemente conectada y mapeo aparte nodos que tienen conexiones débiles.
Observamos que creíble (azul) y no creíble usuarios (rojo) tienden a formar dos comunidades distintas, sugiriendo que estas
dos categorías de los altavoces de agudos prefieren interrelacionarse mayoría homofílicas. Mientras que un estudio más
profundo de este fenómeno está más allá del alcance de este documento, se observa que la polarización similar se ha
observado antes en las redes sociales, por ejemplo,

5
Figura 5: La arquitectura de nuestro modelo de red neuronal. Fila superior: GC = Gráfico de convolución, MP = Media Pooling, FC =
Totalmente Conectado, SM = SoftMax capa. Inferiores de la fila: tensores de entrada / salida recibido / producidos por cada capa.

3 Nuestro modelo

3.1 aprendizaje profundo geométrica

En la última década, las técnicas de aprendizaje profundos han tenido un impacto notable en varios dominios, en particular, la visión
por computador, análisis de voz y procesamiento de lenguaje natural [17]. Sin embargo, la mayoría de modelos neuronales profundos
populares, tales como redes neuronales convolucionales (CNNs) [18], se basan en la teoría de procesamiento de señal clásica, con un
supuesto subyacente de los datos de la rejilla-estructurada (euclidiana). En los últimos años, ha habido un creciente interés en la
generalización de técnicas de aprendizaje profundas para no euclidiana (graph- y colector-estructurado) de datos. Los primeros
enfoques para el aprendizaje en los gráficos [34] anteriores a la reciente renacimiento aprendizaje profundo y se formulan como
puntos fijos de los operadores de difusión puede aprender. El moderno interés por el conocimiento profundo en los gráficos se puede
atribuir a la CNN el modelo espectral de Bruna et al. [5]. aprendizaje profundo geométrica se utiliza ampliamente como un término
general para el aprendizaje profundo no euclidiana se aproxima a [4].

En términos generales, gráfico CNNs sustituir la operación de convolución clásica en rejillas con una agregación de
permutación invariante local en el barrio de un vértice en un gráfico. En el gráfico espectral CNNs [5], esta operación se
realiza en el dominio espectral, mediante la utilización de la analogía entre los vectores propios Laplaciano gráfico y la
clásica transformada de Fourier; los filtros se representan como se pueden aprender coeficientes espectrales. Mientras
CNNs conceptualmente importantes, espectrales sufren de alta complejidad computacional y di fi dif generalizar a través de
diferentes dominios [4]. obras de seguimiento mostró que el eigendecomposition explícita del Laplaciano puede evitarse por
completo mediante el empleo de funciones expresable en términos de operaciones matriz-vector simples, tales como
polinomios [8, 12] o funciones racionales [19]. Tales filtros espectrales típicamente escala linealmente con el tamaño del
gráfico y se pueden generalizar a estructuras de orden superior [25], gráficos duales (filtros de borde fi) [26], y gráficos de
productos [24]. El operador laplaciano es sólo un ejemplo de fijada permutación invariante agregación oper- ación importe de
promedio ponderado local. Se han propuesto los operadores más generales utilizando circunvoluciones de borde [43], el
paso de mensajes neural [10], la cartografía locales [23], y la atención gráfico [41]. En dominios no euclidianas con
estructura local de bajas dimensiones (colectores, mallas, nubes de puntos), los operadores más potentes se han construido
usando, por ejemplo anisotrópico difusión kernels [2]. Al ser modelos muy abstracta de los sistemas de relaciones e
interacciones, las gráficas surgen de forma natural en diversos campos de la ciencia. Por esta razón,

6
3.2 configuración Arquitectura y formación

Nuestro modelo de aprendizaje profundo se describe a continuación. Se utilizó una de cuatro capas Graph CNN con dos capas convolucionales
(características de salida 64-dimensional de mapa en cada uno) y dos capas totalmente conectadas (produciendo características de salida de 32 y
de 2 dimensiones, respectivamente) para predecir los / verdaderos probabilidades de clase falsos. La Figura 5 representa un diagrama de bloques de
nuestro modelo. Una cabeza de atención gráfico [41] se utilizó en cada capa convolucional para implementar los filtros junto con media-pooling para
la reducción de dimensionalidad. Se utilizó escalado Unidad Lineal Exponencial (SELU) [13] como la no linealidad en toda la red. Se empleó pérdida
Bisagra para entrenar la red neuronal (que preferimos pérdida de bisagra a la entropía cruzada media más comúnmente utilizada, ya que superó este
último en los primeros experimentos). Sin regularización se utilizó con nuestro modelo.

3.3 Entrada de generación

Dada una URL u ( o una cascada C que surge de u) con correspondientes ecotweets T u = { t 1 u, t 2 u, ..., t nu}
mencionarla, describimos u en términos de gráfico sol u. sol u tiene tweets en T u como nodos y caminos de difusión de noticias estimados más las
relaciones sociales como bordes. En otras palabras, dado dos nodos yo y j, borde
( i, j) ∈ sol u si y sólo si al menos una de las siguientes bodegas: yo siguiente j ( es decir, el autor de pío yo sigue el autor del tuit j), j siguiente yo, noticias
de la difusión se produce a partir yo a j, o desde j a yo.

Noticias recorridos de difusión de fi nir la difusión de los árboles se estimaron como en [42], considerando conjuntamente las marcas de
tiempo de (re) tuits involucrados y las conexiones sociales entre sus autores. Dado t nu - la retweets de una cascada en relación con el URL u, y
{ t 0 u. . . t norte - 1
u} - la (re) ecotweets inmediatamente anteriores
que pertenece a la misma cascada y escrito por los usuarios { un 0 u, . . . , un nu}, luego:

1. si un nu siguiente al menos un usuario en { un 0 u, . . . , un norte - 1 u}, calculamos noticias de difusión a t nu desde


el último tuit en { t 0 u. . . t norte - 1 u} cuyo autor es seguido por un nu;
2. si un nu no seguir cualquiera de los usuarios en { un 0 u, . . . , un norte - 1 u}, , nuestro cálculo de noticias
se extienda a t nu desde el usuario en { un 0 u, . . . , un norte - 1
que tiene el mayor número de seguidores (es decir,
u}
la popular más). Por último, los nodos y los bordes del gráfico sol u tienen características describirlos. Los nodos, que representan

tweets y sus autores, se caracterizaron con todas las características presentadas en la Sección 2 4. En cuanto a los bordes, se utilizó características

que representan el número de miembros de cada una de las citadas cuatro relaciones ( siguiendo y

la difusión de noticias, ambas direcciones). Nuestro enfoque a la de fi nición de conectividad gráfico y bordes características permite, en
convolución gráfica, a la información difusión independientemente de la dirección respecto mientras que potencialmente dando una importancia
diferente a los tipos de conexiones. Características de borde ( i, j) se concatenan para los de nodos yo y j en la capa de proyección atención para
conseguir tal comportamiento.

4 resultados

Se consideraron dos configuraciones diferentes de detección falsa noticia: URL-sabia y En cuanto a la cascada, usando la misma arquitectura para
ambas configuraciones. En el primer escenario, hemos intentado predecir la verdadera etiqueta / falsa de una dirección URL que contiene una
noticia de todas las cascadas de Twitter que generó. En promedio, cada URL resultó ser aproximadamente de 141 cascadas. En este último
escenario, que es fi significativamente más desafiante, asumimos que debe darse sólo una cascada que surge de una URL y trató de predecir la
etiqueta asociada a esa URL. Nuestra hipótesis es que todas las cascadas asociadas con una URL heredan la etiqueta de este último. Mientras
nos registramos este supuesto para ser verdad en la mayoría de los casos en nuestra base de datos, es posible que un artículo es, por ejemplo,
tuiteó con un comentario negar su contenido. Dejamos el análisis de las observaciones que acompañan a los tweets / retweets como una línea de
investigación futura.

4.1 Modelo de rendimiento

En URL-sabia clasi fi cación, se utilizaron cinco divisiones de entrenamiento / prueba / validación aleatorios. En promedio, la formación, prueba, y
conjuntos de validación contenían 677, 226, y 226 URLs, respectivamente, con 83,26% verdad y 16.74% etiquetas falsas ( ± 0,06% y 0,15% para la
formación y el conjunto de validación / test respectivamente). Para cascada-sabia clasi fi cación se utilizó la misma división realizado inicialmente para
URL-sabia clasi fi cación (es decir,

4 Para el contenido tweet y descripción del usuario incrustaciones promediamos juntos las incrustaciones de las palabras constituyentes (guante vectores [27]

200-dimensionales pre-entrenados en Twitter).

7
0.8 1
La verdadera tasa positiva

0.6

0.4

0.2

0
0 0.1 0.2 0.3 0.4 0.5 0.6 0.7 0.8 0.9 1
Falso tasa positiva

Figura 6: Rendimiento de URL-Wise (azul) y en cascada en cuanto a la detección de noticias (rojo) usando falsa 24hr- largo tiempo de difusión.
Se muestran las curvas ROC promediados en cinco pliegues (las áreas sombreadas representan las desviaciones estándar). AUC ROC es
92.70 ± 1,80% para URL-sabia clasi fi cación y 88,30 ± 2,74% para cascada-sabia clasi fi cación, respectivamente. Sólo cascadas con al menos
6 ecotweets se consideraron para cascada-sabia clasi fi cación.

todas las cascadas originadas por URL u se colocan en el mismo pliegue como u). Se descartaron las cascadas que contienen menos de 6 de
tweets; la razón de la elección de este umbral es motivado a continuación. se utilizó la duración de cascada completa (24 horas) para los ajustes de
este experimento. La formación, prueba, y conjuntos de validación contenidas en promedio 3586, 1195, 1195 cascadas, respectivamente, con
81,73% verdad y 18,27% de falsos etiquetas ( ± 3,25% y 6,50% para la formación y el conjunto de validación / test respectivamente). Nuestra red
neuronal fue entrenado para 25 × 10 3 y 50 × 10 3 iteraciones en la configuración URL- y en cascada a gota, respectivamente, utilizando AMSGrad
[31] con tasa de aprendizaje de 5 × 10 - 4 y mini-lote de tamaño uno. La Figura 6 representa el rendimiento de URL- (azul) y en cascada a gota (rojo)
falso noticias clasi fi representado como una solución de compromiso (curva ROC) entre la tasa de falsos positivos (fracción de la verdadera
noticias erróneamente clasificados como falso) y verdadera tasa positiva (fracción de noticias falsas correctamente clasificados como falso).
Usamos área bajo la curva ROC ( AUC ROC) como una medida agregada de precisión. En las divisiones anteriores, nuestro método logra media de
AUC ROC 92.70 ± 1,80% y 88.30 ± 2,74% en el URL- y la configuración en cascada a gota, respectivamente.

La Figura 7 representa un diagrama de pocas dimensiones de las características de vértice-sabia capa convolucional último gráfico obtenido utilizando
t-SNE incrustación. Los vértices son de color mediante la puntuación de credibilidad se define en la Sección 2. Observamos grupos claros de usuarios
confiables (azules) y poco fiables (rojo), lo cual es indicativo de las características de aprendizaje de la red neural que son útiles para la falsificación de
noticias clasi fi cación.

Influencia del tamaño mínimo de cascada. Una de las características de nuestro conjunto de datos (así como el conjunto de datos en el estudio de
[42]) es la abundancia de cascadas pequeñas que contienen tan sólo unos pocos usuarios (ver Figura 2). Dado que nuestro enfoque se basa en la
difusión de noticias a través de la red social Twitter, estos ejemplos pueden ser difíciles de clasificar, como demasiado pequeñas cascadas pueden
manifestarse sin un patrón claro de difusión. Para identificar el tamaño mínimo cascada útil, se investigó el rendimiento de nuestro modelo en el
entorno clasi fi cascada-sabia usando cascadas de varios tamaños mínimos (figura 8). Como era de esperar, el rendimiento aumenta con el modelo
de las cascadas más grandes, llegando a saturación para cascadas de al menos 6 ecotweets (dejando un total de 5.976 muestras). Este
experimento motiva nuestra elección de utilizar 6 tuits como el tamaño mínimo de cascada en cascada en los experimentos a gota en nuestro
estudio.

estudio de ablación. Para resaltar aún más la importancia de las diferentes categorías de características proporcionadas como entrada al modelo, se
llevó a cabo un estudio de la ablación por medio de la selección hacia atrás característica. Se consideraron cuatro grupos de características se define
en la Sección 2: usuario per fi l, la actividad del usuario, la red y la difusión, y contenido. Los resultados de experimento ablación se muestran en la
Figura 9 para el URL- (arriba) y la configuración en cascada a gota (abajo). En ambos casos, el usuario-per fi l de la red y / difusión aparecen como los
dos grupos más importantes de características, y permiten la obtención de resultados satisfactorios clasi fi cación (cerca

90% AUC ROC) con el modelo propuesto.

8
Figura 7: T-SNE la incrustación de las características de vértice-sabia producidos por nuestra red neural en la última capa convolucional que representan
todos los usuarios en nuestro estudio, un código de colores de acuerdo con su credibilidad (azul = fiable, rojo = no fiable). Las agrupaciones de usuarios
con diferentes credibilidad emergen claramente, lo que indica que las aprende de redes neuronales características útiles para la detección falsa noticia.

0.86
Media AUC ROC

0.84

0.82

3 4 5 6 7 8 9 10
Min. umbral de tamaño cascada

Figura 8: Rendimiento de la detección falsa de noticias cascada-sabia (media ROC AUC, promediado en cinco pliegues) usando umbral de
tamaño mínimo en cascada. El mejor rendimiento se obtiene mediante fi ltrado a cabo cascadas menores de 6 tweets.

Curiosamente, en la configuración en cascada a gota, mientras que todas las funciones están contribuyendo de manera positiva a las predicciones fi nales en la
URL del nivel, la eliminación de pío contenido de la entrada proporcionada mejora el rendimiento
4%. Este resultado aparentemente contradictorio se explica por observar la distribución de las cascadas de más de todas las URL disponibles (Figura 3): 20% de
cascadas están asociados a los 15 mejores direcciones URL más grandes en nuestro conjunto de datos ( ~ 1,5% de un total de 930). Desde los tweets citando el
mismo URL presente típicamente un contenido similar, es fácil para el modelo a más de fi t en esta función particular. regularización adecuada (por ejemplo, de
abandono o decaimiento peso) por lo tanto debe ser introducido para evitar la sobre fi tting y mejorar el rendimiento en el tiempo de prueba. Dejamos este estudio
adicional para futuras investigaciones. Para simplificar, mediante el aprovechamiento de las capacidades de nuestro modelo para clasificar noticia falsa en un
escenario libre de contenido, decidimos ignorar por completo descriptores basados ​en contenido (incrustaciones de palabras tuit) para cascada-sabia clasi fi cación
y dejar que el modelo de explotación solamente por el usuario y la propagación características relacionados con la PI.

9
0.95

AUC ROC 0.9

0.85

usuario per fi l de usuario per fi l de usuario per fi l de usuario per fi l de


red / difusión red / difusión red / difusión
contenido la actividad del

usuario contenido

0.9

0.88
AUC ROC

0.86

0.84

0.82
usuario per fi l de usuario per fi l de usuario per fi l de usuario per fi l de
red / difusión red / difusión red / difusión
actividad del usuario actividad del usuario

contenido

Figura 9: La ablación resultado estudio sobre URL-Wise (parte superior) (parte inferior) de detección falsa de noticias / cascada a gota, utilizando la función de

selección hacia atrás. Se muestra el rendimiento (AUC ROC) para nuestro modelo entrenado en subconjuntos de características, agrupados en cuatro categorías:

facilidad de per fi l, la red y la difusión, el contenido y la actividad del usuario. Los grupos se clasifican para la importancia de izquierda a derecha.

4.2 Noticias difusión a través del tiempo

Uno de los factores clave de diferenciación de métodos basados ​en la propagación de sus contrapartes basadas en el contenido, es decir, que
dependen de la difusión de las noticias características, potencialmente plantea la siguiente pregunta: ¿por cuánto tiempo do la noticia tiene que
separar antes de que podamos clasificarlos de forma fiable? Hemos llevado a cabo una serie de experimentos para estudiar el grado en que este
es el caso con nuestro enfoque. Para este propósito, truncamos las cascadas después de la hora t a partir de la fi pío primera, con t que varía de 0
(teniendo en cuenta efectivamente sólo el tweet inicial, es decir, la 'raíz' de cada cascada) a las 24 horas (la duración cascada completa) con
incrementos de una hora. El modelo fue entrenado por separado para cada valor de t. validación cruzada Cinco veces se usa para reducir el sesgo
de las estimaciones mientras que contiene el coste computacional general.

La figura 10 representa el rendimiento del modelo (media ROC AUC) como función de la duración de cascada, para la URL- (arriba) y la
configuración en cascada a gota (abajo). Como se esperaba, el rendimiento aumenta con la duración de cascada, saturando más o menos
después de 15 horas en el establecimiento URL sabia y después de 7 horas en la cascada-sabia, respectivamente. Este diferente comportamiento
se debe principalmente a los patrones topológicos más simples y de vida más corta de las cascadas individuales. Siete horas de difusión abarcan
en torno a la media 91% del tamaño cascada; para el establecimiento URL sabia, el valor correspondiente es 68%. Un nivel similar de la cobertura, 86%,
se logra después de 15 horas de difusión en el entorno-URL sabia. También observamos que sorprendentemente sólo algunos ( ~ 2) horas de
difusión de noticias son su fi cientes para lograr anterior

90% significa AUC ROC-URL en cuanto a la falsificación de noticias clasi fi cación. Además, se observa una signi salto fi no puede en el rendimiento de
la configuración 0 hr (con eficacia usando único usuario pro fi le, la actividad del usuario, y

10
Tweets de promedio / URL

1 78 117 147 171 212 229 244 192 258 272 285 296 306 316 325 336 345 353 361 369 376 382 389 395

0.95

0.9
Media AUC ROC

0.85

0.8

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
El tiempo de difusión (horas)

Tweets de promedio / cascada

26 31 34 1 37 38 39 41 42 43 44 44 45 46 47 47 48 48 49 49 50 50 51 51 52

0.9
Media AUC ROC

0.85

0 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24
El tiempo de difusión (horas)

Figura 10: Rendimiento de URL a gota (arriba) y en cascada a gota de detección (inferior) falso noticias (media ROC AUC, promediado en cinco
pliegues) en función del tiempo de difusión en cascada.

características de contenido) a ≥ 1 ajustes hr (teniendo en cuenta, además, la propagación de noticias), que interpretamos como otro indicio de la
importancia de las características de propagación-relacionado.

4.3 Modelo envejecimiento

Vivimos en un mundo dinámico en constante evolución con el contexto político. Desde la red social, las preferencias del usuario y la actividad, temas de

noticias y, potencialmente, también la difusión de patrones evolucionan en el tiempo, es importante entender en qué medida un modelo entrenado en el

pasado se puede generalizar a estas nuevas circunstancias. En la fi nal conjunto de experimentos, se estudia cómo las edades rendimiento del modelo

con el tiempo en el URL- y la configuración en cascada se refiere. Estos experimentos tienen como objetivo emular un escenario del mundo real en el

que se aplica un modelo entrenado en datos históricos para nuevos tweets en tiempo real. Para la creación de URL sabia, dividimos nuestro conjunto de

datos en la formación / validación ( 80% de URLs) y prueba ( 20%

de URLs) juegos; los conjuntos de entrenamiento / validación y prueba fueron disjuntos y posterior en el tiempo. Se evaluaron los resultados de nuestro
modelo de subconjuntos del conjunto de prueba, diseñado como parcialmente superpuestos (media intersección sobre la unión a igualar 0.56 ± 0,15) ventanas
de tiempo. superposición parcial nos permitió trabajar en subgrupos más grandes, manteniendo su relación de positivos frente a los negativos,
proporcionando al mismo tiempo resultados del más suave al igual que con la media móvil. De esta manera, cada ventana contenía al menos 24% del equipo
de prueba (número medio de URL en una ventana estaba 73 ± 33.34) y las fechas promedio de dos ventanas consecutivas eran por lo menos 14 días de
diferencia, aumentando progresivamente.

11
0.95

AUC ROC
0.9

0.85

0.8

60 80 100 120 140 160 180 200 220 240 260


Tiempo entre entrenamiento y prueba (días)

0.9
AUC ROC

0.8

60 80 100 120 140 160 180 200 220 240 260


Tiempo entre entrenamiento y prueba (días)

Figura 11: Efectos del conjunto de entrenamiento envejecimiento sobre el rendimiento de URL- (arriba) y la detección de noticias (parte inferior) falsa
cascada se refiere. Eje Horizontal diferencia espectáculos en días entre la fecha media de los conjuntos de entrenamiento y prueba. Se muestra el
rendimiento de la prueba obtenida por nuestro modelo con 24 horas de difusión (de color azul), rendimiento de la prueba obtenida con mismo modelo usando
sólo el primer tuit de cada noticia (0hrs difusión, naranja discontinua), y realización del test de formación obtenido en nuestra original uniformemente
muestreada cinco pliegues (predicciones veracidad se calculan para cada URL / cascada cuando esto aparece como una muestra de ensayo en nuestras 24
horas cinco veces la validación cruzada, verde).

La Figura 11 (arriba) capta la variación en el rendimiento debido al envejecimiento del conjunto de entrenamiento en el entorno-URL sabia. Nuestro
modelo exhibe un ligero deterioro en el rendimiento sólo después de 180 días. Atribuimos este deterioro al cambio en los patrones de dispersión y de
la actividad del usuario per fi les. Se repitió el mismo experimento en la configuración en cascada se refiere. La división en formación / validación y
prueba de conjuntos y la generación de las ventanas de tiempo se realizó de manera similar al experimento de la URL sabia. Cada ventana de
tiempo en la prueba tiene un tamaño medio de 314 ± 148 cascadas, y dos ventanas consecutivas tuvieron una media superposición con la
intersección sobre la unión a igual 0.68 ± 0.21. La Figura 11 (abajo) resume el rendimiento de nuestro modelo en el ajuste de cascada se refiere. En
este caso, se muestra un comportamiento más robusto en comparación con la creación URL sabia, perdiendo sólo un 4% después de 260 días. Este
comportamiento diferente es probablemente debido a la mayor variabilidad que caracteriza a las cascadas en lugar de direcciones URL. Como
cascadas individuales están representados por los gráficos más pequeños y sencillos, la probabilidad de identificar estructuras ricas recurrentes entre
las diferentes muestras de entrenamiento es menor en comparación con la creación URL sabia y, también, cascadas puede implicar más fácilmente a
los usuarios procedentes de diferentes partes de la red social Twitter . En la configuración en cascada-sabia, nuestro modelo basado en la
propagación se ve forzado a aprender las características más simples que por un lado son menos discriminativo (por lo tanto el rendimiento global
inferior), y por otro lado parece ser más robusto al envejecimiento. Dejamos un análisis más profundo de este comportamiento para la investigación
futura, que podría proporcionar formas adicionales que mejoran el rendimiento de noticias clasi fi cación falsa.

12
4.4 Conclusiones

En este trabajo, presentamos un enfoque de aprendizaje profundo geométrica para la detección falsa de noticias en red social
Twitter. El método propuesto permite, naturalmente, la integración de datos heterogéneos relacionados con el usuario y per fi l de la
actividad, social estructura de red, los patrones de difusión de noticias y contenidos. La principal ventaja de utilizar un enfoque de
aprendizaje profundo en contraposición a 'artesanal' características es su capacidad de aprender de forma automática
Características de las tareas-específico partir de los datos; La elección del aprendizaje profundo geométrica en este caso está
motivada por la naturaleza gráfica estructurada de los datos. Nuestro modelo logra una precisión muy elevada y un comportamiento
robusto en varios entornos desafiantes que involucran datos reales a gran escala, señalando el gran potencial de los métodos de
aprendizaje profundas geométricas para la detección falsa noticia. Hay varios fenómenos interesantes e hipótesis que dejan para
futuras investigaciones. De particular interés es la validación experimental de la conjetura de que nuestro modelo es potencialmente
el lenguaje y la geografía independiente, basándose principalmente en la conectividad y características de extensión. El estudio de
los ataques de confrontación es también de gran interés, tanto desde el punto de vista teórico y práctico: por un lado, los ataques de
confrontación permitirían la exploración de las limitaciones del modelo y su resistencia a los ataques. Se conjetura que los ataques a
los enfoques basados ​en el gráfico requieren manipulaciones de redes sociales que son difíciles de aplicar en la práctica, por lo que
nuestro método particularmente atractivo. Por otro lado, las técnicas de confrontación podría arrojar luz sobre la forma en que la red
neuronal gráfico que toma las decisiones, lo que contribuye a una mejor interpretación de la modelo. Finalmente,

Expresiones de gratitud

Agradecemos el generoso apoyo por ERC consolidador Subvención No. 724228 (Leman), ERC prueba de concepto de subvención Nº
812672 (GoodNews), múltiples premios Google facultad de investigación y becas de equipos de Nvidia, subvención Amazon AWS máquina
de aprendizaje de la investigación, el premio Fundación Dalle Molle , y la adjudicación Facebook Computacional Metodología de las Ciencias
sociales. MB también es apoyado en parte por el premio real SocietyWolfson ResearchMerit y Rudolf Diesel comunión industrial en la
Universidad Técnica de Múnich. beca de doctorado de FF es apoyado por el SNF subvención No. 200021E / 176315.

referencias
[1] Sadia Afroz, Michael Brennan, y Rachel Greenstadt. Detectar engaños, fraudes y engaños por escrito
estilo en línea. En Proc. IEEE Symp. Seguridad y Privacidad (SP), páginas 461-475, 2012. [2] Davide Boscaini, Jonathan Masci,

Emanuele Rodolà, y Michael Bronstein. Aprender correspon- forma


dencia con las redes neuronales convolucionales anisotrópicos. En Proc. PELLIZCOS, 2016.

[3] Alexandre Bovet y Hernán A Makse. Influencia de noticias falsas en Twitter durante la presidencia de Estados Unidos 2016
elección. Nature Communications, 10 (1): 7, 2019.

[4] Michael M Bronstein, Joan Bruna, Yann LeCun, Arthur Szlam, y Pierre Vandergheynst. profunda geométrica
aprender: ir más allá de los datos euclidiana. Revista IEEE Signal Processing, 34 (4): 18-42, 2017. [5] Joan Bruna, Wojciech Zaremba,

Arthur Szlam, y Yann LeCun. espectrales y redes conectadas localmente


redes en los gráficos. En Proc. ICLR, 2014.

[6] Nicholas Choma, Federico Monti, Lisa Gerhardt, Tomasz Palczewski, Zahra Ronaghi, Prabhat Prabhat,
Wahid Bhimji, Michael Bronstein, Spencer Klein, y Joan Bruna. redes neuronales GRAPH para icecube señal clasificacion. En Proc.
ICMLA, 2018.

[7] Michael Conover, Jacob Ratkiewicz, Matthew R Francisco, Bruno Gonçalves, Filippo Menczer, y
Alessandro Flammini. La polarización política en twitter. En Proc. ICWSM, 2011.

[8] Michaël Defferrard, Xavier Bresson, y Pierre Vandergheynst. redes neuronales convolucionales en los gráficos
con localizada rápida fi ltrado espectral. En Proc. PELLIZCOS, 2016.

[9] Thomas MJ Fruchterman y Edward M Reingold. Graph dibujo de colocación la fuerza dirigida. Software:
La práctica y la experiencia, 21 (11): 1129-1164, 1991.

[10] Justin Gilmer, Samuel S Schoenholz, Patrick F Riley, Oriol Vinyals, y George E Dahl. mensaje neuronal
pasando por la química cuántica. En Proc. ICML, 2017.

13
[11] Lee Howell et al. Digitales incendios salvajes en un mundo hiperconectado. Informe del WEF, 3: 15-94, 2013. [12] Thomas N Kipf y Max

Welling. Semi-supervisado clasificacion con redes convolucionales de gráficos.


2017.

[13] Günter Klambauer, Thomas Unterthiner, Andreas Mayr, y Sepp Hochreiter. neuronal auto-normalizador
redes. En Proc. PELLIZCOS, 2017.

[14] Adam Kucharski. Después de la verdad: la epidemiología Estudio de noticias falsas. Naturaleza, 540 (7634): 525, 2016. [15] Sejeong Kwon, Meeyoung

Cha, Kyomin Jung, Wei Chen, y Yajun Wang. Prominentes características de rumores
propagación en medios sociales en línea. En Proc. Conf. Procesamiento de datos, páginas 1103-1108, 2013. [16] David MJ Lazer, Matthew A

Baum, Yochai Benkler, Adam J Berinsky, Kelly MGreenhill, Filippo Menczer,


Miriam J Metzger, Brendan Nyhan, Gordon Pennycook, David Rothschild, et al. La ciencia de la noticia falsa.
Ciencias, 359 (6380): 1094-1096, 2018.

[17] Yann LeCun, Yoshua Bengio, y Geoffrey Hinton. Aprendizaje profundo. naturaleza, 521 (7553): 436, 2015. [18] Yann LeCun, Léon Bottou,

Yoshua Bengio, y Patrick Haffner. Gradiente basado en el aprendizaje aplicado a


reconocimiento de documentos. Proc. IEEE, 86 (11): 2278-2324, 1998.

[19] Ron Levie, Federico Monti, Xavier Bresson, y Michael M Bronstein. Cayleynets: convolucional Gráfico
con redes neuronales complejas racionales filtros espectrales. arXiv: 1705.07664, 2017.

[20] O letanía, Alex Bronstein, Michael Bronstein, y Ameesh Makadia. finalización forma deformable con
graficar autoencoders convolucionales. En Proc. CVPR, 2018.

[21] Yunfei largo, Qin Lu, Rong Xiang, Minglei Li, y Chu-Ren Huang. detección de falsas noticias a través
múltiples perspectivas altavoz per fi les. En Proc. Procesamiento natural del lenguaje, volumen 2, páginas 252-256,
2017.

[22] Jonathan Masci, Davide Boscaini, Michael Bronstein, y Pierre Vandergheynst. convolucional geodésica
redes neuronales en las variedades de Riemann. En Proc. ICCV Talleres, 2015.

[23] Federico Monti, Davide Boscaini, Jonathan Masci, Emanuele Rodolà, Jan Svoboda, y Michael M
Bronstein. aprendizaje profundo geométrica en los gráficos y colectores utilizando CNNs modelo mezcla. En Proc. CVPR,
2017.

[24] Federico Monti, Michael Bronstein, y Xavier Bresson. finalización matriz geométrica con recurrente
redes neuronales multi-gráfico. En Proc. PELLIZCOS, 2017.

[25] Federico Monti, Karl Otness, y Michael M Bronstein. Motifnet: a convolucional gráfico basado-motivo
red para gráficos dirigidos. En Proc. Datos Taller de Ciencia, 2018.

[26] Federico Monti, Oleksandr Shchur, Aleksandar Bojchevski, O letanía, Stephan Günnemann, y
Michael M Bronstein. redes convolucionales gráfico Dual-primordial. arXiv: 1806.00770, 2018.

[27] Jeffrey Pennington, Richard Socher, y Christopher Manning. Guante: vectores globales para la representación palabra
ción. En Proc. EMNLP, 2014.

[28] Verónica Pérez-Rosas, Bennett Kleinberg, Alexandra Lefevre, y Rada Mihalcea. Detección automática de
noticias falsas. arXivarXiv: 1708.07104, 2017.

[29] Martin Potthast, Johannes Kiesel, Kevin Reinartz, Janek Bevendorff, y Benno Stein. Un stylometric
investigación sobre hyperpartisan y falsa noticia. arXiv: 1702.05638, 2017.

[30] Hannah Rashkin, Eunsol Choi, Jin Yea Jang, Svitlana Volkova, y Yejin Choi. Verdad de diferentes tonos:
Analizar el lenguaje de noticias falsas y política comprobación de los hechos. En Proc. Los métodos empíricos de procesamiento del lenguaje natural, páginas
2931-2937, 2017.

[31] Sashank J Reddi, Satyen Kale, y Sanjiv Kumar. En la convergencia de ADAM y más allá. 2018. [32] Victoria Rubin, Niall Conroy, Yimin

Chen, y Sarah Cornwell. noticias falsas o la verdad? utilizando señales a satíricas


detectar potencialmente engañosa de noticias. En Proc. Computational Enfoques para la detección del engaño, páginas 7-17, 2016.

[33] Natali Ruchansky, Sungyong Seo, y Yan Liu. CSI: Un modelo de bolas híbridos de noticias falsas. arXiv: 1703.06959,
2017.

14
[34] Franco Scarselli, Marco Gori, Ah Chung Tsoi, Markus Hagenbuchner, y Gabriele Monfardini. los
graficar modelo de red neural. IEEE Trans. Redes neuronales, 20 (1): 61-80, 2009. [35] Kai Shu, H Russell Bernard, y Huan Liu. El estudio

de noticias falsas a través de análisis de redes: la detección y


mitigación. En Nuevos desafíos y oportunidades de investigación en análisis de redes sociales Computacional y Minería, páginas 43-65.
Springer, 2019.

[36] Kai Shu, Amy Sliva, Suhang Wang, Jiliang Tang, y Huan Liu. detección de falsas noticias en las redes sociales: Un
perspectiva de la minería de datos. ACM SIGKDD Exploraciones Newsletter, 19 (1): 22-36, 2017. [37] Kai Shu, Suhang Wang, y Huan Liu. La comprensión

del usuario per fi les en las redes sociales para la detección falsa noticia.
En Proc. Tratamiento de la información multimedia y Recuperación, páginas 430-435, 2018. [38] Kai Shu, Suhang Wang, y Huan Liu. Más allá de los

contenidos de las noticias: El papel del contexto social para noticias falsas
detección. En Proc. Búsqueda web y minería de datos, 2019.

[39] Jan Svoboda, Jonathan Masci, Federico Monti, Michael M Bronstein, y Leonidas Guibas. Peernets:
La explotación de la sabiduría de pares contra los ataques de confrontación. En Proc. ICLR, 2019.

[40] Eugenio Tacchini, Gabriele Ballarin, Marco L Della Vedova, Stefano Moret, y Luca de Alfaro. Algunos
como si engaño: la detección falsa de noticias automatizado en las redes sociales. arXiv: 1704.07506, 2017.

[41] Petar Velickovic, Guillem Cucurull, Arantxa Casanova, Adriana Romero, Pietro Lio, y Yoshua Bengio.
redes de atención gráfico. En Proc. ICLR, 2018.

[42] Soroush Vosoughi, Deb Roy, y Sinan Aral. La difusión de las noticias verdaderas y falsas en línea. Ciencias,
359 (6380): 1146-1151, 2018.

[43] Yue Wang, Yongbin Sun, Liu Ziwei, Sanjay Sarma E, Michael M Bronstein, y Justin M Salomón.
El gráfico dinámico para el aprendizaje de la CNN sobre las nubes de puntos. arXiv: 1801.07829, 2018.

[44] Xinyi Zhou y Reza Zafarani. noticia falsa: Un estudio de investigación, los métodos de detección y oportunidades.
arXiv: 1812.00315, 2018.

15

También podría gustarte