Está en la página 1de 9

De la catástrofe a la acción: cómo

Twitter puede salvar vidas

El objetivo de esta lectura es conocer cómo las tecnologías que permiten extraer
valor del Big Data permiten obtener conocimiento de las redes sociales, lo cual
puede resultar muy interesante para ayudar a gestionar catástrofes. A
continuación, se analiza el complejo contexto que se originó como consecuencia
del terremoto que tuvo lugar en el noroeste ecuatoriano en abril de 2016 y la
solución tecnológica propuesta.

1
Las primeras alertas en forma de hashtags

El 16 de abril de 2016, a las 18:52 horas, las poblaciones costeras del noroeste
ecuatoriano fueron asoladas por un terremoto de magnitud de 7,8 en la escala de
magnitud de momento. En 30 minutos, se destruyeron las principales infraestructuras
y fue un enorme golpe para la economía y el turismo de la zona, sin contar los
centenares de muertos y heridos que generó el sismo.

En las horas siguientes al terremoto, se declaró un estado de excepción que,


naturalmente, dado un evento de estas características, produjo un inusual movimiento
de información en las redes sociales, en particular Facebook y Twitter.
Espontáneamente, surgieron hashtags que expresaban variados sentimientos de la
comunidad desde la necesidad de información (#SismoEcuador), la solicitud de auxilio
o necesidades específicas (#SeNecesitaEC), la desaparición de personas
(#DesaparecidosEC) o el ofrecimiento de ayuda en las más diversas situaciones
(#SeOfreceEC).

Entre el 17 y el 24 de abril se generaron alrededor de medio millón de tuits con las


citadas etiquetas, convirtiéndose no solo en la tendencia más seguida de dicha
semana, sino en el material idóneo para proponer la solución de gestión de incidencias
ante desastres naturales; de la que te hablaremos en esta lectura.

Para ser más exactos, la problemática detectada en esas primeras horas tras el
evento se puede resumir en cuatro aspectos:

1. Caos informativo: se producen informaciones falsas que generan más temor


en la población.

2. Mensajes contradictorios: a falta de información, la gente emite mensajes sobre


el terremoto en las redes sociales, pero en un entorno de desesperación; por
lo tanto, no se tiene certeza de que cuál información es fidedigna.

3. Relación entre peticiones de ayuda y oferta de servicios: como se comentó


anteriormente, surgen dos hashtags #SeOfreceEC y #SeNecesitaEC, con los

2
que miles de personas vuelcan expresiones sobre necesidades específicas y
muchos ofrecen su ayuda para cubrirlas.

4. Conocimiento de las zonas con mayores necesidades: el difícil acceso a las


zonas del desastre reduce el acceso a la información. Las peticiones de ayuda
son generalmente expresadas para un lugar geográfico en concreto, pero se
puede obtener la geolocalización exacta del peticionario a partir del tuit.

Soluciones que ayudan a gestionar desastres


naturales

En este contexto, se diseñó una solución de gestión de incidencias ante desastres


naturales que puede ser utilizada por los gobiernos y las ONG como complemento a
los centros de mando ad hoc que se implantan en este tipo de situaciones. La idea
fundamental es explotar toda la información que se expresa en Twitter, debido a la
problemática citada, mediante técnicas de aprendizaje automático profundas que
permitan extraer características claves de cada tuit; en un entorno con mucho “ruido”,
como fue el escenario de Twitter post-terremoto de los primeros días.

Esto permitirá a las autoridades conocer las inquietudes de la población en tiempo


real, desmentir rumores falsos con prontitud, coordinar mejor las ofertas de ayuda
y obtener más información acerca de las zonas que requieren más apoyo tras el
desastre. En resumen, permitirá a las autoridades ser más eficientes en la toma de
decisiones para enfrentar un desastre.

Los aspectos técnicos de la solución

Paso 1: Tratamiento Inicial de los tuits / Texto Normalizado

Para que los tuits sirvan de fuente de información a las autoridades, hay que hacer
dos cosas: primero, “normalizar” el texto de los tuits y luego, clasificarlos.

“Normalizar el texto” hace referencia a un conjunto de procesos que “limpian” y


transforman el corpus del texto de los tuits para que puedan tratarse por el algoritmo

3
de clasificación posterior. Por citar algún ejemplo, procesos de normalización son la
unificación de términos con el mismo significado (“Bs. As.”, “Buenos Aires” y “CABA”
se unifican bajo el término “Buenos Aires”; “ventana” y “ventanas” bajo el término
“ventana”, etc.) o la “lematización”, que consiste en la extracción de lemas lingüísticos
de las palabras (por ejemplo, si en un tuit se indican las palabras “soy”, “seré”, “fui”,
se tomará el verbo “ser” en el procesado posterior del tuit).

En la gráfica siguiente se puede apreciar el procedimiento para el tratamiento inicial


de los tuits:

Paso 2: Categorización de los tuits | Redes Neuronales Convolucionales

Una vez obtenido el texto normalizado, el objetivo es categorizar los mensajes en, por
ejemplo: peticiones de ayuda, reporte de incidencias o casos donde se expresa una
necesidad explícita.

Para esto, se propone utilizar una técnica de vanguardia en la categorización de texto,


conocida como red neuronal convolucional, que es un modelo computacional
analítico (es decir, un programa) que imita la forma de procesar la información que
usa un cerebro biológico. Esto permite al programa detectar patrones (en este caso,
de los tuits) de forma eficiente y rápida, por lo que se emplean muchísimo en el análisis
de problemas donde se requiere realizar agrupaciones en base a patrones.

4
El aprendizaje con redes convolucionales se basa en la búsqueda de características
comunes en pequeños grupos de entradas, en este caso, los tuits. En nuestro
ejemplo, el análisis de un grupo de tuits desordenados de la catástrofe, donde los
usuarios piden ayuda, comentan el incidente u ofrecen recursos; permite identificar
tres tipos de tuit en base a estos patrones: solicitar ayuda, informar del incidente,
ofrecer ayuda.

Además, se busca siempre detectar la misma característica en todos los grupos de


observación (particularmente, han dado buenos resultados en el reconocimiento de
imágenes), por lo que se entrena la red para que poco a poco mejore sus resultados
con la experiencia, igual como lo haría un humano. En este sentido, la red neuronal
(algoritmo de análisis) va aprendiendo y mejorando por sí misma con el tiempo; a
medida que obtiene más datos.

En el siguiente gráfico, puedes ver este proceso:

Paso 3: Verificación de la autenticidad de los tuits

Un problema recurrente en esta solución es la aparición de tuits falsos que generan


un clima de incertidumbre. Ante ello, se puede prever verificar la autenticidad de la
fuente, es decir, del usuario que publicó el tuit; utilizando otra arquitectura de red
neuronal convolucional que detecte las características clave de cada usuario
(sentimiento de sus tuit, comunidad a la que pertenece, velocidad de propagación de
sus mensajes, tipo de mensaje, entre otros) y que, por lo tanto, permita encontrar
patrones en los tuit de los usuarios y clasificarlos. La clasificación del tuit que hace la

5
red neuronal, en base al usuario que lo publicó, sería de fiable o no fiable. El nivel de
fiabilidad está directamente relacionado con el nivel de entrenamiento de los criterios
que puntúan esta fiabilidad (por ejemplo, ciertas palabras o expresiones en los tuits
que el programador de la red le enseñó a la red a identificar).

Paso 4: Explotación de la solución | Mapa de Procesos

El formato de explotación o forma de mostrar los datos es una visión geoespacial (es
decir, un mapa integrado en un panel de control) con la categorización de los tuits,
una visión que incorpora variables organizadas de acuerdo a su prioridad (para
resolver primero los problemas más urgentes). Esto permite al usuario clave de un
centro de mando la gestión rápida que situaciones como terremotos suponen. La
solución, en su versión condensada, debería ser un mapa de procesos que incluya
las siguientes características:

1. Recolección en streaming. Obtenemos los tuits siguiendo los hashtags de


estudio. Para ello se emplean API (Application Programming Interface)
específicas. Las API son subrutinas y funciones de programación que permiten
la conexión de un componente de un software con otro, en este caso, permite
la conexión de la base de datos de la aplicación con el medio social (Twitter).

2. Extracción de características, filtrando el ruido. En general, esta función se


refiere a reducir todo contenido encontrado bajo los criterios de búsqueda del
motor de escucha de la red social, excluyendo el contenido que no resulte
relevante para el análisis de la compañía. En este caso, el ruido será toda
aquella información que no aporte a la mejor comprensión de las situaciones
generadas por el terremoto.

3. Almacén de datos. Los datos se guardan en un modelo de datos en los que el


almacenamiento, acceso y recogida de datos para su tratamiento sea sencillo
y fácil de explotar.

4. Motor de verificación y clasificación de los tuits. Categorización de los tuits


según población afectada y tipo de ayuda/oferta generada.

6
5. Evolución de hashtags. Seguimiento de la evolución de los hashtags iniciales
para descartar o incorporar nuevos.

6. Geolocalización de los tuits que se han incorporado en cada categorización.

7. Dashboard (apartado dentro del mapa de procesos) de toma de decisiones,


relacionado con peticiones de ayuda y oferta de servicios; y la visualización por
categoría de las zonas afectadas.

A continuación, podrás ver un diagrama donde incluimos cada uno de estos pasos.
Recomendamos que hagas zoom para ver el detalle:

7
Como puedes observar, esta propuesta toma en cuenta las últimas novedades en el
campo de la inteligencia artificial, aplicada al procesamiento del lenguaje natural;
El procesamiento del lenguaje natural es el campo que combina las tecnologías de
la inteligencia artificial, con la lingüística aplicada, con el objetivo de hacer posible la
comprensión y el procesamiento asistidos por ordenador de información expresada
en lenguaje humano para determinadas tareas, como la traducción automática o el
análisis de opiniones, etc.; como se ha hecho en este caso con Twitter, utilizando un
enfoque de servicio al bienestar común

8
Conclusiones

Las redes sociales juegan un papel de importancia vital en situaciones de emergencia,


como pueden ser los desastres naturales. Gracias a las tecnologías que permiten
extraer valor del Big Data, hoy somos capaces de explotar toda la información que
expresan los usuarios en las redes sociales y, mediante técnicas de aprendizaje
profundo, extraer información de valor en un entorno con mucho “ruido”; generando
así soluciones que ayuden a los organismos responsables y autoridades a ser más
eficientes en la toma de decisiones.

Esta obra está sujeta a la Licencia Reconocimiento-NoComercial-SinObraDerivada 3.0 España de Creative Commons. Para ver una copia
de esta licencia, visite http://creativecommons.org/licenses/by-nc-nd/3.0/es/ o envíe una carta Creative Commons, PO Box 1866, Mountain
View, CA 94042, USA.

También podría gustarte