Está en la página 1de 4

¿Desinteligencia artificial: otra puerta

a la desinformación?

En la lucha contra la desinformación, testear las nuevas


herramientas de inteligencia artificial como ChatGPT a los
chequeadores nos genera mucha preocupación: además de
difundir información falsa son capaces, y aquí la novedad, de
generar – en segundos – textos con desinformación que pueden
engañar a miles de personas.
Esta preocupación se genera incluso cuando la inteligencia
artificial nos ayuda a chequear más rápido y mejor desde hace
años, en nuestro caso con Chequeabot desde 2016. Es decir, no
es un rechazo intrínseco a la tecnología per se, ya que muchas
veces es nuestra aliada, sino una preocupación basada en lo que sabemos
que es capaz de hacer este tipo de sistemas y la baja prioridad que parece tener la
problemática de la desinformación en la agenda de sus desarrolladores.
ChatGPT es una herramienta gratuita (hay que registrarse) que
permite conversar con una inteligencia artificial creada por
OpenAI, una empresa fundada —entre otros— por Elon Musk, con
Microsoft como uno de los inversores clave.
Ante una pregunta o pedido de un usuario, el sistema responde
rápidamente. ¿Cuál es la diferencia con el buscador de Google,
por ejemplo? En vez de mostrar un link a un sitio, ChatGPT
“chatea” una respuesta (más corta o larga), sin links y con un
modo de escribir que se asemeja a como lo haría un humano. Así
como responde preguntas también puede escribir ensayos,
poemas y respuestas de exámenes.
Pero hay un problema. A veces, las respuestas son pertinentes y
basadas en la mejor evidencia disponible y, otras veces, no. O
sea que también puede responder con desinformaciones (fake news, para
algunos) y generarlas.
Es por esto que ChatGPT enciende una luz, por ahora amarilla, en
el tablero. Que vire a roja o verde depende mucho de los
próximos pasos de OpenAi y del feedback con la comunidad global
que trabaja para mejorar la calidad de la información que circula.

Fruto de la experimentación con ChatGPT en relación a su


potencial desinformador, se advierten dos dimensiones claras:
por un lado, los resultados que arroja y que se irán incorporando
en otras herramientas y, por el otro, el riesgo de ChatGPT de
transformarse en sí mismo en una usina de desinformación.
Sobre el primero, la calidad de los resultados, si bien no deja de
sorprender la velocidad con que responde prácticamente sobre
cualquier tema, también es cierto que se equivoca en los datos
relativamente simples de muchas de las respuestas. Si comete
errores en respuestas tan fáciles de chequear ¿qué está
sucediendo ahora mismo en casos donde solo queda confiar en
lo que dice ya que además no brinda las fuentes?
Por ejemplo: al responder sobre Messi puede hacerlo dando
muchos datos correctos pero, al pasar, decir que jugó en un
equipo de Arabia Saudita (y aprender, días después – tarde para
quien hizo la consulta previamente – que ese dato era incorrecto
y ya no incluirlo en la respuesta) o al preguntarle por
chequeadores de la región menciona a Chequeado, pero también
a una empresa de otro continente que no hace chequeos.

O al consultarle sobre la relación entre el club Independiente y


Maradona, responder que empezó allí su carrera, señalarlo como
uno de los jugadores más destacados de Independiente e incluso
afirmar que allí jugó los años previos a su paso al fútbol europeo
(En Argentina, previo a su paso al fútbol europeo, Maradona jugó
en Argentinos Juniors y Boca Juniors).

Esto se complejiza aún más por la falta de crédito y fuentes, algo


relacionado con el adn de estas inteligencias artificiales que,
para aprender, se nutren de muchas fuentes que ponderan y no
siempre transparentan. ¿A quién citar si se usa esa respuesta
en un trabajo, como ya hacen miles de personas? Perplexity.ai,
otra plataforma basada en la tecnología de OpenAI, demuestra
que, aunque difícil, la cita es posible.
Conociendo cómo funcionan estos sistemas, que aprenden de las
interacciones con sus millones de usuarios, es probable que
mejore la calidad de las respuestas y que, si OpenAI lo quiere, se
diga de dónde sale cada dato o afirmación, con los desafíos que
eso genera en cuanto a derechos.
Sobre la segunda dimensión, ChatGPT como una usina de
desinformación, este es seguro el más complejo ya que la
plataforma misma te avisa que puede generar información incorrecta.
Para este artículo lo instruimos a que escribiera una historia
desinformante y si bien al principio se resiste (lo que deja claro
que al menos OpenAI tiene el problema presente) después de
unos intentos cedió a nuestro pedido y lo hizo de manera
bastante convincente.
Un ejemplo extremo de esto se puede ver en dos investigaciones
de Newsguard (republicada por Chicago Tribune) y
de ElDiario.es, donde logran de distintas maneras que ChatGPT
se libere de las barreras impuestas y escriba lo pedido por más
violento o desinformante que sea. Está claro que la mayoría de
los usuarios comunes no lo usará así, pero quienes generan
desinformación tienen manos, dinero y tiempo para forzar a estos sistemas a su
favor.
En definitiva, ¿por qué inquieta el uso de esta herramienta en
relación a la desinformación? Si bien hoy ChatGPT es una
herramienta gratuita, aún no es conocida masivamente,
Microsoft la quiere incluir pronto en su buscador Bing, lo que la
haría muchísimo más accesible y presente. Si estas
salvaguardas, que intentan evitar el uso dañino de la
herramienta, no funcionan correctamente, la posibilidad de

generar sitios con información desinformante – una de las


maneras en que quienes trabajan de generar desinformación
enganchan a las audiencias con su contenido – aumenta.

Otro motivo para observar de cerca la evolución de ChatGPT es


que al estar basado en muchas fuentes, e internet al contener
información sobre-representando a los países desarrollados y de
habla inglesa, hay serias chances de que los resultados en
español o portugués, solo por decir dos lenguas clave en nuestra
región, tenga aún menos revisiones que los escritos en la lengua
madre de OpenAI.
Por motivos como estos, entre otros, las organizaciones de
chequeadores -tanto en el ámbito regional como global-
impulsamos permanentes acciones de seguimiento e
investigación sobre estas herramientas y, desde acá, lo
estaremos revisando constantemente para que los resultados no
desinformen y las particularidades de nuestra región e idiomas
sean tenidas en cuenta.
En definitiva, lo chequearemos como hacemos con la inteligencia
humana: ojalá OpenAl y el resto del ecosistema de inteligencia artificial tengan
claro que la desinformación es un problema clave y actúen pronto en esa
línea.

También podría gustarte