Está en la página 1de 5

Peligro en la desinformación artificial

Laura Sofía Novoa Pérez

Clase de lectura y redacción de textos

Universidad Distrital Francisco José de Caldas


Los modelos de lenguaje grande (LLM por sus siglas en inglés), son un gran avance para

la inteligencia artificial, estos pueden generar discursos convincentes, traducir idiomas y

responder preguntas complejas entre otras cosas. La herramienta de LLM más reconocida en el

momento es ChatGPT, este es un procesador de lenguaje creado por Open IA, una compañía

fundada entre otros por Elon Musk. Esta IA ha ocasionado controversia en la comunidad

científica ya que se han evidenciado falencias en su sistema y usos inadecuados por parte de los

usuarios de este programa. A continuación, se expondrán algunos puntos importantes con

relación a las consecuencias que trae el uso de esta herramienta.

Se han dado situaciones en la que ChatGPT ha demostrado desaciertos en la información

que proporciona, un ejemplo de esto es un testimonio de un estudiante de doctorado en

bioestadística de la Universidad de Harvard, en un artículo de la revista Nature, Kareem Carr

expresa que se sintió defraudado al probar éste para un trabajo, él piensa que sería difícil para el

chatbot alcanzar el nivel de especificidad que necesita; con este caso se evidencia la limitación que

posee esta herramienta, y a varios usuarios de la academia les pueden ocurrir situaciones similares

en las que puedan denotar más fallos. En la revista Nature, Parthasaranthy, especialista en la

gobernanza de tecnologías emergentes, habla de cómo los LLM podrían ayudar u obstaculizar la

ciencia, ella dice:

"Originalmente había pensado que los LLM podrían tener impactos

democratizadores y empoderadores. Cuando se trata de ciencia, podrían

capacitar a las personas para extraer rápidamente información de la

información: consultando síntomas de enfermedades, por ejemplo, o generando

resúmenes de temas técnicos. Pero los resúmenes algorítmicos podrían cometer

errores, incluir información obsoleta o eliminar matices e incertidumbre, sin


que los usuarios lo aprecien. Si alguien puede usar LLM para hacer

comprensible la investigación compleja, pero corre el riesgo de obtener una

visión simplificada e idealizada de la ciencia que está en desacuerdo con la

realidad desordenada, eso podría amenazar el profesionalismo y la autoridad.

También podría exacerbar los problemas de confianza pública en la ciencia. Y

las interacciones de las personas con estas herramientas serán muy

individualizadas, y cada usuario obtendrá su propia información generada”.

Es importante mencionar que las personas con la capacidad de identificar un error en los

datos proporcionados por este programa son los y las profesionales, que poseen mucho

conocimiento, por esto, se podría afirmar que la persona que quiera hacer uso de este programa

para un fin de aprendizaje puede caer en la desinformación ya que es más vulnerable por no hacer

parte de este limitado grupo de académicos.

Con la creación del internet y redes sociales, experimentamos cambios en varios ámbitos,

desde cómo nos relacionamos con las personas hasta nuestras formas de aprendizaje, pero esto

desató ciertas problemáticas, estas se relacionan con las consecuencias que ha traído ChatGPT, y

como ya se mencionó, un inconveniente es la desinformación, este tema no se comprende solo en

los datos falsos proporcionados, incluye información que tiene cierta carga social e histórica

importante dónde se puede ver involucrada la parcialidad y subjetividad de las personas que

entrenan el programa o intervienen en el tipo de información que se muestra y de ahí también

podemos profundizar en los mecanismos para decidir cuál información eliminan y cuál no;

alrededor del 2018, en las redes sociales, se evidencia que las personas empiezan a condenar más

que antes contenido inadecuado, las compañías encuentran una solución por medio de una IA que
se entrena para identificar y eliminar comentarios, videos y fotos inapropiadas, pero surgió otro

inconveniente, las IA no podían identificar en su totalidad la información inapropiada, frente a

esto surge un nuevo cargo conocido como “moderadores de contenido”, la labor de estas personas

es eliminar el contenido inapropiado, estos moderadores podrían estar trabajando en ChatGPT,

entonces, ¿Bajo qué parámetros se les dice a estos trabajadores que eliminen o no información?

Además, la confianza que genera y la convicción con la que redacta la IA se presta para que se

pueda manejar la opinión pública o perpetuar pensamientos con un sesgo histórico, cayendo en

discursos discriminativos, por ejemplo, el caso de Galactic, un LLM creado por Meta, fue

entrenado para crear resúmenes científicos y tuvo que cerrar ya que los usuarios comenzaron a

usarla para promover discursos racistas. Podemos cuestionar las intenciones que puede tener Open

AI como empresa privada porque su trabajo se puede ver manipulado por los intereses personales.

Para concluir, se puede afirmar que las falencias de ChatGPT y sus usos inadecuados traen

consecuencias preocupantes tanto para las ciencias exactas como para las ciencias sociales, lo cual

genera un impacto importante en el sentido en que se refuerza problemáticas existentes en vez de

contribuir a solucionarlas. Desafortunadamente estamos expuestos a la manipulación de

información que nos proporciona el internet, pero pienso que colectivamente se debería fomentar

el aprendizaje siempre siendo críticos de qué fuentes se obtiene la información.


Bibliografía

Calvo, J. (s/f). Moderadores de Contenido: The Cleaners. Europeanvalley.es. Recuperado el 23

de febrero de 2023, de https://www.europeanvalley.es/noticias/moderadores-de-

contenido-the-cleaners/

Qué es ChatGPT y para qué sirve. (2023, enero 23). National Geographic.

https://www.nationalgeographicla.com/ciencia/2023/01/que-es-chatgpt-y-para-que-sirve

Stokel-Walker, C., & Van Noorden, R. (2023). What ChatGPT and generative AI mean for

science. Nature, 614(7947), 214–216. https://doi.org/10.1038/d41586-023-00340-6

Van Noorden, R. (2022). How language-generation AIs could transform science. Nature,

605(7908), 21. https://doi.org/10.1038/d41586-022-01191-3

También podría gustarte