Está en la página 1de 2

“Autores” no humanos e implicaciones para la integridad de la publicación

científica y el conocimiento médico.


RESUMEN:

Las tecnologías de inteligencia artificial (IA) para ayudar a los autores a mejorar la preparación y la
calidad de sus manuscritos y artículos publicados están aumentando rápidamente en número y
sofisticación. Estos incluyen herramientas para ayudar con la escritura, la gramática, el idioma, las
referencias, el análisis estadístico y los estándares de informes.

Los editores y editores también usan herramientas asistidas por IA para innumerables propósitos,
incluso para detectar problemas en los envíos (p. ej., plagio, manipulación de imágenes,
problemas éticos), clasificar los envíos, validar referencias, editar y codificar contenido para su
publicación en diferentes medios y para facilitar búsqueda y descubrimiento posteriores a la
publicación.

El lanzamiento ha provocado un entusiasmo inmediato por sus muchos usos potenciales,  pero
también temor por el posible uso indebido, como preocupaciones sobre el uso del modelo de
lenguaje para hacer trampa en las tareas asignadas, escribir ensayos de estudiantes y realizar
exámenes, incluidos los exámenes de licencia médica

Nature ha definido una política para guiar el uso de modelos de lenguaje a gran escala en la
publicación científica, que prohíbe nombrar herramientas como "autor acreditado en un artículo
de investigación" porque "la atribución de autoría conlleva responsabilidad por el trabajo, y Las
herramientas de IA no pueden asumir tal responsabilidad”

La comunidad editorial académica ha informado rápidamente sobre su preocupación por el


posible uso indebido de estos modelos de lenguaje en la publicación científica.

Si estos modelos o herramientas se utilizan para crear contenido o ayudar con la redacción o
preparación de manuscritos, los autores deben asumir la responsabilidad por la integridad del
contenido generado por estas herramientas.

Las tecnologías disruptivas y transformadoras, como los modelos de lenguaje de IA, crean
promesas y oportunidades, así como riesgos y amenazas para todos los involucrados en la
empresa científica. 

OPINIÓN:

La temática tratada en este artículo es demasiada interesante, el conocer sobre nuevas


tecnologías que aportan herramientas y sobre todo facilitan tareas en el área médica es
fascinante, sin embargo por lo que se menciona en dicho artículo, ha habido personas que hacen
un mal uso de estas tecnologías, a mi parecer es algo preocupante ya que una aplicación o en este
caso un Bot que genera conversaciones similares a las que se tienen con un humano a la larga
pueden ocasionar problemas, he visto aplicaciones de esta índole que se han generado en otras
áreas como el entretenimiento, recuerdo una aplicación en particular la cual generaba un chat con
una persona e iba aprendiendo conforme se tenían conversaciones, recopilaba información y
podía “evolucionar” en la manera de contestar preguntas que se le realizaban, al final esta
aplicación tuvo grandes problemas. Ahora imaginar este tipo de aplicaciones o herramientas en el
área médica solo me genera más dudas y sobre todo incertidumbre ya que no se sabe que
repercusiones o consecuencias puede traer en un futuro.

También podría gustarte