Está en la página 1de 2

El retiro de Geoffrey Hinton de Google, pionero de la inteligencia artificial (IA), señalando los

peligros que esta encarna, se vincula a otros llamados recientes a escala internacional. Cartas
de científicos e intelectuales se suman a la petición de gobiernos para que se postergue al
menos por seis meses la salida al mercado de sistemas como el ChatGPT, mientras se miden
sus consecuencias y se proponen medidas al respecto. La humanidad entró en un profundo
cambio tecnológico sin mayor idea de las graves consecuencias que puede causar su uso. Se
busca que haya desarrollo tecnológico, sí, pero con responsabilidad.

En lo inmediato, una de las principales preocupaciones radica en que a través de internet se


difundan sin ningún tipo de control fotos, videos y textos sin la posibilidad de saber qué es
cierto y qué es falso. Ayer se anunció desde la Casa Blanca la inversión de US$140 millones
adicionales con el fin de promover “una innovación responsable”, mientras que la
vicepresidenta Kamala Harris tendrá reuniones con los líderes de las grandes empresas
tecnológicas involucradas en el tema. Se trata de proteger los derechos y la seguridad de los
usuarios con un “enfoque cohesivo y global de los riesgos y las oportunidades relacionados con
la IA”. Ese es el tamaño del reto al que nos enfrentamos. “¿Qué pasará cuando una inteligencia
no humana sea mejor que el ser humano promedio para contar historias, componer melodías,
dibujar imágenes y redactar leyes y escrituras?”, se preguntó en un reciente artículo el
historiador y filósofo Yuval Noah Harari. Tiene razón.

El retiro de Hinton se da en momentos en que expertos, las grandes empresas de tecnología de


la información y los gobiernos tienen la responsabilidad de formular y encontrar respuestas a
las muchas preguntas e inquietudes que se han venido formulando en medio de una creciente
incertidumbre. Mil líderes tecnológicos e investigadores pidieron en una carta abierta un
compás de espera en el desarrollo de los nuevos sistemas, dados los “profundos riesgos para la
sociedad y la humanidad”, entre ellos Elon Musk, uno de los mayores inversores en desarrollar
estas nuevas tecnologías.

Hace unos meses apareció el ChatGPT, desarrollado por el laboratorio de investigación OpenAI,
que se engloba entre los llamados chatbots o programas que responden a preguntas con alto
grado de complejidad, que pueden escribir ensayos, cuentos o poesía, así como hacer dibujos e
ilustraciones en cuestión de segundos. Con su salida al mercado se pondría en riesgo inmediato
un alto número de puestos de trabajo y tendría un significativo impacto para el medio
ambiente. La energía que consumen los potentes servidores donde se almacena toda la
información existente, conocidos como “la nube”, se calcula que de momento está entre el 1 %
y el 2 % del total mundial. Según los analistas, esta cifra aumentaría de manera alarmante, con
el riesgo de contaminación que ello implica para el planeta.

Estos cuestionamientos se dan en medio de la carrera que desarrollan gigantes tecnológicos


como Google o Microsoft por salir al mercado lo más pronto y con el mayor avance posible. El
científico jefe de Google, Jeff Dean, dijo que siguen “comprometidos con un enfoque
responsable de la IA. Estamos continuamente aprendiendo a comprender los riesgos
emergentes al mismo tiempo que innovamos con audacia”. A pesar de que intenta explicar, no
tranquiliza este comentario ante tantos interrogantes.

Lo cierto es que urge un profundo análisis sobre los alcances, los peligros y las medidas
destinadas a poner orden ante esta nueva realidad y sus efectos en la vida diaria. “Este texto ha
sido generado por un humano. ¿O quizá no?”, así concluye su artículo en The Economist el
pensador Harari. La misma lógica se podría aplicar a este editorial o a cualquiera de los escritos
que aparecen publicados en los medios de comunicación o en las redes sociales.

También podría gustarte