Está en la página 1de 2

Mitigar el riesgo de extinción para la humanidad que podría generar la IA debería

ser una prioridad mundial junto con otros riesgos a escala social, como las
pandemias o la guerra nuclear.

Esa es la conclusión, y también llamamiento, que comparten más de 35o ingenieros,


investigadores, directivos y expertos en inteligencia artificial que han firmado
una carta abierta publicada por Center for AI Safety, una organización sin ánimo de
lucro ubicada en San Francisco cuya misión se centra en la reducción de los riesgos
de la inteligencia artificial.

Geoffrey Hinton, considerado “padrino” de la IA, ha firmado la carta abierta

La misiva recoge las firmas de algunas personalidades destacadas del ecosistema


empresarial internacional y, especialmente, del competitivo terreno de la
inteligencia artificial. Así, en la lista de firmantes puede verse, entre otros, a
Demis Hassabis, CEO de Google DeepMind; Sam Altman, CEO de OpenAI; Dario Amodei,
CEO de Anthropic; o Kevin Scott, CTO de Microsoft. También se encuentra Geoffrey
Hinton, considerado “padrino” de la inteligencia artificial y quien ya advirtió de
los peligros de esta tecnología tras su salida de Google.

“Los expertos en IA, los periodistas, los legisladores y el público están


discutiendo cada vez más un amplio espectro de riesgos importantes y urgentes de la
IA. Aun así, puede ser difícil expresar inquietudes sobre algunos de los riesgos
más graves de la IA avanzada”, señala la escueta pero contundente carta, que
asegura tener por objetivo “superar este obstáculo y abrir la discusión”, así como
"crear un conocimiento común del creciente número de expertos y figuras públicas
que también toman en serio algunos de los riesgos más graves de la IA avanzada”.

De esta forma, el llamamiento recoge las preocupaciones de la industria y se alinea


con la opiniones expresadas por los expertos en anteriores ocasiones. Hace apenas
una semana, en la parada realizada en Madrid como parte de un tour internacional,
Sam Altman reclamó una mayor regulación de la inteligencia artificial y,
concretamente, que esta se centrara en los desarrolladores de grandes modelos, como
precisamente sería OpenAI, porque ahí es donde "la sociedad tiene interés en
asegurarse de que los modelos no causen un gran daño”.

NOTICIAS RELACIONADAS

/imagine prompt: Cómo usar la IA para obtener mejores respuestas creativas

Bill Gates cree que la IA acabará con los motores de búsqueda y sitios como Amazon

Anteriormente, Geoffrey Hinton, considerado uno de los profesionales pioneros de la


inteligencia artificial moderna y galardonado en 2018 con el Premio Turing por sus
contribuciones al campo del deep learning, alertó de los peligros de esta
tecnología en una entrevista. “Es difícil ver cómo se puede evitar que los malos
actores lo usen para cosas malas”, comentó a The New York Times. “Mira cómo era
hace cinco años y cómo es ahora. Coge esa diferencia y proyéctala hacia adelante.
Eso asusta".

Por su parte, Bill Gates, Co-Fundador de Microsoft, defendió hace unas semanas que
los gobiernos deben trabajar con el sector privado para encontrar formas de limitar
los riesgos. Su preocupación se centra, no obstante, en las denominadas
inteligencias artificiales fuertes. “Probablemente podrán establecer sus propios
objetivos. ¿Cuáles serán esos objetivos? ¿Qué sucede si entran en conflicto con los
intereses de la humanidad? ¿Deberíamos tratar de evitar que alguna vez se
desarrolle una IA fuerte? Estas preguntas se volverán más apremiantes con el
tiempo”, comentó.
La carta publicada por Center for AI Safety cogería el testigo de la firmada en
marzo por más de 1.000 expertos en IA, emprendedores tecnológicos y científicos
para solicitar al conjunto de la industria una pausa en el desarrollo y pruebas de
herramientas de IA más potentes que el modelo de lenguaje GPT-4 de OpenAI. El
objetivo, señalaron, es estudiar adecuadamente los riesgos que puedan plantear.

El G7 ha creado un plan de trabajo para establecer estándares de regulación para la


IA

“Proceso de Hiroshima ” del G7


Las reclamaciones de los expertos han llegado a los oídos de gobiernos y
reguladores. Y es que el G7, reunido la tercera semana de mayo en Japón, ha
impulsado el denominado “Proceso de Hiroshima”, un marco para desarrollar
conversaciones relacionadas con el establecimiento de estándares técnicos para la
gobernanza y regulación de la inteligencia artificial.

De momento, el grupo -integrado por Estados Unidos, Japón, Alemania, Gran Bretaña,
Francia, Italia, Canadá y la Unión Europea- no ha establecido medidas concretas,
pero ha señalado que la definición de estánderes ha de llevarse a cabo atendiendo a
valores democráticos conjuntos de transparencia, seguridad y protección contra los
abusos. Los ejes del trabajo conjunto serán: el reconocimiento de la importancia de
la inteligencia artificial, el equilibrio de sus riesgos y sus beneficios; y la
exigencia de medidas de seguridad.

También podría gustarte