Está en la página 1de 3

Una pausa cuestionable en la inteligencia artificial

Nuria Olivier1

2 mayo 2023

Frente a la visión de quienes quieren adaptar la humanidad a la tecnología, y no al revés, es


el momento de actuar como sociedad, definiendo colectivamente los horizontes éticos y
políticos de la IA

La inteligencia artificial (IA) vive tiempos convulsos. En los últimos meses, hemos sido
testigos de avances sin precedentes en las técnicas de inteligencia artificial generativa que
permiten de manera muy sencilla crear, casi instantáneamente, textos, música, imágenes,
voz, vídeos o código con un nivel de competencia similar o incluso superior al de los
humanos. El hecho de que, por primera vez en nuestra historia, lo que leemos, vemos o
escuchamos no haya sido creado por un humano plantea profundos dilemas sociales y éticos
que sin duda debemos abordar.

Hace poco más de un mes, el Future of Life Institute publicó una carta apoyada por miles de
personas —incluyendo figuras destacadas como el historiador y filósofo Yuval Noah Harari,
el experto en IA y ganador del Premio Turing, Joshua Bengio o el empresario Elon Musk—
en la que se propone una “pausa de la inteligencia artificial”, interrumpiendo durante al
menos seis meses el desarrollo de sistemas de inteligencia artificial que sean más poderosos
que GPT-4 (la última versión pública de ChatGPT) y se pide el desarrollo de protocolos de
seguridad rigurosos y un sistema de gobernanza de la IA sólido para garantizar que los
efectos de estos sistemas sean positivos y manejables.

Sin duda, es prioritario y necesario desplegar sistemas de gobernanza y regulación que


garanticen que el impacto social de la inteligencia artificial sea positivo. Sin embargo, las
motivaciones de la institución que promueve la carta, así como el foco en evitar un riesgo
existencial para la humanidad debido a la IA, son altamente controvertidos y cuestionables.
No es sorprendente que tras su publicación, la carta haya suscitado tantos defensores como
detractores, hasta la publicación, unos días después, de una contundente respuesta a la
misma por parte de las autoras de uno de los artículos citados por la carta. ¿Qué hay detrás
de este debate? ¿Nos enfrentamos realmente a una amenaza existencial a causa del
desarrollo de la inteligencia artificial? ¿Nos encontramos en la antesala del fin de la
humanidad?

Para poder entender esta carta y sus propuestas es preciso conocer las teorías del
movimiento —religión para algunos— largoplacista y el llamado altruismo efectivo que han
promovido su publicación.

1 Nuria Oliver es doctora en Inteligencia Artificial por el MIT, cofundadora y vicepresidenta de


ellis.eu.
Más allá de la indefinición de la carta (qué significa “sistemas más poderosos que GPT-4″
cuando desconocemos el poder de GPT-4 al ser un sistema totalmente opaco) y de su
simplificación de la complejidad del reto (es imposible que en seis meses se desarrollen
modelos de gobernanza de la IA cuando en Europa llevamos dos años trabajando en la
regulación europea, el AI Act), la carta omite poner el foco en los riesgos y consecuencias
negativas reales del desarrollo y despliegue masivo de la inteligencia artificial en la sociedad.
Por contra, se centra en los potenciales “riesgos existenciales” que plantea la inteligencia
artificial y que supuestamente impedirían el progreso de la humanidad. Progreso que, según
el largoplacismo, consiste en la creación de trillones de post-humanos digitales, viviendo en
una gran simulación computacional y colonizando el espacio gracias a una omnipresente y
todopoderosa inteligencia artificial amiga.

Esta visión es evidentemente controvertida y no necesariamente compartida por la sociedad


en su conjunto. También es una visión peligrosa, porque justifica ignorar los grandes retos
de los humanos de carne y hueso de hoy en día, en tanto que dichos retos no representen
un riesgo existencial. Justifica, por ejemplo, no invertir recursos en mitigar la desigualdad o
la pobreza en el mundo de hoy si no son un riesgo existencial para el desarrollo de la post-
humanidad. En el contexto de la inteligencia artificial, desvía la atención de los retos
inminentes y riesgos reales que la IA nos plantea y se centra en el riesgo que conllevaría una
hipotética inteligencia artificial sobrehumana y desbocada.

Retos como la violación de la privacidad y el uso de cantidades masivas de datos sin


consentimiento expreso y potencialmente infringiendo los derechos de propiedad
intelectual de los creadores de dichos datos; la explotación de los trabajadores que anotan,
entrenan y corrigen sistemas de IA, muchos de ellos en países en desarrollo con sueldos
ínfimos; los sesgos y la discriminación algorítmicos que no solo perpetúan sino incluso
exacerban estereotipos, patrones de discriminación y sistemas de opresión; la falta de
transparencia tanto en los modelos como en sus usos; la ingente huella de carbono de las
grandes redes neuronales que conforman estos sistemas de IA; la manipulación subliminal
del comportamiento humano por parte de algoritmos de IA; la falta de veracidad de los
sistemas de IA generativa queinventan todo tipo de contenidos (imágenes, textos, audios,
videos...) sin correspondencia con el mundo real; la fragilidad de estos grandes modelos que
pueden equivocarse y ser engañados;o la concentración de poder en las manos de un
oligopolio de empresas y sus multimillonarios dueños o inversores. Todas estas cuestiones
de tal importancia que deberían ser nuestra prioridad, brillan por su ausencia.

Es evidente que las peligrosas teorías largoplacistas han penetrado no solo en los círculos
de influencia del sector tecnológico, sino también en instituciones gubernamentales. Teorías
que propugnan la necesaria adaptación de la humanidad a un desarrollo tecnológico
decidido por un grupo privilegiado, en lugar de promover el desarrollo de tecnología que
se adapte a las personas y sus necesidades (y no al revés); tecnología que nos ayude a
afrontar los inmensos retos del siglo XXI; tecnología, en suma, que represente un progreso,
entendido el progreso como una mejora de la calidad de vida de las personas (de todas, no
solo de algunas), del resto de seres vivos y de nuestro planeta.
La “carrera por la inteligencia artificial” no es una carrera que hemos decidido y consensuado
colectivamente. Los inmensos experimentos sociales que se derivan del despliegue masivo
de algoritmos de inteligencia artificial en nuestras sociedades sin ningún tipo de regulación
y control no forman parte de un futuro inevitable y un falso determinismo tecnológico, sino
que son fruto de las decisiones de las empresas responsables de dichos sistemas —movidas
por ambiciosos intereses económicos y aspiraciones de poder— y de la incapacidad de las
sociedades y sus instituciones para reaccionar a tiempo y regular acordemente.

Es momento de actuar como sociedad, definiendo colectivamente los horizontes éticos y


políticos de la IA, porque estamos hablando de ciencia y tecnología, pero también de
derechos, de economía, de democracia, de igualdad, de inclusión, de ciudadanía, de paz y
de poder.

Gandhi dijo que “el poder para cuestionar es la base del progreso humano”. Es tiempo no
sólo de cuestionar, sino especialmente de encontrar respuestas para las profundas
preguntas que plantea la inteligencia artificial. No hay sociedad más vulnerable y fácilmente
manipulable que una sociedad ignorante. Por ello, es tiempo de educar, de aprender y de
no dejarnos caer en el sensacionalismo apocalíptico. Es tiempo de ser dueños de nuestro
destino, de regular la IA con inteligencia y de enfocarnos en detener las prácticas abusivas y
el daño social causado por las empresas detrás de los avances de la inteligencia artificial,
que en la última década han acumulado poder sin precedentes y han contribuido a la
desigualdad social. Es tiempo de invertir en inteligencia artificial que contribuya al progreso,
sin dejar a nadie atrás y sin destruir el planeta en el proceso. No dejemos que sean otros —
humanos o algoritmos— los que decidan nuestro futuro.

https://elpais.com/opinion/2023-05-03/una-pausa-cuestionable-en-la-inteligencia-
artificial.html?rel=buscador_noticias

También podría gustarte