Está en la página 1de 3

LAION Large Scale Artificial Intelligence Open Network

En una era de avances tecnológicos sin precedentes, la humanidad se encuentra al borde


de una nueva época caracterizada por la profunda influencia de la inteligencia artificial (IA) y
sus modelos fundamentales, como GPT-4. Las aplicaciones potenciales de estas
tecnologías son amplias y abarcan la investigación científica, la educación, la gobernanza y
las pequeñas y medianas empresas. Para aprovechar todo su potencial como herramientas
para el mejoramiento de la sociedad, es vital democratizar la investigación y el acceso a
ellos, para no enfrentar graves repercusiones en nuestro futuro colectivo.

Cada vez más, somos testigos del surgimiento de un sistema en el que las instituciones
educativas, las agencias gubernamentales y naciones enteras se vuelven dependientes de
unas pocas grandes corporaciones seleccionadas que operan con poca transparencia o
responsabilidad pública. Para asegurar la independencia tecnológica de nuestra sociedad,
fomentar la innovación y salvaguardar los principios democráticos que sustentan nuestra
forma de vida, debemos actuar ahora.

Hacemos un llamado a la comunidad global, particularmente a la Unión Europea, los


Estados Unidos, el Reino Unido, Canadá y Australia, para colaborar en una iniciativa
monumental: el establecimiento de una instalación de investigación de supercomputación
de fuente abierta internacional, financiada con fondos públicos. Esta instalación, análoga al
proyecto CERN en escala e impacto, debería albergar una diversa gama de máquinas
equipadas con al menos 100 000 aceleradores de última generación (GPU o ASIC) de alto
rendimiento, operados por expertos en aprendizaje automático y comunidad de
investigación de supercomputación y supervisado por instituciones elegidas
democráticamente en las naciones participantes.

Este ambicioso esfuerzo proporcionará una plataforma para que investigadores e


instituciones de todo el mundo accedan y perfeccionen modelos avanzados de IA, como
GPT-4, aprovechando sus capacidades para el bien común. Al hacer que estos modelos
sean de código abierto e incorporar datos multimodales (audio, video, texto y código de
programa), podemos enriquecer significativamente la investigación académica, mejorar la
transparencia y garantizar la seguridad de los datos. Además, otorgar a los investigadores
acceso a los datos de entrenamiento subyacentes les permitirá comprender con precisión
qué aprenden estos modelos y cómo funcionan, algo imposible cuando están restringidos
por las API.

Además, la naturaleza de código abierto de este proyecto promoverá la investigación sobre


seguridad y protección, lo que permitirá que la comunidad académica y los entusiastas del
código abierto identifiquen y aborden los riesgos potenciales de manera más rápida y
transparente. Este es un paso vital para garantizar la seguridad y la confiabilidad de las
tecnologías de IA a medida que se integran cada vez más en nuestras vidas.
La instalación propuesta debe contar con laboratorios de investigación de seguridad de IA
con niveles de seguridad bien definidos, similares a los que se utilizan en los laboratorios de
investigación biológica, donde expertos de renombre internacional en el campo puedan
realizar desarrollos de alto riesgo, respaldados por regulaciones de instituciones
democráticas. Los resultados de dicha investigación de seguridad deben ser transparentes
y estar disponibles para la comunidad investigadora y la sociedad en general. Estos
laboratorios de investigación de seguridad de IA deberían ser capaces de diseñar
contramedidas oportunas mediante el estudio de desarrollos que, según un amplio
consenso científico, previsiblemente tendrían un impacto negativo significativo en nuestras
sociedades.

Económicamente, esta iniciativa traerá beneficios sustanciales a las pequeñas y medianas


empresas de todo el mundo.

Al proporcionar acceso a grandes modelos de base, las empresas pueden ajustar estos
modelos para sus casos de uso específicos mientras conservan el control total sobre los
pesos y los datos. Este enfoque también atraerá a las instituciones gubernamentales que
buscan transparencia y control sobre las aplicaciones de IA en sus operaciones.

Razones.

La importancia de este esfuerzo no puede ser exagerada. Debemos actuar con rapidez para
asegurar la independencia de las instituciones académicas y gubernamentales del
monopolio tecnológico de las grandes corporaciones como Microsoft, OpenAI y Google. Las
tecnologías como GPT-4 son demasiado poderosas y significativas para ser controladas
exclusivamente por unos pocos.

En un mundo donde la experiencia en aprendizaje automático y los recursos para el


desarrollo de IA se concentran cada vez más en las grandes corporaciones, es imperativo
que las empresas más pequeñas, las instituciones académicas, las administraciones
municipales y las organizaciones sociales, así como los estados-nación, afirmen su
autonomía y se abstengan de depender únicamente en la benevolencia de estas poderosas
entidades que a menudo están impulsadas por intereses de ganancias a corto plazo y
actúan sin incluir adecuadamente a las instituciones democráticas en su ciclo de toma de
decisiones. Debemos tomar medidas inmediatas y decisivas para asegurar la
independencia tecnológica de nuestra sociedad, fomentando la innovación mientras
garantizamos la seguridad de estos desarrollos y protegemos los principios democráticos
que forman la base de nuestra forma de vida.

La propuesta reciente de desacelerar la investigación de la IA como medio para garantizar


la seguridad y el progreso presenta un enfoque equivocado que podría ser perjudicial para
ambos objetivos. Podría crear un caldo de cultivo para actores corporativos o estatales
oscuros y potencialmente maliciosos para hacer avances en la oscuridad y, al mismo
tiempo, reducir la capacidad de la comunidad de investigación pública para examinar
minuciosamente los aspectos de seguridad de los sistemas avanzados de IA. En lugar de
impedir el impulso del desarrollo de la IA y desplazar su desarrollo hacia áreas clandestinas,
un enfoque más sensato y eficaz sería fomentar un entorno de investigación mejor
organizado, transparente, consciente de la seguridad y colaborativo.

El establecimiento de laboratorios transparentes de seguridad de IA de código abierto


vinculados a la instalación internacional de investigación de IA a gran escala como se
describió anteriormente, que empleen expertos en seguridad de IA elegibles, tengan
recursos informáticos correspondientes financiados con fondos públicos y actúen de
acuerdo con las regulaciones emitidas por instituciones democráticas, cubrirá el aspecto de
la seguridad sin frenar el progreso. Al adoptar este marco cooperativo, podemos garantizar
simultáneamente el progreso y el desarrollo responsable de la tecnología de IA,
salvaguardando el bienestar de nuestra sociedad y la integridad de los valores
democráticos.

Le instamos a unirse a nosotros en esta campaña crucial. Firma esta petición y haz oír tu
voz. Nuestro futuro digital colectivo, la autonomía de nuestra investigación académica y el
equilibrio de nuestra economía global dependen de nuestra capacidad para actuar con
rapidez y decisión.

Juntos, podemos construir un futuro donde las tecnologías avanzadas de IA sean


accesibles para todos, y donde la innovación y el progreso no estén limitados por los límites
de unas pocas corporaciones poderosas. Aprovechemos esta oportunidad y construyamos
un futuro mejor para las generaciones venideras.

También podría gustarte