Está en la página 1de 5

REGULANDO LA AI …

Estimado Tulio,

Bienvenidos a la edición inaugural de GZERO AI. Veinte años antes de que ChatGPT se convirtiera
en sinónimo de la revolución de la IA, todo el mundo estaba enloquecido por otro desafío de la
inteligencia artificial: los clips.

Nick Bostrom, un filósofo sueco en Oxford, reflexionó sobre una máquina futurista de inteligencia
artificial programada para producir clips. A través del aprendizaje automático, se volvería más
inteligente si produjera más clips. Con el tiempo, la máquina se volvería mucho más inteligente
que los humanos que la habían creado y la IA no permitiría que nada interfiriera con su objetivo de
fabricar más clips. En el experimento mental, esto conduce al fin del mundo, el llamado Apocalipsis
del clip.

La advertencia de Bostrom sobre las máquinas superinteligentes ofrece una forma de ver la IA y a
menudo se cita para ilustrar por qué se necesita desesperadamente una regulación. Del otro lado
están los tecnooptimistas, que describen las muchas formas en que la IA transformará el mundo
para siempre, como catalizar nuevas innovaciones médicas y marcar el comienzo de la prosperidad
económica. Ya sea que sea un pesimista o un tecno-optimista, y puede alternar todos los días
como lo hace la mayoría de nosotros, no hay duda de que la revolución de la IA está aquí, y
debemos comprender cómo afectará nuestras vidas. nuestro trabajo, nuestras economías y
nuestro futuro. En otras palabras, deberíamos entender la política de la IA.

Es por eso que acabamos de lanzar este, nuestro último boletín: GZERO AI. Nuestro lema aquí es
"Todo es político", por lo que nuestro enfoque es ver la IA a través del lente de la política, cómo
afecta su vida y su trabajo. ¿Se puede o se debe regular? ¿Dará lugar a una era de innovación o
armará a los agentes de la desinformación y provocará el caos? ¿O ambos?

Hace dos años, Ian Bremmer, a quien lees todos los miércoles en su boletín vespertino GZERO,
escribió un artículo en la revista Foreign Affairs titulado " El momento tecnopolar ", que detallaba
cómo la tecnología estaba remodelando el mundo. Las cosas se han acelerado desde entonces, por
lo que, en agosto de este año, Ian y Mustafa Suleyman, cofundador de DeepMind e Inflection AI,
escribieron un artículo de portada para Foreign Affairs titulado " La paradoja del poder de la IA:
¿Pueden los estados aprender a gobernar?". Inteligencia artificial: ¿antes de que sea demasiado
tarde? “Estos dos ensayos dan una idea de cuánto tiempo llevamos rastreando la IA y ofreciendo
nuevos conocimientos sobre el impacto que está teniendo en nuestro mundo. Y ahora vamos aún
más profundo.

GZERO AI le brindará información clara y a la altura de los ojos sobre cómo la IA está influyendo en
cada aspecto de nuestras vidas hoy y qué puede esperar del mañana. Algunos de ustedes pueden
sentirse abrumados por el tema, o pensar que es demasiado tarde ya que el barco de la IA zarpó,
pero la verdad es que el barco de la IA apenas ha abandonado el muelle. La revolución de la IA
recién está comenzando y todos ustedes no sólo son bienvenidos al debate, sino que deben estar
aquí.
GZERO AI le ofrecerá ideas originales de algunos de los pensadores más inteligentes del mundo y
perspectivas intrépidamente no partidistas, con nuestra voz amigable y ligera para garantizar que
esto no le recuerde a un seminario aburrido. Va a ser divertido.

Estamos encantados de darle la bienvenida al estimado Azeem Azhar a nuestra comunidad. Azeem
es un especialista en inteligencia artificial de renombre mundial, fundador de Exponential View y
escritor de bestsellers. No solo escribirá nuestra primera columna como invitado hoy, sino que
también contribuirá periódicamente con información sobre IA a nuestro boletín.

Además, estamos encantados de dar la bienvenida a dos pensadores increíblemente influyentes en


el espacio de la tecnología y la inteligencia artificial, Taylor Owen y Marietje Schaake , como
nuestros nuevos colaboradores habituales de videos sobre inteligencia artificial. Taylor es un
académico, escritor y locutor con una profunda experiencia en tecnología e inteligencia artificial.
Es catedrático Beaverbrook de Medios, Ética y Comunicaciones, director fundador del Centro de
Medios, Tecnología y Democracia y profesor asociado de la Escuela de Políticas Públicas Max Bell
de la Universidad McGill.

Marietje Schaake es directora de política internacional en el Centro de Política Cibernética de la


Universidad de Stanford y miembro de política internacional en el Instituto de Inteligencia Artificial
Centrada en el Humano de Stanford. También se desempeñó como miembro del Parlamento
Europeo por el partido liberal democrático holandés, donde se centró en políticas comerciales, de
asuntos exteriores y tecnológicas.

Podrás ver a Marietje o Taylor aquí todas las semanas mientras informan sobre las historias más
importantes de la IA y comparten sus ideas únicas y originales.

Entonces, ¡bienvenido a GZERO AI! Envíenos sus comentarios sobre las personas y los problemas
que desea cubrir, cualquier pregunta que tenga y sugerencias sobre cómo podemos mejorar. Todo
es político, especialmente la IA.

Todo el mundo quiere regular la IA


31 de octubre de 2023

BY Scott Nover
GZERO

El presidente de Estados Unidos, Joe Biden, firmó el lunes una orden ejecutiva expansiva sobre
inteligencia artificial, ordenando a un grupo de agencias gubernamentales que establezcan nuevas
reglas y estándares para los desarrolladores con respecto a la seguridad, la privacidad y el fraude.
Según la Ley de Producción de Defensa, la administración exigirá que los desarrolladores de IA
compartan datos de seguridad y pruebas para los modelos que están entrenando, con el pretexto
de proteger la seguridad nacional y económica. El gobierno también desarrollará directrices para
marcar el contenido generado por IA y nuevos estándares para proteger contra "riesgos químicos,
biológicos, radiológicos, nucleares y de ciberseguridad".
La orden de Estados Unidos llega el mismo día en que los países del G7 acordaron un “código de
conducta” para las empresas de IA, un plan de 11 puntos llamado “Proceso de IA de Hiroshima”.
También se produjo apenas unos días antes de que funcionarios gubernamentales y líderes de la
industria tecnológica se reunieran en el Reino Unido en un foro organizado por el primer ministro
británico, Rishi Sunak. El evento se llevará a cabo mañana y jueves 1 y 2 de noviembre en Bletchley
Park. Si bien varios líderes mundiales han dejado de asistir a la cumbre de Sunak, incluidos Biden y
Emmanuel Macron, la vicepresidenta de Estados Unidos, Kamala Harris, y la presidenta de la
Comisión Europea, Ursula von der Leyen, planean participar.

Cuando se trata de regulación de la IA, el Reino Unido está tratando de diferenciarse de otras
potencias globales. La semana pasada, Sunak dijo que “la respuesta del Reino Unido es no
apresurarse a regular” la inteligencia artificial y también anunció la formación de un Instituto de
Seguridad de la IA del Reino Unido para estudiar “todos los riesgos, desde los daños sociales como
los prejuicios y la desinformación hasta los más extremos”. riesgos de todos”.

La cumbre de dos días se centrará en los riesgos de la IA y su uso de grandes modelos de lenguaje
entrenados con enormes cantidades de texto y datos.

A diferencia de la UE de von der Leyen, con su estricta regulación de la IA, el Reino Unido parece
más interesado en atraer empresas de IA que en controlarlas inmediatamente. En marzo, el
gobierno de Sunak reveló su plan para un enfoque “pro-innovación” para la regulación de la IA. Al
anunciar la cumbre, el Departamento de Ciencia, Innovación y Tecnología del gobierno se jactó de
las “sólidas credenciales” del país en IA: emplea a 50.000 personas, aporta 3.700 millones de libras
a la economía nacional y alberga empresas clave como DeepMind (ahora propiedad de Google). ,
al tiempo que invierte £100 millones de libras esterlinas en investigación de seguridad de la IA.

A pesar del enfoque ligero del Reino Unido hasta el momento, el Consejo de Relaciones Exteriores
describió la cumbre como una oportunidad para que EE.UU. y el Reino Unido, en particular, se
alineen en torno a las prioridades políticas y "superen el tecno-libertarismo que caracterizó los
primeros días de la IA". formulación de políticas en ambos países”.

OpenAI versus IA catastrófica


31 de octubre de 2023
BY Scott Nover

OpenAI, la muy publicitada startup detrás del chatbot ChatGPT y el generador de imágenes DALL-E,
anunció esta semana la formación de un equipo de preparación interno , diseñado para frenar los
“riesgos catastróficos” que plantea la IA. Entonces, ¿qué les preocupa exactamente? Sólo
amenazas “químicas, biológicas, radiológicas y nucleares”. ¿Eso es todo? Bueno, también existe la
“replicación y adaptación autónoma” mediante la cual los modelos podrían volverse
increíblemente poderosos reuniendo recursos y haciendo copias de sí mismos.

El director ejecutivo de OpenAI, Sam Altman, se ha embarcado simultáneamente en una gira global
pidiendo una regulación de la IA y presionando para que se establezcan reglas que se alineen con
su visión.
Se debe aplaudir a OpenAI por intentar evitar que sus propios productos se conviertan en una
amenaza nuclear, algo de lo que la mayoría de las empresas no deben preocuparse. Pero lo que
también está sucediendo aquí es que una de las empresas de IA de más alto perfil del mundo está
indicando a los reguladores globales que es un actor responsable y que ya se está regulando a sí
misma.

Si bien el analista senior de Eurasia Group, Nick Reiners, cree que Altman se toma en serio su
compromiso de evitar desastres, no cree que los esfuerzos de autorregulación por parte de las
empresas disuadan a los gobiernos de adoptar sus propias regulaciones sobre IA. La administración
Biden, por ejemplo, “comenzó a lograr que empresas como OpenAI firmaran una serie de
compromisos voluntarios en julio, por lo que si [ellos] creyeran en un enfoque puramente
voluntario, entonces lo habrían dejado así”, dijo Reiners. . "En lugar de eso, están convirtiendo
estos compromisos en obligaciones legales, y lo están haciendo a una velocidad impresionante
para los estándares gubernamentales".

El papel de AI en la guerra entre Israel y Hamas hasta ahora


30 de octubre de 2023
By Taylor Owen

La inteligencia artificial está cambiando el mundo y nuestra nueva serie de videos GZERO AI
explora lo que significa para usted: desde la desinformación y la regulación hasta el impacto
económico y político. Copresentado por Taylor Owen, profesor de la Escuela de Políticas Públicas
Max Bell de la Universidad McGill y director de su Centro de Medios, Tecnología y Democracia, y
por Marietje Schaake, becaria de política internacional, Inteligencia artificial centrada en el ser
humano de Stanford y ex parlamentaria europea. , esta serie de videos semanal lo ayudará a
mantenerse actualizado y comprender las últimas noticias sobre la revolución de la IA.

En el primer episodio de la serie, Taylor Owen analiza cómo la inteligencia artificial está dando
forma a la guerra entre Israel y Hamás.

Mientras la situación en Medio Oriente continúa escalando, hoy nos preguntamos ¿cómo está
dando forma la inteligencia artificial a la guerra entre Israel y Hamás? La respuesta corta es que no
tanto como muchos esperaban. Creo que aquí hay dos advertencias sobre el poder de la IA, y un
lugar donde se ha demostrado que la IA realmente importa. La primera advertencia es sobre el
valor de la IA predictiva. Durante años, muchos han estado argumentando que la IA podría no sólo
ayudarnos a comprender el mundo tal como es, sino que también podría ayudarnos a predecir
eventos futuros. En ninguna parte esto ha sido más cierto que en el mundo de la seguridad
nacional y la vigilancia policial.

Ahora, Gaza resulta ser una de las regiones más encuestadas del mundo. El uso de drones,
reconocimiento facial, puestos de control fronterizos y escuchas telefónicas han permitido al
gobierno israelí recopilar grandes cantidades de datos sobre la población de Gaza. Si a esto le
sumamos el hecho de que el director del Ministerio de Defensa israelí ha dicho que Israel está a
punto de convertirse en una superpotencia de IA, uno podría pensar que el gobierno podría haber
tenido la capacidad de predecir tales eventos. Pero el 7 de octubre, este no fue el caso. El
gobierno, el ejército y los propios ciudadanos israelíes fueron tomados por sorpresa por este
ataque.

La realidad, por supuesto, es que por muy poderosa que pueda ser la IA, es tan buena como los
datos que la alimentan y, a menudo, si los datos están sesgados o simplemente son incorrectos,
también lo será la capacidad predictiva. Así que creo que debemos ser muy cautelosos,
particularmente con respecto a los argumentos de venta que hacen las empresas que venden estas
herramientas predictivas a nuestra policía y a nuestros servicios de seguridad nacional. Creo que es
necesario cuestionar la certeza de que lo están haciendo.

La segunda advertencia que añadiría es sobre el papel que desempeña la IA en la creación de


información errónea. No me malinterpreten, ha habido muchísimo en este conflicto, pero en
realidad no han sido los medios sintéticos o las falsificaciones profundas lo que muchos temían
que serían un gran problema en eventos como este. En cambio, la desinformación ha sido de baja
tecnología. Han sido fotos y vídeos de otros hechos sacados de contexto y mostrados como si
fueran de éste. Han sido falsificaciones baratas, no falsificaciones profundas. Ahora, ha habido
algunos casos incluso en los que las herramientas de detección de deepfake de IA, que se
implementaron en respuesta al problema de los deepfake, en realidad han identificado falsamente
imágenes de IA como creadas por IA. En este caso, la amenaza de los deepfakes está causando más
estragos que los propios deepfakes.

Finalmente, sin embargo, creo que hay un lugar donde la IA está causando un daño real en este
conflicto y es en las redes sociales. Nuestro Twitter, nuestro Facebook y nuestros feeds de TikTok
están siendo moldeados por algoritmos de inteligencia artificial. Y muy a menudo, estos algoritmos
refuerzan nuestros prejuicios y alimentan nuestra ira colectiva. El mundo visto a través de
contenidos que sólo nos enojan es fundamentalmente distorsionado. Y, en términos más
generales, creo que los llamados a controlar las redes sociales, ya sea por parte de las propias
empresas o a través de la regulación, están siendo reemplazados por nociones opacas y mal
definidas de la gobernanza de la IA. Y no me malinterpreten, la política de IA es importante, pero
es el ecosistema de redes sociales el que todavía está causando un daño real. No podemos quitar
la vista de esa bola de políticas.

También podría gustarte