Está en la página 1de 31

CARÁTULA

1
Índice

Carta del Secretario General 3


Carta de la Mesa Directiva 4
Introducción a la Sexta Comisión de la Asamblea General de las Naciones Unidas “LEGAL” 6
Introducción al tema 7
Origen del problema 8
La Inteligencia Artificial y la vulneración del campo laboral 8
Los riesgos de la IA en el aspecto laboral se pueden resumir en los siguientes puntos 8
La Inteligencia Artificial como arma autónoma 9
El informe del Grupo de Alto Nivel destaca los siguientes riesgos de la IA en el aspecto bélico 9
IA y la vulneración de la privacidad 10
Acciones pasadas 12
Situación actual 14
Casos de estudio 16
Artistas de California contra la IA 16
Las consecuencias de una IA desregulada sobre el copyright 17
Los retos del derecho interno frente al derecho de autor 18
La noción de «copyright» en el Derecho Internacional Público 19
Proyecto de supervisión de IA para la UE 20
La gobernanza de IA en Brasil: hacia un modelo integral y coordinado 21
Máquinas xenofóbicas: Amnistía Internacional vs. Países Bajos 23
No es demasiado tarde: Regulación de armas autónomas 25
Preguntas Que Toda Resolución Debe Responder - QARMAS 27
Recomendaciones Finales 28
Bibliografía 29

2
Carta del Secretario General

Estimados delegados, delegadas y Faculty Advisors,

Es un privilegio darles la bienvenida a USILMUN Universidades 2023. Mi nombre es Juan Pablo Campos
Vásquez y es un honor para mí servir como su Secretario General para la décima edición de USILMUN
Universidades. Actualmente, estoy en mi cuarto año estudiando Relaciones Internacionales en la Universidad San
Ignacio de Loyola con una Doble Grado en International Business en la Universidad San Ignacio de Miami,
Florida. Las Naciones Unidas Modelo (Model UN) ha demostrado ser una parte muy importante de mi carrera
universitaria, y estoy agradecido por haber sido parte de esta importante conferencia, ya que fue el primer debate
universitario al que asistí.

Junto a Jose Arroyo, Sub Secretario General para esta conferencia y compañero de esta casa de estudios y a quien
agradezco el gran apoyo que ha sido para la organización, y mi persona, hemos dedicado innumerables horas para
asegurarnos junto al Secretariado de que el contenido y la presentación de este documento sean de la más alta
calidad y que se les proporcionen las herramientas más útiles para tener éxito en la conferencia. Este documento
les proporcionará la carta de bienvenida de su Director y la Guía de Estudios de su comité. Además de este
documento, también podrán acceder a una serie de documentos adicionales que les ayudarán en su preparación
para la conferencia, los cuales pueden encontrar en nuestro perfil de Instagram, como las Reglas de Procedimiento
Parlamentario y la Guía de Documento de Postura Oficial. Si tienen alguna pregunta sobre este documento, las
otras guías o su comité en general, no duden en ponerse en contacto con su Director o con el Secretariado. ¡Espero
que disfruten leyendo la siguiente guía!

Durante los días 3 y 4 de noviembre, espero ver el esfuerzo y la preparación de todos los delegados mientras
representan diferentes Estados y defienden sus intereses. Al mismo tiempo, es importante que la diplomacia
prevalezca durante estos días de debate para llegar a un consenso con propuestas viables y efectivas que aborden los
problemas globales actuales. Por último, espero con gusto esta edición de USILMUN Universidades, y no hay
duda de que será una experiencia altamente enriquecedora en sus vidas. Estoy contando los días hasta que
comience la conferencia, y confío en que la manejarán de la mejor manera posible. ¡No olviden creer en ustedes
mismos, intentar hacer algo innovador, no temer tomar riesgos y, sobre todo, divertirse!

Con mis mejores deseos, les doy mi despedida, y que Dios derrame bendiciones sobre cada uno de ustedes.

Atentamente,

Juan Pablo Campos Vásquez | Secretario General

3
Carta de la Mesa Directiva

Estimados delegados y delegadas,

Mi nombre es Marco Alonso Ato Sullón, y actualmente estudio Derecho en la Pontificia Universidad Católica del
Perú. Mi trayectoria en el Modelo de Naciones Unidas (MUN) comenzó en 2015, cuando era delegado escolar en
el Lima High School (LHS). Luego, formé parte en International Delegation of Perú (IDP), participando en
diversas conferencias a nivel nacional y llegando a integrar el Consejo Directivo.

En la actualidad, desempeño el rol de docente en el Taller de MUN en el LHS, delegación recientemente


reconocida como Mejor Delegación Pequeña en el Reina del Mundo MUN 2023. Con ocho años de experiencia
en el MUN, he sido coach en varias delegaciones y he ocupado posiciones en la Mesa Directiva en conferencias
tanto escolares como universitarias.

En el presente comité «LEGAL» de la magna conferencia USILMUN Universitarios 2023, abordaremos los
desafíos jurídicos de la Inteligencia Artificial. Los delegados tendrán la oportunidad de comprender, cuestionar y
defender los intereses de las políticas de sus países desde una perspectiva legal. Es importante destacar que, junto
con nuestra codirectora Alejandra Lecaros, hemos dedicado mucho esfuerzo en la preparación de esta guía de
estudio. Pueden contar con nuestro compromiso y dedicación para que esta experiencia sea enriquecedora.

Asimismo, esperamos que los epígrafes siguientes les resulten útiles, proporcionándoles un sólido portafolio de
investigación que les permita realizar intervenciones concisas y sustanciosas. Pero, sobre todo, deseamos que
disfruten del debate, divirtiéndose y aprendiendo en el proceso.

¡Muchos éxitos!

Marco Alonso Ato Sullón | Director del Comité LEGAL

4
Estimados delegados y delegadas,

Es grato para mí recibirlos y darles una cordial bienvenida a esta edición X del Modelo de Naciones Unidas de la
Universidad San Ignacio de Loyola, en esta oportunidad los saluda Alejandra Lecaros Talavera, su directora en este
comité LEGAL. Actualmente me encuentro estudiando la carrera de derecho con mención en negocios
internacionales y gestión pública en la casa de estudios que visitarán en esta oportunidad, además de un bachelor
degree norteamericano & business school en la San ignacio University en miami florida, con mi formación
académica buscó proyectarme a rendir en mi campo profesional con honor e integridad, además de conocimientos
y habilidades clave que me permitan hacer contribución al desarrollo de mi país y del mundo, creo firmemente que
el derecho es una herramienta poderosa para la transformación de las distintas realidades globales y estoy
convencida de que el futuro no es de quien busque lo que el mundo puede ofrecerle, sino de quien trabaja
arduamente día a día para ver qué puede ofrecerle al mundo, quiero ser parte de ese cambio, y estoy segura de que
ustedes también.

Considero al modelo como una gran adición que llegó a mi junto con los primeros indicios de mi vocación,
mostrándome una nueva realidad en la que los jóvenes podemos involucrarnos tanto en la política internacional
como en asuntos globales de suma importancia, haciendo visible al mundo tal y como es, sus virtudes y sus
defectos, nos hace conscientes mientras impulsa el desarrollo de nuestras habilidades, definitivamente una
herramienta clave en cuanto a la formación de líderes globales, genuinamente se ha convertido en una de mis
actividades preferidas debido a la diversidad de mecanismos que he logrado conocer y desarrollar a lo largo de los
diversos comités y el cómo esto me ha permitido crecer en lo profesional.

Quedo entusiasmada a la llegada de la competencia, espero ver la correcta implementación de los recursos
existentes así como la formulación realista de propuestas legales en relación a los ejes en cuestión, confío ser testigo
de los frutos de su arduo esfuerzo en el comité, es importante destacar que, junto con nuestro codirector Marco
Ato, nos hemos dedicado con esmero a la correcta preparación de esta guía de estudio, herramienta clave para su
desarrollo en el debate. Tengan por seguro que cuentan con nuestro compromiso total y dedicación para que esta
experiencia sea sumamente enriquecedora. Asimismo, esperamos que los epígrafes siguientes les resulten de
utilidad, proporcionándoles un sólido portafolio de investigación que les permita realizar intervenciones concisas
y sustanciosas. Pero, sobre todo, deseamos que disfruten del debate, divirtiéndose y aprendiendo en el proceso. Les
comparto mi correo electrónico [alejandra.lecaros.talavera@gmail.com] en caso quedase alguna interrogante o
en caso deseen presentarse. Tómense la libertad de hacerlo, estamos a un mensaje de distancia.

¡Animo a todos, nos vemos pronto!


Alejandra Lecaros Talavera | Directora del Comité LEGAL

5
Introducción a la Sexta Comisión de la Asamblea General de las Naciones Unidas “LEGAL”

La Asamblea General es el principal órgano deliberativo, normativo y representativo de la


Organización de las Naciones Unidas (ONU). Compuesto por los 193 Estados Miembros, proporciona un
foro único para un debate multilateral de cuestiones internacionales cubiertas por la Carta de las Naciones
Unidas. También desempeña un papel importante en el proceso de elaboración de normas y codificación del
derecho internacional.

La Asamblea General está facultada para hacer recomendaciones a los Estados sobre derechos y
asuntos de su competencia. También ha iniciado acciones legales y regulatorias que han beneficiado la vida de
millones de personas en todo el mundo. Inclusive, cuando surgen casos de amenaza o quebrantamiento de la
paz y el Consejo de Seguridad no puede pronunciarse, la Asamblea General puede hacerse cargo del hecho y
recomendar a sus miembros medidas colectivas para mantener o restaurar la paz y seguridad internacional.

La Sexta Comisión de la Asamblea General de las Naciones Unidas, conocida también como el
comité “LEGAL”, es el foro principal dedicado al examen de las cuestiones jurídicas en la ONU, el mandato
de la Sexta Comisión es examinar y formular recomendaciones sobre una amplia gama de cuestiones
jurídicas, se reúne anualmente durante el período de sesiones de la Asamblea General. Durante sus sesiones,
la Comisión escucha a expertos, examina informes y adopta resoluciones sobre las cuestiones jurídicas que le
competen.

Todos los Estados Miembros de la ONU tienen derecho a representación en la Sexta Comisión, e
incluso aquellos estados no miembros con estatus de observador también pueden asistir y participar en las
discusiones, siendo por ende una de las principales comisiones de la Asamblea, las resoluciones de la Sexta
Comisión son recomendaciones no vinculantes para los Estados Miembros. Sin embargo, desempeñan un rol
clave en el desarrollo del derecho internacional y en la promoción de la paz y la seguridad internacionales.

El comité LEGAL es un modelo complejo y multifacético que desempeña un papel fundamental en


el modelo y sistema de las Naciones Unidas. Su trabajo abarca un amplio espectro de cuestiones jurídicas,
desde el derecho internacional clásico hasta los temas emergentes relacionados con la tecnología, es un
organismo esencial para el mantenimiento de la paz y la seguridad internacionales, su trabajo contribuye al
desarrollo del derecho internacional y a la promoción del estado de derecho en todo el mundo.

6
Introducción al tema

Si bien no existe una definición única de IA, en general, es conceptualizada como un conjunto de
Tecnologías de Información y Comunicaciones (TIC) avanzadas, consistentes en “máquinas capaces de
imitar ciertas funcionalidades de la inteligencia humana, esta se encuentra en una etapa de desarrollo
exponencial transformando el mundo moderno como la conocemos. La IA se utiliza en una amplia gama de
aplicaciones, estos pueden estar basados en software y/o integrado en hardware específicos, progresos
recientes incluyen el desarrollo de algoritmos de aprendizaje maquinal que pueden mejorar automáticamente
sin instrucciones de los humanos, la IA podría en breve tiempo reemplazar a los humanos, no habiendo
normas ajustadas para situaciones a aplicar así como previsiones suficientes para la relación responsable
hombre-máquina.

Por otro lado el amplio desarrollo de la IA con fines bélicos plantea amenazas para la humanidad,
considerándose urgente la necesidad de revisar normas del derecho internacional humanitario y del derecho
internacional de los derechos humanos para adecuarlos a los escenarios modernos, los sistemas de armas de
alta tecnología, como el software de ciberataque y los drones armados, están empleando robots de combate
de varios tipos. La IA permite incrementar significativamente la eficiencia y el efecto letal de las armas
cinéticas modernas, a más de restringir o incluso eliminar por completo las intervenciones humanas en todos
los aspectos del diseño de la estrategia, de la organización de la batalla y la implementación.

La Sexta Comisión de la Asamblea General de las Naciones Unidas como el foro principal dedicado
al examen de las cuestiones jurídicas en la ONU. En el 77º período de sesiones de la Asamblea General, que se
celebrará en 2023, la Comisión examinará el tema "Legalidad y regulación de la IA en el mundo moderno".

La IA plantea importantes desafíos jurídicos, es necesario determinar si la IA es un sujeto de


derecho, o si está sujeta a las mismas normas legales que los humanos. También es necesario abordar las
cuestiones relacionadas con la responsabilidad por los daños causados por la IA, y con la protección de los
derechos humanos en este contexto.

La Sexta Comisión tendrá la oportunidad de debatir y formular recomendaciones sobre estos


desafíos jurídicos y contribuir a la adopción de resoluciones que ayuden a garantizar que la IA se desarrolle y
utilice de manera segura y responsable.

7
Origen del problema

La inteligencia artificial trae consigo diversas oportunidades de crecimiento y mejora a nivel global
en beneficio del correcto cumplimiento de los Derechos Humanos, sin embargo es necesario evaluar
críticamente su legalidad y determinar los parámetros de su uso, en cuestión de prevenir que esta sea utilizada
en contra de los mismos, es necesario tomar en cuenta la latente problemática que representa en casos como:

La Inteligencia Artificial y la vulneración del campo laboral

La inteligencia artificial (IA) tiene el potencial de transformar el mercado laboral de forma


significativa. Por un lado, la IA puede crear nuevos empleos y oportunidades, como en el desarrollo, la
implementación y la gestión de sistemas de IA. Por otro lado, la IA también puede automatizar tareas que
actualmente realizan los trabajadores humanos, lo que podría provocar un desempleo masivo.

Según un informe de la Organización Internacional del Trabajo (OIT), la IA podría provocar la


pérdida de hasta 850 millones de puestos de trabajo en todo el mundo para 2030. El informe también señala
que la IA podría crear hasta 970 millones de nuevos puestos de trabajo, pero que estos serán de naturaleza
diferente a los que se pierden.

En América Latina y el Caribe, el impacto de la IA en el mercado laboral podría ser particularmente


significativo. Según un informe de la Comisión Económica para América Latina y el Caribe (CEPAL), la IA
podría automatizar hasta el 25% de los empleos en la región para 2030.

Los riesgos de la IA en el aspecto laboral se pueden resumir en los siguientes puntos

● Pérdida de puestos de trabajo La IA podría automatizar tareas que actualmente realizan los
trabajadores humanos, lo que podría provocar un desempleo masivo.

● Desigualdad: La IA podría ampliar las desigualdades existentes en el mercado laboral, ya que los
trabajadores con mayores habilidades y educación serán los más beneficiados por la IA.

● Exclusión: La IA podría excluir a los trabajadores de las nuevas oportunidades que ofrece, ya que
estos podrían no tener las habilidades necesarias para adaptarse a los nuevos empleos.

8
La Inteligencia Artificial como arma autónoma

La inteligencia artificial (IA) tiene el potencial de transformar el campo de batalla de forma


significativa. Los sistemas de IA podrían ser utilizados para automatizar tareas militares, mejorar la toma de
decisiones y aumentar la precisión de los ataques. Sin embargo, la IA también plantea una serie de riesgos
para la seguridad internacional.

Uno de los principales riesgos de la IA en el aspecto bélico es el aumento de la letalidad. Los sistemas
de IA podrían ser utilizados para desarrollar armas autónomas que sean capaces de matar sin intervención
humana. Esto podría conducir a una escalada de la violencia y a un aumento del riesgo de errores.

Otro riesgo es el aumento de la desigualdad. Los sistemas de IA podrían ser utilizados por las grandes
potencias para obtener una ventaja militar sobre sus rivales. Esto podría conducir a un aumento de la
inestabilidad regional y a un mayor riesgo de conflicto.

Por último, la IA también plantea riesgos éticos. Los sistemas de IA podrían ser utilizados para
desarrollar armas que violen el derecho internacional humanitario. Esto podría conducir a un aumento de las
violaciones de los derechos humanos y a un mayor riesgo de guerra.

La ONU y sus instituciones están trabajando para abordar los riesgos de la IA en el aspecto bélico.
En 2019, el Secretario General de la ONU, António Guterres, estableció un Grupo de Alto Nivel sobre la IA
para la Paz y la Seguridad. El grupo publicó un informe en 2020 en el que identificó una serie de riesgos y
recomendaciones para la regulación de la IA en el ámbito militar.

El informe del Grupo de Alto Nivel destaca los siguientes riesgos de la IA en el aspecto bélico

● Aumento de la letalidad: Los sistemas de IA podrían ser utilizados para desarrollar armas
autónomas que sean capaces de matar sin intervención humana.

● Aumento de la desigualdad: Los sistemas de IA podrían ser utilizados por las grandes potencias
para obtener una ventaja militar sobre sus rivales.

● Riesgos éticos: Los sistemas de IA podrían ser utilizados para desarrollar armas que violen el
derecho internacional humanitario.

9
IA y la vulneración de la privacidad

La inteligencia artificial (IA) tiene el potencial de revolucionar muchos aspectos de nuestras vidas,
pero también plantea una serie de riesgos para la privacidad. Los sistemas de IA pueden recopilar y analizar
grandes cantidades de datos personales, lo que podría utilizarse para violar la privacidad de las personas.

Según un informe de la Oficina del Alto Comisionado de las Naciones Unidas para los Derechos
Humanos (ACNUDH), la IA podría utilizarse para:

● Seguimiento y vigilancia: Los sistemas de IA podrían utilizarse para rastrear los movimientos y
actividades de las personas, lo que podría utilizarse para fines de vigilancia o represión.

● Discriminación: Los sistemas de IA podrían utilizarse para discriminar a las personas en función de
su raza, origen étnico, género, orientación sexual u otras características personales.

● Manipulación: Los sistemas de IA podrían utilizarse para manipular a las personas, por ejemplo,
para influir en sus opiniones o comportamientos.

La ACNUDH ha advertido que la IA podría utilizarse para "minar los derechos humanos
fundamentales, como el derecho a la privacidad, la libertad de expresión y la libertad de asociación".

La IA y el «copyright»

El concepto de propiedad intelectual cuenta con diversas concepciones alrededor del mundo,
tenemos, por ejemplo, la crucial importancia que toma en sociedades del consumo como en Estados Unidos,
donde, como se expondrá más adelante, permite el acceso a ingresos a poblaciones históricamente oprimidas.
Por otro lado, en la perspectiva de la República Popular China, cuenta con un enfoque mucho más
comunitarista, no admitiendo en su derecho interno una concepción individualista del derecho de autor. Así,
la inteligencia artificial se proyecta como un riesgo potencial para el ejercicio de estos derechos individuales
sobre el «copyright».

La infracción de derechos de autor por IA

La IA puede utilizarse para generar contenido que infringe los derechos de autor de terceros. Por
ejemplo, la IA puede utilizarse para crear imágenes, vídeos o textos que copien obras protegidas por derechos
de autor.

10
La infracción de derechos de autor por IA es un riesgo emergente que requiere regulación. Según un
informe de la Organización Mundial de la Propiedad Intelectual (OMPI), el 43% de los creadores de
contenido en línea creen que la IA podría utilizarse para infringir sus derechos de autor.

11
Acciones pasadas

Las Naciones Unidas han tomado diversas acciones generales en materia de Inteligencia Artificial
(IA). En primer lugar, el sistema de la ONU ha gestionado cerca de trescientos casos y proyectos de IA que
cubren los 17 objetivos de desarrollo sostenible. Así, el reporte oficial del año 2022 de las actividades oficiales
de la ONU en la IA expresa que la Organización se ha comprometido a promover acciones a nivel de todo el
sistema para desarrollar capacidades relacionadas con la IA en los países en desarrollo, apoyar una
participación mayor de las partes interesadas y el intercambio de conocimientos, así también como la
promoción de desarrollo ético y la aplicación de las tecnologías de IA para el bien público.1 De igual modo,
las agencias de las Naciones Unidas han esbozado más de doscientos ochenta proyectos que aprovechan la IA
para mitigar el cambio climático, transformar la educación, combatir el hambre, eliminar la pobreza y
abordar todas las cuestiones cubiertas por los ODS.

Recientemente, en septiembre de 2023, el representante tecnológico de las Naciones Unidas,


Amandeep Gill, anunció en una entrevista a Associated Press que la ONU acordó la creación de un grupo
asesor sobre inteligencia artificial.2 En tal sentido, afirmó que «Los gobiernos del mundo deben garantizar que
las personas no utilicen la Inteligencia Artificial para violar los tratados de derechos humanos existentes
negociados por la ONU.»

Así también, de acuerdo a la junta de los jefes ejecutivos del sistema de Naciones Unidas para la
coordinación, la ONU se está centrando en el desarrollo de capacidades relacionadas con la IA para los países
en desarrollo, centrándose en los «mil millones de ciudadanos más pobres»3, apoyar una participación más
amplia de las partes interesadas y el intercambio de conocimientos dentro y fuera del sistema de las Naciones
Unidas sobre IA, y promover el desarrollo ético y la aplicación de tecnologías de IA para el bien público.

Ahora bien, respecto a acciones con particular implicancia jurídica sobre la IA, tenemos que las
Naciones Unidas han emergido como un actor clave en la configuración de una regulación global sobre la
Inteligencia Artificial (IA), reflejando su compromiso con un desarrollo ético y respetuoso de esta tecnología
mediante las siguientes declaraciones oficiales. En el 2019, el llamado del Secretario General de la ONU a

1
(International Telecommunication Union, 2023)

2
(Peltz, J., 2023)

3
(UNSCEB, 2023)

12
restringir los sistemas de armas letales autónomas subrayó la urgencia de abordar las implicaciones éticas y de
seguridad de la IA.4 Este posicionamiento se alinea con la perspectiva de Michelle Bachelet, Alta
Comisionada de las Naciones Unidas para los Derechos Humanos, quien en setiembre de 2021 abogó por
una «moratorium» —entendida como una declaración oficial de prohibición— en la venta y uso de sistemas
de IA que presenten riesgos significativos para los derechos humanos, evidenciando así una preocupación
compartida por la salvaguarda de los principios fundamentales.

Luego, tenemos que el 25 de noviembre del 2021, todos los estados miembros de la UNESCO
adoptaron un acuerdo global sobre la ética de la Inteligencia Artificial.5 Al establecer un marco normativo
global, otorga a los Estados la responsabilidad de implementar medidas éticas y transparentes a nivel nacional.
De igual modo, establece la obligación de informar periódicamente sobre los avances y prácticas refuerza la
rendición de cuentas, mientras que prohíbe explícitamente ciertos usos, como la «puntuación social» y la
vigilancia masiva, en salvaguarda de la protección de la privacidad y los derechos individuales. En conjunto,
estas acciones demuestran el compromiso de la ONU de guiar el desarrollo ético de la IA y garantizar su
aplicación respetuosa de los derechos humanos.

4
(UN News, 2019)

5
(UN News, 2021)

13
Situación actual

La Inteligencia Artificial (IA) se enfrenta a desafíos intrínsecos, careciendo de un lenguaje común y


una metodología verdaderamente interdisciplinaria, según señala Robles Carrillo.6 Además, esta tecnología,
tanto en su aspecto material como teleológico, altera los fundamentos organizativos de la sociedad humana,
incluso antes de alcanzar su máximo potencial. Aunque las tecnologías basadas en IA se hallan en una fase
temprana de desarrollo, plantean riesgos e incertidumbres significativos, destacándose problemas
fundamentales relacionados con la gobernabilidad, responsabilidad y consideraciones éticas.

Dado el profundo impacto social de la IA, diversas organizaciones y gobiernos muestran una
creciente inquietud por las implicaciones éticas asociadas. Esto se evidencia en la abundancia de informes
sobre la ética de la IA y en iniciativas a nivel regional y nacional que han emergido para articular principios y
valores destinados a orientar el desarrollo y la implementación de sistemas de IA. La preocupación
generalizada sobre la ética en la IA refleja la necesidad imperante de abordar las complejidades éticas
inherentes a esta tecnología emergente, a medida que se avanza hacia su integración más extensa en la
sociedad.

El desarrollo y la implementación de planes de acción en Inteligencia Artificial (IA) son realmente


limitados en el ámbito internacional, debido a la escasa capacidad tecnológica y económica de la mayoría de
los Estados. Todo ello, incluso, pese a que el impacto de la IA es global y abrumador, tan solo unos pocos
países cuentan con los recursos necesarios para liderar en este terreno. En tal sentido, la Organización de las
Naciones Unidas (ONU) emerge como una plataforma idónea para abordar las diversas perspectivas y
preocupaciones relacionadas con la IA, proporcionando un marco propicio para una cooperación
estructurada y eficiente. Dada la implicación de la IA en todas las sociedades humanas, la ONU podría actuar
como un ente regulador, promoviendo la equidad de oportunidades a nivel mundial y facilitando un espacio
legítimo y representativo para la cooperación internacional en esta área en el futuro.

Sin embargo, según reconoce De Clément, la actividad desplegada en el marco de las Naciones
Unidas se caracteriza por ser sectorial y fragmentada, centrándose en temas específicos sin abordar
integralmente el problema de la IA a nivel global. A pesar de propuestas de grupos de trabajo y la Agenda
2030, que busca un nuevo orden mundial con inclusión social interseccional, la estructura institucional
actual carece de la dinámica necesaria para lograr los objetivos de desarrollo sostenible en el plazo establecido.

6
(Robles Carrillo, 2020)

14
A nivel internacional, entidades como el Consejo de Europa y la Organización de Estados Americanos
promueven una IA centrada en el ser humano y la confianza pública, pero reconocen las dificultades para
establecer un marco normativo general dada la naturaleza en constante innovación y desarrollo de la IA.7

En última instancia, en el marco contextual de la situación actual, reconocemos la limitada


capacidad del Derecho Internacional Público para sancionar Estados en el contexto de la IA, no obstante,
identificamos la efectividad para abordar responsabilidades penales de individuos, ya sean agrupados o no.
Este contraste subraya la necesidad de adaptar y fortalecer los mecanismos legales internacionales para
abordar los desafíos éticos y regulatorios que plantea la IA en el escenario global.

7
(De Clement, 2022)

15
Casos de estudio

Artistas de California contra la IA

En enero de 2023, un grupo de artistas en California, Estados Unidos, demandaron a Stability AI,
Midjourney y DeviantArt por el uso de imágenes generadas por la Inteligencia Artificial «sin tener el
consentimiento ni una compensación adecuada» hacia los autores originales. Ello sucedería debido a que los
modelos de IA se nutren de bases de datos de imágenes, y muchos artistas han descubierto que sus creaciones
originales se emplean para entrenar a estos modelos de inteligencia artificial sin obtener reconocimiento
alguno.8 Una de las afectadas, Kelly McKernan, expresó lo siguiente: «Descubrí que mi trabajo había sido
utilizado unas doce mil (12000) veces, solo el año pasado, para una madre soltera y artista luchadora como yo, es
bastante molesto enterarse que estas empresas se benefician de mi nombre y de mi trabajo».9

De modo tal que, con la demanda, los artistas perjudicados buscan obtener una indemnización por
daños causados por Stability AI, DeviantArt y Midjourney, así como medidas cautelares para evitar mayores
perjuicios. El abogado Matthew Butterick señaló que estas tres empresas ya eran objeto de críticas por parte
de escritores, artistas y creadores en general. Respecto a ello, aquel abogado residente en Los Ángeles, en su
artículo titulado «¿La IA acabará con el Estado de Derecho?», se permite explicar su perspectiva y responder
a los defensores del uso indiscriminado de la IA en la creación de contenido artístico.

Así, el abogado Butterick afirma que los críticos a la regulación de la Inteligencia Artificial se han
sustentado en la construcción del mito que los artistas una IA regulada son luditas. A modo de contexto,
debemos mencionar que el movimiento ludita surgió a inicios del siglo XIX, en el Reino Unido, cuando el
empleo de maquinaria en la industria agrícola y textil redujo la demanda de mano de obra e impuso salarios
más bajos a los trabajadores industriales, por lo que, estos optaron por la destrucción de la maquinaria de las
fábricas. Vale mencionar que, etimológicamente, el ludismo se origina por la firma de las cartas enviadas a los
empresarios dueños de las fábricas, que llevaban el nombre de un imaginario denominado «General Ludd».
De esta manera, el terror que se generó en las clases dominantes fue tal que obligó al Parlamento a aprobar
mediante la «Frambreaking Bill», la pena de muerte a quien destruya un telar, ocasionando en los

8
(Associated Press, 2023)

9
(Deutsche Welle, 2023)

16
posteriores días catorce ejecuciones y trece personas deportadas a Australia.10 En síntesis, este recuento
histórico nos relata cómo el movimiento ludita pretendió boicotear el avance de la tecnología por su empleo
desregulado a costa de un agresivo costo social en la clase manufacturera en la Inglaterra de inicios del siglo
antepasado.

Ante ello, Butterick expresa que no cuenta con asidero alguno equiparar al pasado movimiento
ludita con la actual situación de los artistas que exigen una regulación de la Inteligencia Artificial que ampare
sus creaciones originales, para ello, hace hincapié en su experiencia, no solo como letrado, si no también como
escritor, artista y programador, mencionando que a lo largo de su carrera, en carne propia ha vivido la
necesidad de emplear medios tecnológicos de vanguardia para la elaboración de sus creaciones. Entonces,
dice, «ridiculizar a los artistas profesionales tildándolos de luditas es, en esencia, una locura (...) las
herramientas de la mayoría de los artistas son frecuentemente digitales y lo han sido durante años.»11 En
definitiva, este caso nos demuestra la importancia de la regulación de la creación, establecimiento de
responsabilidad y limitación del uso de inteligencia artificial por parte de las compañías y la protección de los
derechos de autor sobre los creadores originales.

Ahora bien, en cuanto respecta a la controversia puramente jurídica, podemos establecer que el caso
californiano pone en evidencia la necesidad de la protección de los derechos de autor en el derecho interno
frente a la inteligencia artificial. Respecto a ello, debemos hacer hincapié en los siguientes aspectos: (1) las
consecuencias de una desregulación de la IA en derechos de autor, (2) los retos del derecho interno respecto
al derecho de autor, y (3) los desafíos del Derecho Internacional sobre la noción de «copyright».

Las consecuencias de una IA desregulada sobre el copyright

Prima facie, según Ehrenberg, el derecho se comprende mejor en términos de las funciones sociales
que desempeña dondequiera que se encuentre en la sociedad humana.12 Desde esta perspectiva, resulta
menester considerar que, conforme a Hughes y Merges, el derecho de autor ha sido y sigue siendo una
herramienta importante para la distribución de la riqueza a un gran grupo diverso de creadores individuales.
En otras palabras, desde una perspectiva rawlsiana de justicia distributiva, la ley de derechos de autor en

10
(Sánchez, 2019)

11
(Matthew Butterick, 2023)

12
(Ehrenberg, 2016)

17
Estados Unidos permite a los individuos obtener ingresos y generar riqueza.13 En tal sentido, el derecho de
autor ha permitido que poblaciones históricamente oprimidas como los afroamericanos, puedan contar con
una igualdad de oportunidades.

Por lo tanto, se debe tomar en cuenta que, una desprotección de los derechos de autor por la
desregulación de la IA existe el riesgo de afectar la igualdad de oportunidades, al privar de ingresos a los
creadores artísticos por sus ganancias. Conforme a ello, esta desregulación tiene el riesgo de agravar
significativamente las desigualdades sociales al inclinar la balanza a favor de las grandes corporaciones,
dejando rezagados a sectores históricamente desprotegidos que contaban con los ingresos por derechos de
autor como medio de igualdad de oportunidades —hasta la llegada de la IA desregulada—.

En tanto que nos encontramos en un escenario sin controles adecuados por parte del derecho
interno, las compañías con mayores recursos tienen la capacidad de concentrar el uso de las nuevas
tecnologías, mediante una consolidación de posición dominante, relegando a artistas y creadores
independientes, por lo tanto, resulta crucial establecer marcos regulatorios que incentiven al derecho interno
de los Estados a equilibrar el impulso innovador de la IA con la protección de los derechos individuales de la
ciudadanía.

Los retos del derecho interno frente al derecho de autor

Luego, tenemos que los retos del derecho interno respecto al derecho de autor en el contexto de la
inteligencia artificial son multidisciplinarios y requieren un enfoque integral. En primer lugar, la regulación
ética de las corporaciones que, como las demandadas, emplean IA con fines comerciales se presenta como un
reto fundamental. Es preciso definir y establecer supuestos de hecho en las legislaciones internas adecuadas a
las realidades de cada Estado que no solo salvaguarden los derechos de autor de los creadores, sino que
también impongan estándares éticos en el uso de la IA, con la pretensión de asegurar transparencia y equidad
en las prácticas de las personas jurídicas involucradas en este rubro.

Asimismo, la capacidad de prevención, control y sanción a las empresas que incurren en faltas
relacionadas con el uso indebido de obras protegidas por derechos de autor mediante la inteligencia artificial
resulta esencial. Las autoridades regulatorias deben contar con los mecanismos adecuados para identificar y
abordar violaciones a las normas tipificadas, con los retos infraestructurales que ello implica, sobre todo en

13
(Hughes & Merges, 2016)

18
países en vías de desarrollo, con el fin de garantizar que las sanciones sean lo suficientemente disuasorias para
desincentivar conductas infractoras.

No obstante, enfrentar estos desafíos se ve complicado por los retos políticos involucrados. Los
lobbies de las grandes corporaciones en el cabildeo de los parlamentos y partidos políticos de diferentes países
pueden influir negativamente en la creación de regulaciones efectivas.14 En tal sentido, la presión económica y
política ejercida por estas entidades puede obstaculizar la adopción de medidas legislativas que protejan de
manera adecuada los derechos de autor frente al uso desregulado de la inteligencia artificial. De tal modo,
superar estos obstáculos políticos requerirá un compromiso significativo por parte de los legisladores para
asegurar una regulación equitativa y justa que responda a los retos emergentes en la era de la inteligencia
artificial.

La noción de «copyright» en el Derecho Internacional Público

La regulación de la inteligencia artificial a nivel del Derecho Internacional Público (DIP) enfrenta
desafíos sustanciales debido a las marcadas diferencias en la cosmovisión del derecho de autor entre Estados
Unidos de América y la República Popular China. En primer lugar, las disparidades en los enfoques
culturales y legales sobre la propiedad intelectual generan un terreno complejo para la armonización de
normativas a nivel internacional. Mientras que en Estados Unidos prevalece un sistema de derecho de autor
más orientado hacia el individuo y la protección de la propiedad intelectual, China tiende a favorecer un
enfoque colectivo donde los intereses del Estado a menudo se entrelazan con la propiedad intelectual,
incluso, siendo esta nación acusada de emplear sistemáticamente las normas de derecho de autor, más bien,
como un mecanismo de censura a la libertad de expresión15.

En segundo lugar, la regulación ética de la inteligencia artificial plantea retos significativos en el


ámbito internacional. La falta de consenso sobre los límites éticos y legales de la IA entre Estados Unidos y
China dificulta la creación de normativas que puedan considerar de manera efectiva los riesgos asociados con
el uso desregulado de esta tecnología. No cabe duda que las tensiones geopolíticas y la competencia
estratégica entre estas potencias también influyen en la voluntad de cooperación en la formulación de reglas
internacionales que guíen el desarrollo y la implementación de la inteligencia artificial16.

14
(Fairfield, T., 2015)

15
(McIntyre, S., 2011)

16
(Wang, C., 2023)

19
Por último, la cuestión de la aplicación y ejecución de las regulaciones a nivel global es un desafío
crucial. En tal sentido, las divergencias en los sistemas legales y la soberanía nacional plantean obstáculos para
establecer mecanismos efectivos de aplicación de normativas internacionales relacionadas con la inteligencia
artificial. De tal modo, la carencia de un marco legal global coherente y armonizable facilita la evasión de
responsabilidades por parte de actores internacionales que puedan comprometer la equidad y la justicia en el
uso de la inteligencia artificial.

Proyecto de supervisión de IA para la UE

La UNESCO y el Gobierno de los Países Bajos lanzaron un nuevo proyecto de supervisión de IA


para ayudar a crear un marco para la Unión Europea, las Naciones Unidas y el gobierno holandés anunciaron
planes para crear un marco para la supervisión ética de la inteligencia artificial, creando así un precedente
clave en la legalidad y regulación de la IA en Europa.

El pasado 5 de octubre del presente año, la Autoridad Holandesa para la Infraestructura Digital y la
Organización de las Naciones Unidas para la Educación, la Ciencia y la Cultura (UNESCO) lanzaron
oficialmente el proyecto "Supervisión de la IA por las autoridades competentes", que recopilará datos sobre
cómo supervisan la IA los países europeos, actualmente el proyecto cuenta con el financiamiento del
Instrumento de Apoyo Técnico (IAT) de la Comisión Europea, y la información recopilada por el proyecto
dará lugar a una lista de recomendaciones de "mejores prácticas".

Gabriela Ramos, sub-directora general de Ciencias Sociales y Humanas de la UNESCO, afirmó que
este debate no es tecnológico, sino social: “Estamos hablando del tipo de mundo en el que queremos vivir. Para
dar forma al desarrollo tecnológico de la IA, necesitamos marcos de gobernanza eficaces respaldados por los
valores éticos y morales que todos apreciamos.” Además de las mejores prácticas, la información recopilada
ayudará a crear futuras sesiones de formación para mejorar la "capacidad institucional" sobre el tema, la
UNESCO ya desempeñó un papel importante en la creación de directrices éticas para la IA en noviembre de
2021, que adoptaron todos sus Estados miembros.

Estas medidas de la UNESCO llegan después de que el Parlamento de la Unión Europea aprobara la
Ley de Inteligencia Artificial en junio de 2023. La Ley de IA es un amplio conjunto de normas para el
desarrollo de IA en la UE. El proyecto de ley fue propuesto por la Comisión Europea en abril, y después de
que el Parlamento votó abrumadoramente a su favor, los Estados miembros mantendrán negociaciones con
el Parlamento para ultimar los detalles.

20
Desde la aprobación de la ley en el Parlamento, la UE también ha introducido una iniciativa para las
nuevas empresas de IA en la región, que acelerará el acceso a los superordenadores, algunos países europeos
también han estudiado estrategias de regulación y desarrollo de IA. El 25 de agosto, España anunció sus
planes para crear una agencia local de regulación de IA y una estrategia nacional para garantizar que el
desarrollo de IA en el país sea "inclusivo, sostenible y centrado en el ciudadano". Por su parte, en Alemania,
los políticos y los expertos digitales están divididos en sus ideas sobre la mejor manera de gestionar y aplicar la
tecnología.

En medio del complejo panorama de la regulación de la inteligencia artificial en la Unión Europea,


las palabras contundentes de Mher Hakobyan, asesor de Amnistía Internacional, resuenan como una
advertencia crítica17. Su llamado a prohibir la elaboración de perfiles racistas y sistemas de evaluación de
riesgos que estigmatizan a las personas migrantes y solicitantes de asilo es un recordatorio urgente de los
riesgos éticos inherentes a la implementación indiscriminada de la inteligencia artificial. Hakobyan pone de
relieve la necesidad de abordar las tecnologías que predicen movimientos fronterizos, señalando cómo estas
podrían socavar el derecho fundamental de asilo al negar a las personas el refugio necesario. En este contexto,
la respuesta de los órganos legislativos europeos adquiere una nueva dimensión, ya que deben considerar
cuidadosamente no sólo los avances tecnológicos, sino también las implicaciones éticas y sociales de la
inteligencia artificial.

La gobernanza de IA en Brasil: hacia un modelo integral y coordinado

Brasil se ha convertido en uno de los protagonistas de la gobernanza de la Inteligencia Artificial (IA)


a nivel regional. Esto se debe a que el país ha tomado la iniciativa en el desarrollo de propuestas legales para
asegurar el uso racional de esta tecnología. A partir del año 2020 se han comenzado a realizar propuestas
administrativas, especialmente en el Congreso de la República, para regular algunos de sus usos. Esto ha
convertido a este parlamento en el centro para el futuro de la inteligencia artificial en el país, creando
principios en torno a la tecnología y facilitando debates regionales sobre el tema.

Ante este escenario, la Corporación Andina de Fomento está trabajando para apoyar a las
autoridades públicas brasileñas a tener una discusión altamente técnica y detallada sobre el uso responsable
de esta tecnología, teniendo en cuenta tanto los riesgos como los beneficios de esta innovación. La influencia
regulatoria puede ser significativa en el campo del emprendimiento tecnológico y la innovación en uno de los

17
(Amnistía Internacional, 2023)

21
mercados digitales más grandes del mundo. Por lo tanto, es importante que Brasil adquiera experiencia con
diferentes metodologías, como los marcos éticos de IA y el espacio de experimentación regulatoria, antes de
agotar las rutas legislativas.

En este sentido, se inició un apoyo importante en el año 2022 para el desarrollo de un marco ético de
Inteligencia artificial dentro de la Secretaría de Gobierno Digital. Este marco busca hacer una primera
aproximación a principios éticos en el sector público y en las entidades públicas que utilizan IA. A esto se une
el apoyo a la autoridad de protección de datos de Brasil, ANPD, para lograr mecanismos de experimentación
regulatoria, lo que ha llevado al diseño de un sandbox regulatorio en IA generativa.

Durante la misión realizada por el equipo de la Dirección de Transformación Digital a Brasilia en


junio de 2023 fue posible conocer los avances de estas iniciativas y el impacto que han tenido en el país. Se
pudo evidenciar que estos proyectos liderados por CAF han sido relevantes para el desarrollo de un debate de
alto nivel alrededor de este tema.

● Impacto en el proyecto de ley de IA (PL 2338/2023): Este es probablemente uno de los


proyectos más importantes en los que está trabajando el Congreso brasileño. El proyecto fue
precedido por una comisión de abogados convocada por el Congreso. La propuesta considera el
desarrollo de un sandbox regulatorio, uno de los mecanismos de gobernanza de la IA impulsados ​por
CAF en la región.

● Definición de autoridad nacional de IA: Hay un debate importante en Brasil sobre quién puede
desempeñar este papel. Gracias a su cooperación con la ANPD, la agencia ha expresado formalmente
su deseo de estar a la vanguardia del sector público. CAF ha contribuido a construir una capacidad
de innovación regulatoria que le permitirá considerar jugar un papel fundamental en este sentido.

● Impacto en el futuro de la estrategia de IA de Brasil: Pudimos demostrar cómo estos proyectos


impactarán el rediseño de la estratégia brasileña de inteligencia artificial (EBIA). En reunión con el
Ministerio de Ciencia, Tecnología e Innovación (MCTI), se expresó interés en estos esfuerzos ya que
estimularán medidas sobre gobernanza y ética de la IA en la nueva versión de esta estrategia.

Sin duda, el desarrollo de la gobernanza de la IA en Brasil es un fenómeno muy interesante que sirve
como caso de referencia global. Los proyectos desarrollados por CAF ayudaron a dinamizar esta discusión y
desarrollar propuestas que cumplan con el nivel de tecnología requerido por el país. Con esto, se espera que
Brasil cuente con una agenda regulatoria basada en un modelo integral y coordinado entre diferentes actores.

22
Esta primera misión demostró que, con el apoyo de la cooperación técnica de CAF, se habían logrado avances
significativos en este tema. Sin duda, las regulaciones emergentes en Brasil tendrán implicaciones tanto
regionales como globales, marcando así uno de los principales precedentes en el hemisferio.

Máquinas xenofóbicas: Amnistía Internacional vs. Países Bajos

Amnistía Internacional es una organización no gubernamental (ONG) que aboga por los derechos
humanos a nivel global. Su importancia en el mundo del Derecho Internacional Público radica en su papel
como defensora independiente y apolítica de los derechos fundamentales. Funciona como un actor no estatal
crítico, monitorizando y denunciando abusos, presiones gubernamentales y violaciones de derechos
humanos en todo el mundo. Su labor incide en la concienciación pública, presiona a gobiernos para el
cambio y contribuye a establecer estándares internacionales de justicia y libertad. Amnistía Internacional
destaca por su capacidad para movilizar la opinión pública y mantener a los Estados responsables,
fortaleciendo así la dimensión ética y legal del orden mundial establecido por Naciones Unidas.

La automatización de procesos gubernamentales, particularmente en la gestión de datos personales y


estadísticas, ha sido una tendencia global, destacándose el gobierno de Países Bajos por su temprana adopción
desde 2013. La implementación de sistemas algorítmicos, como el diseñado por las autoridades tributarias
neerlandesas para detectar solicitudes erróneas de ayuda social para el cuidado infantil y posibles fraudes.
Aunque estas herramientas ofrecen ventajas en términos de agilidad y detección de irregularidades, también
plantean desafíos éticos en la protección de la privacidad y la equidad, subrayando la necesidad de una
supervisión cuidadosa y transparente en el uso de tecnologías gubernamentales.

En tal sentido, de acuerdo al informe de Amnistía Internacional titulado «Máquinas xenofóbicas:


Discriminación a través del uso desregulado de algoritmos en las prestaciones neerlandeses para el cuidado
infantil», de octubre del 2021, el sistema algorítmico implementado por las autoridades tributarias
neerlandesas para detectar fraudes en las solicitudes de ayuda social para el cuidado infantil ha exhibido una
marcada discriminación étnica y racial desde su inicio en 2013.18 El factor de riesgo clave fue la nacionalidad
neerlandesa, asignando puntuaciones más altas de riesgo a aquellos que no la poseían. Esto desencadenó
consecuencias devastadoras, con numerosos padres y cuidadores viendo suspendidos sus subsidios,
enfrentando investigaciones hostiles y siendo sometidos a políticas de recuperación de subsidios implacables.

18
(Amnistía Internacional, 2021)

23
Conforme a ello, una de las afectadas, Batya Brown, recibió una falsa acusación debido al sesgo de
este algoritmo, incluso recibiendo un reclamo del gobierno, obligándole a una devolución de cientos de miles
de euros, situación que la afectó tanto económica como psicológicamente. Al respecto, el asesor legal Mher
Hakobyan señaló lo siguiente: «El escándalo de los subsidios neerlandeses para el cuidado infantil debe servir
de aviso a los órganos legislativos de la UE. Usar sistemas de inteligencia artificial para vigilar la provisión de
subsidios esenciales puede tener consecuencias devastadoras para las comunidades marginadas.»19

En tal sentido, las repercusiones económicas contra las víctimas de este algoritmo fueron
catastróficas, extendiéndose desde deudas y desempleo hasta desalojos forzosos. El impacto en la salud mental
y las relaciones personales fue igualmente grave, dando lugar a casos de estrés, divorcios y hogares rotos. El
diseño del algoritmo perpetuó el sesgo institucional al asociar injustamente la raza y el origen étnico con la
delincuencia, asignando comportamientos específicos a grupos étnicos enteros.

Este sesgo discriminatorio se exacerbó a través de un mecanismo autodidacta que permitía al


algoritmo adaptarse con el tiempo sin una supervisión humana adecuada. El resultado fue un ciclo
discriminatorio, donde las personas sin nacionalidad neerlandesa eran señaladas como posibles defraudadoras
con mayor frecuencia que sus compatriotas neerlandeses. La reacción del gobierno neerlandés fue inmediata,
aunque limitada a acciones netamente políticas, ya que, debido al escándalo, en enero de 2021, —incluso
antes de la publicación final del informe de la ONG Amnistía Internacional—, el rebote en la opinión
pública fue tal que el primer ministro Mark Rutte y su gabinete entero se vieron obligados a renunciar,
incluso en medio de la crisis sanitaria por el coronavirus.20 El reconocimiento del fallo del algoritmo —que
seguramente resultará determinante para la asignación de responsabilidad por parte del Estado— por parte
de Rutte fue del siguiente modo: «Estamos de acuerdo en que si todo el sistema (algorítmico) ha fracasado,
todos debemos asumir la responsabilidad, y eso ha llevado a la conclusión que acabo de ofrecer al rey, la
dimisión de todo el Gabinete…»

Ante el escenario crítico presentado por el informe de Amnistía Internacional sobre la


discriminación sistémica en el sistema algorítmico neerlandés, es imperativo que el Comité Legal de Naciones
Unidas tome medidas concretas para abordar esta violación de derechos fundamentales. En primer lugar, el
Comité puede impulsar una exhaustiva investigación de corte independiente a fin de evaluar la magnitud del

19
(Amnistía Internacional, 2021)

20
(CBS News, 2021)

24
daño causado por el algoritmo discriminatorio.Asimismo, el comité debería facilitar la colaboración con los
órganos legislativos de la Unión Europea para establecer directrices y regulaciones claras sobre el uso de
algoritmos en la toma de decisiones gubernamentales, especialmente en el ámbito de las prestaciones sociales.
Es esencial prohibir prácticas como la puntuación social, la perfilación y la evaluación de riesgos que
perpetúen la discriminación y el sesgo étnico. Establecer un marco normativo sólido que garantice la equidad,
la privacidad y la no discriminación en el desarrollo y aplicación de algoritmos gubernamentales es
fundamental para prevenir futuros abusos.

Por último, el caso neerlandés destaca la necesidad urgente de un enfoque global y coordinado para
abordar los desafíos éticos y legales emergentes en la automatización gubernamental. Así, la colaboración con
organizaciones de derechos humanos, expertos en tecnología y legisladores para desarrollar estándares
internacionales que protejan los derechos fundamentales en la era de la inteligencia artificial será crucial para
las medidas a tomar por el comité. La lección de esta grave situación es clara: la tecnología no puede socavar
los principios fundamentales de justicia, equidad y respeto a los derechos humanos.

No es demasiado tarde: Regulación de armas autónomas

El pasado jueves 5 de octubre, el secretario general de la ONU, Antonio Guterres, y la presidenta de


la Cruz Roja Internacional, Mirjana Spoljaric, emitieron un comunicado conjunto en el cual urgen a los
líderes políticos a regular los sistemas de armas autónomas, debido a que estos pueden aumentar la violencia
al crear «una percepción de bajo riesgo»21, eliminando escrúpulos para involucrarse en conflictos. Hicieron
hincapié en que el derecho internacional debería prohibir las máquinas con el poder y la discreción de acabar
con vidas sin intervención humana. «Todavía no es demasiado tarde para tomar medidas puesto que los más
de diez años de debate sobre el tema en el seno de la ONU han sentado las bases para la adopción de
prohibiciones y restricciones explícitas», establecieron los líderes mundiales.

De modo introductorio, no podemos dejar de mencionar un interesante estudio de Young y


Carpenter, que revela la relación entre la representación ficticia de las armas autónomas en la ciencia ficción y
las actitudes políticas reales, clasificándose como un fenómeno complejo22. Así, su investigación concluye que
la etiqueta de «robots asesinos» no parece tener un impacto significativo por sí sola, no obstante, el consumo
de películas de inteligencia artificial armada está vinculado a una mayor oposición a estas armas. En otras

21
(UN News, 2023)

22
(Young & Carpenter, 2018)

25
palabras, mientras más gente vea películas de inteligencia artificial, más se opone a las armas autónomas. Este
hallazgo resalta la influencia del imaginario colectivo en la formación de opiniones sobre tecnologías
emergentes, sugiriendo que la narrativa pública puede desempeñar un papel crucial en la conformación de
políticas relacionadas con las armas autónomas, considerando el funcionamiento de la legislación en las
sociedades occidentales.

Ahora bien, ya desde el ámbito legal, Boogard destaca la importancia de la proporcionalidad en los
sistemas de armas autónomas. Se enfatiza que estas armas no pueden realizar evaluaciones de
proporcionalidad de manera autónoma, subrayando la necesidad continua de participación humana en las
decisiones estratégicas y operativas23. Incluso, en la academia se ha expresado que, a medida que la autonomía
aumenta, se plantea la preocupación de que las decisiones éticas se vuelven impredecibles y peligrosas, según
Ross Bellaby.24 Este dilema resalta la importancia de mantener un control humano sólido sobre las armas
autónomas y sus capacidades de toma de decisiones éticas. Así, el escenario actual respecto a las armas
autónomas se complejiza a través de las siguientes interrogantes: ¿Realmente un arma autónoma podría
decidir sobre la vida humana sin la colaboración de un ser humano? ¿Están los robots facultados para
eliminar? ¿Cómo lograr que los fallos de los robots no sirvan para evadir responsabilidad penal de los
individuos, ya sea en grupos subversivos o de los mismos Estados?

Desde una perspectiva ética y legal más amplia, Asaro aborda la cuestión de la responsabilidad en el
uso de armas autónomas. Se destaca que estas armas no son ni deberían ser agentes morales o legales, lo que
plantea desafíos fundamentales en la atribución de responsabilidades25. La regulación y la asignación de
responsabilidades en este contexto emergente son esenciales para evitar problemas éticos y legales, y las
reflexiones del Comité Legal de Naciones Unidas podrían ser cruciales en el desarrollo de marcos normativos
globales para abordar estos desafíos.

23
(Boogard, 2015)

24
(Bellaby, 2021)

25
(Asaro, 2020)

26
Preguntas Que Toda Resolución Debe Responder - QARMAS

1. ¿Cómo los Estados podrían garantizar una fiscalización, supervisión y sanción adecuada a personas
jurídicas que creen, usen y/o financien algoritmos lesivos a los derechos morales y patrimoniales de
los autores en armonía con el derecho al debido proceso?

2. ¿Cómo garantizar los derechos de autor frente a los abusos de la IA pese a los contrastes en la
concepción del «copyright»?

3. ¿Cómo los Estados pueden prevenir la precarización laboral e informalidad frente a la


automatización generada por la IA?

4. ¿Qué medidas pueden adoptar los gobiernos y las empresas para ayudar a los trabajadores a adaptarse
a los cambios tecnológicos y mitigar el riesgo de desempleo causado por la IA?

5. ¿Cuál debería ser la responsabilidad de las personas naturales y jurídicas acreditadas en la


participación de la creación, fabricación, conservación y uso de armas letales autónomas cuyo
algoritmo no se adecúe al estándar ético pactado por los miembros de la UNESCO en 2021?

6. ¿Cuales serian medidas aplicables dentro del marco legal para regular el uso y desarrollo de la IA
como un mecanismo de ataque autónomo y/o arma autónoma?

7. ¿Los actos y procedimientos administrativos pueden ser ejecutados en su totalidad o en parte por la
Inteligencia Artificial sin la supervisión humana?

8. ¿De qué forma los Estados podrían garantizar la titularidad de los datos personales frente a la
suplantación de identidad mediante Inteligencia Artificial?

27
Recomendaciones Finales

Esperamos que la guía de estudio les ayude a centrar su investigación para la conferencia.

Recomendamos investigar en varias fuentes oficiales y/o académicas de investigación y de confianza.


Les hemos colocado referencias bibliográficas en el siguiente anexo para que puedan tener una guía. Un
contenido de buena calidad con creatividad e iniciativa es la clave de este tema.

Redactar su Documento de Postura Oficial, considerando la política nacional de sus respectivos


países en sus ponencias y la defensa de su posición en el comité.

Tener en cuenta la viabilidad de las propuestas, así como su compatibilidad con las facultades de la
comisión ya sea en materia jurídica o instituciones respectivas.

La entrega del Documento de Postura Oficial será hasta el miércoles, 1 de noviembre del 2023 a
las 23:59, lo deben enviar al siguiente correo: usilmun.legal@gmail.com

Recuerden también investigar sobre temas relacionados que puedan ser de interés para el comité y
que se debatirán en el debate. Con esto, esperamos ver un buen contenido en el debate, negociaciones
poderosas y estratégicas y propuestas de buena calidad y bien pensadas. ¡Muchos éxitos!

Si tienen alguna duda, ¡no tengan miedo de escribirnos secretariado.usilmun@gmail.com!

28
Bibliografía

Amnistía Internacional. (2021, 25 octubre). Xenophobic Machines: Discrimination through unregulated


use of algorithms in the Dutch childcare benefits scandal.
https://www.amnesty.org/es/documents/eur35/4686/2021/en/

Amnistía Internacional. (2023, junio 13). Unión Europea: En peligro la Ley de Inteligencia Artificial ante la
posibilidad de que el Parlamento Europeo legitime las tecnologías abusivas.
https://www.amnesty.org/es/latest/news/2023/06/eu-ai-act-at-risk-as-european-parliament-may-legiti
mize-abusive-technologies/

Asaro, P. (2020). Autonomous Weapons and the Ethics of Artificial Intelligence. Ethics of Artificial
Intelligence. https://doi.org/10.1093/oso/9780190905033.003.0008.

Beebeejaun, A., & Gunputh, R. P. (2023). A study of the influence of artificial intelligence and its challenges:
The impact on employees of the legal sector of Mauritius. Global Business Review.
https://doi.org/10.1177/09721509231193803

Bellaby, R. (2021). Can AI Weapons Make Ethical Decisions?. Criminal Justice Ethics, 40, 86 - 107.
https://doi.org/10.1080/0731129X.2021.1951459.

Boogaard, J. (2015). Proportionality and Autonomous Weapons Systems. Journal of international


humanitarian legal studies, 6, 247-283. https://doi.org/10.1163/18781527-00602007.

CBS News. Dutch Prime Minister Mark Rutte and his entire cabinet resign over child welfare scandal.
(2021, 15 enero).
https://www.cbsnews.com/news/dutch-government-cabinet-mark-rutte-resign-child-welfare-scandal/

De Clément, Z. D. (2022). Inteligencia artificial en el derecho internacional, Naciones Unidas y Unión


Europea. Revista de estudios jurídicos, 22. https://doi.org/10.17561/rej.n22.7524

Deutsche Welle (2023, 31 agosto). La inteligencia artificial en el banquillo de acusados. [Vídeo]. dw.com.
https://www.dw.com/es/artistas-en-california-demandan-empresa-de-ia/video-66689562

Fairfield, T. (2015). Structural power in comparative political economy: perspectives from policy formulation
in Latin America. Business and Politics, 17, 411 - 441. https://doi.org/10.1515/bap-2014-0047.

29
Hughes, J., & Merges, R. (2016). Copyright and Distributive Justice. Notre Dame Law Review, 92, 1.
https://heinonline.org/HOL/P?h=hein.journals/tndl92&i=533

International Telecommunication Union. (2023, 16 marzo). UN AI Actions - AI for Good. AI for Good.
https://aiforgood.itu.int/about-ai-for-good/un-ai-actions/

McIntyre, S. (2011). The Yang Obeys, But the Yin Ignores: Copyright Law and Speech Suppression in the
People’s Republic of China. Pacific Basin Law Journal, 29.
https://papers.ssrn.com/sol3/papers.cfm?abstract_id=1752443

Noveck, J., & O’brien, M. (2023, 31 agosto). Artistas visuales luchan contra empresas de IA para proteger su
obra | AP News. AP News.
https://apnews.com/entertainment/espectaculos-474bebebbebf58408507073a4970899b

Peltz, J. (2023, 25 septiembre). The UN’s top tech official discusses AI, bringing the world together and what
keeps him up at night | AP News. AP News.
https://apnews.com/article/united-nations-artificial-intelligence-envoy-amandeep-gill-823895b865d7
69221acae631906f45ff

Pérez, J. A., & García, J. M. (2023). El impacto de la inteligencia artificial en el derecho: desafíos y
oportunidades. Revista de Derecho y TIC, 22(7524), 1-15.
https://revistaselectronicas.ujaen.es/public/journalslia/rej2022_22/7524/index.html

Robles Carrillo, M. (2020). La gobernanza de la inteligencia artificial: Contexto y parámetros


generales. Revista Electrónica de Estudios Internacionales, 39.
https://doi.org/10.17103/reei.39.07

Sánchez, F. (2019, 18 mayo). Luditas, la gran rebelión contra las máquinas del siglo XIX.
historia.nationalgeographic.com.es.
https://historia.nationalgeographic.com.es/a/luditas-gran-rebelion-contra-maquinas-siglo-xix_1417

UN News. (2019, 28 marzo). Autonomous weapons that kill must be banned, insists UN chief.
https://news.un.org/en/story/2019/03/1035381

UN News. (2021, 7 diciembre).193 countries adopt first-ever global Agreement on the Ethics of Artificial
intelligence. https://news.un.org/en/story/2021/11/1106612

30
UN News. (2023, 5 octubre). UN and Red Cross call for restrictions on autonomous weapon systems to
protect humanity. https://news.un.org/en/story/2023/10/1141922

UNSCEB. (2023, 1 julio). Artificial Intelligence https://unsceb.org/topics/artificial-intelligence

Wang, C. (2023). The Technological Confrontation between China and the United States: the Front and
Core of the Sino-US Strategic Game. Мировая политика.
https://doi.org/10.25136/2409-8671.2023.1.39781.

Will AI obliterate the rule of law?: Matthew Butterick. (2023, 26 marzo).


https://matthewbutterick.com/chron/will-ai-obliterate-the-rule-of-law.ht

Young, K., & Carpenter, C. (2018). Does Science Fiction Affect Political Fact? Yes and No: A Survey
Experiment on “Killer Robots”. International Studies Quarterly.
https://doi.org/10.1093/ISQ/SQY028.

31

También podría gustarte