Documentos de Académico
Documentos de Profesional
Documentos de Cultura
DIEGO ALMENARA
SANTIAGO ESCORCIA
JOSÉ LUIS MARÍN
V E D I C I Ó N
ÍNDICE
1.CARTAS DE BIENVENIDA ....................................................... 3
8. QARMA'S .......................................................32
9. RECOMENDACIONES .......................................................33
CARTA DE BIENVENIDA
DIEGO
ALMENARA
¡Hola a todas/os!
SANTIAGO
ESCORCIA
Hola a todos sean bienvenidos al comité de
DISEC de UDEP MUN 2020. Mi nombre es
Santiago Escorcia, soy de Colombia y en esta
oportunidad tengo el placer de fungir como
uno de sus directores para el comité.
JOSÉ LUIS
MARÍN
¡Bienvenid@s al comité de Desarme y
Seguridad Internacional - DISEC!
AL COMITÉ
El Disarmament and International Security Committee (DISEC) es uno de los comités más
importantes dentro del Sistema de Naciones Unidas al ser uno de los seis (6) comités
principales que componen la Asamblea General de Naciones Unidas, de acuerdo con el
la regla 98 del capítulo XIII de las Reglas de Procedimiento de la Asamblea General
(2020). Este comité se posiciona entonces como el primero de los seis comités de la
asamblea también se le refiere como el “Primer Comité” o “Primera Comisión”.
AL COMITÉ
Es importante tener en cuenta que el mandato de este comité no es el mismo que el del
consejo de seguridad ya que este comité se busca generar un consenso y una serie de
evaluaciones y recomendaciones dirigidas en principalmente, mas no únicamente, a la
Asamblea general para la toma de decisiones directas en los temas de desarme y
seguridad. Fue desde el periodo ordinario de sesiones de 1993 que se ha buscado la
reducción de la agenda del comité y mejorar su efectividad para la cooperación y la
reacción de diálogo en materia de seguridad. Del mismo modo, si bien se pueden
nombrar algunas resoluciones emitidas por la asamblea general que tuvieron acción
directa por parte del comité como lo fue la primera resolución o las resoluciones
adoptadas a en algunas sesiones especiales (especialmente la décima, décimo-segunda y
décimo-quinta), es importante tener en cuenta que el comité se ha enfocado en el
desarme regional, desarme de zonas de conflicto, desarme nuclear, y manejo correcto de
tecnología nuclear.
Como se venía tratando anteriormente, dentro de los grandes avances del comité se
podrían resaltar La primera Resolución de la Asamblea General, “Establecimiento de una
Comisión para tratar los problemas planteados por el descubrimiento de la Energía
Atómica”, del 24 de enero de 1946; la resolución 1378 que trata del desarme general y
completo, la resolución 1379 que trata de las pruebas nucleares francesas en el Sahara , la
resolución 1380 que trata la prevención de una mayor difusión de armas nucleares ,la
resolución 1402 que trata la suspensión de ensayos nucleares y termonucleares.
AL COMITÉ
El sector de defensa y de seguridad claramente no es la excepción y el surgimiento de
nuevas tecnologías (tanto gestionadas desde la esfera pública como por actores privados)
ha puesto un nuevo tema en la agenda de la comunidad internacional y esta es
precisamente la regulación de la implementación de nuevas tecnologías (robótica,
inteligencia artificial, mecatrónica, etc.) hacia la innovación de material bélico o acciones
relacionadas a producción y uso de armamento. Estas innovaciones son bastante nuevas
y por tanto se han encontrado inmersas en varios vacíos legales dentro del Derecho
Internacional y el Derecho Internacional Humanitario a tal punto de que organizaciones
como la Cruz Roja internacional estableciera en 2013 que “No existen normas específicas
sobre las armas autónomas. Sin embargo, el derecho establece que los Estados deben
determinar si el empleo de armas, medios o métodos de guerra nuevos que desarrollen o
adquieran estaría prohibido por el derecho internacional humanitario en algunas
circunstancias o en todas. En otras palabras, las normas del derecho internacional
humanitario, establecidas ya desde hace largo tiempo, en particular las normas de
distinción, proporcionalidad y precauciones en el ataque, se aplican a todas las armas
nuevas y los desarrollos tecnológicos bélicos, incluidas las armas autónomas.” (CICR,2017)
En el Sistema Internacional es preciso afirmar que esta problemática se enmarca mucho
dentro del Derecho Internacional Humanitario ya que, en otras instancias, las
organizaciones, comités especializados (incluyendo DISEC) y foros internacionales han
promovido la idea del ajuste de los tratados ya existentes y vigentes a la problemática. En
materia de Derecho Internacional humanitario se hacen avances en materia de los
principios de proporcionalidad y el principio de distinción que hacen parte de las
resoluciones y tratados que ha promovido o expedido DISEC y otros comités relacionados
con la seguridad internacional. Actualmente, en organizaciones multilaterales incluyendo
en las Naciones Unidas por medio de la Primera comisión se han incrementado los
esfuerzos por reajustar y generar un marco legal mucho más específico que incluya el uso
de la tecnología en el armamento incluyendo como temas principales el material bélico
autónomo, el uso de la robótica y la mecatrónica, la proliferación de armamento
tecnológico de destrucción masiva, entre otros. Actualmente ni la Primera comisión ni
otros órganos, organismos u organizaciones a nivel internacional han generado un
documento o un avance documentado preciso en la regulación de dichas armas bajo un
marco internacional definido, pero si se han adelantado charlas al respecto en las
plenarias ordinarias de DISEC. La preocupación en el tema ha generado una convención
de Ginebra en 2018,algunas reuniones de expertos de la Convención sobre Armas
Convencionales de la ONU y la creación de Organizaciones No Gubernamentales como el
Comité Internacional para el Control de Armas Robóticas, sin embargo, las conclusiones a
las que llegaron fueron simplemente de concientizar sobre tener un mejor manejo
teniendo en cuenta que varios países prefieren ni siquiera tratar el tema y son más bien
pocos quienes se mueven en pro de la regulación específica. Ante esto el comité no ha
emitido grandes pronunciamientos al respecto.
INTRODUCCIÓN
AL TEMA
En la misma década, Isaac Asimov publicó “Yo, Robot” libro que relata cómo un grupo de
robots se vuelve en contra de los seres humanos. A pesar de que este trabajo inspiró a
múltiples científicos e investigadores, su más destacable postulación fue las “Tres leyes de
la robótica para prevenir que las máquinas inteligentes se vuelvan malignas”. Estas tres
leyes son:
Un robot no debe dañar a un ser humano, o, por inacción, permitir que un ser
humano encuentre daño.
Un robot debe siempre obedecer órdenes humanas, siempre y cuando estas no
entren en conflicto con la Primera ley.
Un robot debe proteger su propia existencia, siempre y cuando esto no entre en
conflicto con la Primera o Segunda ley.
Al pasar este periodo, la inteligencia artificial avanza enormemente. Solo por nombrar
algunos sucesos; en el 2005, un vehículo de Stanford triunfa en el reto DARPA, al manejar
211 kilómetros de manera autónoma por el desierto; en el 2011, ¡Watson de IBM gana el
juego Jeopardy! y derrota a dos excampeones; en el 2016, el sistema de deep learning de
Alpha Go vence al campeón jugador de Go. Todo esto es muy interesante. Pero, la gran
pregunta es: ¿qué peligro real podría tener la inteligencia artificial y las nuevas tecnologías
usadas militarmente? La inteligencia artificial y su militarización representan una
amenaza real para la manutención de la paz.
INTRODUCCIÓN
AL TEMA
Los principales objetivos de nuestro comité son preservar la seguridad internacional y el
desarme progresivo. Es por ello, que debemos tener en cuenta el riesgo que constituyen
las armas ya existentes y, en mayor manera, toda aquella innovación con potencial de
militarización. Es nuestro deber, entonces, reconocer los peligros que representa la IA en
el contexto internacional, así como los peligros que las armas letales autónomas, o LAWS
por sus siglas en inglés, conllevan al definirse como aquellas armas que hacen uso de
sistemas de inteligencia artificial y se manejan de manera autónoma. En otros términos,
estas armas pueden atacar a un ser humano por su cuenta, sin la necesidad de
supervisión de una persona; así podemos incluir a los robots y drones militares como
LAWS.
Al respecto, los grandes líderes tecnológicos no han tenido demora en demostrar sus
posturas. Stephen Hawking, dijo en su momento que “la inteligencia artificial será lo
mejor o lo peor para la humanidad”, dando a notar un punto ambivalente. Por el otro
lado, Elon Musk, afirmó que "hasta que las personas no vean robots asesinando gente en
la calle, no van a saber cómo reaccionar, porque esto les parece muy etéreo". Finalmente,
por contraparte, Mark Zuckerberg, declaró: “soy optimista en lo que respecta a la
inteligencia artificial. En cinco o diez años veremos las dramáticas mejoras que
conseguirá para nuestras vidas". Vemos a posturas divididas sobre los beneficios o peligros
que puede representar la inteligencia artificial.
Lo cierto es que la innovación siempre está un paso adelante que la regulación. Aunque
esto no impide crear parámetros de carácter vinculante como una medida de
prevención, hasta el momento no hay un documento oficial que regule la investigación y
manipulación de la inteligencia artificial, de las LAWS o de cualquier nueva arma
tecnológica. Actualmente, es una situación muy preocupante, pues, si no hay adecuada
regulación efectiva, tendremos que esperar algún “error” en el sistema para que los
humanos perdamos la partida. El intento más cercano de tomar una medida de
prevención es una carta abierta dirigida a la ONU firmada por 116 expertos en la materia,
por supuesto, sin fuerza vinculante. La nueva salvación o amenaza está a la espera de un
error humano.
Bajo lo mencionado, los delegados deberán formular sus posiciones y propuestas: si bien
se puede considerar peligroso el desarrollo de estas tecnologías para uso bélico, tenemos
que tener en cuenta la posibilidad de evolución de las mismas; así no sea tangible al
momento. Es esencial, además, recordar la desventaja militar que tendrían los países sin
los medios necesarios para producir estas armas y cómo esto posibilitaría el aumento de
la desigualdad entre la comunidad internacional.
HISTORIA DEL TEMA
LOS PRIMEROS ROBOTS
La historia de los robots tiene su origen en la Grecia antigua y en las primeras dinastías de
China. Se pueden hallar vestigios de robots primitivos en el siglo I. Estos dispositivos,
conocidos como autómatas (vocablo de origen griego que significa “que actúa por
voluntad propia”), fueron básicamente máquinas con movimientos no eléctricos que
simulaban acciones humanas o animales. Registros históricos hablan de una “orquesta
mecánica” construida por artesanos chinos en tiempos de la Dinastía Han (200-300 A.C.).
Otros documentos describen la construcción de un ave operada a vapor construida en el
siglo IV A.C. por el matemático griego Arquitas de Tarento.
Durante la Edad Media, tanto en Europa como en el Medio Oriente, algunos autómatas se
popularizaron como parte del mecanismo de relojes. Según describe en sus propios
textos, diagramas e ilustraciones, el matemático árabe Al-Jazari (1136-1206) pudo construir
diversos dispositivos mecánicos. Entre ellos, un gran reloj en forma de elefante que
sonaba cada hora y una mesera autómata que servía bebidas. El Renacimiento trajo su
propia versión de los robots, como el autómata humanoide concebido por Leonardo da
Vinci en 1495. Según sus ilustraciones, podría realizar movimientos cuasi humanos como
sentarse, mover los brazos, las piernas y rotar la cabeza. Su apariencia era como la de un
caballero en su armadura medieval.
Un robot no debe dañar a un ser humano, o, por inacción, permitir que un ser
humano encuentre daño.
Un robot debe siempre obedecer órdenes humanas, siempre y cuando estas no
entren en conflicto con la Primera ley.
Un robot debe proteger su propia existencia, siempre y cuando esto no entre en
conflicto con la Primera o Segunda ley.
HISTORIA DEL TEMA
La idea de la inteligencia artificial rondaba las mentes de la comunidad científica durante
la década de 1940. Alan M. Turing (1912-1954) fue un científico, matemático e informático
británico que se hizo la pregunta “¿las máquinas pueden pensar?”. Durante su carrera
trabajó en crear un sistema para computar grandes cantidades de información a alta
velocidad. Hebert Simon (1916-2001) fue un científico estadounidense que puso en
práctica las teorías de Turing y en 1956 respondió afirmativamente la pregunta del
británico por medio de la creación de una computadora capaz de probar teoremas
matemáticos. Era cierto, una máquina sin vida era capaz de pensar lógicamente, lo que
dio impulso al desarrollo de la inteligencia artificial. Pasarían algunos años más para que
el que es considerado el primer robot industrial comenzara a funcionar. En la década de
1950, George Devol (1912-2011) diseñó el Unimate (resultado de combinar las palabras
Universal Automation o Automatización Universal), un brazo robótico que transportaba
armazones metálicos en una fábrica de General Motors en Nueva Jersey.
El primer salto cuántico, sin embargo, ocurrió el 4 de octubre de 1957. La antigua Unión
Soviética logró con éxito lanzar el Sputnik I, el primer satélite artificial autónomo en la
historia. Con un peso de 83.6 kilogramos, el satélite orbitó la tierra transmitiendo señales
durante tres semanas. La carrera armamentista puso a las potencias mundiales en
competencia por crear robots y sistemas de inteligencia artificial al servicio de la industria
bélica. Muchas de estas creaciones fueron desarrolladas en universidades e institutos
científicos. Tal es el caso de Shakey, que es considerado el primer robot móvil con la
capacidad de percibir y razonar acerca de su entorno. Fue desarrollado por el laboratorio
de inteligencia artificial de Stanford, haciendo uso de avances en las áreas de robótica,
visión por computadora y procesamiento natural de lenguaje. Fue el primer proyecto
robótico en conjuntar el razonamiento lógico con la acción física.
Una nueva generación de robots surgió durante la década de 1970, gracias a la llegada de
los microprocesadores. La forma física fue perfeccionada y el software fue mejorado a
través de lenguajes de programación más poderosos. Esta nueva ola de robots aprovechó
el surgimiento de cámaras y sensores para adaptarse al entorno que los rodeaba y, en
ocasiones, ajustar sus programas en tiempo real. El primer ejemplo de un robot que
realmente caminaba y hablaba lo encontramos en Japón, por medio del Wabot-1,
construido en la Universidad Waseda.
Desde entonces, muchos robots y androides han facilitado la vida del ser humano. Tal es
el caso de Robonauta, un robot humanoide operado desde el Laboratorio de Robótica
Dexterous, en el Centro Espacial Johnson de la NASA en Houston, Texas. Construido en el
año 2000, el hábil robot cuenta con manos que pueden manipular herramientas
espaciales y trabajar en ambientes en los que los astronautas no. El ejemplo actual más
visible, quizá, es ASIMO. Un robot con figura humana de 130 centímetros de altura, creado
por el Centro de Investigación y Desarrollo de Honda en Japón, que puede caminar e
incluso correr. ASIMO puede detectar los movimientos de múltiples objetos y medir su
distancia y dirección, permitiéndole saludar de mano a las personas que se le acercan.
HISTORIA DEL TEMA
ROL DE TECONOLOGÍAS EN LAS GUERRAS MUNDIALES
Uno de los avances más destacados de la Primera Guerra Mundial fue la creación del
tanque, que surgió tras el auge del automóvil unos años antes y que se convirtió en una
poderosa forma de combatir las guerras de trinchera en las que las ametralladoras ya
causaban estragos. El Mark I construido en Gran Bretaña fue el primer tanque utilizado en
un combate: hizo su debut en la Batalla del Somme, el 15 de septiembre de 1916, y a él se
sumaron luego modelos franceses (el desastroso Schenider CA1 fue sustituido por el
Renault FT-17, que sentaría las bases de los diseños actuales). Su uso masivo se hizo
realidad algo más tarde, en la batalla de Cambrai que tuvo lugar el 20 de noviembre de
1917. Se sumó la creación de trincheras más anchas que los tanques no podían superar.
Los resultados de su uso fueron desiguales por su limitada fiabilidad, y aunque los
alemanes tardarían en producir sus propios tanques, sí descubrieron artillería antitanque,
a lo que la guerra de trincheras como tal había tocado a su fin.
Otro avance sería importante para los inicios de esas batallas aéreas: la instalación de
radios en los aviones para la comunicación con otros pilotos o con bases en tierra. En 1916
se instalaron los primeros sistemas que permitían enviar radiotelégrafos a 225 km de
distancia, mientras que en 1917 se logró por primera vez la comunicación por voz vía radio
entre un operador en tierra y un piloto de un avión. La torre de control había nacido. Los
aviones demostraron ser otro de los elementos clave en estas guerras no solo en
combates o bombardeos, sino también en misiones de inteligencia en las que se
recababa información sobre posiciones enemigas o sobre líneas de suministro. Los
zepelines alemanes también tuvieron impacto en este sentido y se convirtieron en
bombarderos estratégicos de largo alcance, aunque tras la guerra su popularidad se
diluyó enormemente.
La Segunda Guerra Mundial fue la primera guerra global donde se empleó alta
tecnología. Muchas armas de nueva generación fueron diseñadas durante ese conflicto,
pero también fueron utilizadas aquellas que fueron desarrolladas antes y durante la
Primera Guerra Mundial. Por ejemplo, en 1939, casi todos los barcos utilizados hacían uso
de tecnología de comienzos de siglo incluyendo la propulsión a vapor. En particular, es
notorio que el submarino alemán tipo VIIC, el más avanzado de su época, no utilizaba
ningún dispositivo crítico que no hubiera sido diseñado antes de 1940. Fue recién a
finales de la guerra que los alemanes inventaron el Schnorkel, por ejemplo, para poder
navegar sumergidos utilizando la propulsión de los motores diesel. Otro ejemplo típico
es el famoso y temible cañón 88 alemán, armamento antiaéreo que fue desarrollado
durante la Primera Guerra Mundial y modificado a lo largo de los años 30 y 40 para
convertirse en un arma polivalente.
En el lado Aliado, al comenzar la guerra, por ejemplo, los británicos, intentaron efectuar el
primer bombardeo estratégico a la base naval de Kiel y resultó un completo fracaso. Para
empezar de estratégico tuvo muy poco, pues más se pareció a una operación táctica muy
mal preparada. Los aviones apenas utilizaban radios de telegrafía y las miras de
bombardeo no eran otra cosa que un agujero en la parte baja del avión, con un par de
cursores que tenían unas graduaciones que se calibraron a ojo para ajustar la altura a la
que se volaba. Pero, a partir de 1941, se comenzó a utilizar el Radar, el Sonar o Asdic, los
radios de muy alta frecuencia, y muchos otros dispositivos que hicieron que la guerra se
tecnificó. Todos esos inventos y descubrimientos fueron los cimientos que finalmente
hicieron posible los adelantos tecnológicos de la segunda mitad del Siglo 20 y lo que es
hoy la tecnología del Siglo 21.
La guerra terrestre dejó atrás las trincheras estáticas de las batallas de la Primera Guerra
Mundial para permitir una mayor movilidad y un uso conjunto de armas rápidas. El
tanque, que se había empleado hasta entonces predominantemente como apoyo de la
infantería, evolucionó hasta convertirse en un arma principal. A finales de los años 30, los
proyectos de tanques estaban considerablemente más avanzados de lo que estaban en
la Primera Guerra Mundial y los avances continuaron durante la guerra en aspectos como
el aumento de la velocidad, del blindaje y de la potencia de fuego.
SITUACIÓN
ACTUAL
INTELIGENCIA ARTIFICIAL
ACTUAL
Memoria limitada: Estos sistemas de AI pueden usar experiencias pasadas para
informar decisiones futuras. Algunas de las funciones de toma de decisiones en
vehículos autónomos han sido diseñadas de esta manera. Las observaciones son
utilizadas para informar las acciones que ocurren en un futuro no tan lejano, como un
coche que ha cambiado de carril. Estas observaciones no se almacenan
permanentemente.
Teoría de la mente: Este es un término psicológico. Se refiere a la comprensión de que
los demás tienen sus propias creencias, deseos e intenciones que afectan las decisiones
que toman. Este tipo de AI aún no existe.
Autoconocimiento: En esta categoría, los sistemas de AI tienen un sentido de sí
mismos, tienen conciencia. Las máquinas con conciencia de sí comprenden su estado
actual y pueden usar la información para inferir lo que otros están sintiendo. Este tipo
de AI aún no existe.
Ejemplos de tecnología AI
ACTUAL
El procesamiento del lenguaje natural (PNL, o NLP por sus siglas en inglés) es el
procesamiento del lenguaje humano y no informático por un programa informático.
Uno de los ejemplos más antiguos y conocidos de PNL es la detección de spam, que
mira la línea de asunto y el texto de un correo electrónico y decide si es basura. Los
enfoques actuales de la PNL se basan en el aprendizaje automático. Las tareas de PNL
incluyen traducción de texto, el análisis de sentimientos y el reconocimiento de voz.
Aplicaciones de AI
AI en la asistencia sanitaria
Las mayores apuestas están en mejorar los resultados de los pacientes y reducir los costos.
Las empresas están aplicando el aprendizaje de máquina para hacer diagnósticos mejores
y más rápidos que los seres humanos. Una de las tecnologías sanitarias más conocidas es
IBM Watson. Entiende el lenguaje natural y es capaz de responder a las preguntas que se
le formulan. El sistema extrae datos de los pacientes y otras fuentes de datos disponibles
para formar una hipótesis, que luego presenta con un esquema de puntuación de
confianza. Otras aplicaciones de AI incluyen chatbots, un programa de computadora
utilizado en línea para responder a preguntas y ayudar a los clientes, para ayudar a
programar citas de seguimiento o ayudar a los pacientes a través del proceso de
facturación, así como en asistentes virtuales de salud que proporcionan retroalimentación
médica básica.
AI en los negocios
La automatización de procesos robóticos se está aplicando a tareas altamente repetitivas
que normalmente realizan los seres humanos. Los algoritmos de aprendizaje automático
se están integrando en las plataformas de análisis y CRM para descubrir información sobre
cómo servir mejor a los clientes. Los chatbots se han incorporado en los sitios web para
ofrecer un servicio inmediato a los clientes. La automatización de puestos de trabajo
también se ha convertido en un punto de conversación entre académicos y consultores de
TI, como Gartner y Forrester.
SITUACIÓN
ACTUAL
ROBOTS MILITARES Y ARMAS AUTÓNOMAS
Algunos creen que el futuro de la guerra moderna será combatido por sistemas de armas
automatizadas. EEUU, Rusia y China ya poseen aviones, vehículos terrestres, barcos y
submarinos armados con capacidad para entrar en combate de forma autónoma, aunque
ninguno admite haberlos desplegado. Estados Unidos ya ha probado en territorio de
Afganistán e Irak distintas armas autónomas. Por otra parte, Israel usa con frecuencia los
‘aviones suicida’ Harpy y Harop, un ‘avión suicida’ con carga explosiva que localiza señales
de radio y se estrella contra su lugar de procedencia, sin distinguir si se trata de un objetivo
civil o militar. Estados Unidos desveló que incluso está desarrollando enjambres de drones
autónomos. En la lista de naciones con tecnología militar autónoma también entran, al
menos, Corea del Sur (Samsung ya exporta el robot SGR-A1), Reino Unido, Francia, Israel e
India. A diferencia de los drones teledirigidos que ya poseen más de 70 países, o de los
sistemas de misiles defensivos que se activan solos al detectar una amenaza, los robots
militares asesinos atacan de forma independiente.
La primera voz de a alarma la dio un grupo de 300 científicos en 2013, el mismo año en
que nació la campaña para detener los robots asesinos (Campaign to Stop Killer Robots,
en inglés), compuesta por 65 organizaciones no gubernamentales de 28 países y activistas
con prestigio mundial, entre ellas la Premio Nobel de la Paz Jody Williams. A mediados de
2015 más de 2.800 académicos de distintas disciplinas firmaron una carta abierta pidiendo
la prohibición de estas armas. Al cabo de pocos meses, más de 16.000 nombres
destacados del mundo científico, religioso, empresarial y cultural habían suscrito la misiva,
y en la primavera de 2016 un grupo de expertos independientes se reunió para elaborar un
informe sobre los dilemas éticos, legales y políticos de las armas autónomas que sirvió de
base teórica para la cita de diciembre en Ginebra. Desde entonces no ha parado de crecer
el número de personas destacadas de distintos ámbitos que piden la prohibición de estas
máquinas militares. No obstante, el asunto parece tan lejano y ficticio que todavía no
despierta demasiada atención por parte de los principales medios de comunicación. Poco
antes de morir, el astrofísico Stephen Hawking también advirtió sobre los riesgos de esta
tecnología.
SITUACIÓN
ACTUAL
Para la organización Human Rights Watch, los sistemas autónomos armados letales (LAWS,
por sus siglas en inglés) son aquellos capaces de detectar, seleccionar y atacar objetivos sin
ningún tipo de intervención humana. EEUU, una de las naciones que muestra reticencias a
la prohibición, asegura que esta tecnología “servirá para mejorar el respeto al derecho
humanitario internacional”. Los defensores de las armas autónomas letales alegan que
permitirán reducir el número de soldados muertos y destacan que estas máquinas están
libres de cualidades humanas que chocan con la dinámica de la guerra, pues no padecen
hambre, frío ni sed, ni sienten miedo, pánico o compasión, ni necesitan años de
entrenamiento o apoyo financiero y sanitario tras la batalla.
La otra cara de la moneda está plagada de interrogantes, los principales de tipo ético: ¿es
moral que una máquina decida acerca de la vida de un ser humano? Mary Wareham,
portavoz de Stop Killer Robots, señala que esta tecnología plantea un sinfín de dilemas
legales, como su incapacidad para discriminar entre objetivos civiles y militares, las
dificultades para probar su operatividad o la imposibilidad de que apliquen nociones
cualitativas como la compasión. Los especialistas señalan que se trata de una revolución
semejante a la que supuso la invención de la pólvora y la bomba nuclear, aunque la
investigadora Heather Roff precisa que “se trata de armas precisas, no inteligentes”. Toby
Walsh, un reconocido experto en inteligencia artificial, explica que a estos robots les
sucede como a los niños: “Sabes cómo aprenden, pero no qué van a hacer con el
conocimiento adquirido”. Además, podrían ser hackeados, lo que generaría “serios
problemas si caen en las manos equivocadas”.
En torno a los robots militares, existen argumentos a favor y en contra de su uso. En cuanto
a los argumentos a favor del uso de robots militares existen los siguientes:
ACTUAL
Entre los argumentos en contra del uso de robots militares se encuentran:
Principio de proporcionalidad: no puede determinar la fuerza que debe aplicar en su
ataque en función de la ventaja militar, situación del enemigo y otros parámetros.
Principio de distinción: estas máquinas no pueden distinguir objetivos civiles y militares,
ni si se trata de heridos, menores de edad, etcétera.
Incapacidad para razonar y aplicar nociones cualitativas como la compasión.
Los detractores de estas armas subrayan el riesgo de proliferación, si no se prohíbe de
forma preventiva el desarrollo de robots asesinos.
Imposibilidad de realizar pruebas concluyentes sobre estas máquinas (no se puede
simular el caos bélico; se puede estudiar la forma en que aprenden, pero no cómo
aplican los conocimientos adquiridos).
Imposibilidad de establecer una cadena de responsabilidad jurídica a los actos de las
armas autónomas letales.
Las limitaciones técnicas y la incapacidad para razonar hacen que el robot asesino no
pueda respetar el derecho humanitario internacional.
Al tratarse de máquinas programadas, existe riesgo de hackeo y pérdida de control de
los robots asesinos.
Además, un error de programación o una avería pueden llevar al robot asesino a
ocasionar graves daños a civiles y objetivos no militares (infraestructuras civiles,
etcétera).
DRONES MILITARES
Un vehículo no tripulado de combate aéreo, conocido por sus siglas en inglés UCAV
(Unmanned Combat Air Vehicle) y más conocido popularmente como dron militar o de
combate, es un vehículo aéreo no tripulado (UAV) que generalmente transporta artillería
de aeronaves como misiles, ATGM y / o bombas y se utiliza para ataques militares. Estos
drones suelen estar bajo control humano en tiempo real, con distintos niveles de
autonomía. No hay que confundirlos con los UAV, ya que, aunque estos también pueden
servir a ejércitos, no tienen capacidad para llevar armas y su tarea se centra más en la
vigilancia que en la destrucción de objetivos.
Estos dispositivos son manejados desde tierra por personal militar designado para ello. En
ocasiones puede haber más de un piloto a los mandos; uno manejando el dron a través de
las cámaras que llevan incorporadas y el otro disparando las armas. Al ser más baratos que
los aviones (un helicóptero volando durante una hora cuesta unos 2.000 euros y un dron,
20) y al no entrañar riesgo para la vida del atacante, los UCAV se llevan usando por algunos
ejércitos del mundo durante los últimos años, ya sea como apoyo en operaciones
especiales o para bombardear objetivos concretos.
SITUACIÓN
ACTUAL
Como los drones civiles, los militares se clasifican en base a su rango y a la resistencia.
Están los de alcance cercano (50 km y seis horas de autonomía), corto alcance (150 km y
autonomía de 8 a 12 horas), rango medio (velocidades superiores a 150 km/h y rango de
hasta 650 km) y los que pueden operar en altitudes superiores a los 30.000 pies (9,1 km).
También pueden ser diferenciados por clases: la I (drones pequeños), la II (drones tácticos)
y la III (drones estratégicos).
En el mundo hay más de 100 países que cuentan con drones de combate listos para su
uso. De ellos, solo 40 países poseen o están en proceso de adquirir drones equipados con
armamento. La mayoría están construidos por empresas israelíes o estadounidenses,
líderes en este sector y que los distribuyen al resto del mundo.
Las grandes potencias como China, EEUU, Rusia o Israel ya han exhibido sus flotas de
drones de combate en operaciones militares o en demostraciones aéreas. Los rusos, a
finales de agosto de 2019, presentaron los nuevos modelos S-70 Okhotnik y Altius-U. Estos
compiten con sus equivalentes norteamericanos, el XB-47 y el RQ-4 Global Hawk,
respectivamente. Haciéndonos una idea de la capacidad del primero, puede volar en
régimen subsónico hasta los 1.000 km/h y tiene una autonomía de 3.500 km. Además,
alberga espacio para equipar hasta dos toneladas de armas y es indetectable para los
radares. El Altius es más pequeño, puede estar hasta 24 horas volando sin descanso y
cargar hasta una tonelada de armas. También es invisible para el radar.
China es otro de los países que en 2019 exhibió su potencial en una exhibición coordinada
por la empresa gigante estatal de electrónica china CETC y la Universidad Nacional de
Tecnología de Defensa del ejército chino. Consiguieron juntar 119 drones de ala fija volando
como un solo cuerpo, sobrepasando el récord anterior fijado por el ejército de EEUU en 103
drones. Los chinos cuentan con un nivel de desarrollo superior a los estadounidenses y una
fábrica, DJI, que produce el 70% de drones no militares que se venden en el mundo. Pero
si hablamos de gasto en Defensa, EEUU gana con creces: destinan tres veces más dinero
que China y tienen cerca de 7.000 drones teledirigidos por humanos, muy lejos de los casi
1.500 de los chinos.
El poderoso arsenal de los ejércitos en cuanto a drones militares revela cifras preocupantes.
El Buró de Periodismo de Investigación de los EEUU estima que entre 8.459 y 12.105
personas han muerto por culpa de los ataques con drones.
SITUACIÓN
ACTUAL
Si hablamos de bajas civiles, el número baja bastante (entre 769 y 1.725), y se reduce aún
más en el caso de los niños (entre 253 y 397). A pesar de que los aparatos sean más precisos
que los aviones y estén dotados de la última tecnología, parece que esos "daños
colaterales" de los que una vez habló EEUU en plena guerra de Vietnam no se han
conseguido remediar con la aparición de los UCAVs.
En abril del 2018, más de 3.000 trabajadores de Google firmaron una carta de protesta por
el acuerdo entre la multinacional y el Pentágono de Estados Unidos para desarrollar un
programa de reconocimiento de imágenes que mejoraría la puntería de los aparatos. El
Proyecto Maven, que venció en marzo de 2019, hizo que muchos empleados se fuesen de
la compañía. Laura Nolan es una de ellos. Aunque empezó a trabajar en el proyecto, al
poco tiempo se dio cuenta de que "cada vez estaba más preocupada éticamente", así que
dimitió. Contando su experiencia a The Guardian, aseguró que estas máquinas solo traerán
"atrocidades y asesinatos ilegales incluso bajo las leyes de la guerra, especialmente si se
despliegan cientos o miles".
LA GUERRA ASIMÉTRICA
ACTUAL
Este crecimiento asimétrico no depende de la situación geográfica, sino, depende del
poder económico y político a nivel mundial, he aquí porqué se ha determinado que estos
poderes son la base para convertirse en un Estado con poder tecnológico.
Un gran reto de la tecnología en los conflictos armados es evitar las guerras asimétricas, un
país que tenga 20 aviones no tripulados sufrirá menos en batalla que un país que tenga 20
aviones en guerra. Las bajas en los conflictos armados se reducirán y países que envíen
robots para la guerra no sufrirán más bajas de soldados que los países que utilicen todavía
personas en los campos de batalla. En la actualidad el desarrollo tecnológico
esencialmente se orienta a la elaboración de aviones no tripulados, misiles cruceros, robots,
androides para la guerra, programas de estrategias, de seguimientos, de espionaje, drones,
etc.
ACTUAL
El Ius ad Bellum se refiere a la rama del derecho que define las legítimas razones que un
Estado tiene para entrar en guerra y se enfoca en ciertos criterios que para hacer la guerra
justa; mientras que el Ius in Bello se refiere a la rama del derecho que define las prácticas
aceptables mientras se está en guerra (Reglas de la guerra o Derecho de guerra) y sus
disposiciones se aplican a todas las partes en conflicto, independientemente de los
motivos del conflicto y de la justicia de la causa defendida por una u otra parte (Ius ad
Bellum).
El uso actual de estos dispositivos por parte de países como Estados Unidos o Israel no solo
ha ido encaminado a la vigilancia del territorio enemigo, sino también para realizar
asesinatos selectivos (signature strike). Según estudios se ha determinado que entre el año
2004 a 2012 han existido alrededor de 280 asesinatos llevados a cabo de esta manera, con
el argumento de que los objetivos son líderes de grupos subversivos de medio oriente, pero
hay que apreciar que al momento que se les da muerte no se encuentran en actividad
hostil, son asesinados mientras realizan hábitos ajenos a la batalla, lo que deja en tela de
duda la proposición de que son líderes de grupos violentos, pero este discernimiento le
correspondió al presidente Bush y al presidente Obama en su momento ya que estos
fueron los que autorizaron los signature strikes, dejando prácticamente de lado garantías
procesales reconocidas internacionalmente y realizando un asesinato extrajudicial de
conocimiento público sin mayor repercusión internacional. Esta selectividad de individuos
a los que se determina dar muerte por su supuesto grado de liderazgo en un grupo bélico,
es claramente una vulneración al derecho internacional humanitario y en específico al
artículo 3 de los Convenios de Ginebra, que dispone:
(...) Las personas que no participen directamente en las hostilidades, incluidos los
miembros de las fuerzas armadas que hayan depuesto las armas y las personas puestas
fuera de combate por enfermedad, herida, detención o por cualquier otra causa, serán,
en todas las circunstancias, tratadas con humanidad (…) A este respecto, se prohíben, en
cualquier tiempo y lugar, por lo que atañe a las personas arriba mencionadas:
a) los atentados contra la vida y la integridad corporal, especialmente el homicidio en
todas sus formas, las mutilaciones, los tratos crueles, la tortura y los suplicios.
SITUACIÓN
ACTUAL
El empleo que se le ha dado a estos dispositivos ha sido mediante mecanismo
automatizado (controlado por humanos a una distancia lejana al ataque) y no es de
conocimiento que se haya llegado a obtener o mucho menos a utilizar en conflicto drones
automáticos (programados con capacidad de manipularse a sí mismos). Pese a esto, países
como Estados Unidos han establecido la posibilidad de que los drones en un futuro
tengan autonomía para intervenir en el conflicto armado, programados para seleccionar y
atacar de forma letal objetivos humanos considerados como enemigos o sus bienes
militares. Este tipo de robótica que se despliega y tiene capacidad de actuar por sí misma
incluso para dar muerte, según Stuart Casey-Maslen implicaría “el problema mayor en el
jus in bellum sobre todo en la responsabilidad jurídica individual”.
ACTUAL
Se establece el marco restrictivo al que debe someterse la utilización de un arma previa a
su empleo en un conflicto armado, es así que cuando se realicen los verbos descritos en el
mencionado artículo se deben determinar las circunstancias de utilización, como el
pronóstico del conjunto de escenarios posibles que pueden ser llevados a cabo con el
empleo del arma, y una vez realizado este análisis a los nuevos medios o métodos de
guerra, se debe revisar normativa internacional (no necesariamente manifiesta) que tienda
a restringir la naturaleza que contiene el potencial destructivo de esa arma, la alta parte
contratante tiene la obligación de realizar este proceso.
A más de esta norma muy recurrente a los trabajos sobre este tema, existen directrices o
principios explícitos o implícitos en la normativa, que son reflejo del comportamiento de
sociedades que se orientan a la protección de la dignidad humana en la guerra, estas
directrices deberían ser consideradas cualitativamente previo al empleo de un arma. Se
toma como ejemplo el propuesto por Kellenberger en el que se plantea la premisa del
imperativo de la humanidad como limitante a la elección y utilización de armas o
métodos de guerra indiscriminados
En cuanto a los dispositivos aéreos no tripulados y automatizados con poder para realizar
asesinatos selectivos en la actualidad, no implican por su propia esencia armamento
prohibido manifiesto por la normativa internacional, más bien se puede apreciar que el
uso de estos artefactos en cuanto a vigilancia de territorio ha significado la precisión en la
función de distinguir combatientes de civiles sin bajas humanas, lo que
consecuentemente obtiene como resultado una disminución de daños colaterales, sin
embargo para poder concluir y determinar de manera general la licitud de las
mencionadas armas se debería realizar un análisis a un conjunto de situaciones posibles
con observancia de sus elementos de cada caso en particular.
El hecho de que en uno de estos dispositivos aéreos no tripulados permita que el operador
realice su ataque a kilómetros de distancia del territorio que va a ser agredido y que lo
haga en base a sondeo de terreno por medio de sensores que le permiten identificar su
objetivo, no lo exime de observancia a las normas contenidas en el Protocolo Adicional del
Convenio de Ginebra, que tienen carácter convencional y de aceptación internacional para
un conflicto. En especial el artículo 57 sobre precaución en un ataque a población civil y
bienes de la población civil, en su numeral II literal b se establece que deberán abstenerse
de realizar el ataque en caso de que dentro de esta previsión haya el riesgo de pérdidas
civiles excesivas en relación a la ventaja militar que se pueda prever.
SITUACIÓN
ACTUAL
Entonces, en caso de que no se tomen estas precauciones podríamos determinar que un
ataque es ilegal y la ubicación del causante para las víctimas es indeterminada. Desde esta
perspectiva un ataque por medio de estos dispositivos de forma automatizada puede
evitar la ilegalidad a la que le sometería el artículo 57 del mencionado Protocolo, ya que se
puede prever por la zona que van a atacar el patrón de vida existente, no con una garantía
exacta porque si bien los sensores la dan acceso a la posibilidad de distinguir dispositivos
mecánicos militares de los bienes civiles, no hay la tecnología necesaria para diferenciar
militares de civiles, por lo tanto el artículo 57 no puede ser cumplido a cabalidad, pero esta
interpretación empleada hacia el atacante puede ser flexible a la interpretación. Así como
cuando ataca zonas despobladas por civiles (desiertos o mares que son moradas de los
enemigos).
Otra problemática latente en cuanto al manejo de drones es que al ser dispositivos aéreos
se deben regir por normativa referente a este tipo de ataques la cual según la doctrina es
débil o inexistente, sobre esta materia han sido elaborados manuales emitidos por países
europeos y por su parte la Cruz Roja proporciona reglas de la guerra aérea las cuales han
pretendido ser vinculantes al ser concebidas como costumbre internacional, sin embargo,
“la costumbre internacional siempre tiene cierto grado de incertidumbre”.
PASADAS
Con respecto al uso de robots militares, en diciembre de 2016, la comunidad internacional
se reunió en Ginebra para debatir sobre el futuro de las armas autónomas letales, robots
militares programados para seleccionar y eliminar objetivos humanos. La conferencia se
produjo en el marco de la Convención de la ONU sobre Ciertas Armas Convencionales, la
misma que prohíbe las bombas de racimo, las armas láser y las minas antipersona. Fue la
primera vez que los 123 países de la Convención expresaron su posición oficial acerca de
este tema. Tras una semana de debates protagonizados por posiciones ambiguas la
comunidad internacional decidió postergar el debate y crear un Grupo de Expertos
Gubernamentales “con fines abiertos”, según recoge la declaración final.
Las negociaciones en Ginebra concluyeron con tres grandes posturas: las principales
potencias militares -y con las mayores industrias armamentísticas- no quisieron prohibir los
robots asesinos; la mayor parte de los Estados abogó por seguir estudiándolos en aras de
una futura prohibición, y un grupo de 19 países pidió abiertamente la creación de una
moratoria que vete su desarrollo y despliegue hasta que haya mecanismos legales
internacionales que rijan o veten su uso. EEUU y Reino Unido no vieron necesario crear
nuevas normas. Francia y Alemania ahora estuvieron a favor de estudiar la cuestión con
más detenimiento y se opusieron a su prohibición. China rechazó el riesgo de proliferación
y justificó sus reticencias en “el derecho de las naciones en vías de desarrollo a dotarse de
la última tecnología”. Corea del Sur, Israel e India también mostraron reticencias y
abogaron por posponer el tema, mientras que los representantes de la Unión Europea y
Japón subrayaron los riesgos de tomar medidas apresuradas que limiten el uso de otros
robots beneficiosos para la sociedad, como los que sirven para combatir incendios o
evacuar heridos. Rusia se opuso tajantemente a cualquier veto sobre esta tecnología.
Finalmente, todas estas naciones menos Rusia –se abstuvo en el último minuto– dieron luz
verde a la creación del grupo de expertos. Por otra parte, un grupo de 19 países, entre ellos
13 latinoamericanos, lanzaron un llamamiento para la prohibición preventiva. Actualmente
ya son 22 las naciones que piden vetar esta tecnología. Ante la duda de si sucederá como
con las minas antipersona, prohibidas después de su proliferación por un tratado que sólo
han ratificado 40 países, estas naciones decidieron adoptar una propuesta de Jody
Williams: crear zonas libres de robots asesinos.
Respecto a los drones, no existe acción concreta tomada por la comunidad internacional.
Sin embargo, la relatora especial sobre ejecuciones extrajudiciales, sumarias o arbitrarias
de la ONU, en julio del 2020, presentó un informe ante el Consejo de Derechos Humanos
advirtiendo sobre los atropellos a los derechos humanos que se llevan a cabo cada vez más
a menudo con aeronaves no tripuladas. De acuerdo con la relatora, "el mundo ha entrado
en una 'segunda era de drones' en la que numerosos actores estatales y no estatales
despliegan drones con tecnologías más y más avanzadas". En el informe detalla que la
posesión de drones ya no es una cuestión de élite, sino que existe una carrera para su
adquisición.
ACCIONES
PASADAS
Según el trabajo, en 2020 al menos 102 países cuentan con un inventario activo de drones
militares y 40 más poseen o están en proceso de adquirir drones armados. Del total, unos
35 países tendrían el mayor arsenal de drones y también el más letal.
Por ello, para eliminar el peligro que suponen los drones y frenar su proliferación, la
relatora pidió implementar un control nacional estricto a su exportación, al igual que a la
de las tecnologías desarrolladas con estos vehículos. También reclamó que el uso de
drones se apegue a las leyes internacionales humanitarias y de Derechos Humanos. Por
último, la experta instó al Consejo de Seguridad de Naciones Unidas a que aborde
formalmente el tema y ha exhortado a los Estados a apoyar una propuesta de México para
establecer estándares y mecanismos de rendición de cuentas sobre el uso y exportación
de drones armados mediante un proceso multilateral y transparente.
Finalmente, cabe destacar que frente al desafío que representan las armas autónomas, el
Secretario General de la ONU, Antonio Guterres, manifestó que estas armas deben ser
prohibidas por el derecho internacional. Estas declaraciones las hizo en el año 2018. A su
parecer, la inteligencia artificial ayuda en tareas positivas “como el diagnóstico médico o
de vigilancia”, pero señaló su preocupación sobre una faceta en la que las máquinas
pueden sustituir a los hombres: las armas que tendrán la posibilidad de matar por sí
mismas. Guterres advirtió que la “militarización de la inteligencia artificial representa un
grave peligro”. Dar la posibilidad de seleccionar objetivos a las máquinas creará enormes
dificultades ya que “hará muy difícil evitar la escalada de conflictos y garantizar el respeto
del derecho internacional humanitario en los campos de batalla”. Para el Secretario
General, “las máquinas que tienen el poder y la discreción de quitar vidas humanas son
políticamente inaceptables, son moralmente repugnantes y deben ser prohibidas por el
derecho internacional”
POSICIONES POR
BLOQUE
Unión Europea
Sin embargo, en 2017, la Unión Europea destinó parte de su presupuesto para fomentar el
desarrollo de la industria militar bajo la premisa de la defensa de sus ciudadanos frente a
las nuevas amenazas globales. En la actualidad hay 17 proyectos de nueva tecnología
militar de la Unión Europea, con la posibilidad de un incremento en sus presupuesto a
causa de la crisis del COVID-19.
Estados Unidos
BLOQUE
China
Desde la llegada a la presidencia de Xi Jinping en 2013, se inició una reforma de las fuerzas
armadas chinas con un claro objetivo de modernización.
En los últimos años, Pekín ha ido desarrollando nuevas armas de alta tecnología y
renovado su ejército hasta el punto de poder desafiar el poderío de Estados Unidos o Rusia
en algunos aspectos.
China fomenta el desarrollo de esta industria para que las empresas puedan adquirir el
mayor conocimiento posible y desarrollar tecnología propia. Asimismo, ha iniciado una
campaña de desarrollo de tecnología de inteligencia artificial (IA), reclutando a los
estudiantes más destacados de su sistema educativo. China considera que el uso militar de
la IA es inevitable y lo está persiguiendo agresivamente.
Rusia
En 2018, Vladimir Putin anunció la modernización del ejército ruso, con el desarrollo en
nueva tecnología para la construcción y funcionamiento de misiles (intercontinentales,
hipersónicos y nucleares), vehículos subacuáticos no tripulados, entre otros.
Por otro lado, se ha acusado al régimen de Putin de promover los ciberataques con la
finalidad de desestabilizar a otros gobiernos.
Latinoamérica
Hay un bajo desarrollo tecnológico en la región que impide generar una industria en el
rubro de la inteligencia artificial o las armas inteligentes. La mayoría de países se ve aún en
la necesidad de comprar esta clase de productos para el fortalecimiento de sus respectivos
ejércitos.
Solo en Brasil hay iniciativas privadas para el desarrollo de drones, con el soporte de la
industria israelí.
QARMA'S
¿Se debería usar la IA en guerras? ¿Hasta qué punto se podría prohibir el uso de las
armas autónomas en conflictos armados?
¿Cuál será la respuesta del comité respecto a las cuestiones éticas del uso de la IA y de
las armas autónomas? ¿Quiénes serán los culpables en cada caso?
¿En qué medida se deben desarrollar estándares, índices u otros para guiar el
desarrollo de estas tecnologías en el campo militar? ¿Cuáles serían estos parámetros?
RECOMENDACIONES
FINALES
Como la mesa de este comité queremos hacer algunas recomendaciones generales:
La guía de estudio es, como su nombre lo indica, una guía. Debe servir para que los
delegados formen una idea general o superficial sobre el tema, pero no deben ceñirse
exclusivamente a lo expuesto en esta guía. Se espera que los delegados investiguen a
profundidad todas las aristas expuestas en la guía, así como también otros problemas
que puedan ser relevantes para el tema. Queremos hacer un especial énfasis en que
los delegados investiguen con mucha mayor profundidad los puntos que se
mencionan en la sección IV de esta guía de estudio, recopilando datos, cifras, casos,
acciones, etc.
Se debe tomar una especial consideración por la sección VII, en la cual se indican las
preguntas que todo proyecto de resolución debe resolver. En la medida de lo posible,
un proyecto de resolución debe contener cuando menos las respuestas a estas
preguntas, así como también las respuestas a los diferentes temas adicionales que
sean propuestos durante la conferencia.