Está en la página 1de 33

DIRECTORES

DIEGO ALMENARA
SANTIAGO ESCORCIA
JOSÉ LUIS MARÍN

V E D I C I Ó N
ÍNDICE
1.CARTAS DE BIENVENIDA ....................................................... 3

2. INTRODUCCIÓN AL COMITÉ ....................................................... 6

3. INTRODUCCIÓN AL TEMA ....................................................... 9

4. HISTORIA DEL TEMA .......................................................11

5. SITUACIÓN ACTUAL .......................................................15

6. ACCIONES PASADAS .......................................................28

7. POSICIONES POR BLOQUE .......................................................30

8. QARMA'S .......................................................32

9. RECOMENDACIONES .......................................................33
CARTA DE BIENVENIDA

DIEGO
ALMENARA
¡Hola a todas/os!

Mi nombre es Diego Almenara Espino y


tengo el gran honor de ser el Director de
DISEC en la presente edición de UDEP MUN.
Soy arequipeño, tengo 21 años y estoy
cursando el tercer año de la carrera de
Ciencia Política y Gobierno en la Pontificia
Universidad Católica del Perú. En el ámbito
MUN soy miembro honorario y entrenador
de DLS Delegation, equipo MUN del colegio
La Salle de Arequipa. Asimismo, soy
cofundador y presidente de Arequipa
Debate, el primer equipo MUN
interinstitucional de Arequipa, con el que
últimamente estamos cosechando muchos
Las circunstancias en las que nos
triunfos.
encontramos nos han obligado a
reinventarnos y los Modelos de Naciones
Mi experiencia en Modelos de Naciones Unidas no han sido ajenos a ello. Ahora
Unidas inició en el año 2014 cuando estaba pasamos de debatir y negociar
en 3ro de secundaria. A la fecha, he presencialmente a hacerlo a través de
participado en casi 40 MUNs tanto pantallas, cada uno desde sus casas. Yo
nacionales como internacionales, ya sea soy de la idea de que la virtualidad, más
como delegado, faculty advisor/entrenador, allá de las limitaciones que pueda
mesa directiva y organizador, obteniendo presentar, nos da la oportunidad para
distintos premios en los mismos. En el seguir haciendo lo que nos apasiona:
Modelos de Naciones Unidas.
ámbito de la organización he tenido la
Sinceramente, estoy ansioso por que la
oportunidad de ser Secretario General de
conferencia inicie y poder verlos debatir.
Armunsalle 2016 y MUN Salle Arequipa 2017, Espero que esta experiencia la disfruten
así como Secretario Académico de MUNARE al máximo y que pueda aportar a su
20, conferencia organizada por Arequipa crecimiento personal. Desde ya, cuenten
Debate. Gracias a estas experiencias he con mi compromiso para tales fines.
podido desarrollar distintas habilidades
como oratoria, liderazgo, negociación, ¡Nos vemos!
organización, entre otras; también he podido
crecer académicamente al ampliar mis DIEGO ALMENARA
conocimientos sobre distintos temas de Director Comité DISEC
carácter internacional, esto gracias a la V Edición de UDEP MUN, 2020.
investigación que la participación en un
MUN demanda.
CARTA DE BIENVENIDA

SANTIAGO
ESCORCIA
Hola a todos sean bienvenidos al comité de
DISEC de UDEP MUN 2020. Mi nombre es
Santiago Escorcia, soy de Colombia y en esta
oportunidad tengo el placer de fungir como
uno de sus directores para el comité.

Actualmente soy estudiante de Relaciones


Internacionales y Ciencia política (doble
programa) en la Pontificia Universidad
Javeriana de Bogotá. Soy un gran
apasionado de los estudios culturales, de la
negociación, la diplomacia, la resolución de
conflictos, la cooperación y las dinámicas
subregionales (especialmente las de Medio
Oriente, Europa y África).
Mi pasión por los Modelos de Naciones la burbuja, a arriesgarse a salir de su zona
Unidas surgió a los 10 años. Desde entonces de confort y, como decimos en Colombia,
he tenido la oportunidad de participar en a ser “Echao pa' lante” que significa ser
varios modelos en Colombia, algunos países perseverante. Considero que un buen
de América Latina y también en Estados delegado no se mide por qué tan larga
Unidos, fungiendo labores desde delegado sea su intervención o que tan alto sea su
hasta Secretario General. Actualmente soy tono de voz sino por las ganas que tenga
Subsecretario General Adjunto para la de trabajar en equipo para el beneficio y
subsecretaría de Asuntos Regionales: el caso satisfacción de todos.
Latinoamericano del modelo de Naciones
Unidas de la Pontificia Universidad Javeriana Manifiesto mi emoción por escucharlos y
y también soy parte de la Junta Directiva del poder interactuar con ustedes a lo largo
grupo estudiantil de la misma institución del modelo y espero que en un futuro
(onujaveriana). podamos volcar la mirada hacia atrás y
recordar este momento con alegría. Sin
Desde mi punto de vista, los Modelos de más que decir, les deseo mucha suerte.
Naciones Unidas no solo son eventos
competitivos, sino que son oportunidades Cordialmente desde Colombia,
para crecer como académicos, como
ciudadanos del mundo y como personas SANTIAGO ESCORCIA
Director Comité DISEC
íntegras. Por tanto, espero que junto con
V Edición de UDEP MUN, 2020.
Diego y José podamos sentar unas bases
fuertes para hacer de esta oportunidad una
inolvidable y para retarlos a pensar por fuera
CARTA DE BIENVENIDA

JOSÉ LUIS
MARÍN
¡Bienvenid@s al comité de Desarme y
Seguridad Internacional - DISEC!

Mi nombre es Jose Luis Marin y en esta


oportunidad tengo el honor de formar parte
del equipo de directores de UDEPMUN 2020.

Mi experiencia en los modelos de Naciones


Unidas se remonta al año 2013, cuando
ingresé a la Asociación Civil Internacia. Esta
asociación es la encargada de organizar el
PUCPMUN, junto con la Facultad de Ciencias
Sociales PUCP. Ser parte de Internacia me
permitió contar con una formación en
Relaciones Internacionales y tener las
herramientas necesarias para tener un buen Estudié economía en la PUCP y en la
desempeño como delegado, llegando a actualidad trabajo en el Consorcio de
participar en el Harvard National Model Universidades, asociación sin fines de
United Nations (HNMUN 2015, Boston). lucro conformada por la PUCP, UPCH, UP
y UL. He trabajado en entidades públicas
He sido parte de los equipos organizadores como SERVIR y la Municipalidad de Lima,
así como en un organismo internacional
del PUCPMUN hasta el 2019, desempeñando
como la OIT (Organización Internacional
cargos como Secretario General (2016),
del Trabajo).
Subsecretario General (2015), Sec.
Académico (2019), Sec. Logístico (2014), El tema propuesto para nuestro comité es
Coordinador General (2017) y Director de sin dudas muy interesante y estoy seguro
Comités (2017, 2018). También he sido parte que va a generar mucho debate. Espero
de Mesa Directiva en varios modelos con ansias ver cómo defienden sus
nacionales tales como el CarMUN 2015 propuestas y las posiciones oficiales de
(Moderador del Comité OMC), IDPMUN 2014 sus países.
(Director del Comité COP20), GoT Crisis
Committee (Director), MUNARE 20 (Director ¡Nos vemos virtualmente este 05 de
del comité UNICEF), A Pari MUN 2020 noviembre!
(Director del comité FMI), simulaciones
internas, etc. Como Director de la comisión JOSÉ LUIS MARÍN
MUN de Internacia, me desempeñe como Director Comité DISEC
Faculty Advisor de la delegación en los V Edición de UDEP MUN, 2020.
modelos MUN San Marcos, UPMUN,
USILMUN, IDPMUN, UPNMUN y HNMUN LA
2019.
INTRODUCCIÓN

AL COMITÉ
El Disarmament and International Security Committee (DISEC) es uno de los comités más
importantes dentro del Sistema de Naciones Unidas al ser uno de los seis (6) comités
principales que componen la Asamblea General de Naciones Unidas, de acuerdo con el
la regla 98 del capítulo XIII de las Reglas de Procedimiento de la Asamblea General
(2020). Este comité se posiciona entonces como el primero de los seis comités de la
asamblea también se le refiere como el “Primer Comité” o “Primera Comisión”.

La Asamblea General de Naciones Unidas y por lo tanto a su vez la Primera Comisión se


establece en 1945 bajo el mandato de la Carta de Naciones Unidas y provee de un foro de
discusión multilateral central para la resolución de las problemáticas internacionales. Esta
asamblea tiene el poder de hacer recomendaciones a los Estados miembro ante ciertas
problemáticas y requiere de informarse a partir de reportes de sus comités principales.
Dentro de este contexto, DISEC es el comité encargado de manejar cuestiones
relacionadas al desarme, problemáticas globales y otras cuestiones que tengan relación
con el mantenimiento de la seguridad Internacional. Este es considerado entonces el
máximo comité después del Consejo de Seguridad para tratar temas referentes al
mantenimiento de la paz y seguridad universal. Este comité se enfoca en el
cumplimiento del Artículo 11 del capítulo IV de la Carta de Naciones Unidas que en su
inciso uno reza “La Asamblea General podrá considerar los principios generales de la
cooperación en el mantenimiento de la paz y la seguridad internacionales, incluso los
principios que rigen el desarme y la regulación de los armamentos, y podrá también
hacer recomendaciones respecto de tales principios a los Miembros o al Consejo de
Seguridad o a éste y a aquéllos.” (UNGA,2020).

Este comité considera los problemas de desarme y seguridad enmarcados dentro de la


carta de la ONU y dentro de cualquier otro órgano del sistema cuyo mandato esté
relacionado a estos temas. Históricamente se han realizado varias gestiones en materia
de los principios internacionales para el mantenimiento de la paz y la seguridad
internacionales, los principios para la regulación de armamento y procesos de desarme, la
promoción de los arreglos de cooperación y las mediadas para la estabilidad de la
seguridad por medio de la disminución de armamentos. Es importante tener en cuenta
que este comité trabaja en cooperación con la Comisión de Naciones Unidas para el
Desarme. (UNGA,2020).

Históricamente la importancia de este comité empieza en 1946 con las primeras


gestiones después de las bombas nucleares de Hiroshima y Nagasaki preocupándose
principalmente por la expansión de conocimiento nuclear aplicado a armamento bélico.
De hecho, la primera resolución emitida por Naciones Unidas tenía que ver justamente
con este desarme nuclear lo que dio desde esta época un rol fundamental al comité para
la pacificación del mundo y de las problemáticas.
INTRODUCCIÓN

AL COMITÉ
Es importante tener en cuenta que el mandato de este comité no es el mismo que el del
consejo de seguridad ya que este comité se busca generar un consenso y una serie de
evaluaciones y recomendaciones dirigidas en principalmente, mas no únicamente, a la
Asamblea general para la toma de decisiones directas en los temas de desarme y
seguridad. Fue desde el periodo ordinario de sesiones de 1993 que se ha buscado la
reducción de la agenda del comité y mejorar su efectividad para la cooperación y la
reacción de diálogo en materia de seguridad. Del mismo modo, si bien se pueden
nombrar algunas resoluciones emitidas por la asamblea general que tuvieron acción
directa por parte del comité como lo fue la primera resolución o las resoluciones
adoptadas a en algunas sesiones especiales (especialmente la décima, décimo-segunda y
décimo-quinta), es importante tener en cuenta que el comité se ha enfocado en el
desarme regional, desarme de zonas de conflicto, desarme nuclear, y manejo correcto de
tecnología nuclear.

ACCIONES ESPECÍFICAS POR PARTE DEL COMITÉ

Como se venía tratando anteriormente, dentro de los grandes avances del comité se
podrían resaltar La primera Resolución de la Asamblea General, “Establecimiento de una
Comisión para tratar los problemas planteados por el descubrimiento de la Energía
Atómica”, del 24 de enero de 1946; la resolución 1378 que trata del desarme general y
completo, la resolución 1379 que trata de las pruebas nucleares francesas en el Sahara , la
resolución 1380 que trata la prevención de una mayor difusión de armas nucleares ,la
resolución 1402 que trata la suspensión de ensayos nucleares y termonucleares.

Dentro de este contexto y acercándose un poco más a la problemática que abordará el


comité, se puede hacer mención a dos tratados bastante importantes para Disec que son
el Tratado de No proliferación Nuclear (1970) y el Tratado sobre el Comercio de Armas
(2015). Estos dos marcan un régimen importante dentro del Derecho Internacional
precisamente porque marcan las pautas a seguir en materia de armas, desarme, manejo
y gestión y aplicación de convenios subsecuentes. Disec si bien ha tenido más bien pocos
pronunciamientos en cuanto al establecimiento de ambos tratados ha sido una pieza
muy importante a nivel internacional para la garantía del correcto cumplimiento de estos
tratados brindando entonces acciones recomendables a la asamblea general sobre la
gestión de cada país.

El surgimiento de nuevas tecnologías, la expansión de fenómenos dinámicos como la


globalización, la apertura de nuevos mercados relacionados con la innovación han
generado cambios estructurales y fundamentalmente amplios en varios sectores de la
sociedad.
INTRODUCCIÓN

AL COMITÉ
El sector de defensa y de seguridad claramente no es la excepción y el surgimiento de
nuevas tecnologías (tanto gestionadas desde la esfera pública como por actores privados)
ha puesto un nuevo tema en la agenda de la comunidad internacional y esta es
precisamente la regulación de la implementación de nuevas tecnologías (robótica,
inteligencia artificial, mecatrónica, etc.) hacia la innovación de material bélico o acciones
relacionadas a producción y uso de armamento. Estas innovaciones son bastante nuevas
y por tanto se han encontrado inmersas en varios vacíos legales dentro del Derecho
Internacional y el Derecho Internacional Humanitario a tal punto de que organizaciones
como la Cruz Roja internacional estableciera en 2013 que “No existen normas específicas
sobre las armas autónomas. Sin embargo, el derecho establece que los Estados deben
determinar si el empleo de armas, medios o métodos de guerra nuevos que desarrollen o
adquieran estaría prohibido por el derecho internacional humanitario en algunas
circunstancias o en todas. En otras palabras, las normas del derecho internacional
humanitario, establecidas ya desde hace largo tiempo, en particular las normas de
distinción, proporcionalidad y precauciones en el ataque, se aplican a todas las armas
nuevas y los desarrollos tecnológicos bélicos, incluidas las armas autónomas.” (CICR,2017)
En el Sistema Internacional es preciso afirmar que esta problemática se enmarca mucho
dentro del Derecho Internacional Humanitario ya que, en otras instancias, las
organizaciones, comités especializados (incluyendo DISEC) y foros internacionales han
promovido la idea del ajuste de los tratados ya existentes y vigentes a la problemática. En
materia de Derecho Internacional humanitario se hacen avances en materia de los
principios de proporcionalidad y el principio de distinción que hacen parte de las
resoluciones y tratados que ha promovido o expedido DISEC y otros comités relacionados
con la seguridad internacional. Actualmente, en organizaciones multilaterales incluyendo
en las Naciones Unidas por medio de la Primera comisión se han incrementado los
esfuerzos por reajustar y generar un marco legal mucho más específico que incluya el uso
de la tecnología en el armamento incluyendo como temas principales el material bélico
autónomo, el uso de la robótica y la mecatrónica, la proliferación de armamento
tecnológico de destrucción masiva, entre otros. Actualmente ni la Primera comisión ni
otros órganos, organismos u organizaciones a nivel internacional han generado un
documento o un avance documentado preciso en la regulación de dichas armas bajo un
marco internacional definido, pero si se han adelantado charlas al respecto en las
plenarias ordinarias de DISEC. La preocupación en el tema ha generado una convención
de Ginebra en 2018,algunas reuniones de expertos de la Convención sobre Armas
Convencionales de la ONU y la creación de Organizaciones No Gubernamentales como el
Comité Internacional para el Control de Armas Robóticas, sin embargo, las conclusiones a
las que llegaron fueron simplemente de concientizar sobre tener un mejor manejo
teniendo en cuenta que varios países prefieren ni siquiera tratar el tema y son más bien
pocos quienes se mueven en pro de la regulación específica. Ante esto el comité no ha
emitido grandes pronunciamientos al respecto.
INTRODUCCIÓN

AL TEMA

Según Alan Turing, la Inteligencia artificial es hacer modelos computacionales del


comportamiento humano. Es decir, replicar el actuar humano mediante las máquinas.
¿Podrá una máquina pensar? se preguntó por primera vez Turing en la década de los 50s
e ideó el icónico Test de Turing en el documento “Computer Machinery and Intelligence”,
donde, mediante ejercicios, comparó las respuestas humanas y las artificiales. La prueba
consistía en qué tanto podía una computadora simular ser una persona (comportarse
como una).

En la misma década, Isaac Asimov publicó “Yo, Robot” libro que relata cómo un grupo de
robots se vuelve en contra de los seres humanos. A pesar de que este trabajo inspiró a
múltiples científicos e investigadores, su más destacable postulación fue las “Tres leyes de
la robótica para prevenir que las máquinas inteligentes se vuelvan malignas”. Estas tres
leyes son:
Un robot no debe dañar a un ser humano, o, por inacción, permitir que un ser
humano encuentre daño.
Un robot debe siempre obedecer órdenes humanas, siempre y cuando estas no
entren en conflicto con la Primera ley.
Un robot debe proteger su propia existencia, siempre y cuando esto no entre en
conflicto con la Primera o Segunda ley.

A partir de la década de los setentas se produjo el “Invierno de la tecnología Artificial”,


donde Estados Unidos disminuyó el financiamiento de su programa DARPA, destinado a
la investigación del tema y los demás países siguieron estas medidas, causando menor
interés en esta tecnología.

Al pasar este periodo, la inteligencia artificial avanza enormemente. Solo por nombrar
algunos sucesos; en el 2005, un vehículo de Stanford triunfa en el reto DARPA, al manejar
211 kilómetros de manera autónoma por el desierto; en el 2011, ¡Watson de IBM gana el
juego Jeopardy! y derrota a dos excampeones; en el 2016, el sistema de deep learning de
Alpha Go vence al campeón jugador de Go. Todo esto es muy interesante. Pero, la gran
pregunta es: ¿qué peligro real podría tener la inteligencia artificial y las nuevas tecnologías
usadas militarmente? La inteligencia artificial y su militarización representan una
amenaza real para la manutención de la paz.
INTRODUCCIÓN

AL TEMA
Los principales objetivos de nuestro comité son preservar la seguridad internacional y el
desarme progresivo. Es por ello, que debemos tener en cuenta el riesgo que constituyen
las armas ya existentes y, en mayor manera, toda aquella innovación con potencial de
militarización. Es nuestro deber, entonces, reconocer los peligros que representa la IA en
el contexto internacional, así como los peligros que las armas letales autónomas, o LAWS
por sus siglas en inglés, conllevan al definirse como aquellas armas que hacen uso de
sistemas de inteligencia artificial y se manejan de manera autónoma. En otros términos,
estas armas pueden atacar a un ser humano por su cuenta, sin la necesidad de
supervisión de una persona; así podemos incluir a los robots y drones militares como
LAWS.

Al respecto, los grandes líderes tecnológicos no han tenido demora en demostrar sus
posturas. Stephen Hawking, dijo en su momento que “la inteligencia artificial será lo
mejor o lo peor para la humanidad”, dando a notar un punto ambivalente. Por el otro
lado, Elon Musk, afirmó que "hasta que las personas no vean robots asesinando gente en
la calle, no van a saber cómo reaccionar, porque esto les parece muy etéreo". Finalmente,
por contraparte, Mark Zuckerberg, declaró: “soy optimista en lo que respecta a la
inteligencia artificial. En cinco o diez años veremos las dramáticas mejoras que
conseguirá para nuestras vidas". Vemos a posturas divididas sobre los beneficios o peligros
que puede representar la inteligencia artificial.

Lo cierto es que la innovación siempre está un paso adelante que la regulación. Aunque
esto no impide crear parámetros de carácter vinculante como una medida de
prevención, hasta el momento no hay un documento oficial que regule la investigación y
manipulación de la inteligencia artificial, de las LAWS o de cualquier nueva arma
tecnológica. Actualmente, es una situación muy preocupante, pues, si no hay adecuada
regulación efectiva, tendremos que esperar algún “error” en el sistema para que los
humanos perdamos la partida. El intento más cercano de tomar una medida de
prevención es una carta abierta dirigida a la ONU firmada por 116 expertos en la materia,
por supuesto, sin fuerza vinculante. La nueva salvación o amenaza está a la espera de un
error humano.

Bajo lo mencionado, los delegados deberán formular sus posiciones y propuestas: si bien
se puede considerar peligroso el desarrollo de estas tecnologías para uso bélico, tenemos
que tener en cuenta la posibilidad de evolución de las mismas; así no sea tangible al
momento. Es esencial, además, recordar la desventaja militar que tendrían los países sin
los medios necesarios para producir estas armas y cómo esto posibilitaría el aumento de
la desigualdad entre la comunidad internacional.
HISTORIA DEL TEMA
LOS PRIMEROS ROBOTS

La historia de los robots tiene su origen en la Grecia antigua y en las primeras dinastías de
China. Se pueden hallar vestigios de robots primitivos en el siglo I. Estos dispositivos,
conocidos como autómatas (vocablo de origen griego que significa “que actúa por
voluntad propia”), fueron básicamente máquinas con movimientos no eléctricos que
simulaban acciones humanas o animales. Registros históricos hablan de una “orquesta
mecánica” construida por artesanos chinos en tiempos de la Dinastía Han (200-300 A.C.).
Otros documentos describen la construcción de un ave operada a vapor construida en el
siglo IV A.C. por el matemático griego Arquitas de Tarento.

Durante la Edad Media, tanto en Europa como en el Medio Oriente, algunos autómatas se
popularizaron como parte del mecanismo de relojes. Según describe en sus propios
textos, diagramas e ilustraciones, el matemático árabe Al-Jazari (1136-1206) pudo construir
diversos dispositivos mecánicos. Entre ellos, un gran reloj en forma de elefante que
sonaba cada hora y una mesera autómata que servía bebidas. El Renacimiento trajo su
propia versión de los robots, como el autómata humanoide concebido por Leonardo da
Vinci en 1495. Según sus ilustraciones, podría realizar movimientos cuasi humanos como
sentarse, mover los brazos, las piernas y rotar la cabeza. Su apariencia era como la de un
caballero en su armadura medieval.

La Revolución Industrial y el creciente enfoque en las matemáticas, la ingeniería y la


ciencia en la Inglaterra victoriana dieron impulso al desarrollo de la robótica como la
conocemos hoy. Charles Babbage (1791-1871), considerado el padre de la computación,
construyó las bases de la informática a inicios del siglo XIX. Aún inconclusos, sus
proyectos para desarrollar la máquina de diferencias y la máquina analítica crearon las
bases para el desarrollo del cálculo mecánico, que dio origen a la ciencia computacional
moderna. Al mismo tiempo, algunas fábricas comenzaron a utilizar máquinas para
incrementar la productividad y la precisión en sus líneas de producción.

El término robot se introdujo al vocabulario popular con la publicación en 1920 de la obra


R. U. R. (Rossum’s Universal Robots o Robots Universales de Rossum), del autor checo
Karel Capek. La palabra fue tomada de un antiguo vocablo eslavo que significa
aproximadamente “tarea monótona o forzada”. La palabra robótica, mientras tanto, fue
acuñada por Isaac Asimov en 1942, cuando propuso las Tres Leyes de la Robótica en su
cuento Runaround:

Un robot no debe dañar a un ser humano, o, por inacción, permitir que un ser
humano encuentre daño.
Un robot debe siempre obedecer órdenes humanas, siempre y cuando estas no
entren en conflicto con la Primera ley.
Un robot debe proteger su propia existencia, siempre y cuando esto no entre en
conflicto con la Primera o Segunda ley.
HISTORIA DEL TEMA
La idea de la inteligencia artificial rondaba las mentes de la comunidad científica durante
la década de 1940. Alan M. Turing (1912-1954) fue un científico, matemático e informático
británico que se hizo la pregunta “¿las máquinas pueden pensar?”. Durante su carrera
trabajó en crear un sistema para computar grandes cantidades de información a alta
velocidad. Hebert Simon (1916-2001) fue un científico estadounidense que puso en
práctica las teorías de Turing y en 1956 respondió afirmativamente la pregunta del
británico por medio de la creación de una computadora capaz de probar teoremas
matemáticos. Era cierto, una máquina sin vida era capaz de pensar lógicamente, lo que
dio impulso al desarrollo de la inteligencia artificial. Pasarían algunos años más para que
el que es considerado el primer robot industrial comenzara a funcionar. En la década de
1950, George Devol (1912-2011) diseñó el Unimate (resultado de combinar las palabras
Universal Automation o Automatización Universal), un brazo robótico que transportaba
armazones metálicos en una fábrica de General Motors en Nueva Jersey.

El primer salto cuántico, sin embargo, ocurrió el 4 de octubre de 1957. La antigua Unión
Soviética logró con éxito lanzar el Sputnik I, el primer satélite artificial autónomo en la
historia. Con un peso de 83.6 kilogramos, el satélite orbitó la tierra transmitiendo señales
durante tres semanas. La carrera armamentista puso a las potencias mundiales en
competencia por crear robots y sistemas de inteligencia artificial al servicio de la industria
bélica. Muchas de estas creaciones fueron desarrolladas en universidades e institutos
científicos. Tal es el caso de Shakey, que es considerado el primer robot móvil con la
capacidad de percibir y razonar acerca de su entorno. Fue desarrollado por el laboratorio
de inteligencia artificial de Stanford, haciendo uso de avances en las áreas de robótica,
visión por computadora y procesamiento natural de lenguaje. Fue el primer proyecto
robótico en conjuntar el razonamiento lógico con la acción física.

Una nueva generación de robots surgió durante la década de 1970, gracias a la llegada de
los microprocesadores. La forma física fue perfeccionada y el software fue mejorado a
través de lenguajes de programación más poderosos. Esta nueva ola de robots aprovechó
el surgimiento de cámaras y sensores para adaptarse al entorno que los rodeaba y, en
ocasiones, ajustar sus programas en tiempo real. El primer ejemplo de un robot que
realmente caminaba y hablaba lo encontramos en Japón, por medio del Wabot-1,
construido en la Universidad Waseda.

Desde entonces, muchos robots y androides han facilitado la vida del ser humano. Tal es
el caso de Robonauta, un robot humanoide operado desde el Laboratorio de Robótica
Dexterous, en el Centro Espacial Johnson de la NASA en Houston, Texas. Construido en el
año 2000, el hábil robot cuenta con manos que pueden manipular herramientas
espaciales y trabajar en ambientes en los que los astronautas no. El ejemplo actual más
visible, quizá, es ASIMO. Un robot con figura humana de 130 centímetros de altura, creado
por el Centro de Investigación y Desarrollo de Honda en Japón, que puede caminar e
incluso correr. ASIMO puede detectar los movimientos de múltiples objetos y medir su
distancia y dirección, permitiéndole saludar de mano a las personas que se le acercan.
HISTORIA DEL TEMA
ROL DE TECONOLOGÍAS EN LAS GUERRAS MUNDIALES

Los trágicos enfrentamientos de la Primera y la Segunda Guerra Mundial estuvieron


acompañados de una enorme actividad tecnológica: la batalla no solo se libraba
únicamente en los campos de batalla, sino en los centros de investigación que trataban
de crear nuevas armas y nuevas defensas con las que poder obtener una ventaja en una
guerra que vería avances notables en diversos ámbitos.

Primera Guerra Mundial

Uno de los avances más destacados de la Primera Guerra Mundial fue la creación del
tanque, que surgió tras el auge del automóvil unos años antes y que se convirtió en una
poderosa forma de combatir las guerras de trinchera en las que las ametralladoras ya
causaban estragos. El Mark I construido en Gran Bretaña fue el primer tanque utilizado en
un combate: hizo su debut en la Batalla del Somme, el 15 de septiembre de 1916, y a él se
sumaron luego modelos franceses (el desastroso Schenider CA1 fue sustituido por el
Renault FT-17, que sentaría las bases de los diseños actuales). Su uso masivo se hizo
realidad algo más tarde, en la batalla de Cambrai que tuvo lugar el 20 de noviembre de
1917. Se sumó la creación de trincheras más anchas que los tanques no podían superar.
Los resultados de su uso fueron desiguales por su limitada fiabilidad, y aunque los
alemanes tardarían en producir sus propios tanques, sí descubrieron artillería antitanque,
a lo que la guerra de trincheras como tal había tocado a su fin.

Otro avance sería importante para los inicios de esas batallas aéreas: la instalación de
radios en los aviones para la comunicación con otros pilotos o con bases en tierra. En 1916
se instalaron los primeros sistemas que permitían enviar radiotelégrafos a 225 km de
distancia, mientras que en 1917 se logró por primera vez la comunicación por voz vía radio
entre un operador en tierra y un piloto de un avión. La torre de control había nacido. Los
aviones demostraron ser otro de los elementos clave en estas guerras no solo en
combates o bombardeos, sino también en misiones de inteligencia en las que se
recababa información sobre posiciones enemigas o sobre líneas de suministro. Los
zepelines alemanes también tuvieron impacto en este sentido y se convirtieron en
bombarderos estratégicos de largo alcance, aunque tras la guerra su popularidad se
diluyó enormemente.

También encontramos un antecesor de los modernos drones: la primera aeronave no


tripulada que intervino en la Primera Guerra Mundial fue desarrollada por la Marina de los
Estados Unidos entre 1916 y 1917. Creada por Elmer Sperry y Peter Hewitt -que la
concibieron como una bomba aérea teledirigida-. Aquel ingenio que se basaba en el uso
de giroscopios y un barómetro para determinar la altitud acabaría siendo demasiado
impreciso para ser utilizado de forma masiva, y de hecho el proyecto acabaría siendo
abandonado años más tarde, en 1925. Los drones, como sabemos, no habían dicho su
última palabra.
HISTORIA DEL TEMA
Segunda Guerra Mundial

La Segunda Guerra Mundial fue la primera guerra global donde se empleó alta
tecnología. Muchas armas de nueva generación fueron diseñadas durante ese conflicto,
pero también fueron utilizadas aquellas que fueron desarrolladas antes y durante la
Primera Guerra Mundial. Por ejemplo, en 1939, casi todos los barcos utilizados hacían uso
de tecnología de comienzos de siglo incluyendo la propulsión a vapor. En particular, es
notorio que el submarino alemán tipo VIIC, el más avanzado de su época, no utilizaba
ningún dispositivo crítico que no hubiera sido diseñado antes de 1940. Fue recién a
finales de la guerra que los alemanes inventaron el Schnorkel, por ejemplo, para poder
navegar sumergidos utilizando la propulsión de los motores diesel. Otro ejemplo típico
es el famoso y temible cañón 88 alemán, armamento antiaéreo que fue desarrollado
durante la Primera Guerra Mundial y modificado a lo largo de los años 30 y 40 para
convertirse en un arma polivalente.

En el lado Aliado, al comenzar la guerra, por ejemplo, los británicos, intentaron efectuar el
primer bombardeo estratégico a la base naval de Kiel y resultó un completo fracaso. Para
empezar de estratégico tuvo muy poco, pues más se pareció a una operación táctica muy
mal preparada. Los aviones apenas utilizaban radios de telegrafía y las miras de
bombardeo no eran otra cosa que un agujero en la parte baja del avión, con un par de
cursores que tenían unas graduaciones que se calibraron a ojo para ajustar la altura a la
que se volaba. Pero, a partir de 1941, se comenzó a utilizar el Radar, el Sonar o Asdic, los
radios de muy alta frecuencia, y muchos otros dispositivos que hicieron que la guerra se
tecnificó. Todos esos inventos y descubrimientos fueron los cimientos que finalmente
hicieron posible los adelantos tecnológicos de la segunda mitad del Siglo 20 y lo que es
hoy la tecnología del Siglo 21.

A nivel de la guerra naval, también se realizaron importantes avances, especialmente con


el desarrollo de los portaaviones y de los submarinos. Aunque al inicio de la Segunda
Guerra Mundial la aeronáutica tuvo un éxito relativamente escaso, las acciones en Pearl
Harbor, en el Mar de China Meridional o en el Mar del Coral establecerían al portaaviones
como la embarcación dominante en lugar del acorazado. Los portaaviones resultaban
también más económicos que los buques de guerra, debido al coste relativamente bajo
de las aeronaves y a la no necesidad de contar con blindajes fuertes. Los submarinos, que
ya habían demostrado ser un una arma eficaz durante la Primera Guerra Mundial, fueron
muy usados por ambos bandos en la Segunda Guerra Mundial.

La guerra terrestre dejó atrás las trincheras estáticas de las batallas de la Primera Guerra
Mundial para permitir una mayor movilidad y un uso conjunto de armas rápidas. El
tanque, que se había empleado hasta entonces predominantemente como apoyo de la
infantería, evolucionó hasta convertirse en un arma principal. A finales de los años 30, los
proyectos de tanques estaban considerablemente más avanzados de lo que estaban en
la Primera Guerra Mundial y los avances continuaron durante la guerra en aspectos como
el aumento de la velocidad, del blindaje y de la potencia de fuego.
SITUACIÓN

ACTUAL
INTELIGENCIA ARTIFICIAL

La inteligencia artificial (Artificial Intelligence, o AI) es la simulación de procesos de


inteligencia humana por parte de máquinas, especialmente sistemas informáticos. Estos
procesos incluyen el aprendizaje (la adquisición de información y reglas para el uso de la
información), el razonamiento (usando las reglas para llegar a conclusiones aproximadas o
definitivas) y la autocorrección. Las aplicaciones particulares de la AI incluyen sistemas
expertos, reconocimiento de voz y visión artificial.

El término AI fue acuñado por John McCarthy, un informático estadounidense, en 1956


durante la Conferencia de Dartmouth, donde nació la disciplina. Hoy en día, es un término
general que abarca todo, desde la automatización de procesos robóticos hasta la robótica
actual. Ha ganado prominencia recientemente debido, en parte, a los grandes volúmenes
de datos, o al aumento de velocidad, tamaño y variedad de datos que las empresas están
recopilando. AI puede realizar tareas tales como identificar patrones en los datos de
manera más eficiente que los seres humanos, lo que permite a las empresas obtener más
información sobre sus datos.

Tipos de Inteligencia Artificial

Un primer ejemplo de clasificación de los sistemas de AI es como AI débil o AI fuerte. La AI


débil, también conocida como AI estrecha, es un sistema de AI que está diseñado y
entrenado para una tarea en particular. Los asistentes personales virtuales, como Siri de
Apple, son una forma débil de AI. La AI fuerte, también conocida como inteligencia
general artificial, es un sistema de AI con habilidades cognitivas humanas generalizadas,
de modo que cuando se le presenta una tarea desconocida, tiene suficiente inteligencia
para encontrar una solución. La prueba de Turing, desarrollada por el matemático Alan
Turing en 1950, es un método utilizado para determinar si una computadora puede
realmente pensar como un humano, aunque el método es polémico.

El segundo ejemplo es de Arend Hintze, profesor asistente de biología integradora e


ingeniería y ciencias de computación en la Universidad Estatal de Michigan. Categoriza la
AI en cuatro tipos, desde el tipo de sistemas de AI que existen hoy en día hasta los
sistemas sensitivos, que aún no existen. Sus categorías son las siguientes:
Máquinas reactivas: Un ejemplo es Deep Blue, el programa de ajedrez de IBM que
venció a Garry Kasparov en los años noventa. Deep Blue puede identificar piezas en el
tablero de ajedrez y hacer predicciones, pero no tiene memoria y no puede usar
experiencias pasadas para informar a las futuras. Analiza movimientos posibles –los
propio y los de su oponente– y elige el movimiento más estratégico.
SITUACIÓN

ACTUAL
Memoria limitada: Estos sistemas de AI pueden usar experiencias pasadas para
informar decisiones futuras. Algunas de las funciones de toma de decisiones en
vehículos autónomos han sido diseñadas de esta manera. Las observaciones son
utilizadas para informar las acciones que ocurren en un futuro no tan lejano, como un
coche que ha cambiado de carril. Estas observaciones no se almacenan
permanentemente.
Teoría de la mente: Este es un término psicológico. Se refiere a la comprensión de que
los demás tienen sus propias creencias, deseos e intenciones que afectan las decisiones
que toman. Este tipo de AI aún no existe.
Autoconocimiento: En esta categoría, los sistemas de AI tienen un sentido de sí
mismos, tienen conciencia. Las máquinas con conciencia de sí comprenden su estado
actual y pueden usar la información para inferir lo que otros están sintiendo. Este tipo
de AI aún no existe.

Ejemplos de tecnología AI

La automatización es el proceso de crear automáticamente un sistema o una función


de proceso. La automatización robótica de procesos (RPA), por ejemplo, puede
programarse para realizar tareas repetibles de alto volumen normalmente realizadas
por seres humanos. La RPA es diferente de la automatización de TI en que se puede
adaptar a las circunstancias cambiantes.

El aprendizaje automático es la ciencia de conseguir que una computadora actúe sin


programación. El aprendizaje profundo es un subconjunto del aprendizaje automático
que, en términos muy simples, puede considerarse como la automatización de la
analítica predictiva. Existen tres tipos de algoritmos de aprendizaje automático: el
aprendizaje supervisado, en el que los conjuntos de datos están etiquetados para que
los patrones puedan ser detectados y utilizados para etiquetar nuevos conjuntos de
datos; el aprendizaje no supervisado, en el que los conjuntos de datos no están
etiquetados y se clasifican de acuerdo a similitudes o diferencias; y el aprendizaje de
refuerzo, en el que los conjuntos de datos no están etiquetados, pero después de
realizar una acción o varias acciones, el sistema de AI recibe retroalimentación.

La visión de la máquina es la ciencia de hacer que las computadoras vean. Captura y


analiza la información visual usando una cámara, la conversión de analógico a digital y
el procesamiento de la señal digital. A menudo se compara con la vista humana, pero
la visión artificial no está vinculada a la biología y puede programarse para ver a través
de las paredes, Se utiliza en una amplia gama de aplicaciones, desde la identificación
de la firma hasta el análisis de imágenes médicas.
SITUACIÓN

ACTUAL
El procesamiento del lenguaje natural (PNL, o NLP por sus siglas en inglés) es el
procesamiento del lenguaje humano y no informático por un programa informático.
Uno de los ejemplos más antiguos y conocidos de PNL es la detección de spam, que
mira la línea de asunto y el texto de un correo electrónico y decide si es basura. Los
enfoques actuales de la PNL se basan en el aprendizaje automático. Las tareas de PNL
incluyen traducción de texto, el análisis de sentimientos y el reconocimiento de voz.

El reconocimiento de patrones es una rama del aprendizaje automático que se centra


en la identificación de patrones en los datos. El término, hoy, es anticuado.

La robótica es un campo de la ingeniería centrado en el diseño y fabricación de robots.


Los robots se utilizan a menudo para realizar tareas que son difíciles de realizar para los
seres humanos o es complicado que se desempeñen de manera consistente. Se
utilizan en líneas de montaje para la producción de coches o por la NASA para mover
objetos grandes en el espacio. Más recientemente, los investigadores están utilizando el
aprendizaje automático para construir robots que puedan interactuar en entornos
sociales.

Aplicaciones de AI

AI en la asistencia sanitaria
Las mayores apuestas están en mejorar los resultados de los pacientes y reducir los costos.
Las empresas están aplicando el aprendizaje de máquina para hacer diagnósticos mejores
y más rápidos que los seres humanos. Una de las tecnologías sanitarias más conocidas es
IBM Watson. Entiende el lenguaje natural y es capaz de responder a las preguntas que se
le formulan. El sistema extrae datos de los pacientes y otras fuentes de datos disponibles
para formar una hipótesis, que luego presenta con un esquema de puntuación de
confianza. Otras aplicaciones de AI incluyen chatbots, un programa de computadora
utilizado en línea para responder a preguntas y ayudar a los clientes, para ayudar a
programar citas de seguimiento o ayudar a los pacientes a través del proceso de
facturación, así como en asistentes virtuales de salud que proporcionan retroalimentación
médica básica.

AI en los negocios
La automatización de procesos robóticos se está aplicando a tareas altamente repetitivas
que normalmente realizan los seres humanos. Los algoritmos de aprendizaje automático
se están integrando en las plataformas de análisis y CRM para descubrir información sobre
cómo servir mejor a los clientes. Los chatbots se han incorporado en los sitios web para
ofrecer un servicio inmediato a los clientes. La automatización de puestos de trabajo
también se ha convertido en un punto de conversación entre académicos y consultores de
TI, como Gartner y Forrester.
SITUACIÓN

ACTUAL
ROBOTS MILITARES Y ARMAS AUTÓNOMAS

Un robot autónomo es un dispositivo robótico capaz de operar por sí mismo, en la robótica


de servicio es donde más se están prodigando los robots de servicio. ¿En qué tipo de
situaciones puede ser interesante un robot que sea completamente autónomo? por
ejemplo en entornos hostiles: conflictos bélicos, exploración espacial, exploración
submarina, rescate en catástrofes. Los robots militares son robots autónomos controlados a
distancia diseñados para aplicaciones militares, desde transporte hasta búsqueda y rescate
y ataque. Algunos de estos sistemas están actualmente en uso, y muchos están en
desarrollo

Algunos creen que el futuro de la guerra moderna será combatido por sistemas de armas
automatizadas. EEUU, Rusia y China ya poseen aviones, vehículos terrestres, barcos y
submarinos armados con capacidad para entrar en combate de forma autónoma, aunque
ninguno admite haberlos desplegado. Estados Unidos ya ha probado en territorio de
Afganistán e Irak distintas armas autónomas. Por otra parte, Israel usa con frecuencia los
‘aviones suicida’ Harpy y Harop, un ‘avión suicida’ con carga explosiva que localiza señales
de radio y se estrella contra su lugar de procedencia, sin distinguir si se trata de un objetivo
civil o militar. Estados Unidos desveló que incluso está desarrollando enjambres de drones
autónomos. En la lista de naciones con tecnología militar autónoma también entran, al
menos, Corea del Sur (Samsung ya exporta el robot SGR-A1), Reino Unido, Francia, Israel e
India. A diferencia de los drones teledirigidos que ya poseen más de 70 países, o de los
sistemas de misiles defensivos que se activan solos al detectar una amenaza, los robots
militares asesinos atacan de forma independiente.

La primera voz de a alarma la dio un grupo de 300 científicos en 2013, el mismo año en
que nació la campaña para detener los robots asesinos (Campaign to Stop Killer Robots,
en inglés), compuesta por 65 organizaciones no gubernamentales de 28 países y activistas
con prestigio mundial, entre ellas la Premio Nobel de la Paz Jody Williams. A mediados de
2015 más de 2.800 académicos de distintas disciplinas firmaron una carta abierta pidiendo
la prohibición de estas armas. Al cabo de pocos meses, más de 16.000 nombres
destacados del mundo científico, religioso, empresarial y cultural habían suscrito la misiva,
y en la primavera de 2016 un grupo de expertos independientes se reunió para elaborar un
informe sobre los dilemas éticos, legales y políticos de las armas autónomas que sirvió de
base teórica para la cita de diciembre en Ginebra. Desde entonces no ha parado de crecer
el número de personas destacadas de distintos ámbitos que piden la prohibición de estas
máquinas militares. No obstante, el asunto parece tan lejano y ficticio que todavía no
despierta demasiada atención por parte de los principales medios de comunicación. Poco
antes de morir, el astrofísico Stephen Hawking también advirtió sobre los riesgos de esta
tecnología.
SITUACIÓN

ACTUAL
Para la organización Human Rights Watch, los sistemas autónomos armados letales (LAWS,
por sus siglas en inglés) son aquellos capaces de detectar, seleccionar y atacar objetivos sin
ningún tipo de intervención humana. EEUU, una de las naciones que muestra reticencias a
la prohibición, asegura que esta tecnología “servirá para mejorar el respeto al derecho
humanitario internacional”. Los defensores de las armas autónomas letales alegan que
permitirán reducir el número de soldados muertos y destacan que estas máquinas están
libres de cualidades humanas que chocan con la dinámica de la guerra, pues no padecen
hambre, frío ni sed, ni sienten miedo, pánico o compasión, ni necesitan años de
entrenamiento o apoyo financiero y sanitario tras la batalla.

La otra cara de la moneda está plagada de interrogantes, los principales de tipo ético: ¿es
moral que una máquina decida acerca de la vida de un ser humano? Mary Wareham,
portavoz de Stop Killer Robots, señala que esta tecnología plantea un sinfín de dilemas
legales, como su incapacidad para discriminar entre objetivos civiles y militares, las
dificultades para probar su operatividad o la imposibilidad de que apliquen nociones
cualitativas como la compasión. Los especialistas señalan que se trata de una revolución
semejante a la que supuso la invención de la pólvora y la bomba nuclear, aunque la
investigadora Heather Roff precisa que “se trata de armas precisas, no inteligentes”. Toby
Walsh, un reconocido experto en inteligencia artificial, explica que a estos robots les
sucede como a los niños: “Sabes cómo aprenden, pero no qué van a hacer con el
conocimiento adquirido”. Además, podrían ser hackeados, lo que generaría “serios
problemas si caen en las manos equivocadas”.

En torno a los robots militares, existen argumentos a favor y en contra de su uso. En cuanto
a los argumentos a favor del uso de robots militares existen los siguientes:

Son más económicos: los robots asesinos no conllevan gastos de entrenamiento,


manutención (alimentación, descanso, salario, indemnización por baja, pensión,
etcétera).
Sirven para reducir el número de bajas en filas amigas (sustituyen a soldados).
Son más efectivos: la máquina no siente miedo, pánico ni otras características humanas
que pueden limitar la efectividad en el campo de batalla.
Son más resistentes: el robot tiene más autonomía energética, no siente frío, hambre,
cansancio ni otras sensaciones que limitan a un soldado humano.
Son más precisos: la naturaleza mecánica de estos dispositivos hace que su precisión
de tiro y efectividad letal sean mayores que las de un humano.
Mejor aplicación de la legislación internacional: los defensores de esta tecnología dicen
que permitirá un mayor respeto al derecho humanitario internacional.
Falta de emoción y pasión en el combate robótico reduciría significativamente los
casos de comportamiento no ético en tiempo de guerra.
SITUACIÓN

ACTUAL
Entre los argumentos en contra del uso de robots militares se encuentran:
Principio de proporcionalidad: no puede determinar la fuerza que debe aplicar en su
ataque en función de la ventaja militar, situación del enemigo y otros parámetros.
Principio de distinción: estas máquinas no pueden distinguir objetivos civiles y militares,
ni si se trata de heridos, menores de edad, etcétera.
Incapacidad para razonar y aplicar nociones cualitativas como la compasión.
Los detractores de estas armas subrayan el riesgo de proliferación, si no se prohíbe de
forma preventiva el desarrollo de robots asesinos.
Imposibilidad de realizar pruebas concluyentes sobre estas máquinas (no se puede
simular el caos bélico; se puede estudiar la forma en que aprenden, pero no cómo
aplican los conocimientos adquiridos).
Imposibilidad de establecer una cadena de responsabilidad jurídica a los actos de las
armas autónomas letales.
Las limitaciones técnicas y la incapacidad para razonar hacen que el robot asesino no
pueda respetar el derecho humanitario internacional.
Al tratarse de máquinas programadas, existe riesgo de hackeo y pérdida de control de
los robots asesinos.
Además, un error de programación o una avería pueden llevar al robot asesino a
ocasionar graves daños a civiles y objetivos no militares (infraestructuras civiles,
etcétera).

DRONES MILITARES

Un vehículo no tripulado de combate aéreo, conocido por sus siglas en inglés UCAV
(Unmanned Combat Air Vehicle) y más conocido popularmente como dron militar o de
combate, es un vehículo aéreo no tripulado (UAV) que generalmente transporta artillería
de aeronaves como misiles, ATGM y / o bombas y se utiliza para ataques militares. Estos
drones suelen estar bajo control humano en tiempo real, con distintos niveles de
autonomía. No hay que confundirlos con los UAV, ya que, aunque estos también pueden
servir a ejércitos, no tienen capacidad para llevar armas y su tarea se centra más en la
vigilancia que en la destrucción de objetivos.

Estos dispositivos son manejados desde tierra por personal militar designado para ello. En
ocasiones puede haber más de un piloto a los mandos; uno manejando el dron a través de
las cámaras que llevan incorporadas y el otro disparando las armas. Al ser más baratos que
los aviones (un helicóptero volando durante una hora cuesta unos 2.000 euros y un dron,
20) y al no entrañar riesgo para la vida del atacante, los UCAV se llevan usando por algunos
ejércitos del mundo durante los últimos años, ya sea como apoyo en operaciones
especiales o para bombardear objetivos concretos.
SITUACIÓN

ACTUAL
Como los drones civiles, los militares se clasifican en base a su rango y a la resistencia.
Están los de alcance cercano (50 km y seis horas de autonomía), corto alcance (150 km y
autonomía de 8 a 12 horas), rango medio (velocidades superiores a 150 km/h y rango de
hasta 650 km) y los que pueden operar en altitudes superiores a los 30.000 pies (9,1 km).
También pueden ser diferenciados por clases: la I (drones pequeños), la II (drones tácticos)
y la III (drones estratégicos).

PAÍSES CON DRONES MILITARES:

En el mundo hay más de 100 países que cuentan con drones de combate listos para su
uso. De ellos, solo 40 países poseen o están en proceso de adquirir drones equipados con
armamento. La mayoría están construidos por empresas israelíes o estadounidenses,
líderes en este sector y que los distribuyen al resto del mundo.

Las grandes potencias como China, EEUU, Rusia o Israel ya han exhibido sus flotas de
drones de combate en operaciones militares o en demostraciones aéreas. Los rusos, a
finales de agosto de 2019, presentaron los nuevos modelos S-70 Okhotnik y Altius-U. Estos
compiten con sus equivalentes norteamericanos, el XB-47 y el RQ-4 Global Hawk,
respectivamente. Haciéndonos una idea de la capacidad del primero, puede volar en
régimen subsónico hasta los 1.000 km/h y tiene una autonomía de 3.500 km. Además,
alberga espacio para equipar hasta dos toneladas de armas y es indetectable para los
radares. El Altius es más pequeño, puede estar hasta 24 horas volando sin descanso y
cargar hasta una tonelada de armas. También es invisible para el radar.

China es otro de los países que en 2019 exhibió su potencial en una exhibición coordinada
por la empresa gigante estatal de electrónica china CETC y la Universidad Nacional de
Tecnología de Defensa del ejército chino. Consiguieron juntar 119 drones de ala fija volando
como un solo cuerpo, sobrepasando el récord anterior fijado por el ejército de EEUU en 103
drones. Los chinos cuentan con un nivel de desarrollo superior a los estadounidenses y una
fábrica, DJI, que produce el 70% de drones no militares que se venden en el mundo. Pero
si hablamos de gasto en Defensa, EEUU gana con creces: destinan tres veces más dinero
que China y tienen cerca de 7.000 drones teledirigidos por humanos, muy lejos de los casi
1.500 de los chinos.

MUERTES POR ATAQUES DE DRONES

El poderoso arsenal de los ejércitos en cuanto a drones militares revela cifras preocupantes.
El Buró de Periodismo de Investigación de los EEUU estima que entre 8.459 y 12.105
personas han muerto por culpa de los ataques con drones.
SITUACIÓN

ACTUAL
Si hablamos de bajas civiles, el número baja bastante (entre 769 y 1.725), y se reduce aún
más en el caso de los niños (entre 253 y 397). A pesar de que los aparatos sean más precisos
que los aviones y estén dotados de la última tecnología, parece que esos "daños
colaterales" de los que una vez habló EEUU en plena guerra de Vietnam no se han
conseguido remediar con la aparición de los UCAVs.

Informes como el de Amnistía Internacional acerca de estos dispositivos han conseguido


poner de manifiesto su capacidad para matar sin riesgo, deshumanizando la guerra. Una
de sus frases más duras es la siguiente: "Lo que sí sabemos es que su uso ha creado una
situación en la que el mundo entero puede considerarse un campo de batalla, y
prácticamente cualquier persona puede considerarse un daño colateral". Por eso instan a
la comunidad internacional a crear unos protocolos que protejan a los civiles y a regular su
uso ajustándose al derecho internacional.

En abril del 2018, más de 3.000 trabajadores de Google firmaron una carta de protesta por
el acuerdo entre la multinacional y el Pentágono de Estados Unidos para desarrollar un
programa de reconocimiento de imágenes que mejoraría la puntería de los aparatos. El
Proyecto Maven, que venció en marzo de 2019, hizo que muchos empleados se fuesen de
la compañía. Laura Nolan es una de ellos. Aunque empezó a trabajar en el proyecto, al
poco tiempo se dio cuenta de que "cada vez estaba más preocupada éticamente", así que
dimitió. Contando su experiencia a The Guardian, aseguró que estas máquinas solo traerán
"atrocidades y asesinatos ilegales incluso bajo las leyes de la guerra, especialmente si se
despliegan cientos o miles".

LA GUERRA ASIMÉTRICA

Dentro de un conflicto armado, el uso de tecnología puede llevar a convertir dicho


conflicto en una guerra asimétrica. La primera persona que utilizó el término de guerra
asimétrica fue Sun Tzu en su famoso libro ‘‘El arte de la guerra’’ el autor hace referencia a
un conflicto bélico en que ciertos países están por encima de otros por el hecho de contar
con más armas y soldados dentro de una batalla, actualmente, una guerra asimétrica por
el uso de la tecnología la podemos encontrar de manera explícita cuando se han
realizados bloqueos tecnológicos, manejo de redes sociales, manejo de los medios de
comunicación, ataques con armas tecnológicas superiores a los Estados miembros de un
conflicto armado, etc.., el ejemplo más conocido es cuando Estados Unidos comenzó con
un bloqueo tecnológico a países del Medio Oriente e incluso a Cuba, o a su vez, las
transnacionales que facilitan a las grandes potencias de cierta información o de cierta
tecnología con la cual los países de Primer Mundo tienen una ventaja respecto de los
países subdesarrollados.
SITUACIÓN

ACTUAL
Este crecimiento asimétrico no depende de la situación geográfica, sino, depende del
poder económico y político a nivel mundial, he aquí porqué se ha determinado que estos
poderes son la base para convertirse en un Estado con poder tecnológico.

La ventaja tecnológica en un conflicto armado es de tal importancia que supera a la


relevancia del número de soldados por Estado. Esta ventaja la tendrá el país que aplique
primero su tecnología, el Estado con mayor poder tecnológico será el que tendrá mayor
ventaja en el conflicto. Las nuevas tecnologías suponen un doble dilema, permiten
mayores posibilidades y mayores y nuevas vulnerabilidades. La ventaja tecnológica la
conseguirá el que consiga aplicarla primero, y con sorpresa y en el menor tiempo posible.
La estrategia tecnológica consiste en mantener un poder tecnológico superior al del
posible adversario, que doblegue su voluntad política de emplear la fuerza, le obligue a
efectuar enormes gastos previos, y en caso de conflicto tener más potencia de combate y
obtener la sorpresa tecnológica.

Un gran reto de la tecnología en los conflictos armados es evitar las guerras asimétricas, un
país que tenga 20 aviones no tripulados sufrirá menos en batalla que un país que tenga 20
aviones en guerra. Las bajas en los conflictos armados se reducirán y países que envíen
robots para la guerra no sufrirán más bajas de soldados que los países que utilicen todavía
personas en los campos de batalla. En la actualidad el desarrollo tecnológico
esencialmente se orienta a la elaboración de aviones no tripulados, misiles cruceros, robots,
androides para la guerra, programas de estrategias, de seguimientos, de espionaje, drones,
etc.

Este armamento permite la consolidación de las denominadas guerras de cuarta


generación. En una guerra de cuarta generación se busca cualquier tipo de arma que les
de ventaja dentro de un conflicto armado, sin observar que el uso de tecnología en batalla
cada vez contrae consigo más problemas que ventajas. Dentro de las estrategias de guerra
se determina que los países deberían utilizar cualquier herramienta a su favor, sin
embargo, eso no le otorga legitimidad a un Estado de atacar a otro Estado con misiles
cruceros cuando el receptor como posibilidad de defensa sólo tenga misiles antitanques, y
aunque esto ocurra actualmente la asimetría resulta totalmente despiadada.

LA REGULACIÓN Y EL DERECHO INTERNACIONAL

La comunidad internacional divide en dos el estudio y aplicación de fuentes del derecho


en el conflicto armado: el Ius ad bellum y el Ius in bello, ambos tienen como normativa
recurrente lo contenido en el artículo 38 del Estatuto de la Corte internacional de Justicia,
lo que lleva a analizar principalmente el Convenio de Ginebra con sus protocolos
adicionales, los principios de derecho internacional, y derecho consuetudinario aplicable a
este ámbito.
SITUACIÓN

ACTUAL
El Ius ad Bellum se refiere a la rama del derecho que define las legítimas razones que un
Estado tiene para entrar en guerra y se enfoca en ciertos criterios que para hacer la guerra
justa; mientras que el Ius in Bello se refiere a la rama del derecho que define las prácticas
aceptables mientras se está en guerra (Reglas de la guerra o Derecho de guerra) y sus
disposiciones se aplican a todas las partes en conflicto, independientemente de los
motivos del conflicto y de la justicia de la causa defendida por una u otra parte (Ius ad
Bellum).

Dentro de lo referente al ius ad bellum, en confrontación a las nuevas tecnologías se podría


aseverar que el principal reto que se le presenta son los ataques cibernéticos. En cambio, el
derecho internacional humanitario, posee un conjunto de dificultades en la actualidad
para hacer frente a las nuevas armas y sistemas de armas que se presentan en un conflicto
armado. Un claro reto a considerar para el Ius in Bellum serían los ataques por medio de
dispositivos no tripulados, lo cual no es novedoso ya que en el siglo pasado principalmente
Estados Unidos utilizó este tipo de dispositivos aéreos, para misiones de reconocimiento en
territorio hostil o como señuelos.

El uso actual de estos dispositivos por parte de países como Estados Unidos o Israel no solo
ha ido encaminado a la vigilancia del territorio enemigo, sino también para realizar
asesinatos selectivos (signature strike). Según estudios se ha determinado que entre el año
2004 a 2012 han existido alrededor de 280 asesinatos llevados a cabo de esta manera, con
el argumento de que los objetivos son líderes de grupos subversivos de medio oriente, pero
hay que apreciar que al momento que se les da muerte no se encuentran en actividad
hostil, son asesinados mientras realizan hábitos ajenos a la batalla, lo que deja en tela de
duda la proposición de que son líderes de grupos violentos, pero este discernimiento le
correspondió al presidente Bush y al presidente Obama en su momento ya que estos
fueron los que autorizaron los signature strikes, dejando prácticamente de lado garantías
procesales reconocidas internacionalmente y realizando un asesinato extrajudicial de
conocimiento público sin mayor repercusión internacional. Esta selectividad de individuos
a los que se determina dar muerte por su supuesto grado de liderazgo en un grupo bélico,
es claramente una vulneración al derecho internacional humanitario y en específico al
artículo 3 de los Convenios de Ginebra, que dispone:
(...) Las personas que no participen directamente en las hostilidades, incluidos los
miembros de las fuerzas armadas que hayan depuesto las armas y las personas puestas
fuera de combate por enfermedad, herida, detención o por cualquier otra causa, serán,
en todas las circunstancias, tratadas con humanidad (…) A este respecto, se prohíben, en
cualquier tiempo y lugar, por lo que atañe a las personas arriba mencionadas:
a) los atentados contra la vida y la integridad corporal, especialmente el homicidio en
todas sus formas, las mutilaciones, los tratos crueles, la tortura y los suplicios.
SITUACIÓN

ACTUAL
El empleo que se le ha dado a estos dispositivos ha sido mediante mecanismo
automatizado (controlado por humanos a una distancia lejana al ataque) y no es de
conocimiento que se haya llegado a obtener o mucho menos a utilizar en conflicto drones
automáticos (programados con capacidad de manipularse a sí mismos). Pese a esto, países
como Estados Unidos han establecido la posibilidad de que los drones en un futuro
tengan autonomía para intervenir en el conflicto armado, programados para seleccionar y
atacar de forma letal objetivos humanos considerados como enemigos o sus bienes
militares. Este tipo de robótica que se despliega y tiene capacidad de actuar por sí misma
incluso para dar muerte, según Stuart Casey-Maslen implicaría “el problema mayor en el
jus in bellum sobre todo en la responsabilidad jurídica individual”.

Esta programación total para la posible autonomía robótica en el conflicto armado


también pone en riesgo principios del derecho internacional humanitario reconocidos, en
especial al principio de proporcionalidad y distinción, que son la esencia misma del
derecho humanitario. Esto debido a que la precaución antes de un ataque, la distinción de
objetivos militares y la magnitud de este ataque, son discernimientos que se realizan bajo
el raciocinio humano, y aun así pueden tener margen de error. Son consideraciones
obligatorias bajo el marco jurídico del derecho internacional humanitario, es
verdaderamente una evaluación rigurosa la que debe realizarse para la distinción de
objetivos, la proporción en relación al avance estratégico que se logran con el ataque, lo
que también incluye el obligado desistimiento si se prevé que el daño es excesivo,
evaluación rigurosa y vinculante que fue impuesta bajo la premisa de que sería realizada
por humanos. Un argumento distinto pero con el mismo fin de dar desvalorización al uso
de drones automatizado es el planteamiento de que un robot que este programado para
atacar un tipo de blancos enemigos, sin la intervención de una autoridad militar o política
que otorgue estas órdenes, ocasionaría la pérdida de la razón de ser de estas autoridades.
Bajo esta perspectiva una deshumanización total contenida en el ataque.

La alta complejidad de las armas en la actualidad representa un problema para la


normativa internacional a la que están sometidos la mayoría de países, todo esta
confrontación debe tener observancia al artículo 36 del Protocolo adicional I a los
Convenios de Ginebra del 12 de agosto de 1949 relativo a la protección de las víctimas de
los conflictos armados internacionales que dispone:
Cuando una Alta Parte contratante estudie, desarrolle, adquiera o adopte una nueva
arma, o nuevos medios o métodos de guerra, tendrá la obligación de determinar si su
empleo, en ciertas condiciones o en todas las circunstancias, estaría prohibido por el
presente Protocolo o por cualquier otra norma de derecho internacional aplicable a esa
Alta Parte contratante.
SITUACIÓN

ACTUAL
Se establece el marco restrictivo al que debe someterse la utilización de un arma previa a
su empleo en un conflicto armado, es así que cuando se realicen los verbos descritos en el
mencionado artículo se deben determinar las circunstancias de utilización, como el
pronóstico del conjunto de escenarios posibles que pueden ser llevados a cabo con el
empleo del arma, y una vez realizado este análisis a los nuevos medios o métodos de
guerra, se debe revisar normativa internacional (no necesariamente manifiesta) que tienda
a restringir la naturaleza que contiene el potencial destructivo de esa arma, la alta parte
contratante tiene la obligación de realizar este proceso.

A más de esta norma muy recurrente a los trabajos sobre este tema, existen directrices o
principios explícitos o implícitos en la normativa, que son reflejo del comportamiento de
sociedades que se orientan a la protección de la dignidad humana en la guerra, estas
directrices deberían ser consideradas cualitativamente previo al empleo de un arma. Se
toma como ejemplo el propuesto por Kellenberger en el que se plantea la premisa del
imperativo de la humanidad como limitante a la elección y utilización de armas o
métodos de guerra indiscriminados

En cuanto a los dispositivos aéreos no tripulados y automatizados con poder para realizar
asesinatos selectivos en la actualidad, no implican por su propia esencia armamento
prohibido manifiesto por la normativa internacional, más bien se puede apreciar que el
uso de estos artefactos en cuanto a vigilancia de territorio ha significado la precisión en la
función de distinguir combatientes de civiles sin bajas humanas, lo que
consecuentemente obtiene como resultado una disminución de daños colaterales, sin
embargo para poder concluir y determinar de manera general la licitud de las
mencionadas armas se debería realizar un análisis a un conjunto de situaciones posibles
con observancia de sus elementos de cada caso en particular.

El hecho de que en uno de estos dispositivos aéreos no tripulados permita que el operador
realice su ataque a kilómetros de distancia del territorio que va a ser agredido y que lo
haga en base a sondeo de terreno por medio de sensores que le permiten identificar su
objetivo, no lo exime de observancia a las normas contenidas en el Protocolo Adicional del
Convenio de Ginebra, que tienen carácter convencional y de aceptación internacional para
un conflicto. En especial el artículo 57 sobre precaución en un ataque a población civil y
bienes de la población civil, en su numeral II literal b se establece que deberán abstenerse
de realizar el ataque en caso de que dentro de esta previsión haya el riesgo de pérdidas
civiles excesivas en relación a la ventaja militar que se pueda prever.
SITUACIÓN

ACTUAL
Entonces, en caso de que no se tomen estas precauciones podríamos determinar que un
ataque es ilegal y la ubicación del causante para las víctimas es indeterminada. Desde esta
perspectiva un ataque por medio de estos dispositivos de forma automatizada puede
evitar la ilegalidad a la que le sometería el artículo 57 del mencionado Protocolo, ya que se
puede prever por la zona que van a atacar el patrón de vida existente, no con una garantía
exacta porque si bien los sensores la dan acceso a la posibilidad de distinguir dispositivos
mecánicos militares de los bienes civiles, no hay la tecnología necesaria para diferenciar
militares de civiles, por lo tanto el artículo 57 no puede ser cumplido a cabalidad, pero esta
interpretación empleada hacia el atacante puede ser flexible a la interpretación. Así como
cuando ataca zonas despobladas por civiles (desiertos o mares que son moradas de los
enemigos).

Otra problemática latente en cuanto al manejo de drones es que al ser dispositivos aéreos
se deben regir por normativa referente a este tipo de ataques la cual según la doctrina es
débil o inexistente, sobre esta materia han sido elaborados manuales emitidos por países
europeos y por su parte la Cruz Roja proporciona reglas de la guerra aérea las cuales han
pretendido ser vinculantes al ser concebidas como costumbre internacional, sin embargo,
“la costumbre internacional siempre tiene cierto grado de incertidumbre”.

Por último y en referencia a este avance tecnológico, mencionamos que en el Protocolo


adicional primero al Convenio de Ginebra artículo 51 y en concordancia con el Protocolo
adicional segundo al Convenio de Ginebra Artículo 13, se menciona la prohibición de
aterrorizar a la población civil. Es evidente que estos dispositivos podrían afectar en menor
proporción a pobladores en relación a un avión que dispare indiscriminadamente en un
territorio civil. Empero, este uso selectivo del empleo del dron puede ocasionar pánico o
problemas a la población ya que es la tensión de a quien se dirigirá el ataque por parte de
una máquina aérea, problema en el que ya se ha mencionado el Comité Internacional de
la Cruz Roja y otras organizaciones humanitarias, pero la realidad solo la conocen los
propios civiles que han presenciado este ataque.

En resumen, la falta de interpretación vinculante de los tratados internacionales por parte


de los órganos jurisdiccionales encargados de emitirla acerca de las nuevas tecnologías en
conflictos armados, otorga un margen de incertidumbre en cuanto a la permisibilidad del
funcionamiento de sistemas de armas que se están aplicando o desarrollando (drones,
robots, etc). Aunque el funcionamiento de determinadas armas claramente implique
menoscabo al derecho existente, la tolerancia que existe en el uso actual de este
armamento es peligroso. Cabe mencionar que debido a la complejidad presente en los
sistemas de armas actuales incluso la normativa vigente puede resultar limitada para
cumplir con una protección eficaz, poniendo en evidencia la obsolescencia del derecho en
confrontación de las nuevas tecnologías en los conflictos armados.
ACCIONES

PASADAS
Con respecto al uso de robots militares, en diciembre de 2016, la comunidad internacional
se reunió en Ginebra para debatir sobre el futuro de las armas autónomas letales, robots
militares programados para seleccionar y eliminar objetivos humanos. La conferencia se
produjo en el marco de la Convención de la ONU sobre Ciertas Armas Convencionales, la
misma que prohíbe las bombas de racimo, las armas láser y las minas antipersona. Fue la
primera vez que los 123 países de la Convención expresaron su posición oficial acerca de
este tema. Tras una semana de debates protagonizados por posiciones ambiguas la
comunidad internacional decidió postergar el debate y crear un Grupo de Expertos
Gubernamentales “con fines abiertos”, según recoge la declaración final.

Las negociaciones en Ginebra concluyeron con tres grandes posturas: las principales
potencias militares -y con las mayores industrias armamentísticas- no quisieron prohibir los
robots asesinos; la mayor parte de los Estados abogó por seguir estudiándolos en aras de
una futura prohibición, y un grupo de 19 países pidió abiertamente la creación de una
moratoria que vete su desarrollo y despliegue hasta que haya mecanismos legales
internacionales que rijan o veten su uso. EEUU y Reino Unido no vieron necesario crear
nuevas normas. Francia y Alemania ahora estuvieron a favor de estudiar la cuestión con
más detenimiento y se opusieron a su prohibición. China rechazó el riesgo de proliferación
y justificó sus reticencias en “el derecho de las naciones en vías de desarrollo a dotarse de
la última tecnología”. Corea del Sur, Israel e India también mostraron reticencias y
abogaron por posponer el tema, mientras que los representantes de la Unión Europea y
Japón subrayaron los riesgos de tomar medidas apresuradas que limiten el uso de otros
robots beneficiosos para la sociedad, como los que sirven para combatir incendios o
evacuar heridos. Rusia se opuso tajantemente a cualquier veto sobre esta tecnología.
Finalmente, todas estas naciones menos Rusia –se abstuvo en el último minuto– dieron luz
verde a la creación del grupo de expertos. Por otra parte, un grupo de 19 países, entre ellos
13 latinoamericanos, lanzaron un llamamiento para la prohibición preventiva. Actualmente
ya son 22 las naciones que piden vetar esta tecnología. Ante la duda de si sucederá como
con las minas antipersona, prohibidas después de su proliferación por un tratado que sólo
han ratificado 40 países, estas naciones decidieron adoptar una propuesta de Jody
Williams: crear zonas libres de robots asesinos.

Respecto a los drones, no existe acción concreta tomada por la comunidad internacional.
Sin embargo, la relatora especial sobre ejecuciones extrajudiciales, sumarias o arbitrarias
de la ONU, en julio del 2020, presentó un informe ante el Consejo de Derechos Humanos
advirtiendo sobre los atropellos a los derechos humanos que se llevan a cabo cada vez más
a menudo con aeronaves no tripuladas. De acuerdo con la relatora, "el mundo ha entrado
en una 'segunda era de drones' en la que numerosos actores estatales y no estatales
despliegan drones con tecnologías más y más avanzadas". En el informe detalla que la
posesión de drones ya no es una cuestión de élite, sino que existe una carrera para su
adquisición.
ACCIONES

PASADAS
Según el trabajo, en 2020 al menos 102 países cuentan con un inventario activo de drones
militares y 40 más poseen o están en proceso de adquirir drones armados. Del total, unos
35 países tendrían el mayor arsenal de drones y también el más letal.

En este sentido, la experta de Naciones Unidas enfatizó la falta de supervisión y regulación


de los operativos con drones: "Hasta la fecha, no hay estándares robustos que gobiernen su
despliegue, proliferación, exportación o capacidad del uso de la fuerza. No hay
transparencia, no hay supervisión efectiva, no hay rendición de cuentas”. También, subrayó
que los asesinatos efectuados con aeronaves no tripuladas son ignorados por las leyes
nacionales e internacionales, a diferencia de otros crímenes para los que incluso se crean
comisiones investigadoras. De hecho, aseguró que las evidencias muestran que muchas
veces ni siquiera se reportan las muertes, lesiones y trauma de las poblaciones civiles
causadas por los drones.

Por ello, para eliminar el peligro que suponen los drones y frenar su proliferación, la
relatora pidió implementar un control nacional estricto a su exportación, al igual que a la
de las tecnologías desarrolladas con estos vehículos. También reclamó que el uso de
drones se apegue a las leyes internacionales humanitarias y de Derechos Humanos. Por
último, la experta instó al Consejo de Seguridad de Naciones Unidas a que aborde
formalmente el tema y ha exhortado a los Estados a apoyar una propuesta de México para
establecer estándares y mecanismos de rendición de cuentas sobre el uso y exportación
de drones armados mediante un proceso multilateral y transparente.

Finalmente, cabe destacar que frente al desafío que representan las armas autónomas, el
Secretario General de la ONU, Antonio Guterres, manifestó que estas armas deben ser
prohibidas por el derecho internacional. Estas declaraciones las hizo en el año 2018. A su
parecer, la inteligencia artificial ayuda en tareas positivas “como el diagnóstico médico o
de vigilancia”, pero señaló su preocupación sobre una faceta en la que las máquinas
pueden sustituir a los hombres: las armas que tendrán la posibilidad de matar por sí
mismas. Guterres advirtió que la “militarización de la inteligencia artificial representa un
grave peligro”. Dar la posibilidad de seleccionar objetivos a las máquinas creará enormes
dificultades ya que “hará muy difícil evitar la escalada de conflictos y garantizar el respeto
del derecho internacional humanitario en los campos de batalla”. Para el Secretario
General, “las máquinas que tienen el poder y la discreción de quitar vidas humanas son
políticamente inaceptables, son moralmente repugnantes y deben ser prohibidas por el
derecho internacional”
POSICIONES POR

BLOQUE
Unión Europea

Las aeronaves no tripuladas, o drones, constituyen un sector de la aviación en rápido


desarrollo, con un gran potencial de creación de nuevos puestos de trabajo y de
crecimiento económico en la Unión Europea. Por esta razón, la UE ha adoptado un
Reglamento destinado a integrar de forma segura en el espacio aéreo europeo los drones
pilotados a distancia.

La Unión Europea tiene un compromiso de reforzar el control de la exportación de


tecnología y equipos militares y de reforzar la cooperación y promover la convergencia en
el ámbito de las exportaciones de tecnología y equipos militares en el marco de la política
exterior y de seguridad común. Esto lo hace a través del establecimiento, la defensa y la
aplicación de normas comunes de alto nivel para la gestión de las transferencias de
tecnología y equipos militares por parte de todos los Estados miembros.

Sin embargo, en 2017, la Unión Europea destinó parte de su presupuesto para fomentar el
desarrollo de la industria militar bajo la premisa de la defensa de sus ciudadanos frente a
las nuevas amenazas globales. En la actualidad hay 17 proyectos de nueva tecnología
militar de la Unión Europea, con la posibilidad de un incremento en sus presupuesto a
causa de la crisis del COVID-19.

Estados Unidos

Estados Unidos es un precursor de la innovación tecnológica en el ámbito militar,


caracterizándose por el uso de vehículos no tripulados (Unmanned Aerial Vehicle, UAV).
A lo largo de los años ha desarrollado una próspera industria de manufactura de este tipo
de armamentos, llegando a exportarlo a numerosos países.

El uso de drones era utilizado de manera complementaria para reconocimiento en


diversos conflictos. A raíz del atentado del 11 de setiembre su uso tuvo un incremento por
los denominados “targeted killings”. Estos asesinatos selectivos se volvieron de uso común
en las campañas antiterroristas de Estados Unidos.

En la actualidad, es el país con la mayor cantidad de arsenal de este tipo.


POSICIONES POR

BLOQUE
China

Desde la llegada a la presidencia de Xi Jinping en 2013, se inició una reforma de las fuerzas
armadas chinas con un claro objetivo de modernización.

En los últimos años, Pekín ha ido desarrollando nuevas armas de alta tecnología y
renovado su ejército hasta el punto de poder desafiar el poderío de Estados Unidos o Rusia
en algunos aspectos.

China fomenta el desarrollo de esta industria para que las empresas puedan adquirir el
mayor conocimiento posible y desarrollar tecnología propia. Asimismo, ha iniciado una
campaña de desarrollo de tecnología de inteligencia artificial (IA), reclutando a los
estudiantes más destacados de su sistema educativo. China considera que el uso militar de
la IA es inevitable y lo está persiguiendo agresivamente.

Rusia

En 2018, Vladimir Putin anunció la modernización del ejército ruso, con el desarrollo en
nueva tecnología para la construcción y funcionamiento de misiles (intercontinentales,
hipersónicos y nucleares), vehículos subacuáticos no tripulados, entre otros.

Por otro lado, se ha acusado al régimen de Putin de promover los ciberataques con la
finalidad de desestabilizar a otros gobiernos.

Latinoamérica

Los países latinoamericanos tienen una incipiente industria militar, dedicada a la


exportación de armamento tradicional y la reventa. Sin embargo, no se compara a las
grandes potencias exportadoras.

Hay un bajo desarrollo tecnológico en la región que impide generar una industria en el
rubro de la inteligencia artificial o las armas inteligentes. La mayoría de países se ve aún en
la necesidad de comprar esta clase de productos para el fortalecimiento de sus respectivos
ejércitos.

Solo en Brasil hay iniciativas privadas para el desarrollo de drones, con el soporte de la
industria israelí.
QARMA'S

¿De qué manera se puede regular la producción, desarrollo y uso de armas


autónomas, robots militares, drones militares y nuevas armas tecnológicas? ¿Cómo se
puede, registrar y supervisar los avances en la materia?

¿Hasta qué punto se debe permitir la participación de robots y drones militares en


conflictos bélicos en reemplazo de soldados? ¿A qué circunstancias y bajo qué
condiciones se debe limitar su uso, sobre todo si su fin es el de asesinar?

¿De qué modo se puede asegurar que se cumpla el derecho internacional


humanitario y similares en la materia? ¿Cuáles serán las reglas de juego respecto a la
utilización de robots, drones y nuevas armas tecnológicas?

¿Qué modificaciones o interpretaciones se deben hacer a la normativa internacional


para garantizar la salvaguarda de los derechos humanos frente al uso de LAWS,
robots, drones y otras armas tecnológicas?

¿Cómo se puede asegurar la protección de los países menos desarrollados frente a la


amenaza de las LAWS y de una guerra asimétrica?

¿Se debería usar la IA en guerras? ¿Hasta qué punto se podría prohibir el uso de las
armas autónomas en conflictos armados?

¿Cuál será la respuesta del comité respecto a las cuestiones éticas del uso de la IA y de
las armas autónomas? ¿Quiénes serán los culpables en cada caso?

¿En qué medida se deben desarrollar estándares, índices u otros para guiar el
desarrollo de estas tecnologías en el campo militar? ¿Cuáles serían estos parámetros?
RECOMENDACIONES

FINALES
Como la mesa de este comité queremos hacer algunas recomendaciones generales:

Los delegados deben de investigar a profundidad tanto su país como la relación de su


país con el tema. En el caso de que su país no tenga una relación particular con el
tema, pueden guiarse de situaciones similares en las que su país se haya visto
involucrado con un tema parecido para poder intentar predecir cómo actuaría el país
que les ha sido asignado o, también, pueden guiarse de situaciones de países de su
región o países afines.

La guía de estudio es, como su nombre lo indica, una guía. Debe servir para que los
delegados formen una idea general o superficial sobre el tema, pero no deben ceñirse
exclusivamente a lo expuesto en esta guía. Se espera que los delegados investiguen a
profundidad todas las aristas expuestas en la guía, así como también otros problemas
que puedan ser relevantes para el tema. Queremos hacer un especial énfasis en que
los delegados investiguen con mucha mayor profundidad los puntos que se
mencionan en la sección IV de esta guía de estudio, recopilando datos, cifras, casos,
acciones, etc.

Se debe tomar una especial consideración por la sección VII, en la cual se indican las
preguntas que todo proyecto de resolución debe resolver. En la medida de lo posible,
un proyecto de resolución debe contener cuando menos las respuestas a estas
preguntas, así como también las respuestas a los diferentes temas adicionales que
sean propuestos durante la conferencia.

También podría gustarte