ALUMNOS/AS DEL GRUPO: Gabriel Estéfano Montalvo y Heloisa Brenha Ribeiro
TÍTULO DEL TRABAJO: Inteligencia Artificial en conflictos armados: posibilidades
y desafíos para la paz y el desarrollo
RESUMEN
La Inteligencia Artificial (IA) ha crecido en varios ámbitos de la ciencia
durante los últimos años debido a la fuerte inversión que se le ha prestado a escala global. Esto ha despertado varios debates respecto a su uso tanto en conflictos armados como en la ejecución de tareas del mantenimiento del orden llevadas a cabo por los Estados en la cotidianidad. Acorde al Instituto Internacional de Estudios para la Paz de Estocolmo (SIPRI), en 2017, existían aproximadamente 381 dispositivos autónomos capaces de ser utilizados en operaciones militares. El gasto en el que han incurrido las potencias mundiales para hacerse con el poderío en este campo ha sido exponencial comparado al gasto que se destina hacia otros ámbitos internacionales, como la Cooperación Internacional para el Desarrollo (CID). A pesar de que la evolución en términos tecnológicos implica en sí misma cooperación, la forma en que estas tecnologías pueden utilizarse en los ámbitos militar y de seguridad, sustituyendo el ser humano en la selección y ataque de objetivos militares, aún no se ha comprendido plenamente y requiere un mayor examen sobre sus implicaciones globales. El poder bélico que ellas son capaces de proporcionar puede afectar directa o indirectamente las condiciones previas para la paz, bien como la naturaleza de los conflictos y la forma en que las personas y los Estados perciben y gestionan la inseguridad (SIPRI, 2020). Por todo ello, el tema de la IA ha desembocado en fuertes cuestiones geopolíticas que han impedido un consenso respecto como deberían definirse las armas autónomas bajo la jurisprudencia internacional, debido a que los Estados persiguen intereses específicos que presentan una barrera para su regulación. Esta automatización de dispositivos dotados de IA también ha generado un amplio debate dentro del Derecho Internacional Público, específicamente en el Derecho Internacional Humanitario, debido a que la proliferación de este tipo de tecnología ha sido mayor al desarrollo de marcos jurídicos vinculantes que la regulen. En el ámbito jurídico, hoy existen vacíos respecto a la definición de autonomía dentro de la IA. Su uso en tareas de exploración y proyectos piloto es cada vez más una realidad, y la implementación de dispositivos que gestionen tareas cognitivas y de razonamiento incluso mejores a la inteligencia humana (IAG) representan un límite a nociones como la responsabilidad internacional penal individual. A su vez, en el ámbito de la CID, la inteligencia artificial en conflictos armados también plantea problemas, por el desvío significativo de los presupuestos de los países desarrollados al refuerzo de su hegemonía militar, en lugar de destinarlos a la disminución de la pobreza y de la desigualdad a nivel internacional. Esto parece revelar una estrategia peligrosa y opuesta a la premisa de la CID, cual sea: enfrentar los conflictos actuales a través de conflictos más sofisticados, y no a través de la paz y del desarrollo integral de las comunidades. Lo que podría provocar una securitización de la IA en un futuro más cercano de lo que se ve.