Fecha Publicación: 07-07-2025
Las tecnologías emergentes y en particular la inteligencia artificial (IA) ya no solo son herramientas para hacer más ágiles tareas diplomáticas rutinarias, pues se adentran cada vez con más firmeza en el delicado terreno de las decisiones de alto riesgo que involucran guerra y paz.
A partir del lunes 30 de junio se llevará a cabo en la sede de Naciones Unidas, en Nueva York, la última sesión del Grupo de Composición Abierta (OEWG) sobre seguridad y el uso de las tecnologías de la información, que después de cinco años de intensos debates deberá decidir, en medio de un entorno multilateral difícil, la creación de un mecanismo permanente de diálogo para estos temas, incluyendo el uso de las tecnologías emergentes en el contexto de la seguridad internacional y la aplicación del derecho internacional en el ciberespacio.
IA como centinela diplomático: promesas tempranas
En la emergente práctica de la ciberdiplomacia, se explora el uso de IA para anticipar conflictos, asistir negociaciones complejas y monitorear acuerdos de alto el fuego. El potencial de esta tecnología para facilitar respuestas rápidas, desactivar tensiones y proponer soluciones multilaterales es inmenso. Pero también lo son los riesgos de delegar la prudencia diplomática a lógicas algorítmicas.
Sistemas de IA ya permiten analizar datos en tiempo real para detectar movimientos militares sospechosos, intenciones hostiles o rupturas inminentes de treguas. Estas capacidades podrían brindar a los líderes un margen crítico para actuar con diplomacia antes de una escalada.
En negociaciones, la IA puede convertirse en una especie de “mediador virtual”. Al ser entrenada con bases de datos de tratados de paz, puede sugerir concesiones creativas que los humanos no vislumbran por su propia rigidez o falta de información contextual.
Riesgos de una diplomacia algorítmica
Pero el optimismo tecnológico se topa rápidamente con dilemas éticos. Un algoritmo no entiende de dignidad humana ni de sutilezas culturales. Si la diplomacia es el arte del matiz, de la escucha y del silencio oportuno, ¿puede una IA replicar eso? Un error de cálculo, una mala interpretación de datos o un sesgo entrenado podría empujar a una escalada no deseada. ¿Qué pasa si dos potencias enfrentadas confían en sistemas automatizados para responder? El resultado podría ser una "escalada flash", una cadena de reacciones autónomas imposibles de frenar a tiempo.
También hay un problema de legitimidad. Si las decisiones se toman por recomendación de una IA, los líderes podrían escudarse en el algoritmo para justificar lo injustificable. La responsabilidad política se diluiría. Y, por si fuera poco, no todos los actores internacionales comparten los mismos principios: mientras algunos impulsan marcos éticos, otros optan por el desarrollo opaco de IA geopolíticamente ventajosa.
Hacia un marco común para la paz algorítmica
La comunidad internacional debe actuar antes de que los conflictos se salgan de control no por falta de voluntad política, sino por automatismos técnicos. Es urgente:
Garantizar control humano significativo sobre decisiones críticas (principio de "human-in-the-loop").Acordar normas globales contra la desinformación generada por IA, incluyendo canales diplomáticos de emergencia para verificar hechos.
Exigir transparencia sobre el uso militar y diplomático de IA entre potencias, a través de foros multilaterales.
Impulsar un tratado internacional que regule la IA en contextos de seguridad, bajo principios de legalidad, humanidad y responsabilidad.
La IA puede ser aliada de la paz si no le damos las llaves del conflicto sin supervisión.
Necesitamos diplomacia con máquinas, no diplomacia de máquinas. Solo así la inteligencia artificial podrá potenciar la humana, no sustituirla.
Participación en La Silla Rota