Un nuevo estudio revela que los modelos de fundación están predispuestos a la escalada.
Parte de la preocupación en torno a DeepSeek, el nuevo modelo chino de lenguaje grande (LLM), es que indica que el Partido Comunista Chino tendrá acceso a agentes avanzados de inteligencia artificial para respaldar la gran estrategia. Hubo un tiempo en que el juicio humano guiaba exclusivamente la política exterior. Ahora la IA lo está remodelando. Los agentes de IA son cada vez más omnipresentes. Estos sistemas ya han proliferado en toda la empresa de seguridad nacional de EE. UU., con sistemas como ChatGPT Gov para un uso generalizado en todas las agencias gubernamentales, luego de esfuerzos anteriores como CamoGPT y NIPRGPT en el Departamento de Defensa y StateChat en el Departamento de Estado.
Sin embargo, mi equipo en el Laboratorio de Futuros del Centro de Estudios Estratégicos e Internacionales (CSIS), trabajando junto con ingenieros de software de Scale, un proveedor de datos de IA, encontró límites clave en la capacidad de los LLM para analizar preguntas fundamentales sobre la competencia entre las grandes potencias y la gestión de crisis que se ciernen sobre la estrategia y el arte de gobernar en el siglo XXI. Después de probar modelos comunes de base de IA en 400 escenarios y más de 66.000 pares de preguntas y respuestas en un nuevo estudio de evaluación comparativa, los investigadores ahora pueden documentar el sesgo algorítmico en relación con las decisiones críticas de política exterior sobre la escalada. Algunos modelos parecen agresivos hasta cierto punto. Esta tendencia podría socavar su utilidad en una crisis de alto riesgo al inclinar los resultados que los tomadores de decisiones humanos utilizan para refinar la forma en que abordan la negociación de crisis y la política arriesgada, en otras palabras, un agresivo "agente de IA de Curtis LeMay" en lugar de un "agente de IA de Dean Rusk" más cauteloso, en una variante futura de la crisis de los misiles cubanos de 1962. Como resultado, los modelos de cimentación existentes requerirán un ajuste adicional a medida que se integren en los niveles más altos de toma de decisiones.
Esto no quiere decir que la seguridad nacional deba cerrarse a la IA. Más bien, los equipos de investigación deben apoyar el análisis estratégico ayudando a las empresas a ajustar sus modelos, así como capacitar a los futuros líderes en cómo trabajar con nuevas clases de agentes de IA que sintetizan volúmenes masivos de información.
Durante los últimos seis meses, un equipo de investigación dirigido por el Futures Lab trabajó con una red de académicos y empresas líderes en IA para desarrollar un estudio de referencia sobre la toma de decisiones críticas en política exterior. Este esfuerzo implicó el uso de académicos de relaciones internacionales para construir escenarios y preguntas y respuestas vinculadas a los estudios fundacionales. Por ejemplo, para estudiar la escalada, el equipo integró conceptos y conjuntos de datos de los programas de investigación Correlatos de la Guerra y Disputas Interestatales Militarizadas, que han sido un estándar de oro en la ciencia política durante más de 60 años. Esta investigación permitió al equipo construir una prueba de escenario, una técnica común en los estudios de evaluación comparativa de IA que se utiliza para descubrir sesgos y respaldar el ajuste fino del modelo.
Los resultados confirman la necesidad de entrenar mejor a los agentes de IA a medida que se integran en la empresa de seguridad nacional. Un sesgo particularmente preocupante que descubrió el equipo fue una predisposición hacia la escalada. En otras palabras, algunos modelos de base de IA comúnmente utilizados por los ciudadanos y que se encuentran en el centro de las aplicaciones gubernamentales superan la preferencia por escalar una crisis en lugar de buscar maniobras diplomáticas más cautelosas.
A medida que prolifera el uso de agentes de IA en la seguridad nacional, si no se aborda, este sesgo produce nuevos tipos de riesgo en crisis que involucran a rivales cercanos: piense en un enfrentamiento sobre Taiwán entre Estados Unidos y China. Un agente de IA predispuesto a respaldar medidas de confrontación podría aumentar las tensiones indirectamente en términos de cómo resume los informes de inteligencia y pondera los cursos de acción. En lugar de recomendar una cuidadosa combinación de disuasión y diálogo, un agente de IA sesgado hacia la escalada podría abogar por demostraciones agresivas de fuerza o incluso revelar nueva tecnología militar. Pekín podría interpretar estos movimientos como hostiles, creando una peligrosa espiral de escalada. En poco tiempo, un malentendido provocado por un agente de IA podría convertirse en un conflicto o, como se ha visto en otros estudios, aumentar la dinámica de la carrera armamentista.
Nuestro estudio también encontró que este sesgo varía según el estado en los modelos fundamentales comunes, como ChatGPT, Gemini y Llama. Los modelos de IA a menudo favorecían posturas más agresivas al simular a los responsables de la toma de decisiones de EE. UU., Reino Unido o Francia que al simular los rusos o chinos. Es probable que los datos de capacitación, que generalmente enfatizan las intervenciones lideradas por Occidente, jueguen un papel. Esto significa que los gobiernos que dependen en gran medida de estas herramientas podrían inclinarse inadvertidamente hacia posiciones de alto riesgo en ausencia de estudios de evaluación comparativa adicionales y ajustes finos de los modelos. El proceso de negociación y las suposiciones sobre la racionalidad en el centro de la disuasión moderna podrían desmoronarse.