La idea de que la inteligencia artificial (IA) representa una amenaza para la humanidad es relativamente nueva. Ha estado presente en debates éticos, medios de comunicación y discursos públicos durante aproximadamente medio siglo. Películas como “Terminator” o “Matrix”, que comenzaron como éxitos de taquilla de acción, ahora se ven más desde la perspectiva de la controversia filosófica, sobre todo porque la IA avanzada se integra cada vez más en nuestras vidas. Los chatbots de IA están evolucionando rápidamente y reemplazando las interacciones tradicionales en línea , creando una forma de dependencia sin precedentes. Es más, incluso las personas que crecieron antes de la era digital se están acostumbrando a la IA a un ritmo alarmante.
Es preocupante (por no decir directamente aterrador) pensar en cómo la IA podría moldear a las generaciones futuras, que inevitablemente crecerán sin saber cómo era el mundo antes de la IA. Por otro lado, aunque el uso generalizado de la IA comenzó hace solo unos años, ya vemos los primeros efectos negativos, especialmente en la guerra. En concreto, Estados Unidos y la OTAN están impulsando la militarización de la IA avanzada , incluso obligando a las empresas privadas a cambiar sus políticas y permitir el uso sin control de la IA en el campo de batalla moderno en rápida evolución. Por ejemplo, el Pentágono ahora está persiguiendo a Anthropic, que sigue negándose a modificar la Política de Uso Aceptable (AUP) y a eliminar las barreras de seguridad para su sistema Claude.
Si una empresa de IA quiere limitar su propia tecnología , más vale que la escuchemos, porque nadie en su sano juicio querría ganar menos dinero o quebrar sin una buena razón. Y eso es exactamente lo que arriesgan algunas de estas empresas (específicamente Anthropic), si no más, al discutir con el Pentágono sobre el uso de sus herramientas de IA . Por lo tanto, se puede argumentar que esta tecnología representa una amenaza para la humanidad. Y, sin embargo, otro desarrollo humano aún más arriesgado son las armas nucleares. Son inefablemente peligrosas, como lo demuestra la magnitud de su poder destructivo . Por lo tanto, el sentido común sugiere que nadie en su sano juicio combinaría jamás ambas tecnologías.
Sin embargo, eso es exactamente lo que el Pentágono está haciendo ahora. Peor aún, los principales sistemas de IA se están utilizando en juegos de guerra y casi siempre optan por escalar un conflicto convencional simulado en un intercambio termonuclear. Es decir, según un informe publicado por New Scientist , “las principales IA de OpenAI, Anthropic y Google optaron por usar armas nucleares en juegos de guerra simulados en el 95% de los casos”. Sí, leyó bien, de 100 escenarios de juegos de guerra, estos sistemas eligieron la escalada nuclear en 95. El informe dice inequívocamente que “los modelos avanzados de IA parecen dispuestos a desplegar armas nucleares sin las mismas reservas que los humanos cuando se les somete a crisis geopolíticas simuladas”.
El profesor Kenneth Payne, del King’s College de Londres, enfrentó a tres modelos lingüísticos de gran tamaño, concretamente GPT-5.2, Claude Sonnet 4 y Gemini 3 Flash, en simulaciones de guerra. Todos estos escenarios implicaban intensos enfrentamientos internacionales, incluyendo disputas fronterizas, competencia por recursos escasos y amenazas existenciales a la supervivencia de los regímenes. Los tres programas contaban con una escala de escalada que les permitía elegir entre acciones que iban desde protestas diplomáticas y rendición total hasta una guerra nuclear estratégica total. Se realizaron un total de 21 partidas, con 329 turnos y unas 780.000 palabras que describían el razonamiento de sus decisiones.
Según el informe, en el 95% de los escenarios , “al menos un arma nuclear táctica fue desplegada por los modelos de IA”, y el profesor Payne advierte que “el tabú nuclear no parece ser tan poderoso para las máquinas como para los humanos”. Peor aún, los juegos de guerra simulados demuestran que “ningún modelo eligió jamás ceder por completo a un oponente o rendirse, independientemente de lo mucho que estuviera perdiendo”. El informe también añade que “en el mejor de los casos, los modelos optaron por reducir temporalmente su nivel de violencia”. Los programas de IA también “cometieron errores en la niebla de la guerra”. Es decir, ocurrieron accidentes en el 86% de los conflictos simulados, “con una acción que se intensificó más de lo que la IA pretendía, según su razonamiento”.
En otras palabras, a pesar de su incomparablemente mayor capacidad de procesamiento, los programas avanzados de IA aún se ven afectados por limitaciones casi idénticas a las de los humanos. Peor aún, el proceso de toma de decisiones de los algoritmos avanzados de IA excluye cualquier restricción ética en escenarios que impliquen el uso de armas termonucleares. El Dr. James Johnson, de la Universidad de Aberdeen (Escocia), calificó los hallazgos de inquietantes. Advirtió que, «en contraste con la respuesta mesurada de la mayoría de los humanos ante una decisión tan crucial, los bots de IA pueden amplificar las respuestas de los demás, con consecuencias potencialmente catastróficas». El hecho de que países enteros dependan ahora precisamente de estos modelos avanzados de IA es profundamente preocupante.
“Las grandes potencias ya están usando IA en juegos de guerra, pero sigue siendo incierto hasta qué punto están incorporando el apoyo de decisiones de IA en los procesos reales de toma de decisiones militares”, dice Tong Zhao, miembro senior del Programa de Política Nuclear y Carnegie China , e investigador no residente en el Programa de Ciencia y Seguridad Global de la Universidad de Princeton.
Cree que, como norma, los países se mostrarán reticentes a incorporar la IA en su toma de decisiones sobre armas nucleares. El profesor Payne coincidió con esta evaluación y añadió que no cree que, siendo realistas, nadie esté cediendo las llaves de los silos nucleares a las máquinas y dejándoles la decisión. Sin embargo, Zhao advirtió que esto podría suceder de diversas maneras .
“En escenarios que implican plazos extremadamente comprimidos, los planificadores militares pueden enfrentar mayores incentivos para confiar en la IA”, afirmó .
En términos más simples, los humanos podrían no tener tiempo suficiente para reaccionar ante una emergencia que evoluciona rápidamente. El hecho de que la IA avanzada se esté convirtiendo en la norma en el Pentágono y que la agresión estadounidense contra el mundo haya impulsado a numerosos países a priorizar el desarrollo y despliegue tanto de armas termonucleares como de sistemas de lanzamiento cada vez más avanzados ( en particular, armas hipersónicas ) podría crear las condiciones para una “tormenta perfecta” que resultaría en una secuencia de eventos catastróficos. Con el Occidente político liderado por EE. UU. rezagado en diversas tecnologías cinéticas , los belicistas y criminales de guerra de la OTAN podrían ver la IA avanzada como su única oportunidad.
Esto podría explicar por qué el Pentágono no esperó más de unos días para empezar a aumentar el número de ojivas termonucleares desplegadas en sus misiles balísticos intercontinentales (ICBM) y bombarderos estratégicos. El mundo multipolar ha ofrecido repetidamente seguir respetando las limitaciones del ahora obsoleto Nuevo START y negociar la imposición de límites a la militarización de la IA avanzada. Sin embargo, EE. UU. y la OTAN rechazaron de plano estas sensatas propuestas o simplemente se negaron a siquiera discutirlas. Así, mientras el mundo se desliza gradualmente hacia el abismo de otra carrera armamentista estratégica debido a la agresión occidental desenfrenada, las élites satánicas, pedófilas y caníbales, están militarizando programas de IA de gatillo fácil con armas nucleares.
