La ciencia ficción acaba de estrellarse contra la geopolítica real. Lo que durante años temimos o imaginamos en películas como Terminator o WarGames ya no es una teoría futurista: la inteligencia artificial generativa se ha desplegado oficialmente en operaciones de combate activo.
En un movimiento sin precedentes que ha sacudido la industria tecnológica y militar, se ha confirmado que las fuerzas de Estados Unidos y sus aliados (principalmente Israel) están utilizando modelos de lenguaje avanzado —con Claude de Anthropic en el centro del huracán— en el reciente conflicto contra Irán.
En I4PYMES analizamos esta escalada tecnológica, qué significa "usar IA en la guerra" y cómo el Pentágono está cambiando las reglas del juego.
Claude en el frente de batalla: ¿Qué hace exactamente?
Cuando hablamos de "IA en la guerra", la mente se va directamente a robots autónomos disparando láseres. La realidad, aunque menos cinematográfica, es militarmente mucho más letal: la supremacía táctica a través del procesamiento de datos.
Según informes recientes, el ejército estadounidense ha integrado motores de IA (incluyendo la tecnología de Anthropic y OpenAI) en plataformas de inteligencia de datos como Palantir.
¿Para qué se está usando a Claude en este conflicto?
- Selección ultra-rápida de objetivos: Claude es capaz de procesar terabytes de imágenes por satélite, comunicaciones interceptadas y datos de inteligencia sobre el terreno en milisegundos. En su primer día de despliegue reportado, la IA generó aproximadamente 1.000 objetivos priorizados (bases, lanzaderas, depósitos) con coordenadas GPS exactas. Lo que antes le tomaba a un equipo de analistas semanas de trabajo, ahora es cuestión de segundos.
- Recomendación de armamento (Weaponeering): La IA no solo dice "dónde" atacar, sino "con qué". Analizando la estructura del objetivo y el daño colateral potencial, el modelo sugiere el tipo exacto de munición a utilizar.
- Casos de simulación: Claude se utiliza para Wargaming en tiempo real, calculando instantáneamente miles de escenarios de respuesta por parte de Irán ante un posible ataque.
Israel y los sistemas paralelos: De 'Lavender' al frente actual
Este movimiento de Estados Unidos no viene de la nada. Israel ya había cruzado esta línea roja ética meses atrás durante su conflicto en Gaza y Líbano con su sistema de IA propietario llamado "Lavender".
Lavender fue diseñado específicamente para identificar presuntos combatientes vinculados a fuerzas hostiles. Sin embargo, la integración actual de Modelos de Lenguaje Grande (LLMs) como los de Anthropic lleva esto a una escala estratégica mucho más compleja, pasando de la identificación de individuos a la gestión algorítmica de toda la cadena de mando y ataque.
Anthropic, Trump y el choque ético
La integración de Claude no ha estado exenta de un drama de proporciones políticas masivas.
Anthropic nació con la premisa de ser la IA "segura y controlable" frente a sus rivales. Sus políticas internas prohíben estrictamente el uso de Claude para vigilancia masiva interna y, sobre todo, para sistemas de armas letales autónomas sin supervisión humana final.
Esto provocó un choque frontal con el Pentágono. Cuando Anthropic se negó a retirar estas "barreras de seguridad" (los famosos guardrails), el Presidente Donald Trump emitió una orden vetando el uso de herramientas de Anthropic en agencias federales, llegando a tachar a la empresa de "riesgo para la cadena de suministro de seguridad nacional".
¿El resultado? El ejército ha tenido que hacer malabares legales, y corporaciones como OpenAI (que recientemente borró su prohibición explícita del uso militar) han firmado acuerdos multimillonarios para rellenar los huecos tecnológicos en redes clasificadas del Departamento de Defensa.
La caja de Pandora está abierta
Estamos operando bajo la "niebla de la guerra algorítmica". Las máquinas sugieren quién, dónde y cómo atacar a una velocidad muy superior a la capacidad táctica del cerebro humano.
Si bien los mandos militares aseguran que "siempre hay un humano en el último clic" que autoriza el misil, la realidad psicológica es el sesgo de automatización: en una situación de vida o muerte donde cada segundo cuenta, un comandante rara vez contradice la recomendación táctica "perfecta" de la máquina.
Nos enfrentamos a una nueva era. La carrera armamentística ya no trata solo sobre quién tiene el misil más rápido, sino sobre quién tiene el modelo de Inteligencia Artificial que piense más rápido antes de disparar.
