Hay momentos que se convierten en puntos de inflexión. El 28 de febrero de 2026 fue uno de ellos para la industria de la Inteligencia Artificial. Ese día, Sam Altman y su equipo en OpenAI firmaron un acuerdo con el Departamento de Defensa de los Estados Unidos para integrar sus modelos de IA en entornos computacionales clasificados del ejército.
Lo que vino después es una historia que mezcla dímisiones, movimientos de protesta de usuarios, un CEO arrepentido y una guerra ideológica sobre el alma misma de la Inteligencia Artificial.
El negocio que nadie esperaba
OpenAI se ha presentado desde su fundación como la empresa de IA con una misión: desarrollar IA para el beneficio de la humanidad. Sin embargo, el contrato con el Pentágono, anunciado apenas unos días después de que Anthropic rechazara un acuerdo similar, supuso un cambio radical en su posicionamiento.
El contexto es importante: la administración Trump había vetado a Anthropic de las agencias federales por negarse a aceptar cláusulas que permitían el uso de su IA para todas las operaciones lícitas del ejército. Anthropic puso líneas rojas en dos puntos:
- Nada de vigilancia masiva doméstica de ciudadanos.
- Nada de sistemas de armas letales autónomas sin supervisión humana.
OpenAI no puso esas líneas. Y firmó.
La respuesta interna: El cisma en el corazón de la empresa
La noticia no tardó ni 24 horas en desatar una tormenta perfecta dentro de las oficinas de OpenAI.
El 7 de marzo de 2026, Caitlin Kalinowski, la directora del equipo de hardware y robótica de OpenAI, presentó públicamente su dimisión. Su declaración fue un porrazo directo a la gerencia:
"Esta es una decisión de principios. El acuerdo fue aprobado sin la deliberación suficiente sobre sus implicaciones para la vigilancia y la autonomía letal."
No fue la única voz crítica. Varios ingenieros y empleados fueron citados anónimamente por prensa de primera línea criticando la velocidad y la opacidad con que se había tomado la decisión. El sentimiento interno era que la empresa había vendido sus valores por un contrato.
La revuelta de los usuarios: #QuitGPT
La reacción no fue solo interna. En internet, el movimiento #QuitGPT se volvió viral en pocas horas. Usuarios de todo el mundo anunciaban que borraban su cuenta de ChatGPT como protesta por el acuerdo militar.
Los datos de descargas de apps lo confirmaron: mientras los uninstalls de ChatGPT se disparaban, las descargas de la app de Claude (Anthropic) alcanzaban máximos históricos. La percepción pública favorecía a Anthropic, que aparecía como la empresa que había dicho "no" con principios.
Sam Altman admite: "Fue oportunista y descuidado"
Frente a la presión, Altman tuvo que salir a escena. En declaraciones públicas, el CEO de OpenAI aceptó que el acuerdo original fue "apresurado, oportunista y descuidado", lo cual para los estándares de comunicación de Silicon Valley es una admisión de culpa absolutamente excepcional.
Bajo esa presión, OpenAI revisó rápidamente el contrato, añadiendo salvaguardas explícitas para prohibir:
- El uso de sus herramientas para vigilancia masiva doméstica de ciudadanos estadounidenses.
- El acceso a las herramientas por parte de agencias de inteligencia como la NSA sin un acuerdo separado y específico.
¿Qué lecciones saca la industria de todo esto?
Este episodio revela algo fundamental que va mucho más allá de la política empresarial de una sola compañía.
La ética es competitiva. Durante días, el mercado castigó simbólicamente a OpenAI y premió a Anthropic en forma de descargas y lealtad de usuario. Los consumidores, incluso en el mundo del B2B, están atentos a los valores de las empresas con cuyos productos trabajan cada día.
Los empleados de IA tienen más palanca que nunca. El talento en inteligencia artificial es un bien escíasímo. En este clima, los mejores ingenieros votan con sus pies. Las empresas que no cuiden la coherencia entre sus valores públicos y sus decisiones privadas se arriesgan a perder a las mentes que las hacen relevantes.
Los guardrails importan, y mucho. En úshima instancia, este conflicto es un debate sobre quién controla los límites de uso de la IA. En I4PYMES, trabajamos siempre con las API de los modelos que garantizan las protecciones de uso más robustas para nuestros clientes (actualmente Claude de Anthropic), precisamente por razones como esta.
La guerra por el alma de la IA no ha hecho más que empezar.
