Ayer escribí sobre OpenAI firmando con el Pentágono. Hoy la noticia es más perturbadora: el ejército de EEUU ya está usando la IA Claude de Anthropic en el conflicto con Irán. Y lo está haciendo a pesar de una prohibición gubernamental y de disputas internas sobre vigilancia masiva y armas autónomas.
Ayer era el futuro. Hoy es el presente. La IA ya no es una herramienta de investigación — es un arma de guerra.
Lo Que Se Reveló
Según CBS News y fuentes de defensa:
- El ejército de EEUU ha utilizado el modelo Claude de Anthropic en operaciones relacionadas con el conflicto en Irán
- Esto ocurre pese a una prohibición gubernamental sobre el uso de ciertos modelos de IA en contextos clasificados
- Las disputas internas se centran en dos líneas rojas: vigilancia masiva doméstica y armas autónomas
- Anthropic — la empresa creadora de Claude — se fundó específicamente con un enfoque en «seguridad de la IA»
- El caso ha reavivado el debate sobre quién controla la IA cuando se usa en entornos militares
La Ironía de la «IA Segura» en el Campo de Batalla
Anthropic nació como una empresa que prometía hacer IA de forma responsable. Su lema implícito era: «nosotros somos los buenos.» Y ahora su producto se usa para tomar decisiones en un conflicto donde 787 personas han muerto.
«Hay caminos que al hombre le parecen rectos, pero que acaban por ser caminos de muerte.» — Proverbios 16:25 (NVI)
This content is restricted to subscribers



