Anthropic

La NSA utiliza Mythos de Anthropic: el modelo de IA restringido en medio de tensiones con el Pentágono

Admin Por Admin 21 abr., 2026 8 min de lectura
Compartir:
La NSA utiliza Mythos de Anthropic: el modelo de IA restringido en medio de tensiones con el Pentágono
Fuente: TechCrunch AI

En los pasillos clasificados de Fort Meade, Maryland, analistas de la Agencia de Seguridad Nacional (NSA) están utilizando uno de los modelos de inteligencia artificial más sofisticados y restringidos del mundo: Mythos, desarrollado por Anthropic. La revelación resulta particularmente sorprendente porque ocurre en medio de tensiones documentadas entre el Pentágono y la comunidad de inteligencia sobre el acceso y control de tecnologías de IA de vanguardia. Esta aparente contradicción revela las complejidades del ecosistema de inteligencia artificial en el ámbito de la seguridad nacional estadounidense, donde las rivalidades burocráticas coexisten con necesidades operativas urgentes.

Un modelo restringido en manos de espías

Mythos representa una categoría especial dentro del catálogo de Anthropic. A diferencia de Claude, el asistente de IA ampliamente disponible para el público, Mythos está clasificado como un modelo de acceso restringido, diseñado específicamente para aplicaciones que requieren capacidades avanzadas de procesamiento de lenguaje natural y análisis de información sensible. La decisión de Anthropic de mantener este modelo fuera del alcance comercial general responde a preocupaciones sobre seguridad, posibles usos indebidos y la necesidad de evaluar exhaustivamente sus capacidades antes de cualquier despliegue más amplio.

Según reportes de fuentes cercanas a la implementación, la NSA habría integrado Mythos en sus operaciones de análisis de señales e inteligencia, aprovechando sus capacidades superiores para procesar volúmenes masivos de comunicaciones interceptadas y extraer patrones relevantes para la seguridad nacional. Esta adopción subraya la carrera acelerada de las agencias de inteligencia por incorporar herramientas de IA de última generación, incluso cuando persisten debates sobre gobernanza, supervisión y límites éticos en su uso.

La implementación de Mythos por parte de la NSA no solo destaca las capacidades técnicas del modelo, sino también la relación cada vez más estrecha entre empresas tecnológicas privadas y el aparato de seguridad nacional. Anthropic, fundada por ex miembros de OpenAI con un enfoque declarado en la "IA segura y beneficiosa", se encuentra ahora en el centro de un debate sobre hasta qué punto las empresas de IA deben colaborar con agencias de inteligencia y bajo qué condiciones.

El trasfondo de la disputa con el Pentágono

La utilización de Mythos por la NSA cobra mayor significado cuando se contextualiza dentro de las tensiones reportadas entre diferentes ramas del establishment de defensa e inteligencia estadounidense. El Pentágono ha expresado preocupaciones sobre la fragmentación en la adopción de tecnologías de IA entre las diversas agencias de inteligencia, argumentando que esta falta de coordinación podría generar vulnerabilidades de seguridad, duplicación de esfuerzos y gastos innecesarios en un momento de presupuestos ajustados.

Estas fricciones no son meramente administrativas. Representan diferencias fundamentales sobre quién debe controlar el acceso a las herramientas de IA más poderosas, cómo deben establecerse los protocolos de seguridad y qué nivel de supervisión civil debe existir sobre sistemas que podrían tener implicaciones profundas para la privacidad y los derechos civiles. El Departamento de Defensa ha abogado por una arquitectura centralizada de IA que permita mayor interoperabilidad y control, mientras que agencias como la NSA han preferido mantener autonomía en sus decisiones tecnológicas, argumentando que sus necesidades operativas únicas requieren soluciones especializadas.

La adopción de modelos de IA restringidos por agencias de inteligencia sin una coordinación centralizada plantea interrogantes fundamentales sobre la gobernanza tecnológica en el ámbito de la seguridad nacional y los mecanismos de supervisión democrática sobre herramientas de vigilancia cada vez más poderosas.

Esta situación refleja un patrón más amplio en la comunidad de inteligencia estadounidense, donde la competencia entre agencias por recursos, prestigio y capacidades tecnológicas a menudo complica los esfuerzos de coordinación. La NSA, con su presupuesto clasificado multimillonario y su enfoque en la inteligencia de señales, ha mantenido históricamente una postura de independencia tecnológica, desarrollando o adquiriendo herramientas específicas para sus misiones sin necesariamente alinearse con las preferencias del Pentágono.

Anthropic entre dos mundos

Para Anthropic, la situación presenta un delicado equilibrio. La compañía se ha posicionado públicamente como una defensora de la IA responsable y segura, enfatizando su compromiso con la "Constitutional AI", un enfoque que busca alinear los modelos de lenguaje con valores humanos a través de principios explícitos. Sin embargo, las colaboraciones con agencias de inteligencia inevitablemente generan preguntas sobre cómo se aplican estos principios cuando los sistemas se utilizan para vigilancia, análisis de inteligencia y otras actividades clasificadas.

La empresa, que ha recaudado miles de millones de dólares de inversores incluyendo Google y diversos fondos de capital de riesgo, enfrenta presiones múltiples: demostrar valor comercial, mantener su reputación ética, cumplir con posibles obligaciones contractuales con el gobierno y navegar un panorama regulatorio cada vez más complejo. La decisión de proporcionar acceso a Mythos a la NSA sugiere que, al menos en algunos casos, las consideraciones de seguridad nacional y las oportunidades comerciales han prevalecido sobre posibles reservas sobre el uso gubernamental de sus tecnologías más avanzadas.

Esta dinámica no es exclusiva de Anthropic. Otras empresas líderes en IA, incluyendo OpenAI, Google DeepMind y Microsoft, han enfrentado escrutinio similar por sus relaciones con gobiernos y agencias de defensa. La diferencia radica en que Anthropic ha construido explícitamente su marca corporativa alrededor de la seguridad y la ética en IA, lo que hace que cualquier colaboración con agencias de inteligencia sea particularmente notable y potencialmente controvertida entre sus stakeholders.

Contexto clave

¿Qué es un modelo de IA restringido? Los modelos de acceso restringido son sistemas de inteligencia artificial que las empresas desarrolladoras no ponen a disposición del público general ni siquiera de clientes comerciales estándar. Esta restricción puede deberse a que el modelo posee capacidades que podrían ser mal utilizadas, requiere recursos computacionales extraordinarios, está en fase experimental, o está diseñado específicamente para aplicaciones sensibles. En el caso de Mythos, la restricción sugiere capacidades avanzadas que Anthropic considera demasiado poderosas o especializadas para un despliegue amplio sin controles rigurosos.

La NSA y su papel en inteligencia de señales. La Agencia de Seguridad Nacional es la principal organización estadounidense responsable de la inteligencia de señales (SIGINT), que incluye la interceptación y análisis de comunicaciones electrónicas. Con presupuestos clasificados que se estiman en decenas de miles de millones de dólares anuales, la NSA opera una infraestructura tecnológica masiva que procesa cantidades astronómicas de datos diariamente. La incorporación de modelos de IA avanzados como Mythos representa una evolución natural de sus capacidades, permitiendo análisis más sofisticados de patrones lingüísticos, detección de amenazas y procesamiento automatizado de inteligencia a escalas previamente imposibles.

Constitutional AI y los principios de Anthropic. Constitutional AI es el marco desarrollado por Anthropic para entrenar modelos de lenguaje que se adhieran a principios éticos específicos sin depender exclusivamente de retroalimentación humana constante. El sistema utiliza un conjunto de reglas o "constitución" que guía el comportamiento del modelo, buscando que rechace solicitudes dañinas y proporcione respuestas alineadas con valores humanos. Sin embargo, cómo se aplica este marco cuando el modelo se utiliza para inteligencia clasificada permanece opaco, planteando preguntas sobre transparencia y accountability en aplicaciones gubernamentales de IA.

Para profundizar

  • El debate sobre transparencia en IA gubernamental — ¿Cómo pueden los ciudadanos y legisladores ejercer supervisión efectiva sobre sistemas de IA utilizados por agencias de inteligencia cuando tanto las capacidades técnicas como las aplicaciones permanecen clasificadas? Esta tensión entre seguridad operacional y accountability democrática define uno de los desafíos centrales de la era de la IA en seguridad nacional.
  • Competencia tecnológica entre agencias de inteligencia — La fragmentación en la adopción de tecnologías de IA entre NSA, CIA, DIA y otras agencias refleja rivalidades históricas pero también plantea riesgos de seguridad y eficiencia. Explorar cómo otros países con aparatos de inteligencia igualmente sofisticados gestionan esta coordinación podría ofrecer lecciones valiosas para el modelo estadounidense.
  • El futuro de Anthropic entre ética y mercado — A medida que la compañía escala y enfrenta presiones competitivas de OpenAI, Google y otros gigantes tecnológicos, ¿podrá mantener su posicionamiento distintivo en seguridad y ética en IA? Las decisiones sobre colaboraciones gubernamentales, acceso a modelos y transparencia definirán si Constitutional AI es un compromiso genuino o principalmente una estrategia de marketing diferenciador.
¿Te gustó este artículo?
Recibí lo mejor de ConocIA cada semana en tu correo.
Sin spam · Cancelá cuando quieras

Comentarios

Deja tu comentario
Tu email no será publicado.

No hay comentarios todavía. ¡Sé el primero en comentar!

Artículos relacionados