Agencias Federales podrían obtener acceso modificado al Mythos de Anthropic según nuevo plan de la Casa Blanca

Un memorando de la Casa Blanca señala posible acceso de agencias a una versión modificada del modelo Mythos de Anthropic, que sigue bajo estrictos controles por temores de mal uso cibernético.

Agencias Federales podrían obtener acceso modificado al Mythos de Anthropic según nuevo plan de la Casa Blanca

Conclusiones Clave

  • El gobierno de los EEUU se prepara para dar acceso a las agencias federales al modelo de IA Mythos de Anthropic para mejorar las capacidades de ciberseguridad.
  • A pesar del interés en Mythos, el gobierno de los EEUU también ha considerado a Anthropic un riesgo para la cadena de suministro, lo que lleva a una situación compleja.

Compartir este artículo

El gobierno de los EEUU está preparando una versión del modelo de inteligencia artificial Mythos de Anthropic para ponerla a disposición de las principales agencias federales, mientras los funcionarios evalúan los riesgos de usar un sistema que ha generado nuevas preocupaciones de ciberseguridad.

Un memorando enviado por Gregory Barbaccia, el jefe federal de información de la Oficina de Administración y Presupuesto de la Casa Blanca, informó a los altos funcionarios de tecnología y ciberseguridad de las agencias que esperen más información en las próximas semanas sobre el posible acceso al modelo.

Bloomberg informó que el correo electrónico no confirma que las agencias definitivamente recibirán acceso a Mythos, ni establece un cronograma específico ni define exactamente cómo se utilizaría el modelo. En cambio, indica que la OMB está desarrollando salvaguardas antes de cualquier posible implementación de lo que Barbaccia describió como una versión modificada del modelo para las agencias en todo el gobierno federal.

Los funcionarios incluidos en el mensaje representaban a departamentos importantes como Defensa, Tesorería, Comercio, Seguridad Nacional, Justicia y Estado, subrayando cuán ampliamente Washington ya se está preparando para la posibilidad de que los sistemas de IA de frontera puedan formar parte de los flujos de trabajo de defensa cibernética federal.

Bloomberg informó por separado el 14 de abril que el Departamento del Tesoro había estado buscando acceso a Mythos para ayudar a identificar vulnerabilidades de software.

El momento es notable porque Mythos no es un lanzamiento comercial estándar. Anthropic introdujo Claude Mythos Preview mediante el Proyecto Glasswing el 7 de abril, describiéndolo como su modelo de frontera más capaz hasta la fecha para tareas de codificación y agentivas, mientras enfatizaba que su fuerza inusual en ciberseguridad es exactamente por qué el modelo permanece bajo estrictos controles.

Anthropic mencionó que Mythos Preview ya ha identificado miles de vulnerabilidades de día cero en infraestructura crítica y se ofrece solo como una vista previa de investigación limitada.

Bajo el Proyecto Glasswing, Anthropic mencionó que está trabajando con un grupo limitado de socios de lanzamiento para usar Mythos Preview para ayudar a asegurar software crítico y preparar instituciones para un mundo en el que los modelos de frontera pueden tanto defender como potencialmente poner en peligro sistemas sensibles.

Anthropic también mencionó que ha estado en discusiones continuas con funcionarios del gobierno de los EEUU sobre Mythos y sus capacidades cibernéticas ofensivas y defensivas, agregando que la protección de la infraestructura crítica es una prioridad de seguridad nacional.

Ese lanzamiento restringido siguió a una alarma más amplia dentro del gobierno y las finanzas. Reuters informó el 10 de abril que el secretario del Tesoro, Scott Bessent, y el presidente de la Reserva Federal, Jerome Powell, advirtieron a los principales CEOs de bancos sobre los riesgos vinculados a Mythos después de que Bloomberg reportara primero las preocupaciones.

El lanzamiento de Claude Opus 4.7 de Anthropic más temprano hoy agrega otro nivel de contexto. Al anunciar Opus 4.7, Anthropic mencionó que el modelo es menos ampliamente capaz que Mythos Preview y es el primero en ser lanzado con salvaguardas diseñadas para detectar y bloquear automáticamente solicitudes de ciberseguridad prohibidas o de alto riesgo. La compañía mencionó que lo que aprenda de la implementación mundial de Opus 4.7 ayudará a informar cualquier eventual lanzamiento más amplio de modelos de la clase Mythos.

Ese telón de fondo hace que las últimas discusiones sobre Mythos en el gobierno sean especialmente notables. Trump dirigió a las agencias federales el 27 de febrero a dejar de usar la tecnología de Anthropic, empujando partes del gobierno a eliminar a Claude y moverse hacia herramientas rivales de OpenAI y Google. Las nuevas discusiones sobre Mythos sugieren que los funcionarios ahora pueden estar buscando una manera controlada de reincorporar a Anthropic al uso federal, al menos para el trabajo de ciberseguridad.

Fundada en 2021, Anthropic surgió como un jugador líder en el dominio de la seguridad de la IA, ganando rápidamente tracción debido a su equipo experimentado de investigadores anteriores de OpenAI. Su misión se centra en desarrollar sistemas de IA que estén alineados con los valores humanos, de ahí su énfasis en la seguridad y el uso responsable de la IA. Antes de abril de 2024, Anthropic había logrado avances significativos en la creación de modelos que no solo son competitivos en rendimiento sino que también priorizan las consideraciones éticas en su implementación.

Las crecientes conversaciones sobre la implementación de la IA por parte de las agencias gubernamentales destacan un cambio hacia la integración de tecnologías avanzadas en los marcos de seguridad nacional. En particular, el interés del gobierno en asociarse con compañías como Anthropic subraya una intención de aprovechar la IA para mejorar las medidas de ciberseguridad y hacer frente a amenazas evolutivas. Este paisaje en evolución refleja una tendencia más amplia dentro de las estrategias gubernamentales para adoptar tecnologías de vanguardia mientras se navega simultáneamente por los riesgos asociados.

Cargando...