Anthropic presenta demanda contra el gobierno de EEUU por etiqueta de riesgo en cadena de suministros

La etiqueta restringe cómo Anthropic puede hacer negocios con contratistas de defensa y empresas que trabajan junto al Pentágono.

Anthropic presenta demanda contra el gobierno de EEUU por etiqueta de riesgo en cadena de suministros

Conclusiones Clave

  • Anthropic desafía su designación como riesgo en la cadena de suministros, argumentando que carece de fundamento legal y afecta sus relaciones comerciales con contratistas de defensa.
  • La demanda resalta los conflictos sobre el uso de tecnología IA en aplicaciones militares, con Anthropic resistiendo su despliegue para vigilancia masiva o armamento autónomo.

Compartir este artículo

Anthropic está demandando al Departamento de Defensa de EEUU y otros organismos federales después de ser designada como «riesgo en la cadena de suministros» por la administración Trump, restringiendo efectivamente su negocio con contratistas de defensa.

La designación se produjo después de que se colapsaran las negociaciones por la negativa de Anthropic a permitir que sus sistemas de IA fueran usados para la vigilancia masiva de estadounidenses o armas autónomas, llevando al gobierno a detener la adopción de sus sistemas y poniendo en peligro un acuerdo con el Pentágono valorado en hasta 200 millones de dólares.

El Pentágono insiste en que los modelos de IA de Anthropic deben ser capaces de usar la tecnología para todos los fines legales.

El FT señaló la semana pasada que Dario Amodei, CEO de Anthropic, insistió en negociaciones de último minuto con líderes de la defensa para desescalar tensiones, pero el intento fue en gran parte infructuoso en prevenir una lista negra formal.

La empresa con sede en San Francisco argumenta que la clasificación carece de fundamento legal y dice que la demanda es necesaria para proteger su negocio y asociaciones mientras continúan las discusiones con el gobierno.

«Buscar una revisión judicial no cambia nuestro compromiso de larga data con el uso de la IA para proteger nuestra seguridad nacional, pero este es un paso necesario para proteger nuestro negocio, nuestros clientes y nuestros socios,» mencionó un portavoz de Anthropic a CNN.

El negocio de consumo de Anthropic ha mostrado resiliencia a pesar de la controversia gubernamental.

La aplicación Claude de la compañía superó a ChatGPT de OpenAI en las clasificaciones de la App Store de Apple por primera vez justo después de las noticias de la terminación del contrato con el Pentágono.

A principios de marzo, Anthropic reportó que más de un millón de usuarios se registraban diariamente en Claude.

Google confirmó que seguirá proporcionando la tecnología de IA de Anthropic a sus clientes de nube para fines no defensivos, siguiendo la clasificación del Pentágono de la compañía como un riesgo en la cadena de suministros.

Microsoft hizo una declaración similar, mientras que Amazon también dijo que continuará ofreciendo los servicios de Anthropic fuera del trabajo de defensa.

Cargando...