Anthropic logra victoria temprana en juicio sobre lista negra del Pentágono y prohibición de Trump

La sentencia detiene la directiva de la administración Trump y el esfuerzo de la lista negra del Pentágono, otorgando a Anthropic una victoria temprana clave en su lucha sobre el uso federal de Claude.

Anthropic logra victoria temprana en juicio sobre lista negra del Pentágono y prohibición de Trump

Conclusiones Clave

  • Una jueza federal bloqueó la lista negra de la administración Trump a Anthropic, restaurando su capacidad de servir a clientes federales.
  • El caso podría redefinir la autoridad del gobierno de EEUU sobre las compañías tecnológicas domésticas y sus obligaciones de seguridad.

Compartir este artículo

Anthropic ganó una victoria temprana clave en corte después de que un juez federal en San Francisco concediera la solicitud de la startup de inteligencia artificial para una orden preliminar, bloqueando temporalmente a la administración de Trump de hacer cumplir acciones que incluyeron a la compañía en una lista negra y restringieron a las agencias federales de usar sus modelos Claude.

La jueza del distrito de EEUU, Rita Lin, encontró que Anthropic había mostrado una probabilidad de éxito en partes fundamentales del caso, escribiendo que las acciones del gobierno parecían más punitivas que orientadas a la seguridad. Reuters informó que Lin dijo que castigar a Anthropic por llamar la atención pública sobre la posición de contratación del gobierno parecía ser una represalia ilegal de la Primera Enmienda.

La orden prohíbe a la administración, por ahora, implementar o hacer cumplir la directiva del presidente Donald Trump contra Anthropic y de avanzar en el esfuerzo del Pentágono para tratar a la compañía como un riesgo en la cadena de suministro de seguridad nacional. Reuters informó que la decisión está suspendida por siete días para permitir al gobierno tiempo para apelar.

La disputa comenzó después de que Anthropic se negara a eliminar completamente las restricciones de seguridad de Claude en negociaciones con el Pentágono. La compañía dijo que no aceptaría usos vinculados a armas totalmente autónomas sin supervisión humana o a la vigilancia masiva de estadounidenses, aunque se mantuvo abierta a trabajos gubernamentales más amplios.

Trump entonces ordenó a finales de febrero que las agencias federales dejaran de usar la tecnología de Anthropic, mientras que el Secretario de Defensa Pete Hegseth etiquetó por separado a la compañía como un riesgo de cadena de suministro, una designación que podría obligar a los contratistas de defensa a evitar a Claude en trabajos militares. Anthropic argumentó que esta fue la primera vez que tal etiqueta se había usado públicamente contra una compañía estadounidense de esta manera.

Los riesgos son altos porque Anthropic se ha convertido en un importante proveedor de IA para el gobierno de EEUU. La compañía tenía un contrato de Pentagono de $200 millones y ya había desplegado modelos en redes clasificadas del Departamento de Defensa antes de que la relación se rompiera por términos de uso.

La administración Trump dependió de autoridades legales separadas para la lista negra del Pentágono y para restricciones de adquisición federal más amplias, obligando a Anthropic a desafiarlas en diferentes cortes. Un caso separado vinculado a la contratación gubernamental civil todavía está avanzando en Washington.

Este artículo contiene enlaces a fuentes externas. No nos hacemos responsables de su contenido.

Cargando...