L'article Le juge empêche le Pentagone de qualifier Anthropic de menace pour la sécurité nationale est paru sur BitcoinEthereumNews.com. En bref Un juge fédéral a bloqué leL'article Le juge empêche le Pentagone de qualifier Anthropic de menace pour la sécurité nationale est paru sur BitcoinEthereumNews.com. En bref Un juge fédéral a bloqué le

Un juge bloque le Pentagone dans sa volonté de qualifier Anthropic de menace pour la sécurité nationale

2026/03/27 12:23
Temps de lecture : 5 min
Pour tout commentaire ou toute question concernant ce contenu, veuillez nous contacter à l'adresse suivante : crypto.news@mexc.com

En bref

  • Un juge fédéral a empêché le Pentagone de désigner Anthropic comme un risque pour la chaîne d'approvisionnement, estimant que cette mesure violait probablement les droits du Premier Amendement et de procédure régulière de l'entreprise.
  • Le différend découlait d'un contrat d'IA de 200 millions de dollars du Département de la Défense qui s'est effondré après qu'Anthropic a refusé d'autoriser l'utilisation de son modèle pour la surveillance de masse ou la guerre autonome létale.
  • La décision rétablit temporairement la position d'Anthropic auprès des contractants fédéraux et pourrait façonner la manière dont les entreprises d'IA fixent des limites d'utilisation dans les accords gouvernementaux.

Un juge fédéral a empêché le Pentagone de désigner Anthropic comme un risque pour la chaîne d'approvisionnement, décidant jeudi que la campagne du gouvernement contre l'entreprise d'IA violait ses droits du Premier Amendement et de procédure régulière.

La juge de district américaine Rita Lin a émis une injonction préliminaire du district nord de Californie deux jours après avoir entendu les arguments oraux des deux parties, dans une affaire que les observateurs disent avoir été rendue inévitable par la propre paperasse du gouvernement.

« Rien dans la loi applicable ne soutient la notion orwellienne qu'une entreprise américaine puisse être qualifiée d'adversaire potentiel et de saboteur des États-Unis pour avoir exprimé un désaccord avec le gouvernement », a écrit la juge Lin.

Le dossier interne a été fatal au cas du gouvernement, selon Andrew Rossow, avocat des affaires publiques et PDG d'AR Media Consulting, qui a déclaré à Decrypt que la désignation avait été « déclenchée par une conduite médiatique, et non par une analyse de sécurité ».

« Le gouvernement a essentiellement écrit son propre motif, et c'était des représailles », a déclaré Rossow.

Le différend porte sur un contrat de deux ans de 200 millions de dollars attribué à Anthropic en juillet 2025 par le Bureau du numérique et de l'intelligence artificielle du Département de la Guerre. 

Les négociations pour déployer Claude sur la plateforme GenAI.Mil du département ont échoué après que les deux parties n'ont pas réussi à s'entendre sur les restrictions d'utilisation.

Anthropic a insisté sur deux conditions : que Claude ne soit pas utilisé pour la surveillance de masse des Américains ou pour un usage létal dans une guerre autonome, arguant que le modèle n'était pas encore sûr pour l'un ou l'autre objectif.

Lors d'une réunion du 24 février, le secrétaire à la Guerre Pete Hegseth a dit aux représentants d'Anthropic que si l'entreprise ne levait pas ses restrictions avant le 27 février, le département la désignerait immédiatement comme un risque pour la chaîne d'approvisionnement.

Anthropic a refusé de se conformer.

Le même jour, le président Trump a publié une directive sur Truth Social ordonnant à chaque agence fédérale de « cesser immédiatement » d'utiliser la technologie de l'entreprise, qualifiant Anthropic d'« entreprise radicale de gauche et woke ».

Un peu plus d'une heure plus tard, Hegseth a décrit la position d'Anthropic comme un « cours magistral d'arrogance et de trahison », ordonnant qu'aucun contractant faisant affaire avec l'armée ne puisse mener d'activité commerciale avec l'entreprise. La désignation formelle de risque pour la chaîne d'approvisionnement a suivi par une lettre le 3 mars.

Anthropic a poursuivi le gouvernement le 9 mars, alléguant des violations du Premier Amendement, de la procédure régulière et de la loi sur les procédures administratives.

« Punir Anthropic pour avoir soumis la position contractuelle du gouvernement à l'examen public est une représaille classique et illégale au titre du Premier Amendement », a écrit la juge Lin dans l'ordonnance de jeudi.

L'ordonnance, qui a été suspendue pendant sept jours, bloque les trois actions gouvernementales, exige un rapport de conformité d'ici le 6 avril et rétablit le statu quo avant les événements du 27 février.

Instrumentaliser la loi

La désignation de « risque pour la chaîne d'approvisionnement » a été historiquement réservée aux agences de renseignement étrangères, aux terroristes et à d'autres acteurs hostiles. 

Elle n'avait jamais été appliquée à une entreprise nationale avant Anthropic. Les contractants de la Défense ont commencé à évaluer et dans de nombreux cas à mettre fin à leur dépendance à Anthropic dans les semaines qui ont suivi, a noté l'ordonnance de la juge Lin.

Et la posture du gouvernement pourrait avoir des conséquences imprévues, soutiennent les experts.

En effet, la décision de jeudi pourrait pousser les entreprises d'IA « à formaliser des garde-fous éthiques lorsqu'elles travaillent avec les gouvernements », a déclaré Pichapen Prateepavanich, stratège politique et fondatrice de la société d'infrastructure Gather Beyond, à Decrypt.

Dans une certaine mesure, la décision suggère également que les entreprises « peuvent fixer des limites d'utilisation claires sans déclencher automatiquement une action réglementaire punitive », a-t-elle déclaré.

Mais cela « n'élimine pas la tension », a-t-elle ajouté. Ce que la décision limite, c'est « la capacité d'intensifier ce désaccord en une exclusion plus large ou un étiquetage qui semble être des représailles ».

Néanmoins, l'application de l'autorité statutaire actuelle pour désigner une entreprise comme un risque pour la chaîne d'approvisionnement « parce qu'elle a refusé de supprimer des garde-fous de sécurité » n'est pas une extension de la loi sur les risques de la chaîne d'approvisionnement, a expliqué Rossow. Au lieu de cela, elle fonctionne comme une « instrumentalisation » de la loi.

« Cela fait partie d'un schéma de comportement continu de la Maison Blanche chaque fois qu'elle est contestée, entraînant des menaces disproportionnées, émotionnellement motivées et biaisées ainsi que de l'extorsion gouvernementale », a-t-il ajouté.

Si la « théorie » du gouvernement est acceptée, elle créerait un précédent « dangereux » dans lequel les entreprises d'IA peuvent être mises sur liste noire pour des politiques de sécurité que le gouvernement n'aime pas, « avant qu'aucun préjudice ne se produise », sans procédure régulière, sous la bannière de la sécurité nationale, a déclaré Rossow.

Newsletter Daily Debrief

Commencez chaque journée avec les principales nouvelles du moment, plus des contenus originaux, un podcast, des vidéos et plus encore.

Source : https://decrypt.co/362548/judge-blocks-pentagon-anthropic-national-security-threat

Opportunité de marché
Logo de Notcoin
Cours Notcoin(NOT)
$0.000358
$0.000358$0.000358
-0.69%
USD
Graphique du prix de Notcoin (NOT) en temps réel
Clause de non-responsabilité : les articles republiés sur ce site proviennent de plateformes publiques et sont fournis à titre informatif uniquement. Ils ne reflètent pas nécessairement les opinions de MEXC. Tous les droits restent la propriété des auteurs d'origine. Si vous estimez qu'un contenu porte atteinte aux droits d'un tiers, veuillez contacter crypto.news@mexc.com pour demander sa suppression. MEXC ne garantit ni l'exactitude, ni l'exhaustivité, ni l'actualité des contenus, et décline toute responsabilité quant aux actions entreprises sur la base des informations fournies. Ces contenus ne constituent pas des conseils financiers, juridiques ou professionnels, et ne doivent pas être interprétés comme une recommandation ou une approbation de la part de MEXC.