Le différend sur la défense aux États-Unis s'aggrave alors qu'Anthropic dépose une plainte contre le Pentagone contestant la liste noire de...

Dans une escalade brutale des tensions avec Washington, la société d’IA Anthropic a déposé une plainte contre l’État américain suite à sa mise sur liste noire soudaine par l’établissement de défense américain.

Anthropic poursuit le Pentagone pour le label « risque de chaîne d’approvisionnement »

Lundi, Anthropic a déposé deux actions en justice contre le Département de la Défense (DoD), arguant que la décision du gouvernement de qualifier l’entreprise de « risque de chaîne d’approvisionnement » est illégale et viole ses droits du Premier Amendement. Le différend couvait depuis plusieurs mois, la société cherchant à obtenir des garanties limitant l’utilisation militaire de son IA pour la surveillance domestique de masse ou pour des armes létales entièrement autonomes.

Les nouvelles affaires, déposées devant le tribunal du district nord de Californie et la cour d’appel des États-Unis pour le circuit de Washington DC, font suite à la désignation officielle du risque par le Pentagone jeudi dernier. Notamment, c’est la première fois que cet outil de blacklisting est utilisé contre une entreprise américaine. De plus, cette désignation ordonne en pratique à tout contractant travaillant avec le gouvernement de couper tout lien avec Anthropic, ce qui constitue une menace sérieuse pour le modèle économique de la société.

Plainte pour liberté d’expression et représailles contre l’administration Trump

La plainte d’Anthropic soutient que l’administration Trump punit la société pour avoir refusé de se conformer à ce qu’elle décrit comme les exigences idéologiques du gouvernement. Selon le dossier, cette rétorsion violerait la liberté d’expression protégée et constituerait une tentative de contraindre la société à changer sa position sur les applications militaires de l’IA.

« Ces actions sont sans précédent et illégales. La Constitution n’autorise pas le gouvernement à utiliser son immense pouvoir pour punir une entreprise pour sa liberté d’expression protégée », a affirmé Anthropic dans sa plainte californienne. Cependant, le gouvernement n’a pas encore publié ses raisons pour cette désignation.

Intégration profonde de Claude dans les systèmes de défense américains

Au cours de l’année écoulée, le modèle d’IA phare d’Anthropic, Claude, est devenu profondément intégré dans le Département de la Défense. Jusqu’à récemment, Claude était apparemment le seul modèle d’IA approuvé pour une utilisation dans des systèmes classifiés, soulignant son importance stratégique. Le DoD aurait utilisé le système de manière extensive dans ses opérations militaires, notamment pour décider où cibler des frappes de missiles dans sa guerre contre l’Iran.

Anthropic a insisté dans ses dossiers qu’elle reste engagée à fournir de l’IA pour des fins de sécurité nationale. De plus, la société a indiqué dans la plainte californienne qu’elle avait déjà collaboré avec le Pentagone pour modifier ses systèmes en fonction de cas d’usage spécifiques, adaptant la technologie aux exigences sensibles de la défense.

L’entreprise souhaite à la fois une révision judiciaire et un dialogue continu

La société affirme que demander un contrôle judiciaire ne signifie pas un retrait de ses activités de défense. Au contraire, elle présente cette action légale comme une mesure de sauvegarde nécessaire. Dans une déclaration à The Guardian, un porte-parole a déclaré : « La recherche d’un contrôle judiciaire ne change pas notre engagement de longue date à utiliser l’IA pour protéger notre sécurité nationale, mais c’est une étape nécessaire pour protéger notre entreprise, nos clients et nos partenaires. »

Anthropic a ajouté qu’elle souhaite poursuivre les négociations avec le gouvernement américain malgré le litige. La société a cependant promis d’explorer toutes les voies possibles pour résoudre le conflit, y compris d’éventuelles actions juridiques supplémentaires et un dialogue direct avec les responsables fédéraux.

Dommages économiques et signaux contradictoires

Dans ses documents judiciaires, Anthropic affirme que les actions punitives de l’administration Trump et du Pentagone « nuisent irréparablement » à Anthropic en la coupant de ses affaires cruciales avec le gouvernement. La société soutient que la désignation de risque de chaîne d’approvisionnement pourrait refroidir les partenariats dans l’écosystème plus large de la défense et de la technologie.

Cependant, ces affirmations entrent en contradiction avec les déclarations du PDG Dario Amodei dans une récente interview sur CBS News. La semaine dernière, Amodei a déclaré que « l’impact de cette désignation est assez faible » et a insisté sur le fait que la société « ira bien ». Les observateurs notent que ce contraste pourrait devenir un point focal à mesure que les affaires progressent.

Un cas test pour l’IA, la sécurité nationale et la liberté d’expression

Anthropic présente le différend comme un affrontement à enjeux élevés sur l’innovation et la liberté d’expression. « Les défendeurs cherchent à détruire la valeur économique créée par l’une des entreprises privées à la croissance la plus rapide au monde, qui est un leader dans le développement responsable d’une technologie émergente d’une importance vitale pour notre nation », affirme la société dans sa plainte. La plainte d’Anthropic soulève également des questions plus larges sur la manière dont Washington régulera les fournisseurs stratégiques d’IA.

Plus généralement, cette affaire pourrait tester jusqu’où le gouvernement américain peut aller dans la blackliste d’une société d’IA en raison de divergences politiques sur l’utilisation de l’IA pour la sécurité nationale. Elle pourrait aussi influencer les futures directives concernant la censure gouvernementale et les limites du pouvoir exécutif sur les fournisseurs de technologies émergentes.

Le Pentagone reste silencieux pour l’instant

Le Département de la Défense n’a pas immédiatement répondu à une demande de commentaire concernant les dossiers ou son processus de décision. Pour l’instant, le défi juridique d’Anthropic ajoute un nouveau point de friction dans le débat sur la manière dont les États-Unis doivent équilibrer impératifs de sécurité, libertés civiles et déploiement rapide de systèmes d’IA avancés dans les opérations militaires et de renseignement.

En résumé, les deux actions en justice d’Anthropic marquent une confrontation cruciale entre un développeur d’IA en pleine croissance et l’establishment de la défense américain, avec des résultats qui pourraient avoir des répercussions sur la sécurité nationale, la politique technologique et les batailles pour la liberté d’expression des entreprises en 2024 et au-delà.

Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
0/400
Aucun commentaire
  • Épingler