Trump ordonne une interdiction fédérale de l'IA Anthropic dans l'escalade du bras de fer avec le Pentagone
Le président demande à toutes les agences de cesser immédiatement d'utiliser la technologie Claude, accusant la société de mettre en danger la sécurité nationale
WASHINGTON — Le président Donald Trump a ordonné à toutes les agences fédérales d'arrêter immédiatement d'utiliser la technologie d'intelligence artificielle développée par Anthropic, intensifiant un conflit amer entre l'administration Trump et la société d'IA basée à San Francisco concernant l'accès de l'armée à ses systèmes de chatbot puissants.
Dans un message incendiaire sur Truth Social vendredi, Trump a annoncé qu'il dirigeait "CHAQUE agence fédérale du gouvernement des États-Unis à CESSER IMMÉDIATEMENT toute utilisation de la technologie d'Anthropic", ajoutant : "Nous n'en avons pas besoin, nous ne la voulons pas, et nous ne ferons plus affaire avec eux !" .
L'ordre du président comprend une période de transition de six mois pour le Département de la Défense et d'autres agences qui ont déjà intégré l'IA Claude d'Anthropic dans leurs opérations, permettant de prévoir une phase de retrait de la technologie.
Conflit sur l'accès militaire déclenchant une confrontation
L'action sans précédent contre une société d'IA nationale découle d'un conflit de plusieurs semaines entre Anthropic et le Pentagone concernant les termes du contrat régissant l'utilisation de la technologie de la société dans des applications militaires.
Le secrétaire à la Défense Pete Hegseth avait fixé une échéance vendredi exigeant qu'Anthropic permette une utilisation militaire sans restriction de ses outils d'IA pour "tout usage légal". Le Pentagone a simultanément menacé de désigner la société comme un "risque pour la chaîne d'approvisionnement" — une étiquette généralement réservée aux adversaires étrangers — et a évoqué la possibilité d'utiliser la Defense Production Act de l'époque de la Guerre froide pour contraindre à la conformité.
Le PDG d'Anthropic, Dario Amodei, a refusé de céder aux demandes, invoquant des préoccupations que la technologie de la société pourrait être utilisée pour une surveillance de masse des citoyens américains ou dans des systèmes d'armes entièrement autonomes.
"Nous ne pouvons pas, en conscience, accéder aux demandes du Département de la Défense", a déclaré Amodei dans une déclaration jeudi. "Ces menaces ne changeront pas notre position."
Suite à l'annonce de Trump, Hegseth a confirmé la désignation de risque pour la chaîne d'approvisionnement, déclarant qu'Anthropic était officiellement interdit de travailler en tant que contractant de défense — marquant la première fois que le gouvernement américain appliquait une telle étiquette à une société nationale.
La rhétorique incendiaire de Trump vise la direction de l'entreprise
L'annonce du président comprenait des attaques personnelles acerbes contre la direction d'Anthropic, qu'il a qualifiée d'out of touch avec les impératifs de sécurité nationale.
"Les lunatiques de gauche d'Anthropic ont commis une erreur catastrophique", a écrit Trump, selon des traductions de ses propos. "Ils tentent de forcer le Département de la Guerre à respecter leurs conditions de service plutôt que notre Constitution."
Trump a averti de graves conséquences si la société ne coopérait pas pendant la période de retrait, déclarant qu'il utiliserait "tout le pouvoir de la présidence pour les contraindre à se conformer, avec de graves conséquences civiles et pénales."
Le président a spécifiquement évoqué le "Department of War" — son désignation alternative préférée pour le Département de la Défense — en encadrant le conflit comme une question d'autorité militaire versus excès de pouvoir des entreprises.
Soutien industriel derrière Anthropic
La position ferme de l'administration a reçu un large soutien pour Anthropic dans le secteur technologique, y compris de la part des concurrents les plus féroces de la société.
Le PDG d'OpenAI, Sam Altman, dont la société est en concurrence directe avec Anthropic sur le marché de l'IA commerciale, a publiquement pris parti pour son rival dans une note interne au personnel. Altman a souligné qu'OpenAI partageait les mêmes "lignes rouges" concernant les applications militaires, rejetant toute utilisation impliquant la surveillance domestique ou des armes offensives autonomes.
"Deux de nos principes de sécurité les plus importants sont l'interdiction de la surveillance de masse domestique et la responsabilité humaine dans l'utilisation de la force, y compris pour les systèmes d'armes autonomes", a déclaré Altman. "Le Département de la Défense partage ces principes, les reflète dans la loi et la politique, et nous les avons intégrés dans notre accord."
Le soutien ne s'est pas limité aux bureaux exécutifs. Plus de 550 ingénieurs en IA ont signé une lettre ouverte soutenant la position d'Anthropic, tandis que des syndicats représentant environ 700 000 travailleurs chez Amazon, Google et Microsoft ont exhorté leurs employeurs à "refuser de se conformer" aux demandes du Pentagone.
"Les travailleurs de la tech sont unis dans notre position selon laquelle nos employeurs ne devraient pas être dans le business de la guerre", a déclaré le Conseil exécutif élu du Syndicat des travailleurs d'Alphabet dans un communiqué.
Même le général de l'Armée de l'Air à la retraite, Jack Shanahan, qui a dirigé l'initiative d'IA Project Maven du Pentagone lors de la première administration Trump, a exprimé sa sympathie pour la position d'Anthropic. "Ils ne cherchent pas à jouer la carte mignonne ici", a écrit Shanahan sur les réseaux sociaux, notant que les lignes rouges de sécurité de Claude semblaient "raisonnables".
Les menaces doubles du Pentagone qualifiées de contradictoires
Amodei a mis en évidence publiquement ce qu'il a qualifié d'incohérences logiques dans l'approche du Pentagone, notant que les menaces simultanées de désigner Anthropic à la fois comme un risque pour la sécurité et comme un atout essentiel pour la sécurité nationale étaient fondamentalement contradictoires.
Un ancien responsable du Département de la Défense, parlant anonymement à la BBC, a qualifié la position légale du Pentagone de "très fragile" et a suggéré qu'Anthropic semblait avoir l'avantage dans la confrontation.
"La base légale pour menacer Anthropic d'invoquer soit la Defense Production Act, soit d'être étiqueté comme un risque pour la chaîne d'approvisionnement était extrêmement faible", a déclaré l'ancien responsable, ajoutant que la société pourrait éventuellement engager une action en justice si ces menaces étaient mises à exécution.
Implications financières et impact sur le marché
Le conflit comporte d'importantes implications financières pour les deux parties. Anthropic détient un contrat avec le Pentagone d'une valeur d'environ $200 millions, et sa technologie — y compris une version spécialisée "Claude Gov" — a été largement déployée dans la communauté du renseignement et les forces armées.
La société était positionnée comme le seul système d'IA auparavant autorisé à fonctionner dans les environnements cloud les plus classifiés du Pentagone.
Malgré la valeur du contrat, l'impact financier sur Anthropic pourrait être limité. La valorisation la plus récente de la société atteignait environ $380 milliards, basée sur les revenus actuels et les bénéfices futurs projetés — rendant le contrat avec le Pentagone relativement modeste en comparaison.
"L'ancien responsable a ajouté qu'Anthropic semblait avoir l'avantage dans la lutte. 'C'est une excellente publicité pour eux et ils n'ont tout simplement pas besoin d'argent'", a rapporté la BBC.
Concurrents prêts à combler le vide
L'action de l'administration contre Anthropic semble susceptible de profiter aux entreprises d'IA concurrentes, notamment xAI d'Elon Musk, qui a déjà obtenu l'accès aux réseaux militaires classifiés pour son chatbot Grok.
OpenAI et Google, tous deux détenant des contrats de défense existants, négocient activement avec le Pentagone pour étendre leurs partenariats militaires tout en cherchant à maintenir certains garde-fous autour de leurs technologies.
OpenAI a confirmé avoir conclu un accord avec le Pentagone sur des termes respectant les lignes rouges des deux sociétés. "Le Département de la Défense partage ces principes, les reflète dans la loi et la politique, et nous les avons intégrés dans notre accord", a déclaré Altman.
Contexte historique : rouvrir les blessures du Project Maven
La confrontation actuelle fait écho aux tensions qui ont éclaté pour la première fois en 2018, lorsque des milliers d'employés de Google ont protesté contre la participation de leur société au Project Maven — une initiative du Pentagone utilisant l'IA pour analyser des images de drones à des fins de ciblage.
Cette révolte des employés a conduit Google à refuser de renouveler le contrat et à adopter des principes publics contre l'utilisation de l'IA dans les systèmes d'armes. Le différend actuel a rouvert ces blessures, avec des travailleurs de la tech se mobilisant à nouveau contre les applications militaires des technologies de leurs entreprises.
"Le conflit est la dernière éruption d'une saga qui remonte au moins à 2018", a noté Reuters, observant que "les 'robots tueurs' théoriques restent une préoccupation pour les défenseurs des droits de l'homme et les activistes technologiques", même si l'Ukraine et Gaza sont devenues "des théâtres pour des systèmes de plus en plus automatisés sur le champ de bataille."
Réactions politiques divisées selon les partis
L'action du président a suscité de vives critiques de la part des législateurs démocrates, qui ont questionné si les décisions de sécurité nationale étaient guidées par des considérations politiques plutôt que par une analyse approfondie.
Le sénateur Mark Warner de Virginie, vice-président démocrate de la Commission spéciale sur le renseignement, a exprimé de graves préoccupations concernant la directive. "La directive du président de suspendre l'utilisation d'une société d'IA américaine de premier plan dans tout le gouvernement fédéral, combinée à une rhétorique incendiaire attaquant cette société, soulève de sérieuses inquiétudes quant à savoir si les décisions de sécurité nationale sont guidées par une analyse minutieuse ou par des considérations politiques", a déclaré Warner.
Mise en œuvre et prochaines étapes
Les agences fédérales doivent désormais faire face aux défis pratiques de remplacement de la technologie d'IA qui était profondément intégrée dans leurs opérations. La période de transition de six mois vise à minimiser les perturbations tout en permettant un passage ordonné vers d'autres fournisseurs.
L'ordre de Trump s'est arrêté avant l'invocation par le Pentagone de la Defense Production Act, qui aurait obligé Anthropic à continuer de fournir ses services malgré des objections contractuelles. Cependant, le président a explicitement averti que des conséquences croissantes seraient encouragées si la société ne coopérait pas au processus de retrait.
Anthropic a indiqué qu'elle travaillerait pour assurer une transition en douceur vers d'autres fournisseurs, Amodei déclarant que la société "travaillera à permettre une transition fluide vers un autre fournisseur" si le Pentagone poursuit la rupture de leur relation.
La société n'a pas commenté publiquement la désignation de risque pour la chaîne d'approvisionnement ni indiqué si elle pourrait engager des actions juridiques contre les actions de l'administration.
Implications plus larges pour l'industrie de l'IA
La confrontation établit des précédents potentiellement importants pour les relations entre les sociétés d'IA et le gouvernement américain. Les entreprises technologiques font face à une pression croissante pour équilibrer leurs principes éthiques déclarés avec les exigences des clients en matière de sécurité nationale et les contrats substantiels qu'elles proposent.
Les analystes suggèrent que l'issue pourrait influencer la manière dont d'autres sociétés d'IA abordent les partenariats militaires et si elles peuvent maintenir des garde-fous significatifs une fois leurs technologies déployées dans des contextes de défense.
Le différend met également en lumière des questions fondamentales sur qui détermine les limites des applications militaires acceptables de l'IA — les développeurs de la technologie qui construisent les systèmes, ou les agences gouvernementales qui les déploient.
Comme l'a observé un ancien responsable du Département de la Défense, la confrontation reflète en fin de compte des tensions non résolues concernant "le rôle de l'IA dans la sécurité nationale et les préoccupations sur la façon dont des machines de plus en plus capables pourraient être utilisées dans des situations à enjeux élevés impliquant une force létale, des informations sensibles ou une surveillance gouvernementale." .
Pour l'instant, Anthropic semble prêt à accepter les conséquences de sa position de principe. "J'espère que le Pentagone reconsidérera étant donné la valeur de Claude pour l'armée", a déclaré Amodei jeudi. "Mais si ce n'est pas le cas, nous travaillerons à permettre une transition fluide vers un autre fournisseur." .
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
#TrumpordersfederalbanonAnthropicAI
Trump ordonne une interdiction fédérale de l'IA Anthropic dans l'escalade du bras de fer avec le Pentagone
Le président demande à toutes les agences de cesser immédiatement d'utiliser la technologie Claude, accusant la société de mettre en danger la sécurité nationale
WASHINGTON — Le président Donald Trump a ordonné à toutes les agences fédérales d'arrêter immédiatement d'utiliser la technologie d'intelligence artificielle développée par Anthropic, intensifiant un conflit amer entre l'administration Trump et la société d'IA basée à San Francisco concernant l'accès de l'armée à ses systèmes de chatbot puissants.
Dans un message incendiaire sur Truth Social vendredi, Trump a annoncé qu'il dirigeait "CHAQUE agence fédérale du gouvernement des États-Unis à CESSER IMMÉDIATEMENT toute utilisation de la technologie d'Anthropic", ajoutant : "Nous n'en avons pas besoin, nous ne la voulons pas, et nous ne ferons plus affaire avec eux !" .
L'ordre du président comprend une période de transition de six mois pour le Département de la Défense et d'autres agences qui ont déjà intégré l'IA Claude d'Anthropic dans leurs opérations, permettant de prévoir une phase de retrait de la technologie.
Conflit sur l'accès militaire déclenchant une confrontation
L'action sans précédent contre une société d'IA nationale découle d'un conflit de plusieurs semaines entre Anthropic et le Pentagone concernant les termes du contrat régissant l'utilisation de la technologie de la société dans des applications militaires.
Le secrétaire à la Défense Pete Hegseth avait fixé une échéance vendredi exigeant qu'Anthropic permette une utilisation militaire sans restriction de ses outils d'IA pour "tout usage légal". Le Pentagone a simultanément menacé de désigner la société comme un "risque pour la chaîne d'approvisionnement" — une étiquette généralement réservée aux adversaires étrangers — et a évoqué la possibilité d'utiliser la Defense Production Act de l'époque de la Guerre froide pour contraindre à la conformité.
Le PDG d'Anthropic, Dario Amodei, a refusé de céder aux demandes, invoquant des préoccupations que la technologie de la société pourrait être utilisée pour une surveillance de masse des citoyens américains ou dans des systèmes d'armes entièrement autonomes.
"Nous ne pouvons pas, en conscience, accéder aux demandes du Département de la Défense", a déclaré Amodei dans une déclaration jeudi. "Ces menaces ne changeront pas notre position."
Suite à l'annonce de Trump, Hegseth a confirmé la désignation de risque pour la chaîne d'approvisionnement, déclarant qu'Anthropic était officiellement interdit de travailler en tant que contractant de défense — marquant la première fois que le gouvernement américain appliquait une telle étiquette à une société nationale.
La rhétorique incendiaire de Trump vise la direction de l'entreprise
L'annonce du président comprenait des attaques personnelles acerbes contre la direction d'Anthropic, qu'il a qualifiée d'out of touch avec les impératifs de sécurité nationale.
"Les lunatiques de gauche d'Anthropic ont commis une erreur catastrophique", a écrit Trump, selon des traductions de ses propos. "Ils tentent de forcer le Département de la Guerre à respecter leurs conditions de service plutôt que notre Constitution."
Trump a averti de graves conséquences si la société ne coopérait pas pendant la période de retrait, déclarant qu'il utiliserait "tout le pouvoir de la présidence pour les contraindre à se conformer, avec de graves conséquences civiles et pénales."
Le président a spécifiquement évoqué le "Department of War" — son désignation alternative préférée pour le Département de la Défense — en encadrant le conflit comme une question d'autorité militaire versus excès de pouvoir des entreprises.
Soutien industriel derrière Anthropic
La position ferme de l'administration a reçu un large soutien pour Anthropic dans le secteur technologique, y compris de la part des concurrents les plus féroces de la société.
Le PDG d'OpenAI, Sam Altman, dont la société est en concurrence directe avec Anthropic sur le marché de l'IA commerciale, a publiquement pris parti pour son rival dans une note interne au personnel. Altman a souligné qu'OpenAI partageait les mêmes "lignes rouges" concernant les applications militaires, rejetant toute utilisation impliquant la surveillance domestique ou des armes offensives autonomes.
"Deux de nos principes de sécurité les plus importants sont l'interdiction de la surveillance de masse domestique et la responsabilité humaine dans l'utilisation de la force, y compris pour les systèmes d'armes autonomes", a déclaré Altman. "Le Département de la Défense partage ces principes, les reflète dans la loi et la politique, et nous les avons intégrés dans notre accord."
Le soutien ne s'est pas limité aux bureaux exécutifs. Plus de 550 ingénieurs en IA ont signé une lettre ouverte soutenant la position d'Anthropic, tandis que des syndicats représentant environ 700 000 travailleurs chez Amazon, Google et Microsoft ont exhorté leurs employeurs à "refuser de se conformer" aux demandes du Pentagone.
"Les travailleurs de la tech sont unis dans notre position selon laquelle nos employeurs ne devraient pas être dans le business de la guerre", a déclaré le Conseil exécutif élu du Syndicat des travailleurs d'Alphabet dans un communiqué.
Même le général de l'Armée de l'Air à la retraite, Jack Shanahan, qui a dirigé l'initiative d'IA Project Maven du Pentagone lors de la première administration Trump, a exprimé sa sympathie pour la position d'Anthropic. "Ils ne cherchent pas à jouer la carte mignonne ici", a écrit Shanahan sur les réseaux sociaux, notant que les lignes rouges de sécurité de Claude semblaient "raisonnables".
Les menaces doubles du Pentagone qualifiées de contradictoires
Amodei a mis en évidence publiquement ce qu'il a qualifié d'incohérences logiques dans l'approche du Pentagone, notant que les menaces simultanées de désigner Anthropic à la fois comme un risque pour la sécurité et comme un atout essentiel pour la sécurité nationale étaient fondamentalement contradictoires.
Un ancien responsable du Département de la Défense, parlant anonymement à la BBC, a qualifié la position légale du Pentagone de "très fragile" et a suggéré qu'Anthropic semblait avoir l'avantage dans la confrontation.
"La base légale pour menacer Anthropic d'invoquer soit la Defense Production Act, soit d'être étiqueté comme un risque pour la chaîne d'approvisionnement était extrêmement faible", a déclaré l'ancien responsable, ajoutant que la société pourrait éventuellement engager une action en justice si ces menaces étaient mises à exécution.
Implications financières et impact sur le marché
Le conflit comporte d'importantes implications financières pour les deux parties. Anthropic détient un contrat avec le Pentagone d'une valeur d'environ $200 millions, et sa technologie — y compris une version spécialisée "Claude Gov" — a été largement déployée dans la communauté du renseignement et les forces armées.
La société était positionnée comme le seul système d'IA auparavant autorisé à fonctionner dans les environnements cloud les plus classifiés du Pentagone.
Malgré la valeur du contrat, l'impact financier sur Anthropic pourrait être limité. La valorisation la plus récente de la société atteignait environ $380 milliards, basée sur les revenus actuels et les bénéfices futurs projetés — rendant le contrat avec le Pentagone relativement modeste en comparaison.
"L'ancien responsable a ajouté qu'Anthropic semblait avoir l'avantage dans la lutte. 'C'est une excellente publicité pour eux et ils n'ont tout simplement pas besoin d'argent'", a rapporté la BBC.
Concurrents prêts à combler le vide
L'action de l'administration contre Anthropic semble susceptible de profiter aux entreprises d'IA concurrentes, notamment xAI d'Elon Musk, qui a déjà obtenu l'accès aux réseaux militaires classifiés pour son chatbot Grok.
OpenAI et Google, tous deux détenant des contrats de défense existants, négocient activement avec le Pentagone pour étendre leurs partenariats militaires tout en cherchant à maintenir certains garde-fous autour de leurs technologies.
OpenAI a confirmé avoir conclu un accord avec le Pentagone sur des termes respectant les lignes rouges des deux sociétés. "Le Département de la Défense partage ces principes, les reflète dans la loi et la politique, et nous les avons intégrés dans notre accord", a déclaré Altman.
Contexte historique : rouvrir les blessures du Project Maven
La confrontation actuelle fait écho aux tensions qui ont éclaté pour la première fois en 2018, lorsque des milliers d'employés de Google ont protesté contre la participation de leur société au Project Maven — une initiative du Pentagone utilisant l'IA pour analyser des images de drones à des fins de ciblage.
Cette révolte des employés a conduit Google à refuser de renouveler le contrat et à adopter des principes publics contre l'utilisation de l'IA dans les systèmes d'armes. Le différend actuel a rouvert ces blessures, avec des travailleurs de la tech se mobilisant à nouveau contre les applications militaires des technologies de leurs entreprises.
"Le conflit est la dernière éruption d'une saga qui remonte au moins à 2018", a noté Reuters, observant que "les 'robots tueurs' théoriques restent une préoccupation pour les défenseurs des droits de l'homme et les activistes technologiques", même si l'Ukraine et Gaza sont devenues "des théâtres pour des systèmes de plus en plus automatisés sur le champ de bataille."
Réactions politiques divisées selon les partis
L'action du président a suscité de vives critiques de la part des législateurs démocrates, qui ont questionné si les décisions de sécurité nationale étaient guidées par des considérations politiques plutôt que par une analyse approfondie.
Le sénateur Mark Warner de Virginie, vice-président démocrate de la Commission spéciale sur le renseignement, a exprimé de graves préoccupations concernant la directive. "La directive du président de suspendre l'utilisation d'une société d'IA américaine de premier plan dans tout le gouvernement fédéral, combinée à une rhétorique incendiaire attaquant cette société, soulève de sérieuses inquiétudes quant à savoir si les décisions de sécurité nationale sont guidées par une analyse minutieuse ou par des considérations politiques", a déclaré Warner.
Mise en œuvre et prochaines étapes
Les agences fédérales doivent désormais faire face aux défis pratiques de remplacement de la technologie d'IA qui était profondément intégrée dans leurs opérations. La période de transition de six mois vise à minimiser les perturbations tout en permettant un passage ordonné vers d'autres fournisseurs.
L'ordre de Trump s'est arrêté avant l'invocation par le Pentagone de la Defense Production Act, qui aurait obligé Anthropic à continuer de fournir ses services malgré des objections contractuelles. Cependant, le président a explicitement averti que des conséquences croissantes seraient encouragées si la société ne coopérait pas au processus de retrait.
Anthropic a indiqué qu'elle travaillerait pour assurer une transition en douceur vers d'autres fournisseurs, Amodei déclarant que la société "travaillera à permettre une transition fluide vers un autre fournisseur" si le Pentagone poursuit la rupture de leur relation.
La société n'a pas commenté publiquement la désignation de risque pour la chaîne d'approvisionnement ni indiqué si elle pourrait engager des actions juridiques contre les actions de l'administration.
Implications plus larges pour l'industrie de l'IA
La confrontation établit des précédents potentiellement importants pour les relations entre les sociétés d'IA et le gouvernement américain. Les entreprises technologiques font face à une pression croissante pour équilibrer leurs principes éthiques déclarés avec les exigences des clients en matière de sécurité nationale et les contrats substantiels qu'elles proposent.
Les analystes suggèrent que l'issue pourrait influencer la manière dont d'autres sociétés d'IA abordent les partenariats militaires et si elles peuvent maintenir des garde-fous significatifs une fois leurs technologies déployées dans des contextes de défense.
Le différend met également en lumière des questions fondamentales sur qui détermine les limites des applications militaires acceptables de l'IA — les développeurs de la technologie qui construisent les systèmes, ou les agences gouvernementales qui les déploient.
Comme l'a observé un ancien responsable du Département de la Défense, la confrontation reflète en fin de compte des tensions non résolues concernant "le rôle de l'IA dans la sécurité nationale et les préoccupations sur la façon dont des machines de plus en plus capables pourraient être utilisées dans des situations à enjeux élevés impliquant une force létale, des informations sensibles ou une surveillance gouvernementale." .
Pour l'instant, Anthropic semble prêt à accepter les conséquences de sa position de principe. "J'espère que le Pentagone reconsidérera étant donné la valeur de Claude pour l'armée", a déclaré Amodei jeudi. "Mais si ce n'est pas le cas, nous travaillerons à permettre une transition fluide vers un autre fournisseur." .