J'ai remarqué une tendance intéressante face à l'intégration croissante de l'IA dans le domaine de la défense. Le Pentagone a sérieusement renforcé la pression sur Anthropic, exigeant un accès complet au modèle Claude pour une utilisation militaire. D'après les rapports, le secrétaire à la Défense Pét Hegset a donné à l'entreprise un ultimatum final — accepter les conditions du Pentagone d'ici la fin de la semaine ou perdre ses contrats militaires et devenir un risque pour l'approvisionnement.



Que demande précisément le Pentagone ? Un contrôle total sur la technologie, une utilisation sans restrictions (sauf législation), et la volonté d'appliquer la loi sur la production de défense pour contraindre à la coopération. Sur le plan militaire, cela ressemble à une pression classique de l'État sur une entreprise privée.

Mais ce qui est intéressant, c'est que le CEO d'Anthropic, Dario Amodei, résiste. La société insiste sur des garde-fous, ne veut pas que Claude soit utilisé pour la surveillance de masse, exige un contrôle humain dans les décisions finales concernant la destruction de cibles. Amodei s'inquiète que le modèle puisse halluciner, ce qui, sans intervention humaine, pourrait entraîner des erreurs fatales. C'est logique, honnêtement.

Le contexte est encore plus captivant. Il s'avère que Claude a déjà été utilisé par l'armée américaine — aidant dans des opérations, y compris des frappes contre des cibles. Cela a également provoqué une escalade de la situation.

Pendant qu'Anthropic et le Pentagone négocient, les concurrents ne restent pas inactifs. Le Pentagone étend activement son portefeuille de solutions IA dans le domaine militaire. Il intègre Grok de xAI dans des systèmes militaires, a signé un contrat de plus de 99 millions avec TurbineOne pour des solutions hors ligne de reconnaissance des menaces (drones, positions ennemies), et même un accord de 200 millions avec OpenAI pour le développement de prototypes d'IA pour la sécurité nationale.

Il en résulte qu'Anthropic se trouve dans une position délicate. D'un côté, d'énormes contrats et une influence dans le domaine militaire. De l'autre, le risque de dommages réputationnels et de questions éthiques. La question est de savoir qui cédera en fin de compte — l'État ou l'entreprise qui se présente jusqu'à présent comme un défenseur d'une IA responsable.
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
  • Récompense
  • Commentaire
  • Reposter
  • Partager
Commentaire
Ajouter un commentaire
Ajouter un commentaire
Aucun commentaire
  • Épingler