Des comités américains chercheraient apparemment des détails sur la manière dont Claude Code d'Anthropic a été utilisé dans une cyberattaque liée à l'État.
Anthropic a révélé plus tôt ce mois-ci que le groupe de menace automatisé reconnaissance, exploits et extraction de données.
Les mêmes capacités d'IA pourraient accélérer les piratages de crypto et les vols sur la chaîne, a déclaré Decrypt.
Le hub d'art, de mode et de divertissement de Decrypt.
Découvrez SCENE
Des législateurs américains auraient convoqué plusieurs entreprises de développement d'IA pour expliquer comment certains modèles sont devenus partie intégrante d'un effort d'espionnage de grande envergure.
Parmi eux se trouve le PDG d'Anthropic, Dario Amodei, qui a été invité à comparaître devant le Comité de la sécurité intérieure de la Chambre le 17 décembre pour expliquer comment les acteurs étatiques chinois ont utilisé Claude Code, selon un rapport d'Axios publié mercredi, citant des lettres partagées en privé.
Plus tôt ce mois-ci, Anthropic a révélé qu'un groupe de hackers lié à l'État chinois avait utilisé son outil Claude Code pour lancer ce que l'entreprise a décrit comme la première opération cybernétique à grande échelle largement automatisée par un système d'IA.
Opérant sous le nom de groupe GTG-1002, les attaquants ont orchestré une campagne ciblant environ 30 organisations, avec Claude Code gérant la plupart des phases selon Anthropic : reconnaissance, analyse de vulnérabilités, création d'exploits, collecte d'identifiants et exfiltration de données.
La présidence de l'enquête de suivi est assurée par le député Andrew Garbarino (R-NY) aux côtés de deux présidents de sous-comité.
Le comité voulait que Amodei précise exactement quand Anthropic a d'abord détecté l'activité, comment les attaquants ont exploité ses modèles à différentes étapes de la violation, et quels dispositifs de sécurité ont échoué ou réussi au fur et à mesure que la campagne avançait. L'audience comprendra également des cadres de Google Cloud et de Quantum Xchange, selon Axios.
« Pour la première fois, nous voyons un adversaire étranger utiliser un système d'IA commerciale pour mener presque toute une opération cybernétique avec un minimum d'implication humaine », a déclaré Garbarino dans une déclaration citée dans le rapport initial. « Cela devrait inquiéter chaque agence fédérale et chaque secteur des infrastructures critiques. »
Decrypt a contacté le représentant Garbarino, Google Cloud, Quantum Xchange et Anthropic pour obtenir un commentaire.
L'examen du Congrès survient à la suite d'un avertissement séparé du service de sécurité britannique MI5, qui a alerté la semaine dernière les législateurs britanniques après avoir identifié des agents de renseignement chinois utilisant de faux profils de recruteurs pour cibler des députés, des pairs et du personnel parlementaire.
Alors qu'il cherche à “maintenir une relation économique avec la Chine”, le gouvernement britannique est prêt à “défier les pays chaque fois qu'ils sapent notre mode de vie démocratique”, a déclaré le ministre de la Sécurité Dan Jarvis dans le communiqué.
Finance en chaîne en danger
Dans ce contexte, des observateurs avertissent que les mêmes capacités de l'IA qui alimentent maintenant l'espionnage peuvent tout aussi facilement accélérer le vol financier.
“La chose terrifiante à propos de l'IA est la vitesse,” a déclaré Shaw Walters, fondateur du laboratoire de recherche en IA Eliza Labs, à Decrypt. “Ce qui était autrefois fait à la main peut maintenant être automatisé à une échelle massive.”
La logique pourrait être dangereusement simple, a expliqué Walters. Si des acteurs étatiques pouvaient briser et manipuler des modèles pour des campagnes de piratage, la prochaine étape serait de diriger une IA agentique “pour vider des portefeuilles ou siphonner des fonds sans être détecté.”
Les agents d'IA pourraient “établir un rapport et une confiance avec une cible, maintenir une conversation et les amener à tomber dans un piège”, a expliqué Walters.
Une fois suffisamment formés, ces agents peuvent également être “mis en œuvre pour attaquer des contrats on-chain”, a affirmé Walters.
“Même les modèles supposément “alignés” comme Claude seront heureux de vous aider à trouver des faiblesses de sécurité dans 'votre' code – bien sûr, il n'a aucune idée de ce qui est et n'est pas le vôtre, et dans une tentative d'être utile, il trouvera sûrement des faiblesses dans de nombreux contrats où de l'argent peut être siphonné,” a-t-il déclaré.
Mais bien que les réponses contre de telles attaques soient “faciles à construire”, la réalité, dit Walters, est que “ce sont des gens malveillants qui essaient de contourner les protections que nous avons déjà”, en essayant de tromper les modèles pour qu'ils “effectuent un travail de hackeur en étant convaincus qu'ils aident, et non qu'ils nuisent.”
Voir l'original
Cette page peut inclure du contenu de tiers fourni à des fins d'information uniquement. Gate ne garantit ni l'exactitude ni la validité de ces contenus, n’endosse pas les opinions exprimées, et ne fournit aucun conseil financier ou professionnel à travers ces informations. Voir la section Avertissement pour plus de détails.
Les entreprises américaines d'IA et de données vont témoigner dans l'enquête sur l'espionnage par l'IA chinoise.
En bref
Le hub d'art, de mode et de divertissement de Decrypt.
Découvrez SCENE
Des législateurs américains auraient convoqué plusieurs entreprises de développement d'IA pour expliquer comment certains modèles sont devenus partie intégrante d'un effort d'espionnage de grande envergure.
Parmi eux se trouve le PDG d'Anthropic, Dario Amodei, qui a été invité à comparaître devant le Comité de la sécurité intérieure de la Chambre le 17 décembre pour expliquer comment les acteurs étatiques chinois ont utilisé Claude Code, selon un rapport d'Axios publié mercredi, citant des lettres partagées en privé.
Plus tôt ce mois-ci, Anthropic a révélé qu'un groupe de hackers lié à l'État chinois avait utilisé son outil Claude Code pour lancer ce que l'entreprise a décrit comme la première opération cybernétique à grande échelle largement automatisée par un système d'IA.
Opérant sous le nom de groupe GTG-1002, les attaquants ont orchestré une campagne ciblant environ 30 organisations, avec Claude Code gérant la plupart des phases selon Anthropic : reconnaissance, analyse de vulnérabilités, création d'exploits, collecte d'identifiants et exfiltration de données.
La présidence de l'enquête de suivi est assurée par le député Andrew Garbarino (R-NY) aux côtés de deux présidents de sous-comité.
Le comité voulait que Amodei précise exactement quand Anthropic a d'abord détecté l'activité, comment les attaquants ont exploité ses modèles à différentes étapes de la violation, et quels dispositifs de sécurité ont échoué ou réussi au fur et à mesure que la campagne avançait. L'audience comprendra également des cadres de Google Cloud et de Quantum Xchange, selon Axios.
« Pour la première fois, nous voyons un adversaire étranger utiliser un système d'IA commerciale pour mener presque toute une opération cybernétique avec un minimum d'implication humaine », a déclaré Garbarino dans une déclaration citée dans le rapport initial. « Cela devrait inquiéter chaque agence fédérale et chaque secteur des infrastructures critiques. »
Decrypt a contacté le représentant Garbarino, Google Cloud, Quantum Xchange et Anthropic pour obtenir un commentaire.
L'examen du Congrès survient à la suite d'un avertissement séparé du service de sécurité britannique MI5, qui a alerté la semaine dernière les législateurs britanniques après avoir identifié des agents de renseignement chinois utilisant de faux profils de recruteurs pour cibler des députés, des pairs et du personnel parlementaire.
Alors qu'il cherche à “maintenir une relation économique avec la Chine”, le gouvernement britannique est prêt à “défier les pays chaque fois qu'ils sapent notre mode de vie démocratique”, a déclaré le ministre de la Sécurité Dan Jarvis dans le communiqué.
Finance en chaîne en danger
Dans ce contexte, des observateurs avertissent que les mêmes capacités de l'IA qui alimentent maintenant l'espionnage peuvent tout aussi facilement accélérer le vol financier.
“La chose terrifiante à propos de l'IA est la vitesse,” a déclaré Shaw Walters, fondateur du laboratoire de recherche en IA Eliza Labs, à Decrypt. “Ce qui était autrefois fait à la main peut maintenant être automatisé à une échelle massive.”
La logique pourrait être dangereusement simple, a expliqué Walters. Si des acteurs étatiques pouvaient briser et manipuler des modèles pour des campagnes de piratage, la prochaine étape serait de diriger une IA agentique “pour vider des portefeuilles ou siphonner des fonds sans être détecté.”
Les agents d'IA pourraient “établir un rapport et une confiance avec une cible, maintenir une conversation et les amener à tomber dans un piège”, a expliqué Walters.
Une fois suffisamment formés, ces agents peuvent également être “mis en œuvre pour attaquer des contrats on-chain”, a affirmé Walters.
“Même les modèles supposément “alignés” comme Claude seront heureux de vous aider à trouver des faiblesses de sécurité dans 'votre' code – bien sûr, il n'a aucune idée de ce qui est et n'est pas le vôtre, et dans une tentative d'être utile, il trouvera sûrement des faiblesses dans de nombreux contrats où de l'argent peut être siphonné,” a-t-il déclaré.
Mais bien que les réponses contre de telles attaques soient “faciles à construire”, la réalité, dit Walters, est que “ce sont des gens malveillants qui essaient de contourner les protections que nous avons déjà”, en essayant de tromper les modèles pour qu'ils “effectuent un travail de hackeur en étant convaincus qu'ils aident, et non qu'ils nuisent.”