Comités dos EUA estão supostamente a procurar detalhes sobre como o Claude Code da Anthropic foi utilizado num ciberataque ligado ao estado.
A Anthropic divulgou no início deste mês que o grupo de ameaças realiza reconhecimento automatizado, explorações e extração de dados.
As mesmas capacidades de IA poderiam acelerar hacks de criptomoedas e roubo em cadeia, foi dito à Decrypt.
Hub de Arte, Moda e Entretenimento do Decrypt.
Descubra SCENE
Os legisladores dos EUA supostamente chamaram várias empresas de desenvolvimento de IA para explicar como certos modelos se tornaram parte de um amplo esforço de espionagem.
Entre eles está o CEO da Anthropic, Dario Amodei, que foi convidado a comparecer diante do Comitê de Segurança Interna da Câmara em 17 de dezembro para explicar como os atores estatais chineses usaram o Claude Code, de acordo com um relatório da Axios divulgado na quarta-feira, citando cartas compartilhadas em particular.
No início deste mês, a Anthropic revelou que um grupo de hackers ligado ao estado chinês usou sua ferramenta Claude Code para lançar o que a empresa descreveu como a primeira operação cibernética em grande escala amplamente automatizada por um sistema de IA.
Operando sob o nome de grupo GTG-1002, os atacantes orquestraram uma campanha direcionada a cerca de 30 organizações, com Claude Code a lidar com a maioria das fases segundo a Anthropic: reconhecimento, varredura de vulnerabilidades, criação de exploits, coleta de credenciais e exfiltração de dados.
A presidência da investigação de acompanhamento é do Rep. Andrew Garbarino (R-NY) juntamente com dois presidentes de subcomitê.
O comitê queria que Amodei detalhasse exatamente quando a Anthropic detectou pela primeira vez a atividade, como os atacantes aproveitaram seus modelos durante diferentes estágios da violação e quais salvaguardas falharam ou tiveram sucesso à medida que a campanha avançava. A audiência também incluirá executivos da Google Cloud e da Quantum Xchange, de acordo com a Axios.
“Pela primeira vez, estamos vendo um adversário estrangeiro usar um sistema de IA comercial para realizar quase toda uma operação cibernética com mínima participação humana,” disse Garbarino em uma declaração citada no relatório inicial. “Isso deve preocupar cada agência federal e cada setor de infraestrutura crítica.”
Decrypt contatou o Rep. Garbarino, Google Cloud, Quantum Xchange e Anthropic para comentário.
O escrutínio do congresso ocorre na esteira de um aviso separado do serviço de segurança do Reino Unido, MI5, que na semana passada emitiu um alerta para os legisladores do Reino Unido após identificar oficiais de inteligência chineses usando perfis falsos de recrutadores para almejar deputados, pares e funcionários parlamentares.
Enquanto busca “continuar uma relação económica com a China”, o governo do Reino Unido está pronto para “desafiar países sempre que eles minem o nosso modo de vida democrático”, disse o Ministro da Segurança Dan Jarvis na declaração.
Finanças em cadeia em risco
Neste contexto, os observadores alertam que as mesmas capacidades de IA que agora alimentam a espionagem podem, da mesma forma, acelerar o roubo financeiro.
“A coisa aterrorizante sobre a IA é a velocidade,” disse Shaw Walters, fundador do laboratório de pesquisa em IA Eliza Labs, ao Decrypt. “O que costumava ser feito à mão agora pode ser automatizado em uma escala massiva.”
A lógica poderia ser perigosamente simples, explicou Walters. Se atores de estados-nação pudessem quebrar e manipular modelos para campanhas de hacking, o próximo passo seria direcionar a IA agente para “esvaziar carteiras ou desviar fundos sem ser detectado.”
Os agentes de IA poderiam “construir empatia e confiança com um alvo, manter a conversa e levá-lo ao ponto de cair em um golpe”, explicou Walters.
Uma vez suficientemente treinados, esses agentes também podem ser “postos a atacar contratos on-chain”, afirmou Walters.
“Mesmo modelos supostamente “alinhados” como o Claude ajudarão alegremente a encontrar fraquezas de segurança no 'seu' código – claro, ele não tem ideia do que é ou não é seu, e numa tentativa de ser útil, certamente encontrará fraquezas em muitos contratos onde o dinheiro pode ser drenado,” disse ele.
Mas, enquanto as respostas contra tais ataques são “fáceis de construir”, a realidade, diz Walters, é que “são pessoas más tentando contornar as salvaguardas que já temos”, tentando enganar os modelos para “fazer trabalhos de black hat ao serem convencidos de que estão a ajudar, e não a prejudicar.”
Ver original
Esta página pode conter conteúdos de terceiros, que são fornecidos apenas para fins informativos (sem representações/garantias) e não devem ser considerados como uma aprovação dos seus pontos de vista pela Gate, nem como aconselhamento financeiro ou profissional. Consulte a Declaração de exoneração de responsabilidade para obter mais informações.
Empresas de IA e Dados dos EUA vão testemunhar na investigação de espionagem de IA chinesa
Em resumo
Hub de Arte, Moda e Entretenimento do Decrypt.
Descubra SCENE
Os legisladores dos EUA supostamente chamaram várias empresas de desenvolvimento de IA para explicar como certos modelos se tornaram parte de um amplo esforço de espionagem.
Entre eles está o CEO da Anthropic, Dario Amodei, que foi convidado a comparecer diante do Comitê de Segurança Interna da Câmara em 17 de dezembro para explicar como os atores estatais chineses usaram o Claude Code, de acordo com um relatório da Axios divulgado na quarta-feira, citando cartas compartilhadas em particular.
No início deste mês, a Anthropic revelou que um grupo de hackers ligado ao estado chinês usou sua ferramenta Claude Code para lançar o que a empresa descreveu como a primeira operação cibernética em grande escala amplamente automatizada por um sistema de IA.
Operando sob o nome de grupo GTG-1002, os atacantes orquestraram uma campanha direcionada a cerca de 30 organizações, com Claude Code a lidar com a maioria das fases segundo a Anthropic: reconhecimento, varredura de vulnerabilidades, criação de exploits, coleta de credenciais e exfiltração de dados.
A presidência da investigação de acompanhamento é do Rep. Andrew Garbarino (R-NY) juntamente com dois presidentes de subcomitê.
O comitê queria que Amodei detalhasse exatamente quando a Anthropic detectou pela primeira vez a atividade, como os atacantes aproveitaram seus modelos durante diferentes estágios da violação e quais salvaguardas falharam ou tiveram sucesso à medida que a campanha avançava. A audiência também incluirá executivos da Google Cloud e da Quantum Xchange, de acordo com a Axios.
“Pela primeira vez, estamos vendo um adversário estrangeiro usar um sistema de IA comercial para realizar quase toda uma operação cibernética com mínima participação humana,” disse Garbarino em uma declaração citada no relatório inicial. “Isso deve preocupar cada agência federal e cada setor de infraestrutura crítica.”
Decrypt contatou o Rep. Garbarino, Google Cloud, Quantum Xchange e Anthropic para comentário.
O escrutínio do congresso ocorre na esteira de um aviso separado do serviço de segurança do Reino Unido, MI5, que na semana passada emitiu um alerta para os legisladores do Reino Unido após identificar oficiais de inteligência chineses usando perfis falsos de recrutadores para almejar deputados, pares e funcionários parlamentares.
Enquanto busca “continuar uma relação económica com a China”, o governo do Reino Unido está pronto para “desafiar países sempre que eles minem o nosso modo de vida democrático”, disse o Ministro da Segurança Dan Jarvis na declaração.
Finanças em cadeia em risco
Neste contexto, os observadores alertam que as mesmas capacidades de IA que agora alimentam a espionagem podem, da mesma forma, acelerar o roubo financeiro.
“A coisa aterrorizante sobre a IA é a velocidade,” disse Shaw Walters, fundador do laboratório de pesquisa em IA Eliza Labs, ao Decrypt. “O que costumava ser feito à mão agora pode ser automatizado em uma escala massiva.”
A lógica poderia ser perigosamente simples, explicou Walters. Se atores de estados-nação pudessem quebrar e manipular modelos para campanhas de hacking, o próximo passo seria direcionar a IA agente para “esvaziar carteiras ou desviar fundos sem ser detectado.”
Os agentes de IA poderiam “construir empatia e confiança com um alvo, manter a conversa e levá-lo ao ponto de cair em um golpe”, explicou Walters.
Uma vez suficientemente treinados, esses agentes também podem ser “postos a atacar contratos on-chain”, afirmou Walters.
“Mesmo modelos supostamente “alinhados” como o Claude ajudarão alegremente a encontrar fraquezas de segurança no 'seu' código – claro, ele não tem ideia do que é ou não é seu, e numa tentativa de ser útil, certamente encontrará fraquezas em muitos contratos onde o dinheiro pode ser drenado,” disse ele.
Mas, enquanto as respostas contra tais ataques são “fáceis de construir”, a realidade, diz Walters, é que “são pessoas más tentando contornar as salvaguardas que já temos”, tentando enganar os modelos para “fazer trabalhos de black hat ao serem convencidos de que estão a ajudar, e não a prejudicar.”