Los comités de EE. UU. están informando que buscan detalles sobre cómo se utilizó Claude Code de Anthropic en un ciberataque vinculado al estado.
Anthropic divulgó a principios de este mes que el grupo de amenazas automatizó la recopilación de información, explotaciones y extracción de datos.
Las mismas capacidades de IA podrían acelerar los hackeos de criptomonedas y el robo en la cadena, le dijeron a Decrypt.
Centro de Arte, Moda y Entretenimiento de Decrypt.
Descubre SCENE
Los legisladores estadounidenses han convocado a varias empresas de desarrollo de IA para explicar cómo ciertos modelos se han convertido en parte de un esfuerzo de espionaje amplio.
Entre ellos se encuentra el CEO de Anthropic, Dario Amodei, quien fue solicitado para comparecer ante el Comité de Seguridad Nacional de la Cámara el 17 de diciembre para explicar cómo los actores estatales chinos utilizaron Claude Code, según un informe de Axios publicado el miércoles, citando cartas compartidas en privado.
A principios de este mes, Anthropic reveló que un grupo de hackers vinculado al estado chino utilizó su herramienta Claude Code para llevar a cabo lo que la empresa describió como la primera operación cibernética a gran escala en gran parte automatizada por un sistema de IA.
Operando bajo el nombre de grupo GTG-1002, los atacantes orquestaron una campaña dirigida a unas 30 organizaciones, con Claude Code manejando la mayoría de las fases según Anthropic: reconocimiento, escaneo de vulnerabilidades, creación de exploits, recolección de credenciales y exfiltración de datos.
La investigación de seguimiento está presidida por el Rep. Andrew Garbarino (R-NY) junto con dos presidentes de subcomité.
El comité quería que Amodei detallara exactamente cuándo Anthropic detectó por primera vez la actividad, cómo los atacantes aprovecharon sus modelos durante las diferentes etapas de la violación, y qué salvaguardias fallaron o tuvieron éxito a medida que avanzaba la campaña. La audiencia también incluirá a ejecutivos de Google Cloud y Quantum Xchange, según Axios.
“Por primera vez, estamos viendo a un adversario extranjero utilizar un sistema de IA comercial para llevar a cabo casi toda una operación cibernética con mínima intervención humana,” dijo Garbarino en una declaración citada en el informe inicial. “Eso debería preocupar a cada agencia federal y a cada sector de infraestructura crítica.”
Decrypt se ha puesto en contacto con el Rep. Garbarino, Google Cloud, Quantum Xchange y Anthropic para comentar.
El escrutinio del congreso llega a raíz de una advertencia separada del servicio de seguridad del Reino Unido MI5, que la semana pasada emitió una alerta a los legisladores del Reino Unido después de identificar a oficiales de inteligencia chinos utilizando perfiles de reclutadores falsos para dirigirse a diputados, pares y personal parlamentario.
Mientras busca “continuar una relación económica con China”, el gobierno del Reino Unido está listo para “desafiar a los países siempre que socaven nuestra forma de vida democrática”, dijo el Ministro de Seguridad Dan Jarvis en la declaración.
Las finanzas en cadena en riesgo
En este contexto, los observadores advierten que las mismas capacidades de IA que ahora impulsan el espionaje pueden acelerar fácilmente el robo financiero.
“Lo aterrador de la IA es la velocidad”, dijo Shaw Walters, fundador del laboratorio de investigación en IA Eliza Labs, a Decrypt. “Lo que solía hacerse a mano ahora puede automatizarse a una escala masiva.”
La lógica podría ser peligrosamente simple, explicó Walters. Si los actores de estados-nación pudieran romper y manipular modelos para campañas de hackeo, el siguiente paso sería dirigir a la IA agente “para drenar billeteras o siphonar fondos sin ser detectado.”
Los agentes de IA podrían “crear una relación y confianza con un objetivo, mantener una conversación y llevarlo al punto de caer en una estafa”, explicó Walters.
Una vez suficientemente entrenados, estos agentes también pueden ser “dispuestos a atacar contratos en la cadena”, afirmó Walters.
“Incluso modelos supuestamente “alineados” como Claude te ayudarán gustosamente a encontrar debilidades de seguridad en 'tu' código – por supuesto, no tiene idea de qué es y qué no es tuyo, y en un intento de ser útil, seguramente encontrará debilidades en muchos contratos donde se puede drenar dinero,” dijo.
Pero aunque las respuestas contra tales ataques son “fáciles de construir”, la realidad, dice Walters, es que “son malas personas tratando de eludir las medidas de protección que ya tenemos”, al intentar engañar a los modelos para que “realicen trabajos maliciosos creyendo que están ayudando, no perjudicando.”
Ver originales
Esta página puede contener contenido de terceros, que se proporciona únicamente con fines informativos (sin garantías ni declaraciones) y no debe considerarse como un respaldo por parte de Gate a las opiniones expresadas ni como asesoramiento financiero o profesional. Consulte el Descargo de responsabilidad para obtener más detalles.
Las empresas estadounidenses de IA y datos testificarán en la investigación de espionaje de IA china
En breve
Centro de Arte, Moda y Entretenimiento de Decrypt.
Descubre SCENE
Los legisladores estadounidenses han convocado a varias empresas de desarrollo de IA para explicar cómo ciertos modelos se han convertido en parte de un esfuerzo de espionaje amplio.
Entre ellos se encuentra el CEO de Anthropic, Dario Amodei, quien fue solicitado para comparecer ante el Comité de Seguridad Nacional de la Cámara el 17 de diciembre para explicar cómo los actores estatales chinos utilizaron Claude Code, según un informe de Axios publicado el miércoles, citando cartas compartidas en privado.
A principios de este mes, Anthropic reveló que un grupo de hackers vinculado al estado chino utilizó su herramienta Claude Code para llevar a cabo lo que la empresa describió como la primera operación cibernética a gran escala en gran parte automatizada por un sistema de IA.
Operando bajo el nombre de grupo GTG-1002, los atacantes orquestaron una campaña dirigida a unas 30 organizaciones, con Claude Code manejando la mayoría de las fases según Anthropic: reconocimiento, escaneo de vulnerabilidades, creación de exploits, recolección de credenciales y exfiltración de datos.
La investigación de seguimiento está presidida por el Rep. Andrew Garbarino (R-NY) junto con dos presidentes de subcomité.
El comité quería que Amodei detallara exactamente cuándo Anthropic detectó por primera vez la actividad, cómo los atacantes aprovecharon sus modelos durante las diferentes etapas de la violación, y qué salvaguardias fallaron o tuvieron éxito a medida que avanzaba la campaña. La audiencia también incluirá a ejecutivos de Google Cloud y Quantum Xchange, según Axios.
“Por primera vez, estamos viendo a un adversario extranjero utilizar un sistema de IA comercial para llevar a cabo casi toda una operación cibernética con mínima intervención humana,” dijo Garbarino en una declaración citada en el informe inicial. “Eso debería preocupar a cada agencia federal y a cada sector de infraestructura crítica.”
Decrypt se ha puesto en contacto con el Rep. Garbarino, Google Cloud, Quantum Xchange y Anthropic para comentar.
El escrutinio del congreso llega a raíz de una advertencia separada del servicio de seguridad del Reino Unido MI5, que la semana pasada emitió una alerta a los legisladores del Reino Unido después de identificar a oficiales de inteligencia chinos utilizando perfiles de reclutadores falsos para dirigirse a diputados, pares y personal parlamentario.
Mientras busca “continuar una relación económica con China”, el gobierno del Reino Unido está listo para “desafiar a los países siempre que socaven nuestra forma de vida democrática”, dijo el Ministro de Seguridad Dan Jarvis en la declaración.
Las finanzas en cadena en riesgo
En este contexto, los observadores advierten que las mismas capacidades de IA que ahora impulsan el espionaje pueden acelerar fácilmente el robo financiero.
“Lo aterrador de la IA es la velocidad”, dijo Shaw Walters, fundador del laboratorio de investigación en IA Eliza Labs, a Decrypt. “Lo que solía hacerse a mano ahora puede automatizarse a una escala masiva.”
La lógica podría ser peligrosamente simple, explicó Walters. Si los actores de estados-nación pudieran romper y manipular modelos para campañas de hackeo, el siguiente paso sería dirigir a la IA agente “para drenar billeteras o siphonar fondos sin ser detectado.”
Los agentes de IA podrían “crear una relación y confianza con un objetivo, mantener una conversación y llevarlo al punto de caer en una estafa”, explicó Walters.
Una vez suficientemente entrenados, estos agentes también pueden ser “dispuestos a atacar contratos en la cadena”, afirmó Walters.
“Incluso modelos supuestamente “alineados” como Claude te ayudarán gustosamente a encontrar debilidades de seguridad en 'tu' código – por supuesto, no tiene idea de qué es y qué no es tuyo, y en un intento de ser útil, seguramente encontrará debilidades en muchos contratos donde se puede drenar dinero,” dijo.
Pero aunque las respuestas contra tales ataques son “fáciles de construir”, la realidad, dice Walters, es que “son malas personas tratando de eludir las medidas de protección que ya tenemos”, al intentar engañar a los modelos para que “realicen trabajos maliciosos creyendo que están ayudando, no perjudicando.”