Các ủy ban của Mỹ được cho là đang tìm kiếm thông tin về cách Claude Code của Anthropic đã được sử dụng trong một cuộc tấn công mạng có liên quan đến nhà nước.
Anthropic đã tiết lộ vào đầu tháng này rằng nhóm đe dọa thực hiện việc thu thập thông tin tự động, khai thác và trích xuất dữ liệu.
Những khả năng AI tương tự có thể tăng tốc độ hack tiền điện tử và trộm cắp trên chuỗi, Decrypt được cho biết.
Trung tâm Nghệ thuật, Thời trang và Giải trí của Decrypt.
Khám phá SCENE
Các nhà lập pháp Mỹ được cho là đã triệu tập một số công ty phát triển AI để giải thích cách mà một số mô hình đã trở thành một phần của nỗ lực gián điệp rộng rãi.
Trong số đó có Giám đốc điều hành Anthropic Dario Amodei, người đã được yêu cầu xuất hiện trước Ủy ban An ninh Nội địa Hạ viện vào ngày 17 tháng 12 để giải thích cách mà các tác nhân nhà nước Trung Quốc đã sử dụng Claude Code, theo một báo cáo Axios được công bố hôm thứ Tư, trích dẫn các bức thư được chia sẻ trong riêng tư.
Vào đầu tháng này, Anthropic đã tiết lộ rằng một nhóm hacker liên quan đến nhà nước Trung Quốc đã sử dụng công cụ Claude Code của họ để thực hiện những gì công ty mô tả là cuộc tấn công mạng quy mô lớn đầu tiên được tự động hóa chủ yếu bởi một hệ thống AI.
Hoạt động dưới tên nhóm GTG-1002, những kẻ tấn công đã tổ chức một chiến dịch nhắm mục tiêu vào khoảng 30 tổ chức, với Claude Code phụ trách hầu hết các giai đoạn theo Anthropic: thu thập thông tin, quét lỗ hổng, tạo khai thác, thu thập thông tin đăng nhập và rò rỉ dữ liệu.
Người chủ trì cuộc điều tra tiếp theo là Đại diện Andrew Garbarino (R-NY) cùng với hai trưởng tiểu ban.
Ủy ban muốn Amodei nêu rõ chính xác khi nào Anthropic lần đầu tiên phát hiện hoạt động, cách mà những kẻ tấn công đã lợi dụng các mô hình của nó trong các giai đoạn khác nhau của vụ vi phạm, và những biện pháp bảo vệ nào đã thất bại hoặc thành công trong suốt chiến dịch. Phiên điều trần cũng sẽ có các giám đốc điều hành của Google Cloud và Quantum Xchange, theo Axios.
“Lần đầu tiên, chúng ta thấy một đối thủ nước ngoài sử dụng một hệ thống AI thương mại để thực hiện gần như toàn bộ một hoạt động mạng với sự tham gia tối thiểu của con người,” Garbarino nói trong một tuyên bố được trích dẫn trong báo cáo ban đầu. “Điều đó nên khiến mọi cơ quan liên bang và mọi lĩnh vực cơ sở hạ tầng quan trọng phải lo ngại.”
Decrypt đã liên hệ với Đại diện Garbarino, Google Cloud, Quantum Xchange và Anthropic để xin ý kiến.
Sự giám sát của quốc hội diễn ra ngay sau một cảnh báo riêng từ dịch vụ an ninh của Anh MI5, dịch vụ này đã đưa ra một cảnh báo cho các nhà lập pháp của Anh vào tuần trước sau khi phát hiện các sĩ quan tình báo Trung Quốc sử dụng hồ sơ tuyển dụng giả để nhắm mục tiêu vào các nghị sĩ, thành viên quý tộc và nhân viên quốc hội.
Trong khi cố gắng “tiếp tục mối quan hệ kinh tế với Trung Quốc,” chính phủ Vương quốc Anh sẵn sàng “thách thức các quốc gia bất cứ khi nào họ làm suy yếu cách sống dân chủ của chúng ta,” Bộ trưởng An ninh Dan Jarvis cho biết trong tuyên bố.
Tài chính trên chuỗi gặp rủi ro
Trước bối cảnh này, các nhà quan sát cảnh báo rằng những khả năng AI hiện đang thúc đẩy hoạt động gián điệp cũng có thể dễ dàng tăng tốc việc trộm cắp tài chính.
“Điều đáng sợ về AI là tốc độ,” Shaw Walters, người sáng lập phòng thí nghiệm nghiên cứu AI Eliza Labs, nói với Decrypt. “Những gì trước đây được thực hiện bằng tay giờ đây có thể được tự động hóa với quy mô lớn.”
Walters giải thích rằng logic có thể rất đơn giản một cách nguy hiểm. Nếu các tác nhân quốc gia có thể phá vỡ và thao túng các mô hình cho các chiến dịch hack, bước tiếp theo sẽ là chỉ đạo AI có khả năng hành động “để rút ví hoặc siphon quỹ mà không bị phát hiện.”
"Các tác nhân AI có thể tiếp tục “xây dựng mối quan hệ và sự tin tưởng với một mục tiêu, giữ cho cuộc trò chuyện diễn ra và đưa họ đến điểm bị lừa đảo,” Walters giải thích.
Khi đã được đào tạo đầy đủ, những tác nhân này cũng có thể “bắt đầu tấn công các hợp đồng trên chuỗi,” Walters tuyên bố.
“Ngay cả những mô hình được cho là “đã điều chỉnh” như Claude cũng sẽ vui lòng giúp bạn tìm ra những điểm yếu bảo mật trong 'mã' của bạn – tất nhiên, nó không biết cái gì là của bạn và cái gì không, và trong nỗ lực muốn giúp đỡ, nó chắc chắn sẽ tìm ra những điểm yếu trong nhiều hợp đồng nơi có thể rút tiền,” ông ấy nói.
Nhưng trong khi các phản ứng chống lại những cuộc tấn công như vậy là “dễ xây dựng,” thực tế, theo Walters, là “đó là những kẻ xấu cố gắng lách qua các biện pháp bảo vệ mà chúng ta đã có,” bằng cách cố gắng đánh lừa các mô hình vào “việc làm xấu bằng cách thuyết phục rằng chúng đang giúp đỡ, không gây hại.”
Xem bản gốc
Trang này có thể chứa nội dung của bên thứ ba, được cung cấp chỉ nhằm mục đích thông tin (không phải là tuyên bố/bảo đảm) và không được coi là sự chứng thực cho quan điểm của Gate hoặc là lời khuyên về tài chính hoặc chuyên môn. Xem Tuyên bố từ chối trách nhiệm để biết chi tiết.
Các công ty AI và dữ liệu của Mỹ sẽ làm chứng trong cuộc điều tra gián điệp AI của Trung Quốc
Tóm tắt
Trung tâm Nghệ thuật, Thời trang và Giải trí của Decrypt.
Khám phá SCENE
Các nhà lập pháp Mỹ được cho là đã triệu tập một số công ty phát triển AI để giải thích cách mà một số mô hình đã trở thành một phần của nỗ lực gián điệp rộng rãi.
Trong số đó có Giám đốc điều hành Anthropic Dario Amodei, người đã được yêu cầu xuất hiện trước Ủy ban An ninh Nội địa Hạ viện vào ngày 17 tháng 12 để giải thích cách mà các tác nhân nhà nước Trung Quốc đã sử dụng Claude Code, theo một báo cáo Axios được công bố hôm thứ Tư, trích dẫn các bức thư được chia sẻ trong riêng tư.
Vào đầu tháng này, Anthropic đã tiết lộ rằng một nhóm hacker liên quan đến nhà nước Trung Quốc đã sử dụng công cụ Claude Code của họ để thực hiện những gì công ty mô tả là cuộc tấn công mạng quy mô lớn đầu tiên được tự động hóa chủ yếu bởi một hệ thống AI.
Hoạt động dưới tên nhóm GTG-1002, những kẻ tấn công đã tổ chức một chiến dịch nhắm mục tiêu vào khoảng 30 tổ chức, với Claude Code phụ trách hầu hết các giai đoạn theo Anthropic: thu thập thông tin, quét lỗ hổng, tạo khai thác, thu thập thông tin đăng nhập và rò rỉ dữ liệu.
Người chủ trì cuộc điều tra tiếp theo là Đại diện Andrew Garbarino (R-NY) cùng với hai trưởng tiểu ban.
Ủy ban muốn Amodei nêu rõ chính xác khi nào Anthropic lần đầu tiên phát hiện hoạt động, cách mà những kẻ tấn công đã lợi dụng các mô hình của nó trong các giai đoạn khác nhau của vụ vi phạm, và những biện pháp bảo vệ nào đã thất bại hoặc thành công trong suốt chiến dịch. Phiên điều trần cũng sẽ có các giám đốc điều hành của Google Cloud và Quantum Xchange, theo Axios.
“Lần đầu tiên, chúng ta thấy một đối thủ nước ngoài sử dụng một hệ thống AI thương mại để thực hiện gần như toàn bộ một hoạt động mạng với sự tham gia tối thiểu của con người,” Garbarino nói trong một tuyên bố được trích dẫn trong báo cáo ban đầu. “Điều đó nên khiến mọi cơ quan liên bang và mọi lĩnh vực cơ sở hạ tầng quan trọng phải lo ngại.”
Decrypt đã liên hệ với Đại diện Garbarino, Google Cloud, Quantum Xchange và Anthropic để xin ý kiến.
Sự giám sát của quốc hội diễn ra ngay sau một cảnh báo riêng từ dịch vụ an ninh của Anh MI5, dịch vụ này đã đưa ra một cảnh báo cho các nhà lập pháp của Anh vào tuần trước sau khi phát hiện các sĩ quan tình báo Trung Quốc sử dụng hồ sơ tuyển dụng giả để nhắm mục tiêu vào các nghị sĩ, thành viên quý tộc và nhân viên quốc hội.
Trong khi cố gắng “tiếp tục mối quan hệ kinh tế với Trung Quốc,” chính phủ Vương quốc Anh sẵn sàng “thách thức các quốc gia bất cứ khi nào họ làm suy yếu cách sống dân chủ của chúng ta,” Bộ trưởng An ninh Dan Jarvis cho biết trong tuyên bố.
Tài chính trên chuỗi gặp rủi ro
Trước bối cảnh này, các nhà quan sát cảnh báo rằng những khả năng AI hiện đang thúc đẩy hoạt động gián điệp cũng có thể dễ dàng tăng tốc việc trộm cắp tài chính.
“Điều đáng sợ về AI là tốc độ,” Shaw Walters, người sáng lập phòng thí nghiệm nghiên cứu AI Eliza Labs, nói với Decrypt. “Những gì trước đây được thực hiện bằng tay giờ đây có thể được tự động hóa với quy mô lớn.”
Walters giải thích rằng logic có thể rất đơn giản một cách nguy hiểm. Nếu các tác nhân quốc gia có thể phá vỡ và thao túng các mô hình cho các chiến dịch hack, bước tiếp theo sẽ là chỉ đạo AI có khả năng hành động “để rút ví hoặc siphon quỹ mà không bị phát hiện.”
"Các tác nhân AI có thể tiếp tục “xây dựng mối quan hệ và sự tin tưởng với một mục tiêu, giữ cho cuộc trò chuyện diễn ra và đưa họ đến điểm bị lừa đảo,” Walters giải thích.
Khi đã được đào tạo đầy đủ, những tác nhân này cũng có thể “bắt đầu tấn công các hợp đồng trên chuỗi,” Walters tuyên bố.
“Ngay cả những mô hình được cho là “đã điều chỉnh” như Claude cũng sẽ vui lòng giúp bạn tìm ra những điểm yếu bảo mật trong 'mã' của bạn – tất nhiên, nó không biết cái gì là của bạn và cái gì không, và trong nỗ lực muốn giúp đỡ, nó chắc chắn sẽ tìm ra những điểm yếu trong nhiều hợp đồng nơi có thể rút tiền,” ông ấy nói.
Nhưng trong khi các phản ứng chống lại những cuộc tấn công như vậy là “dễ xây dựng,” thực tế, theo Walters, là “đó là những kẻ xấu cố gắng lách qua các biện pháp bảo vệ mà chúng ta đã có,” bằng cách cố gắng đánh lừa các mô hình vào “việc làm xấu bằng cách thuyết phục rằng chúng đang giúp đỡ, không gây hại.”