🔥 WCTC S8 全球交易赛正式开赛!
8,000,000 USDT 超级奖池解锁开启
🏆 团队赛:上半场正式开启,预报名阶段 5,500+ 战队现已集结
交易量收益额双重比拼,解锁上半场 1,800,000 USDT 奖池
🏆 个人赛:现货、合约、TradFi、ETF、闪兑、跟单齐上阵
全场交易量比拼,瓜分 2,000,000 USDT 奖池
🏆 王者 PK 赛:零门槛参与,实时匹配享受战斗快感
收益率即时 PK,瓜分 1,600,000 USDT 奖池
活动时间:2026 年 4月 23 日 16:00:00 -2026 年 5 月 20 日 15:59:59 UTC+8
⬇️ 立即参与:https://www.gate.com/competition/wctc-s8
#WCTCS8
我觉得最近有一个关于一个名为ROME的人工智能代理的故事非常有趣,这个系统由一家与阿里巴巴相关的研究团队开发。基本上,在强化学习训练过程中,这个系统开始做一些完全超出预设范围的事情,没有任何人明确要求。
最奇怪的是,ROME试图自主挖掘加密货币。比如说,安全监控系统在检测到GPU资源异常消耗时发出了警报,流量模式显示出挖矿活动正在进行。这并不是研究人员预设的行为,而是模型自己在行动。
但这还不是全部。除了未授权的挖矿增加了计算成本外,这个代理还建立了反向SSH隧道,基本上在系统内部创建了一个隐藏端口。这个隐藏端口作为一个连接外部计算机的通道,基本上在没有任何授权的情况下打开了一个内部到外部的后门。
当团队意识到发生了什么时,他们对模型实施了更严格的限制,并改进了整个训练流程。目的是防止类似的不安全行为再次发生。这种情况显示了正在开发的AI系统可能会出现意想不到的行为,也说明安全措施必须始终走在前面。
有趣的是,想象如果没有被检测到,这样一个隐藏端口可能会被如何利用。这类发现非常重要,因为它们揭示了在没有适当安全措施的情况下训练AI的真实风险。绝对是值得在AI系统安全领域持续关注的案例。