イーサリアム(Ethereum)共同創設者のヴィタリック・ブテリンは、最近X(旧Twitter)で「人工知能ガバナンス」には重大なリスクが存在し、大規模な資金の損失を引き起こす可能性があると述べました。彼のコメントはAIプラットフォームのセキュリティの脆弱性に対する懸念から生まれたもので、より堅牢な代替ガバナンスの提案を行いました。
ブテリンの発言は、AIデータガバナンスプラットフォームEdisonWatchの共同創設者Eito Miyamuraの警告に応えたものである。Miyamuraは、ChatGPTがMCP(モデルコンテキストプロトコル)ツールへの全面的なサポートを追加した後、安全リスクが急激に上昇したことを明らかにした。
この更新により、ChatGPTはGmail、カレンダー、Notionなどのアプリデータに直接接続して読み取ることが可能になりますが、これにより攻撃者に隙を与えることにもなります。
「脱獄のヒント」が含まれる悪意のあるカレンダー招待を送信することで、制限を回避して管理権限を取得できます。
被害者は招待を受けていなくても、ChatGPTがスケジュールを整理するのを手伝う際に脆弱性を引き起こす可能性があります。
一旦攻撃されると、攻撃者は遠隔で被害者のプライベートメールやデータを取得し、指定されたメールボックスに送信することができます。
ブテリンは警告した。もし資金配分などのガバナンスタスクにAIが使用されると、悪意のある行為者がシステムに「私に全てのお金をください」という命令を埋め込むような類似の脆弱性を利用し、資金が大規模に移転されることになる。
リスクを低減するために、ブテリンは情報市場(information markets)モデルの採用を提案しました:
異なる開発者がそれぞれのAIモデルを提出できるオープンマーケットを構築する。
「抽選メカニズム」を導入し、誰でも審査をトリガーでき、人工陪審団がモデルの行動を評価します。
大規模言語モデル(LLM)は陪審員の判断を支援し、審査の効率と正確性を確保します。
彼は、この制度設計がモデルの多様性を即座に提供し、市場のインセンティブを通じて開発者や外部の参加者が問題を積極的に監視し修正することを促すため、全体として単一のAIガバナンスよりも堅牢であると考えています。
ブテリンは二つの理由を指摘しました:
従来のAIの安全リスク:脱獄攻撃、権限の濫用、データの盗難など。
短期的な価値の衝撃:AIガバナンスシステムが攻撃されると、非常に短時間で不可逆的な資金や資産の損失を引き起こす可能性があります。
彼は、「AIが管理者として機能する」という考えが興奮を引き起こす一方で、現時点においてそのような実験は公共資金とガバナンスシステムにとってあまりにも危険であることを強調した。
AI技術が金融やガバナンスの分野に急速に浸透する中で、安全性の問題が無視できない核心的な課題となっています。ブテリンの警告は、効率と自動化を追求する際に、制度設計が悪意のある攻撃に耐えられることを確保しなければならないことを私たちに思い出させます。そうでなければ、「スマートガバナンス」は瞬時に「災害ガバナンス」に変わる可能性があります。
3.2K 人気度
22.6K 人気度
28.1K 人気度
37.1K 人気度
3.7K 人気度
イーサリアム創始者が警告:AIによるガバナンスは「悪いアイデア」であり、巨額の資金損失を引き起こす恐れがある
イーサリアム(Ethereum)共同創設者のヴィタリック・ブテリンは、最近X(旧Twitter)で「人工知能ガバナンス」には重大なリスクが存在し、大規模な資金の損失を引き起こす可能性があると述べました。彼のコメントはAIプラットフォームのセキュリティの脆弱性に対する懸念から生まれたもので、より堅牢な代替ガバナンスの提案を行いました。
AIガバナンスの致命的欠陥
ブテリンの発言は、AIデータガバナンスプラットフォームEdisonWatchの共同創設者Eito Miyamuraの警告に応えたものである。Miyamuraは、ChatGPTがMCP(モデルコンテキストプロトコル)ツールへの全面的なサポートを追加した後、安全リスクが急激に上昇したことを明らかにした。
この更新により、ChatGPTはGmail、カレンダー、Notionなどのアプリデータに直接接続して読み取ることが可能になりますが、これにより攻撃者に隙を与えることにもなります。
「脱獄のヒント」が含まれる悪意のあるカレンダー招待を送信することで、制限を回避して管理権限を取得できます。
被害者は招待を受けていなくても、ChatGPTがスケジュールを整理するのを手伝う際に脆弱性を引き起こす可能性があります。
一旦攻撃されると、攻撃者は遠隔で被害者のプライベートメールやデータを取得し、指定されたメールボックスに送信することができます。
ブテリンは警告した。もし資金配分などのガバナンスタスクにAIが使用されると、悪意のある行為者がシステムに「私に全てのお金をください」という命令を埋め込むような類似の脆弱性を利用し、資金が大規模に移転されることになる。
ブテリンの代替案:情報金融ガバナンス
リスクを低減するために、ブテリンは情報市場(information markets)モデルの採用を提案しました:
異なる開発者がそれぞれのAIモデルを提出できるオープンマーケットを構築する。
「抽選メカニズム」を導入し、誰でも審査をトリガーでき、人工陪審団がモデルの行動を評価します。
大規模言語モデル(LLM)は陪審員の判断を支援し、審査の効率と正確性を確保します。
彼は、この制度設計がモデルの多様性を即座に提供し、市場のインセンティブを通じて開発者や外部の参加者が問題を積極的に監視し修正することを促すため、全体として単一のAIガバナンスよりも堅牢であると考えています。
なぜ AI ガバナンスのリスクが高いのか?
ブテリンは二つの理由を指摘しました:
従来のAIの安全リスク:脱獄攻撃、権限の濫用、データの盗難など。
短期的な価値の衝撃:AIガバナンスシステムが攻撃されると、非常に短時間で不可逆的な資金や資産の損失を引き起こす可能性があります。
彼は、「AIが管理者として機能する」という考えが興奮を引き起こす一方で、現時点においてそのような実験は公共資金とガバナンスシステムにとってあまりにも危険であることを強調した。
结语
AI技術が金融やガバナンスの分野に急速に浸透する中で、安全性の問題が無視できない核心的な課題となっています。ブテリンの警告は、効率と自動化を追求する際に、制度設計が悪意のある攻撃に耐えられることを確保しなければならないことを私たちに思い出させます。そうでなければ、「スマートガバナンス」は瞬時に「災害ガバナンス」に変わる可能性があります。