AI 與軍事的討論:OpenAI 和 Anthropic 持不同立場

robot
摘要生成中

公司AI與政府努力之間的衝突仍然是熱烈討論的話題。自BlockBeats於3月3日報導有關Anthropic與美國國防部合作的衝突以來,這揭示了這些領導者在軍事背景下界定AI範圍的立場。

OpenAI與國防部合作的原則

OpenAI的CEO Sam Altman在社交平台上披露了一封重要的內部電子郵件,闡述了公司的基本原則:「不會在沒有人的控制下開發自動武器。」這一聲明被視為在關於Anthropic的爭議中明確表達公司立場的說明。科技評論員Packy McCormick引用Ben Thompson的觀點《Hype Tax》,指出:「如果你不希望政府像對待核武器一樣管理你的技術,就不要將你的技術比作核武器。」

‘Hype Tax’與過度宣傳帶來的政策風險

對AI公司過度宣傳的討論,揭示了更深層次的問題。這些觀點批評某些AI公司將技術描述為重大變革,令人擔憂的是,將AI技術提升到核武器的水平,可能引發更大範圍的政策反應與監管,進而影響未來AI的發展方式。

用戶反應:ChatGPT應用程式的撤離潮

這場爭議的影響在用戶行為中表現得淋漓盡致。自OpenAI宣布與美國國防部合作後,美國市場中ChatGPT應用程式的撤離數量明顯增加。根據Sensor Tower的數據,2月28日,美國地區的ChatGPT撤出率較前一日激增295%,這是一個顯著的跳躍,遠高於過去30天平均每日9%的撤出率。這些數據反映出用戶對於AI技術用於軍事目的的擔憂。

關於AI公司與政府合作範圍、技術傳播方式以及用戶行為變化的持續討論,顯示AI在社會中的角色正處於轉折點。透明度與決策的公開性變得越來越重要。

查看原文
此頁面可能包含第三方內容,僅供參考(非陳述或保證),不應被視為 Gate 認可其觀點表述,也不得被視為財務或專業建議。詳見聲明
  • 打賞
  • 留言
  • 轉發
  • 分享
留言
請輸入留言內容
請輸入留言內容
暫無留言