根據外媒報導,美國兩大 AI 新創 Anthropic 與 OpenAI 近期針對與國防部的合作模式產生嚴重歧見。Anthropic 執行長 Dario Amodei 在一份給員工的內部備忘錄中,批評 OpenAI 與軍方達成的協議僅是「安全戲法」,並質疑對方在技術監管上的透明度。 Amodei 主張, OpenAI 的合作條款並未能實質杜絕 AI 在監控與武器化方面的風險。
爭議核心在於雙方對美國國防部「不受限訪問技術」的不同反應,Anthropic 因堅持軍方必須書面承諾不將技術用於國內大規模監控與自主武器,最終未能與軍方達成共識;而 OpenAI 則隨後與國防部簽約。儘管 OpenAI 宣稱其合約同樣具備防護措施,且僅限於「合法用途」,但此說法遭到 Anthropic 質疑是為了規避更嚴格的倫理約束。
根據雙方公開與流出的訊息顯示,「合法性」的解讀成為焦點。
Anthropic 認為法律可能因政權更迭而改變,單純依賴「合法」一詞不足以保障技術安全。而 OpenAI 則在官方聲明中重申,其合約已將非法的監控行為明確排除在用途之外,並符合現行法規。
此事件已引發公眾對 AI 參與軍事用途的疑慮。第三方數據顯示,OpenAI 宣布該協議後,ChatGPT 的卸載率在短期內增長近三倍;Amodei 在內部信中指出,大眾對此交易的疑慮正反映在市場排名上,而 Anthropic 則因堅持倫理立場獲得更多認同。
核稿編輯:Mia
加入 INSIDE 會員,獨享 INSIDE 科技趨勢電子報,點擊立刻成為會員!
延伸閱讀:


