美國國防部、OpenAI 與 Anthropic:AI 倫理與五角大樓合作爭議

2026年3月7日6 分鐘閱讀

概述

美國國防部因人工智能(AI)在自主武器和大規模監控中的倫理使用爭議,終止與 Anthropic 的合作,轉而與 OpenAI 建立新合作關係,此舉令矽谷內部及以外的爭論全面升級。

關鍵要點

  • Anthropic 與五角大樓關係破裂:AI 初創公司 Anthropic 被美國國防部列為「供應鏈風險」,並被要求在六個月內終止合作。這源於 Anthropic 堅決反對其技術被用於國內大規模監控或無人類監督的完全自主武器。
  • OpenAI 與五角大樓的新協議:由執行長 Sam Altman 領導的 OpenAI 已同意將其 AI 模型部署到五角大樓的機密網絡系統中。Altman 強調協議包含防範措施,防止技術被濫用於大規模監控,並確保在武力使用(包括自主武器系統)中保留人類責任。
  • 矽谷的倫理分歧:這場爭議加深了科技界的分歧。Anthropic 的立場在矽谷獲得廣泛支持,不少人呼籲亞馬遜和微軟等科技巨頭採取類似倫理立場。與此同時,OpenAI 與五角大樓的合作引發了對其是否妥協倫理底線的擔憂。
  • 政治與意識形態的緊張關係:這些決定反映了川普政府與部分科技行業之間更廣泛的緊張關係。川普總統已下令聯邦機構停止與 Anthropic 合作,而國防部長 Pete Hegseth 公開批評科技公司對軍事行動施加意識形態限制。