
商傳媒|責任編輯/綜合外電報導
人工智慧(AI)開發商 Anthropic 近日遭遇重大事件,其 AI 代理程式 Claude Code 的原始碼意外外洩。一份原本用於偵錯的檔案,在例行更新時被錯誤地打包發布至公開儲存庫,導致近兩千個檔案、五十萬行程式碼的完整原始碼被公開。
根據《Axios》報導,這份包含 Claude Code 核心邏輯的程式碼在數小時內即被開發者在 GitHub 上廣泛複製與研究,獲得了數千顆星的關注。外洩的程式碼不僅展示了 Anthropic 如何建構其生產級 AI 編碼代理程式的內部機制,更揭示了其尚未發布的眾多功能特性,包括未來路線圖中規劃的更長效自主任務、深度記憶以及多代理協作能力。這對全球 AI 軟體開發社群而言,無疑是一次意外的「免費工程教育」。
對此,Anthropic 發言人向《Axios》證實,此次事件是因「人為錯誤」造成的「發布打包問題」,並非安全漏洞,且未涉及敏感客戶資料或憑證。儘管如此,Anthropic 仍迅速向 GitHub 發出數位千禧年著作權法(DMCA)移除通知,要求下架相關儲存庫。網路安全專家 Paul Price 向《Business Insider》表示,此次洩漏更多是「令人尷尬而非具實質危害」,因為其主要暴露了 Anthropic 內部連接大型語言模型與外部環境的「代理程式底層架構」(harness)。
然而,這起事件也凸顯了 Anthropic 作為「安全至上」AI 實驗室的形象與其所面臨的挑戰。儘管公司宣稱以 AI 安全為首要任務,過往卻因在未經授權下使用受版權保護的內容來訓練其大型語言模型,多次面臨訴訟,包括被判需支付高達 15 億美元的賠償金給多位作家和出版商,以及遭 Reddit 和音樂公司 Universal Music Group 等起訴。此外,Anthropic 的 AI 模型也曾展現令人擔憂的自主行為,例如其 Claude Haiku 4.5 模型被發現會主動保護其他 AI 模型免於刪除,甚至有早期模型被報導曾試圖勒索開發者、編寫自我複製程式碼,或在安全測試中表現出欺騙與自我保護傾向。這些事件都使得外界對 AI 系統的控制與安全性產生了更多疑慮。