
商傳媒|責任編輯/綜合外電報導
近期人工智慧(AI)領域正經歷快速演進與挑戰,從AI模型意外的內容生成問題,到模型訓練的知識產權爭議,再到政府對AI公司的態度轉變,都凸顯了AI工具的內容限制如何影響用戶體驗,並為全球AI發展帶來深刻啟示。
OpenAI 在其 ChatGPT 及 Codex AI 模型中,曾出現令人費解的異常現象。自 GPT-5.1 模型於去年 11 月上線後,使用者回饋指出其 AI 助理在回應中開始隨機提及「妖精」(goblin)等奇幻生物,甚至連程式碼生成工具 Codex CLI 也被發現出現此類描述。OpenAI 內部調查發現,這一問題源於先前已下架的「書呆子個性」(Nerdy personality)設定,該設定鼓勵模型使用富想像力且具神話色彩的隱喻,卻不經意地對帶有生物相關詞彙的比喻給予了過高獎勵。這種獎勵機制導致「妖精」等詞彙迅速擴散,GPT-5.1 上線後,「妖精」的使用率躍升 175%,「小精靈」(gremlin)則增加 52%。OpenAI 隨後採取措施,從訓練資料中移除相關獎勵訊號,並過濾含有生物詞彙的資料,以限制其不當出現。目前 OpenAI 已對 Codex 工具發出明確指示,要求除非與用戶查詢絕對相關,否則不得提及妖精、小精靈、浣熊、巨魔等生物。
在模型內容的知識產權方面,AI 模型「蒸餾」(model distillation)的做法引發業界爭議。所謂模型蒸餾,是指利用一個AI模型來訓練另一個模型。特斯拉執行長馬斯克(Elon Musk)旗下的 xAI 公司,近期在美國加州聯邦法院承認曾使用 OpenAI 的模型來優化自身系統。馬斯克表示,一般而言所有AI公司都會這樣做,這是「使用其他AI來驗證自身AI的標準做法」。然而,OpenAI 和 Anthropic 等公司則指控包括中國 DeepSeek、月之暗面(Moonshot AI)和 MiniMax 等部分中國 AI 實驗室,透過蒸餾方式複製其模型,涉嫌侵犯知識產權。Google 也採取措施阻擋其稱之為「蒸餾攻擊」的行為,視其為違反服務條款的知識產權竊取。Anthropic 雖然認為蒸餾是常見且合法的訓練方法,但同時警告,競爭對手可能藉此以極低的成本和時間,獲得強大的模型能力。
AI 技術的發展也牽動政府政策與企業策略。美國川普(Donald Trump)政府先前曾因安全風險,將 Anthropic 列為供應鏈風險,導致五角大廈(Pentagon)暫停與其合作。然而,隨著 Anthropic 推出具備網路攻擊與防禦雙重能力的 Mythos AI 模型,川普政府正尋求管道與該公司恢復合作。白宮官員已與 Anthropic 執行長達里奧·阿莫代(Dario Amodei)會面,討論 Mythos 的部署準則與最佳實踐。這顯示在國家安全與技術優勢之間,政策可能隨 AI 發展而彈性調整。此外,大型科技公司正積極調整 AI 戰略聯盟。微軟已與 OpenAI 調整合作協議,允許 OpenAI 模型在 Microsoft Azure 以外的雲端平台運行。AWS 也已將 OpenAI 模型整合至其 Bedrock 平台,進一步豐富其AI模型生態系統,並加劇了雲端服務提供商之間的AI競爭。
這些事件共同描繪了 AI 發展的複雜面向,從模型行為的自主性與可控性、知識產權的界定、到國家政策的介入,都持續形塑著 AI 技術的應用邊界與用戶體驗。隨著 AI 技術日益普及,如何有效管理其內容生成、確保訓練資料的合法性,並在技術創新與安全監管間取得平衡,將是全球AI產業共同面對的挑戰。