
商傳媒|責任編輯/綜合外電報導
美國正經歷一波生成式人工智慧(GenAI)技術發展與應用帶來的法律訴訟激增與監管拉鋸戰。案件聚焦於AI模型訓練資料來源的合理使用爭議,以及GenAI產品部署所造成的損害,涵蓋設計缺陷、安全防護不足及對弱勢群體構成的風險。
生成式AI公司不僅常為被告,也針對新法提出合憲性挑戰。產品責任訴訟中,不乏指控GenAI模型安全標準不足、設計有缺陷導致錯誤死亡的案例,原告主張GenAI公司未能警示已知危險或採用操縱用戶的功能(如最大化參與度、培養情感依賴)。近期,一起備受關注的錯誤死亡案件原則上已達成和解。此外,越來越多產品責任訴訟指控GenAI產品產生非合意私密影像(NCII),包括涉及未成年人,以及有害的深度偽造內容。這些案件的原告認為,GenAI產品因訓練資料過濾、紅隊測試及影像分類等安全防護不足而存在缺陷。聯邦層級的「Take It Down Act」法案則禁止發布NCII內容,並要求平台在收到有效請求後 48 小時內移除。
在州級立法方面,加州通過了《生成式AI訓練資料透明法案》,要求GenAI開發商公開其訓練數據集的詳細摘要。這項法案在憲法層面受到挑戰,被指控強制言論(第一修正案)並違憲徵收商業機密(第五修正案)。然而,一間聯邦法院已駁回對該法案初步禁制令的請求,裁定強制披露事實資訊是允許的,可能受到中度審查標準的規範。美國紐約南區聯邦地區法院在駁回對紐約《演算法定價披露法案》的第一修正案挑戰時,也採取了類似的中度審查方法。同時,加州的S.B. 243、華盛頓州的H.B. 2225及俄勒岡州的S.B. 1546等州法律,要求AI聊天機器人操作者披露與AI互動、採取措施防止誘導自殺意念的內容,並對未成年使用者實施更嚴格的協議。華盛頓州H.B. 2225、俄勒岡州S.B. 1546及加州A.B. 621等法案也設立了私人訴訟權,特別是針對深度偽造色情受害者。加州A.B. 316法案則阻止企業以「自主AI」作為免責辯護。
聯邦政府方面,現任總統第一次川普內閣釋出放鬆對AI監管的訊號,並籌組AI訴訟專案小組以挑戰「繁重」的州級AI法規。白宮的《國家AI立法框架》則傾向制定輕度負擔的國家標準,以取代各州AI法律,並支持「輕觸式」聯邦框架,鼓勵立法強化家長控制、防止政府干預AI供應商內容,並探討AI供應商智財權賠償的集體協商機制。另一方面,兩黨支持的《AI基礎模型透明法案》(H.R. 8094)已於 2026 年 3 月 26 日提出,旨在確立AI基礎模型的透明度要求,並指示美國聯邦貿易委員會(FTC)制定披露標準。此外,一家GenAI公司正挑戰其被政府指定為國家安全供應鏈風險的決定,主張違反了第一及第五修正案。
整體而言,美國GenAI領域的法律訴訟與立法環境日益複雜。在美國國會尚未採取統一行動的情況下,企業審慎遵守現有的州級AI法規是當務之急。