
商傳媒|林昭衡/綜合外電報導
上個月,美國新聞網站《Axios》被迫對一篇關於美國孕產婦健康危機的部落格文章發布更正聲明。這篇文章引用的民意調查結果,來自一間名為 Aaru 的公司,並將其呈現為美國成年人的回饋研究。然而,《Axios》的編輯筆記揭露,Aaru 其實是一家人工智慧(AI)模擬研究公司,其聲稱的民調數據並非來自真人受訪者,而是由大型語言模型(LLM)生成的。
這種使用AI生成問卷回覆,而非真人受訪者的做法,被稱為「矽擬取樣」(silicon sampling)。其背後的理念在於,由於大型語言模型能夠模擬人類回答,民調公司看到了利用AI代理來生成調查回覆的機會,僅需傳統民調所需成本與時間的一小部分。
然而,專家對此表達嚴重擔憂。數位理論實驗室(Digital Theory Lab)主任雷夫·韋瑟比(Leif Weatherby)與加州大學柏克萊分校(University of California, Berkeley)電腦科學教授班傑明·萊希特(Benjamin Recht)指出,民調數據的價值在於它能總結真實人類的信念與意見;若以AI模擬人類意見取代真人,只會惡化我們破碎的資訊生態系統並播下不信任的種子。他們也警告,AI生成的民調甚至可能「影響公眾輿論本身,而非僅僅報導公眾的想法」。
美國東北大學(Northeastern University)的研究人員在 2025 年發表一篇論文指出,「矽擬取樣」通常無法可靠地替代真人受訪者,尤其是在政策制定情境中。研究發現,AI模型難以捕捉細微的意見差異,且由於訓練數據的偏差及內建安全過濾器,常會對特定群體形成刻板印象。因此,他們認為最審慎的做法是採用混合模式,即利用AI改進研究設計,但仍將真人樣本視為數據的黃金標準。
伯恩大學(University of Bern)心理學博士後傑米·康明斯(Jamie Cummins)在一篇尚未經同儕審查的論文中也發現,「矽擬取樣」過程中的許多分析選擇,會顯著影響樣本品質。他表示,少數幾個決策就能大幅改變AI樣本與人類數據之間的符合程度。
儘管相關爭議不斷,Aaru 等公司仍在積極募資,並與史丹佛大學(Stanford University)及蓋洛普(Gallup)等知名機構建立合作關係。這種趨勢凸顯了AI工具如何透過將虛構資訊包裝成事實,進而侵蝕公眾對資訊的信任。韋瑟比與萊希特總結道:「純粹的虛構內容正瀕臨被視為科學和政治知識的邊緣。若不懸崖勒馬,我們對社會的理解也可能變得人工化。」