
商傳媒|何映辰/台北報導
病患在精神科門診使用人工智慧(AI)工具尋求心理健康指引的現象日益普遍,已為臨床醫學帶來新的局面。根據《HCPLive》報導,UT西南醫學中心(UT Southwestern Medical Center)精神醫學系助理教授Darlene King醫師(Darlene King, MD)透露,她曾遇過病患在診間直接詢問AI對其治療計畫的看法,甚至攜帶與ChatGPT的對話紀錄,詢問AI對其藥物規劃的意見。
隨著人工智慧聊天機器人日益普及,此類工具已成為大眾獲取資訊的重要管道。根據《MediaPost》引述資料顯示,截至2026年3月,ChatGPT在全球AI聊天機器人引導至網站的流量中佔比高達78.16%,顯示其廣泛的影響力。Google Gemini也在同期超越Perplexity,成為全球第二大AI聊天機器人引導流量來源,市場版圖正快速變化,例如Anthropic開發的Claude流量在2026年2月至3月間倍增,用戶從ChatGPT轉移的趨勢也受到關注。
Darlene King醫師觀察到,AI生成的回應有時與臨床診斷一致,有助於強化治療決策,但也有患者向她表示,AI並不認為他們患有精神分裂症,反而建議其他疾病,導致與現有診斷產生衝突。她指出,雖然目前尚未觀察到AI直接惡化患者症狀,但它可能放大患者原本與臨床建議不符的信念。
面對此情況,醫師認為,當AI生成的資訊與臨床評估產生衝突時,醫病之間需要進行更謹慎的討論。她建議臨床醫師應主動詢問患者使用AI工具的頻率與目的,以了解患者是否過度依賴AI或以其取代社交支持。此外,AI平台缺乏保密性,而許多患者可能未意識到這項隱私風險。
AI工具在精神醫學領域潛力巨大,能輔助臨床照護,但隨著直接面向消費者的心理健康AI工具持續擴展,其也可能顛覆傳統醫療模式。為確保AI在心理健康領域的應用安全,醫界呼籲需要更強而有力的證據支持及健全的監管框架。Darlene King醫師強調,仍需更多研究來確認AI是否能安全地以新方式強化醫療照護。