
商傳媒|康語柔/綜合外電報導
人工智慧(AI)技術正加速革新全球醫療診斷與預防保健模式,展現緩解醫療資源分配不均的巨大潛力。然而,這項技術快速發展的同時,也引發了外界對其監管、演算法偏差及病人權益等層面的疑慮。
AI在醫療診斷的應用日益廣泛。一份報告指出,高達八成一的臨床醫師現已採用某種形式的AI工具,單在2024年,美國便有三分之二的醫師將AI納入日常執業。AI系統憑藉其強大的數據分析能力,能夠篩查數百萬筆病歷、影像掃描及基因數據,精準識別出人類醫師可能忽略的細微模式。例如,AI在放射影像判讀上的準確度已可媲美人類專家,能夠透過智慧型手機照片偵測皮膚癌,甚至比臨床團隊更早預警敗血症跡象。OpenEvidence開發的AI系統更在2025年成功以滿分通過美國醫師執照考試。
這些AI工具在預防醫學領域尤其突出,能透過分析大量數據,協助醫師提早數年發現潛在病症,如周邊神經損傷或攝護腺疾病,從而實現早期介入與治療,顯著改善長期預後。AI輔助的乳房X光攝影研究亦顯示,能提升癌症檢出率並降低偽陽性。AI的應用不僅限於大型研究型醫院,越來越多小型診所也開始導入AI診斷工具,協助處理日益增長的病患數與有限的醫護人力,成為支援醫師而非取代醫師的關鍵輔助。
然而,AI醫療的發展也伴隨著多重挑戰。部分研究揭露,AI演算法可能存在內建偏差,導致醫療資源分配不均。例如,美國曾有一項用於預測未來醫療需求量的演算法,錯誤地將黑人病患較低頻繁的就診紀錄解讀為健康狀況較佳,進而將資源從這些患者身上轉移。新冠疫情期間,用於三級分流的脈衝血氧儀,也被發現會系統性低估膚色較深病患的低血氧狀況,導致治療延誤。此外,保險公司利用AI預測分析,在未經醫師個別審查的情況下,駁回數以千計的老年病患復健理賠請求,引起美國醫學會(American Medical Association)的關注,逾六成醫師反映不受監管的AI工具常拒絕病患的必要醫療給付。
「黑箱問題」也是一大隱憂。由於AI生成診斷的推論過程不透明,當醫療建議導致傷害時,責任歸屬難以釐清。同時,醫師在AI輔助下,過度依賴演算法可能削弱獨立臨床判斷能力。一份2025年麻省理工學院的研究更指出,高達九成五的生成式AI試點專案在實際應用中遭遇失敗。
面對這些挑戰,國際間已啟動相關監管措施。歐盟AI法案預計將於2026年8月起,對醫療AI設備施加嚴格的高風險要求,包括偏見監測與數據治理準則。美國食品藥物管理局(FDA)也正在開發適應性AI系統的框架。產業方面,如新創公司Hippocratic AI已獲得五千萬美元種子輪融資,目標是透過大規模醫學知識訓練與人類回饋,建立最安全的醫療語言模型。斯里蘭卡遠距醫療新創oDoc亦籌集一百萬美元資金,用於擴展其在斯里蘭卡、印度及馬爾地夫的業務,連接病患與醫師進行視訊問診,並提供居家診斷及藥品配送服務,顯示數位健康服務在提升醫療可近性方面的努力。
AI在醫療領域的進展帶來莫大助益,尤其在解決全球醫療資源匱乏及分布不均問題上。然而,要充分發揮其潛力,確保技術的公平性、透明度與安全性,並避免加劇現有醫療不平等,仍是各界亟需共同努力的目標。