
商傳媒|葉安庭/綜合外電報導
近期多項分析報告指出,全球企業面臨日益嚴峻的資料外洩風險,主因是員工在日常工作中使用人工智慧(AI)工具時,不慎將敏感數據餵給AI模型。網路安全公司 Tailscale 觀察到此一趨勢,並已推出新工具來協助防範這類資安漏洞。
根據一份對企業AI使用情況的最新分析,高達 34.8% 員工輸入AI工具的企業資料屬於敏感性質。其中,程式碼是進入AI模型最常見的敏感數據類別。墨爾本大學(University of Melbourne)與安侯建業(KPMG)共同主導的一項全球研究更顯示,有 48% 的受訪員工曾將敏感的公司資料上傳至公開的AI工具中。
此外,資安研究團隊思科塔羅斯(Cisco Talos)也發布報告指出,他們發現有超過 1,100 個開源大型語言模型(LLM)Ollama 的伺服器公開暴露於網路中。思科塔羅斯進一步提到,僅需數分鐘便能識別出大多數這些公開外洩的 Ollama LLM 伺服器,凸顯了相關安全配置的脆弱性。
隨著 AI 技術的普及,企業在享受其帶來便利的同時,如何確保內部敏感資料不被不當利用或洩漏,已成為全球各行各業亟需正視的資安挑戰。雖然來源新聞僅提及 Tailscale 推出新工具,並未說明其具體功能,但此舉顯示資安業界已開始正視此威脅,尋求技術性解決方案。