
商傳媒|葉安庭/綜合外電報導
全球人工智慧(AI)技術持續快速發展,大型語言模型(LLM)的算力需求日益增加,使得個人用戶與小型企業難以在本地端運行高階AI模型。然而,一位名為 Jackrong 的開發者成功克服這項挑戰,透過「蒸餾(distillation)」技術,將頂級AI模型 Anthropic Claude Opus 的推理能力,複製到一個名為 Qwopus 的開源模型上,並讓其可在消費級個人電腦上運行,大幅降低了高階AI的應用門檻。
根據《Decrypt》報導,Jackrong 以阿里巴巴(Alibaba)的 Qwen3.5-27B 模型為基礎,利用 Claude Opus 4.6 的「思維鏈(chain-of-thought)」推理風格訓練資料進行微調,誕生了最初的 Claude-4.6-Opus-Reasoning-Distilled 模型。這個模型不僅在不經修補的情況下,保留了完整的思維模式,並支援原生開發者角色,可自主運行數分鐘而不會停滯。
Qwopus 的後續版本 Qwopus3.5-27B-v3 更進一步,透過「結構校準(structural alignment)」強化了逐步推理能力,並針對代理(agent)工作流程加入了明確的工具呼叫強化功能。該模型在程式編碼基準測試 HumanEval 中取得 95.73% 的優異成績,超越了基礎的 Qwen3.5-27B 模型及早期的蒸餾版本。
這款 Qwopus 模型家族至今已累積逾百萬次下載。實際測試顯示,一個 270 億參數的 Qwopus 模型,能在具備 32GB 統一記憶體的蘋果(Apple)MacBook 上順暢運行。此外,開發者也提供了較小的 40 億參數版本,以支援記憶體較小的個人電腦。Qwopus 在創意寫作任務上表現出色,曾生成一篇超過 8,000 個詞彙的科幻小說,其輸出品質可與 Claude Sonnet 4.5 甚至 4.6 相媲美。在程式碼生成方面,Qwopus 僅需一次初始輸出和一次後續互動,即可從零開始生成一個可運行的遊戲,優於 Google 的 Gemma 4 等中型開源編碼模型。
Jackrong 已將訓練筆記、程式碼庫及 PDF 指南發布至 GitHub,讓其他開發者也能重現此一流程。Qwopus 模型的問世,意味著開發者、作家、分析師,乃至於任何面臨 API 延遲問題的個人用戶,都能在本地端擁有一個功能強大的推理模型,這對於推動 AI 技術的普惠應用具有重要意義。