微軟第二代AI晶片Maia 200亮相 攜手OpenAI挑戰輝達霸主地位

商傳媒
10 Min Read
微軟第二代AI晶片Maia 200亮相 攜手OpenAI挑戰輝達霸主地位

商傳媒|記者責任編輯/綜合外電報導

微軟(Microsoft)正式推出第二代自研AI晶片「Maia 200」,並公布一系列對應軟體開發工具,積極布局AI晶片與軟體生態系,挑戰目前由輝達(Nvidia)高度主導的市場格局。根據《路透》報導,微軟加速投入自研晶片,不僅為提升AI基礎設施的自主性,也反映雲端服務業者對供應鏈掌握度的高度重視。

依微軟說明,Maia 200本週起已部署於美國愛荷華州資料中心,並規劃在亞利桑那州設立第二據點。這是微軟繼2023年首次推出自研AI晶片Maia後的第二代產品,顯示其自製晶片策略正逐步擴大實際應用規模,現階段主要用於自家雲端服務與內部AI運算需求。

自研晶片與軟體並進 抗衡輝達「軟硬整合」壟斷優勢

產業界普遍認為,輝達的關鍵競爭力除硬體效能外,更在於其成熟且高度整合的CUDA開發平台,長期為AI開發者主流選擇。此次微軟同步推出對應軟體開發工具,特別強調開源工具Triton的應用,該工具由OpenAI主導貢獻,在設計理念上與CUDA相近,目標在於降低開發者跨平台與不同晶片架構的使用門檻,並擴大整體生態系的彈性。

Triton的導入,被視為微軟推動AI基礎設施自主化的重要一環,其布局不僅止於硬體層面,也延伸至軟體與開發工具層級,對既有市場結構形成一定程度的競爭壓力。

採台積電3奈米製程 以SRAM強化多用戶AI反應速度

硬體方面,Maia 200採用台積電3奈米製程,與近期多款先進AI晶片同屬先進製程世代。雖然其所搭配的高頻寬記憶體(HBM)世代並非最新規格,但在架構設計上,大量內建SRAM快取記憶體,策略上與部分新創AI晶片業者相似,主要著眼於提升AI推論場景下的即時反應速度,特別適用於同時服務大量使用者的應用情境,如對話式AI服務。

近年來,部分新創晶片業者亦採取以SRAM為核心的設計思路,顯示該類架構在特定AI應用場景中逐漸受到市場關注,不過相關效能與成本優勢,仍有賴實際部署與工作負載進一步驗證。

雲端巨頭自製晶片競局升溫 Meta、Google爭相投入

不讓微軟專美於前,其他雲端服務業者亦持續加碼自研晶片布局。Google長期投入張量處理器(TPU)的研發,以強化自家AI運算能力;Amazon AWS則擴充Trainium與Inferentia等自製晶片產品線,用以支撐雲端AI訓練與推論需求。

在AI運算需求快速成長的背景下,科技業者一方面藉由自研晶片降低長期成本,另一方面也希望分散對單一供應商的依賴風險,使雲端運算基礎建設的競爭態勢持續升溫。

AI軍備競賽進入「軟體開放 vs 生態綁定」新局

產業分析認為,隨著製程與硬體效能逐漸成為基本門檻,未來AI平台的競爭關鍵,將更多集中於開發生態的成熟度、軟體工具的可攜性,以及開發者黏著度。微軟此次結合自研晶片與開源軟體工具,被視為試圖在既有市場架構中引入更多彈性與選項。

在同時具備雲端服務、企業客戶基礎與AI應用場景的條件下,微軟未來在AI運算基礎建設領域的影響力,仍將取決於其生態系能否持續吸引開發者與實際工作負載落地情況。