• 熱門
  • 地方
  • 生活
  • 產經
  • 綜合
  • 娛樂
  • 文教
  • 身心𩆜
  • 醫藥健康
  • 旅遊
  • 美食
  • 體育
  • 法律天地
  • 合作媒體
  • 熱門
  • 地方
  • 生活
  • 產經
  • 綜合
  • 娛樂
  • 文教
  • 身心𩆜
  • 醫藥健康
  • 旅遊
  • 美食
  • 體育
  • 法律天地
  • 合作媒體
最新新聞
古坑旅宿營造計畫成果亮相 官產學攜手打造可永續的旅遊新古坑
捷運市政府站、轉運站遭模擬恐攻 北市跨單位演練追蹤追捕機制
三條崙海水浴場周邊環境景觀改善工程動土 打造四湖濱海觀光休閒軸帶
方睿騰理事長:以敦信為本、以商道為橋 共創共好新未來
「社團法人台中市建築經營協會」理事長交接 都發局長勉勵攜手推動台中永續發展
S__55287864
墨水映像數位行銷有限公司-w800xh98px
02.Banner_工作區域 1-F
165打詐儀錶版FOR墨新聞
979582
114污水banner
1140707-0720-地價稅
1140721-0803-電子稅單
首頁 » 輝達挖角Groq執行長!20億美元授權交易掀併購風暴
合作媒體

輝達挖角Groq執行長!20億美元授權交易掀併購風暴

商傳媒
商傳媒
Published: 2025/12/26
Share
12 Min Read
輝達挖角Groq執行長!20億美元授權交易掀併購風暴
輝達挖角Groq執行長!20億美元授權交易掀併購風暴
分享文章

Contents
  • LPU是什麼?Groq打造「專為推論而生」的晶片革命
  • 輝達將如何整合LPU進入自家AI工廠?
商傳媒|記者責任編輯/綜合外電報導

根據《路透》報導,輝達(NVIDIA)近期宣布與AI晶片新創公司Groq簽署「非排他性授權協議」,同時挖角Groq創辦人兼執行長羅斯(Jonathan Ross)與多位高階工程團隊加入,儘管雙方否認直接併購,但市場盛傳交易金額高達20億美元。此市場消息再度凸顯科技巨頭在AI推論市場的激烈人才與技術爭奪戰,也引發美國監管機關對「假授權、真併購」的競爭疑慮。

輝達執行長黃仁勳在聖誕節期間內部信件中宣布:「我們將整合Groq的低延遲處理器至NVIDIA AI Factory架構,以擴大對推論與即時任務的支援。」儘管Groq公開澄清,雙方僅簽訂「非獨家授權協議」,仍將維持雲端服務營運,但實際上包含創辦人羅斯與總裁Sunny Madra在內的核心工程團隊已確認加入輝達。羅斯曾於Google主導TPU晶片計畫,被視為AI硬體領域的重量級人物。

Groq透過部落格聲明,強調仍將維持獨立營運,由現任營運長Simon Edwards接任CEO職位,且旗下雲端服務亦不受影響,但《CNBC》報導指出,輝達實際已支付高達20億美元現金,以「授權+挖角」形式取得關鍵技術與人才。針對該報導,Groq與輝達皆未正式回應。

據悉,這類「準併購模式」早已成為大型科技企業常態操作手法,藉由不直接併購公司本體、改以高額授權費與挖角方式避開反壟斷審查。先前Meta以150億美元「聘請」Scale AI創辦人,微軟也以6.5億美元交易方式納入一家AI新創的執行長。亞馬遜與輝達亦曾對Adept AI與其他AI公司採取類似策略。

伯恩斯坦(Bernstein)分析師Stacy Rasgon直言:「這些交易最大風險在於反壟斷審查,儘管以非排他授權為名,但實際上Groq的技術領導層與人才幾乎全數轉向輝達,市場競爭性已遭實質削弱。」

Groq為AI推論市場的明星新創之一,去年9月完成7.5億美元募資後估值倍增至69億美元,主打不依賴高頻寬記憶體(HBM)晶片,改以SRAM技術減少記憶體瓶頸,優化聊天機器人等應用速度;報導指出,Groq的LPU(Language Processing Unit),可能徹底改寫AI模型推論的運算架構與產業版圖。

LPU是什麼?Groq打造「專為推論而生」的晶片革命

相較訓練模型著重浮點運算與吞吐量,推論任務則更關注延遲控制與每個Token的預測穩定性。Groq推出的LPU專為推論設計,具備以下兩大特性:

  • 全片上SRAM架構 

    Groq的晶片內建230MB SRAM,具備高達80TB/s的內部頻寬,完全擺脫高頻寬記憶體(HBM)延遲與功耗瓶頸,能在decode階段達成毫秒級回應。

  • 確定性執行(Deterministic Execution)

    LPU在編譯階段預先排程所有運算流程,消除推論階段的不穩定延遲,最大化管線利用率,大幅提升每秒Token輸出效能。

實測數據顯示,Groq的LPU平台在GPT-3.5等模型的decode效能中,每秒可生成超過185個Token,明顯領先競品。加上其功耗遠低於傳統GPU架構,成為雲端業者建構低延遲、高效率推論平台的潛力首選。

輝達將如何整合LPU進入自家AI工廠?

業界預測,輝達將把LPU納入其AI Factory機櫃架構中,與Rubin CPX等GPU協同運作:

  • GPU負責長上下文推論(Prefill)與大模型前段運算
  • LPU專職decode階段的快速回應

這種混合架構將為雲端業者(hyperscalers)提供最完整的推論解決方案,不僅加快AI應用響應速度,也為未來大型語言模型落地開啟低延遲、高效能的可行之路。


Previous Article 台積電5奈米以下產能吃緊 封裝與人力成擴廠隱憂? 台積電5奈米以下產能吃緊 封裝與人力成擴廠隱憂?
Next Article 「脊椎鄰近節病變」走不到100公尺!聯新國際醫院1招讓她回歸日常生活 「脊椎鄰近節病變」走不到100公尺!聯新國際醫院1招讓她回歸日常生活
  • 關於我們
  • 隱私權政策
  • 聯絡我們
  • 關於我們
  • 隱私權政策
  • 聯絡我們
Copyright©MORE News
Welcome Back!

Sign in to your account

Username or Email Address
Password

Lost your password?

為了帶給你更好的瀏覽體驗我們的網站中有使用Cookie,幫助我們改善網站的結構和行銷分析。如果你同意使用請點擊了解,我們會權利提供你更完善的服務!