Ampere 和高通合作推出高效 AI 伺服器晶片 主打省電高效力拼 Nvidia 帝國

Ampere和高通合作推出AI伺服器,整合Ampere CPU及高通AI推論晶片,提供省電、低成本的資料中心解決方案。

Ampere 和高通並不是常見的合作拍檔,畢竟二家都提供資料中心專用的 Arm-based 晶片。不過現在二家公司宣佈將合作推出 AI 伺服器,整合 Ampere 的 CPU 及高通的 AI 推論晶片。

Ampere 是一家 Arm-based 晶片開發商,向來和公有雲巨人如 AWS 、 Google Cloud 和微軟合作緊密,也協助他們設計自有晶片。例如 Graviton 就是它和 AWS 合作設計的。但 Ampere 主要支持者是第四大雲端業者甲骨文,該公司已投資 Ampere 超過 4,000 億美元。甲骨文也是第一家使用 Ampere Altra CPU 的雲端業者。

有別於其他 Arm 晶片製造商像是高通、 Marvell 、 AMD 及三星,Ampere 在雲端成功得多。它的 Altra CPU 是為執行即時 AI 作業,像是聊天機器人、資料分析及影片內容分析而設計,具備高速推論能力,但成本要比 Nvidia GPU 便宜得多。

今天二家公司的合作中,Ampere 將與高通合作,整合 Ampre Altra CPU 及高通的 Cloud AI 100 Ultra AI 推論晶片,開發資料中心伺服器晶片。 Ampere 產品長 Jeff Wittich 指出,AI 熱潮已激發出資料中心處理器的需求,但在 GPU 上執行的高成本、高耗電,已對企業造成壓力,這也是新晶片的目的:提供省電、低成本的選擇,又能執行現行最大、威力最強的生成式 AI 模型。

新晶片為 192 核心、 12 通道的記憶體晶片,Ampere 宣稱,效能比現行 CPU 高出 40%,今年內就會投產並問世。新晶片一開始將用於 Supermicro 的伺服器中,未來陸續增加。

Wittich 說,公司 AI 研發成果已獲得大客戶青睞。最新一家是 Meta,現在在甲骨文雲上的 Ampere Altra 128 核 CPU 上跑 Llama 3 LLM,完全沒有 GPU,但效能等同 Nvidia A10 GPU 搭配 x86 CPU,但耗能僅 1/3 。

去年 Ampere 宣佈成為新的 AI 平台聯盟 (AI Platform Alliance) 的創始成員,該聯盟最新計畫中,Ampere 將在未來的 CPU 中,透過晶片的開放介面整合其他同業的智財,這意謂著和高通的合作只是開始,以後可能會有一系列宣佈。

來源:Silicon Angle

發表迴響

關於我們

自 1990 年創刊 UXmaster 雜誌,1991 年獲得美國 LAN Magazine 獨家授權中文版,2006 年獲得 CMP Network Computing 授權,2009 年合併 CMP Network Magazine 獨家授權中文版,2014 年轉型為《網路資訊》雜誌網站,為台灣中小企業協助技術領導者落實企業策略,了解網路規劃及應用,為企業網路應用、管理、 MIS 、 IT 人員必備之專業雜誌網站。


與我們聯絡

加入《網路資訊》雜誌社群

© Copyright 2025 本站版權所有,禁止任意轉載 網路資訊雜誌 / 心動傳媒股份有限公司 聯絡電話:+886 2 29432416

探索更多來自 網路資訊雜誌 的內容

立即訂閱即可持續閱讀,還能取得所有封存文章。

Continue reading

Secret Link