AWS推出EC2 P4d執行個體服務 以NVIDIA A100 GPU進行AI運算

Amazon Web Service (AWS)本周宣佈針對高效能及機器學習作業而設計以GPU為基礎的運算執行個體服務正式上線,此外也宣布多款強大的AI系統,支援資料中心及邊緣運算,包括號稱現今市面最強大的AI系統。

Amazon Web Service (AWS)本周宣佈針對高效能及機器學習作業而設計以GPU為基礎的運算執行個體服務正式上線,此外也宣布多款強大的AI系統,支援資料中心及邊緣運算,包括號稱現今市面最強大的AI系統。

c

AWS資料中心暨雲端平台產品管理總監Paresh Kharya指出,現今企業用戶需要原有Volta AI架構3000倍的運算力來訓練最大的AI模型,但這些客戶對不同類型的AI應用,也需要能隨時調整的運算效能。

他說,由於資料中心軟、硬體形形色色,此類資料中心幾乎不可能最佳化到展現高效率。為此Nvidia設計了A100,這款新晶片不只能大幅提升效能,也將AI訓練及推論(inference)加速整合在單一架構中。它還能大幅擴充資料中心,包括向上擴充以支援AI訓練及資料分析,或是橫向擴充以執行AI推論。

A100 Ampere晶片是Nvidia製造最大的GPU,包含540億顆電晶體,它還內含第三代Tensor核心,並可加速稀疏矩陣(sparse matrix)運算,這特別有助於AI推論及訓練。每顆GPU都能切成多個執行個體以執行不同推論任務。此外,Nvidia的NVLink 互連技術也意謂可以用多顆A100 GPU做更大型AI 訓練作業。

市面最強大的AI系統

目前A100 GPU已經可出貨,Nvidia也展示內建該GPU的第三代整合式AI系統。這套系統包含8顆A100 GPU,共提供320 gigabytes記憶體,Nvidia宣稱是目前業界最強大的AI系統,可提供高達5 petaflops 運算效能,可將整個資料中心的效能集中到單一平台上。

拜A100的多執行個體功能,DGX A100平台也可以處理多個小型AI作業,切割成56個執行個體。

DGX A100平台 A100平台要價20萬美元,Nvidia指出第一家客戶是美國能源部的阿拉貢(Argonne)實驗室,它希望能用更強的AI和運算效能協助推動COVID-19的研究。另一家客戶則是甲骨文,後者將以這款GPU來驅動Oracle Cloud Infrastructure平台,以支援鑽油探勘和DNA定序等高效能運算任務。

Nvidia新的融合加速器產品EGX A100也搭載A100 GPU,後者將在今年稍晚上市,可用作邊緣感測器的資料串流的即時運算。此外還有信用卡大小的單晶片EGX Jetson Xavier NX微邊緣(micro-edge)伺服器,宣稱是最強大、但最小的微伺服器。

Nvidia同時宣佈BMW集團已經採用Nvidia Isaac機器人平台,將AI機器人導入汽車工廠中,計畫未來推向全球各地工廠。該平台也是以Ampere A100 GPU為底層,用於推動BMW工廠作業以加速車輛的客製化生產。

來源:Silicon Angle

關於我們

自1990年創刊UXmaster雜誌,1991年獲得美國LAN Magazine獨家授權中文版,2006年獲得CMP Network Computing授權,2009年合併CMP Network Magazine獨家授權中文版,2014年轉型為《網路資訊》雜誌網站,為台灣中小企業協助技術領導者落實企業策略,了解網路規劃及應用,為企業網路應用、管理、MIS、IT人員必備之專業雜誌網站。


與我們聯絡

加入《網路資訊》雜誌社群

© Copyright 2022 本站版權所有,禁止任意轉載 網路資訊雜誌 / 心動傳媒股份有限公司 聯絡電話:+886 2 29432416