AWS 推出 EC2 P4d 執行個體服務 以 NVIDIA A100 GPU 進行 AI 運算

Amazon Web Service (AWS)本周宣佈針對高效能及機器學習作業而設計以GPU為基礎的運算執行個體服務正式上線,此外也宣布多款強大的AI系統,支援資料中心及邊緣運算,包括號稱現今市面最強大的AI系統。

Amazon Web Service (AWS) 本周宣佈針對高效能及機器學習作業而設計以 GPU 為基礎的運算執行個體服務正式上線,此外也宣布多款強大的 AI 系統,支援資料中心及邊緣運算,包括號稱現今市面最強大的 AI 系統。

c

AWS 資料中心暨雲端平台產品管理總監 Paresh Kharya 指出,現今企業用戶需要原有 Volta AI 架構 3000 倍的運算力來訓練最大的 AI 模型,但這些客戶對不同類型的 AI 應用,也需要能隨時調整的運算效能。

他說,由於資料中心軟、硬體形形色色,此類資料中心幾乎不可能最佳化到展現高效率。為此 Nvidia 設計了 A100,這款新晶片不只能大幅提升效能,也將 AI 訓練及推論 (inference) 加速整合在單一架構中。它還能大幅擴充資料中心,包括向上擴充以支援 AI 訓練及資料分析,或是橫向擴充以執行 AI 推論。

A100 Ampere 晶片是 Nvidia 製造最大的 GPU,包含 540 億顆電晶體,它還內含第三代 Tensor 核心,並可加速稀疏矩陣 (sparse matrix) 運算,這特別有助於 AI 推論及訓練。每顆 GPU 都能切成多個執行個體以執行不同推論任務。此外,Nvidia 的 NVLink 互連技術也意謂可以用多顆 A100 GPU 做更大型 AI 訓練作業。

市面最強大的 AI 系統

目前 A100 GPU 已經可出貨,Nvidia 也展示內建該 GPU 的第三代整合式 AI 系統。這套系統包含 8 顆 A100 GPU,共提供 320 gigabytes 記憶體,Nvidia 宣稱是目前業界最強大的 AI 系統,可提供高達 5 petaflops 運算效能,可將整個資料中心的效能集中到單一平台上。

拜 A100 的多執行個體功能,DGX A100 平台也可以處理多個小型 AI 作業,切割成 56 個執行個體。

DGX A100 平台 A100 平台要價 20 萬美元,Nvidia 指出第一家客戶是美國能源部的阿拉貢(Argonne)實驗室,它希望能用更強的 AI 和運算效能協助推動 COVID-19 的研究。另一家客戶則是甲骨文,後者將以這款 GPU 來驅動 Oracle Cloud Infrastructure 平台,以支援鑽油探勘和 DNA 定序等高效能運算任務。

Nvidia 新的融合加速器產品 EGX A100 也搭載 A100 GPU,後者將在今年稍晚上市,可用作邊緣感測器的資料串流的即時運算。此外還有信用卡大小的單晶片 EGX Jetson Xavier NX 微邊緣 (micro-edge) 伺服器,宣稱是最強大、但最小的微伺服器。

Nvidia 同時宣佈 BMW 集團已經採用 Nvidia Isaac 機器人平台,將 AI 機器人導入汽車工廠中,計畫未來推向全球各地工廠。該平台也是以 Ampere A100 GPU 為底層,用於推動 BMW 工廠作業以加速車輛的客製化生產。

來源:Silicon Angle

關於我們

自 1990 年創刊 UXmaster 雜誌,1991 年獲得美國 LAN Magazine 獨家授權中文版,2006 年獲得 CMP Network Computing 授權,2009 年合併 CMP Network Magazine 獨家授權中文版,2014 年轉型為《網路資訊》雜誌網站,為台灣中小企業協助技術領導者落實企業策略,了解網路規劃及應用,為企業網路應用、管理、MIS、IT 人員必備之專業雜誌網站。


與我們聯絡

加入《網路資訊》雜誌社群

© Copyright 2022 本站版權所有,禁止任意轉載 網路資訊雜誌 / 心動傳媒股份有限公司 聯絡電話:+886 2 29432416