在 Ignite 開發者大會上,微軟公佈二顆自製資料中心基礎架構晶片,名為 Azure Integrated HSM 和 Azure Boost DPU,分別在加強資料安全減少熱排放。
二款晶片是設計用來解決現行資料中心的安全和能源效率問題,藉此最佳化伺服器效能以執行大規模 AI 負載。去年 11 月 Ignite 大會微軟宣佈用於自家雲端的 Azure Maia AI 加速器及通用運算處理器 Arm-based CPU Azure Cobalt 引發關注。今天宣佈的晶片是繼 Maia AI 加速器和 Cobalt CPU 後另一次進展,將該公司為了支援 AI 而改造資料中心堆疊從晶片到軟體每一層的策略,再往前推進一步。
最新自製晶片 Azure Integrated HSM 採用專用硬體安全模組,以滿足美國聯邦密碼模組安全標準 FIPS140-3 Level 3 。
微軟表示,Azure Integrated HSM 運用專門的硬體密碼運算加速器,並使加密和簽章金鑰完全在晶片的隔離區內執行,不像傳統 HSM 架構需要繞出晶片或從記憶體內擷取金鑰,這晶片從加密、解密、簽章和驗證運算,全都在內部包辨執行,因而不損及效能或增加延遲性。
Azure Boost DPU (data processing unit) 的角色則是最佳化資料中心內數百萬道網路連線的多路資料串流,旨在提升用電效率。它的作法是將傳統伺服器多個元件,從高速乙太網路和 PCIe 介面到網路、儲存引擎、資料加速器和安全功能等整合成單一晶片。
Azure Boost DPU 採用高明的軟、硬體設計,內部一個輕量的資料流作業系統,實現比傳統處理器更高效能、更低耗電,以及更高的效率。微軟預期,本晶片執行雲端儲存,能較使用現行 CPU 的伺服器省電三倍,但效能提高四倍。
除了新晶片.因應 AI 運算對環境的衝擊,微軟也公佈了提升資料中心冷卻及減少耗能的方法。在冷卻方面,微軟公布了改良版的熱交換單元,為一液冷「夥伴」機櫃。微軟並未公佈細節,只說可用於 Azure 資料中心減少使用 Nvidia 等 GPU 的大型 AI 系統的排熱量。
而在能源管理方面,微軟表示已和 Meta 合作開發新的解構式機架,以強化彈性及可擴充性。每個機架都使用 400 伏特直流電,最多能多安裝 35% 的 AI 加速器,也能因應不同負載需求,動態調整耗電。微軟同時透過 Open Compute Project 開原冷卻及伺服器機架規格。
至於新晶片,微軟表示計畫明年每座資料中心都會安裝 Azure Integrated HSM,但部署 DPU 的時程則還不確定。
來源:VentureBeat
