
聯發科與Nvidia合作推出汽車晶片平台Dimensity Auto,擁有5G、WI-Fi、藍牙和衛星連線能力。
聯發科與Nvidia合作推出汽車晶片平台Dimensity Auto,擁有5G、WI-Fi、藍牙和衛星連線能力。
歷經三年疫情,Computex 2023的首場大會演講,迎來了最近當紅的產業搖滾巨星-Nvidia創辦人暨執行長黃仁勳,甚至吸引台塑董事長王文淵率領旗下大將與會聽講。
不同於前一天在台大畢業典禮的演講,在屬於舒適圈的科技主場大會上,將近兩小時的演講中,黃仁勳沒有看稿、沒有停頓或卡詞,保持高度的熱情,向現場約3,500名觀眾解釋未來的運算樣貌。
首先,黃仁勳表示過去40年來,CPU每5年增加10倍算力的摩爾定律時代已經過去了。過去CPU的「通用運算」架構讓電腦具備足以寫出各種程式的靈活彈性,但進入AI時代之後,通用運算架構已經不足以應付這種大規模的運算需求。
因此,黃仁勳提出「加速運算」的概念,推翻掉通用運算的概念,重新設計底層的晶圓到高階的作業系統、演算法、應用程式等等,建立足以實現能水平連接擴充算力的伺服器與資料中心,滿足AI需要大量算力訓練模型及平行運算的需求。
「加速運算是跨領域的概念,不同的產業需要建立自己的演算法、資料集與模型,」黃仁勳表示:「通用運算的效能成長表現無法滿足需求,唯有以GPU為何新的加速運算才能實現數百倍加速的效能成長。」
黃仁勳以建立大型語言模型(LLM)為例,以CPU建立運算叢集大約需要960台CPU伺服器,每小時吃電11 Gigawatt,耗費約1,000萬美金。
然而同樣是花費1,000萬美金,你可以買到48台GPU伺服器,每小時吃電3.2 Gigawatt,得到的效能足以建立44個LLM。
黃仁勳舉出不同的例子,強調以GPU伺服器建立的資料中心,在AI運算方面具備獨特的優勢。例如在同樣的功耗下,GPU伺服器的效能可以達到CPU伺服器的150倍。若以同樣訓練一個大型語言模性的需求來看,只需要兩台GPU伺服器,功耗每小時0.13 GW,總花費40萬美金即可。
「買得愈多,省得愈多」黃仁勳這樣說道,甚至開玩笑說台灣人喜歡這一味。
當企業試著使用或自建產生式AI時,要將整個資料中心視為一台電腦,GPU伺服器的運算架構與資料傳輸通道,決定了整個資料中心的算力表現。
過去5年,Nvidia透過加速運算與人工智慧,將電腦繪圖效能提升上千倍,預計在10年內將達到上百萬倍的效能成長。
該如何達到如此驚人的效能成長?黃仁勳宣布推出名為Grace Hopper的超級晶片,是世界上第一款能夠CPU和GPU之間共享600GB記憶體的加速運算處理器,避免了不必要的資料複製,進而提高了運算效能。Grace Hopper搭載了大容量高速的DDR和LPDDR記憶體,適用於高可靠性資料中心應用。
然後再使用 NVIDIA NVLink網路技術,將256個NVIDIA Grace Hopper超級晶片,以每秒900GB的速度連接成一個資料中心大小的GPU Server-DGX GH200,達到1 exaflop的算力,表現比一台NVIDIA DGX A100 320GB 系統高出近500倍。這使得開發人員可以用它來開發用於生成式人工智慧聊天機器人的大型語言模型、用於推薦系統的複雜演算法,以及用於偵測詐欺及資料分析的繪圖神經網路。
NVIDIA 同樣在打造自家的大型人工智慧超級電腦NVIDIA Helios,預計將於今年上線。它將使用 NVIDIA Quantum-2 InfiniBand 網路技術來連結四套 DGX GH200 系統,提供最高每秒 400GB 的頻寬,以強化訓練大型人工智慧模型所需的資料處理能力。
面對不同的使用情景,企業需要各種配置的GPU伺服器。Nvidia也推出了名為NVIDIA MGX的模組化參考架構,讓系統製造商能夠以成本效益的方式快速開發出超過百種不同配置的伺服器,以滿足各種人工智慧、高效能運算和NVIDIA Omniverse應用程式的需求。
NVIDIA MGX採用通用架構和模組化的零組件,可以在各種氣冷式和液冷式機箱中使用。它支援NVIDIA全線GPU、CPU、資料處理單元(DPU)和網路卡,同時也支援x86和Arm架構的處理器。
在八月份,雲達科技和美超微將成為首批推出採用NVIDIA MGX設計的機型的公司。美超微在COMPUTEX展會上宣布推出的ARS-221GL-NR系統將搭載Grace CPU,而雲達科技在同一場展會上宣布推出的S74G-2U系統則將使用Grace Hopper超級晶片。
此外,永擎電子、華碩、技嘉和和碩聯合科技也將採用NVIDIA MGX來開發下一代的加速運算電腦。
除了伺服器以外,資料中心的網路交換平台也是運算效能關鍵之處。宣布了一項名為NVIDIA Spectrum-X的新網路平台,專為提高乙太網路架構下人工智慧雲端環境的效能和效率而設計。這個平台整合了Spectrum-4乙太網路交換器、BlueField-3 DPU(資料處理單元)和相應的軟體,能夠將人工智慧運算效能提升1.7倍,同時提高電源使用效率。
多家知名系統建造商已經採用了NVIDIA Spectrum-X、Spectrum-4交換器和BlueField-3 DPU,包括Dell Technologies、聯想和美超微等公司。這些合作夥伴將能夠在他們的產品中充分發揮NVIDIA的先進網路技術,提供更高效的人工智慧運算解決方案。
Nvidia CEO黃仁勳在Computex 2023中宣布了AI模型訓練服務ACE for Games,可以賦予電玩角色自然語言對話、聲音和臉部表情的能力。
NVIDIA (輝達) 今日宣布公司創辦人暨執行長黃仁勳將在GTC 2023發表主題演講,內容將涵蓋在人工智慧、元宇宙、大型語言模型、雲端運算等方面的最新進展。
微軟又和GPU大廠Nvidia簽定多年合作,在Azure上再建立新的超級電腦,採用Nvidia的GPU、網路和AI軟體,以訓練AI系統為任務。
上周GPU大廠Nvidia被駭客組織Lapsus$竊走員工電子郵件、產品設計圖及驗證資料,並且公開釋出,馬上看到第一個對大眾的影響。
GPU大廠Nvidia遭勒索軟體攻擊,駭客要求100萬美元,否則將出售RTX系列中封鎖算力的LHR技術,揚言讓搭載Nvidia產品的電腦都變挖礦機器。
日本科技巨擘軟體銀行昨日宣佈,繪圖處理器公司Nvidia因「極大主管機關的挑戰」,將放棄以400億美元收購軟銀其持有的Arm。而Arm也將規劃掛牌上市。
Meta本周表示正在打造全世界最快AI超級電腦-AI Research SuperCluster (RSC)將搭載1.6萬顆Nvidia A100 GPU,預定2022年中完成。該公司目前已經利用這台電腦訓練大型電腦視覺及自然語言處理(NLP)模型。
自1990年創刊UXmaster雜誌,1991年獲得美國LAN Magazine獨家授權中文版,2006年獲得CMP Network Computing授權,2009年合併CMP Network Magazine獨家授權中文版,2014年轉型為《網路資訊》雜誌網站,為台灣中小企業協助技術領導者落實企業策略,了解網路規劃及應用,為企業網路應用、管理、MIS、IT人員必備之專業雜誌網站。
© Copyright 2022 本站版權所有,禁止任意轉載 網路資訊雜誌 / 心動傳媒股份有限公司 聯絡電話:+886 2 29432416