微軟推出「1-bit」AI 模型 只需要 CPU 就跑得動,效能媲美主流系統

微軟推出 BitNet b1.58「1-bit」AI 模型,僅用 CPU 就可以跑得動,效能媲美全精度模型,且大幅降低記憶體與能源消耗。

微軟最新發表的 BitNet b1.58 模型展現出極簡 AI 架構的潛力,透過僅使用 1-bit 權重設計,大幅降低記憶體與運算資源需求。該模型約有 1.3 億個參數,但只需 0.4GB 記憶體即可運作,相較於其他需 2 至 5GB 記憶體的全精度模型,佔用資源大幅減少。

BitNet 的冷笑話稱不上新穎,但倒是夠讓人忍不住翻白眼。

BitNet 採用特殊設計的 Transformer 架構,並結合 scale-aware quantization 與 layer-wise binarization 技術,使得在保持模型準確度的同時,將權重壓縮至 1-bit 。在推論過程中,該模型幾乎完全依賴加法與邏輯指令,避免高成本的乘法運算,進而實現極高效率。根據研究團隊估計,BitNet b1.58 推論時的能源消耗可比傳統 full-precision 模型降低 85% 至 96% 。

實測顯示,BitNet b1.58 能夠在 Apple M2 等消費級 CPU 上達到每秒 5 至 7 個 token 的生成速度,已接近人類閱讀速率。研究人員透過為 BitNet 架構量身打造的高度最佳化的核心,大幅提高其在 ARM 與 x86 架構下的推論表現。目前這些核心已開放下載,使用者也可透過官方網頁進行線上試用。

儘管其架構極為簡化,BitNet 在多項基準測試中展現出與同級全精度模型相當的表現,包括推理能力、數學運算與知識型問答等項目。研究團隊指出,目前仍無法完全解釋為何如此低精度的設計仍能保持競爭力,未來將持續深入探討其理論基礎與可擴展性。

BitNet b1.58 展現了一種具潛力的替代路徑,對於當前 AI 訓練與推論仰賴 GPU 、消耗大量能源的現況提供反思。微軟研究人員表示,現今的 AI 模型如同肌肉車,強悍卻耗能;而 BitNet 則像是節能小車,用更少的資源達成相似的目標,未來有望應用於低功耗設備、邊緣運算與永續 AI 發展方向。

發表迴響

關於我們

自 1990 年創刊 UXmaster 雜誌,1991 年獲得美國 LAN Magazine 獨家授權中文版,2006 年獲得 CMP Network Computing 授權,2009 年合併 CMP Network Magazine 獨家授權中文版,2014 年轉型為《網路資訊》雜誌網站,為台灣中小企業協助技術領導者落實企業策略,了解網路規劃及應用,為企業網路應用、管理、 MIS 、 IT 人員必備之專業雜誌網站。


與我們聯絡

加入《網路資訊》雜誌社群

© Copyright 2025 本站版權所有,禁止任意轉載 網路資訊雜誌 / 心動傳媒股份有限公司 聯絡電話:+886 2 29432416

探索更多來自 網路資訊雜誌 的內容

立即訂閱即可持續閱讀,還能取得所有封存文章。

Continue reading

Secret Link