DoNews11月21日消息,據(jù)科創(chuàng)板日報,華為今日推出全新的 Flex:ai AI 容器技術,核心能力是把一張 GPU 或 NPU 的算力切分成多份虛擬算力單元,粒度精細到約 10%。這意味著一張卡可以同時承載多個 AI 工作負載,真正做到“多任務并行”。
更關鍵的是,F(xiàn)lex:ai 還能把集群里不同節(jié)點的空閑 XPU 算力聚合起來,形成更靈活的“共享算力池”。對企業(yè)來說,算力利用率會顯著提升,模型訓練和推理的資源調(diào)度也更高效。據(jù)悉.該技術將同步開源至魔擎社區(qū),進一步降低企業(yè)與開發(fā)者的使用門檻,讓算力資源像云端存儲一樣可隨取隨用。
華為這步棋的意義不只在“讓一張卡當多張卡用”,更在于它把算力從“固定資產(chǎn)”變成“可分配資源”,這對國內(nèi)當前算力緊缺的背景來說非常關鍵。Flex:ai 若能規(guī)模落地,等于是直接提高社會整體算力生產(chǎn)效率。這在 AI 大模型全面爆發(fā)的 2025 年,無疑是一種底層競爭力提升。