華為發(fā)布AI數(shù)據(jù)平臺,全面重塑AI數(shù)據(jù)基礎設施
發(fā)布時間:2026-03-05 10:25:50 閱讀量:444
3月2日,在MWC26巴塞羅那期間,華為數(shù)據(jù)存儲產(chǎn)品線總裁袁遠在產(chǎn)品與解決方案發(fā)布會上正式發(fā)布AI數(shù)據(jù)平臺。通過提供知識生成與檢索、KV Cache加速、記憶萃取與召回三大能力和UCM(Unified Cache Manager)推理記憶數(shù)據(jù)管理技術,AI數(shù)據(jù)平臺可搭建起智能體與商業(yè)價值間的關鍵橋梁,助力推理應用落地。

華為數(shù)據(jù)存儲產(chǎn)品線總裁袁遠發(fā)表演講
當下,大多模型尚未深入運營商核心業(yè)務,其原因在于行業(yè)普遍“重訓練、輕推理”。而推理才是AI應用落地的關鍵。為解決推理業(yè)務中幻覺頻發(fā)、響應體驗不佳及推理記憶缺失的瓶頸,華為首創(chuàng)“3+1”AI數(shù)據(jù)平臺,針對知識、KV Cache和記憶進行存儲與優(yōu)化,并通過UCM技術實現(xiàn)調(diào)度與管理,助力用戶推理體驗提升。
|知識庫提供高精度多模知識,讓檢索更精準
在智能查詢場景中,該技術通過多模無損解析、Token級編碼等方式,將文本、圖片、視頻等資源轉(zhuǎn)化成海量細粒度的知識,結(jié)合多維度檢索與比對,實現(xiàn)超95%檢索準確率。
| PB級KV Cache容納海量歷史數(shù)據(jù),讓推理更高效
在AI客服場景中,該技術不僅能在單次對話時大幅擴展上下文窗口,還能在多輪對話中復用歷史KV Cache,避免重復計算,實現(xiàn)首Token時延降低90%,模型響應速度顯著提升。
|記憶庫提供上下文記憶管理,讓模型越用越聰明
在商業(yè)數(shù)據(jù)洞察場景中,該技術可精準萃取歷史數(shù)據(jù)與經(jīng)驗,并沉淀成可召回的記憶。記得更多,推理就更精準,便可實現(xiàn)“越用越聰明”的持續(xù)進化。
|UCM推理記憶數(shù)據(jù)管理技術,全生命周期管理與調(diào)度記憶數(shù)據(jù)
通過三層緩存架構,對知識庫、KV Cache和記憶庫進行分級管理與智能調(diào)度,進一步優(yōu)化推理能力。

本次發(fā)布的AI數(shù)據(jù)平臺可提供一體化和分離式兩大部署模式。一體化部署以OceanStor A800為底座,集成上述能力,同時兼具極致性能與靈活擴展性;分離式部署采用“數(shù)據(jù)引擎節(jié)點+OceanStor Dorado”架構,可在現(xiàn)有系統(tǒng)上新增數(shù)據(jù)引擎節(jié)點,保護歷史投資,支撐業(yè)務平滑轉(zhuǎn)型。
“華為將繼續(xù)深耕技術創(chuàng)新,以AI數(shù)據(jù)平臺為橋梁,讓模型能力真正轉(zhuǎn)化為可落地的商業(yè)價值,推動智能技術加速進化,共赴智慧未來。”袁遠表示。
來源:華為數(shù)據(jù)存儲
觀眾登記
手機版