類型:電視劇
地區:電視劇 更新時間:2026-05-12 22:37:18
導演:馬蘭
主演:
張海 張鎧潼 矢澤永吉 許仁杰 伯特巴卡拉克
簡介:
隨著生成式 AI 技術的存儲快速迭代,算力需求呈指數級增長,技術F加存儲系統已成為制約 AI 性能進一步提升的分化核心瓶頸。在高帶寬內存(HBM)產能緊張、速標成本居高不下的準化注CD組背景下,行業開始探索下一代存儲解決方案,英偉HBF(高帶寬閃存)與 CXL(計算快速鏈接)兩大技術路線逐漸浮出水面。達押2026 年 4 月,存儲兩大技術領域接連傳來重磅消息:SK 海力士與閃迪聯合推動 HBF 標準化進程,技術F加三星發布性能提升 10 倍的分化 CXL 內存系統,而英偉達則明確了短期技術路線,速標選擇繼續深耕 HBM 并加速布局 AI SSD 與 CXL 生態,準化注CD組不同廠商的英偉戰略選擇正在重塑 AI 存儲的競爭格局。
HBF 標準化加速落地,達押瞄準 AI 推理大容量需求
今年 2 月,存儲SK 海力士與閃迪聯合舉辦 “HBF 規格標準化聯盟啟動會”,正式發布面向 AI 推理時代的下一代存儲器解決方案 HBF 的全球標準化戰略,標志著這一新興技術從概念階段進入產業化推進的快車道。作為 3D NAND 閃存與高帶寬堆疊技術結合的產物,HBF 被視為解決 AI 系統 “內存墻” 問題的重要方向,其核心優勢在于兼顧大容量與高帶寬,能夠同時替代傳統的 HBM 顯存和 DDR 主存。

根據聯盟公布的技術路線圖,HBF 將采用 TSV(硅通孔)堆疊技術與 BICS 閃存工藝,單顆 HBF 芯片的最大容量可達 4096GB,是當前主流 HBM3E 內存容量的 8 至 16 倍。這種超高容量特性使其特別適合對內存容量要求極高的 AI 推理場景,能夠大幅降低大型語言模型部署的硬件成本。閃迪在標準化進程中表現最為積極,目前已著手建立完整的 HBF 供應鏈,計劃在 2026 年下半年推出首款原型樣品,商業化量產目標提前至 2027 年,比最初公布的時間表提前了半年。
盡管 HBF 的技術前景被行業廣泛看好,但其推廣進程仍面臨諸多挑戰。作為一種全新的存儲架構,HBF 需要配套的芯片設計、主板布線和軟件生態支持,產業鏈的成熟需要較長時間。此外,HBF 的延遲性能仍無法與 HBM 相媲美,這也決定了其短期內難以進入對延遲敏感的 AI 訓練市場,主要定位將集中在大規模 AI 推理和邊緣計算領域。

英偉達明確技術路線:短期不采用 HBF,押注 HBM+AI SSD 組合
就在 HBF 標準化加速推進的同時,作為 AI 芯片領域的絕對領導者,英偉達卻傳出了短期內不會引入 HBF 技術的消息。據 Wccftech 報道,英偉達目前仍將 HBM 作為核心存儲方案,同時計劃通過高性能 AI SSD 和專用軟件平臺來解決內存容量不足的問題,這一戰略選擇與英偉達自身的生態布局和技術路線密切相關。
英偉達認為,通過優化現有存儲架構,同樣能夠實現內存容量的高效擴展,無需引入全新的 HBF 標準。為此,英偉達正與鎧俠、SK 海力士合作開發支持 PCIe 7.0 標準的高性能 AI SSD,并同步打造名為 “SCADA(可擴展加速數據訪問)” 的軟件平臺。該平臺的核心創新在于繞過傳統的 “CPU 讀取 SSD 再傳遞給 GPU” 的數據路徑,實現 GPU 對 SSD 的直接訪問,大幅縮短數據傳輸延遲,將 AI SSD 的隨機讀寫性能(IOPS)目標鎖定在 100M 級別。這種方案能夠在不改變現有 GPU 硬件架構的前提下,有效擴展 AI 系統的可用內存容量,降低對 HBM 的依賴。

與英偉達的謹慎態度不同,谷歌被認為是 HBF 技術的潛在主要客戶。目前谷歌的 TPU 生態系統正在快速擴張,其下一代 TPU 解決方案對大容量存儲有著迫切需求。HBF 既能部分替代 HBM 的作用,又能替代標準 DDR 內存,能夠幫助谷歌構建更具成本優勢的 AI 推理集群。谷歌的加入也為 HBF 的商業化進程注入了重要動力,預計未來將形成英偉達主導的 HBM+AI SSD 路線與谷歌主導的 HBF 路線并存的局面。
CXL 成后 HBM 時代核心戰場,三星發布 10 倍性能新系統
在 HBF 之外,CXL 作為一種開放性的互聯協議,正成為存儲行業新一輪競爭的核心領域。CXL 能夠實現 CPU 與 GPU、FPGA 等加速器之間的高速高效互聯,提供統一的內存地址空間和內存一致性,允許不同計算設備共享內存資源,從而有效緩解 AI 負載對內存容量和帶寬的壓力。TrendForce 預測,繼 HBM 之后,CXL 將成為未來 3-5 年存儲行業增長最快的細分市場。

三星近期發布的新一代 CXL 內存系統 “Pangea v2”,展示了 CXL 技術的巨大潛力。該系統圍繞 CXL 2.0 標準打造,整合了 22 組 CXL 內存模塊,構建了統一的共享內存資源池,支持多臺服務器同時接入調用,整體內存容量可達 5.5TB。實測數據顯示,Pangea v2 的數據傳輸性能相比 RDMA 等傳統互聯方式提升了 10.2 倍,同時將傳統內存架構長期存在的運行瓶頸減少了 96%。目前三星已聯合 Marvell 和 Liquid AI 展開技術合作,共同推進產品的商業化落地,并計劃在 2026 年推出適配 CXL 4.0 標準的 “Pangea v3” 系統,進一步提升性能和容量。

除三星外,全球主要存儲廠商都在加速 CXL 技術的布局。SK 海力士早在 2022 年便推出了首款 CXL 內存模塊,2023 年升級至 CXL 2.0 標準,目前正在穩步推進下一代產品的研發;美光也在 2024 年首次發布 CXL 內存模塊,正式加入這一賽道。而英偉達今年出貨的 Vera CPU 原生支持 CXL 3.1 標準,被業界視為 CXL 技術規模商用的關鍵節點,將極大推動 CXL 生態的成熟與普及。
總體來看,當前 AI 存儲技術正處于多元化發展的關鍵時期。HBM 仍將是未來 2-3 年 AI 訓練和高端推理市場的主流存儲方案,而 HBF 和 CXL 則分別從不同方向探索后 HBM 時代的技術路徑。HBF 憑借超高容量優勢瞄準 2027 年后的大規模 AI 推理市場,CXL 則通過內存資源池化技術解決當前系統的內存擴展難題。不同廠商基于自身生態優勢選擇了不同的技術路線,這種多元化的競爭格局將加速 AI 存儲技術的創新迭代,為下一代更強大的 AI 系統奠定堅實的存儲基礎。