Page 16 - 歷經一番寒徹骨DDR5記憶體主流時代即將來臨?
P. 16
14
SPOTLIGHT
已經出樣,預計會在接下來的3~6 個月內實現早期量產。這樣看來, 先前盛傳的「2022年將能夠真正 全面進入DDR5時代」的說法看來 有些過於激進——畢竟2022年底 已近,而支援DDR5的處理器平台 仍比較有限。
介面傳輸速率可達6.4Gbps,相比 上一代提升1.8倍,從而實現單晶片 介面頻寬819GB/s,如果使用6層 堆疊可以實現4.8TB/s的總頻寬。 到2024年,預計將實現介面速度 高達7.2Gbps的HBM3P,這一代資 料傳輸率進一步提升10%,從而將 堆疊的總頻寬提升到5TB/s以上。
系統級創新將成為更大記憶 體系統的關鍵
DRAM市場的幾大參與者 包括了三星(Samsung)、美光 (Micron)、SK海力士(SK Hynix)、 南亞科技(Nanya)、力積電(PSMC) 等,圖1展示了該領域主要市場 參與者的技術演進方向。簡單而 言,三星、美光與SK海力士針對 DDR4、DDR5和LPDDR5應用,已 經以15nm和14nm等級的單元設 計規則發佈了D1z和D1α節點的產 品;三星是最早在DRAM上採用極 紫外光(EUV)微影技術的供應商, 將其應用於D1x DDR4 DRAM模組 和D1z LPDDR5規模量產。
除了AI/ML訓練市場之 外,HBM3還可用於5G、高效能 運算及其他與資料中心相關的應 用場景、繪圖應用和網路應用。 其發展很大程度上是由不斷上升 的頻寬需求驅動,而對頻寬的需 求幾乎沒有上限。換句話說,目前 來看HBM的發展可能不會遇到障 礙。但相較於GDDR DRAM動輒 16/18Gbps的速率,HBM3的速率 仍然存在差距,而限制HBM發展 的原因則主要來自兩方面:一是中 介 層,二 是 成 本。
為了解決儲存容量的需求,除 了晶片級解決方案之外,系統級 解決方案也是重要方向之一,使 用CXL技術做記憶體擴展就極具 代表性。以資料中心為例,圖2從 左至右為依次展示了資料中心正在 以及將要經歷的三次重要轉型。
HBM3
先進的2.5D/3D製造是 造成成本偏高的原因。眾所周 知,HBM技術與其他技術最大 的不同,就是採用了3D堆疊技 術。H B M 2 E、D D R、G D D R,H B M 3 架構的基本單元同樣是基於 DRAM,但不同於其他產品將DDR 進行平鋪的做法,HBM選擇了3D 堆疊,其直接結果就是介面變得 更寬。比如DDR的介面位元寬只有 64位元,而HBM透過DRAM堆疊的 方式可以將位元寬提升到1,024位 元,這就是HBM與其他競爭技術相 比最大的差異。但這對成本比較敏 感的客戶或應用來說,使用HBM的 門檻就被大幅提升了。
其次,預計到2022年,資料中 心將會透過串行鏈路實現記憶體 子系統的擴展,也就是CXL。利用 CXL,就可以在傳統插拔式記憶體 條的基礎之上,為伺服器及資料中 心增加全新的記憶體擴展方式。比 傳統插拔記憶體條的方式,CXL可 以進一步提高現有資料中心記憶 體的容量和頻寬,也被稱作「容量 與頻寬的雙擴展」。
隨著人工智慧(AI)和機器學習 (ML)領域需求的快速發展,記憶體 產品設計的複雜性正在快速上升, 並對頻寬提出了更高的要求,高頻 寬記憶體(HBM)成為繞過DRAM 傳統I/O增強模式演進的另一個優 秀方案。
最後,資料中心分解化。CXL 的使用將讓業界更多關注資源池 化和資源本身的功能效應,更高 效率地分配資源。透過分解化的 全新資料中心架構,運算、記憶 體、儲存等資源將進一步池化,從 而能夠依照工作負載的具體需求, 將資源定向分配。使用完成之後, 這些資源又將回歸到統一的資源 池中,等待後續的工作負載進行 重新分配。
從最開始資料傳輸速率約為 1Gbps左右的HBM1,到2016年推 出的最高資料傳輸速率為2Gbps 的HBM2,再到2018年推出的最高 資料傳輸速率3.6Gbps的HBM2E。
而在三星發佈的最新藍圖中, 其HBM3技術已於今年開始量產,
資源「池化」可以將資源的利
www.eettaiwan.com | 2022年11月
首先,大約在2021年底,伺服 器記憶體將會開始向DDR5轉型。 與前代產品DDR4相比,DDR5整 體架構較為一致,但在容量、能效 等方面實現了大幅提升,具備現代 化資料中心所必需的特性。