Page 17 - 歷經一番寒徹骨DDR5記憶體主流時代即將來臨?
P. 17

   用率大幅度提高,這會為超大規模 運算,特別是雲端服務帶來巨大的 優勢,幫助大幅度降低總體擁有成 本(TCO)。因此,2019年3月,英特 爾宣佈聯合微軟(Microsoft)、阿 里巴巴、思科(Cisco)、戴爾(Dell) EMC、Facebook、Google、惠 普企業(HPE)和華為等公司,共同 推出了一個全新的互連標準,取名 為Compute Express Link (CXL), 應用目標鎖定網際網路資料中心、 通訊基礎設施、雲端運算與雲端服 務等領域。
記憶體更加智慧化
以三星為例,其當前主要的 記憶體內運算技術稱為HBM- PIM,原理是在HBM記憶體中直 接整合運算單元;另一種技術方 案是在DRAM旁邊直接整合加 速器邏輯,以降低存取記憶體 的開銷,這樣的技術三星稱為 AXDIMM (accelerator DIMM),預 計2024~2025年完成開發。
如前所述,作為一種開放的產 業標準,CXL可在資料中心內的專 用運算、記憶體、I/O和儲存元素 之間提供高頻寬、低延遲的連接, 以允許為給定的工作負載提供每 個元素的最佳組合。
學術界為此想出了很多方法試 圖改變這種狀況,如透過對DRAM 的邏輯層和儲存層進行堆疊,實 現近記憶體運算(Near Memory Compute),或者是最好能夠將儲 存和運算有機地結合(記憶體顆粒 本身的演算法嵌入),直接利用儲存 單元進行運算,最大程度消除資料 移轉所帶來的功耗開銷。
總體而言,無論基於哪種儲 存技術,在面對記憶體內運算時, 其實都存在一定的挑戰。但隨著 ML等應用對於記憶體存取提出進 一步需求,以智慧化DRAM為代表 的技術方向將成為改變記憶體市 場格局和競爭力的重要手段。
在傳統運算設備廣泛採用的 馮·諾紐曼架構(Von Neumann architecture)中,運算和儲存功 能不但是分離的,而且更側重於運 算。資料在處理器和記憶體之間 不停的來回傳輸,消耗了約80%的 時間和功耗,也就是熟知的「儲存 牆 」和「 功 耗 牆 」問 題。
新型「記憶體內運算」(In-memory Computing)架構誕生。從目前趨 勢來看,真正對「記憶體內運算」 架構起決定性推動作用的,將是AI/ 物聯網(IoT)相關應用的加速實踐。
SPOTLIGHT
15
 圖2:資料中心架構不斷演進。
美光針對記憶體與運算架構 的發展,曾提出過「三個階段」的 看法:第一個階段是讓記憶體非 常靠近邏輯運算,用大量的高頻 寬資料匯流排把記憶體和運算處 理器更緊密連結;第二個階段是 在記憶體中進行運算處理。這個 概念始於1994年,儘管實現量產 在技術上存在不小的難度,軟體 和邏輯也是分開的兩部分,但消 除傳輸、延遲等問題,並且大幅提 升效能;第三個階段則是神經形態 (neuromorphic)運算,使用記憶 體架構本身做運算。
 在這一背景下,更聚焦儲存的
(因篇幅有限,完整圖文請參閱 EE Times Taiwan網站)
2022年11月 | www.eettaiwan.com




















































































   15   16   17   18   19