[情報] DRAM現在與未來

看板 Tech_Job
作者 zxcvxx (zxcvxx)
時間 2017-12-04 17:20:07
留言 12則留言 (0推 9噓 3→)

[情報] DRAM現在與未來 http://bit.ly/2ig6t9H 目前,市面上DRAM常見的主流可分為三種。首先是適用在PC、Server與顯示卡上的GDDR。 多數的桌上型或是多數筆記型電腦都是使用DDR系列,目前使用世代為DDR4,而另一個使 用DDR4記憶體的產品就是近來最紅的資料中心(Data Center),電商與社群網站、甚至未 來人工智慧(AI)的風行,所使用的伺服器的記憶體也是用DDR4。目前伺服器上的DDR從早 期使用同位元檢察(Parity Check)到現在使用更強大錯誤更正碼(Error Control Coding/ECC)在記憶體模組上。 DRAM另外一個主要潮流就是使用在行動裝置(如智慧型手機與平板電腦)的Low Power DRAM ,也使用在穿戴式裝置上,如智慧手錶等。目前常見的種類為LPDDR3 或LPDDR4,根據產 品定位不同而分。比較例外的筆記型電腦如Mac Book Air(MBA)也使用Low Power系列, LPDDR為因應行動世代的來臨而從DDR產品線延伸出來,主要目的為節省能源,故朝著降低 電壓方向制訂,其也與DDR系列終端應用環境的不同,取消延遲鎖向迴路(Delay Loop Lock/DLL)以及增加封裝方式(Package on Package/PoP)等方式。另外一個在行動裝置的 DRAM技術為Wide IO,只是目前開發的廠商不多。 最後一個與DDR與LPDDR不同的是圖形DDR(Graphic DDR/GDDR)系列產品,其只使用在與圖 形處理器(Graphic Processing Unit/GPU)相關的使用環境上。圖形加速從早期二維到三 維,最主要使用圖形處理效能的應用為電競遊戲。更高的解析度、更多的幀率(Frame Rate)與更高色彩深度(Color Depth)都需要更強的圖形處理能力以及更高的圖形記憶體的 頻寬。目前應用在GPU的GDDR系列為GDDR5X。 GDDR系列為了增加頻寬,GDDR開發的發想環 境為在印刷電路板(PCB)上周邊裝置,故對於資料傳輸的輸出入(I/O)的發展方式當然與上 述的DDR與LPDDR不同。 除上述目前常見的DRAM種類以外,另外兩個比較少見主要為了未來應用環境的而發展的記 憶體還有Hybrid Memory Cube(HMC)與Hugh Bandwidth Memory(HBM): HBM原先主要提倡者為Hynix,但其把標準已經公開至JEDEC成為標準。 HMC主要提倡者為美光,目前仍為其專屬的技術,並未成為公開標準。 以上兩者在架構上的共通點都使用底層的邏輯晶片做為與DRAM控制器的連結,並使用矽穿 孔(Through Silicon Via/TSV)技術連結DRAM Die,兩者也同時運用ECC等新一代技術,也 因為如此納入目前最新的半導體技術,導致這兩種DRAM成本高居不下,目前仍少見於主流 市場。 HMC主要應用於目的伺服器,故其將與DDR5競爭,因為伺服器環境需要大容量且快速可靠 特性,HMC底下的邏輯晶片運作以主要交換(Switch)方式運作,運做類似有線以太 (Ethernet)區域網路-交換器(Switch)與網路終端(NIC)等,透過此等方式可以降低使用越 來越多記憶體模組的複雜性,能夠增加伺服器的最大記憶體容量,HMC本身除了以模組方 式存在也可以以單位晶片個別存在。 而另一個HBM目前已經發展到HBM2第二代,在消費端已經可以接觸其量產實品。AMD推出的 Radeon RX VEGA64顯示卡即捨棄傳統GDDR系列而採用HBM2做為其圖形存放的記憶體。HBM 發展的原意就是為了滿足傳統DRAM throughput不足的窘境,透過Interposer與DRAM 控制 器連封裝在同一個Die上面,再透過TSV與8通道的DRAM 相連,其相連的IO數可以達到傳統 PCB很難達成的1024,充分達到高Throughput的目的。 DRAM的未來分合,如何? DRAM除了目前現有的DDR、LPDDR、WIO、GDDR外還包括前所述的HBM與HMC,種類可說非常 多種。一直以來國際記憶體業界都有一個疑問是否未來會有一個統一的記憶體標準? 因 為上述其實很多DRAM其實或多或少都參考了其他種類記憶體的技術,至少電壓方面,目前 桌上型DDR4所使用的電壓1.2v 甚至比當年的LPDDR 1.8v還要低,所以到底有沒有可能未 來會統一? 或者如現在一樣根據新的應用產生了更多種不同的DRAM來對應新型的應用? AI將使用何種記憶體呢? AI目前全球科技業最紅的議題,也是最讓人期待的未來應用,而關於AI的演算法甚至硬體 架構都有許多公司提出自己的看法,就如目前DRAM技術分歧相同,包括CPU、GPU、FPGA以 及ASIC架構紛紛提出來對應相關AI架構,而上述的DRAM也紛紛對應到AI晶片當中,目前應 用主流在Server的AI晶片對DRAM最大需要是吞吐量(Throughput),Google在2015年提出的 TPU使用DDR3晶片,但最新Nvidia(2017年)所提出的記憶體P40就採用HBM2記憶體。未來至 少在Server端所使用的訓練與推論的AI晶片,估計依成本而分會以HBM與GDDR爲主流。 http://bit.ly/2ig6t9H -- 科技政策研究與資訊中心—科技產業資訊室(iKnow) http://iknow.stpi.narl.org.tw/ --
※ 批踢踢實業坊(ptt.cc), 來自: 203.145.192.234
※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1512379211.A.775.html

sc1: Googleㄉ 12/04 17:56

khhuang1: 情報??? 12/04 18:25

pf775: 台灣的世界級半導體科技大廠呢 12/04 18:58

eatingshit: 貴死了 炒作就是這樣 12/04 19:21

ghost008: 洗文 12/04 19:28

paul40807: ????????? 12/04 19:52

peter0612: 情報在哪 12/04 19:54

zzzz8931: ... 12/04 21:02

sjyang: 學習po文? 12/04 21:19

lponnn: ? 12/04 22:57

ayianayian: 未來就是中國參一咖,然後價格崩盤 12/05 08:41

Unstable: 沒提到 EMIB. 下一位! 12/05 08:45

您可能感興趣