[新聞] IEEE:GPU很好,但不是唯一

看板 Tech_Job
作者 jackliao1990 (j)
時間 2024-03-31 12:23:05
留言 62則留言 (24推 10噓 28→)

IEEE:GPU很好,但不是唯一 https://www.qbitai.com/2024/03/131950.html 十三 CPU價值重新被發現 是時候讓CPU在AI應用上「支棱」起來了。 這是去年大語言模型大火之時,權威期刊 IEEE Spectrum 在一篇文章中,開門見山給出 的一個觀點;並且是由一群AI研究人員得出、聲量越來越大的那種。 文章還坦言道: 誠然GPU可能佔據了主導地位,但在AI領域中的許多情況下,CPU卻是更合適的那一個 。 例如文章引援了Hugging Face首席佈道官Julien Simon體驗的真實案例—— 拿一個 英特爾® 至強® 系列CPU ,就能輕鬆駕馭Q8-Chat這個大語言模型,而且反應速 度很快。 Simon對此開誠佈公地表示: GPU雖然很好,但壟斷從來不是一件好事,可能會加劇供應鏈問題並導致成本上升。 英特爾CPU在許多推理場景中都能很好地運作。 而這也正與當下大模型的發展趨勢變化相契合,即逐漸從訓練向推理傾斜,大模型不再僅 較真於參數規模、跑分和測評,更注重在應用側發力。 一言蔽之,比的就是看誰能 「快好省」 地用起來。 不過話雖如此,但在真實的AI場景中,CPU真的已經「支棱」起來了嗎? 京東雲,選擇CPU 如果說當時在這個話題上,IEEE扮演了“嘴替”,是在幫那些AI應用實踐的先行者們發聲 ,那麼這種發聲,確實又吸引或帶動了更多實幹者來驗證這種可行性。 他們如今已經可 以給出一個確定答案,即在許多AI推理的場景中,CPU已經能很好地上崗了。 例如中國公有雲服務器市場的翹楚例如中國公有雲伺服器市場的翹楚京東 雲,它pick的 便是最新的 第五代英特爾® 至強® 可擴充處理器 。 具體而言,是在其新一代京東雲端伺服器上搭載了這款高階CPU。 話不多說,我們直接先來看效果。 首先,從整體來看,新一代京東雲端伺服器的整機效能最高提升了23%! 除此之外,在AI推理方面的表現也是Up Up Up。 電腦視覺推理:表現提升38% Llama 2推理:性能提升51% 而之所以能有如此突破,核心就是第五代英特爾® 至強® 可擴展處理器內建的AMX(高 階矩陣擴充)技術對AI的加速能力。 英特爾® AMX 是針對矩陣運算推出的加速技術,支援在單一操作中計算更大的矩陣,讓 生成式AI 更快運作。 一言以蔽之,你可以把它當作內建在CPU中的Tensor Core。 展開來說, AMX引入了一種包含兩個組件的新矩陣處理框架,包括二維的寄存器文件,它 由被稱為“tile”的寄存器組成;另一個是一系列能夠在這些tile上執行操作的加速器。 在這些技術的加持之下,以向量檢索為例,當處理n個批次的任務時,需要對n個輸入向量 x和n個資料庫中的向量y進行相似度比較。 這一過程中的相似度計算涉及到大量的矩陣乘法運算,而英特爾® AMX能夠針對這類需求 提供顯著的加速效果。 https://tinyurl.com/bdzdkax9 △英特爾® AMX架構 在提升模型效能的過程中, 英特爾® oneDNN 作為AMX的軟體搭檔,可為操作者提供一種 高效的最佳化實現方式。 開發者只需呼叫MatMul原語,並提供必要的參數,包括一些後處理步驟,oneDNN便會自動 處理包括配置塊寄存器、數據從內存的加載、執行矩陣乘法計算以及將結果回寫到內存等 一系列複雜操作,並在最後釋放相關資源。 這種簡化的編程模式顯著減輕了工程師的編程負擔,同時提升了開發效率。 透過上述軟硬結合的最佳化措施,京東雲端新一代伺服器就可以在大模型推理和傳統深度 學習模型推理等場景裡提供能滿足客戶效能和服務品質(QoS) 需求的解決方案,同時還可 以強化各種CPU本就擅長的通用運算任務的處理效率。 僅就大家關心的大模型推理而言, 已經能用於問答、客服和文件總結等多種場景。 https://tinyurl.com/45vjymn7 △Llama2-13B推理性能測試數據 而且除了效能上的最佳化之外,由於搭載了英特爾® AMX等模組,新一代京東雲端伺服器 也可以更快地回應中小規模參數模型,把成本也狠狠地打了下去。 你以為這就結束了? 英特爾CPU為新一代京東雲端伺服器帶來的好處,可不僅涉及推理加 速和成本,更可靠的安全防護也是其獨到優勢之一。 基於新款處理器內建的 英特爾® Trust Domain Extension (Intel® TDX)技術,京東 雲在不改變現有應用程式的情況下,就能建構基於硬體設備的可信任執行環境(Trusted Execution Environment,TEE)。 英特爾® TDX透過引入 信任域 (Trust Domain,TD)虛擬環境,利用多密鑰全記憶體加 密技術,實現了不同TD、實例以及系統管理軟體之間的相互隔離,讓客戶的應用和資料與 外部環境隔離,防止未授權訪問,且效能損耗較低。 總的來說,英特爾CPU上的這項技術,是從硬體、虛擬化、記憶體到大模型應用等多個層 面,為新一代京東雲端伺服器的資料和應用保密提供了可靠支撐。 重新發現CPU的價值 AI進入2.0時代,所有應用都值得重寫一遍已逐漸成為共識。 如果站在算力基礎設施的視野重新檢視這場變革,還能發現這樣一個新趨勢:推理算力越 來越被重視起來。 也就是隨著大模型應用場景的日益豐富,對推理階段的效能要求也變得更高且多樣化。 一方面,即時性強、時延敏感的終端側場景需要盡可能短的反應時間; 另一方面,並發量大、吞吐量高的雲端服務則需要強大的批次能力。 同時,針對不同硬體平台、網路條件的推理適配也提出了更複雜甚至帶有不同前置條件的 要求。 如此一來,先前在硬體上的單一「審美觀」就被改寫,本來就主攻通用計算、能在整個AI 的協同編排中扮演重要角色,又能擼袖子自己上、兼顧AI加速,同時還有更多「才藝」、 應用適配也更為靈活,相比GPU或專用加速晶片獲取更容易,且已部署到無處不在的CPU, 其價值也被重新發現,這一切都順理成章。 相信隨著軟硬體適配的不斷深入,以及雲端端協同的加速落地,CPU還有望在AI,特別是 AI推理實踐中找到更多的用武之地,發揮更大的應用潛力。 可以預見,高性能、高效率、高適應性的CPU,在大模型越來越捲的時代,依舊是可靠的 選擇。 這一點,會有更多人因為實踐,而見證。 最後讓我們打個小廣告:為了科普CPU在AI推理新時代的玩法,量子位開設了 《最「in」 AI》 專欄,將從技術科普、產業案例、實戰優化等多個角度全面解讀。 我們希望透過這個專欄,讓更多的人了解CPU在AI推理加速,甚至是整個AI平台或全流程 加速上的實踐成果,重點就是如何更好地利用CPU來提升大模型應用的效能和效率。 --
※ 批踢踢實業坊(ptt.cc), 來自: 114.38.31.13 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1711858996.A.736.html

AnXD : 我只相信股價 03/31 12:51

motan : 太可怕了,美國要禁售中國嗎 03/31 12:57

fedona : 沒空 03/31 13:01

kissa0924307: 哪為何只禁輝達GPU賣中國? 03/31 13:07

kyle5241 : 那還不趕快禁intel cpu進中國嗎? 03/31 13:07

zonezone : 土共文章少看點,真那麼行Intel早飛天了 03/31 13:25

qwe78971 : 整篇就是在吹intel cpu 真那麼棒大家早改搶買cpu 03/31 13:27

qwe78971 : 而不是n卡GPU了 騙騙外行人還行 講出來只會被笑 03/31 13:27

pot1234 : 不會變memory bound嗎? 03/31 13:41

michelin4x4 : 問 就是你沒cuda, 而且nv 還不想給你轉譯 03/31 13:42

OSDim : 嗯嗯很棒== 03/31 13:45

derekjj : 英特兒都快變成印特兒了 只會出一張嘴 笑死人 03/31 13:47

xam : IEEE以前有在考慮供應鏈的供需的問題嗎? 03/31 13:54

yugi2567 : IEEE被綁架? 03/31 14:44

lavign : 自己和自己比,新品效能增加不是廢話嗎 03/31 14:50

holmes006 : 支稜嘴替是什麼意思 03/31 15:07

NTUOnline : 我本來以為作者是在Intel工作,但看起來不是XD 03/31 15:08

NTUOnline : https://spectrum.ieee.org/ai-cpu 03/31 15:08

NTUOnline : 裡面也有談到Intel的Q8-Chat LLM XDD 03/31 15:12

lavign : IEEE Spectrum (IF0.94) 03/31 15:14

Max112358 : inference用cpu沒問題,training就沒辦法 03/31 15:17

howzming : NV不也是理解到這趨勢,不然怎麼會想做CPU. 03/31 15:58

shooter555 : 不衝突啦 Xeon scalable配上fpga 再配nv 的gpu 反 03/31 16:24

shooter555 : 正一張也不夠快 03/31 16:24

shooter555 : Pcie 多開幾個插好插滿 03/31 16:26

refusekkk : 理論吹半天 NV出貨有跌嗎? 03/31 16:34

Homeparty : max講的是對的 03/31 16:34

pacino : 快點去跟嘴砲王報到 03/31 16:41

FlyBird : 看不懂捏,GPU不就是為了矩陣乘法誕生的嗎?現在說C 03/31 17:01

FlyBird : PU可以一樣強? 03/31 17:01

ideal5566 : 所以贏GPU了嗎 我就問 03/31 17:31

johnjohnlin : 本文章由intel贊助播出 03/31 18:16

btpeter : GPU本來就不是AI應用或者LLM的唯一選擇 只是chatGPT 03/31 18:32

btpeter : 橫空出世 微軟用的就是NV的GPU 去training 然後老 03/31 18:32

btpeter : 黃很會炒話題 供應鏈 跟出貨搭配他的的庫存抬高價 03/31 18:32

btpeter : 錢 才會造成目前現在的情形 老黃也不是白癡 很會炒 03/31 18:32

btpeter : 股跟玩供應鏈這種手段 跟前幾年被動元件國巨一樣…. 03/31 18:32

btpeter : AI 應用的硬體 CSP 一堆都在研究ASIC FPGA 等解決 03/31 18:32

btpeter : 分案 Nv能紅就這幾年…一堆CSP也不是白癡…. 03/31 18:32

loking : 講的京東雲有得選一樣 03/31 19:22

youkiller : intel...這家公司沒聽過@@ 03/31 19:27

Lipraxde : BW bound 的關係才有 CPU 出場的機會,講的世紀大 03/31 19:42

Lipraxde : 發現一樣,騙騙外行人罷了 03/31 19:42

seanidiot : 酸葡萄 03/31 20:07

ck960785 : 比transformer 還好的架構出來,你intel CPU就得下 03/31 20:15

ck960785 : 去 03/31 20:15

rogergon : 翻譯:第一名拿不到,你還是可以唸到畢業 03/31 20:32

keelungReeve: 接下來要吹riscv嗎 03/31 20:37

howzming : 到了GPT-5階段,該訓練的資料應該都有了,也找不到 03/31 22:28

howzming : 更多的資料,所以現在的發展趨勢是走向推理. 03/31 22:29

howzming : 推理就不一定要強大的GPU了. 03/31 22:30

buster520798: CPU for AI training and inference? 04/01 00:22

paxetin : Train到天荒地老 04/01 02:21

misomochi : 急了 04/01 02:40

mmonkeyboyy : transformer 裡面要什麼都還搞不懂 就在這吹XD 04/01 04:49

jpwd : 這那國翻譯? 04/01 05:50

jhangyu : 不用訓練?在講甚麼笑話? 04/01 07:24

brightest : Cpu也可以做矩陣加速 也不會有gpu cpu溝通的問題 04/01 08:33

rodion : 一堆詭異用語 牆國專用版翻譯? 04/01 08:46

riotssky : 中國用語可以翻譯一下嗎 04/01 13:38

darkangel119: 歐好棒 快歐印 04/01 15:58

tpegioe : 未轉換為本國用語,難讀 04/01 16:50

您可能感興趣