看板Tech_Job
現在業界單純說AI晶片是太籠統的說法了,
為了獲得最高效能與最高CP值,
業界把AI晶片細分成以下幾類,
1. Training 訓練:
這是目前業界最難做的部分,
目前只有Nvidia 跟 Google TPU 有量產並且是大規模用在資料中心,
基本上Training 需要用到的算力是Inference 的百倍到百萬倍以上,
這塊主要是用大量的資料來訓練出最佳深度學習模型
2. Inference 推理:
這塊是目前大部分的公司與新創公司最想要做的部分,
畢竟算力要求比Training低很多,
但是需求的量卻是Training的百萬倍以上,
這塊也是你我大部分人每天在接觸的AI晶片,
主要是拿已有深度學習模型來套用即時資料得到即時結果,
比方說手機裡頭的AI晶片: Google tensor, Huawei NPU 等,
監視器(尤其中國出產的)裏頭的即時人臉辨識, 天網系統,
自駕車裡頭的即時自駕運算晶片,
另一種說法,就是 edge computing,
當然Inference 推理不完全等於 edge computing,
因為很多資料中心還是會用Inference 推理晶片來做Training/Inference,
但是edge computing就一定是Inference,
然後ㄋ,這又可以因為演算法與應用的不同,
而又更細分不同應用的AI晶片,
目前最成熟也是最精準的就是影像應用的AI晶片,
精准度可到99.x%,
這也是中國最大力推動的部分,
例子就是我前面說的人臉辨識, 天網系統, 自駕車, 手機等,
目前你看到中國甚至是大部分的新創公司,都是做這塊,
中國甚至在一些地方可以得到更高的效能跟更精準的結果
但是還是有非常多不同的應用與需求,
比方說自然語言處理,
包含文字或是語音的處理,
這塊目前的發展就相對不理想,
不論是效能或是精準度都不理想,
不信你去玩一下一堆線上語音幫助系統,你就知道我說的,
但是這塊需求很大,
想想看接客服電話的工作就是個例子,
還有更多的應用,像是Ptt灌水機器人,
臉書發言省查系統等,
目前這塊只有Nvidia Google TPU兩家有晶片
然後還有一些非常特殊也相對冷門的AI晶片,
像是 youtube argos chip
https://9to5google.com/2021/04/22/youtube-google-custom-chip/
Smart NIC 等...
: 這我來回答吧
: AI晶片一般是指用來加速深度學習模型推理的晶片
: 如果是訓練通常還是利用Gpu 因為生態系比較成熟
: 那麼深度學習推理時間會耗在哪裡呢
: 通常就是convolution 或是Gemm
: 當然convolution 可以透過線性代數幾次的轉換
: 變成gemm 這也是一門學問
: 所以矩陣相乘等於是最重要的運算了
: 你只要能加速這麼簡單的東西
: 就能號稱你在做AI晶片了
: 不斷的堆硬體上去 性能就出來了
: 甚至有些公司走火入魔
: 連非矩陣運算的指令都做了
: 因為深度學習的模型越來越大
: 所以並行去運算矩陣相乘就是很重要的事了
: 你的硬體並行時 耗電跟降頻做得夠好的話
: 就能有點能見度了 現在中國的新創沒有一家做到的
: 所以就有一些人腦袋動到光計算上面
: 訊號轉成光能計算 算完再轉回電
: 但這非常的不穩定 基本上也是不可能回收成本
: 好了 你說這麼簡單的話 那也很容易啊
: 然而 深度學習在運行過程中 還有一個很大的耗損
: 就是算子與算子之間的資料傳輸
: 用硬體加速過後 每個算子的時間大幅縮短
: 但是彼此之間的memory copy仍然耗損嚴重
: 於是cache或是local memory變的異常重要
: 算子與算子之間的fusion做得好
: 搭配上速度夠快又大的memory基本上也很厲害了
: 中國那一堆新創耗電降頻不行
: 現在就往這方向拼命做
: 那麼AI晶片前景怎麼樣呢
: 老實說 前景是死路一條
: CPU GPU 大公司都在從自家指令來優化模型
: 或是直接配上特殊資料格式 如tf32 fp8
: 華為的c4比起來就是個花拳繡腿 還推行不起來
: 我現在底下50多人就在做未來的方向
: 從模型優化演算法 記憶體策略 框架
: 到底層assembly加速 完整的一套方案
: 如果你有關注一些新的paper
: 優化到最後 對比常用硬體 AI晶片根本沒有優勢
: 就像挖礦沒有收益時的礦機一樣
: 純電子垃圾
: ※ 引述《QQmickey》之銘言
: : 雖然從新聞上看到 三星已經出了 不知道是不是唬爛的
: : 自己也是理工背景 但是想問科技版的大大們
: : 這是真的嗎?
: : 我所學的 覺得不太可能
: : 雖然很多事很難講 已知用火
: : 諾貝爾物理獎也一堆錯的
: : 難道是神學
--
看你怎麼定義AI 晶片,
狹義定義當然Smart Nic 不是 AI 晶片,
廣義定義所有AI 晶片都是硬體加速器 Accelerator,
Smart Nic 當然算是Accelerator,
而且你也不知道Smart Nic 裏頭偷藏了甚麼東西,
搞不好主動幫你濾過關鍵字跟特定網站/ip,
充分展現天網價值
那個充其量就是個coprocessor,
類似neon, vfp這種,
跟專屬的tensor/NPU 比起來, 效能還是差很多,
edge 需求量很大, 尤其在中國, 你知道的,
全世界的手機現在幾乎都需要一顆影像處理AI晶片, 幾乎每家都有,
以後自駕車普及的話也是每台車要好幾顆這種即時影像處理晶片,
價格我不熟
以研發人員的進入門檻而言,
不論是data center 或是 edge computing 都是一樣的門檻,
就是CPU/GPU技術背景,
基本上目前全世界在做AI晶片的人都是做CPU 或 GPU出身的,
但是邊緣運算 絕對不是類CPU這麼簡單,
裏頭硬體設計最複雜的是多核處理(遠比CPU多很多得多核),
用數學的說法就是矩陣運算硬體實現,
還有 memory cache bus 等非常複雜
我只知道 Jim Keller 到這家公司當CTO,
其他的我不清楚
※ 批踢踢實業坊(ptt.cc), 來自: 24.5.140.67 (美國)※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1663469201.A.93F.html
推 Neistpoint : Smart Nic 也算? 09/18 12:35
→ OBTea : 這篇才符合現況啦,現在CPU和GPU是要和NPU/APU拼什 09/18 12:47
→ OBTea : 麼… 09/18 12:47
→ OBTea : 中國為了影像辨識AI晶片還去特刻監視器專用的sensor 09/18 12:55
→ brightest : ARMv9有一些為了AI的Extension ARM也想吃edge這塊 09/18 12:57
推 demonhell : Intel也有AI啊(Nervana/Habana)但爛到美國不禁運 09/18 13:01
→ demonhell : 中國就更多了,燧源/商湯/寒武紀都有投片,效能就.. 09/18 13:03
推 hsiliang : 推分享 09/18 13:16
推 hsiliang : 只不過中國掌權者真的很變態,徹徹底底的監控人民 09/18 13:18
→ hsiliang : 這些影像辨識系統有一大部分拿去維穩 09/18 13:19
推 xonba : 這篇比較正確 09/18 15:28
→ lalacos123 : 有大大知道AI晶片的需求量跟價大概是怎樣的概念嗎 09/18 15:51
→ lalacos123 : 例如跟CPU或GPU 車用包的話 09/18 15:51
推 mingshin1235: 不就邊緣運算 類CPU的東西啊 不過有特化而已 09/18 16:03
推 hank850503 : 那有誰知道 Tenstorrent 這家如何 09/19 04:10
推 QQmickey : 推 09/19 09:08
推 bxxl : 感覺跟CPU差很多吧, 比較像systolic array 09/19 22:27
推 mmonkeyboyy : 現在拚DSU比較有賺頭啦 09/20 00:33
→ mmonkeyboyy : 主要你演算法進步 資料進步 沒有ㄧ定能有賺頭的東西 09/20 00:34
→ mmonkeyboyy : IC很難下去的 09/20 00:34
推 vlstone : 推 09/21 00:36