[情報] AMD正在開發NVIDIA DLSS的跨平台替代方案

看板 PC_Shopping
作者 oppoR20 (R20)
時間 2020-11-01 11:37:09
留言 127則留言 (25推 0噓 102→)

據報導AMD正在開發NVIDIA DLSS的替代方案,並且將會是開放和跨平台 https://bit.ly/320Srjs -- AMD當前正在測試一項新的深度學習超高取樣功能,該功能旨在提高光線追蹤的性能。 https://i.imgur.com/Ez5POTV.png
根據The Verge的說法,此功能是NVIDIA DLSS功能的替代產品,並且將是開放和跨平台的 ,因此可能會推出到由AMD提供技術的PlayStation 5和Xbox SeriesX上。但是此功能可能 還有很長的路要走,因為它無法針對目前發布Radeon RX 6000的卡來做使用,而該卡將在 未來幾週內發布。 此前NVIDIA在三月份發布了DLSS 2.0。該功能由RTX系列GPU的Tensor核心提供支援,是一 種AI驅動的影像重建技術,可在不影響性能的情況下顯著改善視覺效果。包括Death Stranding和Ghostrunner在內的幾個最新遊戲都使用DLSS 2.0提供了前所未有的視覺品質 。 儘管AMD承諾將在4K遊戲及更多領域與NVIDIA並駕齊驅,但這場戰役最大的遺憾之一就是 缺少與NVIDIA的DLSS相當的產品。NVIDIA的AI驅動的深度學習超高取樣技術已經為支援該 技術的遊戲帶來了革命性的變化,只需切換遊戲設置即可帶來出色的影像品質和更高的 FPS。 AMD Radeon RX 6800 XT和RX 6800卡將於11月18日發布,而Radeon RX 6900 XT與NVIDIA GeForce RTX 3090相對應,將於12月8日發布。 -- 蘇媽大噴發 阿姨我不想努力了 這樣以後老黃的對手會越來越精明 好精彩 讓我們繼續看下去 -- https://i.imgur.com/ti8LmSx.jpg https://i.imgur.com/3V8MFbS.png
https://i.imgur.com/TKKm9DO.jpg https://i.imgur.com/qqcwtj6.jpg
https://i.imgur.com/s2M8J3L.jpg https://i.imgur.com/P9blBWv.jpg
https://i.imgur.com/Ajd4i3P.jpg https://i.imgur.com/8PZvlO5.jpg
https://i.imgur.com/8sBrIQv.png https://i.imgur.com/31PKjTu.jpg
--
我自己讀的時候我有看懂是這個意思 只是很不通順XD 然後這篇應該是抄驅動之家的 一樣爛
※ 批踢踢實業坊(ptt.cc), 來自: 140.125.222.156 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1604201835.A.B91.html

kashima228 : https://i.imgur.com/jvBY2JZ.jpg11/01 11:42

kuma660224 : 它有家機+PC,甚至未來手持SOC客戶 11/01 11:43

kuma660224 : 當研發分母 11/01 11:44

leviathan415: 驅動值5000? 11/01 11:48

FXW11314 : AMD上一個喊開放的ROCm到現在還是涼涼的11/01 11:51

henry46277 : 基本上應該是要等2021才出來了吧11/01 11:58

kk4789 : 現在才正在開發已經晚了11/01 12:02

arrenwu : 如果是PS5和XSX能用的話 現在做也不晚吧11/01 12:06

arrenwu : 如果這是用Deep Network的作的 看起來不用太久?11/01 12:06

kashima228 : 人家是正在開發 不是準備開發好啦11/01 12:09

ronald279 : AMD YES11/01 12:17

leo255112 : Lisa Su 會不會是史上最傳奇的AMD CEO啊,太神了11/01 12:30

leo255112 : 吧11/01 12:30

darkdixen : AMD大量招募軟體工程師很久啦11/01 12:41

Fezico : 蘇媽這個弄出來超划算,家機市場基本上就被紅軍綁死11/01 12:42

windjammer : AMD也要有獨立硬體做這塊阿 不然FPS照樣掉11/01 13:00

ksng1092 : DLSS替代方案...用來提高光追性能?11/01 13:08

nicholassys : 考慮到dlss很難選amd11/01 13:12

Luciferspear: 好消息11/01 13:12

kuma660224 : 這要看用什麼觀點 專用硬體佔電晶體11/01 13:15

kuma660224 : AMD應該傾向優化AI用指令在既有CU11/01 13:15

kuma660224 : 透過DirectML去實作AI介入的upscale 11/01 13:16

kuma660224 : 這樣能沿用既有運算資源11/01 13:16

kuma660224 : 不會有軟體不支援 專用硬體就浪費的問題 11/01 13:17

kuma660224 : 不做專用硬體 同面積可塞更多泛用ALU 11/01 13:18

kuma660224 : 兩種路線都有利有弊 11/01 13:18

windjammer : 有道理 如果能共用的話效率是最好的11/01 13:19

kuma660224 : AI部分弱的 可從其他部分加強追回來11/01 13:19

kuma660224 : 最後還是看整體方案配套的大水庫效益11/01 13:20

kuma660224 : 現代GPU搞成大量泛用運算 其實就是11/01 13:20

kuma660224 : 因為以前繪圖晶片太多種專用線路11/01 13:21

kuma660224 : 很多功能只有某些軟體在某些工作才用到11/01 13:21

kuma660224 : 大部分時後閒置,浪費空間成本11/01 13:21

kuma660224 : 所以趨勢仍是加強泛用化11/01 13:22

kuma660224 : 但某些工作短期還無法靠泛用指令幹掉時11/01 13:23

kuma660224 : 才塞沒啥彈性的專用硬體暫時解決11/01 13:23

kuma660224 : 用泛用單位塞加速指令會較能下放低階11/01 13:26

Castle88654 : 會限定套裝加乘嗎11/01 13:26

AKSN74 : 同意kuma大觀點,其實更近的例子看RT就知道了11/01 13:39

AKSN74 : 讓各家都開始能夠支援RT也是DX12U推出後才得到響應11/01 13:40

AKSN74 : 在更早之前,NV買下PhysX原本也是為了在遊戲物理運11/01 13:41

AKSN74 : 算能夠得到強化,但最終還是玩不過Havok等直接用傳11/01 13:41

AKSN74 : 統運算去處理11/01 13:41

AKSN74 : 通用化才比較能讓廠商願意廣泛採用 11/01 13:43

robocon : 下ㄧ世代主機應該會開始帶動光追全面普及化吧,最11/01 14:33

robocon : 後再反饋回桌面晶片跟軟體開發11/01 14:33

a2935373 : 這一代會慢慢開始吧 如果有半代主機可能就會更多?11/01 14:37

cocowing : RX6000無法使用,這樣還期待架構一樣的家機幹嘛11/01 15:12

cocowing : DLSS用來玩控制,FPS提升真的誇張,畫質和原生4K看不11/01 15:13

cocowing : 出什麼差異11/01 15:13

cocowing : 如果沒DLSS,我也不知道AMD要怎麼彌補這40%的FPS差距11/01 15:14

SaltyFish102: A卡戰未來11/01 15:17

splong : 翻譯問題 原文是6000系列發售的時候新技術還不會好11/01 15:33

splong : 不過XF連這種國中生英文都會翻錯也不易外11/01 15:33

splong : https://tinyurl.com/yycqcnl9 倒數第二段最後11/01 15:35

killerking05: 蘇媽作家機也該有足夠經驗回饋了,期待競爭11/01 15:36

jior : 不知道何時才能實裝 11/01 15:50

a2935373 : 家機來說的話 搞不好塞顆upscaling的晶片更便宜11/01 16:20

AKSN74 : 家機一定會很希望有這功能,甚至協助開發 11/01 17:56

AKSN74 : 他們不這樣做久了玩家會倒戈 11/01 17:56

henry46277 : https://twitter.com/AzorFrank/status/13218089692 11/01 18:54

henry46277 : 83870721?s=20 11/01 18:54

henry46277 : 抱歉 請原 PO幫我刪一下樓上的連結 11/01 18:55

henry46277 : https://is.gd/pN2j5N 11/01 18:57

henry46277 : 這是 AMD 市場經理(應該是)的回覆 說是會在11/18前 11/01 18:57

henry46277 : 公開更多 光追和 超分辨率(AMD版 DLSS)的更多細節 11/01 18:57

henry46277 : 請拭目以待 11/01 18:57

jior : 不是,他就是那個外星人電腦的創辦人之一,現在也 11/01 19:25

jior : 是AMD的GPU架構首席 11/01 19:25

jior : 希望超採樣能快點實作 11/01 19:26

kuma660224 : 微軟已經拿RT行銷它新主機特性了 11/01 20:05

kuma660224 : 所以不用懷疑 這代應該可以普及 11/01 20:05

kuma660224 : 只是怕PS5的光追不夠強 11/01 20:06

kt333 : DLSS2.0基本上就是TAA反鋸齒的加強版,而且透過AI 11/01 21:01

kt333 : 重建圖像不僅消除TAA的嚴重模糊狀況跟動態閃爍問題 11/01 21:01

kt333 : FPS提升也很大,如果AMD拿不出類似的東西根本不能跟 11/01 21:02

kt333 : 老黃打 11/01 21:02

prag222 : 用mClassic 關反鋸齒 效果都差不多吧 11/01 21:06

prag222 : 還有畫質加強顏色對比功能 我玩QUAKE4搭MSI螢幕 11/01 21:07

prag222 : 那顏色色質感真的不錯 11/01 21:07

prag222 : 我有mCable搭amd顯卡根本沒差 11/01 21:09

kt333 : mClassic這個透過升頻,降低鋸齒跟銳化顏色跟DLSS 11/01 21:34

kt333 : 是不一樣的東西,在低解析度很有效再2K跟4K畫面 11/01 21:34

kt333 : 根本是安慰劑沒什麼用,況且你FPS根本不會提升 11/01 21:34

friedpig : 嗯 不是喔 dlss目前的確是做差不多的事情 只是AI 11/01 21:49

friedpig : 的升法會有憑空變出來的資訊 跟固定算法的up scale 11/01 21:49

friedpig : 不太一樣 不過憑空多的東西未必是好的就是了 11/01 21:49

AKSN74 : 能不能跟老黃打是一回事,開發商願不願意支援只有 11/01 21:55

AKSN74 : N卡上面才能跑的技術則是另一回事了 11/01 21:55

kt333 : mClassic只是單存升頻而已,就像是你模擬器那樣 11/01 22:31

kt333 : 提高解析度降低反鋸齒,DLSS細節差很多不只升頻 11/01 22:31

kt333 : 那們簡單而已,AI重建確實會多補一些奇怪的東西 11/01 22:31

kt333 : 但效果而言大家都是滿意的包掛我自己,用過自然 11/01 22:32

kt333 : 就懂為什麼要吹DLSS2.0,至於支援度我是不擔心 11/01 22:32

kt333 : 聽說3.0是可以直接套用在TAA上面,因為TAA太多 11/01 22:32

kt333 : 廠商在用了 11/01 22:32

friedpig : 2.0已經是無針對性的model了 對開發商而言已經沒啥 11/01 22:33

friedpig : 成本了 以前的還要特地給NV慢慢Train 11/01 22:33

AKSN74 : 那這樣的話AMD確實是要緊張一點了,不過比起AMD可能 11/01 22:48

AKSN74 : 家機在這方面可能更緊張wwww 11/01 22:48

AKSN74 : 我自己實測過後也是有發現3090真要像NV發表上說可上 11/01 22:50

AKSN74 : 8K也是要非常依賴DLSS 11/01 22:50

henry46277 : 沒有3.0 只有2.1 11/02 00:32

corelar : 繼續騙 11/02 09:09

kuma660224 : DLSS2不對遊戲trainning,因為原理 11/02 09:59

kuma660224 : 更像TXAA等後製了 11/02 09:59

kuma660224 : DLSS2的前身 甚至沒用TensorCore 11/02 10:01

kuma660224 : 新原理是基於時序資料重建 屬於後製 11/02 10:01

kuma660224 : 用前幾個frame資料 加入推算 11/02 10:02

kuma660224 : 所以也無法做什麼訓練 11/02 10:02

kuma660224 : 後來正式推廣版加入TensorCore協助 11/02 10:02

kuma660224 : DLSS1才是更傳統AI,用圖片訓練演算法 11/02 10:07

kuma660224 : 試著修復失去的細節 11/02 10:07

kuma660224 : DLSS2算是半放棄那低能方式 11/02 10:08

kuma660224 : 直接跟引擎要前幾影格的動態向量圖 11/02 10:09

kuma660224 : 用多影格的舊資訊重建得到新影格資料 11/02 10:09

kuma660224 : 不是像DLSS1用AI想要無中生有 11/02 10:10

kuma660224 : DLSS2的資料是前幾frame實際存在的 11/02 10:11

kuma660224 : 用算法去找出來 補到當前frame 11/02 10:11

kuma660224 : 其實你把upscale算法加上時序等資料 11/02 10:13

kuma660224 : 結果及原理就87%像 11/02 10:14

kuma660224 : 堅持叫DLSS也算是一種行銷 11/02 10:14

kuma660224 : 這蠻有可能不用TensorCore也能實作 11/02 10:15

kuma660224 : 弄翻倍的FP16甚或某種專用指令 11/02 10:16

kuma660224 : 效率大概也差不多 11/02 10:16

kuma660224 : 它大部分提速不是來自於用TensorC 11/02 10:17

kuma660224 : 而是來自繪圖解析度降低到25-50%的結果 11/02 10:17

您可能感興趣