※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1709471311.A.BDF.html
推 kaorucyc: 價差不大 大家也不會選F吧 59.126.242.85 03/03 21:14
推 fu1vu03: 16G是bios 最高設定嗎 211.76.58.165 03/03 21:15
→ Depthsharky: 現在就看8系的散熱膏時間久了會有影 61.228.72.26 03/03 21:15
→ Depthsharky: 響? 61.228.72.26 03/03 21:15
→ scarbywind: 你要小玩不如去試試網路上提供的.. 220.132.56.3 03/03 21:17
推 oppoR20: 反正個人市場小成這樣 i皇也不怕223.139.128.186 03/03 21:20
→ oppoR20: Intel未來趨勢是靠NPU吧223.139.128.186 03/03 21:29
→ tomsawyer: intel one系列sdk跟mpi很猛 1.200.168.64 03/03 21:33
→ mayolane: 拿8600G打13400會不會有點欺負人 1.161.99.133 03/03 21:33
→ mayolane: 拿個135H比才對吧 1.161.99.133 03/03 21:33
推 kaj1983: mtk的wifi網卡評價現在變好了嗎? 218.166.6.141 03/03 21:39
推 james725twtw: 指RZ616嗎 180.218.40.23 03/03 21:41
→ narukaza: 說到MTK,他們最近的進步幅度,連高通 114.34.174.204 03/03 21:43
→ narukaza: 都瑟瑟發抖(? 114.34.174.204 03/03 21:43
推 kaj1983: 是往好的發抖還是... 218.166.6.141 03/03 21:44
→ narukaza: 4+4+0打爆高通1+5+2架構(超大核、大核 114.34.174.204 03/03 21:50
→ narukaza: 、小核),而且能耗比還更高...高通都嚇 114.34.174.204 03/03 21:50
→ narukaza: 尿了 114.34.174.204 03/03 21:50
推 IPhoneXVI: Intel不是有OneAPI? 220.142.25.211 03/03 21:52
推 SHR4587: Stable diffusion看測試應該是RDNA3發威 220.136.26.125 03/03 22:02
→ SHR4587: 而不是NPU吧 ? 220.136.26.125 03/03 22:02
→ SHR4587: PC上的NPU目前不知道能尬麻就是了 220.136.26.125 03/03 22:03
推 kira925: PC上的NPU是讓你執行變快 不是訓練 220.135.86.145 03/03 22:08
推 james725twtw: 手機的也一樣啊,三星也有生成式的 180.218.40.23 03/03 22:10
→ james725twtw: 手機應用 180.218.40.23 03/03 22:10
→ james725twtw: PC上的主要是為了Copilot吧 180.218.40.23 03/03 22:11
→ scarbywind: 這種ST你也跑不了訓練 220.132.56.3 03/03 22:21
→ scarbywind: 手機npu比pc還久吧 修照相圖跟語音助 220.132.56.3 03/03 22:21
→ scarbywind: 理 220.132.56.3 03/03 22:22
→ scarbywind: 一分鐘才能算一張圖的水準你還要跑訓 220.132.56.3 03/03 22:22
→ scarbywind: 練 220.132.56.3 03/03 22:22
→ NoneWolf: 有NPU=就能用=會變快 這邏輯呵呵 36.225.195.173 03/03 22:29
推 qwe753951: ROCM就是用內顯跑,XDNA的驅動還沒好 42.76.168.92 03/03 22:35
→ qwe753951: 異構運算超難寫,這NPU加進去是變快變 42.76.168.92 03/03 22:37
→ qwe753951: 慢還不好說呢 42.76.168.92 03/03 22:37
推 johnpisces2: 這不錯阿 這樣搭個48G*4的消費級顯 36.234.194.238 03/03 22:37
→ johnpisces2: 存,特定應用可以啊 36.234.194.238 03/03 22:37
推 tsubasawolfy: Intel內顯要玩sd要等桌面版用arc架 61.227.8.145 03/03 23:04
→ tsubasawolfy: 構的。因為Arc獨顯現在用IPEX跑還 61.227.8.145 03/03 23:04
→ tsubasawolfy: 比AMD的卡快。 61.227.8.145 03/03 23:04
→ god145145: AMD AI等7月底才知道有什麼好應用 114.26.25.168 03/03 23:16
推 kkcity59: 一分鐘才出一張512x512...而且是SD 1.5 114.36.242.200 03/03 23:38
→ kkcity59: 如果用上SDXL+Controlnet幾乎就沒可用性 114.36.242.200 03/03 23:38
→ kkcity59: 我覺得起碼要有一定效率才有玩的動力 114.36.242.200 03/03 23:39
推 kkcity59: 如果是這樣上網一堆生圖的網站快得多 114.36.242.200 03/04 00:46
→ kkcity59: 幾乎都有每日十幾張的免費生成數量 114.36.242.200 03/04 00:46
推 chang1248w: 新世代文書機? 114.137.67.14 03/04 00:47
→ kkcity59: 要自己生圖的目的是作"精確的控制" 114.36.242.200 03/04 00:47
→ kkcity59: 要做的這一點反覆的生成是必須的 114.36.242.200 03/04 00:47
→ kkcity59: 如果只是玩一玩就用網站免費的 114.36.242.200 03/04 00:47
→ kkcity59: 一分鐘一張SD 1.5的512x512真的沒實用性 114.36.242.200 03/04 00:48
→ gbcg9725: 免費的玩玩bing 很夠了 106.64.97.134 03/04 00:49
→ kkcity59: 如果要出一張SDXL 1024+Highres插件 114.36.242.200 03/04 00:49
→ kkcity59: 大概就要十分鐘囉 114.36.242.200 03/04 00:49
→ kkcity59: 如果要加上些Controlnet控制 114.36.242.200 03/04 00:50
→ kkcity59: 一小時都不見得出得出來幾張圖 114.36.242.200 03/04 00:50
推 kkcity59: 這樣說光架設出Stable Diffusion平台 114.36.242.200 03/04 01:18
→ kkcity59: 就根本不是一般人會去幹的事情吧 114.36.242.200 03/04 01:18
→ kkcity59: git,python,加上webui或者forge交互頁面 114.36.242.200 03/04 01:19
→ kkcity59: 這樣的預設前提本身就太奇怪了 114.36.242.200 03/04 01:19
→ kkcity59: 花費一大番功夫幾十GB空間後用8600G開算 114.36.242.200 03/04 01:22
→ kkcity59: 然後要算出像是copolit那樣精美的圖片 114.36.242.200 03/04 01:23
→ kkcity59: 一張大概要二十分鐘吧 114.36.242.200 03/04 01:23
→ kkcity59: 等候二十分鐘不見得還是你想要的結果 114.36.242.200 03/04 01:24
推 oopFoo: AMD的NPU根本都還沒有支援,DirectML目前 219.70.128.119 03/04 06:13
→ oopFoo: 只支援intel的,AMD的還在開發中。ROCM的 219.70.128.119 03/04 06:14
→ oopFoo: roadmap也還沒看到npu的支援。 219.70.128.119 03/04 06:16
→ oopFoo: 最新消息是,win11的工作管理員可以看到 219.70.128.119 03/04 06:19
→ oopFoo: AMD的NPU了,總算是開始了。到底什麼時候 219.70.128.119 03/04 06:20
→ oopFoo: 可以用?AMD到現在還沒給個說法。 219.70.128.119 03/04 06:20
→ oopFoo: https://reurl.cc/979rDX 219.70.128.119 03/04 06:23
→ oopFoo: Intel的NPU現在可以在Pytorch玩了。ARC也 219.70.128.119 03/04 06:25
→ oopFoo: 支援Pytorch沒多久,NPU就支援上了。NPU 219.70.128.119 03/04 06:26
→ oopFoo: team的效率實在很高,不過也是NPU架構非常 219.70.128.119 03/04 06:26
→ oopFoo: 簡單。 219.70.128.119 03/04 06:26
推 oopFoo: 目前npu只是功耗佳。igpu的效能還是贏。 219.70.128.119 03/04 06:41
推 SHR4587: 手機上的AI功能一堆都要連網,那NPU到底 220.136.26.125 03/04 06:50
→ SHR4587: 有洨用我很懷疑,桌面端目前看起來GPU還 220.136.26.125 03/04 06:50
→ SHR4587: 是比較強…… 220.136.26.125 03/04 06:50
推 as920909: CPU生圖速度現在部分筆電評測都會做 36.225.162.233 03/04 07:29
推 tsubasawolfy: 要吐槽的點大概就是為何AMD特別用 61.227.8.145 03/04 07:39
→ tsubasawolfy: ROCM, 但Intel沒用OpenVINO。今年 61.227.8.145 03/04 07:39
→ tsubasawolfy: 十月Intel會推出原生支援PyTorch 61.227.8.145 03/04 07:39
→ tsubasawolfy: 的東西,到時候連IPEX都省了。另外 61.227.8.145 03/04 07:39
→ tsubasawolfy: 我覺得這類型的運用應該是在windo 61.227.8.145 03/04 07:39
→ tsubasawolfy: ws輔助的AI層面。你說的那種小需求 61.227.8.145 03/04 07:39
→ tsubasawolfy: 沒必要先去讀天書自己裝一堆有的沒 61.227.8.145 03/04 07:39
→ tsubasawolfy: 的。 61.227.8.145 03/04 07:39
推 oopFoo: npu當初設定根本沒考慮sd,gpt的運用,這 219.70.128.119 03/04 08:14
→ oopFoo: 兩年gen AI大爆發是沒料到的事。npu的性能 219.70.128.119 03/04 08:15
→ oopFoo: 目前是不足的,等二代或三代,或AI優化到 219.70.128.119 03/04 08:16
→ oopFoo: 位為止。現在錢滾進AI,AI優化應該是有機 219.70.128.119 03/04 08:16
→ oopFoo: 會大躍進。npu目前真只是玩具而已。 219.70.128.119 03/04 08:18
推 hzaxcp386: 要玩SD還是得乖乖買NV的卡,沒辦法產 114.136.85.156 03/04 12:53
→ hzaxcp386: 圖速度差太多,手上有3050 laptop 跟 114.136.85.156 03/04 12:53
→ hzaxcp386: RX570就差很多,directml 跟CUDA效率 114.136.85.156 03/04 12:53
→ hzaxcp386: 還是差太多 114.136.85.156 03/04 12:53
推 annboy: Stable diffusion 訓練也是8卡起跳 114.137.167.55 03/04 15:45
→ annboy: PC基本上就只能推論跑圖 114.137.167.55 03/04 15:45
推 tcchu: npu用在自駕比較多啊 但算力還是在中低端 1.200.150.242 03/04 20:03
→ tcchu: 短期內應該做不到L3 1.200.150.242 03/04 20:03
推 donnyyy: 訓練不是從零開始是拿現成模型來train 114.36.214.15 03/04 20:45
→ donnyyy: 素材選的好甚至二三十張圖就有效果 114.36.214.15 03/04 20:46
→ donnyyy: 很多人就是用3060之類來train自己的模型 114.36.214.15 03/04 20:50
→ as920909: 那個叫做fine-tune 36.225.162.233 03/04 20:58