看板PC_Shopping
作者放出教學文了
https://www.youtube.com/watch?v=H9oaNZNJdrw
要開二個BIOS選項,above 4G encoding & resize-bar
1. 裝ROCm
2. pytorch
3. stable diffusion
=========
我上次放出影片時有試,ROCm是有裝成功了,但是在pytorch pipe = pipe.tocuda,這裏跑了一小時也沒反應,
不知是否因為沒開上面的BIOS選項原因,
先等一陣子看有沒有人成功再試較好,這個就窮人的GPT,stable diffusion,算圖還是比GPU慢,
不過Windows能用話,又容易安裝就不錯,許多玩家就玩票性質而已
: https://medium.com/@ttio2tech_28094/democratize-ai-turn-a-95-chip-into-a-16gb-vram-gpu-beats-most-of-the-discrete-gpus-51a8636a4719
: I have tested both training and inferencing for:
: A: Stable diffusion, text inversion training.
: B: LLM. LlaMA fine tuning (lora).
: ....
: 似乎比CPU快些
: https://www.youtube.com/watch?v=HPO7fu7Vyw4
: 有APU的人可以試試,想小玩的人也不用完大錢買NV的顯示卡
: 但是GPU還是較快
: -----
: 一些閒聊
: https://old.reddit.com/r/Amd/comments/15t0lsm/i_turned_a_95_amd_apu_into_a_16gb_vram_gpu_and_it/?sort=qa
: AMD 4600G/5600G的APU被低估了,這代給太多了
--
APU較快
※ 批踢踢實業坊(ptt.cc), 來自: 118.166.100.125 (臺灣)※ 文章網址: https://www.ptt.cc/bbs/PC_Shopping/M.1693109141.A.42D.html
推 oopFoo: above 4G應該是關鍵。在linux裡mesa會直接 36.224.213.216 08/27 12:46
→ oopFoo: 忽略這個限制,直接使用。resize bar就很 36.224.213.216 08/27 12:46
推 sachialanlus: 我比較好奇的是 用 apu 的 igpu 去 123.194.148.19 08/27 18:33
→ sachialanlus: 跑 跟直接用 cpu 跑 哪個快? 123.194.148.19 08/27 18:33
→ oopFoo: 記憶體的頻寬限制住了,但igpu還是快點 219.70.128.119 08/27 21:00