[選購] 輕量型Local端大語言模型(LLM)開發筆電 (內有選手)

看板 nb-shopping
作者 sssh (叫我松高魂 ~~)
時間 2024-07-05 11:36:42
留言 20則留言 (7推 1噓 12→)

因工作需求,之後會進行本地端大語言模型相關開發, 我知道如果文本量大,或是遇到較長 Token 筆電可能還是無法負荷, 因此這台筆電的定位大概會是在 PoC 階段使用的開發機 目前有下列兩台考慮中 : 1. ROG Strix G16 i9-13980/RTX4080-12G/32G可支援到64G 2. Razer Blade 15 Advanced i7-12800/RTX3080ti-16G/32G 先不論重量及外型,基本上就是工作用 雷蛇 Blade 15 Advanced 3080ti 有 vram 16G 但記憶體最大僅支援到 32G 且 CPU 使用的是 i7 但 ROG Strix G16 用的是 4080 犧牲了一點 vram 但可以換得最大記憶體支援到 64G 跟 i9 CPU 兩者價格差不多 請問各位大大們會怎麼選啊啊啊啊啊~~~~~~ (選擇障礙中) -- 感謝提醒 感謝各位前輩推薦 !
※ 批踢踢實業坊(ptt.cc), 來自: 118.163.81.128 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/nb-shopping/M.1720150605.A.EC2.html

Pegasus99: 不能貼賣場連結喔~ 複製規格下來貼就 1.200.67.171 07/05 12:51

Pegasus99: 好 1.200.67.171 07/05 12:51

Pegasus99: 然後我會選4080 擴充性大且不過時 1.200.67.171 07/05 12:52

Pegasus99: 除非你對重量有需求 畢竟兩者差半公斤 1.200.67.171 07/05 12:54

mrme945: 跑LLM就是VRAM先決,VRAM不夠是連跑的資 111.71.212.124 07/05 13:29

mrme945: 格都沒有,你核心再快都沒用,消費級顯卡 111.71.212.124 07/05 13:29

mrme945: 能跑個3B就要偷笑了 111.71.212.124 07/05 13:29

weiyuhsi: VRAM重要性遠大於其他 114.136.229.16 07/05 14:14

gbcg9725: 要用筆電跑ai要有雲端或外接顯卡的心理 27.242.128.23 07/05 14:22

gbcg9725: 準備了,vram不夠直接oom給你看 27.242.128.23 07/05 14:22

gbcg9725: 盡量選vram大的就對 27.242.128.23 07/05 14:27

AmigoSin: 跑不動除非你用cpu去跑 114.136.49.77 07/05 15:43

pirrysal: 只有中國有賣天選5 pro 4060 16GVRAM的 1.162.37.220 07/05 16:25

pirrysal: 跑這個要看顯卡VRAM,至少16G起跳 1.162.37.220 07/05 16:26

aoopz: vram 先決 111.82.219.40 07/05 17:18

truthmanman: 選 vram 大的 211.72.195.139 07/05 17:30

gbcg9725: 筆電4060有16g vram?第一次聽說 27.242.128.23 07/05 17:46

JLINlikeshit: 我也沒看到耶,如果有16g 我會買來 111.83.132.232 07/05 18:27

JLINlikeshit: 玩看看 111.83.132.232 07/05 18:27

pirrysal: 天選5pro 4060 16G淘寶貨很少 要找 1.162.38.9 07/07 13:27

您可能感興趣