Re: [新聞] AI「薪」貴!科技業祭出年薪200萬搶人才

看板 Tech_Job
作者 KILLE (啃)
時間 2019-12-09 15:45:01
留言 36則留言 (13推 1噓 22→)

-- 一年到了 來檢討下 *[1;37m推 *[33mguest0079*[m*[33m: 就好像在二十年前質疑網路是泡沫 理由是網卡公 司 *[1;31m→ *[33mguest0079*[m*[33m: 缺極少 *[1;37m推 *[33mmichaelgodtw*[m*[33m: 某英特爾出來的,到處說以後不用工程師,產 線 *[1;31m→ *[33mmichaelgodtw*[m*[33m: 完全ai *[1;31m→ *[33mmichaelgodtw*[m*[33m: 然後上面就聽的很高興,你講的跟他完全不一 樣 *[1;31m→ *[33mmichaelgodtw*[m*[33m: 家說他英特爾出來的說 *[1;31m→ *[33mcodotsun*[m*[33m: 看完文章只想問... 你真的有碰過AI嗎... *[1;31m→ *[33maiueokaki*[m*[33m: 很多都有賺錢了好嗎 而且為啥關鍵字是cuda… *[1;31m噓 *[33mMurasaki0110*[m*[33m: 又是一個鍵盤ai專家 *[1;37m推 *[33mw60904max*[m*[33m: 現在train的運算速度不是瓶頸 *[1;31m噓 *[33mvvind*[m*[33m: 你太執著在獲利前提是需要去改底層 *[1;37m推 *[33msimpleplanya*[m*[33m: 個人覺得滿有道理的 *[1;37m推 *[33myiefaung*[m*[33m: 熱錢湧入 大部分的人當然先卡位先賺 *[1;31m噓 *[33mMurasaki0110*[m*[33m: 吐槽點太多了啦。你要比也比成長幅度,cuda 和 *[1;31m→ *[33mMurasaki0110*[m*[33m: 職缺數? *[1;31m→ *[33mMurasaki0110*[m*[33m: cuda本來就是通用框架,當然很多和dl無關, 底 *[1;31m→ *[33mMurasaki0110*[m*[33m: 有cudnn ok? *[1;31m噓 *[33mblackrays*[m*[33m: 莊董 *[1;37m推 *[33mlovebridget*[m*[33m: 後金本位經濟型態本來就建築在泡沫上 *[1;31m→ *[33mlovebridget*[m*[33m: 世界最大公司亞馬遜都還沒獲利 還是世界最大 *[1;31m→ *[33mlovebridget*[m*[33m: 錢是無限的印 能一直吸引投資進來 錢就能無限 ? *[1;37m推 *[33mjosey822000*[m*[33m: 樓主在討論的是跟你們工程師不同層級的問題 *[1;37m推 *[33mzerobx*[m*[33m: 全世界AI跟台灣AI有沒有起來 這不一樣吧? *[1;37m推 *[33mvesta9*[m*[33m: 真要討論是不是泡沫,也是討論深度學習有沒有極限 。 *[1;31m→ *[33mvesta9*[m*[33m: a 職缺看出泡沫??外星層級的討論 *[1;31m→ *[33msnoopy790428*[m*[33m: 先說明一下ai定義好嗎 每個大老闆都在唬爛 *[1;31m→ *[33mmatyih*[m*[33m: 小弟剛好就是做cuda/ML的 關鍵字有cuda/openCL的灣 ? *[1;31m→ *[33mmatyih*[m*[33m: 搜到爛掉 就是NV,MS,Intel, AMD跟百度有一些 剩 下 *[1;31m→ *[33mmatyih*[m*[33m: 創或是很少的seinor職位,因為真的不需要這麼多人 做 *[1;31m→ *[33mmatyih*[m*[33m: 。 *[1;31m→ *[33mmatyih*[m*[33m: Don't reinvent the wheel 本滷同事 兩個科學家 在開發眼科研究(廢文)用工具 眼科照片圖象增強 底當然還是用傳統特徵提取 再混入深度學習 進步強化 眼科照 細節變好明顯喔 增強到工頭都不信那結果 這工具到底是給眼科醫師用的 他們拿這去發越多廢文 公司就越有名聲 機台就賣越好 所以於我這事業群 深度學習=一種行銷手法 這算有無營利.. 本滷毋能判斷 不過確定的是 現在別單位還真找人用CUDA 去優化深度學習那部份代碼 算起來真的太慢了 (運行個模型 RTX2080都要五分鐘 更況論學習) 深度學習 確實 對發廢文有相當俾益 來問郎中 絡繹不絕 --
※ 批踢踢實業坊(ptt.cc), 來自: 24.6.27.221 (美國)
※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1575877505.A.7A5.html

hakkacandy: 而且很多公司弄ai是在改善自己流程,不是把應用拿去 12/02 08:57

hakkacandy: 賣 12/02 08:57

NUKnigel: 推!一年後再來看這篇 12/02 09:22

batista1980: 看不懂哭哭,感覺是好文 12/02 09:25

DrTech: 不是在業內吧,機器學習實際上,不一定要深度學習。不一定 12/02 10:00

DrTech: 扯到CUDA 12/02 10:00

DrTech: AI 工作,等於CUDA工作嗎? 12/02 10:03

guest0079: 又是一篇學生文 還是外國學生文 可能跑去大陸唸書了 12/02 10:26

guest0079: 屁孩寫文章跟大老闆一樣都一堆文句 12/02 10:28

guest0079: 問句一堆 什麼屁也沒放 12/02 10:29

popmentos: 看到這篇有點感慨,因為最近我才明白自己只是API工程師 12/02 17:01

LinuxKernel: 泡沫沒錯,但這樣看不太對 12/02 18:58

egnaro123: 原po弄錯了,寫程式的也不會一開始就最佳化,一定是先 12/02 21:13

egnaro123: 先對,等全部規格完成,再看那些再最佳化,順序根本反了 12/02 21:14

eknbz: 我懂原PO想說甚麼:走到後期tuning效能,最佳化的公司比例甚 12/02 23:01

eknbz: 少,大多還在前期prototype, model階段 但AI已經喊得震天價 12/02 23:03

eknbz: 響 認為這樣算是吹泡泡 12/02 23:04

eknbz: 傳統消費電看法的確要到後期調教性能才算接近商業化產品 12/02 23:07

Murasaki0110: 產品落地不會是靠cuda,起頭就錯了 12/02 23:08

eknbz: 有的AI應用是比想法創意,至於框架和實現就站在google nvid 12/02 23:10

eknbz: 的肩膀上 有的是拼效能,這種就要最佳化 兩者無法相提並論 12/02 23:12

eknbz: 結果我想說的下一篇blue大就講的差不多了... 12/02 23:16

a3294814: cuda 不就只是用來做gpu平行運算用嗎 優化算的更快 還不 12/02 23:22

a3294814: 如把model壓縮-.- 況且還要確認你演算法精度夠高 12/02 23:22

matyih: 樓上Cuda還是很重要喔,只是cudnn都幫你寫好了(裡面由cud 12/03 02:18

matyih: a/ptx碼組成) 沒有的話普通人根本沒有辦法有效訓練模型 12/03 02:18

sachung28: pandas在github主要開發者(commits>200)也才10人 12/03 05:13

sachung28: 其他AI主流套件也差不多 核心開發者都少 一般都是會使 12/03 05:17

sachung28: 用就好 其實除非強到會飛天 不建議改底層算法 因為寫出 12/03 05:17

sachung28: 來bug不見得少 效能不見得好 12/03 05:17

followwar: 可能對他們而言 找人改底層算法不如加一片GPU... 12/03 12:05

miname: 可以不要用cuda啊,tpu快很多 12/09 16:17

egnaro123: 過一年來看,除了科技部國網中心不少預算外,新創沒有 12/10 19:07

egnaro123: 大陸台灣不少圈錢,也不了了之,ITRI一直有計畫,但展出的 12/10 19:08

egnaro123: 東西,辦識乖乖等零食,花一堆錢,所以不說自明了 12/10 19:09

egnaro123: 補個掛,這口號還是一樣在喊,預算也不少 12/10 19:10

您可能感興趣