看板Tech_Job
: AI 將創造數億至數兆美元的產業,這顆巨大商機球中國已經抓住,那台灣呢?
: https://buzzorange.com/techorange/2017/01/17/ai-6-challenges-in-the-future/
: 從 AlphaGo 擊敗世界棋王那天開始,大眾對人工智慧的進步有了清楚的認識,人工智慧
: 的各種成果也陸續推出,應用的領域不外乎在機器人、無人駕駛、智慧管家等等。它已經
: 默默走進人類的生活。
: 從 Google、Facebook、Intel 等大企業的投入,到其他公司以人工智慧為主要發展核心
: ,能看出這個領域的炙手可熱,不過目前人工智慧的專業人才,如演算法工程師、資料科
: 學家等供不應求,加上人工智慧技術的實際應用,目前難和產業接軌等課題,是未來必須
: 面對且要解決的難題。(責任編輯:張瑋倫)
: 北京時間2017年1月10日,創新工場正式發布了「投資 AI 生態,共贏智慧未來」人工智
: 慧戰略白皮書,揭示了創新工場在人工智慧領域的未來願景。「白皮書」從目前人工智慧
: 項目技術突破所帶來的產業發展機遇,產生未來發展所面臨的六大挑戰,大膽預測中國已
: 經並將繼續借助人才優勢,成為全球人工智慧科研與產業化的中堅力量。
: 創新工場人工智慧工程院將由李開復博士親任院長,兩位副院長王詠剛和王嘉平也正式到
: 任。王詠剛先生畢業於北京大學,此前曾在 Google 擔任資深工程師超過10年;王嘉平博
: 士擁有中科院計算所博士學位,曾就任微軟研究院主管研究員。
: .
: .
: .
: 人工智慧將產生數億美元甚至數兆美元規模的產業
: 以金融行業為例,據高盛公司估計,到2025年人工智慧可通過節省成本和帶來新盈利機會
: 創造大約每年340億至430億美元的價值。
: 創新工場認為,在金融,醫療,安全防護,教育,能源,機器人,互聯網產業升級,傳統
: 行業的流程自動化及商業智慧等方面,人工智慧都具有千億美元以上的市場潛力。而自動
: 駕駛技術對於交通運輸和汽車製造業的顛覆,更具有無法估量的經濟價值。
: .
: .
: .
: --------------
: 中國在人工智慧的論文 直逼美國 從很多新聞可以看出投入不少資源與人力在研究
: 台灣除了世界之光--台GG 有幫NVida生產晶片 算是有沾到AI的邊
: 但是台灣在軟體方面似乎就...真的GG??
: 似乎台灣產業已經跟世界趨勢脫節了???
因為我博士班的研究就是在做機器學習
只是那時候(4~5年前) 機器學習概念還不是很成熟 這領域也還不熱門
我那時候也不知道原來自己做的題材其實就是機器學習
其實機器學習的核心概念我認為可以從
0.模擬退火法
1.基因演算法 (演化論的物競天擇)
2.蒙地卡羅 (平衡態的波茲曼分布)
這三個基本概念開始入門
只要把0,1和2的基本觀念弄通
其實現存很多的變形版本
如 能量谷跳躍 (2的一種變形) 或是 蟻群, swarm intelligence觀念上我認為大同小異
我自己是沒有時間去仔細研究alphago
但是我認為基本概念上應該是不跳脫 0~2範疇
可能是alphgo 發展出一些他獨門的特殊技巧
讓他的搜尋可以變得特別快 在圍棋領域變得有其應用價值
我自己博班的題目其實也是結合了"基因"和"能量谷跳躍法" 讓搜尋可以變的比原本
個別的方法加快許多,而在結構優化領域變得非常有競爭力
其實機器學習觀念上沒有那麼難入門
能夠商業化和賺錢 我覺得主要是靠一些小聰明和你自己改進演算法效能上的策略
其實我一直覺的圍棋的棋盤很像是蛋白質的二級結構
如果能把棋譜和蛋白質二級結構做一個映射
那麼alphago就變成很類似在處理一個蛋白質結構優化的問題
不知道有沒有人也有這樣想過???
--
不難 但你要讓效率提升需要提出自己的想法
不然只是在用現成程式跑數據而已
※ 批踢踢實業坊(ptt.cc), 來自: 140.115.30.19※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1484643109.A.BE2.html
→ Murasaki0110: 5年前... SVM都玩多久了 01/17 17:16
→ DrTech: 這是在做最佳化演算法吧,當然與機器學習研究有差異 01/17 17:42
→ DrTech: 4-5年前,已經開始流行Deep Learning啦 01/17 17:44
推 louisman: 原PO我好像在多年前常常在八卦板看到妳在政治推文 01/17 17:46
→ louisman: 沒想到您是資工領域的PhD 01/17 17:47
→ peter308: 我是物理系的 只是剛好有碰最佳化演算法這塊 01/17 17:55
推 Hikkiaholic: 靠 萬年八卦板主 反串之神 這篇都出現了 01/17 18:55
推 DKnex: 概念沒錯 01/17 20:47
→ DKnex: 但核心是十年前我老師博班時候的類神經網路 01/17 20:47
推 DKnex: 從非線性的特性跟當初奈米技術開發而改良 01/17 20:50
→ DKnex: 模擬人類大腦網路模型 01/17 20:50
→ DKnex: 結果發現比SVM還屌 雖然很難 01/17 20:50
→ DKnex: 目前美國AI研究公認類神經網路是首選 01/17 20:50
推 sean2449: 你說的應該只是最佳化部分... 01/17 21:02
推 chienk: 物理系的確慢了一點 五六年前deep learning 已經席捲各大 01/17 21:45
→ chienk: 頂尖相關會議 01/17 21:45
推 bigbigbig123: 我笑了~你講的怎麼跟我學的都不樣~ 01/17 22:27
→ bigbigbig123: 而且你講的那些最佳化算法~不是自己看就會了嗎?? 01/17 22:28
推 bigbigbig123: 之前在分析DNA 就都自己看算法自己寫程式?難? 01/17 22:33
推 a000000000: 物理跟資工還是有差八 01/17 23:57
→ a000000000: 我只知道有一堆線性代數而已 可是我線代很爛QQ 01/17 23:58
→ Murasaki0110: 教主又謙虛了,只是一堆矩陣乘來乘去 01/18 00:24
→ Murasaki0110: 花兩個小時看cs231n前兩節就有感覺惹 01/18 00:25
噓 ericwu790419: 我認為速度與準確度高是近期ai掘起的重要原因 但這 01/18 00:39
→ ericwu790419: 兩樣絕對不是你說小聰明就作的到的 01/18 00:39
→ gomi: 你講的是最佳化... 01/18 10:00
推 spencer222: Alphago是Reinforcement learning拔 01/18 19:39
推 LeeMatt: 搜尋會快是因為drop out那邊處理的好 01/20 16:40