※ 文章網址: https://www.ptt.cc/bbs/Soft_Job/M.1599995002.A.A71.html
推 jj0321: 將軍 我會判你有罪 09/13 19:24
推 www17010: 從台灣的資料下去訓練只會有恐龍AI法官吧 09/13 19:46
→ dreamnook: 應該會跑出很奇怪的判例(? 09/13 19:53
推 kongyeah: 加 判決.replace("可教化", ""); 就可以了 09/13 20:04
推 Victor7809: 只覺得會有很多奇怪判決來污染訓練集 09/13 20:18
推 OforU: 覺得機器會判得更公正 該怎麼判就怎麼判 但法界不可能讓A 09/13 20:30
→ OforU: I來判 09/13 20:30
推 Csongs: 異議! 09/13 20:50
→ vi000246: 反正都不會判死刑 隨便啦 09/13 23:48
→ superpandal: 接下來就有人想盡辦法攻略工程師 XDDD 09/13 23:52
→ viper9709: 人類終於要聽命於機器了嗎 09/14 01:36
→ purpleboy01: 加入民意 就會汙染了 09/14 02:23
→ jobintan: 不過與其拿稅金養法經匠,還不如拿去養相關設備與維護的 09/14 08:04
→ jobintan: data scientist還比較實際吶。 09/14 08:05
→ odahawk: 出問題的是演算法卻整天想改硬體... 09/14 08:06
→ allenxxx: 人寫的判決書你都看不懂了,AI寫的? 09/14 08:38
推 aidansky0989: 台灣電支都搞不定,難喔 09/14 08:57
推 water744: 全部可教化 09/14 09:36
→ knives: 可能只要說出關鍵字,就會判定成可教化了 09/14 10:14
→ nekosgr93: 法官是有缺到需要讓機器來輔助嗎 09/14 10:15
→ nekosgr93: 讓人類那間騰出時間是要去做什麼? 09/14 10:15
推 NDark: 岔個題。其實類似議題有強烈的需求。 09/14 11:48
→ NDark: 能解決痛點的團隊可能會有不錯的發展 09/14 11:49
→ NDark: 大家知道 因為疫情的關係 看醫生這件事 在各國變得困難 09/14 11:49
→ NDark: 而因為疫情網路上有各種自發社群分享疫情的情報 09/14 11:50
→ NDark: 其中就發現 上網求助諮詢看診 是存在硬需求 09/14 11:51
→ NDark: 不管是偏方 或是先確認要看哪一科,第一步驟都是先上網查問 09/14 11:52
→ NDark: 當然一定不能100%解決問題。這種行為並沒有佔醫生的便宜。 09/14 11:52
→ NDark: 而法律諮詢這邊已經有類似的服務在運作了。 09/14 11:53
→ NDark: 他的做法是上網付費諮詢,平台背後會有匿名的律師回答。 09/14 11:54
→ NDark: 這種服務 其實不只增加媒合 活絡市場 更能 減少資源浪費 09/14 11:55
→ ptta: 提供給演算法的樣本全都可教化 怎麼訓練出不可教化的判決? 09/14 12:31
推 aidansky0989: 重點在審閱文件,20年內不可能交給AI判決 09/14 13:42
推 becca945: 吸毒 精神疾病 手段不兇殘 通通可教化 09/14 14:32
噓 ruthertw: 還遠的咧 光是女生說犯人逼她吹喇叭 AI就聽不懂了 09/14 15:05
→ jej: 35樓 這個教AI沒一兩次 他能夠比你更精確的了解 09/14 17:31
→ jej: 什麼時候的喇叭 是你想像中的喇叭 還是真喇叭 09/14 17:31
推 OforU: AI能做到分辨同詞 不同義 我以為是常識 09/14 19:56
推 MonkeyCL: 先讓 AI 關在圖書館讀書考國考好嗎 09/14 23:43
推 opencat: 法官主觀意識決定判決結果 垃圾資料一 ai根本無法收斂吧 09/15 01:16
推 goldflower: 可教化這個詞的權重值得商榷= = 09/15 09:56
→ odahawk: AI最多只能擔任書記官而已,各位鄉民被程式判刑會服氣嗎 09/15 11:09
噓 allen139443: ai吃到恐龍的垃圾判決訓練出來還不是一樣變恐龍 09/15 14:36
→ maxsho: 證明終了有一集就是提到這個。因為檢查官利用ai的漏洞給 09/15 17:27
→ maxsho: 了特意證據導致無辜的人被判成兇手。同樣的語句在不同口 09/15 17:27
→ maxsho: 氣或是文化下意思可能就不一樣了,要讓ai能夠正確判斷不 09/15 17:27
→ maxsho: 是容易的事 09/15 17:27
→ nekosgr93: 連人都不能正確判斷了怎麼會覺得用人的資料餵出來的機 09/16 09:42
→ nekosgr93: 器能正確判斷 09/16 09:42
推 ggttoo: 請不要用台灣判例來訓練AI 09/16 11:38
推 uncleben006: 啊你要怎麼知道哪些是正確資料?結案就是正確嗎 09/18 18:53
推 kevinyin9: 用恐龍法官訓練集-> AI: 全部可教化 09/21 16:53
推 kattte: 誰能接受被機器判決 09/25 19:36
→ piggywu: 法官不需AI..就是法官加入太多私人情緒,才以為要有AI法官 10/19 23:49