※ 文章網址: https://www.ptt.cc/bbs/Tech_Job/M.1521760428.A.D9C.html
推 syterol: 人類可以負刑責被關 AI自駕車也有負責被關的人我就接受03/23 07:24
→ syterol: 科技發展有所犧牲可以接受,但前提是撞與被撞雙方都要犧牲03/23 07:25
推 syterol: 空難大部分駕駛一起死,也大部分是已知風險自願坐上去的人03/23 07:36
推 Kobelephants: 自駕車出車禍乘客要負責,是你你會買單嗎?03/23 07:37
→ syterol: AI自駕車死人可想而知會是一般路人 03/23 07:37
→ syterol: 又沒要乘客負責,負責人或工程師出來扛阿03/23 07:38
→ syterol: 不然就直接宣布自駕車撞死人不負刑責,看哪國立委會給上路03/23 07:39
噓 robert53: AI過度發展對人類一點好處也沒有 03/23 07:47
推 xmiracle: 如何定義過度發展?而且這次就是發展還不夠所以才出事 03/23 07:53
推 steve1012: 早就有測試區啦 肇事率超低好嗎 03/23 07:53
→ steve1012: 過度發展只是打高空的說法啦 什麼東西都馬能套個過度發 03/23 07:54
→ steve1012: 展說不好 03/23 07:54
→ robert53: https://goo.gl/d4s4tz 03/23 07:55
噓 robert53: 是啦,你們比霍金還科技人囉。真是棒。 03/23 07:56
推 steve1012: 霍金值得敬佩啦 但不是他講的都對啦 這麼簡單的道理要 03/23 08:00
→ steve1012: 人教? 03/23 08:00
→ sorryla: 霍金是宇宙物理學大師,不是AI大師 03/23 08:05
→ ken29228468: 自駕車不會酒駕 03/23 08:07
推 docker: 只是對車禍死掉的方式還不習慣罷了,影片裡換做是人來駕駛 03/23 08:24
→ docker: 不見得不會撞死,大白天任意過馬路被撞死的三寶比比皆是 03/23 08:25
推 michaelgodtw: 是人工智慧比較強?那程式一定都不會出錯? 03/23 08:28
推 xmiracle: 只要程式比人類出錯機率小,就有發展價值,不是說做不到 03/23 08:31
→ xmiracle: 100分就不要做吧 03/23 08:31
推 syterol: 若比照空難模式,那就是不分貧富都一口價吧,和現在依據 03/23 08:33
→ syterol: 所得餘命求償又不同了 03/23 08:33
推 shter: 自駕車的情況就比照鐵路啊,因為鐵路就是高度自動化系統 03/23 08:35
→ shter: 出事那就是看外人車侵犯鐵路正常運行或是鐵路本身問題 03/23 08:36
→ shter: 火燒車、爆衝、出軌、號誌故障影響就營運單位賠償走保險 03/23 08:37
→ shter: 自駕車也一樣,如果出意外是程式bug那就車公司要賠償 03/23 08:38
推 balius: 電腦AI有bug會出錯,但人類就算沒bug也可以常常出錯... 03/23 09:06
推 Wishmaster: 光那兩個影片光線差那麼多,最好第一個人眼就看的到... 03/23 09:37
推 Ekmund: 霍金講的是對強人工智慧的約束能力,嘴霍金也扯太遠 03/23 09:42
→ soliboy: BUG可以修 酒駕慣犯你告訴我怎麼修? 03/23 11:02
推 Horatio1105: 上學期修了一門ai課 花了三四節課討論責任問題 最後 03/23 11:06
→ Horatio1105: 沒有定論 真的很難去定 03/23 11:06
→ Horatio1105: 製造商?工程師?還是購買人? 03/23 11:06
推 love95023: 人類出錯機率>AI 03/23 12:01
→ love95023: 人類犯錯…一錯再錯,AI犯錯…bug修了就好 03/23 12:02
推 steve1012: 酒駕容易出車禍 又有刑責 但還是... 03/23 12:45
推 b258963147: 科技的發展是必然,適者生存 03/23 12:48
噓 uvxy: 人類開車從來就沒有安全過,自駕是必然的趨勢 03/24 02:08