
※ 文章網址: https://www.ptt.cc/bbs/Stock/M.1691634339.A.FC5.html
推 y2468101216 : 他這個幻覺是幻覺一些很明顯的是 08/10 10:26
→ y2468101216 : 比如日本二戰被兩顆原子彈轟炸,他會有機率說錯 08/10 10:27
→ y2468101216 : 回歸到程式面的話,簡單的程式也會幻覺。 08/10 10:28
→ y2468101216 : 比如一個程式函數只接受一個參數,他會寫兩個 08/10 10:29
推 Isopod : 你是不是不知道它幻覺產生的內容是什麼?有一些根本 08/10 10:29
→ Isopod : 錯誤的離譜。而且當你跟他要參考資料時,好一點會跟 08/10 10:29
→ Isopod : 你說它理解錯了。可怕一點的會生成不存在的參考資料 08/10 10:29
→ Isopod : 出來 08/10 10:29
→ Isopod : 他根本不是只參考資料庫給答案,是給出根本不在資料 08/10 10:30
→ Isopod : 庫中自己幻想的答案 08/10 10:30
推 strlen : 生成不存在的東西 這個人類最拿手的勒 打開電視隨便 08/10 10:32
推 shawkwei : 4909新復興營收月增跟年增都100% 08/10 10:32
→ strlen : 轉一間新聞台都是生成不存在的東西R XD 08/10 10:33
推 Isopod : 我覺得你要先把你的程式課上好,再來討論耶QQ 08/10 10:34
→ strlen : 股板一堆財經新聞 你能分辨哪些是真哪些是假嗎 嘻嘻 08/10 10:34
推 kkithh : 敎授那等級的人會知道他講的話是不是準確,就算表 08/10 10:35
→ kkithh : 面堅持是準確但內心會有底,但AI目前根本無法判斷 08/10 10:35
→ kkithh : 自己講的內容是否準確 08/10 10:35
→ strlen : 齁齁 所以你就能判斷你眼前看到每件資訊都為真嗎XD 08/10 10:35
→ kkithh : 所以你會看到它一本正經在講幹話 08/10 10:36
→ IBIZA : 會說是幻覺, 就是因為這些不是資料生成 08/10 10:36
→ kkithh : 我會知道我不確定阿,知道差別嗎? 08/10 10:36
→ strlen : 每天晚上隨便打開一台政論節目 不也都在講幹話 08/10 10:36
→ strlen : 收視率還高到要命 大家愛看得要死 XDDDDD 08/10 10:37
→ IBIZA : 比方說 他叫他寫程式, 他會丟給一個不存在的套件 08/10 10:37
→ IBIZA : 一本正經的用這個套件開發程式碼 08/10 10:37
→ IBIZA : 這已經不是錯不錯的問題 08/10 10:37
→ strlen : 你跟不同信仰跟政治的人說話 感覺根本想平行宇宙 08/10 10:38
→ strlen : 怎麼 判斷你的說法是正確 他的說法是錯誤? 08/10 10:38
→ IBIZA : 你先了解一下為什麼會用「幻覺」來形容 08/10 10:38
→ z7956234 : 大型網頁版siri,一樣撈資料回答一樣會出錯,都一 08/10 10:39
→ z7956234 : 樣。 08/10 10:39
→ strlen : 要捏造一個不存在的東西 這個人類更拿手 而且生活中 08/10 10:39
→ IBIZA : 人類也會有類似的錯覺, 例如曼德拉效應之類的 08/10 10:39
噓 Isopod : 設定的範圍怎麼會是無限,就是餵給他的資料而已。雖 08/10 10:39
→ Isopod : 然龐大但不是無限。 08/10 10:39
→ strlen : 這種案例比你想像中的還要多 你用google搜也不一定 08/10 10:39
→ strlen : 正確 一堆內容農場東拼西湊 wiki也是亂寫一通 08/10 10:39
推 yuzulee : 推文都滿溫和的耶... 08/10 10:39
→ Isopod : 文章嘴文組,結果自己對於AI的理解也是幻想 08/10 10:39
→ twistfist : 老師教授可以直接說這我也不確定,ai 會不懂裝懂 08/10 10:40
→ a12838910 : 超導呼... 08/10 10:40
→ strlen : 正確性這種東西 人類自己都沒辦法保證了 還要求才剛 08/10 10:40
→ strlen : 有點小發展的AI 08/10 10:40
→ IBIZA : 幻覺跟正確性不完全是同一個議題 08/10 10:40
→ Isopod : 那個str也在亂扯,就是知道瞎掰不對,所以才希望AI 08/10 10:40
→ Isopod : 不要瞎掰。 08/10 10:41
→ IBIZA : 政論節目的幹話 大多數還是在有所本的基礎上扭曲 08/10 10:41
→ strlen : 問題在於 你怎麼定義瞎掰? 08/10 10:41
→ IBIZA : 事實來的 AI的幻覺就不知道哪來的 08/10 10:41
推 ab4daa : 無罪 08/10 10:41
→ Isopod : 他可以根據資料庫理解錯誤,這是可以修正的。但是瞎 08/10 10:41
→ Isopod : 掰不存在於資料庫的東西,這個就是現在的問題 08/10 10:41
→ strlen : 你先定義瞎掰是什麼 我們再來談瞎掰對不對嘛 合理阿 08/10 10:41
→ strlen : 我就說即使你用google 上面一堆東西也都瞎掰 08/10 10:42
→ IBIZA : 我想我前面已經對於AI幻覺有很清楚地描述 08/10 10:42
推 stosto : Ai 大部分都是最佳近似解….到底要怎麼不講幹話 08/10 10:42
→ strlen : 但google搜尋就沒用了嗎?你打開電視上面一堆假新聞 08/10 10:42
→ IBIZA : 瞎掰的範疇很大 有所本跟無所本 是兩回事 08/10 10:42
→ IBIZA : 瞎掰的範疇很大 有所本跟無所本 是兩回事 08/10 10:42
→ strlen : 那新聞就通通可以關一關了是嗎 08/10 10:42
→ Isopod : 是呀 就是因為有不懂裝懂的人自己胡扯呀 08/10 10:43
→ stosto : 一堆幹話連人類都講不出來 08/10 10:43
→ IBIZA : 假新聞也是 在有所本的新聞上亂寫 跟 報導一則完全 08/10 10:43
→ IBIZA : 虛構的新聞是兩回事 08/10 10:43
→ strlen : AI的瞎掰當然也是有所本啊 它的模式跟人一模一樣 08/10 10:43
→ IBIZA : 就跟你說 AI幻覺 是無所本 08/10 10:43
噓 aynmeow5566 : 問題是無中生有捏造資料 為了湊答案捏造論文出處 要 08/10 10:43
→ aynmeow5566 : 他驗算等號左邊明顯不等於右邊還能說是相等的 快點 08/10 10:43
→ aynmeow5566 : 解決啦 08/10 10:43
→ strlen : 人要瞎掰 不就是東拼西湊 假新聞和政論名嘴也是 08/10 10:43
→ SiFox : 瞎掰扯謊憑空幻覺,只要有0.001%的可能,AI就玩完 08/10 10:43
→ IBIZA : 我前面舉的例子你看了嗎 08/10 10:43
→ IBIZA : 我前面舉的例子你看了嗎 08/10 10:43
→ strlen : 一本正經瞎掰 你去看看LBJ嘛 收視多好 資訊都正確嗎 08/10 10:44
→ stosto : Ai核心都是資料集小辦法去生成一個f(x), 你就算帶 08/10 10:44
→ stosto : 入一個從未出現的x大部分也都可以得到一個y 08/10 10:44
→ Isopod : 沒有人說AI沒有用,只是在討論他瞎掰的問題有點嚴重 08/10 10:44
→ Isopod : 。就像google出來的東西,很多也是垃圾,所以才要使 08/10 10:44
→ Isopod : 用者才要自己找方法判讀。但AI目前沒有辦法找方法判 08/10 10:44
→ Isopod : 讀自己輸出的資料是不是瞎掰的。這樣你懂嗎 08/10 10:44
→ stosto : 這個y扯不扯是另外一回事,幻覺就是這個y 08/10 10:45
→ SiFox : 政客扯謊帶來多少美好崇景,謊言搓破帶來多少痛苦 08/10 10:45
推 ckp4131025 : AI會自創api很正常啊,因為人類也會 08/10 10:45
→ ckp4131025 : 咁,這個api沒有嗎,我以為會有 08/10 10:45
→ SiFox : 人類有政客就夠了,不需要AI來自尋煩惱甚至帶來毀滅 08/10 10:45
→ stosto : 一堆人不懂演算法在那邊扯幻覺 08/10 10:45
→ IBIZA : 對 人類也會無中生有 但目前無法理解為什麼AI會 08/10 10:45
→ IBIZA : 而且無法解決 所以只好縮限AI回答能力 08/10 10:46
→ stosto : 就不是無中生有,而是帶入一個x以他建造出來的模型 08/10 10:46
→ stosto : 就是會丟出一個y給妳 08/10 10:46
推 deadair : 我問他變形記他跟我講悲慘世界 整個不知道在幹嘛XD 08/10 10:47
→ IBIZA : 曼德拉效應我不知道大家知不知道 08/10 10:47
推 Isopod : 不在資料集裡的y就是我們在討論的幻覺啦,自己說從 08/10 10:47
→ Isopod : 資料集生成,啊生成資料集以外的結果怎麼說? 08/10 10:47
→ stosto : 給你兩組x,y 讓你求一元一方程式,非資料集內的x帶 08/10 10:48
→ stosto : 入後就是會幫你算出y 08/10 10:48
推 strlen : 反駁不了我就惱羞喔 XD 08/10 10:48
→ strlen : 事實是 我們的現實本來就被巨大的假資訊包圍 08/10 10:48
→ stosto : 你會說這個y是幻覺? 08/10 10:48
→ Isopod : 已經說了,他可以回答錯誤,這只是演算法不夠強。但 08/10 10:49
→ Isopod : 這跟產出不存在的資料是兩回事 08/10 10:49
→ strlen : 然後我們的認知不想承認這件事實 08/10 10:49
→ IBIZA : deadair那個例子還不算 08/10 10:49
→ strlen : 不然你看看對岸就知道 你看看他們的現實和你的一不 08/10 10:49
→ strlen : 一樣嘛 08/10 10:49
→ strlen : 現實的假資訊跟AI給的一樣 半真半假 你敢說你分得出 08/10 10:50
→ IBIZA : 我不知道是你一直要講現實要幹嘛 有人說人不會無中 08/10 10:50
→ IBIZA : 生有嗎? 08/10 10:50
→ IBIZA : 人當然是會 08/10 10:50
→ Isopod : str真的來亂的,直接忽略就好 08/10 10:50
→ stosto : Ai就只是個求函數的演算法、而目前很少演算法可以 08/10 10:50
→ stosto : 求出現實環境的完美函數 08/10 10:50
→ IBIZA : 你餵假資料給AI AI當然也是會吃了假資料回答你假 08/10 10:50
→ IBIZA : 資料的內容 問題就不是假資料啊 08/10 10:51
→ Isopod : stosto至少還是在討論問題 08/10 10:51
→ stosto : 所以求得的都是逼近函數 08/10 10:51
→ strlen : 你根本反駁不了就說人家來亂喔?不然你解釋一下怎麼 08/10 10:51
推 SiFox : 假資訊讓AI學習,AI再扯謊一下,是打算讓世界多亂? 08/10 10:51
→ strlen : 解決現實裡的假資訊 08/10 10:51
→ stosto : 而逼近函數就是以資料集去逼出來的 08/10 10:51
→ IBIZA : @stosto 其實要說一切都是函數結果當然是可以 08/10 10:51
→ SiFox : 更別說,不用假資訊的狀況下AI就會扯謊了 08/10 10:51
→ strlen : 然後你再來想想要怎麼解決AI給的假資訊 這才合理吧 08/10 10:52
→ stosto : 你有假資料本來就會把一個不錯的函數帶偏 08/10 10:52
→ Isopod : 現在是在討論現實世界假資訊?你根本沒弄懂命題就不 08/10 10:52
→ Isopod : 要在那邊吵。 08/10 10:52
→ IBIZA : 問題就是現在連專家都不知道為什麼會這樣 08/10 10:52
→ strlen : AI是現實的資料進去生成的對吧 那何以保證現實資料 08/10 10:52
→ stosto : 但在處理大資料也會去過濾假資料 08/10 10:52
→ strlen : 的的正確性 08/10 10:52
→ IBIZA : @stosto 你講的東西其實對於認識這件事情毫無幫助 08/10 10:52
→ tony15899 : wiki之前有個自己編出一段古俄羅斯史的 很像這種 08/10 10:53
→ IBIZA : 專家要是知道就不會有這篇新聞了 好嗎 08/10 10:53
→ SiFox : 對!最麻煩、最可怕的是"不知道為什麼" 08/10 10:53
→ Isopod : 如果把假資料給AI,他當然就以這個假資料產出結果, 08/10 10:53
→ Isopod : 但是這還是「有所本」。目前的問題是,他所產出的資 08/10 10:53
→ Isopod : 料,並不在餵給他的資料裡 08/10 10:53
→ SiFox : 光這點,AI基本無法發展 08/10 10:53
→ IBIZA : 目前就是不知道為什麼會這樣 所以只好縮限AI回答能 08/10 10:53
→ IBIZA : 力 避免AI幻覺 08/10 10:53
→ stosto : 原文是說無法解決而非不知道問題點 08/10 10:54
→ strlen : 現實的假資訊不會影響到AI嗎 你確定嗎 08/10 10:54
→ SiFox : 專家就是因為不知道,才僅能用"幻覺"來形容狀況 08/10 10:54
推 herculus6502: 光要分辨哪裏有錯就搞死你,自動產生程式根本科科 08/10 10:54
→ Isopod : 所以現在討論的不是,把假資料餵給AI產出的奇怪答案 08/10 10:54
→ Isopod : 叫幻覺。而是不知道為什麼會產出根本不在資料集的東 08/10 10:54
→ IBIZA : 你相信不相信都改不瞭現況 08/10 10:54
→ Isopod : 西。 08/10 10:54
→ strlen : 命題沒有問題啊 不然你確定餵給AI的東西100%正確嗎 08/10 10:54
→ stosto : 所有做ai 的如果不知道會有這種無中生有的問題可以 08/10 10:55
→ SiFox : 不知道問題點,請問該怎麼解決? XD 08/10 10:55
→ stosto : 回去重修了 08/10 10:55
→ Isopod : 目前AI幻覺真的找不太到原因,AI演算法基本上是個黑 08/10 10:55
→ Isopod : 盒子,中間運算過程很難追蹤 08/10 10:55
→ IBIZA : 這邊講得不知道 指的是不知道為什麼發生 而不是不 08/10 10:55
→ a8521abcd : 那根本不是資料庫問題,就是chatgpt 自己在瞎掰 08/10 10:55
→ stosto : 幻覺這件事情就只是錯誤率而已 08/10 10:55
→ IBIZA : 知道會發生這種情況 08/10 10:55
→ IBIZA : 不是錯誤率而已 08/10 10:55
→ Isopod : 我覺得sto講的是錯誤答案,不是我們在討論的幻覺 08/10 10:56
→ stosto : 這東西就一定會發生 到底是多專家才覺得不會發生 08/10 10:56
→ SiFox : 黑盒子形容的很貼切。這就是AI無法發展的原因 08/10 10:56
→ strlen : 無中生有不就是人類思考的特性之一? 08/10 10:56
→ IBIZA : 到底多專家 這一篇就是大學系主任? 08/10 10:56
→ strlen : AI是不是就是以模仿人類為目標? 08/10 10:57
→ IBIZA : ChatGPT的專家也說過類似的話 08/10 10:57
推 max2604 : 我問他 08/10 10:57
→ strlen : 那就這一點 AI還真的達到目標了勒 XD 08/10 10:57
→ stosto : 在文字拓撲學裡的網路大成這樣,你函數在某一段錯 08/10 10:57
→ stosto : 誤後面會偏離的很嚴重 08/10 10:57
→ Isopod : @strlen 就算是資料有問題,那也是根據資料產生的回 08/10 10:57
→ Isopod : 答,雖然答案是錯誤的,但是就過程而言是正確的,這 08/10 10:57
→ Isopod : 是資料的問題。但現在的問題是他沒有根據資料,自己 08/10 10:57
→ Isopod : 創造了答案。這樣你清楚問題了嗎? 08/10 10:57
→ max2604 : 桃樂比是誰,他給我回答其他東西XD 08/10 10:58
→ stosto : 這明明大家都知道,現在扯不知道幻覺怎麼出現 08/10 10:58
→ SiFox : 只要有黑盒子存在,機器人三法則必然無效。 08/10 10:58
→ max2604 : 然後問他六位數加法他兩次答案不一樣 08/10 10:58
噓 ji3g4zo6 : https://i.imgur.com/6C7jFzQ.jpg 這就是幻覺好嗎 08/10 10:58
→ ji3g4zo6 : 跟資料庫有什麼關系? 08/10 10:58
→ SiFox : 所以AI發展到盡頭,僅會是假裝有人性的一團混亂 08/10 10:59
→ Isopod : 原子彈那個就是我們在討論的幻覺。當然一定是演算法 08/10 10:59
→ Isopod : 本身有問題,但就是不知道為什麼會有這樣的問題 08/10 10:59
→ IBIZA : 之前還有一個例子 08/10 11:00
→ IBIZA : 有一個律師用ChatGPT產生出庭文件 08/10 11:00
→ IBIZA : 律師看內容覺得沒問題就提交出去 08/10 11:00
→ IBIZA : 但文件裡面用來論述主張的判例不存在 08/10 11:00
→ IBIZA : ChatGPT幻想出了一個案件的詳細情況 當作判例 08/10 11:01
→ Isopod : 從資料庫找可能答案,但沒找到就應該產出沒有。而不 08/10 11:01
→ Isopod : 是自己編造一個回應。 08/10 11:01
→ ji3g4zo6 : 不懂幻覺的人 建議去看一下李宏毅教授的課 08/10 11:01
推 tony15899 : https://reurl.cc/zYnryy 這個 08/10 11:01
推 ckp4131025 : 生成式AI並不是基於資料查詢的AI, 所以不設限制的 08/10 11:02
→ ckp4131025 : 話甚至連算數都不會 08/10 11:02
推 kqalea : 抱歉~ Yann LeCun 早就講過~只靠語言沒法完全理解 08/10 11:02
→ IBIZA : 我前面講的那個套件的例子, 是有人要chatGPT用pytho 08/10 11:03
→ IBIZA : n開發一個程式, chatGPT就給了他一個基於OOOO套件的 08/10 11:04
→ IBIZA : 程式, 內容看起來都沒問題, 但要去找oooo套件來安裝 08/10 11:04
→ IBIZA : 就不存在這個套件 08/10 11:04
→ stkoso : 這個缺點大家都知道 但只要利大於弊就會有人用 08/10 11:05
→ IBIZA : 如果你不太能理解這個問題, 這就好像你要chatGPT用 08/10 11:05
→ stkoso : 從神經網路剛開始發展的時候就知道的事情 08/10 11:05
→ IBIZA : 外語寫一封信, 結果chatGPT告訴你它用阿里不達國語 08/10 11:06
→ IBIZA : 寫, 而且還真的寫出來了 08/10 11:06
→ IBIZA : 但不存在這國語言, 自然內容你也無從理解 08/10 11:07
→ leo125160909: 公三小 08/10 11:07
噓 ji3g4zo6 : 阿假設資料為真 後面的答案不就是幻覺了 還是連歷 08/10 11:07
→ ji3g4zo6 : 史這種事情都可以發揮想像力來回答? 08/10 11:07
→ IBIZA : 這個跟之前wiki上的假俄羅斯歷史有點類似 08/10 11:07
推 stosto : 你用兩組資料求出y=ax+b 然後說不在這兩組x就不能 08/10 11:08
→ stosto : 求出y, 天才 08/10 11:08
推 GAIKING : 這命題不就跟美國某個律師用ai抓判例,結果ai提供 08/10 11:09
→ GAIKING : 的完全就是自己生成而不是真的有這個東西,然後律師 08/10 11:09
→ GAIKING : 不知道還拿去用出大事 08/10 11:09
推 Isopod : chatgpt就是不是算數學AI,他不是只是一個簡單函式 08/10 11:10
→ Isopod : 好嗎 08/10 11:10
推 stosto : 所有的ai都在求function….. 08/10 11:10
→ stosto : 就說在求逼近函數 08/10 11:11
→ stkoso : 當年愛迪生為了打擊交流電整天喊會電死人 08/10 11:11
→ stosto : 要求函數的話資料集一定有限 08/10 11:11
→ stkoso : 直到今天都還有人會被電死 但是呢? 08/10 11:11
→ stosto : 為的就是得到非資料集的答案 08/10 11:12
→ stosto : 現在要限縮? 08/10 11:12
→ stosto : 現在終於懂為什麼當初唸書的時候一堆人np 問題的精 08/10 11:14
→ stosto : 髓不會用 08/10 11:14
推 Isopod : 哥 你該學新東西了 08/10 11:15
→ Isopod : 基本上你講的沒錯,但不是大家正在討論的東西… 08/10 11:15