看板C_Chat
: 早上逛Reddit 看到
: 有人用google lens去驗證哈洽馬的監獄欄杆馬賽克法
: 究竟能不能對付google的ai
: https://i.imgur.com/5sqZfCZ.jpg
: 結論:
: Haachama Win
: 當初被一堆人笑說有遮沒遮都沒差
: 遮了反而更色的哈洽馬擋法
: 原來真的能騙騙演算法欸
: 其他圖:
: https://i.imgur.com/OM7MBrH.jpg
: https://i.imgur.com/YzL4gNn.jpg
: https://i.imgur.com/oTpE39w.jpg https://i.imgur.com/WRgddxM.jpg
: https://i.imgur.com/pknNdBd.jpg
: https://i.imgur.com/8WrnlcB.jpg
: https://i.imgur.com/MfuiZUk.jpg
: https://i.imgur.com/PU5I1Z9.jpg https://i.imgur.com/6tSaQSS.jpg https://i.imgur.com/oM247FW.jpg
: https://www.reddit.com/r/Hololive/comments/p5j92o/so_i_decided_to_test_how_effec
: -----
: Sent from JPTT on my iPhone
欄杆其實已經遮擋非常多東西了
其實早在好幾年前就已經有所謂的 adversarial attack 出來了
就是能夠在不影響人判斷圖片的同時 大幅度干擾背後的 Neural Networks 做判斷
一個很簡單的方法就是直接加一個反向的gradient 就算是非常輕微的都可以讓NN阿嘿顏
https://imgur.com/tOEli4t
這個人看起來沒什麼差 可是 NN 就爛了
甚至也有什麼改變一個 pixel 就可以讓 NN 壞掉之類的 基本上已經做到爛掉的
https://imgur.com/1mV51jl
當然圖片越大需要改變的 pixels 就越多
不過通常這種是white box啦 就是你已經知道NN長怎樣之類的
一般情形就像是某個服務的系統 你不知道他背後的model長怎樣 這就是black box
就會比較困難一點 通常可能做一些samples去estimate
攻擊比較簡單 防禦的話就比較困難
當然這種東西也不僅限於 NN 基本上只要是 ML 都可以攻擊
像是什麼 k-NN 也可以攻擊啦 我隔壁實驗室也是台灣人就在做這個防禦的東西
這種東西很多 基本上已經做到爛了
有興趣挑戰祖克柏的話也可以去研究看看
--
※ 批踢踢實業坊(ptt.cc), 來自: 219.68.128.187 (臺灣)※ 文章網址: https://www.ptt.cc/bbs/C_Chat/M.1629167692.A.6F5.html
推 TommyTora: 總之先推 08/17 10:43
推 cocytus39: 好像之前看過別人玩過 08/17 10:55
推 tkc7: 人在圖形識別還是跟機器差很多 08/17 10:55
推 miname: 還有人穿個特殊圖案的T-shirt,攝影機就不會把你當人看 08/17 11:07
→ miname: ai時代的隱身斗篷 08/17 11:08
推 stja: 08/17 11:28
推 nok1126: 阿我丟跨謀跨謀跨謀阿 08/17 17:08
推 wtfpan0621: 你484有修過李鴻毅老師的課 08/17 20:33