[新聞] 慎防深偽詐騙 刑事局籲「眼見不一定為憑

看板 WomenTalk
作者 yokann ( )
時間 2024-05-13 06:39:20
留言 0則留言 (0推 0噓 0→)

新聞標題:慎防深偽詐騙 刑事局籲「眼見不一定為憑」 新聞內容: 〔記者姚岳宏/台北報導〕股神巴菲特近日發出警語,擔憂AI人工智慧將對人類造成重大 威脅,還說近期已看到「巴菲特深度偽造」影音,巴菲特擔憂自己的臉孔及聲音輕易被AI 複製、仿造,就連他的妻子及孩子都很難確定真偽,甚至說出「我可能被騙到把錢匯給自 己」;刑事警察局指出,目前尚未接獲犯嫌利用深度偽造影像進行詐騙之報案紀錄,惟變 造圖像或是聲音之詐騙案例開始出現,提醒民眾特別小心。 巴菲特本月4日於旗下波克夏.海瑟威公司(Berkshire Hathaway)年度股東大會,再次 將AI比喻為核武,警告大家世界已經將精靈從瓶子裡放出來,如果使用不當,將對社會造 成毀滅性後果,尤其是AI深偽技術如被有心人不法濫用,勢必將嚴重影響現行世界的穩定 與衡平。 刑事局表示,雖然還未發現深偽影像詐騙,但次一階的變造圖像或聲音的詐騙案例已開始 出現。南部地區近期有女子於臉書廣告看到女星劉嘉玲佩掛佛像護身項鍊的圖片,認同明 星虔誠向佛,花費近新台幣7千元向該商家購買護身手環,但收到商品後感覺手環做工粗 糙,上網搜尋,發現女星實際是佩戴玉珮項鍊,該賣家的廣告圖片是盜圖後變造。 刑事局指出,AI科技為生活帶來革命性的便利,但也使得非法手段透過AI變得更為簡易且 逼真;AI時代中「眼見不一定為憑」,民眾若遇影音電話要求匯款或詢問個資等,都可以 試著「1.與親友約定通關密語、2.要求對方在臉部前揮揮手或擺擺頭、3.直接打給對方查 證」或是謹記防詐3步驟「1.聽、2.掛、3.查證」,如有任何疑問可隨時撥打110或165反 詐騙諮詢專線諮詢。 新聞連結:https://news.ltn.com.tw/news/society/breakingnews/4670490 心得: 感覺AI應用在犯罪上會讓人更容易掉入陷阱,現在的提防跟警戒心可能要重新建立了. 很多以前認為萬無一失的憑證(如認臉)可能也帶有風險了... --
※ 批踢踢實業坊(ptt.cc), 來自: 42.72.155.0 (臺灣)
※ 文章網址: https://www.ptt.cc/bbs/WomenTalk/M.1715553563.A.282.html

您可能感興趣