臺北市
28°
( 28° / 27° )
氣象
2024-05-26 | 台灣好報

遠離AI深偽詐騙 高雄市刑大呼籲民眾勿上當!

遠離AI深偽詐騙 高雄市刑大呼籲民眾勿上當!

【記者 宋祥霖/高雄 報導】隨著時代演進,科技日新月異,亦出現AI換臉偽造之詐騙案。只需數十秒的音頻、畫面就能用AI方式以假亂真生成人臉搭配表情動作,甚至有的AI模型只要3秒鐘的人聲及臉部互換,就可以合成模仿相似的情緒基調和動作影像,盜用名人財經專家影像,掛保證要民眾加入投資群組的深偽詐騙。

分析AI換臉偽造,其手法只需盜用「財經專家」、「理財專員」照片或影片,按下「生成」按鈕,即可見證AI 如何自動進行無瑕疵的臉部互換,再透過電話或通訊軟體(如LINE)與民眾聯繫,以假亂真要求民眾加入新手機號碼或LINE ID,隨著科技快速發展有心人士利用AI能夠深度學習與合成影音的「深偽(DeepFake)技術」,使詐騙手法更加擬真,致民眾更容易受騙而遭受財產損失。

近年來,人工智慧技術的快速發展為社會帶來了許多便利,但同時也衍生了一些新的問題。為提醒民眾防範被騙,本大隊創新拍攝新型AI防詐宣導短影片,利用AI技術竄改語音或影像,擬真男女朋友因投資失利欲借錢詐騙方式,加強宣導「眼見未必為憑」、「耳聽亦非為證」等識詐工作。


遠離AI深偽詐騙 高雄市刑大呼籲民眾勿上當!

為吸引青年學子,影片最後由2位活潑小學生以彈奏烏克麗麗搭配雙語(中英文對照)宣導AI深偽技術破解之道:1.要求對方揮揮手、轉轉頭、變換姿勢或露出牙齒。2.請對方說出事先約定的「通關密語」,3.打電話給對方確認身分、多方查證或撥打165反詐騙諮詢專線詢問喔。

高雄市政府警察局刑事警察大隊大隊長鄢志豪提醒市民朋友,來電聲稱換電話號碼、要求加LINE、FACEBOOK借錢,現在還加上AI深偽技術變臉成親朋好友跟你視訊,讓你信以為真!若是談到「錢」,請存疑,先撥打親友原本的電話查證喔。若遇詐騙情況,請撥打165反詐騙專線諮詢。(圖:記者宋祥霖翻攝)

最新生活新聞

延伸閱讀