
資料處理中,請稍候⋯⋯
我們正在載入最新內容,很快就好!
發現錯字、資訊錯誤或內容異常?請回報給我們!
遇到功能異常或有改進建議?歡迎提供您的回饋!
取消
下一步

資料處理中,請稍候⋯⋯
我們正在載入最新內容,很快就好!
2024/7/1
資料來源
連署人/金瑞龍、陳儀君、黃永昌、曾煥嘉
連署人/金瑞龍、陳儀君、黃永昌、曾煥嘉
詐騙集團已將目光鎖定在政府人員,近日許多里長受害,日後恐怕會有更多政府人員被深偽AI鎖定,因此建請警察局與新聞局合作,對市民多加宣導新型態AI詐騙樣態與防治措施。
貴會陳議員偉杰、宋議員雨蓁Nikar.Falong提案:「詐騙手法又有新招数,近期本市有多位里長都收到LINE的威脅影片及訊息,以AI換臉深偽技術合成不雅影片,要求私下買回影片,否則就要對外公開。建請警察局與新聞局,加強新型態防詐宣導,尤其AI換臉技術與聲音變換技術日漸成熟,未來詐騙集團恐將深偽AI詐騙手法,用在更高層或知名度更高之政府人員身上,若造成危害,後果不堪設想」,本府辦理情形如下:
一、有關AI換臉深偽技術,初步辨別可查看膚色、臉部是否有些微模糊、不自然陰影及貶眼是否自然等特徵;聲音部分,目前仍是透過預錄聆聽方式,查此類技術所製作之語音常出現語氣機械化、銜接不順及無情緒聲調落差等情形。民眾如有疑問或查證需求,可就近向警察單位求證或將照片、影音傳送至有公信力之雲端檢測工具Deepware網站 (https://deepware.ai/) 檢測(經本府警察局同仁上傳深偽影音測試,可初步辨別真偽)。
二、內政部警政署刑事警察局因應「深偽Deepfake」影音犯罪,已採購2套工具進行深偽影音鑑識,遇有是類案件均由本府警察局刑事警察大隊科偵隊先行初步比對排除,再送交內政部警政署刑事警察局協助鑑別。
三、本府警察局之「識詐宣講團」,已將此詐騙手法納入宣導教材。依被害族群特性,採分眾、分層及分齡之方式,增加宣導廣度及深度。並提醒民眾遇有以影片或電話請求借錢及威脅匯款等,應以其他方式聯絡當事親友,以多方聯繫管道查證或親屬間自訂暗語,避免AI科技造成的危害或財產損失。
連署人/金瑞龍、陳儀君、黃永昌、曾煥嘉
問題回報