昨日,公安部網安局發文提醒用戶,應該注意防范利用AI人工智能等新型手段詐騙。
公安部網安局稱,AI詐騙常用手法包括了,合成聲音、AI換臉等方式。
合成聲音案例中,騙子通過騷擾電話錄音等來提取某人聲音,獲取素材后進行聲音合成,從而可以用偽造的聲音騙過對方。而AI換臉中,騙子首先分析公眾發布在網上的各類信息,根據所要實施的騙術,通過AI技術篩選目標人群。在視頻通話中利用AI換臉,騙取信任。
對此,公安部網安局提醒用戶,面對AI詐騙應該在涉及錢款時,盡量通過電話詢問具體信息,確認對方是否為本人。同時,加強個人信息保護意識,對于不明平臺發來的廣告、中獎、交友等鏈接提高警惕,不隨意填寫個人信息,以免被騙子“精準圍獵”。
此外,做好家中老人的宣傳防范工作。提醒老年人在接到電話、短信時,要放下電話,再次撥打家人電話確認,不要貿然轉賬。
文章來源于網絡,如有侵權請聯系刪除。