“螞蟻呀嘿,螞蟻呀呼,螞蟻呀哈……”
一周前
魔性變臉視頻“螞蟻呀嘿”刷屏各大社交平臺
雖然它現(xiàn)在已經(jīng)涼涼
但截至目前
某短視頻平臺上標(biāo)有#螞蟻呀嘿#標(biāo)簽的視頻播放量
還是高達(dá)32億次
“螞蟻呀嘿”的短視頻原理十分簡單
用戶上傳一張靜態(tài)的照片
就能通過軟件
制作成一個動態(tài)的小視頻
爸媽的老照片、家里的合影
紛紛被做成了視頻......
如果你也躍躍欲試
Stop
聽聽反詐民警說風(fēng)險!
AI換臉或成電信詐騙“新東風(fēng)”
提供該特效的AI換臉軟件Avatarify
也因此火爆全網(wǎng)
3月2日凌晨
該軟件在App Store中國區(qū)悄然下架
AI換臉被指存?zhèn)€人隱私數(shù)據(jù)泄露、侵權(quán)等隱患
AI換臉的背后隱藏著很大安全隱患
隨著人臉變換越來越逼真
不僅可能造成個人隱私數(shù)據(jù)泄露
甚至可能被不法分子用于實(shí)施電信網(wǎng)絡(luò)詐騙
比如
通過收集照片、視頻
利用AI技術(shù)“換臉”
用偽造的照片或視頻實(shí)施詐騙等
四種“花式”AI詐騙形式
第一種:轉(zhuǎn)發(fā)微信語音
騙子在盜取微信號后,向該微信號的好友提出轉(zhuǎn)賬要求。為取得信任,騙子會轉(zhuǎn)發(fā)之前的語音,進(jìn)而獲得錢款。雖然目前微信語音是不能轉(zhuǎn)發(fā)的,但騙子可以通過提取語音文件或安裝增強(qiáng)版微信(插件),實(shí)現(xiàn)語音轉(zhuǎn)發(fā)。
第二種:聲音合成
騙子通過騷擾電話等方式,錄音提取某人的聲音,并對素材進(jìn)行合成,用偽造的聲音實(shí)施詐騙。
第三種:AI換臉
視頻通話的可信度明顯高于語音和電話,但利用AI換臉,騙子可以偽裝成任何人。
第四種:通過AI技術(shù)篩選受騙人群
通過分析公眾發(fā)布在網(wǎng)上的各類信息,騙子會根據(jù)所要實(shí)施的騙術(shù)對人群進(jìn)行篩選,從而選出目標(biāo)人群。例如實(shí)施情感詐騙時,可以篩選出經(jīng)常發(fā)布感情信息的人群;實(shí)施金融詐騙時,可以篩選出經(jīng)常搜集投資信息的人群。
民警提示
在信息技術(shù)和移動互聯(lián)網(wǎng)快速發(fā)展時代背景下,電信網(wǎng)絡(luò)詐騙犯罪形式更迭不斷,新的詐騙手法隨著新技術(shù)、新應(yīng)用、新業(yè)態(tài)的出現(xiàn)應(yīng)運(yùn)而生并不斷演變升級。反復(fù)核實(shí)和保護(hù)隱私,是當(dāng)下防范電信網(wǎng)絡(luò)詐騙的重中之重。
千萬切記,不聽、不信、不轉(zhuǎn)賬!
聯(lián)系客服