假的!假的!假的!達州人千萬別信!
發布時間: 點擊數:
最近,有網友發消息稱
“張文宏是不是帶貨了?”
視頻中
張文宏在賣一種蛋白棒
家里的老人信以為真已經下單
還轉發了很多群
據媒體報道
這個賬號名為“般畫234”
在視頻中
“張文宏”反復介紹一種產品
口型是他的,聲音也是他的
但稍微懂點AI的小伙伴們
一眼就能分辨
這是AI合成的視頻!
目前
這段視頻已在該賬號內不可見
但商品櫥窗內
還保留著蛋白棒售賣的頁面
并顯示已售出1266件
近年來
AI剪輯冒充明星的案例屢見不鮮
也有不少人因此上當
今年11月,江西一位老人來到銀行辦理銀行卡,但手續不全又不肯離開,警方到現場后,老人表示要到銀行貸款200萬元給自己的男朋友“靳東”拍戲。
民警隨即拿起老人的手機進行查看,發現老人所謂的大明星“靳東”是騙子冒充的,其所發布的視頻也是由電腦AI合成,但老人對網絡知之甚少,對于騙子所說所做深信不疑。
最終,民警通過向老人展示網絡上一些冒充“靳東”詐騙的新聞和現場利用AI合成照片等方式,老人才幡然醒悟,表示不會再相信網絡上的“靳東”,并放棄了開卡貸款的念頭。
今年10月
老牌港星黃百鳴
在社交媒體上發布聲明表示
有人盜用他過去的影片
并利用人工智慧技術替換掉原有聲音
假借自家名義代言一個
不知名的藥膏品牌
這種行為純屬欺詐
旨在誤導公眾并從中取利
學會三招識別AI“換臉換聲”
我們可以要求對方在視頻對話的時候,在臉部面前,通過揮手的方式去識別實時偽造的視頻。在揮手的過程中會造成面部的數據干擾,他所偽造的人臉會產生一定的抖動或者閃現,或是一些其他異常的情況。
在點對點的溝通過程中,可以問一些只有對方知道的問題,驗證對方的真實性。
還可以讓對方通過按鼻子按臉的方式,觀察其面部變化,真人的鼻子按下去是會變形,但AI生成的鼻子并不會,同樣臉部也是一樣的。
值得注意的是,以上鑒別方式都是基于現有算法的局限性。未來隨著AI技術的發展,“動起來”“揮手”“比數字”等有可能難不倒新技術,“數字人”同樣能順利完成以上動作,從而更加具備迷惑性。所以,防范AI詐騙,還是要從自己出發,做好信息保護,提高警惕。
例如,不要泄露個人信息,尤其要注意圖像、聲音、指紋等生物信息的保護。“AI換臉”的數據基礎是被模仿人的照片、視頻等,個人公開在外的照片、視頻越多,意味著AI算法參考的數據越多,生成的“數字人”會更真實。
同時,在涉及資金交易等場景下,需要多留心眼,不輕易相信視頻、聲音。很多時候,傳統的識別方式要比技術識別更有效。
上一篇:達州一女士被“老板”騙走20萬元!