污网站免费看_男人的肌肌插入女人的肌肌_日日摸夜夜添夜夜添破第一_国产超薄肉色丝袜的免费网站

24小時服務熱線

0818-2220006
首頁>新聞中心>專題專欄

假的!假的!假的!達州人千萬別信!

發布時間: 點擊數:

最近,有網友發消息稱

張文宏是不是帶貨了?

視頻中

張文宏在賣一種蛋白棒

家里的老人信以為真已經下單

還轉發了很多群

據媒體報道

這個賬號名為般畫234”

在視頻中

張文宏反復介紹一種產品

口型是他的,聲音也是他的

但稍微懂點AI的小伙伴們

一眼就能分辨

這是AI合成的視頻!

目前

這段視頻已在該賬號內不可見

但商品櫥窗內

還保留著蛋白棒售賣的頁面

并顯示已售出1266

image.png 

近年來

AI剪輯冒充明星的案例屢見不鮮

也有不少人因此上當

今年11月,江西一位老人來到銀行辦理銀行卡,但手續不全又不肯離開,警方到現場后,老人表示要到銀行貸款200萬元給自己的男朋友靳東拍戲。

民警隨即拿起老人的手機進行查看,發現老人所謂的大明星靳東是騙子冒充的,其所發布的視頻也是由電腦AI合成,但老人對網絡知之甚少,對于騙子所說所做深信不疑。

最終,民警通過向老人展示網絡上一些冒充靳東詐騙的新聞和現場利用AI合成照片等方式,老人才幡然醒悟,表示不會再相信網絡上的靳東,并放棄了開卡貸款的念頭。

 

今年10

老牌港星黃百鳴

在社交媒體上發布聲明表示

有人盜用他過去的影片

并利用人工智慧技術替換掉原有聲音

假借自家名義代言一個

不知名的藥膏品牌

這種行為純屬欺詐

旨在誤導公眾并從中取利

學會三招識別AI“換臉換聲

我們可以要求對方在視頻對話的時候,在臉部面前,通過揮手的方式去識別實時偽造的視頻。在揮手的過程中會造成面部的數據干擾,他所偽造的人臉會產生一定的抖動或者閃現,或是一些其他異常的情況。

在點對點的溝通過程中,可以問一些只有對方知道的問題,驗證對方的真實性。

還可以讓對方通過按鼻子按臉的方式,觀察其面部變化,真人的鼻子按下去是會變形,但AI生成的鼻子并不會,同樣臉部也是一樣的。

值得注意的是,以上鑒別方式都是基于現有算法的局限性。未來隨著AI技術的發展,“動起來”“揮手”“比數字”等有可能難不倒新技術,“數字人”同樣能順利完成以上動作,從而更加具備迷惑性。所以,防范AI詐騙,還是要從自己出發,做好信息保護,提高警惕。

例如,不要泄露個人信息,尤其要注意圖像、聲音、指紋等生物信息的保護。“AI換臉的數據基礎是被模仿人的照片、視頻等,個人公開在外的照片、視頻越多,意味著AI算法參考的數據越多,生成的數字人會更真實。

同時,在涉及資金交易等場景下,需要多留心眼,不輕易相信視頻、聲音。很多時候,傳統的識別方式要比技術識別更有效。




上一篇:達州一女士被“老板”騙走20萬元! 下一篇:新型詐騙!達州已有人被騙!
新聞中心

假的!假的!假的!達州人千萬別信!

最近,有網友發消息稱

張文宏是不是帶貨了?

視頻中

張文宏在賣一種蛋白棒

家里的老人信以為真已經下單

還轉發了很多群

據媒體報道

這個賬號名為般畫234”

在視頻中

張文宏反復介紹一種產品

口型是他的,聲音也是他的

但稍微懂點AI的小伙伴們

一眼就能分辨

這是AI合成的視頻!

目前

這段視頻已在該賬號內不可見

但商品櫥窗內

還保留著蛋白棒售賣的頁面

并顯示已售出1266

image.png 

近年來

AI剪輯冒充明星的案例屢見不鮮

也有不少人因此上當

今年11月,江西一位老人來到銀行辦理銀行卡,但手續不全又不肯離開,警方到現場后,老人表示要到銀行貸款200萬元給自己的男朋友靳東拍戲。

民警隨即拿起老人的手機進行查看,發現老人所謂的大明星靳東是騙子冒充的,其所發布的視頻也是由電腦AI合成,但老人對網絡知之甚少,對于騙子所說所做深信不疑。

最終,民警通過向老人展示網絡上一些冒充靳東詐騙的新聞和現場利用AI合成照片等方式,老人才幡然醒悟,表示不會再相信網絡上的靳東,并放棄了開卡貸款的念頭。

 

今年10

老牌港星黃百鳴

在社交媒體上發布聲明表示

有人盜用他過去的影片

并利用人工智慧技術替換掉原有聲音

假借自家名義代言一個

不知名的藥膏品牌

這種行為純屬欺詐

旨在誤導公眾并從中取利

學會三招識別AI“換臉換聲

我們可以要求對方在視頻對話的時候,在臉部面前,通過揮手的方式去識別實時偽造的視頻。在揮手的過程中會造成面部的數據干擾,他所偽造的人臉會產生一定的抖動或者閃現,或是一些其他異常的情況。

在點對點的溝通過程中,可以問一些只有對方知道的問題,驗證對方的真實性。

還可以讓對方通過按鼻子按臉的方式,觀察其面部變化,真人的鼻子按下去是會變形,但AI生成的鼻子并不會,同樣臉部也是一樣的。

值得注意的是,以上鑒別方式都是基于現有算法的局限性。未來隨著AI技術的發展,“動起來”“揮手”“比數字”等有可能難不倒新技術,“數字人”同樣能順利完成以上動作,從而更加具備迷惑性。所以,防范AI詐騙,還是要從自己出發,做好信息保護,提高警惕。

例如,不要泄露個人信息,尤其要注意圖像、聲音、指紋等生物信息的保護。“AI換臉的數據基礎是被模仿人的照片、視頻等,個人公開在外的照片、視頻越多,意味著AI算法參考的數據越多,生成的數字人會更真實。

同時,在涉及資金交易等場景下,需要多留心眼,不輕易相信視頻、聲音。很多時候,傳統的識別方式要比技術識別更有效。


?2020-2025達州水務