電子發燒友網報道(文/李彎彎)近段時間,網絡上流傳不少中國明星飆英語的視頻,比如趙本山用英文演小品,郭德綱用英文說相聲,范明用英文演戲等。除此之外,網絡上也有不少國外明星說著流利中文的視頻,如泰勒·斯威夫特、安妮·海瑟薇等。
這些視頻都是由AI生成的。近年來,AI技術的發展愈發迅速,利用AI技術生成的虛擬人也越發逼真,模仿真人的時候,無論是相貌還是聲音都幾乎一樣,而且嘴型、手勢,身體動作、語速各個方面都能做到非常自然,以至于AI生成的虛擬人與真人幾乎可以做到真假難辨。
可怕的AI換臉和換聲
上述利用AI技術實現多種語言翻譯的能力,確實能夠在一些場合實現有價值的應用。然而,它也會帶來侵權、詐騙等問題。某律師事務所高級合伙人表示,利用AI技術將相聲、小品等翻譯成其他語言,如果沒有經過著作權人授權,就存在侵權問題;此外,網友用他人形象和聲音制作視頻,并在網絡上發布,如果沒有獲得授權,則涉嫌侵犯他人肖像權和聲音權。
AI換臉、換聲的不當應用,除了帶來侵權的問題之外,還有不少詐騙分子正在使用該技術進行詐騙行為。此前就有多起AI詐騙事件被公布。中央廣播電視總臺中國之聲《新聞縱橫》此前也報道過,隨著人臉識別技術的廣泛應用和人工智能技術的進步,一些不法分子開始利用AI技術融合他人面孔和聲音制造逼真的合成圖像來實施新型網絡詐騙,類似騙局具有手段多樣、門檻低、辨別難度大等特點,經常會防不勝防,短時間內造成較大損失。
AI換臉換聲的基本邏輯是通過深度學習特定算法,將目標人物的人臉、表情、聲音等嫁接到模仿的視頻中,最終實現視聽合成的高仿真性,且軟件成本低,合成速率高,檢測鑒別難度大,一般人難以發現偽裝痕跡。不法分子主要以冒充被害人的親戚朋友、領導同事等身份,騙取被害人的信任,從而獲得錢財。
電子發燒友此前在某生物特征識別論壇上,聽一位專注于深度偽造技術檢測的專家談到:“我們很多人會經常接到一些廣告推銷的電話,這些打廣告推銷電話的人中,有些就是不法分子偽裝的。它通過這種通話的方式,可以獲得我們的聲紋,同時又能夠在交談中,獲得我們的各種信息。而且時候,他們團隊會有很多個人來給你打電話,以獲取足夠多信息?!?br />
AI詐騙主要有兩種方式,第一種是通過技術手段直接合成換臉、擬聲后的短視頻或語音,在視頻聊天、普通電話中直接播放,這類視頻主要用于表達比較緊急的情況,比如遭遇事故求助等等,播放結束后就會掐斷連接,無法與被害人形成回合性的對話。另一種是在視頻通話中直接換臉并替換聲音,直接用擬聲撥打電話,第二種難度更高,他需要更長時間的互動,被騙則可以在互動的過程中,去尋找破綻。
上述專家介紹到:“這也是為什么,不法分子很多時候會通過了解我們的作息,選擇我們狀態不好的時候通話,比如你平時習慣熬夜,早上睡到十一二點才能清醒,他們就選擇在早上六七點,你睡得很迷糊的時候打電話進行詐騙。這個時候我們就很難去發現其臉部表情、聲音,和交互過程中出現的一些缺陷或者披紕漏?!?br />
AI換臉詐騙并不是無懈可擊
目前AI換臉換聲確實已經很逼真,但是仔細辨別還是可以看出真假。近日浙江衛視《王牌對王牌》節目中策劃了反詐知識傳播的部分,其中全員演示了AI換臉換聲。比如閆妮偽裝成唐嫣,竟然成功騙過張新成??梢钥吹?,除了妝造不同,臉部和聲音確實非常像。
可是如果偽裝人大幅變動位置,或者站得更遠或更近,兩部特征就會變形,甚至是變回偽裝人原本的樣貌。也就是說,如果我們接到親人朋友的視頻電話,為了辨認真假,我們可以讓對方多變動一下位置,是有可能識別真假的。
之前也有行業人士談到過:“如果對方AI換臉,在溝通中一些動作可以讓我們發現破綻,比如說,讓對方用手捂臉、動一動,就會干擾到圖像合成?!蓖ㄟ^他的演示可以看到,用手捂臉,可以看到AI換臉之人的眼睛、鼻子會抖動,手拿開的同時,嘴巴也消失了。
除此之外,大家還是需要從源頭上預防AI換臉詐騙。比如,陌生電話、一些廣告推銷電話謹慎接聽,防止對方采集我們的聲音和信息;在網絡上,避免過多發布個人照片、聲音和視頻;對于外界采集我們人臉、聲紋、指紋等生物特征數據要足夠謹慎等。
小結
當前,AI技術的快速發展,正在促進各行各業技術應用創新。同時,也有一些不法分子濫用AI技術進行詐騙。當前不少AI換臉雖然看上去逼真,不過謹慎的話還是可以被識別。未來,隨著AI技術更加成熟,被用于詐騙的話可能就很難憑借肉眼去識別了。因此,在深度偽造檢測方面,以及法律法規對AI換臉、換聲等技術的不當應用都需要持續加強。
這些視頻都是由AI生成的。近年來,AI技術的發展愈發迅速,利用AI技術生成的虛擬人也越發逼真,模仿真人的時候,無論是相貌還是聲音都幾乎一樣,而且嘴型、手勢,身體動作、語速各個方面都能做到非常自然,以至于AI生成的虛擬人與真人幾乎可以做到真假難辨。
可怕的AI換臉和換聲
上述利用AI技術實現多種語言翻譯的能力,確實能夠在一些場合實現有價值的應用。然而,它也會帶來侵權、詐騙等問題。某律師事務所高級合伙人表示,利用AI技術將相聲、小品等翻譯成其他語言,如果沒有經過著作權人授權,就存在侵權問題;此外,網友用他人形象和聲音制作視頻,并在網絡上發布,如果沒有獲得授權,則涉嫌侵犯他人肖像權和聲音權。
AI換臉、換聲的不當應用,除了帶來侵權的問題之外,還有不少詐騙分子正在使用該技術進行詐騙行為。此前就有多起AI詐騙事件被公布。中央廣播電視總臺中國之聲《新聞縱橫》此前也報道過,隨著人臉識別技術的廣泛應用和人工智能技術的進步,一些不法分子開始利用AI技術融合他人面孔和聲音制造逼真的合成圖像來實施新型網絡詐騙,類似騙局具有手段多樣、門檻低、辨別難度大等特點,經常會防不勝防,短時間內造成較大損失。
AI換臉換聲的基本邏輯是通過深度學習特定算法,將目標人物的人臉、表情、聲音等嫁接到模仿的視頻中,最終實現視聽合成的高仿真性,且軟件成本低,合成速率高,檢測鑒別難度大,一般人難以發現偽裝痕跡。不法分子主要以冒充被害人的親戚朋友、領導同事等身份,騙取被害人的信任,從而獲得錢財。
電子發燒友此前在某生物特征識別論壇上,聽一位專注于深度偽造技術檢測的專家談到:“我們很多人會經常接到一些廣告推銷的電話,這些打廣告推銷電話的人中,有些就是不法分子偽裝的。它通過這種通話的方式,可以獲得我們的聲紋,同時又能夠在交談中,獲得我們的各種信息。而且時候,他們團隊會有很多個人來給你打電話,以獲取足夠多信息?!?br />
AI詐騙主要有兩種方式,第一種是通過技術手段直接合成換臉、擬聲后的短視頻或語音,在視頻聊天、普通電話中直接播放,這類視頻主要用于表達比較緊急的情況,比如遭遇事故求助等等,播放結束后就會掐斷連接,無法與被害人形成回合性的對話。另一種是在視頻通話中直接換臉并替換聲音,直接用擬聲撥打電話,第二種難度更高,他需要更長時間的互動,被騙則可以在互動的過程中,去尋找破綻。
上述專家介紹到:“這也是為什么,不法分子很多時候會通過了解我們的作息,選擇我們狀態不好的時候通話,比如你平時習慣熬夜,早上睡到十一二點才能清醒,他們就選擇在早上六七點,你睡得很迷糊的時候打電話進行詐騙。這個時候我們就很難去發現其臉部表情、聲音,和交互過程中出現的一些缺陷或者披紕漏?!?br />
AI換臉詐騙并不是無懈可擊
目前AI換臉換聲確實已經很逼真,但是仔細辨別還是可以看出真假。近日浙江衛視《王牌對王牌》節目中策劃了反詐知識傳播的部分,其中全員演示了AI換臉換聲。比如閆妮偽裝成唐嫣,竟然成功騙過張新成??梢钥吹?,除了妝造不同,臉部和聲音確實非常像。
可是如果偽裝人大幅變動位置,或者站得更遠或更近,兩部特征就會變形,甚至是變回偽裝人原本的樣貌。也就是說,如果我們接到親人朋友的視頻電話,為了辨認真假,我們可以讓對方多變動一下位置,是有可能識別真假的。
之前也有行業人士談到過:“如果對方AI換臉,在溝通中一些動作可以讓我們發現破綻,比如說,讓對方用手捂臉、動一動,就會干擾到圖像合成?!蓖ㄟ^他的演示可以看到,用手捂臉,可以看到AI換臉之人的眼睛、鼻子會抖動,手拿開的同時,嘴巴也消失了。
除此之外,大家還是需要從源頭上預防AI換臉詐騙。比如,陌生電話、一些廣告推銷電話謹慎接聽,防止對方采集我們的聲音和信息;在網絡上,避免過多發布個人照片、聲音和視頻;對于外界采集我們人臉、聲紋、指紋等生物特征數據要足夠謹慎等。
小結
當前,AI技術的快速發展,正在促進各行各業技術應用創新。同時,也有一些不法分子濫用AI技術進行詐騙。當前不少AI換臉雖然看上去逼真,不過謹慎的話還是可以被識別。未來,隨著AI技術更加成熟,被用于詐騙的話可能就很難憑借肉眼去識別了。因此,在深度偽造檢測方面,以及法律法規對AI換臉、換聲等技術的不當應用都需要持續加強。
聲明:本文內容及配圖由入駐作者撰寫或者入駐合作網站授權轉載。文章觀點僅代表作者本人,不代表電子發燒友網立場。文章及其配圖僅供工程師學習之用,如有內容侵權或者其他違規問題,請聯系本站處理。
舉報投訴
-
AI
+關注
關注
87文章
27061瀏覽量
264835
發布評論請先 登錄
相關推薦
巴菲特談自動駕駛和AI 巴菲特也怕AI詐騙
巴菲特談自動駕駛和AI 巴菲特也怕AI詐騙 股神巴菲特的一舉一動都牽動著億萬人心,巴菲特的伯克希爾·哈撒韋公司(Berkshire Hathaway)日前在美國內布拉斯加州的奧馬哈市召開了2024
開發者手機 AI - 目標識別 demo
功能簡介
該應用是在Openharmony 4.0系統上開發的一個目標識別的AI應用,旨在從上到下打通Openharmony AI子系統,展示Openharmony系統的AI能力,并為
發表于 04-11 16:14
【KV260視覺入門套件試用體驗】Vitis AI Library體驗之OCR識別
Vitis AI Runtime,Vitis AI Library 有很多已經封裝好的神經網絡接口,直接拿來用即可。
OCR識別基于Vitis AI Library 的ocr_pt模型
發表于 10-16 23:25
【KV260視覺入門套件試用體驗】Vitis-AI加速的YOLOX視頻目標檢測示例體驗和原理解析
本文將介紹如何使用Vitis-AI加速YOLOX模型實現視頻中的目標檢測,并對相關源碼進行解讀。由于演示的示例程序源碼是Vitis-AI開源項目提供的,本文演示之前會介紹所需要的準備工作。演示之后
發表于 10-06 23:32
【KV260視覺入門套件試用體驗】基于Vitis AI的ADAS目標識別
AI的模型商城。
Vitis AI Model Zoo 包含經過最優化的深度學習模型,可在賽靈思平臺上加速部署深度學習推斷。這些模型涵蓋了不同的應用,包括 ADAS/AD、視頻監控機器人學和數
發表于 09-27 23:21
【KV260視覺入門套件試用體驗】六、VITis AI車牌檢測&車牌識別
。下圖顯示了車牌檢測的結果。
將圖片中的車牌進行了框選,同事標準位置。
4.2、車牌識別
cd ~/Vitis-AI/examples/vai_library/samples/platenum
發表于 09-26 16:28
AI智能呼叫中心
可以自動識別和響應來電,通過分析用戶的語音、文字和情緒等信息,并給出針對性的應答,與傳統的人工處理相比,AI智能呼叫中心能夠實現24/7不間斷的服務,大幅提高了處理效率和用戶滿意度。二、個性化服務AI
發表于 09-20 17:53
OpenHarmony AI框架開發指導
;lt;其他信息1_其他信息2…>_sdk.so
關于領域,建議使用當前主流簡稱,比如圖片視頻相關的使用\"cv\",語音識別相關的使用“asr”,翻譯相關
發表于 09-19 18:54
【KV260視覺入門套件試用體驗】3.PL端視頻采集與AI識別測試測試
【KV260視覺入門套件試用體驗】3.PL端視頻采集與AI識別測試測試大信 ALSET (QQ:8125036) 感謝安富利科技和燒友燒網給予的XilinxKria KV260視覺AI
發表于 09-18 01:51
AI換臉詐騙防不勝防?安富利基于英飛凌OPTIGA智能住宅聯網安全解決方案
,無論是行騙手段還是行騙時間都讓人心驚膽戰。而除了電信詐騙之外,布滿高科技的AI犯罪還可能在任何地方發生…… 試想一下這樣的場景:有一天你在外地出差,年邁的父親給你打視頻電話,著急地說自己不小心弄丟了大門鑰匙,并且手指恰好
AI視覺檢測在工業領域的應用
隨著制造業的智能化、自動化程度越來越高,AI視覺檢測系統已經成為一種重要的智能制造設備,它能夠大幅提高生產線上的檢測能力和效率。
一、AI視覺檢測系統的作用
工業AI視覺檢測系統的主要作用是自動
發表于 06-15 16:21
評論