笑著看完AI換臉綜藝後,AI詐騙讓我脊背發涼

元宇宙新聲 2024-04-29 17:56:32

作者&編輯|孫浩南

AI技術的發展已經逐漸滲透到了各個領域,電影和電視劇的制作方式也在發生著翻天覆地的變化,AI換臉技術更是成爲影視圈中備受矚目的一環。

近日,一部名爲《萌探2024》的綜藝中,有一期節目以“反詐”爲主題,設計了一個既刺激又充滿挑戰的遊戲環節,嘉賓們需要通過AI換臉技術,僞裝成自己的親朋好友,進行視頻通話來獲取他人的信任。

這期綜藝節目將AI換臉玩出了新花樣,讓衆多觀衆爆笑連連,但笑過之後卻對AI詐騙不寒而栗。

反詐主題綜藝,AI換臉惹觀衆爆笑

4月26日,由愛奇藝出品的全開放式IP任務對抗真人秀《萌探2024》迎來首播。節目中精彩的AI換臉體驗爲觀衆們帶來了滿滿驚喜,本期節目播出後熱度持續升溫,諸多話題登上全網各大社交媒體平台熱搜,其中#向太沒認出來向佐#登微博主榜TOP7、#高葉模仿吳鎮宇一模一樣#登抖音熱榜TOP4、#向太要跟吳鎮宇互換兒子#登抖音熱榜TOP9。

向佐和黃子韬作爲節目的亮點,他們的表演無疑是這一期節目的高潮。他們分別選擇了吳鎮宇和向佐的形象進行換臉,然後給向太打電話。這一舉動,無疑是對向太智慧的一次考驗,也是對觀衆洞察力的一次挑戰。

令人驚訝的是,向太作爲視頻聊天的對象,似乎並未察覺到這一變化,與這個被AI換臉後的“向佐”和“吳鎮宇”進行了交談。事後,在陳岚發文中,她調侃自己好像被向佐“電信詐騙”了,同時提醒大家小心AI換臉詐騙。

除此之外,高葉AI換臉成吳鎮宇騙古力娜紮、孟子義AI換臉成高葉邀請演員王陽參加綜藝也同樣沒有被發現。而徐志勝換臉楊坤給張碧晨打視頻則因爲碰巧本尊就在身旁而被發現,其他人則因爲聲音和臉型的差異過大而分分鍾被識破。

其實早在2023年11月的《王牌對王牌第八季》中,以“反詐”主題的一期節目中同樣安排了AI換臉打視頻電話的遊戲環節。其中,當所有人都AI換臉成“沈騰”後更是引起全場爆笑,好似各個平行宇宙的騰哥都聚在一起開會一樣。

不論是《王牌對王牌第八季》還是《萌探2024》,節目中的AI換臉環節都有著極佳的節目效果,不論是節目嘉賓還是觀衆都十分歡樂。但在笑過之後,AI換臉技術的逼真程度也著實令人震驚,很多時候已經能夠以假亂真了。

而節目也沒有單純停留搞笑層面,而是肩負起了社會責任,也就是電信詐騙問題。對于很多人來說AI換臉詐騙相對離我們的生活比較遙遠,節目中明星的現身說法,則能讓大家真正意識到這項技術的以假亂真程度,繼而在生活中提高警惕。

《王牌對王牌第八季》還邀請節目嘉賓和浙江各地民警拍攝“小劇場”講解了AI技術的工作原理,分享反詐技巧。《萌探2024》則是與“平安北京”等數十家各地公安新媒體矩陣賬號聯動,發起#萌探2024致敬反詐英雄#話題科普反詐知識。

節目和警察們如此賣力宣傳“反詐”是因爲,隨著生成式人工智能技術的發展,通過AI技術換臉換聲的方式來模擬出另一個人的真實外觀已不再困難。據不完全統計,AI詐騙案件數量在近年來快速增長,僅2023年一年在全國已發生至少16起。

AI換臉案件激增,AI合成聲音讓騙局更真實

去年7月17日,一女子在社交軟件上被一個自稱是埃隆·馬斯克的賬號添加爲好友。在聊天過程中取得了該女子的信任,不久後就騙取了7000萬韓元(約合人民幣36萬)。

最後,爲安撫受害者,該賬號還發送了一段錄音,聲稱“我是埃隆·馬斯克,希望聽到這個錄音文件後能放心”,但專業人士分析這段錄音後確認其由AI合成。

今年年初,香港警方透露了一場涉及深度AI造假技術的複雜騙局,一家跨國公司的香港辦事處遭受了高達1.8億元的重大財務損失。該公司首席財務官和其他員工的通過AI技術,出現在視頻電話會議中,指示員工轉移資金。

因爲其他出席的人看起來和聽起來都像他認識的同事,最終這名員工相信電話中的其他人都是真實的,因此同意彙出總計 2 億港元(約合 2560 萬美元)。

而在今年的3月1日晚,劉德華電影公司發聲明稱,微信用戶“華仔共享團”及其關聯號利用AI合成劉德華聲音,未經授權在微信發布剪輯視頻,誤導公衆,利用劉先生知名度吸引流量、售賣商品獲利。該行爲侵犯劉先生肖像權、姓名權及聲音權益,並涉嫌詐騙。

AI換臉本就已經真假難辨了,而AI合成聲音則讓整個騙局更加逼真了。在社交媒體上,許多留學生發帖表示曾遇到利用AI合成本人語音,對在國內的父母進行的詐騙。這些詐騙以綁架爲名,放出AI合成的求救語音,同時利用時空差,在造成恐慌的心理下騙取大量金額。

因此,在享受科技帶來便利的同時,我們也應該保持警惕,不斷提升自己對于科技安全的意識和防範能力。正如陳岚在節目後的發文中所言,“一定要小心現在AI換臉的科技,謹防被換臉親友詐騙”。AI換臉不止是綜藝節目中的小遊戲,更是真實發生在我們生活中的詐騙手段。

面對AI詐騙,我們如何處之?

不管技術如何發展,很多詐騙的套路萬變不離其宗:竊取隱私,利用恐懼、貪欲、情緒價值編故事,冒充熟人或包裝自己獲取信任,圖窮匕見以錢爲最終目的。

詐騙分子往往會AI換臉僞裝成親人、朋友、同事、領導等有一定交集的熟人,而想要完美的騙過受害者則需要事先收集到面部、聲音等重要信息。因此,我們總結了一些防範詐騙的建議:

1.驗證身份:如果接到聲稱是親友或同事的緊急求助電話或視頻通話,應該通過其他途徑(如直接撥打對方的已知電話)來驗證對方的真實身份。

2.保護個人信息:不要輕易分享個人生物信息和社交賬號,同時要警惕社交媒體上的隱私設置,限制不熟悉的人獲取你的個人信息。

3.留意異常:在交流過程中,注意對方的行爲是否與平時相符,比如語言習慣、說話風格等,如果有不尋常之處,應提高警覺。

4.雙重驗證:對于重要的操作請求,如轉賬彙款,要求進行雙重驗證,例如通過銀行的官方渠道或面對面確認。

5.反詐普及:向家人和朋友普及此類詐騙手法,特別是老年人和不太熟悉科技産品的人群,因爲他們可能更容易上當受騙。

6.使用安全軟件:確保電腦和手機安裝了最新的安全軟件,以防止惡意軟件收集個人信息。

7.關注官方信息:時刻關注政府、金融機構和網絡安全機構發布的防騙提示和警告。

8.報警處理:一旦發現可能遭遇了換臉詐騙,應立即停止所有交易並與警方聯系。

除去提高警惕意識自我防範外,還需要法律法規等各方面的監管。對于AI換臉技術,法律上通常會采取一系列應對措施,包括加強監管、制定嚴格的法律法規以及追究相關責任人的法律責任等。此外,技術手段如數字水印、身份驗證等也可以用于防範和打擊不法行爲。

爲規範人工智能發展,去年1月10日,國家互聯網信息辦公室,工業和信息化部,公安部聯合發布的《互聯網信息服務深度合成管理規定》正式施行,內容明確了合成數據和技術管理規範。其中提到:深度合成服務提供者對使用其服務生成或編輯的信息內容,應當添加不影響使用的標識。提供智能對話、合成人聲、人臉生成、沉浸式擬真場景等生成或者顯著改變信息內容功能的服務的,應當進行顯著標識,避免公衆混淆或者誤認。

近期,也有平台和企業發布了“關于人工智能生成內容的平台規範暨行業倡議”,明確禁止利用生成式人工智能技術創作、發布侵權內容,包括但不限于肖像權、知識産權等,一經發現,平台將嚴格處罰。

人工智能技術在近年來的迅猛發展中,已經在多個領域取得了驚人的成果。從語音助手到自動駕駛,從醫療診斷到金融風控,人工智能已經深刻影響了我們的生活和工作。然而,隨之而來的安全隱患也是不可忽視的,我們需要更加重視對于人工智能技術的監管和規範,以充分發揮其積極作用的同時,最大限度地避免其負面影響。

寫在最後

AI浪潮的席卷也使得詐騙變得更爲猖獗,而兩期AI換臉綜藝則是在搞笑之余宣傳發詐知識,幫助更多人認識到AI換臉詐騙的嚴重性。作爲普通人,我們往往是技術變革大潮裏的一朵浪花,面對叠代超乎想象的AI技術,能做的只有緊跟時代的腳步。

人們固然不能因噎廢食,但也不能忽略它的雙刃劍效應。如果缺乏應有規束,AI換臉則可能打開潘多拉魔盒。因勢利導,使其趨利避害,才能促成科技輔助生活的美好未來。

0 阅读:8

元宇宙新聲

簡介:在這裏,看懂元宇宙