從真假難辨到去偽存真!深偽VS防偽,魔高還是道高?

2024年2月6日 21点热度 0人点赞

來源:環球時報

【環球時報報道 記者 趙覺珵】美國知名女歌手泰勒·斯威夫特成為人工智能(AI)深度偽造的又一個受害者。近日,由AI生成的斯威夫特的虛假露骨照片在國外社交媒體平臺上瘋傳,甚至驚動了美國白宮。由於來不及刪除這些有害圖片,社交平臺X一度封鎖了對斯威夫特的相關搜索。雖然利用AI技術制作虛假信息早已有之,但隨著生成式AI在過去一年多時間內的快速發展,對視頻、圖片、音頻進行深度造假的技術更加成熟且普遍,造假的成本也更加低廉。如何在發展、利用生成式AI的同時,有效監管和減少深度偽造產生的虛假信息,成為全球關註的一個重要議題。

深偽內容已令普通人真假難辨

2023年年初,在美國前任總統特朗普公開“預告”其可能被逮捕後,多張他在紐約街頭遭警察圍捕的圖片在美國社交網絡上瘋傳。圖片中,特朗普被多名警察按倒在地,場面十分混亂。

盡管這些圖片很快就被辟謠為AI的“作品”,但仍在一段時間內讓大量不知情的網民信以為真。這讓人們發現,隨著AI技術的不斷更迭,這些深度造假的圖像正變得越來越以假亂真。

“特朗普被捕”的AI生成圖片

上月早些時候,中國香港特區政府專門發佈了一則聲明對多條以AI偽造的電視節目片段進行辟謠。在這些深度造假的短片中,特區行政長官李傢超向市民推介一項投資計劃,特斯拉創始人馬斯克也現身其中。

從圖片、音頻,到復雜的視頻,AI技術的進化速度超乎普通人的想象。美國《福佈斯》雜志網站表示,過去,AI在生成人手方面特別困難。有時候圖像上會出現缺失的、扭曲的四肢,以及多餘的手指和牙齒,讓人感到詭異甚至恐怖。但那已經是過去式了。中佛羅裡達大學研究生院教授塞爾諾表示,AI制造出的“深度偽造”內容看起來非常真實,即使對專傢來說,確定真實性也是一個挑戰。

《環球時報》記者調查發現,目前已有大量工具和服務可能被用於深度造假。例如,AI圖片生成工具Midjourney已經更新至V6版本,其生成的圖片畫面逼真、細節豐富;Deepfakes等工具則可以實現AI“換臉”;HeyGen等工具則可以讓外國人搖身一變擁有“十級中文”,此類視頻曾在社交媒體廣泛傳播。

浙江大學國際聯合商學院數字經濟與金融創新研究中心聯席主任、研究員盤和林對《環球時報》記者表示,對於圖片偽造,當前肉眼很難分辨,但如果可以放大到像素級別,部分專業人員是可以分辨真偽的。視頻偽造方面,AI水平並不穩定,所以視頻如果換頭需要非常好的技術,單純依靠AI很容易出現破綻,以假亂真的程度並不高。

整體而言,辨別深度造假的內容已經越來越困難。《科學》雜志網站日前報道稱,一些研究顯示,大多數人都無法識別深度造假內容。一項針對210名志願者的研究發現,大多數人都相信自己能夠區分深度造假視頻和真實視頻。“但實際上,他們的判斷結果並不比扔硬幣猜正反面準確多少。”另一項研究則顯示,人們在識別深度造假的音頻上也表現不佳。在對500多人進行的一項研究發現,人們隻有大約73%的概率能夠正確識別語音深度造假,但錯誤地將真實音頻判斷為深度造假的概率也一樣高。

生成式AI已成“雙刃劍”

從ChatGPT到層出不窮的大模型,生成式AI正在改變人們的生產與生活。但在提供便利的同時,生成式AI帶來的深度造假問題也已經造成了一系列影響。

據統計,全球約一半人口所在的國傢或地區將在2024年迎來領導人選舉,其中包括美國、印度、印尼、墨西哥等國傢。在AI技術飛速發展的當下,越來越多的政治人士和科技界人士表示,他們非常擔憂在AI技術加持下假消息愈發泛濫,而且真假難辨,會嚴重影響選舉的公平性。

據《科學》報道,在今年1月舉行的新罕佈什爾州2024年總統選舉共和黨初選前夕,一些美國選民接到過“神秘電話”,現任總統拜登似乎在電話中勸阻人們不要前去選舉。事實上,聲音是由AI生成的。

谷歌前首席執行官埃裡克·施密特曾警告說,“2024年的選舉將一團糟,因為社交媒體平臺無法保護我們免受AI生成的虛假消息的侵害。”OpenAI首席執行官奧特曼則表示,“我對人工智能對未來選舉產生的影響感到緊張,至少在每個人都習慣AI之前,這種影響將是巨大的。”

對不法分子而言,深度造假的內容更容易被用於詐騙等犯罪行為。去年10月,中國國傢金融監督管理總局發佈《關於警惕利用AI新型技術實施詐騙的風險提示》。其中介紹稱,不法分子通常先以“網店客服”“營銷推廣”“招聘兼職”“婚戀交友”等為借口,通過微信、QQ、電話等方式聯系消費者,采集發音、語句或面部信息。再利用“擬聲”“換臉”等技術合成消費者虛假音頻或視頻、圖像,以借錢、投資、緊急救助等借口誘導其親友轉賬匯款,或提供銀行賬戶密碼等敏感信息,隨後轉移資金。

軍事專傢張學峰對《環球時報》記者表示,AI深偽技術在信息戰、認知戰領域的應用尤其值得關註。特別是一些針對國傢、地區領導人的深偽視頻,在特殊情況下使用,再配合其他手段,可能發揮意想不到的作用。比如西方國傢在對一個國傢或地區實施武裝打擊,導致其內部出現混亂時,釋放精心策劃、AI深偽生成的該國領導人講話,號召國民放棄抵抗,或表示自己已經處於第三國,再配合對當地的網絡、電視系統進行幹擾,可能會導致該國國內進一步混亂,打擊其士氣,加速其抵抗決心的瓦解。

英國《金融時報》近日的一篇報道分析稱,“如果我們看到足夠多的深偽影片,我們可能也會忽視身邊的謠言和暴力行為。保持懷疑是好事,但過度質疑會讓最簡潔明了的事實,也能在人群中掀起爭議。”

“用魔法打敗魔法”?

盡管生成式AI技術增添了新的挑戰,但接受《環球時報》記者采訪的技術專傢均認為,不能“因噎廢食”,拒絕繼續發展相關技術。在技術進步的過程中,其本身就可以用來“對抗”深度造假行為。盤和林對《環球時報》記者表示,從技術上講,可以通過生成式AI的逆向機制來規范管理深度造假。在AI識別AI方面,比如圖像篡改檢測、AIGC生成判別,這些AI技術都已經出現。此外,也有通過雙向神經網絡來識別的技術,比如合成圖像是通過算法A到B,那麼識別是否生成,則是算法從B到A的過程。這些AI識別技術非常多樣,有些是從細節上去判別,逐個像素點檢查,有些是根據圖像特征去找瑕疵,也有通過大規模標註數據去訓練AI進行分辨。

北京社科院副研究員王鵬告訴《環球時報》,一種常用的方法是通過對圖像、音頻和視頻的元數據進行分析,以檢測是否存在篡改的痕跡。此外,還可以利用機器學習算法對內容進行分析以識別出異常或不一致的地方。

除利用技術手段外,監管也被認為是必不可缺的一環。近日,中國的《生成式人工智能服務管理暫行辦法》已正式施行,要求提供者應當按照《互聯網信息服務深度合成管理規定》對圖片、視頻等生成內容進行標識。目前,國內一些主要生成式AI服務提供商生成的圖片,已經明確進行了標註。

掌如研究院院長何基永對《環球時報》記者表示,既要加強技術研發,提高鑒別能力,又要制定更加細致和具有針對性的法律法規,明確違法行為及其法律責任,形成有力的治理體系。同時,要加強國際合作,共同應對這一全球性挑戰。