登錄×
電子郵件/用戶名
密碼
記住我
假新聞

可怕的假新聞

一段特朗普宣布對朝鮮發動核戰爭的偽造視頻,在YouTube上會產生什麼影響?這種情形如今並非天方夜譚。

想象一下,當你照鏡子時,你看到的不是自己的鏡像,而是唐納德•特朗普(Donald Trump)。每當你對着鏡子齜牙咧嘴時,他的臉也變得扭曲。你笑,他也笑。你怒目而視,他也怒目而視。也就是說,你在實時控制美國總統的臉。

這就是Face2Face的邪惡潛力。由加州斯坦福大學(Stanford University)研究員研發的這項技術,讓人把自己的面部表情移植到別人的視頻上。

現在想象一下,把這項「表情重現」技術與經過巧妙剪輯的美國總統以往公開發言的音頻片段結合起來。你把自己的創作發到YouTube上:一段足以令人信服的特朗普宣布對朝鮮發動核戰爭的視頻。在當前這種瘋狂的大環境下,在白宮來得及否認之前,這段煽動性的視頻很可能會像病毒一樣迅速傳播。

這是終極版的假新聞劇情,但並非不可想象:科學家已經通過篡改YouTube上喬治•W•布什(George HW Bush)、巴拉克•奧巴馬(Barack Obama)和弗拉基米爾•普京(Vladimir Putin)的視頻,展示了這個概念。

現在美國國防高級研究計劃局(DARPA)已經啟動「媒體取證」(MediFor)研究計劃。DARPA表示,該計劃將力求在「目前有利於操縱者」的一個領域扭轉局面——如果偽造新聞的目標是宣傳或散布誤導信息,操縱者的罪惡優勢就變成一個國家安全問題。

這項五年計劃旨在推出一套系統,能夠每天分析數十萬圖片,並即刻評估這些圖片是否被篡改。新罕布什爾州達特茅斯學院(Dartmouth College)電腦科學家哈尼•法里德(Hany Farid)教授是參與該計劃的學者之一。他的專長是探測被篡改過的圖片,他的工作包括執行執法機構和媒體機構分派的任務。

「我現在看到技術已經非常發達,這讓我深感擔憂,」法里德教授不久前向《自然》(Nature)雜誌表示,「在未來某一時刻,我們將達到可以製作出帶有音頻的世界領導人的逼真視頻的階段,那將令人非常不安。」他把與操縱者較量的努力比作一場科技軍備競賽。

目前而言,發現偽造圖片需要時間和專業知識,這意味着大部分偽造圖片暢通無阻地傳播着。識別問題圖片的第一步是進行逆向圖片搜索,比如使用谷歌圖片搜索(Google Image Search),如果該圖片曾出現在其他地方,它將被檢索出來(該方法在發現科學造假方面——比如論文作者抄襲他人圖表——被證明格外有用)。

對於照片,可以仔細查看有沒有異常邊緣或色彩紊亂。一幅彩色圖像是由一個個單色像素構成的。這些獨立像素塊以特定方式組合起來,構成一張照片中的眾多色調和陰影。插入另一個圖像,或用噴槍工具抹掉什麼東西,都會打亂這種有特徵的像素化。陰影是另一個透露圖像真偽的元素。法里德教授引用了2012年一段廣為流傳的鷹抓走孩子的視頻:他很快分析出視頻中的陰影不一致,從而揭穿了這段視頻是由電腦合成的。

麻省理工學院(MIT)的研究員也研發了一種巧妙辦法來判斷視頻片斷中的人物是真實的還是合成的。通過放大視頻片段並檢查人臉上的色彩差異,他們可以推斷出這個人是否有脈搏。有意思的是,一些法律專家認為,保護言論自由的美國憲法第一修正案應該適用於電腦合成的兒童色情。已經有一些案件的結果有賴於專家們能夠探測違法材料中是否有真實的受害人。

機器學習正在幫助欺詐者:堅持不懈的造假者可以打造「生成對抗網絡」(GAN)。GAN可以說是某種雙重人格(Jekyll and Hyde)網絡,一方面生成圖像,另一方面拒絕那些在真實度上達不到圖片庫標準的圖像。結果就是一台內置「魔鬼代言人」的機器,能夠自己學會如何製作出以假亂真的圖片。

然而,並非所有合成圖片都是惡意的:兩個學生研發了一套程序,能夠製作看起來像是精美藝術的藝術。他們所用的原始材料是WikiArt數據庫中的10萬幅繪畫:這個名為GANGogh的程序已經製作出適合掛在百萬富翁的豪宅牆上的作品。

這是數字造假的史詩般影響:它不僅可能攪亂政治和破壞世界秩序,還可能重塑我們對藝術的觀念。

本文作者是一名科技評論員

譯者/何黎

讀者評論

FT中文網歡迎讀者發表評論,部分評論會被選進《讀者有話說》欄目。我們保留編輯與出版的權利。
用戶名
密碼

相關文章

相關話題

FT中文網客戶端
點擊或掃描下載
FT中文網微信
掃描關注
FT中文網全球財經精粹,中英對照
設置字號×
最小
較小
默認
較大
最大
分享×