神奇女俠“下海”拍片?下一個可能是你“老婆”

02-01

《神奇女俠》主演蓋爾 · 加朵「無碼三級片」流出,《哈利 · 波特》赫敏扮演者艾瑪 · 沃特森「床照」曝光,女神寡姐斯嘉麗 · 約翰遜「下海」拍片 ……

乍一看還以為好萊塢「艷照門」曝光瞭,正當宅男們搬好小板凳準備好好清潔一下屏幕時,可能就會發現有什麼不妥。

因為這都是視頻通過 AI 技術合成的,國外論壇 Reddit 上一位叫「 deepfakes」 的用戶利用 AI 工具將這些好萊塢女星的臉「換」到瞭色情影片的演員身上。

(蓋爾 · 加朵的臉被換到一個色情影片的演員上)

一開始這隻是 deepfakes 的「自娛自樂」,可如今事件逐漸開始失控。

這些 AI 工具被做成瞭每個人都可以下載安裝的應用,於是一大批「名人色情電影」開始在互聯網上流傳,而一些用戶甚至將身邊的同學朋友變成瞭色情電影中的主角。

還記得前段時間讓不少傢長瑟瑟發抖是兒童邪典視頻嗎?這些針對兒童制作的動畫或真人短片,充斥著血腥暴力和軟色情的內容。

Reddit 上的一篇文章曝光瞭這些兒童邪典視頻的幕後制作過程,將此事在互聯網上徹底引爆。而這次 Reddit 成瞭「AI 換臉色情電影」滋長的溫床。

兒童邪典視頻偃旗息鼓瞭,全民 DIY 色情影片的熱潮卻開始瞭。

近幾年人工智能大潮方興未艾,霍金和埃隆 · 馬斯克預言的那個 AI 毀滅人類的世界或許不會到來,但 AI 引起的倫理道德危機和法律問題,已經成瞭這個互聯網世界不得不面對的問題。

女神怎麼成瞭色情影片的女主角?

去年 12 月,一段神奇女俠主演蓋爾 · 加朵的「成人短片」在 Reddit 上出現,引來眾多網友圍觀。

這段影片的制作者是一個網名為 deepfakes 的程序員,他在業餘時間用傢裡的電腦和開源的 AI 工具,通過機器學習算法,將蓋爾 · 加朵的臉「移植」到一位色情電影演員身上。

沉迷於此的 deepfakes 無法自拔,更多女明星紛紛中招。除瞭蓋爾 · 加朵,泰勒 · 斯威夫特、艾瑪 · 沃特森、斯嘉麗 · 約翰遜和麥茜 · 威廉姆斯(《權利的遊戲》的 二丫)都是 deepfakes 的得意之作。

(「中招」的明星們)

又是程序員,又是機器學習,看起來很有技術含量。實際上並非如此,deepfakes 在接受科技媒體 Motherboard 采訪時表示,自己不是專業的 AI 研究人員,隻是一個對機器學習感興趣的程序員。

而 deepfakes 制作這些視頻所用到的工具和素材,都是在互聯網免費開放的。他使用的軟件技術是基於 TensorFlow 和 Keras 等開源軟件,而視頻素材則是通過 Google 圖片搜索、公開圖庫和 Youtube 等平臺獲取。

deepfakes 利用這些工具和素材進行深度學習網絡的訓練,經過反復訓練後,系統就可以正確識別出蓋爾 · 加朵的面部信息,自動將色情影片中的人臉替換成蓋爾 · 加朵的臉。

一位人工智能研究人員表示,像 deepfakes 制作的這類視頻的所需的硬件配置並不高,隻需要一個消費級顯卡,花費幾小時就能達到這樣的效果。

據 deepfakes 在 Reddit 上的介紹,他使用的算法與英偉達的一種 AI 算法類似,這種算法是生成式對抗網絡(Generative Adversarial Network)。

顧名思義,這是由「敵對」的兩個機器學習模型組成。一個負責生成視覺數據,另一個負責鑒別,以此提高生成圖像視頻的真實性。英偉達利用這種算法讓計算機根據夏天的場景視頻生成同一地點的冬季風光。

不過如果仔細觀看 deepfakes 制作的視頻,還是會發現很多破綻。比如在模擬蓋爾 · 加朵的這段視頻中,可以看到人物臉部輪廓有一條分界線,兩邊的膚色也不一致。在臉部運動時尤為明顯,感更像是戴上瞭一個逼真的人皮面具。

(左:P 得看不出破綻,右:破綻明顯,圖自:果殼網)

可作為一個程序員在業餘時間的作品,這樣的效果也算不錯瞭。實際上,類似的「換臉」技術也不新鮮,而且在電影業等商用領域,可以實現的效果還要逼真得多。

你可能還記得《指環王》裡的咕嚕、《猩球崛起》裡表情豐富的凱撒,甚至是郭敬明那部《爵跡》裡眾多的面癱角色,這些形象都是通過對肢體動作和面部表情的動作捕捉實現的。

(《指環王》中咕嚕扮演者,當時的造型是這樣的,圖自:naturevideo)

這樣的技術在影視工業領域的應用已經十分成熟,但一般成本較高,耗費時間長。比如面部捕捉需要在演員臉上貼滿追蹤點,用頭戴式高速攝影機捕捉面部肌肉動作,最後在後期轉為 CG 畫面。

此外通過 CGI 技術甚至可以在大屏幕「復活」已經去世的演員,比如在拍攝《速度與激情 7》中意外去世的保羅 · 沃克就是通過這種技術重現在大屏幕中。

近幾年隨著人工智能技術的發展,這樣的面部捕捉技術也不再是電影行業的專利。去年 7 月份,美國華盛頓大學的研究者們就利用人工智能以及數字圖像合成技術,生產瞭一段真假難辨的奧巴馬演講視頻。

(你能分辨哪個才是真的奧巴馬嗎?圖片來源:YouTube)

而一款基於人工智能技術的實時視頻仿真軟件 Face2Face 也能做到類似的效果,使用者隻需在軟件中輸入一個人臉說話的錄像,就可以通過算法分析生成對應的人臉模型,之後套用該模型就可以生成以假亂真的人物形象。

(Face2Face 工作原理,圖自:YouTube)

Face2Face 開發者 Justus Thies 在當時已經意識到瞭這項技術的危險性,他在一次接受采訪的時候表示:

如果這類視頻軟件得到廣泛應用的話,將會對社會造成劇烈的影響。這也是為什麼我們不把軟件代碼開源的原因之一。如果讓不成熟的人接觸到這類軟件,將會大大提升網絡霸凌的等級。

遺憾的是,這個潘多拉魔盒已經被打開瞭。

超低門檻 ,全民 DIY 色情影片

自從一些媒體報道瞭 deepfakes 制作的「名人色情影片」後, deepfakes 繼續制作著這些視頻,並獲得瞭給你更多人的關註,其在 Reddit 上的專欄在不到兩個月內就聚集瞭超過 15000 名用戶。

其中一名位「deepfakeapp」用戶不滿足於隻是觀看 deepfakes 制作的視頻,基於 deepfakes 所用的算法,制作瞭一款簡單易用的應用程序 FakeApp,讓每個用戶都可以利用手中的數據偽造色情影片。

在維基百科上,FakeApp 的詞條是這樣描述的:

FakeApp 是一款社區開發型的桌面應用程序,無需安裝 Python 和 Tensorflow 等編程語言和開源軟件庫就能運行,不過需要 CUDA 支持的一個高性能的 GPU 才能順利運行。

如果用戶沒有合適的 GPU 也沒關系,通過 Google 雲服務租用這種 GPU 即可。

deepfakeapp 表示隻要隻要一兩個目標人物的高清視頻, 8 到 12 小時可以制作一條自動換臉的色情影片,超低的門檻讓一大批用戶加入到這種視頻的制作和分享中。

Justus Thies 的預言一語成讖,超低門檻的工具讓這項技術走向不可控。

很快在 Reddit 上就湧現瞭一大批「名人色情影片」,愛范兒梳理瞭一下 Reddit 上被用於偽造色情影片的女明星,其中艾瑪 · 沃特森(《哈利波特》)、娜塔莉 · 波特曼(《這個殺手不太冷》)和斯嘉麗 · 約翰遜(黑寡婦)是被用到較多的明星。

而部分視頻的仿真度甚至比起 deepfakes 一開始制作的視頻還要高,大傢可以簡單感受一下:

蓋爾 · 加朵

(偽造視頻)

真人)

艾瑪 · 沃特森

(真人)

斯嘉麗 · 約翰遜

娜塔莉 · 波特曼

不少 「名人色情影片」 的制作者還會在 Reddit 上交流制作心得,一位「UnobtrusiveBot」利用 FakeApp 將女星 Jessica Alba (《神奇四俠》)的臉放到瞭一位色情影片演員上:

超級快!隻需要學習如何重新訓練模型,大約 5 小時就搞定瞭。

(Jessica Alba )

而這正是 FakeApp 開發者 deepfakeapp 的初衷,他在 Reddit 上 表示:

我之所以開發 FakeApp,就是為瞭讓沒有技術背景和編程經驗的人都可以用上這種技術。

當然也不是所有用戶都那麼順利,比如這位叫「MrDrPresidentNotSure」的用戶就翻車瞭。

這些視頻被當成是真的在色情網站上傳播,在一個專門泄露名人隱私照和視頻 的網站 CelebJihad,有人上傳瞭一段艾瑪 · 沃特森洗澡的視頻,並聲稱這是其收藏的獨傢視頻。實際上這段視頻就是 deepfakes 發佈在 Reddit 上的視頻。

更要命的是,就像直播答題的火爆讓答題助手應運而生,一些輔助偽造色情視頻制作的 AI 工具也誕生瞭。

這些工具可以用於幫助用戶找到與目標人物匹配的色情影片演員,比如這款叫 「Porn Star By Face」的工具,聲稱是首個基於深度神經網絡的面部識別搜索引擎,隻要你上傳想要用於偽造色情影片的女明星照片,系統就會自動匹配到相似度最高的色情影片演員。

微信搜索愛范兒(微信號 :ifanr),後臺回復「」,獲取這款面部識別在線測試工具,溫馨提示:自娛自樂就好瞭喲。

愛范兒(微信號 :ifanr)用兩位女神的照片測試瞭一下,發現結果其實也並不理想。

類似這樣的平臺還有很多,其中一個叫「Face By Porn」的平臺表示其數據庫中共有 2347 名色情電影演員,是從 Pornhub、YouPorn 等色情網站上抓取的。

(左為《古墓麗影》的 Lara Croft,右為成人影片演員)

視頻分析平臺 Pulsar 的數字媒體總監 Jay Owens 在接受 Motherboard 采訪表示:

這樣的視頻在社交和文化層面都有比較強的滲透性,基於社交平臺的娛樂屬性,那些「名人色情影片」擁有瞭更好的傳播效果。

下一個被「不可描述」的可能就是你

事情發展到這還遠沒有結束,此前一些視頻用的都是公眾人物的素材,一些吃瓜群眾還看得挺過癮。

可當這樣的事情發生你自己、親人和朋友身上時,你還會這樣想嗎?

在社交軟件 Discord 的一個名為 「deepfakes」的聊天小組,一些用戶稱他們正在利用身邊的熟人和朋友的素材制作這種偽色情視頻。其中一位用戶表示,他利用的素材來自高中女同學的 Instagram 和 Facebook 賬號中的公開照片。

而在 Reddit 上,每天都能看到不少制作這種視頻的教材和求教程的用戶。而決定將這項技術用在什麼人身上,全憑使用者的意願。

在如今的社交網絡,要找一個人的照片資料十分簡單。這幾乎註定瞭普通人也會成為這項技術的受害者,甚至會出現一種更為嚴重的性騷擾行為。

此前在 Facebook 上已經出現瞭非常嚴重的「復仇色情」現象,所謂「復仇色情」,就是某些人在分手後為瞭報復將前女友裸照上傳到網絡平臺上的行為。

目前 Discord 已經關閉「deepfakes」這個聊天小組,可是在隻要這種技術還是如此容易獲取,這樣的視頻和對普通人造成的傷害還會互聯網的某個角落再次發生。

「AI 色情」泛濫,難道就不能避免嗎?

看瞭上面的介紹,你可能會有這樣一個疑問:

這樣一個侵犯公民人身權利、傳播淫穢色情影像的平臺和技術,難道不能對其采取法律手段打擊嗎?

很遺憾,還真未必可以。

一方面,雖然美國大部分州都將賣淫定位非法行為,但對於成人電影書刊等色情作品的判斷標準比較復雜,就算是紅果果的愛情動作片也未必會被法院定為色情作品,這與美國憲法第一修正案的言論自由權有關,在這裡就先不展開敘述瞭。

(在一些成人影片開頭,還會有來自 FBI 的版權聲明)

另一方面,這樣未經同意使用他人照片制作這種視頻確實涉嫌侵犯瞭公民肖像權等權利,但是在美國的法律中還存在很大的灰色空間。

邁阿密大學法學院教授 Mary Anne Franks 在接受《連線》雜志采訪時表示,那些被用來制作色情視頻的名人或許有機會維權,但對於普通人來說希望渺茫,因為就算是針對「色情報復」的法律也不適用於這種「AI 色情視頻」。

這些視頻所涉及的技術,反而為他們的制作者提供瞭巨大的法律保障。

馬裡蘭大學的法學教授 Danielle Citron 也對此略顯無奈。打擊這種視頻傳播的責任隻能落在瞭眾多互聯網平臺身上。

(Reddit 中 deepfakes 帖子的 18 歲準入提醒,可是形同虛設)

更糟糕的是,隨著人工智能技術的發展,這項技術將無可逆轉地日趨完善,甚至到達機器也無法區分的程度。

所幸人們已經開始意識到這項技術的危害性,一些平臺開始開發對應的屏蔽機制。正如弗吉尼亞大學工程學院應用倫理學名譽教授 Deborah Johnson 所說:

這項技術的創新之處在於將 AI 生成的臉做到難辨真假的效果,而這項技術的可怕之處在於社會中每個人都能輕易使用這種技術。

這樣的技術正在讓世界變得不穩定,甚至這個社會商業以及信用體系也隨之崩塌。

雖然這樣的視頻在中國還沒出現,但如何更好地與新科技相處,是每個時代每個社會都需要思考的問題。

題圖來自:HD Wallpapers

精彩圖片
文章評論 相關閱讀
© 2016 看看新聞 http://www.kankannews.cc/