作者:劉丟丟
很多人在購物時會參考其他人的評論,因為同屬消費者立場,對商品、服務的判斷會相對可靠。一些商傢為瞭提高自己的銷量,會雇水軍來刷假評論。人工水軍也被稱為「五毛黨」,雇傭這種水軍有一定的成本,不過所寫評論相對「真實」,容易騙過其他人。還有一種假評論由機器批量生成,這種水軍以量取勝,成本低廉但很容易被分辨出是機器。
點評網站對於假評論都有一定的審核機制,水軍評論被局限在一個可控的范圍內,不過這種情況很可能要被改變瞭。
以假亂真的「AI 水軍」
芝加哥大學研究人員利用神經網絡訓練出一種 AI 水軍,可以在亞馬遜、Yelp 等網站下自動生成假評論,不但可以繞過機器檢測,而且跟普通人的真實評論很像,幾乎能以假亂真。
研究人員用網上已有的大量真實評論為素材,使用循環神經網絡(RSS)進行訓練,用語言模型來預測下一個單詞的概率,從而生成新的文本。這種技術生成的評論不是簡單從已有素材中進行復制,所以不會被機器檢測到。
下面是這些就是由 AI 生成的評論。
我已經來過這兒好幾年瞭,每次的體驗都很好。服務很棒!這兒的人都挺友善。我一定會再來的!
這個地方很不錯!調酒師十分厲害。意大利面很好,我喜歡他們的甜點,很贊。我也喜歡這裡的早餐,工作人員很友好,價格也合理。沒有遇到什麼不好的體驗。一定會再來!
我喜歡這個地方。和我哥一起去的,我們點瞭素食意大利面,很好吃。啤酒也很棒,服務不錯。我一定會推薦這個地方給其他人,很適合那些想找個地方吃早餐的人。
這些假評論不但繞過瞭系統的檢測,甚至還被很多用戶點瞭「有用」。研究人員將 AI 生成的評論與真實評論進行對比,讓不同的人對其實用性進行評估。評分為 1-5(最沒用 - 最有用),最終真實評論得分為 3.28,AI 生成的評論為 3.15。這表示 AI 水軍生成的假評論已經和那些真實評論接近,可以影響用戶的消費行為。
人工水軍的存在已經極大地影響瞭網絡信息的真實性,而 AI 水軍會將這種情況無限放大。
AI 對文字評論的模仿相對容易實現。因為每條評論內容都很短,主題統一而簡單,對表達方式也沒那麼嚴格。最重要的是,這些假評論隱藏在眾多真實評論中,人們不會抱著質疑的態度去看。對於數量繁多的信息大多數人會一掃而過,而這些假的評論被重復無數次之後,就會對人產生潛移默化的影響。
「謠言重復多次就會成真」,這就是假信息帶來的誤導。
假信息可以防禦
真實和虛假的界限正變得模糊,不過目前生成的假評論並沒有那麼完美。研究人員提到,他們能夠開發可以刪除 AI 假評論的技術。因為假評論和真實評論使用字詞的頻率是不同的,AI 要盡可能保持邏輯通順、流暢,所以對於字詞的選擇會更保守,這些細微的變化一般人無法發現,但通過技術還是有方法可以識別。
從技術上說未來的神經網絡隻會越來越復雜,AI 生成的假評論也將更加多樣化,不過如果這種技術成本高到一定程度,「批量」生成假評論這件事也就沒瞭意義。
水軍評論隻是 AI 技術在文本生成上的應用,從內容形式上看,AI 能模仿的不僅是文字。
圖像:Prisma 可以讓普通照片變成藝術畫作。
聲音:Adobe 展示過 Project VoCo 軟件,可以在一段聲音裡直接插入和改動某幾個單詞,將聲音進行重構和創造。
視頻:華盛頓大學最新研究,將人說話的聲音轉化為對應嘴型,然後將其移植到一個現有的視頻素材中,生成一段全新的視頻。
這些技術有的已經實現,有的還在研究階段,未來在網上分辨真假信息會變得越來越難。不過,這些模仿都隻是停留在內容形式上,人類的復雜行為又豈是那麼容易模仿的?對假信息的分辨,總會有方法。
社交平臺上的機器人賬號是導致虛假信息泛濫的一個重要原因,打擊虛假信息也是每個社交平臺都在做的事情。美國印第安納大學和東北大學研究人員前段時間推出瞭 Botometer 系統,可以區分 Twitter 機器人和真實人類。
Botometer 系統用超過 1000 項指標來監測用戶行為,從推文發佈的設備、時間、地點,到內容的原創比例,還有粉絲的構成等,這些數據最終會計算出一個分數,根據用戶行為可判斷賬號有多大概率是機器人。
AI 能做的事越來越多,這些技術對社會產生什麼影響取決於人如何使用。
很多人認為 AI 最大的危險是毀滅人類,但那些科幻電影中的情節離現在還太遠,很多真正的威脅往往來自身邊,來自一些平常註意不到的地方。芝加哥大學的研究人員認為:「AI 技術進步的速度很快,如果現在還不開始考慮主動防禦,未來可能會陷入無法控制的局面。」