這個冬天,總有人想要把黑手伸向孩子。
你說我傢孩子沒上三色幼兒園,在傢看動畫片呢。但你可能沒發現,PAD 裡花花綠綠看似正常的動畫片畫面,實則上演著一幕幕血腥暴力或者 " 屎尿屁 " 的骯臟污穢,毒害著孩子。
關於兒童 " 邪典 "(cult)視頻最近引發瞭不少討論。這種成人世界裡一看就感到嚴重不適的東西,孩子們卻看得下去,並且可以用 " 喜歡 " 這個詞來形容。這雖然讓人難以置信,但卻是真的。
從數據上可以窺見得一斑:據此事最初的揭發者微博大 V 肉呆大魔王在輿論發酵前的統計稱,在某國內主流視頻網站的母嬰視頻頻道,大概有幾百個這樣充滿性暗示和暴力暗示的視頻,頻道總計有 150 萬粉絲,單個視頻觀看量高達 660 萬。
為什麼孩子會喜歡看這些視頻,危害在哪?
弗洛伊德曾將人的性心理發展劃分為 5 個階段:①口欲期;②肛欲期;③性蕾欲期;④潛伏期;⑤生殖期。
其中 1~3 歲是肛門期,3-6 歲是性蕾欲期,這兩個時期孩子對於那些兒童 " 邪典 " 視頻中涉及到的屎尿屁,血腥暴力很感興趣。
但肛欲期和性蕾欲期隻是幼兒進行自我探索的一個必經階段。在這期間,隻需要傢長有正常的引導,或者孩子正常的感知這個世界,就基本沒什麼問題瞭。
但弗洛伊德同時也提出:成人人格的基本組成部分在前三個發展階段已基本形成,所以兒童的早年環境、早期經歷對其成年後的人格形成起著重要的作用,許多成人的變態心理、心理沖突都可追溯到早年期創傷性經歷和壓抑的情結。
對傢長們來說,在早期兒童心理發展的這些階段,雖然會自然地過度過去,但是仍需小心的看護,一旦出現問題,將是終身不可逆的影響。
而這些邪典視頻的傳播者和制作者,看到的隻是點擊率和廣告分成,哪裡還會管後續會造成什麼什麼影響。
其實拋開弗洛伊德的理論,依然可以用最直觀的方式感知到這種視頻的危害。
在這些邪典視頻裡,冰雪奇緣的艾莎公主和蜘蛛俠是最常出現的兩個卡通人物,他們經常會演繹各種低俗的畫面,比如:親親、抱抱、蜘蛛俠偷看艾莎洗澡。
而孩子的認知還處在初級階段,當兩個事物總是同時出現時,孩子們的大腦就會產生經典反射。一個事物出現,腦中另一個事物也會跟著出現,認為這是正常的。
那如果喜歡當艾莎公主孩子,遇到扮演蜘蛛俠的猥瑣大叔,是不是認為被親親抱抱是理所應當的?
" 兒童邪典視頻 " 又一次打瞭算法的臉
在此事沒有引起視頻網站註意的時候,如果你去相關網站搜關鍵詞,會自動跳出來一堆聯想詞。
並且 " 兒童邪典片 " 在優酷、愛奇藝、騰訊視頻網站中都正大光明地出現在 " 少兒 "、" 親子 " 等門類之下。
一旦小朋友觀看瞭幾部視頻之後,平臺就會推薦更多同類視頻,形成惡性循環。而這恰恰是視頻網站中一直引以為傲的 " 千人千面 " 人工智能推薦。
但這一次的兒童 " 邪典 " 視頻事件又一次狠狠打瞭算法的臉。現在是個互聯網公司都說自己在研究人工智能,視頻網站當然也不例外。
在去年 9 月 5 日,阿裡巴巴大優酷事業群總裁楊偉東那邊在第九屆中國網絡視聽產業論壇上表示,正在推進優酷視頻產品個性化推薦機制,即所謂的 " 千人千面 " 據介紹,這一靈感來自於手機淘寶,而試行 " 千人千面 " 後,優酷移動端的首頁點擊率、觀看時長和活躍度都有較為明顯的提升。" 每年都有大量新內容上線,但其中很大一部分可能因為平臺排播和宣推資源分配,沒有機會充分觸達目標用戶,千人千面就解決瞭這個問題。"
愛奇藝在去年 6 月份的 " 愛奇藝世界 · 大會 " 上也著重強調自己開始玩 AI 瞭。
並且除瞭千人千面的精準推薦,還有更高級的:會把視頻分解成不同的鏡頭,每個鏡頭分解成不同的畫面,然後給每個不同的畫面打上各種標簽,一個鏡頭可能有上百個畫面,通過大量的標簽,配合文本識別,以此更加進行精準的廣告投放。
可是你看,正是這種精準的、智能的推薦,讓兒童 " 邪典 " 片,推薦的更精準,也波及的更廣泛。
除瞭推薦上精準,這些視頻為什麼能夠輕易經過審核?這恐怕還是得說視頻網站實在太過相信自己的技術。
對於視頻的審核,業界通用的一般會分為如下幾個步驟:
①機器審核
②圖像方面:對一些視頻抽幀來做審核。
③上傳者方面:通過同一 ID 的上傳記錄,對用戶進行用戶畫像,對於某些高危用戶做重點審核。
④文字方面:關鍵字排查
⑤設立復審、QA 環節保障審核準確率以及難以確認的視頻審核。
⑥視頻底部評論方面
在 YouTube 上還會增加內容分級機制。國內目前沒有這個機制,但是這個機制基本上也杜絕不瞭評級為 " 兒童 " 的內容,依舊烏煙瘴氣。
這幾個步驟中,第一條機器審核號稱能夠判斷出 99% 的內容,剩下隻有 1% 需要再次動用人工。人工的圖像審核即是對於機器沒有通過的視頻,審核的工作人員會把其每 6 秒截圖,一頁 60 張圖,以此來節省時間。
但很多 " 邪典 " 視頻在第一步機器審核中就能輕而易舉的通過,原因是機器審核視頻原理是先建模,然後導入海量的違禁視頻,讓多個機器同時進行深度樣本學習,再標註無法通過的圖像種類,進而把這些樣本揉碎、旋轉、添加 " 噪音 ",提高機器識別能力。
這其中拼的不止是技術,還有樣本圖庫的大小。圖普科技的樣本庫中,有超過 1 億的色情樣本和千萬級別的極端宗教主義樣本特征。
但是兒童 " 邪典 " 視頻壓根就不在樣本庫中,又如何能審核出來,在機器看來,它跟正常的動畫片也沒有太大區別。
機器審核過瞭,人工自然不會花力氣多看。文字標題方面也沒有明顯的黃暴,僅是:米老鼠打針,愛莎公主治病 ...... 這樣平和的表述而已。
所以算法和智能,目前來看依舊在別有用心的欺騙者面前完敗。
內容這種具有強烈主觀意味的產物,仍然是人工智能的天敵。
現在僅僅一個語義理解還是在非常初級的簡單句階段,如果過渡到更復雜維度更廣的視頻審核,瞞過機器更是輕而易舉。
沒 " 人性 " 的算法
算法這個東西,好是好,就是沒 " 人性 "。這一點在視頻網站上表現的不明顯,在成也算法,敗也算法的 " 今日頭條 " 上卻尤其突出。
比如我隻是偶爾點兩次 " 李小璐 ",結果就一直不斷地給我推 " 李小璐 "" 賈乃亮 " 和各種娛樂明星八卦文章。
這就形成瞭越來越窄的信息圈子,並且效應也不斷的增加。
而普通大眾偏偏就是對娛樂、生活感興趣,又加上各種標題黨的推波助瀾,所以慢慢的,頭條重度用戶可能對所有的明星八卦如數傢珍,可是卻不知今年物價房價漲勢如何,有沒有什麼新技術將要落地。
曾揚言算法就是其一切的頭條如今也乖乖的在招 2000 個編輯。但當年頭條的狀態,是每過一段時間,都會發佈《反色情低俗處罰通告》,封禁或禁言一批不規矩的頭條號,反反復復,最後終於面臨大劫。
人工智能在經過瞭去年一年的吹噓之後,泡沫不少。
就目前來看,它在很多領域難言替代,而這次的兒童邪典視頻事件,技術成瞭災難的傳播者。
對待人工智能和機器算法,尚應慎待之,慎用之。