聯合國曝光:殺手機器人來瞭 最恐怖視頻

11-21

上周,在日內瓦舉辦的聯合國特定常規武器公約會議上,一段可怕的視頻公諸於眾:視頻中,一群神似《黑鏡 III》中機器殺人蜂的小型機器人,通過人臉定位瞬間殺死瞭正在上課的一眾學生,場面血腥。

伯克利大學教授、資深 AI 研究者 Stuart Russell 在視頻的最後提醒人們,想象一下,這些致命的自動武器一旦落入恐怖分子之手,可能造成怎樣的後果。

先來看看視頻裡幾個可怕的畫面:

一個體型類似蜜蜂的小型機器人飛入會場並輕易躲過演講人抓捕,其擁有 anti-sniper 技術,完全基於 AI。

這個小東西蘊含可怕的黑科技:廣角攝像頭、傳感器、面部識別,且在其中部,還有 3 克炸藥。

來看看它的攻擊效果,一擊而中,極端致命。

看到這個武器,小編立馬想起瞭《三體》裡一種終極形態的武器 —— “水滴”,它形狀與普通水滴相似,由被強互作用力緊密鎖死的質子與中子構成,密度巨大,無堅不摧,僅一個水滴就能接連摧毀人類的一千多艘飛船,打擊方式也是直接、精準穿透關鍵部位,和這段視頻裡一樣。

視頻最後還演示瞭一段飛行機器人集體攻擊人類的畫面,通過面部識別定位,輕易殺死瞭正在上課的一班學生。

殺手機器人真的來瞭麼?

在視頻結尾,Russell 發出警告,盡管這段視頻和其中的殺人機器人並非真實,但視頻中的科技目前已經存在。要避免視頻中的悲劇發生,我們需要盡快行動。

這段視頻發佈在本月 13-17 日的聯合國特定常規武器公約會議上,這一會議由“殺手機器人禁令運動”(Campaign to Stop Killer Robots)組織,超過七十個國傢的代表出席。

殺手機器人:未來無人戰爭之憂

今年 8 月 20 日,在墨爾本舉行的 2017 國際人工智能聯合大會上,包括美國特斯拉電動汽車公司 CEO 伊隆 · 馬斯克、DeepMind 聯合創始人穆斯塔法 · 蘇萊曼在內的 116 位機器人和人工智能公司創始人發表公開信,呼籲聯合國在國際范圍內禁止“致命性自主武器系統”的使用。

公開信指出,致命性自主武器系統足以構成第三次武器革命的威脅 —— 前兩次革命分別是火藥和核武器。這種技術一旦開發成功,將有可能把戰爭沖突升級至從未有過的規模,而且會達到人類難以控制的速度。公開信的簽署者們認為,致命性自主武器可能成為獨裁者和恐怖分子殘害無辜的手段,或者被黑客挾持。

致命性自主武器系統實際上是一種軍用機器人,它可以不經過人類幹預,自主選擇和攻擊包括人員和裝備在內的軍事目標,所以也被叫做“殺手機器人”。目前,擁有“人格”的智能技術尚未被從科幻電影搬到現實中,但是與此有關的技術的確正在朝著這個方向發展。

有人認為,在未來,致命性自主武器系統如果應用於戰爭,在軍事方面會起到許多正面作用。例如,降低己方士兵的風險,降低人與人之間近距離戰爭的代價。此外,自主武器系統也省去瞭軍人的薪水、住房、養老、醫療等開銷,又在速度、準確性上高於人類,而且不用休息。有別於人類戰鬥員會在戰場上出現心理和情緒波動的特點,人工智能武器更穩定,並且能夠抵達人類不可及之處,完成搜救和保護任務。

西安政治學院軍事法學系教授宋新平分析,致命性自主武器的運用,意味著自然人在武裝沖突中直接發揮的作用越來越小,武器所發揮的作用則越來越大,將影響並改變未來戰場的戰鬥員構成與戰鬥能力的變化,特別是這種武器的集群式運用,對未來作戰的指揮體制、力量運用、供給保障等方面將產生革命性影響。

正在海上進行試驗的美國 Sea Hunter 自主戰艦

爭議“殺手機器人”

但是,隨著致命性自主武器系統的發展,它所帶來的爭議也越來越強烈。

首先,有人擔憂,機器打仗使得人員傷亡大大減少,反過來又會降低戰爭發動的門檻,武裝沖突發生的機會會增加,而戰爭的人員損失將從戰鬥員轉移到交火區域的平民。

其次,如同所有戰爭中的武器一樣,致命性自主武器系統要運用在戰爭中,必須符合《日內瓦公約》,即國際人道法。反對者認為,該武器系統違反國際人道法中的“區分原則”,即機器人武器很難做到和人類一樣區分平民與戰鬥員、有戰鬥能力的戰鬥員和喪失戰鬥能力的戰鬥員 ( 如傷者、病者及戰俘 ) ,以及作戰人員和攜帶輕武器從事非戰鬥任務的人員。

在倫理方面,致命性自主武器運用於未來的武裝沖突中,這意味著將剝奪自然人生命的權利交給非自然人。有學者認為,這是將人的生命和人格尊嚴交給機器來判定,不具有平等性,也是對人類生命權以及人格尊嚴的侮辱。

法律上的責任更是不能忽略。自主武器兼具“戰鬥員”和“戰鬥武器”兩種角色,如果它違背國際人道法,國際社會將面臨如何追究責任的問題,而被追究的主體應該是設計者、制造者、操作者還是機器本身?

今年 8 月發出的公開信不是伊隆 · 馬斯克等人第一次對致命性自主武器系統提出警示。早在 2015 年,同樣在國際人工智能聯合大會上,物理學傢斯蒂芬 · 霍金、蘋果聯合創始人史蒂夫 · 沃茲尼亞克等 1000 多名人工智能領域專傢聯合譴責人工智能時代的軍備競賽,呼籲禁止自主武器。容易引發軍備競賽、威脅世界和平,是反對者擔憂的原因之一。

但是,也有人認為以上反對意見作為禁用致命性自主武器的理由站不住腳。研究人工智能哲學的復旦大學教授徐英瑾在《技術與正義:未來戰爭中的人工智能》一文中進行瞭反駁。比如,對於“無人智能武器的出現,會使得殺戮變得更為容易,因此,也會使得軍事暴力在未來變得更為頻繁”的說法,徐英瑾提出,按照殺戮效率提高會對和平構成威脅的邏輯,那是否為瞭降低殺戮效率,就制造盡量劣質的槍支,鼓勵士兵降低擊中率?這顯然是荒謬的,相反,人工智能技術運用於軍事,會使得人類作戰意圖得到更精確的貫徹,可使得正義戰爭快速結束。

人工智能公司、國際組織紛紛呼籲禁止致命性自主武器系統,但現狀是,至今國際社會仍然沒有就致命性自主武器系統問題達成統一認識,甚至還沒有統一的定義。

聯合國《特定常規武器公約》成員國已經建立瞭一個致命性自主武器系統的政府專傢小組,這個小組的第一次會議預定將於今年 11 月召開。伊隆 · 馬斯克等公開信簽署者希望專傢小組努力尋求方法,防止這類武器的軍備競賽,保護平民免受武器濫用的傷害,避免這些技術給世界的未來帶來嚴重的後果。

來源:綜合中國新聞周刊 ( 北京 ) 、大數據文摘(ID:BigDataDigest)

精彩圖片
文章評論 相關閱讀
© 2016 看看新聞 http://www.kankannews.cc/