霍金警告沒人聽,各國發展人工智能會毀滅人類嗎?

03-19

作者:虹攝庫爾斯克

斯蒂芬 · 霍金老爺子逝世的消息成為最近的大新聞。作為一個大半生都依靠人工智能(高智能輪椅)生活的思想傢,霍金老爺子卻在逝世前提醒人類—— " 小心人工智能 "!

或許是一直與人工智能相伴,霍金老爺子才會說出肺腑之言,提醒人類。但是,各國卻沒有人聽這個老者的話!為瞭在戰爭中取得優勢,大力發展無人機、無人地面車輛、戰鬥機器人等在內的含有人工智能因素的致命性自主武器系統。

圖片:霍金反對人工智能。

人類這是在給自己挖掘墳墓嗎?

霍金的這句警告其實是一封公開信的簽名。2015 年 7 月一封要求停止研制具有殺人功能自主武器系統的公開信得到瞭 2 萬人的簽名,簽名者主要是人工智能領域的專傢以及其他對此話題頗為關切的人,其中就包括著名物理學傢斯蒂芬 · 霍金以及蘋果公司聯合創始人史蒂夫 · 沃茲尼亞克。

圖片:霍金在進行討論。

所謂的致命性自主武器系統(LAWS),是指能夠自主運作的軍用機器人,也被稱為自主性武器系統、自主性致命機器人 ( LAR ) 、戰鬥機器人或殺手機器人等。目前各國發展的無人飛行器、無人地面車輛、無人水面艇等能夠自主運作的武器系統在某種程度上都屬於 LAWS 的范疇。

而還有一些國傢和研究機構在研制類似於科幻小說中 " 殺人蜂 " 那種微小型無人機,可以殺人於無形。這種武器一旦脫離人類控制,將對人類造成巨大的威脅。

圖片:殺人蜂飛行機器人。

這或許要說一個問題——機器人倫理學!機器人能不能傷害人類。1942 年,著名的美籍俄羅斯裔科幻作傢艾薩克 · 阿西莫夫首次提出瞭機器人三定律。

第一定律:機器人不得傷害人類,或坐視人類受到傷害;

第二定律:除非違背第一法則,否則機器人必須服從人類的命令;

第三定律:在不違背第一及第二法則下,機器人必須保護自己。

此後,阿西莫夫又添加瞭一條定律:第零定律:機器人不得傷害人類族群,或因不作為使人類族群受到傷害。

圖片:1936 年蘇聯科學傢研制的第一種機器人 B2M,他的名稱就叫 " 智能機器人 "。

但是,現在的機器人發展已經完全舍棄瞭阿西莫夫制定的三大定律。除瞭產業機器人外,很大一部分機器人本身就是戰鬥機械,人類將其設計出來就是為瞭殺人!

而在戰鬥機器人的設計領域,美國和俄羅斯走在瞭前列。美國的無人機,俄羅斯的無人戰鬥車輛,都是廣義上的殺人機器人,隻是沒有人的模樣而已。日本在機器人產業方面也有獨到之處。或許是日本人本性使然,特別熱衷於研制人的外貌的機器人,還是美女機器人。這已經突破瞭機器人倫理學的范疇,未來可能直接威脅人類生存。

現在,戰鬥機器人已經廣泛應用到實戰中,在減少我軍傷亡的情況下,殺傷瞭大量敵人。從這個意義上來說,戰鬥機器人是有很大作戰價值的,但由於無法錄入機器人三大定律,當這些機器人核心被侵入,或者是像 " 阿爾法狗 " 一樣具有學習能力,自己開創智慧,那麼不知道是人類之福還是人類的災害!

霍金已經不能再給我們答案瞭!未來的道路需要人類自己去抉擇!人類和人工智能的未來會是怎麼樣的呢?

精彩圖片
文章評論 相關閱讀
© 2016 看看新聞 http://www.kankannews.cc/