立場新聞 Stand News

霍金與過千科學家聯署:我不要殺人 A.I.

2015/7/29 — 14:02

Alfred Grupstra / flickr

Alfred Grupstra / flickr

可會有這麼一天,望向戰場廢墟中血泊或會是一部毫無人類感情道德的戰爭機器。人工智能 (Artificial Intelligence) 武器或是自主武器 (Autonomous Weapons) 帶來的威脅,未必是人類遭電影未來戰士般被殲滅,而是人與人互相殺戮所致。

不如大家所想,人工智能武器並非是「人形機械人」。實際上,這些未來或會發展的自主武器包括無人戰機、武裝四軸飛行器等毋須人類控制的殺人工具。只要敵人合符原先設定的條件,武器就會毫不猶疑將敵人殲滅,缺乏人性判斷。科學家警告,容許自主武器發展或會成為第三代武器革命,引發更多問題。

歷史不斷教訓我們,當人類擁有先進武器時就會失去了節制將噩夢帶到人間。過萬位科學家,當中包括研究人工智能或自主工具的學者發起公開信反對自主武器,認為發展這些武器會令人類踏上絕路。學界一直都對人工智能武器和自主武器發展有保留。 不僅是霍金多次強調人工智能全面發展的禍害, SpaceX 和 Telsa 創辦人 Elon Musk 也在月前直指「人工智能是人類最大威脅」

廣告

雖然將這些武器投入戰爭能減少人命傷亡,但同時地亦因為少了傷亡,令日後國與國間發動戰爭變得更容易,對全球穩定造成威脅。

廣告

究竟人類是否應該開展一場人工智能的軍備競賽?

The key question for humanity today is whether to start a global AI arms race or to prevent it from starting.

公開信中指出,只要有一國發展這類研究,自然就會有其他國家仿效,展開軍備競賽。隨著技術變得成熟,自主武器的殺傷力會變得更大,而成本和價格也會因武器量產節節下跌。最可怕是這些武器可能會落入恐怖分子、或者是獨裁者手中,使到政局不穩的地區更加生靈塗炭。

當然,這班科學家反對的並不是人工智能,或者是自主工具。他們反對的是將這些原本能夠投入到科學、醫療或者是平日救援工作的好幫手,變成一批批殺人如麻的智能武器。

來源:
The Conversation, Open letter: we must stop killer robots before they are built

公開信全文:
​Future of Life Institute, Autonomous Weapons: an Open Letter from AI & Robotics Researchers, July 2015

文/eh

發表意見