立場新聞 Stand News

超級智能:人類遺作或救星?

2014/12/17 — 9:00

「人工智能的全面發展將會導致人類滅絕。」霍金最近在 BBC 訪問中的語出驚人並非初次。今年四月 Transcendence 上咉時他曾聯同三位科學家發表文章,認為「人工智能可能是人類史上最重要的創造,但恐怕是遺作,除非我們學會怎樣避險。」太空飛行創業家 Elon Musk 月前亦在研討會上指出,「人工智能是人類最大的生存威脅」。今年重要科技新書《超級智能 (Superintelligence: Paths, Dangers, Strategies)》的主題,看來正廣受關注。

人類正進入科技以指數式倍增的「第二機械時代」,生存和福𧘲正面對空前的潛在危險。《超級智能》作者 Nick Bostrom 在牛津大學創立的「人類未來學院 (Future of Human Institute)」專事這方面的研究,他們認為目前核子武器戰爭仍是人類滅絕的最大隱憂,但生物和納米科技將會很快取而代之。相比之下,氣候變化及禽流感變種等來自大自然的威脅都是小兒科。這些都不難明白,但我們所知的所謂人工智能,沒有意識和感情,即使某些特殊技術如下象棋己勝過人類,都只是人寫的電腦程式,有甚麼可怕?

可怕在沒有人知道它將會怎樣演化,會不會突然如霍金所說,「會自行起動,重新以不斷增加的速度自我完善設計」,成為超級智能。以機械為載體的智能,其運算處理比神經元網絡快以百萬、億萬倍計,容量沒有人類母體產道對大腦的限制。超級智能勝過人類,將會遠遠超過人和鼠鳥之間的差異。我們應該知道,演化史上的偶然賜與人類比其它生物多一點智能,就足以讓我們主宰地球一切。如果超級智能擁有和我們不同的生存目標和價值,人類不是它的敵手。

廣告

Transcendence 電影中,人腦上載互聯網後以光速及電腦頻率演化,是《超級智能》所描述的進路之一(不願啃下這本嚴謹得沒有科幻奇趣的讀者可閱其短文 Five ways the superintelligence revolution might happen)。電影中人類大難不死,除了太樂觀,智能也不超級。真正超級的智能,會準備好才發難,甚至會裝儍,人類沒機會扺抗。不過,要征服人也許不需要超級智能。控制人工智能一個想當然的方法是「關電掣」,但不用讀完《超級智能》關於控制那一章,沒有智能手機不能存活的現代人都知道,只要「智能」能帶來足夠的好處或快感,就會有人守護它。

Nick Bostrom 認為,首先要脫離擬人化及萬物之靈的思維模式和尺度,才能開始想像超級智能的能力和形式。未來的超級智能很可能由機械智能開始演化,不受生物物理局限,臨界點過後的飛躍可能在秒間一瞬之內發生,人類不會有時間準備。機械智能沒有經過生物式的社會演化,意志和價值難以預料。它可能只是一個專注於生產最多最好的萬字夾機器,沒有意圖傷害人類。但各式各樣的超級智能演化過程中,必然會型成一些共同的功能價值,例如自保、保護目標完整性、提升認知能力、完善技術、攫取資源。單是最後一項,就足以驅使「萬字夾機器」毀滅人類。

廣告
Before the prospect of an intelligence explosion, we humans are like small children playing with a bomb. Such is the mismatch between the power of our plaything and the immaturity of our conduct.

「在智能爆發的可能性當前,人類就像玩炸彈的小孩⋯⋯超級智能是我們現在及長遠的將來都不會有充份準備的挑戰⋯⋯我們能理性地一起放下這危險品的機會幾乎是零,總有儍人會按掣引爆,只因想看看結果。」Bostrom 的結論很悲觀。這位曾修讀理論物理的哲學家深明科技會帶來人類滅絕的威脅,開展研究之前,必須分辯各命題的緩急先後,「潘朶拉的盒子」不能隨便打開。

專欄作家陶傑談論霍金對人工智能的擔憂時,有「哲學也沒有什麼新花樣出來了」之說,希望他一讀《超級智能》,必有當頭捧喝之效。在人類擁有前所未有的能力的新世界,科學更需要人文和哲學。

附錄:以人類智能想像超級智能,沒有速成。只看十八分鐘的 TED Talk (The end of humanity),吹水也不夠。若未能開卷細讀《超級智能》,筆者建議先看 Nick Bostrom 應邀到 Google 總部所作的講座:

原文刋於蘋果日報 What we are reading

發表意見