立場新聞 Stand News

一幅圖說明「嚇倒」Facebook 的 AI

2017/8/4 — 16:45

近年人工智能在圍棋等方面表現出超人效能,以石破天驚之勢向世人宣示其潛力。在這個大環境下,難怪會傳出《聊天機械人發展出自己語言,嚇到 fb 煞停》的消息。不過,危言聳聽是不必要的。以下我們來探討這到底是怎麼回事。

現時所謂的「人工智能」,其實跟科幻殺人機器差很遠。即使是 Facebook 、 Google 等業界龍頭手上的技術,也只能解決具體而特定的問題。例如, Google GMail 的手機程式能夠分析電郵文字內容,並建議適合的短回覆(見下圖)。這就是自然語言處理 NLP,是人工智能的分支,其用途和涉及的數理概念跟其他領域大相逕庭。

留意白底藍字的按鈕

留意白底藍字的按鈕

廣告

暫時,我們還未發現通用的、讓電腦學懂解決任何問題的方法,而融合現有技術也是個挑戰。關於這些想法,可參考電腦科學家 Pedro Domingos 所著的通俗書《The Master Algorithm》。總言之,現在談論有自主意識的、類人的人工智能言之尚早!

廣告

而引起是次風波的人工智能,其實只是研發談判機械人的嘗試,其道理如下。正如 Gizmodo 報導提到,研究人員預設了一堆數據(技術講法:序列 array);兩個懂得自然語言處理的人工智能透過英語談判,議出分享數據的共贏方法。數據代表的,可以是書本、籃球等日常物品。

跟電腦談判示意圖。(Gizmodo 取自 Facebook AI Research)

跟電腦談判示意圖。(Gizmodo 取自 Facebook AI Research)

而何謂共贏呢?數學上描述為某「獎勵函數」的最大值。舉個例子:「我」跟朋友要分享某定量的食物;兩人食量不同,而且沒有預先了解對方的需求。一番你推我讓後,獎勵函數會變成下圖的樣子。「我」吃不下所有食物,但手中空無一物的話又會不高興;最理想的分配是在兩個極端中間。而「我」食量較小,因此理想值小於總量的一半。

垂直軸表示獎勵函數的大小,橫軸表示「我」分到的食物數量

垂直軸表示獎勵函數的大小,橫軸表示「我」分到的食物數量

Facebook 談判機械人的原理大概如上。除了「我的食量」以外,機械人更可以同時考慮到成千上萬的變數,務求在錯綜複雜的情況下找到獎勵函數的最大值(之一)。正如研究人員 Dhruv Batra 提到,這次引起軒然大波的「自創語言」,其實只是兩個機械人最大化獎勵函數的嘗試,就像人會改變修辭以說服對方一樣,背後沒有更深層解釋。

而由於自說自話的機械人無法跟人類談判,Facebook 團隊改變了設定,探索其他可能性。例如,可不可以「鼓勵」機械人只採用人類的語法呢?無論如何,媒體口中的「驚嚇下關閉人工智能」實在是子虛烏有。

比起擔心電腦的說話方式,我們倒不如關注人類會否濫用現有的人工智能科技吧。英國學者分析 1.6 百萬條 Twitter 帖文,認爲 2011 年倫敦暴動時發生的破壞早有先兆;帖文的地標資訊甚至語境更可以引導警方快速到達現場。那麼,這類發現會不會成爲全球警方先發制人、以暴力驅散和平人羣的藉口呢?

隨着人工智能應用越來越廣泛,我們更需要誠懇地探索相應的道德規範。Skynet 般的智慧殺人電腦依然虛幻,但高科技犯罪和監控的威脅非常真確。怎樣「最大化」我們利用科技產物的回報、而同時限制和規避風險 — 這,就是我們的時代問題。

原刊於作者博客作者 Facebook 專頁

發表意見