立場新聞 Stand News

Facebook 聊天機械人沒有「智能叛變」

2017/8/3 — 15:16

近日有報道指 Facebook 聊天機械人實驗引起工程人員恐慌而被煞停,但事實 Facebook 沒有煞停,更沒有恐慌。聊天機械人研究人員 Dhruv Batra 亦在 Facebook 撰文指責媒體誇張失實。

研究早在 6 月公佈

此研究早在 6 月由 Facebook 人工智能研究 (Facebook Artificial Intelligence Research, FAIR) 發佈,而《新科學人》當時已有報道,惟未有引起極大迴響。實驗原意是讓聊天機械人 (Chatbot) 模擬人類談判。研究人員在報告中指出,談判是人類日常生活常用溝通技倆。人類透過不同談判技巧,從傾談不同商貿協議、生意,甚或是朋友間選擇用餐地點等問題上取得共識。而 FAIR 研究重點,就是嘗試訓練聊天機械人學習這類談判技術,並希望將此應用於客戶服務或虛擬助理工作上。

廣告

訓練聊天機械人談判

雖然談判對於人類而言並不困難,但於人工智能科技上就牽涉複雜的溝通和推理「運算」。要讓聊天機械人掌握談判技巧,研究人員首先收集 5,808 個人類跟人類玩談判遊戲時的對話,而遊戲與「聊天機械人」所做的相似,均為要求兩位玩家按自己需要換取不同物品,最高分者勝。然後,聊天機械人能透過大量對話學習談判應對,並不斷與其他機械人或人類玩家練習。

研究人員再以不同方式設定機械人談判方式。其中一種雖非常有效,卻難以令人類了解的溝通方式 [1] 。這種奇怪的溝通方式並非「新語言」,只是類似人類速寫或不同語法漏通。不過,由於 FAIR 的目標是建立一套可與人類溝通的聊天機械人,而非談判「專家」,最終他們將兩種運算方式合而為一,使聊天機械人能有效「談判」之餘,同時讓人類看懂對話內容。

廣告

海外本地傳媒報道或欠準確

不過,不少本地和海外傳媒報告未有將報告或未有準確報道,且為文章配上《智能叛變》、《未來戰士》等電影劇照。部份訪問也似未有與受訪者解釋清楚研究內容,或引導機械人專家將研究評為「危險」。

註:

[1] 各大媒體引用 Fast Co 兩組聊天機械人其中一段對話如下

Bob: “I can can I I everything else.”

Alice: “Balls have zero to me to me to me to me to me to me to me to me to.”

[2] Facebook 已上載聊天機械人,可從 GitHub 下載測試

報告及簡報:

Lewis, M., Yarats, D., Dauphin, Y. N., Parikh, D., & Batra, D. (2017). Deal or No Deal? End-to-End Learning for Negotiation Dialogues. arXiv preprint arXiv:1706.05125.

Facebook, Deal or no deal? Training AI bots to negotiate, 15 June 2017

參考文章:
New Scientist, Chatbots learn how to negotiate and drive a hard bargain, 14 June 2017
Gizmodo, No, Facebook Did Not Panic and Shut Down an AI Program That Was Getting Dangerously Smart, 31 July 2017

文/Edward Ho、審核/Alan Chiu

發表意見