立場新聞 Stand News

鳥瞰人工智能(三):行家們都怎樣分類 AI?

2018/8/25 — 12:30

pexels

pexels

相信大家對「人工智能」四個字早已耳熟能詳。但這種技術其實可不可以再細分了解呢?讓筆者透過生活和商業例子帶大家看看!

預測既定目標

人工智能處理的問題大概有兩類:監督學習,以及無監督學習 ([Un]supervised learning)。「監督」的意思,跟人類在程式運行中的角色無關;它指的是,人工智能的計算究竟有沒有既定的目標。舉兩個例子:

  1. 假設已知一群人的教育水平、工作領域、年齡等等,他們的收入有多少呢?
  2. 照片裡有沒有貓呢?

「收入」 以及「有沒有貓」 正是監督學習的目標;人工智能學習了人口普查和圖片的規律,並給出數字或分類。當然,數據 ->答案的對應關係不能無中生有。我們需要預先標記現有數據應有的預測結果,訓練人工智能,然後才可以對未知數據作出預測。

廣告

大膽奴才,竟然懷疑朕的貓身份?/ Wikimedia

大膽奴才,竟然懷疑朕的貓身份?/ Wikimedia

廣告

換句話說,透過比較數據應有的標記和人工智能給出的預測,我們可以「監督」人工智能的「學習表現」 —— 也就是預測的準確性。

盡少前提下,發掘數據規律

取詞語反義,無監督學習沒有既定目標,用途更多在於發掘數據暗含的規律。以下提出一個商業例子。

Amazon 前首席科學家 Andreas Weigend 在著作中提到,Amazon 為了研究用戶的購物習慣,曾經比較了日間和晚上的購物金額。例圖如下;每個交叉對應一單交易。不同時間的數據,在圖中分成了三團。

以上的觀察是深入探究的靈感。例如,傍晚的訂單是不是奢侈品佔多數呢?網站上的廣告應該隨著一天的時間而調整嗎?

下訂時間越晚(大),金額也偏大。模擬數據產生自三個高斯分佈。

下訂時間越晚(大),金額也偏大。模擬數據產生自三個高斯分佈。

當然,無監督學習不只是畫圖這麼簡單。我們只考慮兩、三個變數時,的確可以透過圖像、或者簡單的監督學習 — 例如 linear regression — 探索數據的規律。但應付錯綜複雜的商業問題時,需要的變數更多;Weigend 提到,為了架建 Amazon 第一代的購物建議系統,團隊提出了五百多個變數!五百維度的圖像,人類無法想像。

這時候,屬於無監督學習的聚類演算法 (clustering algorithms) 就大派用場了。它們能夠找出數據暗含的聚類;這就類似用肉眼從上圖分辨出三團的數據,只不過適用於更多的變數。

由於無監督學習「只」是揭露數據內含的規律,因此不需要預先“訓練”就可以運行。這一點,是兩種學習的重要分別。

展望機器自我學習的將來

今天我們體驗到的 AI 應用,以監督學習為主;Google 預測搜索關鍵詞、Instagram/Snapchat 識別相機中的人面等等,都有既定的計算目標。這些發明便利了生活,但要加速發展的話,要先克服一個樽頸。

上面提到,監督學習依賴預先標誌好的數據。哪裡來的標誌呢?通常是人手負責。無論是電郵系統的 “Spam/Not Spam” 按鈕、抑或是 Youtube 旗下的一萬個內容審查員,都在為 AI 標誌訓練數據。雖然人多好辦事,但人數不可能無限上升吧!所以,數據供給限制了監督學習的發展和應用。更何況,誰能夠保證現有的訓練數據在將來亦適用呢?

數次潰敗後,人類玩家終於在 Dota2 擊敗人工智能。 / Wikipedia

數次潰敗後,人類玩家終於在 Dota2 擊敗人工智能。 / Wikipedia

因為以上兩個原因,強化學習 (reinforcement learning) 成為了行內的寵兒,並在即時戰略遊戲和無人駕駛等場景大派用場。運作原理大概如下:分析來自周邊世界的數據、決定下一步,從而最大化所謂的「獎勵」 並週而復始。(獎勵是量化指標,可大可小。)以戰略遊戲 Dota2 作例子:強化學習涉及每 1/7 秒分析遊戲畫面,在遵守遊戲規則、接受角色視野限制的前提下,為一共五個角色釐定短期及長期戰略!厲害吧?

總言之,強化學習適用於複雜的動態問題,尤其是當數據量不足以充分訓練監督學習系統的時候。如果是遊戲的話,只要讓 AI 跟自己玩上幾百萬回合,就能摸索到規律了。

Facebook AI 領頭人 Yann LeCun 討論 AI 技術的未來,其中提到強化學習:

小結

本文探討了監督、無監督以及強化學習 (supervised/unsupervised/reinforcement learning) ,展示了 AI 能夠處理的三大類問題。看過文章後,不知道你又能否認出身邊 AI 應用—— 例如人面識別及 Google 搜索 — 屬於哪一類呢?

原文刊於作者博客

發表意見