立場新聞 Stand News

AI 不能計算的事

2019/1/29 — 15:53

資料圖片,來源:athree23 @Pixabay

資料圖片,來源:athree23 @Pixabay

除了前文談及的 5G 外,AI(人工智能)亦是近年的科技熱話,雖然目前所見的 AI 應用並未能百分百擁有如人類一樣的智慧,但我相信要到達此水平,也是指日可待的事。只是當 AI 技術不斷向前,它為我們帶來的思考亦早由技術問題,演化成道德價值的問題。

美國麻省理工學院在年前推出了一個名為「道德機器」(Moral Machine)的研究網站,讓瀏覽者可以用旁觀者的角度,決定一架失靈的自動駕駛車輛最終要撞向哪一群受眾;你能選擇的就是撞左抑或撞右,而不是撞或不撞。誠然,這研究中出現的場景都是極端情況,但其實也道出了在 AI、大數據等創新科技面前,我們並不可以自主選擇的窘境。

一個老掉牙的哲學問題︰假如有五個小孩子,其中四個因為貪玩,衝上路軌玩耍,而剩下的一個就乖乖留在一條荒廢多年的路軌上,如果你是火車司機,該作何選擇?是以人數決定一切,將火車轉向,犧牲那個乖孩子?抑或以道德正義決定,讓火車維持原有路線,撞向那四個頑皮孩子?這個人類思辨多年仍未有公論的議題,AI 卻能快速給出答案,就是按照預早設定好的程式,在電光火石間執行。

廣告

圖片來源:維基百科

圖片來源:維基百科

廣告

AI 之所以能輕易就以上問題作出判斷,是因為它要處理的問題不是質而是量,簡單來說,AI 並無任何道德包袱,所有事物在其眼中,亦只是一堆數據,哪怕是有血有肉的人,都會被量化成數字、分數。就如中國政府正在推行的「社會信用體系」、「步態識別身份」等,都是結合了大數據、AI 等技術的科技產品,以此來為民眾評分;還有預測某人有犯罪意圖而先行拘捕,又或篩選求職者時出現種族歧視等,都是AI會觸發的道德爭議。

而當 AI、大數據等科技繼續向前發展,必定會觸碰到更多與道德倫理、價值觀相關的問題,令這些本來難以靠科技去計算出來的事,最後都能以「理性」、「科學」之名,輕易得出答案。就如基因編輯的嬰兒、由機器自行決策行動的戰爭武器等,彷彿所有事都能祭出「科技發展」這四個字作為擋箭牌,將一切具爭議的內容留給其他範疇,如社會學、哲學、政治學等去研究,但其實社會各方都有必要就著這些議題作討論,否則潘朵拉的盒子一旦打開,我們只會出現更多不能逆轉的悲劇。

可以預視,科技繼續向前發展,社會上會出現的不單是對於科技應用的斷層分化,亦是道德倫理價值體系的分化,更重要的是,這個分化注定會越演越激烈,而且牽連更多層面、影響更多人。既然如此,我認為應該將 IT 列作如中英數一樣的必修科,讓我們的下一代能早早接受相應訓練,對這項推動社會發展的底層元素掌有一定的基礎知識;只因在不能「拒絕科技」的前題下,我們的著眼點也理應由「不可不用」進化成「不可不知」,學習如何善用這個人人必備的工具,似乎是在無可選擇的大環境中最有效的自我保護方法。

作者製圖

作者製圖

 

本文 1 月 29 日刊登於《明報》專欄「財科暗戰」,上為加長版
作者 Facebook

發表意見