【明報專訊】人工智能(AI)的科技應用日趨普及,雖然帶來極大方便及好處,但亦帶來道德及應用的爭議,Google、微軟、facebook、亞馬遜與及IBM美國5間科技企業宣佈組成非牟利的「造福人類與社會的AI夥伴組織」(Partnership on Artificial Intelligence to Benefit People and Society,簡稱Partnership on AI),被稱為「AI正義聯盟」,在AI科技發展的同時,密切留意其相關應用,確保它的技術用於正途,消除人類對AI發展的憂慮。
■AI正義聯盟Do's and Don'ts
Do's
1. 向哲學家及倫理學家等徵詢意見,研究AI倫理安全問題(包括私隱、道德、人機合作、法律、社會等範疇)
2. 由相關專業人士教育公眾有關AI的知識
3. 擔任協作、溝通的橋樑,促進科技巨頭合作
Don'ts
不會遊說政府推動政策
■AI的好處
人工智能專家認為人工智能在教育、醫療、能源、娛樂、交通、保安及接待等方面有良好的應用,過去也有不少用於以上範疇的人工智能機械人出現,連連看﹗(圖一)
■想一想
人工智能產品例如機械人、自動車等可取代人類做不同的操作,方便之餘會帶來什麼問題?
(提示:就業問題、貧富懸殊、情感交流等等)
AI面對的道德難題
兩難抉擇:私家車快要撞上坐滿乘客的巴士,若要避開巴士,就會撞向旁邊的單車及駕駛者。如果你是私家車的司機,你會如何抉擇?
(圖三)的情景,是美國運輸署列舉自動車有可能遇上的「兩難」例子。
面對突如其來的事故,人類或會有關於道德倫理的考慮,例如會以傷害最少人為原則作考慮。如果遇上意外的是人工智能「駕駛」的自動車,它又應憑什麼準則決定下一步呢?美國運輸部9月發出自動車指引,特別要求自動車要處理這類「兩難」道德倫理問題,目的是要確保自動車即使出現故障或遇上意外,也不會害人。
有科學家懷疑將道德倫理化作規範的可行性,因為自動車沒有足夠智慧判斷實際狀態,例如自動車撞上購物車或嬰兒車,對它來說是一樣的,不會有人類(嬰兒)比物件(購物車內商品)重要的價值觀判斷。這正是AI正義聯盟將會積極研究及關注的課題。
英國標準協會(BSI)9月發表「BS8611機械人與機械裝置」守則,當中牽涉到道德及應用問題,試參考下列守則,並討論人工智能可能引伸的問題:
1. 由機械人造成的任何事故,需負責的應是人類
2. 需有方法找到為機械人行為承擔責任的人
3. 要警惕機械人出現性別或種族歧視的傾向,以及可能不重視多元文化的問題
4. 避免過分依賴機械人
5. 注意機械人出現異常的情G,一旦出現,有可能造成難以預計的後果
■想一想
. 「AI正義聯盟」關注的問題是否值得重視?為什麼?
. 你認為「AI正義聯盟」的組織有足夠認受嗎?
■關鍵詞
人工智能 artificial intelligence
道德倫理 ethics
機械人 robot
自動車 self-driving car
(答案見另文)
文:大海
圖:資料圖片