歐盟委員會昨宣布人工智能(AI)道德指引,成為世界表率。歐盟委員會昨表示, 研究製作AI的公司必須依據新訂守則建立問責機制,務使有關技術「值得信賴」,以防範專制政權、不良公司濫用。草擬準則的專家團成員今天將在布魯塞爾發表相關詳情。
歐盟委員會周一表示守則含7項關鍵要求:
1. 人類能動性及監察:支持人類能動性及基本權利,而非減少、限制或誤導人類自主權;
2. 穩健及安全:值得信賴的AI演算法必須安全、可靠及穩健,足以應付AI系統生命周期各階段出現的錯誤;
3. 私隱及數據管理:民眾應可完全控制自己的數據,而數據不可用來傷害或歧視他們;
4. 透明度:應確保AI系統可被追溯;
5. 多元、不歧視及一視同仁:AI系統應顧及人類各種能力、技能和要求;
6. 社會及環境福祉:AI系統應該用於加強正面的社會改革、提高可持續性和生態責任;
7. 問責:應建立機制以確保AI系統及其所致後果可被追究責任。
歐盟「單一數碼市場」副主席安西普(Andrus Ansip)說:「AI的道德面向並非奢侈品或附加項目。唯有增加信任,我們的社會才能完全受惠於科技。」他又表示,道德AI是「雙贏策略」,令歐洲有競爭優勢。
歐盟的指引正值全球對AI監管展開討論。歐盟稱,AI對社會有深遠影響,既可供檢測欺詐、網絡安全威脅,也可以改善醫療保健、管理金融風險、應對氣候變化等等。不過應用上也有可能有侵犯私隱、或AI本身有偏見等問題。論者更擔心,極權國家和一些企業亦能賴以從事不道德行為。AI道德監管成為熱門話題,例如什麼情G或應否要求相關開發公司把道德考慮置於商業利益之先;而規管又該去到什麼程度以避免扼殺創新發展。
不過,這些問題並不容易處理。Google上周四(4日)才宣布解散僅成立9天、旨在為AI發展提供道德建議的顧問委員會,事緣該委員會成員包括反性小眾權利及反移民的右翼智庫主席,以及曾參與軍方項目的無人機公司高層,惹來爭議,Google員工更發起聯署反對。《金融時報》指出,事件反映隨茯F治趨兩極化,決定誰可對AI發展有發言權也變得複雜。
歐盟去年夏天得到來自學術界、工業團體,以及包括Google、德國軟件公司SAP、西班牙桑坦德銀行(Santander)、德國拜耳等公司共52名專家協助草擬這份倡議守則。歐盟委員會明年初將推出先導計劃,有興趣的企業、團體可以於今年6月簽署參加;專家將檢視試驗結果和反應,再交歐盟委員會衡量後續步驟。歐盟最終希望就「以人類為中心的AI」建立國際共識。
IBM歐洲主席耶特爾(Martin Jetter)稱,今次指引「為推動人工智能的道德和責任制立了全球標準」。
(路透社/法新社)