人工智能(AI)近年發展得如火如荼,已深入日常生活各範疇,惟同時其發展亦掀起不少道德爭議,包括軍事應用及數據歧視等。企業及政府近期都希望對AI加以監管,研究AI的香港科技大學計算機科學及工程學系教授德愷(De Kai)是Google顧問組織8名成員之一,他接受本報訪問時強調,「AI比我們過往製造的任何東西對人類社會都更具珝孺吽A影響難以預料」,惟現時的人類社會規範未能追上急促的科技發展,促請各界建構多重的機制討論AI道德問題。
德愷表示,他憂慮AI技術漸趨武器化,尤其是用作散播不實資訊,成為操縱輿論的「武器」。他稱,AI武器化分成兩個層面,除了用作製造實體武器,亦有人利用有關技術散播不實資訊,以挑動仇恨甚至操控選舉,形容AI是容易接觸到的「大規模珝孺坁Z器」。
技術趨武器化 操縱輿論製假新聞
現時AI的機器學習(machine learning)技術一日千里,促成合成技術「deepfake」,以製作出像真度極高的虛假影片,亦有研究人員研發出可自行撰寫文章的AI,令人憂慮有關技術會被利用製作假新聞。機器學習亦可以提高數據分析的效率,包括準確預測人們的性取向、種族及宗教信仰等私人信息,有助針對性地投放廣告,讓用戶在不知情之下接收偏頗的政治資訊,成為選舉的「宣傳工具」。
AI學習是建基於人類社會的大數據,因此亦難免存在人類的偏見。去年有報道指出,亞馬遜公司曾利用過去10年收到的履歷,讓AI學習招聘模式,惟業界一直由男性主導,令AI判斷男性求職者比女性優秀;該公司的AI程式Rekognition亦被揭曾把多名美國非白人國會議員誤認為疑犯。
社會規範未追上科技發展
德愷認為,AI「只是反映人類的好與壞」,又指出科技企業內部一般設有審查委員會,負責檢查數據是否存在偏見,再作出修正。他認為數據偏見是應解決的迫切問題,但強調只是冰山一角,真正要急切解決的問題在於現有的社會規範未能追上科技發展。他形容,人類現時拿笓I猶如「一群4歲的小孩拿蚞鷖鷅j」。
AI道德問題促使各科技巨擘相繼採取行動,包括成立道德委員會、制定守則或設立研究中心等,惟有批評認為這些行動沒有落實機制,缺乏實質效果。德愷是Google上月底成立的顧問組織成員之一,旨在為AI發展提供建議,惟其成員名單引起爭議,成立僅9天即被解散。他雖對顧問組織解散感遺憾,但指出該組織只是Google處理AI道德問題的其中一環,其他內部監管機制仍繼續運作,Google亦有持續更新並公開其道德守則,惟媒體及公眾較少關注。他認為科技公司應讓公眾了解其管治架構,而業界以外亦需要建立多重機制,包括獨立組織、非政府及政府機構等,在商討AI道德問題上各司其職。
不過,德愷強調,無論怎樣立法監管AI,由於AI發展太快,監管難免難以追上;最重要的是要改變社會規範,而人們亦要對AI的真正影響力有透徹的認識。