英靠AI辨假婚騙福利 演算法被揭歧視誤判
《衛報》周一(23日)發表偵查報道,指英國有最少8個政府部門和多個警隊組織採用人工智能(AI)參與決策,協助作出福利、移民、刑事等方面的決定,但由於AI功能仍未完善,這些年來公務員一直在用認知存在偏差、甚至存在歧視的演算工具去決定關乎人們一生的決定。
8部門採用 警稱黑人容貌較多誤認
報道說,英國內閣最近推出「演算法透明匯報標準」,鼓勵各政府部門和警察當局自發報告他們在哪些方面使用AI協助作出可能影響大眾的決策。有6個組織已陳列相關項目。《衛報》審視那些項目和法律公益團體「大眾法律計劃」(Public Law Project)的數據庫,連同向各政府和警察部門取得的資料,發現最少有8個部門或多或少用到AI,而有證據顯示採用的部分AI和複雜演算法,會產生歧視結果。
其中,內政部針對假結婚所用的工具,判斷阿爾巴尼亞、希臘、羅馬尼亞、保加利亞等東歐和南歐申請人為假結婚的比例不尋常地偏高;就業及退休金事務部用AI協助檢測虛假的福利申請,一名工黨議員認為,那是導致近年數以十計保加利亞人被誤判欺詐而被中止福利的原因。此外,倫敦都市警部(蘇格蘭場)使用的人面識別工具在某些設定下,誤認黑人容貌比誤認白人多。
報道指出,AI仰賴龐大數據來「訓練」,通過開發者設計的方法來分析,惟若數據本身存在偏頗,便很可能出現偏差結果。
「大眾法律計劃」總裁艾哈邁德(Shameem Ahmad)表示,AI有造福社會的巨大潛力,但其巨大風險也不容忽視。他說:「倘無迫切行動,我們可能糊婼k塗地落入以下處境:不透明兼可能不合法的自動化系統經常被用於改變生活不同層面,而當過程出錯時人們卻無從補救。」諾森比亞大學法律學教授奧斯瓦爾德(Marion Oswald)說:「公共部門沒有一致而透明的使用AI方式,很多這類工具將影響例如福利申領者等許多人的日常生活。可是人們不理解為什麼要用到它們,也沒有挑戰它們的機會。」
(衛報)