使用人臉識別系統執法早已引起私隱爭議。美國民權組織測試發現,亞馬遜(Amazon)公司的人臉識別系統Rekognition錯誤把28名美國國會議員當作疑犯。在「被當賊辦」的28人之中,非白人議員有11人,佔39%,遠超這類議員在國會的佔比(20%),巨大誤差惹來質疑系統有種族偏見。由於美國有地方警察亦有使用該套系統,民權組織擔心,該系統會加劇警察歧視黑人等有色人種情G,促國會關注。
美國民權組織「公民自由聯盟」(ACLU)以亞馬遜公司供大眾使用的人臉識別系統,將2.5萬張公開的疑犯照片建立用作搜查和偵測的資料庫,比對合共535名國會議員的照片。結果有28名議員遭誤認為疑犯,其中非白人議員共11人,佔錯配結果近40%。
亞馬遜﹕僅收窄調查範圍 須人類判斷
北加州ACLU基金會的技術和公民自由律師斯諾(Jacob Snow)在聲明中說﹕「我們的測試進一步突顯人臉監控系統供政府使用並不安全。人臉監控將被用於強化針對有色人種、移民和維權人士的帶歧視監視和警務工作。 一旦啟用,傷害就無法消除。」
「傳媒公義中心」行政總監西里爾(Malkia Cyril)認為,ACLU的測試證明亞馬遜的人臉識別工具有歧視成分,公司應立即撤回系統。
錯配結果中有6名議員為「國會黑人議員團」成員,包括民權領袖路易斯(John Lewis),他們去信亞馬遜公司創辦人貝索斯(Jeff Bezos)表示極度關注事件,擔心會在無意中對非裔美國人造成強烈的負面後果。
亞馬遜公司解釋,若調高信賴度門檻(confidence thresholds),即系統可成功配對的難度要求設定,測試的準確度將有所提升。ACLU的測試採用了系統預設的80%信賴度門檻,但亞馬遜公司指80%的門檻只可用在物件和動物的照片上,並不適用於人臉識別。亞馬遜聲稱,系統用作執法用途時,公司會指導用家把信賴度門檻調至不少於95%。亞馬遜又稱系統只是協助人類收窄調查範圍,最終要人類作出判斷。但民權人士指出,人臉識別系統出錯的後果不應被低估,被錯認的人會遭警方調查甚至暴力對待。2009年,三藩市一名女子遭警方用槍指嚇拘捕,原因是警方的車牌閱讀器錯認她的汽車。
錯誤因演算法偏見 數據庫多為白人男
美國麻省理工學院(MIT)今年2月研究指出,微軟及IBM等人臉識別技術辨認非白人和女性的準確度顯然比較低。問題屬於演算法偏見(algorithmic bias),原因是基準數據庫中以白人男子為大多數。在辨認白人男子時,系統的準確度能達至99%,但辨認黑人女子的準確度則降至少於一半。
亞馬遜公司5月被揭發,美國有最少兩個地方執法部門使用其人臉識別系統技術以辨認疑犯,包括佛羅里達州奧蘭多市和俄勒岡州華盛頓郡。消息傳出後隨即惹來極大爭議,奧蘭多市警方曾一度宣布停用,惟近日卻再次重啟測試計劃;華盛頓郡執法部門則表示會繼續使用,但只用作刑事調查。
(綜合報道)