美國政府周四(19日)發表號稱歷來同類最大型研究的結果,指大部分人臉識別系統的演算法都存在種族偏見,誤認亞裔和非裔人士的比例遠高於白人。研究結果加深外界對人工智能(AI)演算法無法平等對待識別對象的疑慮。
美國商務部轄下的國家標準技術研究所(NIST)研究,分析了99間公司開發的189種人臉識別演算法,包括科技巨擘如微軟、英特爾和松下(Panasonic)等的產品。研究發現上述演算法接受所謂「一對一」(one-to-one)配對的特定資料庫搜索測試時,認錯非裔美國人或亞裔臉孔的情G,是認錯白人的10至100倍。研究又發現在刑事調查常用的「眾奡M一」(one-to-many)配對測試中,非裔美國女性更容易被誤認。
研究人員也發現,其中兩個演算法誤認非裔女性性別的機率將近 35%。
該種系統通常用於犯罪識別,這意味著,這些技術誤判可能導致無辜的民眾遭捕或入獄。先前據科學家研究,不僅人臉識別系統存在偏見,包括Google、亞馬遜等搜尋引擎在內,都含有大量性別偏見;華盛頓大學的研究也顯示,非裔美國人所發布的Twitter貼文中,被AI偵測為仇恨言論的數量,相較其他族裔多了1.5倍。顯然隨著人工智慧技術應用日益普及,如何解決AI訓練素材的偏見問題以及系統的精確度,也變得更加迫切。
科學界早已關注人臉識別系統的種族和性別偏見問題,NIST研究再度證明這一點。研究員相信,上述偏見跟初期訓練系統所用的照片數據人種較集中有關。研究也發現,中國製的系統判斷亞裔臉孔表現較佳。
人臉識別系統廣泛運用在執法單位、機場、邊境管制、銀行、商家和學校,以及像是解鎖智慧型手機等個人科技。一些倡議人士和研究人員宣稱,人臉識別的潛在錯誤層出不窮,而這些錯誤可能導致無辜民眾入獄。另外,這項科技若被用來建立成資料庫,可能被黑或被不當使用。
首席研究員葛羅勒(Patrick Grother)說:「偽陰性可能僅會造成不便,你無法解鎖手機,但通常試了第 2 次就能補救。但在一對多搜尋中出現偽陽性,不正確比對結果會被列入名單中,有必要進行進一步檢視。」
美國最大人權組織公民自由聯盟表示,研究結果顯示執法部門不應採用人臉識別工具,以免出錯導致錯誤拘捕或審訊等。(綜合報道)