AI「學會」偏見 黑人名字聯繫負面詞
美國普林斯頓大學早前測試一個人工智能程式(AI),發現它把一些白人常用名字視為「愉快」的字詞;黑人常用名字則是「不愉快」的詞語。研究員指出AI透過互聯網學習,連人類的種族偏見也會有樣學樣。
學人類語言 種族偏見潛移默化
GloVe是一個不受規管的AI學習程式,自行在數據中找出模式學習。普林斯頓大學研究員參考了1998年華盛頓大學一個研究,假設AI從網上了解人們使用的語言,繼而自行學習,AI亦將會「學習」到人類語言中潛藏的種族與性別歧視。當年華盛頓大學專家邀請人們將一些詞語與「愉快」、「不愉快」聯繫起來。接受測試者把「花」、「昆蟲」先後區分為「愉快」及「不愉快」;後來他們要再區分一堆人名,結果發現測試者認為白人名字「愉快」,黑人名字則「不愉快」。
普林斯頓大學研究員複製這個測試,只不過測試對象改為GloVe。研究發現,GloVe把Emily和Matt等白人常見名字判斷為「愉快」,至於Ebony和Jamal等黑人常見名字則判斷為「不愉快」。
普林斯頓大學的研究顯示GloVe的數據庫受到偏見和先入為主的觀念所「污染」,演算法亦複製出這些人類最差劣的價值觀。
預測罪犯軟件 低估白人風險
人類愈來愈倚重程式作重要決定,認為機械不會受人類偏見所左右,更能作出客觀判斷。不過,近期研究卻顯示機器可能不會客觀。ProPublica今年5月便報道,佛羅里達州政府用來預測未來罪犯的軟件有系統地低估白人罪犯再犯事的風險,干犯嚴重罪行的白人往往被評定為風險低於僅犯輕微罪行的黑人。
一些專家相信,問題根源可能在於演算法學習的數據所隱藏的偏見。
(每日郵報/Vice)