明報新聞網海外版-明報加東版(多倫多) - Ming Pao Canada Toronto Chinese Newspaper
[ 前往新版面 ]
 
主頁    要聞     加國新聞     社區新聞     中國     國際     港聞     經濟     體育     影視     副刊    工商專業    股市行情  
即時新聞網 ·  醫事網 ·  車網 ·  樂在明廚 ·  置業頻道 ·  FAN club ·  分類網 ·  特刊專區 ·  香港股市行情
   
 
其他新聞
新加坡寨卡急增至41宗
日最大規模奪島演習耗36噸實彈
意地震死者國葬 消防憾未救8歲童
美康奈爾大學校園血案 一死一傷
半數德國人反對默克爾續任
[顯示全部題目]

[昔日明報]

 
國際
 AI「學會」偏見 黑人名字聯繫負面詞

美國普林斯頓大學早前測試一個人工智能程式(AI),發現它把一些白人常用名字視為「愉快」的字詞;黑人常用名字則是「不愉快」的詞語。研究員指出AI透過互聯網學習,連人類的種族偏見也會有樣學樣。

學人類語言 種族偏見潛移默化

GloVe是一個不受規管的AI學習程式,自行在數據中找出模式學習。普林斯頓大學研究員參考了1998年華盛頓大學一個研究,假設AI從網上了解人們使用的語言,繼而自行學習,AI亦將會「學習」到人類語言中潛藏的種族與性別歧視。當年華盛頓大學專家邀請人們將一些詞語與「愉快」、「不愉快」聯繫起來。接受測試者把「花」、「昆蟲」先後區分為「愉快」及「不愉快」;後來他們要再區分一堆人名,結果發現測試者認為白人名字「愉快」,黑人名字則「不愉快」。

普林斯頓大學研究員複製這個測試,只不過測試對象改為GloVe。研究發現,GloVe把Emily和Matt等白人常見名字判斷為「愉快」,至於Ebony和Jamal等黑人常見名字則判斷為「不愉快」。

普林斯頓大學的研究顯示GloVe的數據庫受到偏見和先入為主的觀念所「污染」,演算法亦複製出這些人類最差劣的價值觀。

預測罪犯軟件 低估白人風險

人類愈來愈倚重程式作重要決定,認為機械不會受人類偏見所左右,更能作出客觀判斷。不過,近期研究卻顯示機器可能不會客觀。ProPublica今年5月便報道,佛羅里達州政府用來預測未來罪犯的軟件有系統地低估白人罪犯再犯事的風險,干犯嚴重罪行的白人往往被評定為風險低於僅犯輕微罪行的黑人。

一些專家相信,問題根源可能在於演算法學習的數據所隱藏的偏見。

(每日郵報/Vice)

 
 
今日相關新聞
美球員反歧視 奏國歌拒站立
美愛國標準 黑白大不同
關鍵搖擺州 特朗普大幅落後
「最瘋狂州長」暗示應殺有色人種
AI「學會」偏見 黑人名字聯繫負面詞
[顯示全部題目]



引用明報

引用明報(加拿大)內容收費準則:(包括:報章,各類附刊,數碼及任何名下之內容)

文字:每100字(含標點符號) 30元
特別內容如獨家新聞,名家約稿等另按情況收費

圖片:每張50元
獨家,合成圖片,圖樣設計另議。

凡未於收費表列明之項目而屬明報(加拿大)內容者,引用者請先行查詢收費。

舉報剽竊內容獎勵辦法:

凡舉報可能剽竊明報(加拿大)內容者,若有關舉報能成功令明報(加拿大)追討有關費用,在扣除追討費用後,舉報者可獲有關金額的15%作為酬勞。

 
廣告 advertisement
廣告 advertisement
 
 
 
 
主頁 ,  誠聘 , 待聘 ,
房屋出租  ,  招生  , 
服務  ,  買賣  ,  其他