美國心理學家利用人工智能(AI)分析人臉特徵,判別該人是否同性戀者,準確度達九成,遠超人類。專家稱,今次研究旨在提醒公眾同類科技可能嚴重侵犯私隱,甚至用於迫害異己,應多加關注。
人類分辨成功率僅61%
研究由美國史丹福大學心理學家科辛斯基(Michal Kosinski)及王一倫(Yilun Wang,譯音)合作進行,報告刊於《人格與社會心理學期刊》。他們從美國其中一個熱門交友網站,取用來自約1.5萬人超過3.5萬張照片作為分析對象,各性別及性傾向人數大致平均分佈。研究員將該批照片輸入至名為VGG-Face的軟件,利用軟件的深層神經網絡學習分析,找出面部特徵與個人宣稱的性傾向之間的關係,形成一套測試模型,用於辨識此前無輸入過軟件的照片,判斷照片中人的性取向。
測試結果顯示,如隨機展示一張同性戀及一張異性戀男性的照片,軟件分辨出兩者性傾向的成功率為81%,如展示同一男性的5張照片,判斷其性傾向的成功率更增至91%。至於女性方面,軟件分辨出同性戀及異性戀者的成功率為71%,用5張照片判斷性傾向的成功率為83%。利用同一組照片測試,人類分辨男性成功率僅61%,而女性成功率更只有54%。
「為同性戀先天論強力證據」
研究員發現,同性戀者傾向擁有「非其性別典型」的特徵、表情及打扮習慣,例如男同性戀者會有較長的鼻子及較大的額頭,女同性戀者會有較大的顎骨和前額較小等。軟件分析男性時會特別留意鼻子、眼睛、眼眉、臉頰、髮線及下巴,而分析女性則特別留意鼻子、嘴角、頭髮和頸項。科辛斯基稱,研究顯示人臉上與性傾向相關的特徵較人類能辨識的更多,可能是由於胎兒在母體內接觸到不同水平的荷爾蒙,特別是睾丸酮,而影響其面部結構以至性傾向。報告認為,今次研究為同性戀「先天論」提供「強力證據」。
不過,科辛斯基強調,研究的最終目的並非要創造出能夠可靠辨別性傾向的系統,而是希望展示出AI的威力將令私隱受侵犯變得「無可避免」,必須了解其可能危害,例如在部分不接受同性戀甚至將之視作違法的地區,此類軟件便可能威脅同性戀者的人身安全。他指出,今次研究中團隊並無發明任何新技術,而是將現有軟件及可輕易在網上取得的資料結合。只要提供適當數據,類似的AI系統便可「受訓」用於找出其他私隱,例如智商甚至政治取態,政府及企業應主動思考AI對私隱的威脅,作出相應防範,例如立法規管等。
用類似軟件針對性拉票 特朗普勝選
科辛斯基曾展開多項具爭議研究,例如發明出利用facebook數據分析的心理測量工具,以判斷用戶人格等。美國總統特朗普去年在總統大選中亦利用類似軟件,助向目標選民拉票,惹來關注。人臉辨識公司Kairos行政總裁布拉肯(Brian Brackeen)指出,AI應用日漸廣泛,功能亦不斷躍進,只要有足夠數據,AI幾乎能找出關於任何人的任何事,有需要加緊研究如何防止濫用。(經濟學人/衛報)