聯合國教科文組織近日發表研究報告,指出蘋果數碼助理Siri和亞馬遜的Alexa的聲音設置為女性,對許多問題都以服從及溫順的態度回應,會加強人們對女性是恭順和屈從的性別偏見。 該研究報告指出,由於大部分語音助理都是女聲發音,「這發出了一個信息,就是女性是殷勤、溫順、渴望取悅幫助者的人,用戶只需按一下按鈕,或發出指令便可」。報告又指出,不管用戶語氣如何或帶有敵意,語音助理也會尊重有關指令並回答問題,「這會加強人們普遍持有的性別偏見,就是女性是順從的,即時遭到惡劣對待也會容忍」,例如當用戶向語音助理說「你是個蕩婦」,Siri會答:「如果我能,我會臉紅。」Alexa則會說:「多謝你的回應。」 面對性騷擾 反應偏頗平淡 報告稱,這些科技公司的工程師團隊大多是男性,他們建立的人工智能系統,會導致其女性化語音助理以調情的口吻回應不當言語,「這些系統對性騷擾說話作出偏頗、平淡或具歉意的反應,這種順從尤其令人擔憂」。 教科文組織建議科技公司停止將語音助理預設為女性,探討設為中性的可行性,並阻止基於性別的侮辱和辱罵性語言,同時在語音助理與人類交談開始時,就聲明這並非真人。 (衛報)
|
|
|