用戶人數近20億的社交網站facebook內部審查準則曝光,《衛報》取得逾百份fb內容審查員的內部訓練文件及審查指引,顯示fb的審查準則欠一致:例如針對政要及普通用戶的暴力內容審查有不同標準;虐待動物、欺凌或自殘等內容亦不一定刪除。fb承認各方難就內容是否合適達成一致看法,期望盡量容許言論自由和避免在現實世界構成傷害。有審查員承認,fb內容太多難以控制。
涉政要元首人身安全須刪除
《衛報》獲fb審查員提供有關文件,顯示fb就網站上不同的內容範疇,如暴力、仇恨言論、恐怖主義、色情、種族主義及自我傷害,甚至打假波與吃人行為等都有審查指引。fb明言「並非所有令人不快或不安的內容都違反規則」,舉例指出應該刪除或保留的內容,例如慫恿他人槍殺美國總統特朗普的留言,因涉及國家元首等政要名人,可能構成人身威脅,應予刪除,但針對一般用戶的暴力留言,即使非常具體,如「抓住那個賤婦的脖子,確保用盡全力壓向她喉嚨」,則因「沒合理理據顯示並非單純的情緒發泄」而可獲保留。
指引承認,人們常在fb利用暴力語言表達不滿,一般情G下這些暴力訴求並非認真,fb期望盡量容許言論自由發表,底線在於不能在現實世界構成傷害。
留暴力虐畜片 助引關注
對於暴力影像,包括體罰兒童、虐待動物等影片,如無涉及虐待取樂或在片名、留言表達讚揚使用暴力,fb不會刪除,因保留有關影片可助引起對相關事件關注,或突顯其新聞價值,如畫面太暴力可加上警告字句或限制用戶觀看年齡。至於試圖自殘或自殺的直播亦可獲保留,以供相關人士介入,fb稱要避免對陷入情緒困擾者作出審查或「懲罰」,妨礙其「呼救」。色情內容上,fb容許展示非裸體的模擬性行為及開口親吻影像,以及有遮蔽、打格的成人性行為影像,亦容許有新聞價值的裸體影像。至於涉及兒童色情、恐怖主義等明顯不當內容則會由系統自動刪除。
信息增速太快 審查員:無法控制
有消息人士稱,許多審查員對部分不一致的準則表示憂慮,其中涉及性行為的內容尤其複雜,令人混淆,例如網民新興利用色情內容報復,便需審查員透過影片題目、留言等蛛絲馬[判斷影片是否「無獲片中人同意上載」屬違規,成沉重工作負擔。審查員往往只有10秒作判斷。消息人士直言,fb內容太多,增速太快,已經「無法控制」。
fb環球條款管理負責人比卡特(Monika Bickert)指出,fb用戶人數龐大,確實難以就容許刊登哪些內容達成共識,「不論你如何劃界,總有部分灰色地帶」。fb以用戶安全為首要責任,會繼續投入資源保障用戶,亦希望用戶回報違規內容。內容審查專家羅伯特(Sarah Robert)指出,fb成員佔全球人口頗大比例,各有價值理念,當fb大力鼓吹「分享自我」時便難以管理,藉鼓勵用戶分享圖利的模式更令情G變成災難。(衛報)