臉書(facebook,fb)本周發表7月至9月最新數據,首次展示在包括Instagram等平台打擊自殺、自殘等不當內容的成績,其中已刪除的兒童淫褻內容多達1160萬則,反映兒童色情禁之不絕。
較今年首季培增
臉書表示,正致力在Instagram和臉書上追蹤涉及受管制商品、自殺自殘、恐怖分子宣傳等內容。第三季數據顯示,公司在圖像及影片分享服務平台Instagram蝪ㄓF84.5萬則涉及自殺和自殘的帖文,亦在fb臉書刪除了250萬則同類內容。兒童裸體和性剝削方面,臉書蝔咻h達1160萬則相關帖文,Instagram則刪75.37萬則。今年首季蝪ㄙ漲P類帖文僅580萬則。
臉書副主席羅森(Guy Rosen)在網誌表示:「我們會蝪ㄣy述或鼓勵自殺或自殘的內容,包括專家指出可能會引起他人作出類似行為的特定血腥圖像和實時描述。我們亦在那些雖不違反本公司政策、但可能令某些人不安的內容,如已癒合的割損的傷口,或其他涉及自殘後復元的非血腥內容,作了展示限制。」
2017年英國14歲少女羅素(Molly Russell)自殺身亡,其父親隨後在她的Instagram帳戶上發現大量有關自殘和自殺的圖像資料,引起社會關注。Instagram今年2月遂宣布禁止用戶發布自殘相片,以保障青少年的心理健康。
刪假帳戶增加一倍
另外,臉書稱今年4月至9月間刪除32億個虛假帳戶,與去年同期刪除15.5億個虛假賬戶相比,今年刪除的假賬戶數量增長超過一倍。今年前三個季度一共刪除了多達54億個虛假帳戶,比去年全年還要多20億。
臉書首席執行官朱克伯格表示,臉書會一直努力找出虛假訊息內容,並予以刪除。他還呼籲其他平台效仿,刪除可疑的虛假賬戶。
臉書副主席羅森早前透露,平台用戶中大約有5%是可疑假賬戶,公司利用新技術自動刪除負面的虛假信息。
臉書這一全球最大社交網絡平台,還首次披露公司從旗下照片共享應用Instagaram中刪除的帖子數量。虛假信息研究人員已確認,Instagram成為假新聞的傳播渠道,越發令人擔憂。
此次公布的是該公司第四份內容審核報告,其中指出,Instagram上主動檢測到的違規內容比例在所有類別均低於臉書。這些檢測工具最初主要部署於臉書應用上。(英國廣播公司)