全球最大社交網站facebook(fb)宣布,過去半年在美國做的人工智能防止自殺測試,能辨識出有輕生念頭的用戶,將把這套系統推廣到其他國家地區。這套系統將會監測所有影片、貼文及留言,當發現特定字眼時,就會按情G自動通報fb,工作人員有需要時甚至會報警求助。做法雖獲防止自殺組織支持,但亦有學者擔心這套系統可能侵犯私隱,將來亦可能會用作防止自殺以外的用途。
按情G提供協助 危急時報警
fb今年3月在美國開始測試這套「模式識別軟件」(pattern recognition software),用以掃描超過20億個戶口的貼文內容與留言,找出可能隱藏涉及輕生的蛛絲馬[。fb產品管理副總裁羅森(Guy Rosen)指軟件可以搜尋可能含有自殺徵兆的特定留言,例如「你還好嗎?」(Are you ok?)和「我能幫你什麼嗎?」(Can I help?)等。如果軟件偵測到用戶有自殺傾向,fb成立的專門團隊會收到系統自動通報,團隊會按情G向該用戶提供協助,包括提供求助熱線電話、向用戶提供渡過現時困境的貼士,或是致電朋友或留言等。如果fb工作人員認為情G危急,會即時通報當地警方介入。
「速度很重要 必須及時伸援手」
「模式識別軟件」除了自動篩選可疑留言外,也能夠識別直播影片中可疑的時段(譬如在片段去到某位置時突然有大量觀眾發表關心留言),然後將該時段資料傳給fb團隊,方便團隊快速地判斷片段是否涉及自殺。此外,系統也會找尋通知當局的有效方法。羅森說:「速度真的很重要。我們必須及時伸出援手。」
羅森表示,單是過去一個月,fb軟件偵測到用戶有自殺意念後報警求助的個案已超過100次。他說,由於測試成功,fb已開始將軟件推廣到其他國家地區,並在各地聘請人員以隨時聯絡當局。不過,由於歐盟受私隱條例監管,fb無法監測資料,因此推出無期。
學者憂監測系統作其他用途
fb現時已有舉報自殺機制,用戶在發現貼文或直播片段有問題後可以向fb舉報,內容包括自殺或自殘、暴力、欺凌、騷擾、裸露或色情行為和仇恨言論等。如果舉報的屬於自殺行為,fb會即時將資料傳給團隊分析,同時向舉報者提議收看與80個組織合作的求助資源資料,甚至聯絡當地求助熱線或其他朋友。雖然fb會靠人工智能尋找有自殺傾向的用戶,但fb團隊仍會優先處理用戶舉報的個案。
fb總裁朱克伯格昨日說:「未來人工智能將能夠更了解語言微妙的差異,除了分辨出自殺個案外,還可以快速地找出涉及欺凌與仇恨的內容。」外界關注fb會否利用人工智能系統作監測自殺以外的用途,例如其他罪案,甚至是政治審查。華盛頓大學法律學教授卡洛(Ryan Calo)說:「當你打開了大門,你就會懷疑有什麼還會被審查。」
(綜合報道)