別隨便留言分享!FB審查準則曝光 過濾員僅10秒決定刪不刪

全球擁有 20 億用戶的社交網站 facebook(FB-US) 內部審查準則曝光,網友們的留言或分享內容將被嚴格監控,由於內容多到難以負荷,過濾員只有 10 秒作出判斷,決定刪除或保留。

綜合星島日報、香港明報、文匯報報導,據《衛報》取得 fb 發給內容過濾員超過 100 份的內部指引及守則顯示,fb 就網站上不同的內容範疇,如暴力、仇恨言論、恐怖主義、色情、種族主義及自我傷害,甚至打假波與吃人行為等都有審查指引。

fb 明言「並非所有令人不快或不安的內容都違反規則」,舉例指出應該刪除或保留的內容,例如慫恿他人槍殺美國總統川普的留言,因涉及國家元首等政要名人,可能構成人身威脅,應予刪除,但針對一般用戶的暴力留言,即使非常具體,如「抓住那個賤婦的脖子,確保用盡全力壓向她喉嚨」,則因「沒合理理據顯示並非單純的情緒發泄」而可獲保留。

指引承認,人們常在 fb 利用暴力語言表達不滿,一般情况下這些暴力訴求並非認真,fb 期望盡量容許言論自由發表,底線在於不能在現實世界構成傷害。

對於暴力影像,包括體罰兒童、虐待動物等影片,如無涉及虐待取樂或在片名、留言表達讚揚使用暴力,fb 不會刪除,因保留有關影片可助引起對相關事件關注,或突顯其新聞價值,如畫面太暴力可加上警告字句或限制用戶觀看年齡。

至於試圖自殘或自殺的直播亦可獲保留,以供相關人士介入,fb 稱要避免對陷入情緒困擾者作出審查或「懲罰」,妨礙其「呼救」。

廣告

色情內容上,fb 容許展示非裸體的模擬性行為及開口親吻影像,以及有遮蔽、打格的成人性行為影像,亦容許有新聞價值的裸體影像。至於涉及兒童色情、恐怖主義等明顯不當內容則會由系統自動刪除。

許多過濾員對部分不一致的準則表示憂慮,其中涉及性行為的內容尤其複雜,令人混淆,例如網民新興利用色情內容報復,便需過濾員透過影片題目、留言等蛛絲馬迹判斷影片是否「無獲片中人同意上載」屬違規,成沉重工作負擔。過濾員往往只有 10 秒作判斷。

消息人士直言,fb 內容太多,增速太快,已經「無法控制」。fb 現有 4500 名內容管理人員,並計劃增聘 3000 人。

fb 環球條款管理負責人 Monika Bickert 指出,fb 用戶人數龐大,確實難以就容許刊登哪些內容達成共識,「不論你如何劃界,總有部分灰色地帶」。fb 以用戶安全為首要責任,會繼續投入資源保障用戶,亦希望用戶回報違規內容。

內容審查專家 Sarah Robert 指出,fb 成員佔全球人口頗大比例,各有價值理念,當 fb 大力鼓吹「分享自我」時便難以管理,藉鼓勵用戶分享圖利的模式更令情况變成災難。

fb 被批抨擊是假新聞的溫床,且充斥侮辱女性和種族歧視言論,輿論認為,原因在於 fb 一直不肯公開構成違規內容的指引,致透明度不足,令用戶無所適從,隨著這次文件曝光後,用戶可以得知 fb 規定,公眾亦可展開討論,以改善指引。