大公產品

首頁 > 國際 > 正文

Fb放行欺凌自殘影片惹議

時間:2017-05-23 03:16:25來源:大公網

  圖:內容管理人員對於類似「不健康」圖片難以作出取捨        網上圖片

  【大公報訊】綜合英國《衛報》、《獨立報》報道:在全球擁有20億用戶的社交媒體巨擘Facebook近日被英國媒體曝出其影像內容審核規定的內部文件。Fb此前頻頻捲入流傳暴力欺凌等不健康影像風波,上月早些時候公司曾宣布,已採取措施保證在收到舉報之後迅速刪除問題影像。然而,據媒體透露的內部文件來看,Fb指示員工對暴力、恐怖主義、色情等內容的審核卻有不同標準,引起了全球對這家最大媒體平台所扮演的角色及道德規範的討論。

  英國《衛報》21日獲取了Facebook內部100多份手冊、表格以及流程圖,首次曝光了Fb處理暴力、色情、仇恨言論、恐怖主義、種族主義以及自殘等內容的原則,甚至對於打假球和吃人肉,Fb都出台了專門規定。

  話題灰色地帶難取捨

  根據泄露出的審核文件,只要提到「殺害特朗普」、「死亡暴力」字眼的內容都必須被刪除;只要不涉及裸露鏡頭,墮胎的影片是允許發布的。

  《衛報》舉例指,Fb可能允許網民直播企圖自殘的影片,因為「不想審查或懲罰陷入困境的人」。而儘管暴力致死的影片會被標記為「令人不安」,但不一定會刪除,因為這些影片有助於引發他人對精神疾病的關注。此外,有些非性虐待或欺凌孩童的照片不會被刪除或「採取行動」,除非含有「施虐」或慶祝元素。

  指引還指出,「暴力、威脅內容往往過於籠統,除非有明確的證據,認定該內容不只是情緒宣泄」,因此類似「我希望有人可以殺死你」、「滾開去死」等不夠確切、充滿情緒宣泄的文字將不會被刪除。

  對於一些政策的前後不一以及內容的特殊屬性,許多內容管理人員感到十分憂慮。他們表示,「有些話題的界限很難有明顯區分,例如,跟『性』有關的內容就非常複雜,內容的取捨也令人困擾。」

  Fb全球政策管理總監比克特表示,審查團隊成員組成非常多元的,但在決定內容去留時,還是會面臨灰色地帶,許多情況中的「諷刺幽默」跟「不恰當」往往是一線之隔。

  比克特說,「我們對維持平台安全跟信賴感絕對有責任,我們會盡量為大家把關,但也希望大家一旦發現不適當的內容可以舉報。」

  每周審核逾650萬宗舉報

  對於擁有20億用戶的Fb來說,審查員工每天都需要在平台上處理大量影片以及圖片內容。

  Fb表示,內容管理人員的審核工作面臨巨大挑戰,每周要審核超過650萬宗來自潛在假帳號的舉報,巨大的工作量讓通常只有10秒鐘決定內容去留的管理人員疲於應付。

  一位編審說:「我們控制內容非常吃力,因為信息量增加太大、流傳速度太快」。

  憂心忡忡的批評人士表示,Facebook已經成了全球最大的內容發布商,必須多做努力,篩除仇恨、惡意和暴力內容。

  美國和歐洲一些批評家則認為,應該像管理主流廣播機構及出版商一樣規管Fb。

  但比克特反駁說,「Fb是一種新型公司,既不是傳統的科技公司,也不是傳統的媒體公司。我們會對公司建立的任何一種技術負責。不過,人們在平台上讀到的新聞並不是我們編寫的。」

最新要聞

最新要聞

最受歡迎