臉書成了全球頭號言論審查者!《紐時》揭露臉書審查標準紊亂、立場偏差、內容過時、錯誤百出

2018年12月30日 12:10 風傳媒
《紐約時報》取得臉書內部審查守則,發現臉書標準不一、內容過時,有時縱容仇恨言論,有時則阻礙公眾討論。(AP)

《紐約時報》取得臉書內部審查守則,發現臉書標準不一、內容過時,有時縱容仇恨言論,有時則阻礙公眾討論。(AP)

社群網站巨擘「臉書」近年來爭議不斷,遭控成為假消息的溫床,影響2016年美國總統大選結果。臉書為此增設數千名「貼文審查員」,審查全球20億用戶的爭議貼文,不過臉書審查員向《紐約時報》透露臉書審查言論的規則,擔心臉書權力過大,在外界極少的監督之下,犯下一方面縱容仇恨言論,另一方面又阻礙公眾討論的錯誤。

臉書制定審查守則 決定20億用戶所見所聞

臉書(Facebook)每季營收獲利高達約50億美元(新台幣1550億元),各界批評其平台上的部分訊息對民主有害,引發流血衝突。對於臉書來說,也必須展現刪除仇恨言論的決心,以吸引更多國家的用戶使用臉書,且在臉書停留時間更長,維護臉書的商業利益。

在許多開發中國家,臉書等社群媒體是民眾最主要的新聞來源(AP)
在許多開發中國家,臉書等社群媒體是民眾最主要的新聞來源(AP)

臉書在全球有100多種語言,每天有數以十億計的貼文出現,臉書要如何做到審查其中的爭議貼文,還能不阻礙其永無止境的擴張?他們想出的辦法是:讓臉書審查員利用其發放的PowerPoint投影片為準則,決定應該禁止哪些內容。

每個星期二早上,數十名臉書員工舉行早餐會,制定規則,討論臉書全球20億用戶能夠發表的言論,這些守則隨後發送給7500名以上的審查員(臉書指出審查員已增聘至1萬5000人)。這些討論審查守則的成員通常是年輕的工程師和律師,試圖將高度複雜的問題轉化為簡單的是非規則。隨後臉書將大部分實際審查貼文的工作外包,許多審查員是從客服中心離職,未受專門訓練的勞工。

審查守則標準不一、內容過時

臉書審查員將逾1400頁的臉書言論審查守則交給《紐約時報》(New York Times)。《紐時》發現,這些嚴格遵守的規則內容廣泛,使臉書成為遠比公眾與臉書認知還要強大的全球言論仲裁者。但這份審查守則卻存在眾多差距、偏見與徹底的錯誤。正當臉書員工們摸索正確答案時,他們讓部分國家的極端言論蓬勃發展,卻在其他國家封鎖主流意見。

《紐時》指出,審查員曾獲臉書告知,必須刪除為印尼火山受害者募款的活動,因為參與募款的主辦人之一,名列臉書內部被禁團體名單裡。臉書曾因為一個文書錯誤,讓一個被控挑起緬甸種族屠殺的著名極端組織,長達數個月活躍在臉書上。審查員也遭臉書錯誤告知,必須標記且可能刪除印度一些批評宗教的言論。

《紐時》檢視臉書內部的審查守則,發現其中有許多過時、謬誤之處,有些未經組織的PowerPoint簡報、Excel報表有著官僚的標題:「西巴爾幹人討厭組織與名人」、「可信的暴力:實施標準」。許多守則也並未更新。例如巴爾幹半島的民族主義不斷崛起,可能重新點燃過往的暴力,但是關於巴爾幹半島的守則2016年之後就未更新。波士尼亞戰爭時期的戰犯姆拉迪奇(Ratko Mladić)早在2011年已遭逮捕,但守則卻寫姆拉迪奇仍在逃。

前南斯拉夫種族屠殺審判:波士尼亞屠夫姆拉迪奇出庭比讚,惹怒受害者家屬(AP)
前南斯拉夫種族屠殺審判:波士尼亞屠夫姆拉迪奇出庭比讚,惹怒受害者家屬(AP)

臉書內部制定「仇恨名單」 界定方式惹議

臉書審查守則的錯誤指令更可能影響人命。聯合國指控臉書加劇緬甸屠殺羅興亞人後,臉書員工指出,他們自今年春天以來,就封鎖緬甸極端組織「緬甸種族佛教保護聯合會」(Ma Ba Tha)的支持言論。但緬甸人權運動者卻稱,那些支持緬甸種族佛教保護聯合會的貼文仍四處散播。《紐時》發現,禍首可能是臉書的審查守則,因為臉書管控緬甸仇恨言論的準則教導審查員,不要移除那些貼文,直到《紐時》向臉書查證之後,臉書才改正這項錯誤。

《紐時》更揭露,臉書內部交給審查員一張「仇恨名單」,列出全世界散播仇恨、種族主義的極端組織,審查員只要看到任何讚揚、支持或是代表這些組織的貼文,就必須將其刪除。然而這些「仇恨名單」如何界定出來,卻是個大問題。

烏克蘭研究極右派組織的專家什科佐夫(Anton Shekhovtsov)表示,他很疑惑臉書是如何界定這份仇恨名單。什科佐夫指出,臉書封鎖美國和英國一系列的組織,不過俄羅斯、烏克蘭等國的極右派組織更加暴力,臉書在當地封鎖的極右派組織則相對較少。政府的壓力也可能是臉書將部分組織加入仇恨名單的原因之一,臉書在德國政府監管下,封鎖數十家右派組織,但在德國的鄰國奧地利,臉書只有封鎖1家極右派組織。

已經進入政治主流的希臘極右派政黨,在希臘與歐盟議會都握有席次的「金色黎明」(Golden Dawn),臉書照封不誤。哈佛大學網路極端主義專家凱瑟(Jonas Kaiser)認為,由科技公司來設定言論與平台的紅線「非常有問題」,「這讓社群網站做出判決,取代原本法院的工作。」

2016年美國總統大選,俄羅斯在臉書等社群媒體散布假消息與仇恨言論,全力為川普助選(AP)
2016年美國總統大選,俄羅斯在臉書等社群媒體散布假消息與仇恨言論,全力為川普助選(AP)

臉書標準親政府 恐影響選舉走向

臉書封鎖組織的標準,也可能偏向政府立場,例如臉書在斯里蘭卡移除紀念內戰喪生的泰米爾(Tamil)族人的貼文,也不准斯里蘭卡人在臉書上讚揚泰米爾叛軍,但斯里蘭卡的用戶卻能讚揚同樣犯下暴行的政府軍。倫敦大學學院(University College London)斯里蘭卡專家克勞寧-佛曼(Kate Cronin-Furman)指出,臉書的政策讓泰米爾族人無法紀念內戰,讓政府能夠強加其內戰的事件論述,鞏固泰米爾人的二等地位。

《紐時》指出,臉書決定是否封鎖組織的決策,還可能影響該國民主選舉,侵害政黨競選曝光的機會。例如臉書在巴基斯坦人不知情之下,嚴加監管「伊斯蘭神學者協會」(Jamiat Ulema-e-Islam)的貼文,另外一黨「伊斯蘭大會黨」(Jamaat-e-Islami)卻歸類為「良性」。

臉書口口聲聲說,他們的目標是要保護用戶,但《紐時》發現,在巴基斯坦的審查守則中,臉書警告審查員不要做出任何損害臉書名聲,甚至可能讓公司陷入司法風險的「公關危機」。

審查員壓力大 8至10秒決定貼文生死

第一線的臉書審查員肩負壓力也相當大,儘管臉書指出,審查員有充足的時間來審查貼文,沒有設定每人的審查配額。但臉書審查員向《紐時》表示,他們每天面臨審查上千則內容的壓力,看到不懂的語言,只能仰賴Google翻譯。每則貼文平均僅能審查8至10秒,影片則能審查久一點。

對於部分審查員來說,審查員的薪水與審查時間和正確度有關,若審查員發現網路上的新威脅,或審查守則的漏洞,鮮少有通報臉書的機制,審查員通報的動機也不高。許多審查員不堪工作負荷,僅做了幾個月就離職。

臉書高層辯解:即使99%正確,還是會犯下許多錯誤

審查員向《紐時》挫折地表示,臉書的審查守則並非全然合理,有時還不能將可能引發暴力的貼文下架,「你感覺你的不作為,殺害了某些人。」臉書動態時報(News Feed)的高階工程師莎拉.蘇(Sara Su)則回應:「我們的職責不是糾正其他人的言論,不過我們確實想執行我們平台上的社群標準。當你在我們的社群裡時,我們希望確保言論自由與安全的平衡。」

臉書全球政策管理長畢克特(Monika Bickert)則解釋,臉書的主要目標是防止危害,聲稱臉書在該處已取得很大程度的成功,但無法盡善盡美。「我們每天有數十億則貼文,我們正在運用我們的科技系統辨認更多潛在的威脅。在此規模下,即便你有99%判斷正確,你還是會犯下許多錯誤。」

加入Line好友

【我要發風】

風傳媒歡迎各界分享發聲,來稿請寄至 opinion@stormmediagroup.com,並請附上姓名、聯絡方式、自我簡介,謝謝!

我想再看到這個主題