[摘要]此前曝光的劍橋分析公司濫用數據丑聞對Facebook造成重創,目前該公司正努力恢復其在用戶和開發者中的聲譽。
2018年4月11日,Facebook聯合創始人、董事長兼首席執行官馬克·扎克伯格(Mark Zuckerberg)前往美國國會眾議院能源與商業委員會作證
BI中文站 5月16日報道
世界上最大的社交網絡Facebook日前首次發布了內容審查數據,顯示其在2018年前三個月封殺了5.83億個虛假賬戶。這是自從劍橋分析公司(Cambridge Analytica)濫用數據丑聞之后,Facebook在“透明度”方面做出的重大努力。
這家硅谷社交網絡巨頭周二宣布,它將發布有關其內容審查努力的規模和有效性數據,讓外部人士史無前例地看到Facebook的努力,包括保持其平臺不受違規內容(有時包括非法內容)的影響。
以下是Facebook在2018年前三個月取得的部分成果:
——Facebook對340萬份包含圖畫暴力的內容“采取行動”。但Facebook的“行動”包括對內容進行警告,而不是直接刪除,至少絕大多數情況是這樣處理的。在用戶瀏覽的所有內容中,只有0.22%-0.27%含有圖畫暴力等違規內容。也就是說,并非在Facebook上發布的內容中有0.22%包含了圖畫暴力,而是這類內容占總瀏覽量的0.22%。
——Facebook對2100萬份含有裸露和性行為的內容采取了行動,它們占總瀏覽量的0.07-0.09%。
——Facebook對190萬份恐怖主義宣傳內容采取了行動。該公司沒有提供總瀏覽量數據,但表示其占比“非常低”。
——Facebook對250萬份仇恨言論內容采取了行動,但沒有公布瀏覽數字,因為它仍在“為這種違規行為制定衡量方法”。
——Facebook對8.37億封垃圾郵件采取了行動,盡管它沒有公布瀏覽量數字。
——Facebook封殺了5.83億個虛假賬戶。該公司估計,總體而言,其月活躍用戶中3-4%屬于虛假用戶。
這些數據表明,Facebook的人工智能審查系統可以有效地識別和刪除有問題的內容,同時它在有些領域依然存在挑戰。例如,有99.5%的恐怖主義內容在用戶報告之前就被Facebook檢測到并刪除,而只有38%的仇恨言論是在沒有用戶提交報告的情況下被發現的。
Facebook計劃在未來定期發布類似數據,就像它已經發布的政府數據請求數量那樣。
這些數據時在Facebook首次發布其完整的“社區標準”后披露的,該公司使用內部規則來確定用戶在其社交網絡上到底能做什么,不允許做什么。完整的指導方針大約有8500個單詞,在暴力、性、仇恨言論以及其他有爭議的內容方面,詳細說明了哪些是不能接受的。
此前曝光的劍橋分析公司濫用數據丑聞對Facebook造成重創,目前該公司正努力恢復其在用戶和開發者中的聲譽。但Facebook員工表示,發布“社區標準”的決定并非由最近丑聞事件所驅動的。(編譯/金鹿)