社交媒體平台是否正在變成無法無天的區域,自由表達被用作散布仇恨的藉口?這個問題對於 X(前稱 Twitter)尤其尖銳,該平台的內容管理政策經歷了重大轉變。介於更自由的言論承諾與非常真實的濫用之間,該平台的新政策引發了對用戶安全和科技巨頭責任的深刻擔憂。這一演變遠非小事,正在重新定義我們數碼公共空間的邊界。
X 的管理:馬斯克時代的重大轉折
自馬斯克收購以來,X 改變了其內容管理方法,從既定政策轉向擁抱“幾乎絕對的言論自由”哲學。這一轉變導致了人力管理團隊的急劇減少、規則鬆動,以及對自動化系統的依賴增加。以前,該平台會發布詳細的透明度報告,通常約有五十頁,提供針對虛假信息、仇恨言論及其他有害內容的行動詳細視圖。如今,溝通變得更少,報告更簡短,並使用新的指標,使直接比較變得困難。
這一意識形態轉折對被容忍的內容類型產生了具體的影響。例如,該平台拆除了其針對 COVID-19 虛假信息的政策。此外,諸如錯誤性別指稱或將變性人稱為本名(未經同意使用其出生時的名字)的行為不再系統地歸類為仇恨言論。這些以更少限制言論名義做出的決定,讓有問題的內容再次抬頭,令許多用戶及觀察者對社交網絡方向感到擔憂。
這個新時代與過去形成鮮明對比,儘管不完美,曾試圖在保護用戶與言論自由之間尋找平衡。撤銷諮詢委員會並恢復之前因嚴重違規被禁的賬戶發出了明確信號:優先權不再是嚴格的內容策劃,而是盡量減少干預,即使有毒話題蔓延。
數字揭示什麼?最新透明度報告分析
X 在兩年內發布的首份透明度報告,涵蓋2024年上半年,呈現一幅令人不安的圖景。原始數據揭示了用戶舉報和平台行動之間的巨大脫節。一方面,用戶報告爆炸性增長,超過 2.24 億個賬戶和推文被用戶舉報,相較於2021年下半年只有1160萬次——驚人的增長率接近1830%。
另一方面,執法措施並未跟上這一趨勢。賬戶停權數量在同一時期僅增加了300%,從130萬增至530萬。兒童安全等關鍵領域的差距更加明顯:在超過890萬次因危害未成年人被舉報的帖子中,僅有14,571個被刪除。關於仇恨內容的對比亦是如此:平台因這個理由僅停權2,361個賬戶,而2021年下半年為104,565個。
儘管X部分將這些差距歸咎於定義和測量方法的變化,潛在趨勢是不可否認的:面對報告數激增,管理措施大幅減少。這種情況助長了對一個不太安全的數碼環境的擔憂,尤其是與兒童剝削和仇恨煽動相關的最危險內容愈發漏網。
[圖像:顯示用戶報告與 X 上管理行動之間差距擴大的圖形]
AI 掌舵:內容管理的新支柱
為了彌補人力減少,X 大舉依賴人工智能。該平台聲稱其管理基於“機器學習與人工審核結合”,AI 直接行動或標記內容以供進一步審核。然而,這種對算法依賴的增長提出了有關其處理人類語言複雜性和細節能力的基本問題。
自動化管理的局限性
儘管有所進步,自動化系統以其錯誤而聞名。它們難以正確解釋諷刺語言、編碼語言或文化背景。牛津大學和艾倫‧圖靈研究所的一項研究顯示,仇恨言論檢測的 AI 模型有很大不足:有些過度檢測,錯誤標記無害內容,而另一些則不夠檢測,讓明確的仇恨言論通過。
失敗的例子在其他平台上比比皆是:
2020年,Facebook 的系統封鎖了掙扎中的小企業的廣告。
今年,Meta 的算法錯誤地標記了奧斯維辛紀念館的帖子,稱其違反了標準。
另一個主要問題是訓練數據偏見。大多數算法從主要來自北方國家的數據集中開發,使得它們在分析方言或文化背景(例如馬格里布阿拉伯語)時效果較差。這種文化敏感性缺乏可能導致不平等和不公的管理。
對弱勢群體的影響
對 AI 的過度依賴有可能對弱勢社群造成不成比例的傷害。他們的語言可能包括再適用的術語或內部行話,常被誤解並錯誤標記為冒犯內容。同時,針對他們的細微且編碼的仇恨形式常常逃過算法的過濾。結果是一個雙重困境:其合法表達被審查,其面臨的騷擾卻未得到充分保護。將複雑的道德判斷託付於機器,不僅可能侵害言論自由,亦可能擴大平台宣稱要打擊的不平等。
AI,一把雙刃刀
人工智能是一種強大的工具,但不是靈丹妙藥。沒有嚴格的人為監管、多樣的訓練數據及明確的政策, 自動化管理系統可能加重它們試圖解決的問題,創造出既對某些過於嚴格又對其他過於寬鬆的環境。
真實後果:當網上言論助長暴力
X 管理的寬鬆不僅僅是理論辯論,它有著切實的現實世界影響。英國最近的一個案例戲劇性地說明了這一點。在部分由社交媒體上的虛假信息引發的騷亂中,一名女性發布推文呼籲“點火燒掉所有該死的旅館”。
她的完整信息毫不含糊:
「馬上大規模驅逐,點火燒掉所有該死的旅館,我不在乎,順便把政府和叛國的政治家一併帶走。[...] 如果這讓我成為種族主義者,那就這樣吧。」
這則信息被報至 X 違反其規則。但平台的回應是:推文未違反任何規則。然而,英國司法系統卻完全不同意。作者被起訴並認罪於種族仇恨煽動罪。這個例子突顯了法律所認為的嚴重刑事犯罪與全球領先平台所視為可接受之間的令人擔憂的鴻溝。允許此類網上暴力呼籲,風險在於將它們轉為現實行為,危及實際生命。
平台責任的攸關問題
當內容被法院判定為非法但被平台允許時,平台的責任問題直接出現。內容主機常被授予的豁免權日益受到挑戰,尤其是當其寬鬆管理助長了线下暴力時。
整個數碼生態系統的挑戰
X 的管理困難並非孤立案例。其他巨頭如 Meta(Facebook、Instagram)也承認其算法常無法正確識別虛假信息或仇恨言論,產生假陽性和未發現的有害內容。這是一個系统問題,更因行業趨勢而惡化,即通過用AI方案取代人類管理者來削減成本,這些方案雖成本更低但也不如預期可靠。
這一挑戰因日益增加的不透明性而加劇。2024年8月 Meta 工具 CrowdTangle 的關閉,以及2023年馬斯克對X API訪問收費的決定,極大限制了民間社會和學術界研究這些現象的能力。沒有數據訪問,幾乎不可衡量問題的規模和追究平臺責任。隨著全球重大选舉的临近,這種不透明性尤其令人擔憂,因為它妨礙了抵制影響和操縱運動的努力。
走向更智慧和更負責的系統?
內容管理危機促使我們重新考慮更可靠和負責的系統的設計,包括數碼和其他方面。尋求技術、人類專長和道德責任之間的平衡是我們這個時代的重要問題。這種優化追求在能源轉型等各不相同的領域中體現。
在這個領域,像 Les Nouveaux Installateurs 這樣的公司示範了綜合方法如何提供強健的解決方案。他們的工作不僅僅限於安裝太陽能板,而是為每個家庭設計一個智能能源生態系統。他們提供全面支持,從初步的能源研究到安裝的遠程監控。他們的解決方案包括尖端技術,如優化自用的智能控制、電動車充電站和熱泵,這些都通過專用應用程序管理。
這一類比具有啟發性。正如 Les Nouveaux Installateurs 將技術性能(面板、逆變器、控制)與不可或缺的人類專長(個性化研究、行政程序、由合格的 RGE 團隊進行的安裝)結合起來,健康數碼空間的未來可能也在於混合模型。強大的AI來處理大規模數據量,訓練有素的人工主持者補充配合,理解背景、文化,和倫理問題。通過結合機器和人的優勢,我們可以希望構建更公平、更安全的系統。
專家建議:從整體考慮生態系統
無論是管理能源消耗還是在線存在,系统愿景至關重要。對於能源轉型,這不僅僅是安裝電池板,而是以控制解決方案、存儲(虛擬電池)和高效設備(如熱泵)優化一切。Les Nouveaux Installateurs 提供交鑰匙式方法,確保您能源項目的最大一致性和效率。
X上的內容管理辯論揭示了技術創新與社會責任之間更廣泛的緊張關係。平台的選擇直接影響我們公共討論的質量和社會的安全性。當前模式傾向於過度自動化和人力撤離,顯示出嚴重限制。未來可能會需要更嚴格的監管、更高的科技公司透明度,以及回歸一個技術用於保護用戶而非令其面臨危害的願景。
X內容管理常見問題解答
X 的內容管理有什麼主要變化?
自馬斯克接管以來,主要變化包括人力管理團隊的顯著減少、規則鬆動(尤其是關於 COVID 錯誤信息和性別誤認)、加大AI依賴,以及在用戶報告急劇上升的情況下管理行動(停權、刪除)顯著減少。
AI 是內容管理的可行解決方案嗎?
目前,僅靠 AI 不是一個可行的解決方案。算法難以掌握人類語言的細微之處,如諷刺語言和文化背景,導致對合法內容的審查和檢測錯失細微仇恨言論。專家一致認為,結合 AI 與合格的人力監督的混合模型對於有效和公平的管理至關重要。
這些政策對言論自由有何影響?
X提倡的“絕對言論自由”願景反而威脅到許多用戶的言論。通過允許仇恨言論、騷擾和虛假信息猖獗,平台成了一個充滿敵意的環境,尤其對於少數群體和弱勢群體來說,他們可能遭到噤聲。真正的言論自由需要一個人人都可以不擔心安全而言之的安全環境。






