社交媒体平台会成为一个没有法律约束的地带吗?在这里,言论自由被用作传播仇恨的借口。对于X(前称Twitter)来说,这个问题尤为严重,因为它的内容监管发生了激烈变革。在承诺更自由言论与现实中的滥用之间,该平台的新政策引发了对用户安全和科技巨头责任的深刻担忧。这一变化远非偶然,它正在重新定义我们的数字公共空间的边界。
在马斯克时代下的X的内容审核:一个激进的转折点
自伊隆·马斯克收购X以来,其内容审核方式发生了根本转变,放弃了既定政策,拥抱“几乎绝对言论自由”的理念。这一转变导致人工审核团队的大幅减少,规则的放宽,以及对自动化系统的依赖增加。以前,平台发布详细的透明度报告,通常有五十页左右,提供了对抗虚假信息、仇恨言论和其他有害内容行动的详细视图。如今,沟通减少,报告简短,使用新指标使直接比较变得困难。
这种意识形态的转变对容忍的内容类型产生了切实的影响。举例来说,平台废除了其针对COVID-19虚假信息的政策。此外,诸如错误性别称呼或使用未获得同意的跨性别人士的出生名这样的行为不再被系统性地归为仇恨言论。这些决定以更少的限制言论的名义开启了有问题内容回升的大门,让许多用户和观察者对社交网络的发展方向感到担忧。
这一新时代与过去形成鲜明对比,尽管不完善,但曾努力在保护用户与言论自由之间寻求平衡。咨询委员会的解散以及之前因严重违规行为而被禁的账户的恢复发出了明确信号:优先事项不再是严格的内容策划,而是尽量减少干预,即使有害言论泛滥。
数字说些什么?最新透明度报告的分析
X在两年内发布的首份透明度报告覆盖了2024年上半年的情况,描绘了一幅令人不安的图景。原始数据揭示了用户举报与平台行动之间的巨大差距。一方面,举报数量激增,用户举报的账户和推文超过2.24亿,而在2021年下半年仅为1160万——激增了近1830%。
另一方面,执法措施没有相应增加。在同一时期,账户停用数量仅增长了300%,从130万增加到530万。在儿童安全等关键领域,这一差距尤为显著:在超过890万篇涉嫌危害未成年人内容中,仅移除了14571篇。关于仇恨内容,对比同样鲜明:平台仅因该原因暂停了2361个账户,而2021年下半年则为104565个。
尽管X部分通过定义和测量方法的变化来解释这些差距,但潜在趋势是不可否认的:在举报数量激增的情况下,内容审核行动显著减少。这种情形加剧了对数字环境安全性降低的担忧,其中最危险的内容——尤其是与儿童剥削和仇恨煽动有关的内容——日益漏网。
[图像:显示X上用户举报与审核行动之间与日俱增差距的图表]
人工智能引领:内容监管的新支柱
为了弥补人力的削减,X大力依赖人工智能。平台声称其审核是基于“机器学习和人工审核”的结合进行,人工智能直接行动或标记内容以供进一步验证。然而,这种日益依赖算法引发了关于其处理人类语言复杂性和细微差别的能力的根本问题。
自动化审核的局限性
尽管进展显著,自动化系统以错误闻名。它们难以正确理解讽刺、编码语言或文化背景。牛津大学和艾伦·图灵研究所的研究表明,仇恨言论检测的人工智能模型有显著缺陷:有些过度检测,错误标记良性内容,而其他则漏检,未能识别明显的仇恨言论。
其他平台的失败案例比比皆是:
2020年,Facebook的系统封锁了为困难小企业投放的广告。
今年,Meta的算法错误标记奥斯维辛纪念馆的帖子为违反其标准的内容。
另一个主要问题是训练数据的偏见。大多数算法是从主要源自北方国家的数据集中开发的,使它们在分析如马格里比阿拉伯语等方言或文化背景时效果较差。这种文化不敏感性可能导致不公平和不平等的审核。
对边缘化社区的影响
过度依赖人工智能风险过大,可能会对边缘化社区造成不成比例的伤害。他们的语言可能包括重新使用的术语或内部术语,常被误解并错误标记为冒犯性内容。同时,针对他们的仇恨的微妙和编码形式常常逃过算法的过滤。结果是双重困境:他们合法表达的审查和他们面对的骚扰缺乏足够的保护。将复杂的道德判断交给机器不仅冒犯了言论自由,还可能加剧平台声称要打击的不平等。
人工智能:一把双刃剑
人工智能是一个强大的工具,但它并非万能。在缺乏严格的人工监督、多样的训练数据和明确的政策的情况下,自动化审核系统可能会加剧他们试图解决的问题,创造一个对一些人过于严格,对另一些人过于宽松的环境。
真正的后果:当网络言论煽动暴力
X的宽松审核不仅仅是理论上的辩论;它有着可见的现实世界后果。最近在英国的一件案件生动地说明了这一点。在社交媒体上的错误信息部分引发的骚乱中,一名女子发布了推文,呼吁“烧掉所有酒店里的混蛋”。
她的完整信息毫不含糊:
"现在就大量遣返,烧掉所有酒店里的混蛋,政府和叛徒政客也一并带走[...]如果这让我被视为种族主义者,那就这样吧。"
这条消息被举报至X,因违反其规则。该平台的回应是?推文没有违反任何规则。然而,英国司法系统对此有截然不同的看法。作者因煽动种族仇恨被起诉并认罪。这一例子突显了法律所认为严重的刑事犯罪与全球领先平台所认为可接受之间的令人担忧的差距。在线上允许这样的暴力呼吁风险将其变为现实,危及真实生命。
平台责任岌岌可危
当某内容被法院裁定为非法但平台仍允许时,该平台的责任直接引发质疑。在内容托管者通常享有的免疫权利也越来越受到挑战,尤其是当他们的松懈助推线下暴力时。
整个平台生态系统面临的挑战
X的审核困难并非孤立个案。其他巨头如Meta(Facebook,Instagram)已承认其算法经常未能正确识别虚假信息或仇恨言论,生成错误的正面和未检测的有害内容。这个问题是系统性的,并因行业削减成本以较低廉但不可靠的人工智能解决方案替代人工审核员的趋势而加剧。
这一挑战因日益增长的不透明性进一步加剧。Meta工具CrowdTangle于2024年8月关闭,此工具允许研究人员监测虚假信息,而伊隆·马斯克在2023年决定对X的API访问收费显著限制了公民社会和学术界研究这些现象的能力。没有数据访问,几乎不可能评估问题的规模并追究平台责任。在即将到来的世界范围内的重大选举中,这种缺乏透明性尤为令人担忧,因为它阻碍了抵制影响和操纵活动的努力。
迈向更智能和更负责的系统?
内容审核危机促使我们重新考虑设计更可靠和负责任的系统,无论是数字系统还是其他方面。寻求技术、人类专业知识和伦理责任之间的平衡是我们时代的核心问题。这种优化的探索在截然不同的领域都能找到,比如能源转型。
在这个领域,Les Nouveaux Installateurs公司通过综合方法提供强大的解决方案。他们的工作不仅包括安装太阳能板,还为每个家庭设计智能能源生态系统。他们提供全面支持,从初步能源研究到安装的远程监控。其解决方案包括尖端技术,如优化自我消费的智能控制、电动车充电站和热泵,均通过专用应用进行管理。
这一启示颇具指导意义。就像Les Nouveaux Installateurs结合技术性能(面板、逆变器、控制)与不可或缺的人类专业知识(个性化研究、行政流程、由合格RGE团队安装)一样,健康数字空间的未来很可能在于一种混合模式。一个强大的人工智能来处理大量数据,由了解背景、文化细微差别和道德考量的训练有素的人工审核员监督和补充。通过机器与人类的最佳结合,我们可以希望建立更公平、更安全的系统。
专业建议:从整体上思考生态系统
无论是管理能源消耗还是在线存在,一个系统化的视角是必不可少的。对于能源转型,这不仅意味着安装面板,更意味着通过控制解决方案、存储(虚拟电池)和高效设备如热泵来优化一切。Les Nouveaux Installateurs提供了一种交钥匙的方法,确保您的能源项目最大化一致性和效率。
X上的内容审核辩论揭示了技术创新与社会责任之间的广泛紧张。平台选择直接影响着公共辩论的质量和社会的安全性。目前的模式倾向于过度自动化和人工介入,并显示出严重的限制。未来可能需要更严格的监管,科技公司更大的透明性,以及技术服务于保护用户而不是让用户面临风险的愿景的回归。
关于X内容审核的常见问题解答
X上的内容审核有哪些主要变化?
自伊隆·马斯克接管以来,主要变化包括审核团队的大规模减少、规则的放宽(特别是关于COVID虚假信息和错误性别称呼)、依赖AI增加,以及尽管用户举报激增但审核行动(停用、移除)显着减少。
AI是内容审核的可行解决方案吗?
目前,人工智能单独不可行。算法难以理解人类语言的细微差别,如讽刺和文化背景,导致对合法内容的压制和无法检测到的微妙仇恨言论。专家一致认为需要人工智能与合格人工监督相结合的混合模式以实现有效和公平的审核。
这些政策对言论自由有何影响?
X所推广的“绝对言论自由”愿景矛盾地威胁了许多用户的言论。通过允许仇恨言论、骚扰和虚假信息泛滥,该平台成为尤其是少数群体和边缘化群体可能被沉默的敌对环境。真正的言论自由需要一个每个人都可以畅所欲言而不担心自己安全的环境。






