ソーシャルメディアプラットフォームは、表現の自由が憎悪を広める口実として使われる無法地帯になっているのでしょうか?この疑問は、コンテンツの規制において劇的な変化を遂げたX(旧Twitter)に特に当てはまります。より自由な言論の約束と実際の濫用の間で、新たな方針はユーザーの安全性と技術大手の責任について深刻な懸念を引き起こしています。この進化は、デジタル公共空間の境界を再定義するものであり、些細なことではありません。
Xのモデレーション:マスク時代における劇的な転換点
イーロン・マスクが買収して以来、Xはコンテンツモデレーションアプローチを変革し、確立された方針を離れ、“ほぼ絶対的な言論の自由”の哲学を受け入れました。このシフトにより、人間のモデレーションチームの大幅削減、ルールの緩和、そして自動化システムへの依存が増しました。以前は、プラットフォームは約50ページの詳細な透明性レポートを発表し、誤情報やヘイトスピーチ、その他の有害なコンテンツに対するアクションの詳細な見解を提供していました。今日では、通信が少なくなり、レポートはより簡潔で、直接比較が難しい新しい指標を使用しています。
このイデオロギー的な転換は容認されるコンテンツの種類に具体的な影響を及ぼしました。例えば、COVID-19の誤情報に対する方針を解除しました。さらに、誤って性別を定義することや、(トランスジェンダーの人の同意なしに出生時に割り当てられた名前を使用すること)といった行為も、もはや体系的にヘイトスピーチとして分類されません。これらの決定は、制約の少ない言論の名のもとに、問題のあるコンテンツの再浮上への扉を開き、多くのユーザーや観察者をソーシャルネットワークの進む方向について不安にさせています。
この新しい時代は、過去と際立って対照的です。過去には不完全ながらも、ユーザーの保護と表現の自由のバランスを求めていました。助言委員会の解体や規則違反で以前に禁止されたアカウントの再設立は、明確なシグナルを送りました:優先順位はもはや綿密なコンテンツキュレーションではなく、介入を最小限にすることであり、たとえ有毒な言論が繁栄しようともそうであると。
数値は何を示しているのか?最新の透明性レポートの分析
Xが2年ぶりに公開した2024年上半期をカバーする最初の透明性レポートは、問題のある絵を描いています。生の数値は、ユーザーレポートとプラットフォームの対応との間の大きな断絶を明らかにしています。一方でレポートは爆発的に増加しており、ユーザーが報告したアカウントやツイートは 2億2400万件以上 に達しており、2021年下半期の1160万との比較で約1830%の驚くべき増加を示しています。
一方で、執行措置はこの傾向に追いついていません。アカウントの停止数は同じ期間中で約300%しか増加しておらず、130万から530万に増えているだけです。特に児童の安全のような重要な領域ではギャップがさらに顕著で、未成年者を危険にさらす投稿が890万件以上報告されているにもかかわらず、わずか14,571件が削除 されました。嫌悪的なコンテンツに関しては、プラットフォームはこの理由でわずか2,361のアカウントを一時停止しましたが、2021年下半期には104,565を一時停止しました。
Xは部分的にこれらのギャップを、定義や測定方法の変更により正当化していますが、根本的な傾向は否定できません:レポートが激増している一方で、著しく減少したモデレーション行動。この状況は、最も危険なコンテンツがますます取りこぼされている、より安全ではないデジタル環境への恐れを煽っています。特に子どもの搾取やヘイトの扇動に関連して。
[画像: Xにおけるユーザーレポートとモデレーションアクションのギャップ拡大を示すグラフ]
AIが指揮: コンテンツ規制の新たな基盤
人間スタッフの削減を補うために、Xは人工知能を大いに活用しています。プラットフォームは、“機械学習と人間のレビューの組み合わせに基づいている”と主張しており、AIが直接対応したり、さらなる検証のためにコンテンツをフラグ付けしたりします。しかし、このアルゴリズムへの依存増加は、人間の言語の複雑さやニュアンスを処理する能力について根本的な疑問を提起しています。
自動モデレーションの限界
進歩にもかかわらず、自動システムはエラーで知られています。彼らは、皮肉やコーディング言語、文化的文脈を正しく解釈するのに苦労します。オックスフォード大学とアランチューリング研究所による研究は、ヘイトスピーチ検出におけるAIモデルの重大な欠点を示しており、いくつかは良性的なコンテンツを誤ってフラグ付けし過剰に検出し、他のは明らかに憎しみを持つスピーチを見逃し、少なく検出してしまいます。
他のプラットフォームでの失敗の例は数え切れません:
2020年にFacebookのシステムは、苦境にある小規模企業の広告をブロックしました。
今年、Metaのアルゴリズムはアウシュビッツ記念館の投稿を誤って規範違反としてフラグ付けしました。
もう一つの主要な問題はトレーニングデータのバイアスです。ほとんどのアルゴリズムは北部諸国から主に取得されたデータセットから開発されているため、マグリビアラビア語などの方言や文化的文脈の分析に効果が薄れ、この文化的な鈍感さが不平等で不公正なモデレーションにつながります。
疎外されたコミュニティへの影響
このAIの過剰依存は、疎外されたコミュニティに不均等に被害を与えるリスクを伴います。彼らの言語、取り戻された用語や内部の専門用語を含む、はしばしば誤解され、攻撃的なものとして誤ってフラグ付けされます。一方で、彼らをターゲットにする微妙で暗号化された形の憎しみはアルゴリズムのフィルターをしばしば逃れます。結果は二重の不利:彼らの正当な表現の検閲と彼らが直面する嫌がらせに対する不十分な保護。複雑な道徳的判断を機械に任すことは、表現の自由を侵害するだけでなく、プラットフォームが闘うべき不平等を増幅するリスクを伴います。
AI、両刃のツール
人工知能は強力なツールですが、万能薬ではありません。厳密な人間の監視、多様なトレーニングデータ、明確なポリシーがなければ、自動モデレーションシステムは解決しようとする問題を悪化させ、ある者には厳しすぎ、他者には緩すぎる環境を作り出す可能性があります。
現実の影響: オンラインスピーチが暴力を引き起こす時
Xのモデレーションの寛容さは、単なる理論的な議論ではなく、現実の世界への具体的な影響をもたらしています。最近の英国での事例はこれを劇的に示しています。ソーシャルメディアでの誤情報に一部触発された暴動のさ中に、ある女性が“すべてのクソホテルを燃やせ”というツイートを投稿しました。
彼女のメッセージは明確でした:
"今すぐ大量追放、すべてのクソホテルを燃やせ、気にしないし、それと同時に政府や裏切り者の政治家も連れてけ。 [...] これが私を人種差別者にするなら、それでいい。"
このメッセージは、Xのルール違反として報告されました。プラットフォームの反応は?このツイートは何のルールも違反していないというものでした。しかし、英国の司法制度は非常に異なる見解を持っていました。著者は人種的憎悪の扇動で起訴され、有罪を認めました。この例は、法律が重大な刑事犯罪と見なすものと、主要グローバルプラットフォームが容認可能と見なすものとの間の危険なギャップを浮き彫りにしています。このようなオンラインでの暴力への呼びかけを許可することは、それが実際の行為に変わり、実際の命を危険にさらすリスクを伴います。
プラットフォームの責任の問題
コンテンツが裁判所で違法と判断されてもプラットフォームで許可される場合、そのプラットフォームの責任の問題が直接的に生じます。コンテンツホストにしばしば与えられる免責は、特にその緩慢さがオフラインの暴力に寄与する場合、ますます挑戦されています。
デジタルエコシステム全体への課題
Xのモデレーション困難は孤立した事例ではありません。他の大手企業のMeta(Facebook、Instagram)も、アルゴリズムがしばしば誤情報やヘイトスピーチを正しく識別できないことを認めており、誤検出や未検出の有害なコンテンツを生成しています。この問題はシステム的であり、人間のモデレーターをより安価で信頼性の低いAIソリューションに置き換える業界の傾向によって悪化しています。
この課題は増大する不透明性によってさらに複雑になっています。2024年8月のCrowdTangle(誤情報を監視するために研究者に利用されたMetaのツール)の閉鎖と、エロン・マスクが2023年にXのAPIアクセスに課金する決定は、市民社会や学術界がこれらの現象を研究する能力を著しく制限しました。データアクセスがないと、問題の規模を評価し、プラットフォームに責任を追及することはほぼ不可能になります。世界中で大規模な選挙が近づいている中、この透明性の欠如は特に懸念されており、影響と操作キャンペーンに対抗する努力を妨げます。
よりスマートで責任あるシステムに向けて?
コンテンツモデレーションの危機は、より信頼性があり責任あるシステム、デジタルかそれ以外かのデザインを再考するよう求めています。技術、人間の専門知識、倫理的責任の間のバランスを求めることは、我々の時代の中心的な問題です。この最適化の探求は、エネルギー転換のような非常に異なる分野に見られます。
この分野では、Les Nouveaux Installateursのような企業が、統合的アプローチがどのように堅牢なソリューションを提供できるかを例示しています。彼らの仕事は単にソーラーパネルを設置することではなく、各家のためのインテリジェントなエネルギーエコシステムをデザインすることです。彼らは最初のエネルギー調査から設置の遠隔監視まで、包括的なサポートを提供しています。彼らのソリューションは、専用アプリを通じて管理される、自己消費を最適化するスマートコントロール、電気自動車の充電スタンド、ヒートポンプなど最新技術を組み込んでいます。
このパラレルは啓発的です。Les Nouveaux Installateursがテクノロジーの性能(パネル、インバーター、コントロール)を人間の専門知識(個別研究、行政手続き、RGE資格チームによるインストール)と組み合わせるように、安全なデジタル空間の未来もハイブリッドモデルにある可能性があります。コンテキスト、文化的ニュアンス、倫理的な側面を理解する訓練された人間のモデレータによって監督され補完された、膨大なデータボリュームを処理する強力なAI。機械と人間の長所を組み合わせることで、より公正で安全なシステムを構築できることを期待できます。
専門家のアドバイス:エコシステムを全体として考える
エネルギー消費を管理するか訪問するかに関わらず、体系的なビジョンは不可欠です。エネルギー転換においては、単にパネルを設置するのではなく、コントロールソリューション、ストレージ(仮想バッテリー)、ヒートポンプのような効率的な機器で最適化することを意味するLes Nouveaux Installateurs はターンキープリンにてエネルギープロジェクトに最大の一貫性と効率を保証するアプローチを提供しています。
Xのコンテンツモデレーションに関する議論は、技術革新と社会的責任の間のより広い緊張を明らかにしています。プラットフォームの選択肢は、我々の公共的な議論の質と我々の社会の安全性に直接影響を及ぼします。現在のモデルは、過剰な自動化と人間の無関与に傾いており、深刻な制限を示しています。未来はおそらく、より厳しい規制、テクノロジー企業からの透明性の向上、そしてテクノロジーがユーザーを保護するためにサービスするビジョンへの復帰が必要でしょう。
Xでのコンテンツモデレーションに関するFAQ
Xのコンテンツモデレーションの主な変更点は何ですか?
イーロン・マスクが買収して以来、主要な変更は、人員モデレーションチームの大幅な削減、ルールの緩和(特にCOVID情報と誤って性別を定義する行為について)、AIへの依存増加、およびユーザーレポートの急増にもかかわらずモデレーションアクション(停止、削除)の大幅な減少を含みます。
AIはコンテンツモデレーションのための実行可能なソリューションですか?
現在、AIだけでは実行可能なソリューションではありません。アルゴリズムは皮肉や文化的文脈のような人間の言語のニュアンスを理解するのに苦労しており、正当なコンテンツの検閲や、微妙なヘイトスピーチの検出失敗を引き起こします。専門家は、資格を持つ人間の監督とAIを組み合わせたハイブリッドモデルが、効果的で公正なモデレーションのために不可欠であると考えています。
これらのポリシーの表現の自由への影響は何ですか?
Xの“絶対的な表現の自由”の促進されたビジョンは、多くのユーザーのスピーチを逆説的に脅かします。憎しみのスピーチ、嫌がらせ、誤情報を広めることを許可することにより、プラットフォームは特に少数派や疎外されたグループにとって敵対的な環境となり、彼らは沈黙させられる可能性があります。本当の表現の自由は、誰もが安全を危惧せずに発言できる安全な環境を必要とします。






