自由な表現を支持するデジタル空間をどのようにして、ユーザーを危害から守る必要性と両立させることができるでしょうか?この疑問は、グローバルな議論、政治討論、情報の急速な拡散の中心舞台となったプラットフォーム、X(旧Twitter)をめぐるコンテンツモデレーションの継続的な議論の核心にあります。このバランスを取る課題はかつてないほど複雑で、進化するテクノロジー、変化する政策、オンラインガバナンスの限界を試す現実の出来事によって形作られています。
Xにおけるモデレーションの変化する風景
2年の中断を経て、Xは2024年9月に透明性レポートを公開し、その現在のモデレーションの実践を垣間見せました。データが明かすのは驚くべき傾向です。有害なコンテンツのユーザー報告数が急増する一方で、プラットフォームの執行活動は追いついていません。
2024年上半期には、ユーザーが2億2400万のアカウントとツイートを報告し、2021年後半に報告された1160万に比べて1830%の増加となりました。この急増にもかかわらず、アカウント停止の数は130万から530万へ約300%しか増えていません。この不一致は、Xがポリシー違反を特定し対応する方法の根本的な変化を示唆しています。
この変化は、進化するプラットフォームポリシーによってさらに明らかになります。新たな指導の下、COVID-19の誤情報に関する規則が引き下げられ、ミスジェンダリングやデッドネーミングなどの行為はもはやヘイトスピーチとして分類されなくなりました。この再定義は、執行メトリクスに直接的な影響を及ぼします。例えば:
ヘイト行為: ヘイト行為による停止は、2021年後半の104,565アカウントからわずか2,361アカウントに劇的に減少しました。
子ども保護: 子ども保護の懸念で報告された900万を超える投稿のうち、Xはわずか14,571を削除しました。
この新しいアプローチは、15ページに凝縮されたレポートで詳述され、過去の包括的な50ページの開示とは大きく対照的です。これは、報告の膨大な量に対処しながら、見直され、おそらくより寛大な規則の下で動作するシステムを示しています。
停止のメカニズム: Xはどのように決定するのか?
誰がなぜ停止されるかを理解するには、統計データを超えて根底にある行動を見る必要があります。2022年のロシアによるウクライナ侵攻やフランス大統領選挙などの主要な地政学的イベント中のモデレーション動態の研究は、プラットフォームの運用パターンに関する重要な洞察を提供します。
2億7千万を超えるツイートを分析した研究では、多量の、論争的な議論の時期におけるアカウント作成と停止の明確な傾向が確認されています。これらの時期には、疑わしいアカウントの作成が目立ち、その多くは登場してすぐに停止されます。
新アカウント vs. 既存アカウント: プロアクティブな姿勢
最も重要な発見の一つは、Twitterが新規作成アカウントの停止に関して、以前よりはるかにプロアクティブであるということです。悪意のある多くのアカウントは作成からわずか数日で停止され、アカウントの年齢がプラットフォームの検出システムにおける重要な要素であることを示しています。停止されたアカウントの寿命はその活動レベルに依存することが多く、超活発な新アカウントは迅速に報告され削除されるかもしれませんが、類似の行動をとる古いアカウントはより長く存続するかもしれません。
この新アカウントへのプロアクティブなアプローチは、ボットネットワークやスパムキャンペーンのような協調的な虚偽行動との戦いの一環として、おそらくとられた戦略です。新しく作成されたアカウントを利用して、検出される前にメッセージングを拡大するのが主な手法です。
停止を引き起こす行動
新旧どちらのアカウントも、停止されたアカウントは典型的なユーザーとは異なる特定の行動パターンを示す傾向があります。これには以下が含まれます:
過度な返信とメンションの使用: オリジナルコンテンツを作成する代わりに、これらのアカウントは正当なユーザーの返信をスパム、嫌がらせ、またはプロパガンダで氾濫させることがよくあります。
高頻度のツイート: 停止されたユーザーは通常のユーザーよりもはるかに高い頻度でツイートし、自動化または強迫的な行動を示します。停止されたユーザーのツイート間の平均時間は著しく低いです。
有害コンテンツの共有: 質的分析では、停止されたアカウントは、スパムや有害と分類されるコンテンツ(ヘイトスピーチ、虐待言語、攻撃性を含む)を共有する可能性が活発なアカウントよりもはるかに高いことが明らかになっています。
2022年のフランス選挙中、例えば、停止されたアカウントは、#toutsaufmacron(マクロン以外の誰でも)などの分裂を加速するハッシュタグを拡大する可能性が高かったです。同様に、ウクライナ紛争の初期段階では、多くの停止されたアカウントが暗号通貨に関連するスパムを推進していました。これらのパターンは、停止が会話を操ったり、ユーザーの注意をそらさせたりするためのプラットフォーム悪用と明確に関連していることを示しています。
データ透明性に関する注記
研究者はモデレーションを研究する上で重要な課題に直面しています。Xのようなプラットフォームは、アカウントの停止の正確な時間や具体的な理由を公開せず、アナリストはしばしば、アカウントの最後の可視活動のような代理情報を使用して削除された時期を推定しなければなりません。さらに、研究者向けの無料APIアクセスが廃止されたことで、独立した監視とトレンドの分析がより困難になり、プラットフォームの説明責任について懸念が高まっています。
AIモデレーションの台頭: 両刃の剣?
Xのモデレーション戦略の中心には、人工知能への依存が増しています。プラットフォームは「機械学習と人間のレビューの組み合わせ」を使用し、AIシステムが直接的に行動を取ったり、コンテンツを人間のモデレーターにフラグ付けしたりすると述べています。このアプローチは膨大なコンテンツ量に対処するために必要ですが、多くの課題や倫理的ジレンマを抱えています。
AIモデレーションシステムは長期間、不完全であることが示されています。人間の言語のニュアンスを理解するのが難しく、重大なエラーを引き起こすことがあります:
文脈盲目: AIはしばしばサーカズムや風刺、マイノリティコミュニティが使用する符号言語を理解できず、無害なコンテンツが有害として誤ってフラグ付けされることがあります。
データセットのバイアス: 多くのアルゴリズムは、主にグローバルノースからのデータセットで訓練され、このために文化的および言語的に無感覚な場合があります。民主主義と技術のセンターからのメモでは、これがダイアレクトのような、マグレブアラビア語のモデレーション精度の低さにつながることが強調されています。
一貫しないパフォーマンス: オックスフォード大学とアランチューリング研究所による2021年の研究では、いくつかのAIヘイトスピーチ検出モデルがテストされ、顕著なパフォーマンスギャップが発見されました。一部のモデル、例えばGoogleのPerspective APIは非ヘイトコンテンツを過剰にフラグ付けがちで、一方で他のモデルは明確なヘイトスピーチのインスタンスを適切に検出しませんでした。
これらの制限は、Xでのヘイトスピーチに対する行動の急落を説明するかもしれず、AIが有害なレトリックの全範囲を特定するのに苦労していることが示唆されます。2020年にFacebookのAIが小規模ビジネスからの広告を誤ってブロックしたり、2024年にアウシュビッツ博物館からの投稿をコミュニティ標準に違反するとしてフラグを付けたりしたケースからもわかるように、AIの過度な依存は悪意のあるアクターを見逃すだけでなく、すでに検閲を受けているコミュニティからの正当な表現を抑制するリスクもあります。
自動化の倫理的なロープ
人間のコミュニケーションについて道徳的判断を下せる機械に信頼できるでしょうか?プラットフォームがますますモデレーションを自動化するにつれて、既存のバイアスを増幅し、自由な表現に影響を与える不透明な決定を行うリスクがあります。AI Now Instituteの専門家は、プラットフォームに対して説明責任を求め、倫理基準を採用し、AIシステムに関する透明性を高めることを求めています。これらの自動化された決定が選挙のような重要なイベント周りの公の議論を形成するため、これは特に重要です。
デジタルモデレーションの課題は巨大ですが、他の技術分野は、より予測可能で有益な結果をもたらす方法でスマートシステムを展開する方法を示しています。たとえば、再生可能エネルギー分野では、Les Nouveaux Installateursのような企業が、あいまいなコンテンツフィルタリングではなく、具体的な最適化のためにテクノロジーを活用しています。彼らのスマートソリューションには、太陽光パネル出力のインテリジェントな管理、電気自動車のスマート充電、ヒートポンプの最適化された使用法が含まれており、ユーザーが効率的にエネルギー消費を制御できるようにしています。これは、AIコンテンツモデレーションのよくある不明確でエラーの多い世界とは対照的です。
現実世界の結果: オンライン発言が現実に及ぼす影響
モデレーションに関する議論は単なる学問的なものではなく、具体的な現実の結果を持っています。最近のイギリスのケースは、プラットフォームポリシーと公の安全性との危険なギャップを浮き彫りにしています。ソーシャルメディアの誤情報によって主に煽られた暴動の後、X上で「全てのホテルに火を放つ」という投稿が原因で女性が起訴されました。
大規模な強制送還を、全てのホテルに火を放つ、その途中で裏切り政府と政治家を道連れにしろ、それが私を人種差別主義者にするならそうでいい。
そのユーザーは後に人種的憎悪を煽ることを認めました。しかしその投稿がXに報告された際、プラットフォームはそれが規則に違反していないと判断しました。この事件は、法廷で違法とされたコンテンツがソーシャルメディアプラットフォームでは受け入れられるとされたシナリオを明示的に示し、企業の責任と「自由な表現」の定義について重要な疑問が提起されます。暴力と憎悪を直接煽る投稿を許可するのは果たして公正なのでしょうか?
これは孤立した現象ではありません。分裂的で有害なナラティブの拡大は繰り返しのテーマです。悪意ある者たちの目標は、多くの場合、善意の議論に参加することではなく、妨げること、嫌がらせ、情報エコシステムを汚染することです。正当なユーザーをターゲットにして大量の返信やメンションを送り込むことで、これらの停止されたアカウントはスパム、プロパガンダ、および憾悪的なコンテンツを通常の会話に注入することに成功し、ユーザー体験を悪化させ、観察者をラディカル化する可能性があります。
プラットフォームとしてのXが抱える課題は巨大です。彼らはグローバルな法律、文化的規範、およびオープンな会話を促進しつつ、プラットフォームが危害のベクトルになるのを防ぐために取り組む必要があります。現在のトレンドは、AIへのより大きな依存と特定の種類の発言に対するより手放しのアプローチが、悪意ある行動のための許容環境を作り出していることを示唆しています。より効果的で透明性のある人間の監督と技術的ツールの組み合わせなしに、オンラインのレトリックと現実世界の危害とのギャップは拡大する可能性があります。
最終的に、Xや他のソーシャルメディアプラットフォームでのモデレーションの効果は、透明性、責任、および自由な発言が必ずしも結果からの自由を意味しないというニュアンスを理解することへのコミットメントに依存します。これらのプラットフォームが社会を形成し続ける中で、彼らが設定する基準と採用する技術は、安全で建設的なコミュニケーション能力に持続的な影響を与えることでしょう。
よくある質問
Xでの新アカウントと古いアカウントの停止方法の主な違いは何ですか?
研究によれば、X(旧Twitter)は、新規作成アカウントの停止に関して、特にプロアクティブです。多くの新しいアカウントがスパムや有害行動に従事している場合、作成後数日以内に停止されることを示唆しています。これに対し、類似の行動をとる古いアカウントは、停止までに長期間存続することがあります。
AIモデレーションが完璧な解決策でない理由は?
AIモデレーションは、膨大なコンテンツを処理するために不可欠である一方で、いくつかの重要な欠点を抱えています。ニュアンスやサーカズム、文化的文脈を理解するのに苦労し、無害なコンテンツをフラグする誤検知や実際のヘイトスピーチを見逃す漏検が発生します。また、AIモデルはトレーニングデータからバイアスを引き継ぎ、社会的に疎外されたコミュニティに不当に影響を与えることがあります。これにより、プラットフォームルールの執行が不公平で一貫しないものになる可能性があります。
Xのモデレーションポリシーは最近変更されましたか?
はい、イーロン・マスクによる買収以降、Xのモデレーションポリシーは大きく変わりました。プラットフォームはCOVID-19の誤情報に対する規則を撤回し、ミスジェンダリングやデッドネームの使用をヘイトスピーチと見なさないようになりました。これにより、ヘイト行為による停止の数が劇的に減少しましたが、ユーザーによるそのようなコンテンツの報告数は急増しています。また、レポートは以前より短く、研究者に対するデータアクセスも制限されました。
アカウントの停止につながる主なコンテンツや行動の種類は?
アカウントが停止される主な行動にはスパム行為、協調的な不正活動、有害なコンテンツの共有が含まれます。これはしばしば、他のユーザーをターゲットに過剰な返信やメンションを使用すること、異常に高い頻度でツイートすること、ヘイトスピーチ、嫌がらせ、暴力を煽るコンテンツや詐欺(例えば暗号通貨詐欺)を投稿することとして現れます。






















