هل أصبحت منصات التواصل الاجتماعي مناطق خارجة عن القانون حيث يتم استخدام حرية التعبير كذريعة لنشر الكراهية؟ هذا السؤال أكثر أهمية بالنسبة إلى X (المعروفة سابقًا باسم تويتر) التي شهدت تحولاً جذرياً في تنظيم المحتوى. بين الوعد بحرية أكبر في التعبير والانتهاكات الحقيقية، تثير السياسات الجديدة للمنصة شواغل عميقة حول سلامة المستخدم ومسؤولية عمالقة التكنولوجيا. هذا التطور، بعيداً عن كونه تافهاً، يعيد تعريف حدود فضائنا العام الرقمي.
المراقبة على X: نقطة تحول جذري في عهد موسك
منذ استحواذ إيلون موسك، تحولت X في مقاربتها لمراقبة المحتوى، مبتعدة عن السياسات المعهودة لتتبنى فلسفة “حرية التعبير المطلقة تقريبًا.” وقد أدى هذا التحول إلى تقليل فرق المراقبة البشرية بشكل كبير، وتخفيف القواعد، والاعتماد المتزايد على الأنظمة الآلية. في السابق، كانت المنصة تنشر تقارير شفافية مفصلة غالبًا نحو خمسين صفحة، توفر رؤية دقيقة للإجراءات المتخذة ضد المعلومات المضللة وخطاب الكراهية والمحتويات الضارة الأخرى. اليوم، أصبح التواصل أقل، والتقارير أقصر، باستخدام مقاييس جديدة تجعل المقارنة المباشرة صعبة.
لقد كان لهذا التحول الأيديولوجي تأثيرات ملموسة على أنواع المحتوى المسموح بها. مثلاً، قامت المنصة بإلغاء سياستها ضد المعلومات المضللة المتعلقة بكوفيد-19. وبالإضافة إلى ذلك، لم تعد ممارسات مثل استخدام اسم الميلاد للشخص المتحول جنسياً بدون موافقته تُصنف بشكل منهجي كخطاب كراهية. هذه القرارات، التي اتخذت باسم حرية التعبير الأقل تقييدًا، فتح الأبواب أمام عودة المحتويات الإشكالية، مما يجعل العديد من المستخدمين والمراقبين قلقين بشأن الاتجاه الذي تأخذه الشبكة الاجتماعية.
هذه الحقبة الجديدة تتناقض بوضوح مع الماضي، حيث كان يسعى لتحقيق توازن بين حماية المستخدمين وحرية التعبير، رغم أنه لم يكن مثالياً. تفكيك المجالس الاستشارية وإعادة تفعيل الحسابات التي سبق حظرها بسبب انتهاكات خطيرة للقواعد أرسل إشارة واضحة: لم يعد الأولوية هي تنسيق المحتوى بدقة وإنما تقليل التدخلات، حتى ولو ازدهر الخطاب السام.
ماذا تقول الأرقام؟ تحليل لأحدث تقارير الشفافية
أول تقرير شفافية نشرته X منذ عامين، يغطي النصف الأول من 2024، يقدم صورة مقلقة. الأرقام الخام تفصح عن دائ لا يصدق بين تقارير المستخدمين وإجراءات المنصة. من جهة، ازدادت التقارير، حيث تم الإبلاغ عن أكثر من 224 مليون حساب وتغريدة من قبل المستخدمين، مقارنة بـ 11.6 مليون فقط في النصف الثاني من 2021 — زيادة كبيرة بلغت نحو 1830%.
من ناحية أخرى، لم تتماشى إجراءات التنفيذ مع هذا الاتجاه. ارتفع عدد تعليق الحسابات بنسبة 300% فقط خلال نفس الفترة، من 1.3 مليون إلى 5.3 مليون. والفجوة أكثر وضوحاً في مجالات حرجة مثل سلامة الأطفال: من أكثر من 8.9 مليون منشور تم الإبلاغ عنها لتحريضهم على تعريض القاصرين للخطر، لم يُزال سوى 14571. فيما يتعلق بالمحتوى الكراهية، كان التباين حاداً: أوقفت المنصة فقط 2361 حساب لهذا السبب، مقارنة بـ 104565 في النصف الثاني من 2021.
على الرغم من أن X تبرر جزئياً هذه الفجوات بتغيرات في التعريفات وطرق القياس، إلا أن الاتجاه الأساسي لا يمكن إنكاره: تقليل كبير في إجراءات المراقبة التي تواجه تزايداً هائلاً في التقارير. هذا الوضع يغذي المخاوف من بيئة رقمية أقل أماناً حيث أن المحتويات الأكثر خطورة — خاصة المتعلقة باستغلال الأطفال والتحريض على الكراهية — تمر بدون عقاب.
[صورة: رسم بياني يوضح الفجوة المتزايدة بين تقارير المستخدمين وإجراءات المراقبة في X]
الذكاء الاصطناعي في المقام: العمود الفقري الجديد لتنظيم المحتوى
حتى تعوّض عن نقص الموظفين البشريين، تعتمد X بشكل كبير على الذكاء الاصطناعي. تدعي المنصة أن مراقبتها تعتمد على “مزيج من التعلم الآلي والمراجعة البشرية”، حيث يتصرف الذكاء الاصطناعي مباشرة أو يشير إلى المحتوى لمزيد من التحقق. ومع ذلك، فإن هذا الاعتماد المتزايد على الخوارزميات يثير أسئلة جوهرية حول قدرتها على معالجة التعقيد والفروق الدقيقة في اللغة البشرية.
قيود المراقبة الآلية
رغم التقدم، تُعرف الأنظمة الآلية بأخطائها. تكافح لفهم السخرية أو اللغة المشفرة أو السياقات الثقافية بشكل صحيح. أظهرت دراسة أجرتها جامعة أكسفورد ومعهد آلان تورينغ أن نماذج الذكاء الاصطناعي لاكتشاف خطاب الكراهية تعاني من عيوب كبيرة: البعض يبالغ في الاكتشاف من خلال تصنيف محتوى بريء، في حين يفشل آخرون في اكتشاف خطاب كراهية واضح.
توجد أمثلة لفشل على منصات أخرى:
في عام 2020، قام نظام فيسبوك بحظر إعلانات للشركات الصغيرة التي تعاني.
هذا العام، صنفت خوارزمية ميتا بشكل خاطئ منشورات من نصب أوشفيتز التذكاري كمنتهكة لمعاييرها.
مشكلة رئيسية أخرى هي انحياز بيانات التدريب. تتطور معظم الخوارزميات من مجموعات بيانات مصدرها بشكل رئيسي من البلدان الشمالية، مما يجعلها أقل فعالية في تحليل اللهجات أو السياقات الثقافية، مثل العربية المغربية. هذا العمى الثقافي يمكن أن يؤدي إلى مراقبة غير متساوية وغير عادلة.
تأثير على المجتمعات المهمشة
هذا الاعتماد المفرط على الذكاء الاصطناعي يعرض المجتمعات المهمشة للخطر بشكل غير متناسب. غالباً ما يُساء فهم لغتهم، التي قد تتضمن مصطلحات مأخوذة أو مصطلحات خاصة، ويتم تصنيفها على نحو خاطئ كمهينة. في الوقت نفسه، كثيراً ما تمر الأشكال الدقيقة والمشفرة من الكراهية التي تستهدفهم من خلال فلاتر الخوارزميات. النتيجة هي ازدواجية: رقابة على تعبيرهم المشروع وعدم كفاية الحماية ضد التحرش الذي يتعرضون له. إن تكليف الآلات بالحكم على الأمور الأخلاقية المعقدة يعرض حرية التعبير للخطر ويؤدي في الوقت نفسه إلى تفاقم الفجوات التي تزعم المنصات أنها تحاربها.
الذكاء الاصطناعي، أداة ذات حدين
الذكاء الاصطناعي أداة قوية لكنه ليس حلاً شاملاً. دون إشراف بشري صارم وبيانات تدريب متنوعة وسياسات واضحة، يمكن لأنظمة المراقبة الآلية مضاعفة المشكلات التي تسعى إلى حلها، مما يخلق بيئة تكون أكثر تقييداً للبعض ومتساهلة للغاية لآخرين.
عواقب حقيقية: عندما يؤجج الكلام عبر الإنترنت العنف
إن التساهل في المراقبة على X ليست مجرد نقاش نظري؛ بل لها تداعيات ملموسة في العالم الحقيقي. أحد الأمثلة الأخيرة في المملكة المتحدة يوضح ذلك بشكل دراماتيكي. وسط أعمال شغب جزئياً سببها المعلومات المضللة في وسائل الاجتماعي، نشرت امرأة تغريدة تدعو إلى “إضرام النار في جميع الفنادق المليئة بالأوغاد."
كانت رسالتها الكاملة لا لبس فيها:
"الترحيل الجماعي الآن، أضرموا النار في جميع الفنادق المليئة بالأوغاد، لا أهتم، وخذوا الحكومة والسياسيين الخونة معهم. [...] إذا جعلني ذلك عنصرياً، فليكن."
تم الإبلاغ عن هذه الرسالة لـ X بسبب انتهاكها للقواعد. كانت استجابة المنصة؟ لم تنتهك التغريدة أي قواعد. ومع ذلك، رأى نظام العدالة البريطاني الأمور بشكل مختلف تماماً. تم محاك






