كيف يتحكم فيسبوك في مراقبة المحتوى الإلكتروني؟
آخر تحديث: الأربعاء 8 يناير 2025 - 9:33 ص بتوقيت القاهرة
عبدالله قدري
أعلن مارك زوكربيرج، مؤسس شركة ميتا، عن خطة للتخلي عن مدققي الحقائق وتقليص كبير في مستوى الرقابة على منصاتها، بما يشمل فيسبوك، إنستجرام، وثريدز. كما أوضح أن الشركة ستعزز التوصيات المتعلقة بالمحتوى السياسي، مما يعكس تغييرات كبيرة في استراتيجية الشركة تجاه حرية التعبير.
في رسالة فيديو، أكد زوكربيرج أن الأولوية ستُمنح لحرية التعبير، مشيرًا إلى أن هذه التغييرات تأتي تزامنًا مع عودة دونالد ترامب إلى البيت الأبيض. وأعلن أن ميتا ستستبدل مدققي الحقائق بنظام "الملاحظات المجتمعية" المماثل لما تستخدمه منصة X (المعروفة سابقًا بتويتر)، والتي تعتمد على المستخدمين لإضافة سياق وتحذيرات للمحتوى المثير للجدل.
وأشار زوكربيرج إلى أن مدققي الحقائق في ميتا كانوا "متحيزين سياسيًا بشدة"، مما أضر بثقة المستخدمين بدلاً من تعزيزها. كما كشف عن قرار نقل فرق تعديل المحتوى من كاليفورنيا إلى تكساس لتجنب "التحيز السياسي". وأضاف أن التعديلات الجديدة قد تؤدي إلى تقليل اكتشاف المحتوى السيئ.
في هذا التقرير نعرض طرق فيسبوك في مراقبة المحتوى:
1. الذكاء الاصطناعي والخوارزميات
يعتمد فيسبوك بشكل كبير على تقنيات الذكاء الاصطناعي لتحليل ومراجعة المحتوى. يتم تدريب الأنظمة على كشف الصور، النصوص، والفيديوهات التي قد تخالف سياسات المنصة. على سبيل المثال، ارتفع عدد المحتويات التي اتخذت الشركة إجراءات بشأنها في فئة "العنف الجرافيكي" من 1.2 مليون منشور في الربع الأخير من 2017 إلى 3.4 مليون منشور في الربع الأول من 2018. يرجع ذلك إلى تحسين أنظمة الكشف واستخدام تقنيات مطابقة الصور، حيث تقوم الخوارزميات بمقارنة المحتوى الجديد بالصور التي تم الإبلاغ عنها سابقًا.
2. فرق المراجعة البشرية
بالإضافة إلى الذكاء الاصطناعي، توظف فيسبوك آلاف المراجعين البشريين حول العالم. يتمثل دورهم في مراجعة البلاغات التي يقدمها المستخدمون حول المحتوى المخالف، بالإضافة إلى تقييم الحالات التي تفشل الخوارزميات في معالجتها بشكل دقيق.
3. نظام الإبلاغ المجتمعي
يتيح فيسبوك للمستخدمين الإبلاغ عن المحتوى المثير للجدل أو المسيء. يتم إرسال هذه البلاغات إلى فرق المراجعة أو أنظمة الذكاء الاصطناعي لتحليلها واتخاذ القرار المناسب. ومع ذلك، تعرضت هذه الآلية لانتقادات بسبب استخدامها المفرط لإسكات بعض الأصوات، خاصة السياسية أو الثقافية.
فيسبوك وحذف محتوى غزة
أشار عدد من النشطاء إلى أن فيسبوك أزال منشورات وصورًا وفيديوهات توثق أحداث العنف والانتهاكات في غزة. في كثير من الحالات، تلقى المستخدمون إشعارات تفيد بأن محتواهم "ينتهك معايير المجتمع"، رغم أنه لا يحتوي على خطاب كراهية أو تحريض. كما لاحظ بعض المستخدمين انخفاض وصول منشوراتهم المتعلقة بغزة، حيث لم تعد تظهر للجمهور بنفس الانتشار الذي كانت تحظى به سابقًا.
اتهم نشطاء جهات إسرائيلية باستخدام خاصية الإبلاغ بشكل منظم ضد المحتوى الداعم لفلسطين. يعتمد هذا الأسلوب على تقديم عدد كبير من البلاغات لإجبار الخوارزميات على حذف المحتوى تلقائيًا أو عرضه على فرق المراجعة، التي يُزعم أنها قد تتخذ قرارات منحازة في بعض الأحيان.
كما أفادت تقارير بأن فيسبوك يتعاون مع الحكومات لضمان الالتزام بالقوانين المحلية. في حالة إسرائيل، يستجيب فيسبوك لضغوط حكومية لحذف محتوى معين، بينما لا تعامل المحتوى الإسرائيلي بنفس المعيار، خصوصًا المنشورات التي قد تحرض على العنف أو الكراهية.