مخاوف بريطانية.. هل تأتي إجراءات الأمن الحكومية على حساب حرية التعبير؟

محمد إسماعيل الحلواني

تخطط الحكومة البريطانية لتغيير القانون الحالي، بحيث لا يكون أمام شركات التواصل الاجتماعي مثل فيسبوك وتويتر، أي خيار سوى تحمل مسؤولية سلامة مستخدميها وأمانهم.

تعني الخطة البريطانية القادمة أن تتحمل الشركات مسؤولية تحديد ما إذا كان المحتوى يمثل “خطرًا متوقعًا بشكل معقول بما في ذلك التأثيرات الجسدية أو النفسية الضارة بدرجة كبيرة” على جميع مستخدميها.

نرشح لك: بسبب مؤثرة.. الشرطة الأمريكية تحقق في واقعة اختطاف طفلين

قد يؤدي عدم الامتثال لمعيار واجب الرعاية الجديد إلى فرض عقوبات تصل إلى 18 مليون جنيه إسترليني أو 10٪ من حجم المبيعات السنوي العالمي لشركات السوشيال ميديا وتقييد الوصول إلى خدماتها في بريطانيا.

وسلطت مجلة The Conversation الضوء على قرار حكومة بريطانيا النهائي وردها المتعلق بالحوار المجتمعي الوارد بالورقة البيضاء الخاصة بانتشار الأضرار عبر الإنترنت والتي نشرت في أبريل 2019 تحسباً لمشروع قانون “الأمان عبر الإنترنت” المقرر تقديمه للبرلمان في عام 2021.

على الرغم من حسن النية، إلا أن مقترحات الحكومة تفتقر إلى تعليمات واضحة لتوجيه الجهات التنظيمية وشركات وسائل التواصل الاجتماعي. وبإخفاقها في القيام بذلك، أوجدت الحكومة تهديدًا لحرية التعبير في هذه العملية.

سجل متناقض

بموجب مسودة القانون المقترحة، سيُطلب من الشركات اتخاذ إجراءات للحد من انتشار المحتوى الضار، بما يتناسب مع شدة الضرر وحجمه المتوقع. وفي الوقت الحالي، لا يُطلب من شركات الوسائط الاجتماعية سوى حذف المحتوى الذي ينشئه المستخدمون والمستضاف على خدماتهم في ظل ظروف محددة للغاية (إذا كان المحتوى غير قانوني، على سبيل المثال). عادةً، يكون لهم الحرية في تحديد المحتوى الذي يجب تقييده أو حظره. إنهم يحتاجون فقط إلى الالتزام بمعايير مجتمعهم، ويؤدي ذلك إلى العديد من النتائج المختلطة في بعض الأحيان.

كما أفاد موقع فيسبوك في تقرير تطبيق معايير المجتمع، فإنه في الربع الأول من عام 2020 اكتشف فقط 15.6٪ من محتوى “التنمر والتحرش” قبل أن يبلغ المستخدمون عنه. وعلى العكس من ذلك، اكتشفت الشركة بشكل استباقي 99٪ من كل المحتوى “العنيف والرسومات المسيئة” قبل أن يبلغ المستخدمون عنه.

يشير هذا التباين في معدلات الاكتشاف إلى أن العمليات المستخدمة لتحديد المحتوى “الضار” تعمل عندما تكون المعايير واضحة ومحددة جيدًا. وتعرضت شركات التواصل الاجتماعي لانتقادات بسبب عدم اتساقها في فرض الحظر على خطاب الكراهية والمحتوى المتحيز جنسياً. نظرًا لأنهم يحتاجون فقط إلى تبرير قرارات ترك أو حذف المحتوى الذي يحتمل أن يكون ضارًا بناءً على معايير المجتمع الخاصة بهم، فهم ليسوا معرضين لخطر التداعيات القانونية.

إذا لم يكن من الواضح ما إذا كان جزء من المحتوى ينتهك القواعد، فإن اختيار الشركة هو إما حذفه أو تركه. ومع ذلك، فإن تقييمات المخاطر بموجب الإطار التنظيمي المنصوص عليه في مقترحات الحكومة يمكن أن تكون مختلفة تمامًا.

نقص الأدلة

لم تقدم الحكومة معلومات كافية عن تأثير الأضرار التي تسعى للحد منها. على سبيل المثال، تنص الورقة البيضاء على أن طفلًا من بين كل خمسة أطفال تتراوح أعمارهم بين 11 و19 عامًا قد أبلغ عن تعرضه للتنمر عبر الإنترنت في عام 2017، ولكنها لا توضح كيف (ومدى) تأثر هؤلاء الأطفال. يُفترض أن أنواع المحتوى ضارة مع القليل من التبرير وعدم سرد الأسباب أو إلى أي مدى يتطلب التشريع تقييد حرية التعبير.

كما يُظهر سجل فيسبوك، قد يكون من الصعب تفسير المعنى والتأثير المحتمل للمحتوى في الحالات التي تنطوي على الذاتية. عندما يتعلق الأمر بتقييم الآثار الضارة للمحتوى عبر الإنترنت، فإن الغموض هو القاعدة وليس الاستثناء.

على الرغم من القاعدة التي أرساها البحث الأكاديمي حول الأضرار عبر الإنترنت، يمكن تقديم القليل من الأسباب المباشرة حول الارتباط بين أنواع مختلفة من المحتوى وتجربة الضرر.