يبدو أن شركة تكنولوجيات التواصل الاجتماعي فيسبوك بدأت تفقد قبضتها على المحتويات بعد أن اجتاحت المنصة آلاف المحتويات من التحريض والعنف والعنصرية في وقت تواجه فيه الشركة تشكيكا وانتقادات في جدية محاربتها للمضامين المسيئة ودعوات إلى استقدام 30 ألف موظف لمراقبة الشبكة.
وتأتي حملة الانتقادات في وقت تسجل فيه منصة فيسبوك، وهي أكبر المنصات من حيث عدد المستخدمين، نزيف الأخبار المضللة ومحتويات منافية للضوابط الأخلاقية والإنسانية.
كتبت تشارلوت جي المختصة في تكنولوجيا الذكاء الاصطناعي أن شركة فيسبوك ما زالت تراوغ في مراقبة المحتوى، حيث إن السياسة الجديدة تتيح هامش حرية انتقائية كبيرة للشركة.
وكانت الشركة قد أعلنت أنها ستقوم بحذف مقاطع الفيديو التي تمّ التلاعب بها باستخدام الذكاء الاصطناعي لتشويه الحقائق، أو ما يعرف باسم المحتوى عميق التزييف.
وقد قالت نائبة رئيس إدارة السياسة العامة في فيسبوك، مونيكا بيكيرت إن “الشركة ستزيل أيّ مقطع فيديو تم تعديله بهدف التضليل بشكلٍ لا يستطيع الشخص العادي كشفه”.
ويرى مراقبون أنه لم يتم تطبيق السياسة الجديدة على مقاطع الفيديو التي يُراد بها التهكم أو السخرية، ولا على أيّ فيديو تم تسجيله فقط من أجل حذف أو تغيير تسلسل الكلمات.
وتركت شركة فيسبوك لنفسها هامشا كبيرا من حرية المناورة والتملص من خلال هذه القاعدة الجديدة. على سبيل المثال، لم تحذف فيديو لرئيسة الكونغرس نانسي بيلوسي، وقد حقق انتشارا واسعا على موقع الشركة في الصيف الماضي، والذي تم تعديله لجعلها تبدو وكأنها تتلعثم في نطق كلماتها.
ويمكن تصنيف هذا النوع من مقاطع الفيديو في خانة سطحية التزييف، حيث يتم تعديلها بسهولة باستخدام أدواتٍ متاحة، وقد تمثل تهديدا أكبر على السياسيين قبل الانتخابات الرئاسية الأميركية هذا العام.
ويتساءل خبراء عن كيفية تقييم هذه المضامين ومن سيقرر ما يمكن اعتباره مقطعا ساخرا.
تتساءل أوساط التكنولوجيا والرقابة الرقمية حول ما إذا كانت شركة فيسبوك تعلم المستخدمين أن محتوى أحد الفيديوهات مزيف بعد التحقق منه نظرا لأن الانتشار السريع يحول دون حصر تحركاته.
وقالت فيسبوك إنها لن تنفذ سياسة إزالةٍ شاملة لمقاطع الفيديو التي تم تعديلها والتي تمت الإشارة إليها من قِبل فريقها من مدققي الحقائق على أنها تحوي معلوماتٍ زائفة لأن هذه المقاطع ستبقى موجودة في مكانٍ آخر على الإنترنت، كما أنّ تركها متاحة على موقع الشركة سيوفِّر للناس معلوماتٍ وسياقا مهما.
تجمع العديد من التقارير أن فيسبوك تراوغ في قضايا مراقبة المحتوى وعليها استقدام مراقبي المحتوى إلى داخل الشركة وتحويلهم إلى موظفين بدوام كامل ومضاعفة أعدادهم.
وأفاد تقرير جديد أن الشركة تحتاج قي الوقت الحالي إلى نحو 30 ألف موظف داخلي لمراقبة المحتوى لمجاراة الانتشار الكبير للمحتويات المسيئة ولمحاربة الأخبار الزائفة.
ووصف التقرير هذا الواقع الخطير بأنه لو توقفت فيسبوك عن مراقبة المحتوى على موقعها الآن، فإنه يمكن لأي شخص نشر أي شيء يريده.
بول باريت: أسباب تهميش مراقبة المحتويات بهذه الطريقة تعود إلى التكلفة؛ حيث أنّ اعتماد توصيات الرقابة الناجعة ستكون مكلفة للغاية
بول باريت: أسباب تهميش مراقبة المحتويات بهذه الطريقة تعود إلى التكلفة؛ حيث أنّ اعتماد توصيات الرقابة الناجعة ستكون مكلفة للغاية
جحيم التحريض والفوضى
تشير التجربة إلى أنه في غياب أساليب الرقابة سيتحول الموقع سريعا إلى جحيم تغزوه منشورات الإزعاج والتنمُّر والجرائم والممارسات الإرهابية بقطع الرؤوس ونصوص النازية الجديدة وصور الاعتداءات الجنسية على الأطفال. وفي هذا السيناريو، فإن أفواجا كبيرة من المستخدمين ستهجر الموقع ليلتحق به أصحاب الإعلانات المُربحة.
ورغم أن مراقبة المحتوى تحتل هذه الدرجة من الأهمية، فإنها لا تحظى بحقّ قدرها من الاهتمام؛ فالغالبية الساحقة من مراقبي المحتوى على فيسبوك البالغ عددهم 15 ألف شخص، يقضون يومهم في تحديد ما هو المسموح به والممنوع. ولا يتعاقد المراقبون مع الشركة مباشرة حيث يتم توكيل مهمة الإشراف على المحتوى بالكامل لشركات خارجية.
وتستخدم فيسبوك عمالا مؤقتين بعقود غير مستمرة في أكثر من 20 موقعا حول العالم. وينبغي على هؤلاء مراجعة مئات المنشورات في اليوم، والكثير منها يعد صادما للغاية.
كما عليها أن تضاعف عمليات المراقبة رغم اعتماد الشركة على أدوات الذكاء الاصطناعي لفرز المنشورات التي تستدعي اهتمام المراقبين. حتى أن فيسبوك نفسها قد اعترفت بوجود الأخطاء بمعدل يبلغ 10 في المئة.
وتتمثل الأخطاء في الإبلاغ بشكل غير صحيح عن منشورات تنبغي إزالتها في حين كان يجب إبقاؤها أو العكس.
وإذا ما أخذنا في الحسبان أنه لا بد للمراجعين من أن يطّلعوا على ثلاثة ملايين منشور يوميا، نستخلص أن هناك 300 ألف خطأ من هذا النوع في اليوم. وقد تؤدي بعض الأخطاء إلى عواقب وخيمة.
وعلى سبيل المثال، استخدم أفراد من جيش ميانمار موقع فيسبوك للتحريض على الإبادة الجماعية ضد الأقلية المسلمة من الروهينغا في عامي 2016 و2017. واعترفت الشركة في وقت لاحق بأنها فشلت في فرض سياساتها الخاصة التي تحظر خطاب الكراهية والتحريض على العنف.
أعلن موقع فيسبوك خلال العامين الأخيرين عن أداة كشف جديدة يستخدمها فريق مكافحة الإرهاب لرصد الدعاية المتطرفة لتنظيمي الدولة الإسلامية والقاعدة وتزيلها بسرعة.
وسبق أن شنت إدارة فيسبوك غداة ضغوط على الشركة لكبح انتشار المضامين الداعمة للإرهاب حملة حظر على نحو 1.9 مليون مضمون يمجد الإرهاب خلال عام 2018 وقال الموقع إن تدخلاته تضمن إزالة الغالبية العظمى لهذا النوع من المحتوى، للتصدي للخطاب التحريضي الجهادي.
وتم مسح حسابات كاملة وصفحات ومجموعات لانتهاكها سياسة فيسبوك.
أولوية التكلفة لا الجودة
في غياب الرقابة سيتحول فيسبوك إلى جحيم تغزوه منشورات التنمُّر والجرائم والإرهاب وصور الاعتداءات الجنسية على الأطفال. وهو ما ستنجر عنه هجرة الموقع ليلتحق به أصحاب الإعلانات
في غياب الرقابة سيتحول فيسبوك إلى جحيم تغزوه منشورات التنمُّر والجرائم والإرهاب وصور الاعتداءات الجنسية على الأطفال. وهو ما ستنجر عنه هجرة الموقع ليلتحق به أصحاب الإعلانات
قدم تقرير صادر عن مركز ستيرن للشركات وحقوق الإنسان التابع لجامعة نيويورك، مقاربة لتحسين تنفيذ المراقبة على فيسبوك، ودعا الشركة إلى استقدام مراقبي المحتوى إلى داخل الشركة وتحويلهم إلى موظفين بدوام كامل ومضاعفة أعدادهم.
ويقول مؤلف التقرير بول م. باريت، نائب مدير مركز ستيرن “لا يمكن تشبيه مراقبة المحتوى بوظائف التعهد الخارجي الأخرى مثل الطهي أو التنظيف”.
وأضاف “مراقبة المحتوى وظيفة جوهرية في عمل وسائل التواصل الاجتماعي، وهذا يجعل من الغريب إلى حدٍّ ما أن يتمالتعامل معها كما لو كانت مشكلة هامشية أو مشكلة شخص آخر”.
وتساءل بول باريت “لماذا يتعامل قادة فيسبوك مع مراقبة المحتوى بهذه الطريقة”، ويقول باريت إن “أحد أسباب ذلك يعود جزئيا إلى التكلفة؛ حيث إن اعتماد توصيات التقرير ستكون مكلفة للغاية”.
ورجح باريت أن “تصل التكلفة إلى عشرات الملايين من الدولارات، ورغم أن تطبيق هذه التوصيات سيدرّ أرباحا بمليارات الدولار سنويا لكنّ هناك سببا ثانيا أكثر تعقيدا حيث إن مراقبة المحتوى لا تتفق مع الصورة التي رسمتها شركات وادي السيليكون لنفسها”.
ويضيف “هناك أنواع معينة من الأنشطة التي تحظى بتقدير وتمجيد هائلين من قبيل: ابتكار المنتجات والتسويق الذكي والهندسة… أما عالم مراقبة المحتوى المليء بالتفاصيل الشائكة فلا ينسجم مع ذلك”.
ويعتقد باريت أن الوقت قد حان لكي تتعامل فيسبوك مع المراقبة باعتبارها جزءا مركزيا من أعمالها ويرفع مكانة الرقابة وأهميتها ما من شأنه أن يساعد على تجنب الوقوع في الأخطاء الكارثية مثل التي ارتُكبت في ميانمار، وزيادة المساءلة، وحماية الموظفين بشكل أفضل من تضرُّر صحتهم العقلية.
ويبدو أن مراقبة المحتوى ستنطوي دوما على التعرض لبعض المواد المروعة، هذه حقيقة لا مفرّ منها حتى لو تم توطين المهمة داخل الشركة.
مونيكا بيكيرت: شركة فيسبوك ستزيل أيّ مقطع فيديو تم تعديله بهدف التضليل بشكل لا يستطيع الشخص العادي كشفه
مونيكا بيكيرت: شركة فيسبوك ستزيل أيّ مقطع فيديو تم تعديله بهدف التضليل بشكل لا يستطيع الشخص العادي كشفه
ومع ذلك، هناك الكثير مما يمكن أن تقوم به الشركة لتخفيف المشكلة مثل: إجراء فحص أفضل للمراقبين للتأكد من إدراكهم الفعلي لمخاطر الوظيفة، وضمان حصولهم على أفضل رعاية واستشارة صحية متاحة. ويرى باريت أنه قد يتوجب على جميع موظفي فيسبوك القيام بمهمة مراقبة المحتوى لمدة عام على الأقل كنوع من جولة اطلاع على الوظائف داخل الشركة لمساعدتهم على فهم تبعات وتأثيرات قراراتهم.
توصيات وحلول
اقترح التقرير ثماني توصيات لشركة فيسبوك حيث دعاها إلى التوقف عن التكليف بمراقبة المحتوى لجهات خارجية ورفع مكانة المراقبين داخل الشركة.
كما دعا إلى مضاعفة عدد المراقبين لتحسين جودة مراجعة المحتوى. وتوظيف أشخاص للإشراف على المحتوى والتحقق من الحقائق، ثم تقديم التقارير مباشرة إلى الرئيس التنفيذي أو مدير العمليات. واقترح توسيع نطاق مراقبة المحتوى في البلدان المعرضة لخطر انتشار المحتوى المحظور في آسيا وأفريقيا وأماكن أخرى، وتوفير رعاية طبية عالية الجودة لجميع المراقبين في أماكن عملهم، بما في ذلك زيارة الأطباء النفسيين.
ودعا إلى تمويل الأبحاث حول المخاطر الصحية المتعلقة بمراقبة المحتوى، ولاسيما اضطراب ما بعد الصدمة واستكشاف اللوائح التنظيمية الحكومية المُصمَّمة بدقة في ما يتعلق بالمحتوى المؤذي. وقال التقرير إنه مع التواصل مع فيسبوك لإبداء التعليق على هذه الاقتراحات، لم تناقش الشركة إمكانية التفكير في تطبيقها. ومع ذلك، قال متحدث باسم الشركة إن أسلوبها الحالي يتيح إمكانية التكييف السريع لتركيز العاملين لدينا حسب الحاجة.
وأضاف ممثل شركة فيسبوك أن “هذا يمنحنا القدرة على ضمان امتلاكنا للخبرة اللغوية الصحيحة والقدرة على التوظيف بسرعة في مناطق مختلفة عندما تظهر احتياجات جديدة أو عندما يستدعي وضعٌ ما ذلك في جميع أنحاء العالم”.
ولكن باريت يرى أن التجربة الأخيرة التي أجرتها فيسبوك استجابة لأزمة فايروس كورونا تبيّن إمكانية التغيير؛ حيث أعلنت فيسبوك أنه نظرا لعدم تمكن مشرفي المحتوى من الوصول إلى مكاتب الشركة، فإنها ستنقل المسؤولية إلى الموظفين الداخليين للتحقق من بعض فئات المحتوى الحساسة.
وختم باريت قائلا “أرى أن هذا الإجراء يمثل مؤشرا قويا على أن مارك زوكربيرغ في وقت الأزمة اعتمد على الأشخاص الذين يثق فيهم، وهم الموظفون بدوام كامل، وربما يمكن اعتبار ذلك أساسا لإطلاق نقاش داخل فيسبوك حول تعديل طريقة تناولها لمسألة مراقبة المحتوى”.