فيسبوك يعترف: 583 مليون حساب مزيف على الموقع

واشنطن - فيسبوك يعلن أرقاما صادمة عن المحتوى المحظور الذي قسمه إلى عدة فئات: منها العنف المصور (فيديو أو صور) والمحتوى الجنسي والرسائل غير المرغوب فيها وحسابات مزيفة.
 
قالت إدارة فيسبوك إنها حذفت أو وضعت تحذيرات على حوالي 29 مليون مشاركة في الموقع خرقت القواعد المتعلقة بحظر ترويج خطاب الكراهية أو العنف المصور والإرهاب والجنس، خلال الأشهر الثلاثة الأولى من العام الجاري.
 
وهذه هي المرة الأولى التي تعلن فيها الشركة عن أرقام توضح حجم الجهود المبذولة لفرض قواعدها على المستخدمين.
 
ويقوم فيسبوك بتطوير أدوات ذكاء اصطناعي لدعم عمل مراقبيها البالغ عددهم 15 ألف شخص، والذين يراقبون كل ما يتم نشره ويتعاملون معه على الفور.
 
وأشار التقرير إلى أن البرنامج الاصطناعي مازال يعاني حتى يتمكن من تحديد أو التعرف على بعض أنواع الانتهاكات
 
على سبيل المثال، تعرفت الخوارزميات (العمليات الحسابية التي يقوم بها البرنامج) على 38 في المئة فقط من المشاركات المحددة على أنها تحض على الكراهية خلال هذه الفترة، ما يعني أن هناك 62 في المئة من هذه المشاركات كشفها المستخدمون أنفسهم وأبلغوا عنها الإدارة.
 
لكن على النقيض من ذلك، قالت الشركة إن أدواتها اكتشفت 99.5 في المئة من الدعاية التي كانت مخصصة لدعم تنظيمي الدولة الإسلامية والقاعدة والجماعات المتشددة الأخرى التابعة لها، وكان هناك 0.5 في المئة فقط اكتشفها الجمهور.
 
وتكشف الأرقام أيضا أن موقع فيسبوك يعتقد أن المستخدمين ربما تعرضوا لمشاهد العنف والتعري للبالغين عبر خدمته، بصورة أكبر خلال الأشهر الثلاثة الأولى من العام الجاري مقارنة بالأشهر الثلاثة السابقة.
 
لكنها قالت إنها لم تطور طريقة للحكم على ما إذا كان هذا ينطبق أيضا على خطاب الكراهية والدعاية الإرهابية.
 
وقسّم فيسبوك المحتوى المحظور إلى عدة فئات: العنف المصور (فيديو أو صور)، تعري البالغين والمحتوى الجنسي، الرسائل غير المرغوب فيها، خطاب الكراهية وحسابات مزيفة.
 
وبالنسبة للفئة الأخيرة، تُقدر الشركة أن عدد الحسابات المزيفة يتراوح بين 3 و4 في المئة من جميع المستخدمين النشطين على موقع فيسبوك، وقالت إنها أوقفت 583 مليون حساب مزيف في الفترة بين يناير وحتى مارس.
 
وتشير الأرقام إلى أن العنف المصوّر ارتفع بشكل كبير، كما توضح أن مزيجا من تقنية الكشف الأفضل عن هذه الحسابات وكذلك التصعيد في الصراع السوري، ربما تفسر أسباب زيادة رصد وكذلك إنشاء الحسابات المزيفة.
 
وأزالت إدارة فيسبوك 1.9 مليون قطعة من المحتوى المتطرف بين يناير ومارس، بزيادة بلغت 73 في المئة عن الربع السابق.
 
وهذا من شأنه أن يكون أمرا مبشرا للحكومات، ولا سيما في الولايات المتحدة وبريطانيا، والتي دعت الشركة إلى وقف انتشار مواد ومشاركات بعض المجموعات المتطرفة مثل تنظيم الدولة.
 
وقالت براندي نونكي، من مركز بيركيلي لأبحاث تكنولوجيا المعلومات في مصلحة المجتمع بجامعة كاليفورنيا “إنها (إدارة فيسبوك) تتخذ الخطوات الصحيحة لتحديد ما هو الخطاب المحمي وغير المحمي على منصتها بوضوح”، لكنها أضافت أن “فيسبوك ما زالت أمامه مهمة كبيرة وثقيلة”.
 
كما عالجت الشركة 2.5 مليون نموذج خطاب يحض على العنف، بزيادة 56 في المئة عن الأشهر من أكتوبر إلى ديسمبر 2017. وشارك المشرفون البشريون في التعامل مع الجزء الأكبر من هذه المنشورات، ولكنهم واجهوا مشاكل في تحديد ما يجب أن يبقى وما يجب حذفه.
 
وقال أليكس شولتز، رئيس قسم تحليلات البيانات بفيسبوك “هناك فارق بسيط (بين الخطابات العادية والتحريضية)، هناك سياق لا تستطيع التكنولوجيا القيام به بعد”.
 
وأضاف “في هذه الحالات، نحن نميل كثيرا إلى فريق المراجعة لدينا، والذي يتخذ قرارا نهائيا بشأن ما يجب فعله”.
 
وفي محاولة لاكتشاف ما قد يكون قد فاتها، راجعت الشبكة الاجتماعية عينات عشوائية. ووفقا للعينة، فإن ما يصل إلى 27 مشاركة من بين كل 10 آلاف مشاركة احتوت على شكل من أشكال العنف المصور.
 
ونظرا إلى أن هناك 1.5 مليار مستخدم يومي لخدمة فيسبوك فإن هذا الرقم يعني أن عشرات الملايين من المشاركات العنيفة لا يمكن مراجعتها كل يوم.
 
وبنفس التقنية تم اكتشاف ما بين 7 إلى 9 مشاركات تحتوي على مشاهد تعر أو محتوى جنسي من بين كل 10 آلاف مشاركة.
 
وقال شولتز إن “كمية المواد المتعلقة بالإرهاب صغيرة للغاية”.
 
وعن خطاب الكراهية، قال إن الشركة تفتقر إلى أي “بيانات موثوق بها”. ووأوضح “نحن نرتكب أخطاء ونحاول أن نكون أفضل في قياس ما يتم نشره”.