Accessibility links

لوغاريتمات فيسبوك في مواجهة الإرهاب


موظفو فيسبوك

أعلنت شركة فيسبوك أنها أزالت 12.4 مليون محتوى خلال الفصلين الثاني والثالث من العام الجاري لأنها تدعم الإرهاب.

وقالت الشركة في مدونتها إنها "اتخذت إجراء" في الربع الثاني بشأن 9.4 ملايين محتوى على صلة بداعش والقاعدة وفروعهما، وكانت أغلبيتها من المواد القديمة التي ظهرت باستخدام تقنيات متخصصة.

وفي الربع الثالث من عام 2018، انخفضت حالات الإزالة للمحتوى الداعم للإرهاب إلى ثلاثة ملايين، منها 800 ألف محتوى قديم، وردت الشركة السبب في ذلك إلى جهودها الفعالة في الربع الثاني لإزالة المحتوى القديم.

جدير بالذكر أن فيسبوك أزالت 1.9 مليون محتوى في الفصل الأول من العام الجاري.

وخلال الفصلين الثاني والثالث، أزالت الشركة أكثر من 99 في المئة من محتوى داعش والقاعدة قبل قيام مستخدمي المنصة بالإبلاغ عنها.

وأضحت الشركة أن مدة بقاء المحتوى الداعم للإرهاب قبل أن تقوم بـ"اتخاذ إجراء" انخفضت من 14 ساعة في الربع الثاني إلى دقيقتين فقط في الربع الثالث.

وأعلنت فيسبوك أنها تستخدم أداة تعتمد على تعلم الآلة (Machine learning) لتحديد المنشورات التي تشير إلى أنها تدعم داعش أو القاعدة.

وعن طريق هذه الأداة، يتم استخدام معيار رقمي لتحديد مدى انتهاك المنشورات لسياسة الشركة في ما يتعلق بمكافحة الإرهاب، ما يساعد فريق مراجعة المحتوى على معرفة المنشورات التي تحتل أولوية أكبر.

وفي بعض الحالات يتم إزالة المحتوى أوتوماتيكا لو كان هناك ثقة كبيرة في أنه يدعم الإرهاب.

وأشارت فيسبوك إلى أنها قامت بتحسين الأدوات الاستباقية الموجودة بالفعل، وأصبحت الشركة تعمل بشكل أكثر كفاءة في كشف المحتوى الداعم للإرهاب، وعلى سبيل المثال، أصبح تحديد المنشورات النصية المنتهكة لسياستها عن طريق اللوغارتمات متوافرا في 19 لغة.

وقالت فيسبوك في مدونتها إن نشر الجماعات الإرهابية لدعايتها على الموقع أصبح أكثر صعوبة بفضل سياستها.

XS
SM
MD
LG