منصات

في الهند ، يتصارع Facebook مع نسخة مضخمة من مشاكله

في 4 فبراير 2019 ، أنشأ باحث على Facebook حساب مستخدم جديدًا لمعرفة ما يعنيه تجربة موقع التواصل الاجتماعي كشخص يعيش في ولاية كيرالا بالهند.

على مدى الأسابيع الثلاثة المقبلة ، يتم تشغيل الحساب بقاعدة بسيطة: اتبع جميع التوصيات التي تم إنشاؤها بواسطة خوارزميات Facebook للانضمام إلى المجموعات ، ومشاهدة مقاطع الفيديو ، واستكشاف صفحات جديدة على الموقع.

وكانت النتيجة فيض من خطاب الكراهية والمعلومات المضللة والاحتفالات بالعنف ، والتي تم توثيقها في تقرير داخلي على Facebook نُشر في وقت لاحق من ذلك الشهر.

كتب الباحث في فيسبوك: “بعد موجز الأخبار الخاص بمستخدم الاختبار هذا ، رأيت صورًا لأشخاص ميتين في الأسابيع الثلاثة الماضية أكثر مما رأيته في حياتي كلها”.

كان التقرير واحدًا من عشرات الدراسات والمذكرات التي كتبها موظفو Facebook الذين يتصارعون مع تأثيرات المنصة على الهند. إنها تقدم دليلاً صارخًا على أحد أخطر الانتقادات التي وجهتها حقوق الإنسان والسياسيون المحتملون ضد الشركة العالمية: إنها تنتقل إلى بلد دون فهم كامل لتأثيراتها على الثقافة والسياسة المحلية ، وتفشل في استخدام الموارد للتصرف بشأن القضايا مرة واحدة. تحدث.

مع 340 مليون شخص يستخدمون مختلف منصات التواصل الاجتماعي على Facebook ، تعد الهند أكبر سوق للشركة. وتمثل مشاكل Facebook في شبه القارة الهندية نسخة مضخمة من المشكلات التي واجهتها في جميع أنحاء العالم ، والتي تفاقمت بسبب نقص الموارد ونقص الخبرة في 22 لغة معترف بها رسميًا في الهند.

الوثائق الداخلية ، التي حصل عليها اتحاد من المؤسسات الإخبارية التي تضمنت نيويورك تايمز ، هي جزء من ذاكرة تخزين مؤقت أكبر للمواد تسمى أوراق فيسبوك. تم جمعها بواسطة Frances Haugen ، مدير منتج سابق على Facebook والذي أصبح مُبلغًا عن المخالفات وتم اختباره مؤخرًا أمام لجنة فرعية في مجلس الشيوخ حول الشركة ومنصات التواصل الاجتماعي الخاصة بها. تناثرت الإشارات إلى الهند بين الوثائق التي قدمها Haugen إلى لجنة الأوراق المالية والبورصات في شكوى في وقت سابق من هذا الشهر.

تتضمن الوثائق تقارير عن كيفية قيام الروبوتات والحسابات المزيفة المرتبطة بالحزب الحاكم وشخصيات المعارضة في البلاد بإحداث فوضى في الانتخابات الوطنية. كما يوضحون بالتفصيل كيف أدت الخطة التي دافع عنها مارك زوكربيرج ، الرئيس التنفيذي لفيسبوك للتركيز على “التفاعلات الاجتماعية الهادفة” ، أو التبادلات بين الأصدقاء والعائلة ، إلى مزيد من المعلومات المضللة في الهند ، لا سيما أثناء الوباء.

لم يكن لدى Facebook موارد كافية في الهند ، ولم يكن قادرًا على التعامل مع المشكلات التي أدخلها هناك ، وفقًا لوثائقه. سبعة وثمانون في المائة من الميزانية العالمية للشركة للوقت الذي يقضيه في تصنيف المعلومات المضللة مخصصة للولايات المتحدة ، بينما يتم تخصيص 13٪ فقط لبقية العالم – على الرغم من أن مستخدمي أمريكا الشمالية يشكلون 10٪ فقط من شبكات التواصل الاجتماعي المستخدمون النشطون يوميًا ، وفقًا لإحدى الوثائق التي تصف تخصيص موارد Facebook.

قال آندي ستون ، المتحدث باسم فيسبوك ، إن الأرقام غير كاملة ولا تشمل شركاء التحقق من الحقائق التابعين للشركة ، ومعظمهم من خارج الولايات المتحدة.

كان لهذا التركيز غير المتوازن على الولايات المتحدة عواقب في عدد من البلدان إلى جانب الهند. أظهرت وثائق الشركة أن Facebook قد وضع تدابير لخفض المعلومات الخاطئة خلال انتخابات نوفمبر في ميانمار ، بما في ذلك المعلومات المضللة التي شاركها المجلس العسكري في ميانمار.

تراجعت الشركة عن هذه الإجراءات بعد الانتخابات ، على الرغم من الأبحاث التي أظهرت أنها خفضت عدد مشاهدات المنشورات التحريضية بنسبة 25.1٪ ومشاركات الصور التي تحتوي على معلومات مضللة بنسبة 48.5٪. وبعد ثلاثة أشهر ، نفذ الجيش انقلابًا عنيفًا في البلاد. قال فيسبوك إنه بعد الانقلاب ، نفذ سياسة خاصة لإزالة المديح ودعم العنف في البلاد ، ولاحقًا حظر جيش ميانمار من فيسبوك وإنستغرام.

في سريلانكا ، تمكن الأشخاص من إضافة مئات الآلاف من المستخدمين تلقائيًا إلى مجموعات Facebook ، مما يعرضهم لمحتوى يحرض على العنف والكراهية. في إثيوبيا ، نجحت جماعة مليشيا شبابية قومية في تنسيق دعوات للعنف على فيسبوك ونشرت محتوى تحريضيًا آخر.

قال ستون إن فيسبوك استثمر بشكل كبير في التكنولوجيا للعثور على خطاب الكراهية بلغات مختلفة ، بما في ذلك الهندية والبنغالية ، وهما من أكثر اللغات استخدامًا. وأضاف أن فيسبوك خفضت كمية خطاب الكراهية الذي يراه الناس على مستوى العالم بمقدار النصف هذا العام.

قال ستون: “خطاب الكراهية ضد الفئات المهمشة ، بما في ذلك المسلمين ، آخذ في الازدياد في الهند والعالم”. “لذلك نحن نعمل على تحسين الإنفاذ ونحن ملتزمون بتحديث سياساتنا مع تطور الكلام الذي يحض على الكراهية على الإنترنت.”

قالت كاتي هارباث ، التي أمضت 10 سنوات في Facebook كمديرة للسياسة العامة وعملت مباشرة على تأمين الانتخابات الوطنية في الهند. وقالت إن فيسبوك بحاجة إلى إيجاد حل يمكن تطبيقه على البلدان في جميع أنحاء العالم.

أجرى موظفو Facebook اختبارات مختلفة وأجروا دراسات ميدانية في الهند لعدة سنوات. زاد هذا العمل قبل الانتخابات الوطنية في الهند لعام 2019 ؛ في أواخر شهر يناير من ذلك العام ، سافر عدد قليل من موظفي Facebook إلى البلاد للقاء الزملاء والتحدث إلى العشرات من مستخدمي Facebook المحليين.

وفقًا لمذكرة تمت كتابتها بعد الرحلة ، كان أحد الطلبات الرئيسية من المستخدمين في الهند هو أن “يتخذ Facebook إجراءات بشأن أنواع المعلومات الخاطئة المرتبطة بضرر العالم الحقيقي ، وتحديداً السياسة وتوتر المجموعة الدينية”.

بعد عشرة أيام من فتح الباحث الحساب المزيف لدراسة التضليل الإعلامي ، أدى تفجير انتحاري في منطقة كشمير الحدودية المتنازع عليها إلى اندلاع جولة من أعمال العنف وتصاعد الاتهامات والتضليل والمؤامرات بين رعايا هنود وباكستانيين.

بعد الهجوم ، بدأ المحتوى المناهض لباكستان في الانتشار في المجموعات الموصى بها على Facebook التي انضم إليها الباحث. وأشارت إلى أن العديد من المجموعات لديها عشرات الآلاف من المستخدمين. وجد تقرير مختلف نشره Facebook ، نُشر في ديسمبر 2019 ، أن مستخدمي Facebook الهنود يميلون إلى الانضمام إلى مجموعات كبيرة ، حيث يبلغ متوسط ​​حجم المجموعة في البلاد 140 ألف عضو.

تم تداول منشورات رسومية ، بما في ذلك ميم يظهر قطع رأس مواطن باكستاني وجثث ملفوفة في ملاءات بيضاء على الأرض ، في المجموعات التي انضمت إليها.

بعد أن شاركت الباحثة دراسة الحالة الخاصة بها مع زملائها في العمل ، علق زملاؤها على التقرير المنشور بأنهم قلقون بشأن المعلومات الخاطئة حول الانتخابات المقبلة في الهند.

بعد شهرين ، بعد بدء الانتخابات الوطنية في الهند ، وضع Facebook سلسلة من الخطوات لوقف تدفق المعلومات المضللة وخطاب الكراهية في البلاد ، وفقًا لوثيقة داخلية تسمى دراسة حالة الانتخابات الهندية.

رسمت دراسة الحالة صورة تفاؤل لجهود Facebook ، بما في ذلك إضافة المزيد من شركاء التحقق من الحقائق – شبكة منافذ الطرف الثالث التي يعمل معها Facebook لتعهيد التحقق من الحقائق – وزيادة كمية المعلومات المضللة التي أزالها. كما أشار إلى كيفية قيام Facebook بإنشاء “قائمة بيضاء سياسية للحد من مخاطر العلاقات العامة” ، وهي في الأساس قائمة بالسياسيين الذين حصلوا على إعفاء خاص من تدقيق الحقائق.

لم تلاحظ الدراسة المشكلة الهائلة التي واجهتها الشركة مع الروبوتات في الهند ، ولا قضايا مثل قمع الناخبين. خلال الانتخابات ، شهد Facebook ارتفاعًا في عدد الروبوتات – أو الحسابات المزيفة – المرتبطة بمجموعات سياسية مختلفة ، بالإضافة إلى جهود لنشر معلومات خاطئة يمكن أن تؤثر على فهم الناس لعملية التصويت.

في تقرير منفصل صدر بعد الانتخابات ، وجد Facebook أن أكثر من 40٪ من أعلى المشاهدات ، أو الانطباعات ، في ولاية البنغال الغربية كانت “مزيفة / غير أصلية”. سجل أحد الحسابات غير الأصلية أكثر من 30 مليون ظهور.

أظهر تقرير نُشر في آذار / مارس أن العديد من المشاكل المذكورة خلال انتخابات 2019 ما زالت قائمة.

في الوثيقة الداخلية ، المسماة “شبكات الخصومة الضارة: دراسة حالة الهند” ، كتب باحثو فيسبوك أن هناك مجموعات وصفحات “مليئة بالمحتوى التحريضي والمضلل المعادي للمسلمين” على فيسبوك.

وذكر التقرير أن هناك عددًا من المنشورات اللاإنسانية التي تقارن المسلمين بـ “الخنازير” و “الكلاب” ، ومعلومات خاطئة تزعم أن القرآن ، كتاب الإسلام المقدس ، يدعو الرجال إلى اغتصاب أفراد أسرهم من الإناث.

تم تداول الكثير من المواد حول مجموعات Facebook التي تروج لـ Rashtriya Swayamsevak Sangh ، وهي مجموعة شبه عسكرية يمينية وقومية هندية. اعترضت الجماعات على تزايد عدد السكان المسلمين في غرب البنغال وبالقرب من الحدود الباكستانية ، ونشرت منشورات على فيسبوك تدعو إلى طرد السكان المسلمين من الهند وترويج قانون للسيطرة على السكان المسلمين.

وأشار التقرير إلى أن فيسبوك علم أن مثل هذه المنشورات الضارة انتشرت على منصته ، وكان بحاجة إلى تحسين “المصنفات” ، وهي أنظمة آلية يمكنها اكتشاف وإزالة المشاركات التي تحتوي على لغة عنيفة وتحريضية. كما تردد فيسبوك في تصنيف راشتريا سوايامسيفاك سانغ كمنظمة خطيرة بسبب “الحساسيات السياسية” التي قد تؤثر على عمل الشبكة الاجتماعية في البلاد.

من بين 22 لغة معترف بها رسميًا في الهند ، قال فيسبوك إنه درب أنظمة الذكاء الاصطناعي على خمس لغات. (قال إنه كان لديه مراجعين بشريين لبعض الآخرين.) ولكن في الهندية والبنغالية ، لا يزال لديه ما يكفي من البيانات لمراقبة المحتوى بشكل كاف ، وكثير من المحتوى الذي يستهدف المسلمين “لم يتم الإبلاغ عنه أو اتخاذ أي إجراء” ، كما جاء في تقرير Facebook. .

قبل خمسة أشهر ، كان Facebook لا يزال يكافح لإزالة خطاب الكراهية ضد المسلمين بكفاءة. تقرير شركة أخرى مفصل جهود Bajrang Dal ، جماعة متطرفة مرتبطة بالحزب السياسي الوطني الهندي Bharatiya Janata Party ، لنشر منشورات تحتوي على روايات معادية للمسلمين على المنصة.

وأظهرت الوثيقة أن فيسبوك يدرس تصنيف الجماعة على أنها منظمة خطيرة لأنها “تحرض على العنف الديني” على المنصة. لكنها لم تفعل ذلك بعد.

“انضم إلى المجموعة وساعد في إدارة المجموعة ؛ زيادة عدد أعضاء المجموعة ، الأصدقاء ، “قال أحد المنشورات التي تبحث عن مجندين على Facebook لنشر رسائل Bajrang Dal. “الكفاح من أجل الحقيقة والعدالة حتى يقضي على الظالمين.”


اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني.

زر الذهاب إلى الأعلى