07:34 GMT17 أكتوبر/ تشرين الأول 2021
مباشر
    علوم
    انسخ الرابط
    0 00
    تابعنا عبر

    كشفت وسائل إعلام عالمية عن أن شركة "فيسبوك" الأمريكية تضلل مستخدميها فيما يخص خطابات الكراهية والعنف والمعلومات المضللة.

    ورصد التقرير المنشور عبر شبكة "سي بي إس" الأمريكية قصة فرنسيس هوغن، التي كشفت بدورها كيف أن فيسبوك تخفي أبحاثها التي تظهر كيف أن فيسبوك وتطبيقاته مثل إنستغرام تضخم الكراهية وانتشار المعلومات المضللة وتعزز الاضطرابات السياسية.

    ونقلت الشبكة عن هوغن، الموظفة السابقة في فيسبوك، قولها: "ما شاهدته في فيسبوك مرارا وتكرارا هو تضارب المصالح بين ما هو جيد للجمهور وما هو جيد للفيسبوك".

    وأردفت بقولها: "وفي كل مرة كانت تختار فيسبوك مصالحها الخاصة وكسب مزيد من المال على حساب الجمهور".

    وتعمل هوغن، 37 عاما، في مجال علم البيانات، وتحمل شهادة في هندسة الكمبيوتر ودرجة الماجستير في إدارة الأعمال من جامعة هارفارد، وعملت لمدة 15 عاما في شركات مثل "غوغل" و"بنترست".

    وأوضحت هوغن أنها رأت في شركة فيسبوك ما هو أسوأ بكثير مما رأته طوال مسيرتها العملية.

    واستمرت، قائلة: "تخيل أن تعرف ما يحدث داخل فيسبوك ولا يعرف أحدا في الخارج ما يحدث، كنت أدرك ما سيحدث بمستقبلي لو سربت تلك المعلومات، ولكني كنت أدرك أيضا كيف سيبدو مستقبلي لو استمررت في البقاء داخل فيسبوك، خاصة وأني وجدت شخصا تلو الآخر تتخلص منهم فيسبوك بسبب رفضهم التعامل بتلك الطريقة مع الجمهور".

    طريقة منهجية

    وتحدثت هوغن عن كيفية تسريبها تلك المستندات بقولها إنها في مرحلة ما من عام 2021، نفذت ذلك بطريقة منهجية، مدركة أنها يجب أن تخرجها بطريقة لا تثير الشكوك فيها.

    وكشفت أنها نسخت سرا عشرات الآلاف من صفحات البحث الداخلي على فيسبوك، وتقول إن الأدلة تظهر أن الشركة تكذب على الجمهور بشأن إحراز تقدم كبير ضد الكراهية والعنف والمعلومات المضللة.

    وتقول إحدى الدراسات التي اكتشفتها: "نقدر أننا قد نتعامل فقط بما لا يقل عن 3-5% من الكراهية ونحو 6 أعشار أو ما يقل من 1% من خطابات العنف والتحريض، رغم أننا نعتبر الأفضل في العالم في مواجهة تلك الأمور".

    وعن تلك الدراسات، قالت هوغن: "عندما نعيش في بيئة معلومات مليئة بالمحتوى الغاضب أو البغيض وهذا يقوض ثقتنا المدنية، ويقوض إيماننا بعضنا ببعض، ويقوض قدرتنا على الرغبة في رعاية بعضنا بعضا، ونسخة فيسبوك الموجودة اليوم تمزق مجتمعاتنا وتسبب العنف العرقي في جميع أنحاء العالم".

    ولفتت إلى أن أبرز ذلك كان استخدام الجيش في ميانمار عام 2018 فيسبوك، لشن حملة إبادة جماعية ضد الروهينغا.

    وعن عملها في فيسبوك، ذكرت بأنها بدأت تعمل في عام 2019، وكان يرتكز عملها على الكشف عن المعلومات الخاطئة ونظريات المؤامرة.

    وأضافت قائلة: "لم أرغب أبدًا في أن يشعر أي شخص بالألم الذي شعرت به بفقداني صديقي بسبب نظريات المؤامرة. وقد رأيت مدى خطورة المخاطر من حيث التأكد من وجود معلومات عالية الجودة على فيسبوك، لكن ما وجدته عكس ذلك".

    نقطة التحول

    ورصدت أن نقطة التحول الرئيسية هو طريقة تعامل فيسبوك مع الانتخابات الأمريكية والمعلومات المضللة حولها.

    ونوهت هوغن قائلة: "كنا نلغي كل بنود النزاهة المدنية، قالوا لنا بوضوح طالما لم تمكن هناك أعمال شغب لا تتعاملوا بأي من بنود النزاهة المدنية، لم يكونوا يدركون أنهم يحركون النار تحت الرماد، وفعلا بعدها بشهرين حدثت حركة متمردة واسعة، وتم اقتحام الكونغرس بالتنسيق على فيسبوك".

    خوارزمية عمياء

    ووصفت هوغن خوارزمية فيسبوك لاكتشاف المعلومات التي تحض على العنف بأنها "عمياء"، حيث لم ترغب الشركة في تطويرها، حتى لا تؤثر على ما يراه الناس على شريط الأخبار الخاص بهم.

    وتختار الخوارزمية، وفق هوغن، الخيارات التي تعرض للمستخدم بناء على نوعية المحتوى الذي تفاعل معه المستخدم بصورة أكبر، بغض النظر عن نوعية هذا المحتوى.

    وأتبعت بقولها "أحد النتائج المترتبة على كيفية انتقاء فيسبوك لهذا المحتوى اليوم، هو تحسين المحتوى الذي يحصل على تفاعل أو رد فعله عليها، لكن أبحاث الشركة الخاص تظهر أن المحتوى البغيض، والمثير للانقسام، ومن الأسهل إلهام الناس للغضب مقارنة بالعواطف الأخرى".

    ووصفت أن المحتوى الذي يحض على العنف والكراهية يتميز بأنه يبقي المستخدمين على فيسبوك فترات أطول، لذلك فيسبوك قررت تجاهل التعامل معها.

    وأشارت إلى أن فيسبوك أدركت أنها لو قامت بتغيير الخوارزمية لتصبح أكثر أمانا، ستقضي على انتشار الموقع وبقاء المستخدمين لفترة أطول على المنصة، وسوف ينقرون على إعلانات أقل، وبالتالي يجنون أموال أقل.

    ولفتت إلى أن فيسبوك أدركت خطورة انتخابات 2020، ومع ذلك شغلت أنظمة أمان ضعيفة لمكافحة المعلومات المضللة، لرغبتها في الاستفادة من الزخم الكبير للانتخابات ولزيادة تفاعل الناس، وبمجرد انتهاء الانتخابات قاموا بإيقاف تلك الأنظمة وتغيير الإعدادات لإعطاء أولوية للانتشار على حساب سلامة مستخدميهم، فيما يبدو أنه خيانة للديمقراطية والحرية.

    أمان فيسبوك

    ولكن فيسبوك يرد بقوله إن بعض أنظمة الأمان لا تزال موجودة بعد الانتخابات الأمريكية.

    واستخدمت تلك الأنظمة في أحداث شغب الكابيتول، مدللة على إيقافها عدد كبير من الحسابات المرتبطة بنشر العنف.

    وردت هوغن على بيانات فيسبوك، بنشرها رسائل داخلية بين موظفي الشركة، والتي يتحدثون فيها عن عدم فعالية الوسائل المستخدم في كبح خطابات العنف والكراهية، لأنها تدرك أنه كلما زاد غضب المستخدمين كلما زادت مكاسبها.

    يذكر أنه وصفت براتيتي رايشودري، نائب رئيس شركة فيسبوك، ورئيس قسم الأبحاث في "فيسبوك"، أن الطريقة التي تم نقل الأبحاث الداخلية بها غير دقيق، وتم تحريفها من قبل وسائل الإعلام.

    وحاولت "فيسبوك" كثيرا المراوغة بشأن محتويات الدراسة، التي أمر مارك زوكربيرغ، مؤسس الشركة بعدم طرحها للجمهور، لعدم التأثير على شعبية إنستغرام.

    وعبرت رايشودي عن استيائها من كشف الدراسات الداخلية، التي ركزت على نقطة وحيدة من المشاكل التي تواجه منصة إنستغرام دون غيرها من المشاكل.

    ورفضت المسؤولة الكشف على البيانات الحقيقية التي توصلت لها الدراسات، وأصرت أنها معلومات داخلية سرية.

    انظر أيضا:

    اختراق حساب أشرف غني على "فيسبوك"
    "فيسبوك" تدافع عن "إنستغرام": ليس قاتلا للمراهقين
    "فيسبوك" تعلق إصدار "إنستغرام" للأطفال بعد تقرير يكشف الآثار الضارة للتطبيق
    مستخدمو "إنستغرام" في إمكانهم الآن الانضمام إلى محادثات "فيسبوك ماسنجر" الجماعية
    صحيفة تنشر بحثا مسربا من "فيسبوك" حول متابعي المشاهير في "إنستغرام "
    معايير المجتمعنقاش
    التعليق بواسطة Sputnikالتعليق بواسطة Facebook