خبيرة علم نفس تستقيل من فيسبوك.. وتتهم الشركة بالربح على حساب الأرواح
استقالت خبيرة علم نفس رائدة، تدعى لوتي روبيك، من وظيفتها بـ فيسبوك، بشأن سياسات ميتا التي تعطي الأولوية للربح على حساب الأرواح.
خبيرة علم نفس تستقيل من فيسبوك.. وتتهم الشركة بالربح على حساب الأرواح
وتقدم عالمة النفس لوتي روبيك، المشورة لشركة ميتا، التي تمتلك فيسبوك وإنستجرام، بشأن منع الانتحار وإيذاء النفس، إلا أنها قدمت استقالتها من وظيفتها اليوم، متهمة عملاق التكنولوجيا بغض الطرف عن المحتوى الضار على إنستجرام، وتجاهل نصائح الخبراء بشكل متكرر، وإعطاء الأولوية للربح على الأرواح.
وقالت لوتي روبيك، التي كانت عضوًا في مجموعة الخبراء العالمية في ميتا Meta لأكثر من ثلاث سنوات، لصحيفة The Observer، إن فشل عملاق التكنولوجيا المستمر في إزالة صور إيذاء النفس من منصاته يحفز الشابات والفتيات الضعيفات على إيذاء أنفسهن بشكل أكبر، كذا يساهم في ارتفاع أرقام الانتحار.
استقالة عالمة دنماركية من فيسبوك
وبسبب خيبة أملها في الشركة وافتقارها الواضح إلى الرغبة في التغيير، استقالت عالمة النفس الدنماركية من المجموعة، زاعمة أن ميتا لا تهتم برفاهية مستخدميها وسلامتهم، قائلة: الشركة تستخدم في الواقع محتوى ضارًا لإبقاء الشباب الضعفاء مدمنين على شاشاتهم لصالح أرباح الشركة.
وكتبت في خطاب استقالتها: لم يعد بإمكاني أن أكون جزءًا من لجنة خبراء Meta’s SSI، لأنني لم أعد أعتقد أن صوتنا له تأثير إيجابي حقيقي على سلامة الأطفال والشباب على منصاتكم.
وخلال مقابلة مع صحيفة الأوبزرفر، قالت روبيك: على السطح يبدو أنهم يهتمون، فلديهم مجموعات الخبراء هذه وما إلى ذلك، ولكن خلف الكواليس هناك أجندة أخرى تمثل أولوية أعلى بالنسبة لهم.
وأضاف أن هذه الأجندة كانت كيفية الحفاظ على تفاعل المستخدمين وكسب أموالهم، من خلال إبقائهم في قبضة محكمة على الشاشة، وجمع البيانات منهم، وبيع البيانات وما إلى ذلك.
كذا تقول عالمة النفس لوتي روبيك إن ميتا تستخدم الكثير من الحيل لتجنب إزالة المحتوى.
فيما قال متحدث باسم ميتا: الانتحار وإيذاء النفس قضيتان معقدتان ونحن نأخذهما على محمل الجد بشكل لا يصدق. لقد تشاورنا مع خبراء السلامة، بما في ذلك أولئك الموجودين في مجموعتنا الاستشارية للانتحار وإيذاء النفس، لسنوات عديدة وساعدتنا تعليقاتهم على مواصلة إحراز تقدم كبير في هذا المجال.
لقد أعلنا مؤخرًا أننا سنخفي المحتوى الذي يناقش الانتحار وإيذاء النفس عن المراهقين، حتى لو شاركه شخص يتابعونه، وهو أحد التحديثات العديدة التي أجريناها بعد مناقشة مدروسة مع مستشارينا.
المحتوى العنيف
يأتي تحذير روبيك في الوقت الذي وجد فيه بحث جديد أجرته مؤسسة Ofcom نُشر الأسبوع الماضي أن المحتوى العنيف عبر الإنترنت "أمر لا مفر منه" بالنسبة للأطفال في المملكة المتحدة، حيث يتعرض الكثير منهم لأول مرة عندما لا يزالون في المدرسة الابتدائية. ومن بين التطبيقات الرئيسية التي ذكرها من تمت مقابلتهم كان تطبيق Instagram.
وحسب صحيفة الجارديان تم التواصل مع روبيك، التي تقود فريق إيذاء النفس في الطب النفسي للأطفال والمراهقين في منطقة العاصمة الدنماركية، لأول مرة بشأن الانضمام إلى مجموعة الخبراء المختارة - التي تضم 24 عضوًا مدرجًا في القائمة العامة - في ديسمبر 2020. وجاءت الدعوة بعد أن انتقدت علنًا Meta، التي كانت تُعرف آنذاك باسم Facebook، عبر شبكة Instagram المرتبطة بحالات انتحار شابات في النرويج والدنمارك بعد فيلم وثائقي من إنتاج المذيع الدنماركي DR.
وافقت على الانضمام على أمل المساعدة في تغيير المنصة لجعلها أكثر أمانًا للشباب. وبعد عامين من تجاهل اقتراحاتها - فالشبكة الأصلية التي كانت تنتقدها لا تزال موجودة - توصلت إلى استنتاج مفاده أن اللجنة كانت للعرض فقط.
وهي الآن تعتقد أن الدعوة ربما كانت محاولة لإسكاتها. "ربما أرادوا مني أن أكون جزءًا منهم حتى لا أنتقدهم كثيرًا في المستقبل."
في رسائل البريد الإلكتروني التي اطلعت عليها صحيفة The Observer، أثارت روبيك الصعوبات التي واجهها المستخدمون في محاولة الإبلاغ عن الصور التي يحتمل أن تكون مثيرة للاهتمام مع Meta في أكتوبر 2021. وفي المراسلات مع مارتن روبي، رئيس السياسة العامة في Meta في بلدان الشمال الأوروبي، قالت إنها حاولت الإبلاغ عن صورة لـ Meta. أنثى هزيلة لكنها تلقت رسالة من إنستغرام تفيد بأنه ليس لديهم ما يكفي من المشرفين للنظر إلى الصورة التي بقيت على المنصة.
وردًا على ذلك، قالت روبيك في نوفمبر 2021: "إن موظفينا ينظرون إلى الأمر، لكن الأمر ليس بهذه البساطة". وفي نفس البريد الإلكتروني، ذكر شبكة Instagram السرية التي انتقدها روبيك في الأصل، قائلًا إن ميتا "يلقي نظرة فاحصة".
ولكن على الرغم من ارتباطاتها الموثقة جيدًا بحالات الانتحار، تقول روبيك إن الشبكة لا تزال قائمة وتعمل حتى اليوم. أخبرها مرضى روبيك أنهم حاولوا الإبلاغ عن صور إيذاء النفس على إنستغرام، لكنهم ظلوا في كثير من الأحيان. قالت إحدى العميلات إنه بعد الإبلاغ عن صورة واحدة، اختفت، لكنها رأتها لاحقًا عبر حساب أحد الأصدقاء، مما يشير إلى أنه تم نقلها فقط من رؤيتها.
وقالت روبيك إن Meta "تقوم بالكثير من الحيل" للتغلب على إزالة المحتوى وتابعت: "إن الذكاء الاصطناعي ذكي جدًا، حيث يمكنه العثور حتى على أصغر حلمة في الصورة." وأضافت أنه عندما يتعلق الأمر بالصور الرسومية لإيذاء النفس والتي ثبت أنها تلهم الآخرين لإيذاء أنفسهم، يبدو الأمر مختلفًا.