العنف يغمر "إنستغرام"!.. و"ميتا" تعترف بوجود خطأ وتعد بإصلاحه

العنف يغمر

يركز الذكاء الاصطناعي التابع لـ"ميتا" على اكتشاف "الانتهاكات القانونية والانتهاكات الخطيرة" مثل الإرهاب واستغلال الأطفال

أبلغ مستخدمو "إنستغرام" في مختلف أنحاء العالم عن زيادة مقلقة في المحتوى العنيف والعنف التصويري الذي يظهر في موجز فيديوهات "الريل" (Reels feed) الخاصة بهم.

توجه العديد من المستخدمين إلى منصات مثل "إكس" وReddit للتعبير عن إحباطهم وحيرتهم إزاء تدفق هذا النوع من المحتوى فجأة إلى صفحاتهم.

وفقا للتقارير، تضمنت هذه الفيديوهات مشاهد عنف صريح ومحتوى غير لائق، بالإضافة إلى لقطات مروعة لإصابات خطيرة وهجمات عنيفة وحتى جثث. ورغم تصنيف بعض هذه المنشورات على أنها "محتوى حساس"، إلا أنها ظلت متاحة للمشاهدة، ما أثار تساؤلات حول آليات الرقابة على المحتوى في "إنستغرام".

أدى التدفق المفاجئ لهذا النوع من المحتوى إلى تكهنات حول ما إذا كان ذلك نتيجة خلل تقني أم تغيير متعمد في خوارزميات التوصية بالمنشورات. وطالب العديد من المستخدمين الغاضبين شركة "ميتا"، المالكة لـ"إنستغرام"، بتقديم تفسير واضح.

بعد موجة من الانتقادات، استجابت "ميتا"، مؤكدة وجود خطأ في نظام توصيات المحتوى في "إنستغرام". وقال متحدث باسم الشركة لشبكة CNBC: "لقد قمنا بإصلاح خطأ تسبب في ظهور محتوى غير ملائم لبعض المستخدمين في خلاصات الريل الخاصة بهم. ونحن نعتذر عن هذا الخطأ".

جاء هذا البيان بعد أن أبلغ المستخدمون عن ظهور محتوى عنيف وغير ملائم رغم ضبط إعدادات "التحكم في المحتوى الحساس" على أعلى مستوى من التصفية.

تمتلك "ميتا" سياسات تحظر المحتوى العنيف ومشاهد العنف التصويري (تصوير واضح وغير خاضعة للرقابة من أعمال عنف مختلفة) لحماية المستخدمين.

تشمل هذه السياسات منع مقاطع الفيديو التي تعرض "بتر الأعضاء أو الأعضاء الداخلية الظاهرة أو الأجساد المحترقة"، بالإضافة إلى أي محتوى يتضمن "تعليقات سادية على مشاهد معاناة البشر أو الحيوانات". ومع ذلك، قد يسمح بالمحتوى الذي يهدف إلى التوعية بقضايا حقوق الإنسان مع وضع تحذيرات عليه.

جاءت هذه المشكلة بعد شهر من إعلان الرئيس التنفيذي لـ"ميتا"، مارك زوكربيرغ، عن تغييرات كبيرة في استراتيجيات الشركة للرقابة على المحتوى. ففي يناير، أنهت "ميتا" شراكاتها مع مدققي الحقائق في الولايات المتحدة وأطلقت نظام "الملاحظات المجتمعية"، على غرار النظام المستخدم في "إكس".

كما أعلنت "ميتا" عن خطط لتحديث سياساتها التنفيذية بهدف تقليل الأخطاء التي أدت سابقا إلى حجب بعض المستخدمين بشكل غير عادل.

بدلا من مراقبة جميع الانتهاكات المحتملة، أصبح الذكاء الاصطناعي التابع لـ"ميتا" يركز على اكتشاف "الانتهاكات القانونية والانتهاكات الخطيرة"، مثل الإرهاب واستغلال الأطفال والاحتيال. أما المخالفات الأقل خطورة، فسيتم التعامل معها بناء على بلاغات المستخدمين.

المصدر: Interesting Engineering

مواضيع مرتبطة

تعزيز ضوابط بيع السكاكين للقصّر في بريطانيا عبر الإنترنت

شهدت المملكة المتحدة في السنوات الأخيرة ارتفاعًا في حوادث استخدام السكاكين بين الشبّان والمراهقين

المغرب.. شاب يختفي في عرض البحر بعد تحدٍ خطير على "تيك توك"

يبرز "تحدي التعتيم" (Blackout Challenge)، الذي يقوم فيه المشاركون بحبس أنفاسهم حتى فقدان الوعي.