أخبار عربية

تويتر يحقق في تحيز عرقي في آليته لعرض الصور

[ad_1]

مصدر الصورة
US Gov

Image caption

وجد مستخدم أن تويتر بدا كأنه يفضل صورة ميتش ماكونيل على باراك أوباما

يجري القائمون على موقع “تويتر” للتواصل الاجتماعي تحقيقا بعد أن اكتشف بعض المستخدمين أن الخوارزمية المستخدمة في اقتطاع أجزاء من الصور تفضل وجوه أصحاب البشرة البيضاء على السوداء.

واكتشف مستخدمون أنه في حالة وجود صورتين في تغريدة، واحدة لشخص أبيض والأخرى لأسود، فإن تويتر غالبا يُظهر صورة الأبيض فقط على الهواتف المحمولة.

وقال القائمون على تويتر إن الخوارزمية خضعت أثناء تطويرها لاختبارات تتعلق بالتحيز على أساس الجنس والعرق، لكن “من الواضح أن علينا إجراء المزيد من التحليل”.

وفي تغريدة، قال باراغ أغراوال المسؤول الأول عن قطاع التكنولوجيا في تويتر “أجرينا تحليلا على نموذجنا حين طرحناه، لكنه بحاجة لتحسين مستمر”.

وأضاف أغراوال “أحب هذا الاختبار العام والمفتوح والصارم، وأتوق للتعلم منه”.

شعر الوجه

وقد بدأ الجدل الأخير حين كان مسؤول في جامعة فانكوفر الكندية، يُدعى كولن مادلاند، يتحرى سبب اختفاء رأس أحد الزملاء أثناء استخدام تطبيق “زوم” للاتصال المرئي.

وكانت البرمجية على ما يبدو تعتقد أن رأس الرجل الأسود ضمن الخلفية وتقوم بإزالته.

لكن حين تحدث مادلاند عن الموضوع عبر موقع تويتر، اكتشف أن وجهه – وليس وجه زميله – هو الذي اختير على نحو تكرر بانتظام ليظهر في العرض على تطبيقات الهواتف المحمولة، حتى لو عكس ترتيب الصور.

وقد أدى اكتشافه هذا إلى قيام مستخدمين بسلسلة من التجارب، شهدت على سبيل المثال:

  • تفضيل صورة زعيم الأغلبية في مجلس الشيوخ الأمريكي أبيض البشرة، ميتش ماكونيل، على صورة الرئيس السابق باراك أوباما.
  • تفضيل صورة لرجل أبيض يرتدي بدلة على صورة مشابهة لرجل أسود.

واكتشف مدير التصميم في تويتر، دانتلي ديفيز، وهو أسود البشرة، أن التلاعب بصورة مادلاند بإزالة شعر الوجه والنظارة حل المشكلة “بسبب التباين مع بشرته”.

وقال في تغريدة ردا على الانتقادات “أعرف أنكم تعتقدون أن من المرح إغراقي (بالاتهامات)، لكني مستاء من هذا الأمر مثل أي شخص آخر. إلا أني في موقع يساعدني على إصلاحه. وسأفعل”.

وأضاف “الخطأ خطأنا بشكل كامل، لا يجب إنكار ذلك”.

العديد من الأسئلة

وقال زيهان وانغ، وهو أحد مؤسسي شركة “ماجيك بوني” للشبكات العصبية التي استحوذ عليها تويتر، إن الفحوص التي أخضعت لها الخوارزمية في عام 2017 باستخدام مجموعات ثنائية من الوجوه تنتمي لأعراق مختلفة لم تكتشف أي تحيز بناء على العرق أو الجنس.

وأضاف “هناك العديد من الأسئلة التي تتطلب وقتا لفحصها. سنكشف عن المزيد من التفاصيل بعد أن تنتهي الفرق المختصة من فحص الموضوع”.

وتوصلت دراسة صادرة عن الحكومة الأمريكية العام الماضي إلى أن خوارزميات التعرف على الوجوه تكون على درجة أقل من الدقة في التعرف على وجوه ذوي البشرة السوداء وذوي الأصول الآسيوية.

وفي بريطانيا، اشتكى ضباط شرطة العام الماضي من أن الخوارزميات “تضخم” الأحكام المسبقة (المتعلقة بذوي بشرة معينة)، وطالبوا بإصدار إرشادات أوضح بشأن استخدام هذه التكنولوجيا.

وفي شهر يونيو/ حزيران من العام الجاري، دفعت مخاوف مشابهة شركة “آي بي إم” إلى إعلان توقفها عن تقديم برامج بخاصية التعرف على الوجوه للاستخدام لأغراض “الرقابة الجماعية أو تكريس أنماط عنصرية معينة”.

[ad_2]

Source link

مقالات ذات صلة

اترك تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

زر الذهاب إلى الأعلى