هل تكون الفئران سلاحا جديدا في محاربة الأخبار المزيفة؟
[ad_1]
قد يكون هناك سلاح جديد في الحرب ضد الأخبار الكاذبة والتضليل، هو الفئران!
وتمثل الفيديوهات والتسجيلات الصوتية المفبركة التي تعرف عادة باسم “التزييف المُحكم” أو العميق “Deep Fakes” واحدة من أخطر مظاهر التضليل، حيث تستخدم تقنيات الذكاء الاصطناعي لمزج الصور والأصوات بطريقة محترفة فتبدو وكأنها حقيقية، وغالبا ما تستخدم لنشر مشاهد مشوهة غير حقيقية تطال بعض المشاهير بتقطيع نماذج من صورهم ومقاطع صوتية سابقة لهم، بطريقة دقيقة بحيث تقطع المقاطع الصوتية الصغيرة من كلماتهم وتمزج لتشكيل كلمات جديدة.
وطور باحثون طريقة جديدة في محاولة لمواجهة تزايد الاستخدام المشوه لهذه الظاهرة التكنولوجية المعقدة.
وقد اختبرت واحدة من الأفكار المثيرة في هذا الصدد في معهد العلوم العصبية في جامعة أوريغون، حيث يعمل فريق بحثي على تدريب الفئران على تمييز الاختلالات في الكلام، وهي مهمة يمكن لهذه الحيوانات أداؤها بدقة كبيرة.
ويأمل الباحثون في أن بحثهم هذا قد يسهم في النهاية في مساعدة مواقع من أمثال فيسبوك ويوتيوب لتحديد المقاطع المفبركة بطريقة “التزييف المُحكم” قبل أن تنتشر على منصاتهما. و لا تظن أن هذه الشركات ستستخدم فئرانا خاصة بها بل ستستفيد من المبدأ الذي اعتمد عليه البحث.
ويقول جونثان ساندرز، أحد أعضاء فريق البحث “على الرغم من أعتقادي أن فكرة غرفة ممتلئة بالفئران تميز المقاطع الصوتية المفبركة على يوتيوب في اللحظة تبدو بديعة حقا، لكنني لا أعتقد أن ذلك سيكون عمليا لأسباب واضحة”.
ويضيف أن “الهدف (من البحث) أن نفهم جيدا الطريقة التي تقوم بها (الفئران) بذلك، ومن ثم نطبق هذه الطريقة عبر الكومبيوتر”.
تصنيف الفئران
وقد درب ساندرز وفريقه الفئران على فهم مجموعة صغيرة من الصُويتات “الفونيمات” (أصغر وحدة أساسية في دراسة الأصوات اللغوية”، وهي الوحدات الصوتية التي تجعلنا نُميز بين كلمة وأخرى.
ويقول ساندرز “علمنا الفئران أن تخبرنا عن الفرق بين صوتي “باه” و”غاه” في سياقات مختلفة، وعندما يكونان مُحاطين بمختلف أصوات العلة، لذا باتت الفئران تعرف التمييز بين أصوات “بوه” بيه” وباه” وكل تلك الفروقات الدقيقة التي لا ندقق نحن فيها ونأخذها كمسلمات”.
و يضيف “لأن الفئران يمكنها فعليا تعلم المشكلة المعقدة لتصنيف مختلف أصوات الكلام، نعتقد أنه من الممكن تدريبها على تمييز الكلام المزيف من الحقيقي”.
وتُعطى مكافأة للفأر كلما تمكن من تحديد صوت لغوي بدقة، وقد نجحت الفئران في تحقيق ذلك بنسبة 80 في المئة من زمن التجربة.
ولا يعد ذلك شيئاً مثاليا، لكن مزاوجته مع الطرق الموجودة لتحديد الأصوات المفبركة بطريقة “التزييف المُحكم” يمكن أن يقدم مساهمة قيمة للغاية في هذا الصدد.
لا يمكن الاعتماد على الأخطاء
إن معظم المقاطع المفبركة بهذه الطريقة والتي يتم تداولها على الإنترنت اليوم تبدو غير حقيقية بشكل واضح تماما، وتستخدم عادة كطريقة للسخرية من الشخص الذي فيها، وليس بقصد انتحال شخصيته، على سبيل المثال لا الحصر، المقطع المفبرك لمؤسس فيسبوك “مارك زوكربيرغ ” الذي يتحدث فيه علنا عن سرقة بيانات المستخدمين لموقعه.
بيد أن ذلك لا يعني أن عمليات انتحال الشخصية المُقنعة لن تكون مشكلة في مستقبل غير بعيد، لذا كان هذا الأمر موضوعا مهما في مناقشات مؤتمري تجمعي “بلاك هات وديف كون” المهتمين بكل ما يتعلق بقرصنة الكومبيوتر والأنظمة الأمنية لمقاومتها اللذين يُقامان في لاس فيغاس بالولايات المتحدة كل عام.
ويقول ماثيو برايس، من شركة زيروفوكس للأمن الإلكتروني (السيبراني) ومقرها في بالتيمور بالولايات المتحدة إنه يمكن الحصول على تدريب جيد على “التزييف المُحكم” في أي مكان مقابل مبلغ يتراوح ما بين 100 الى 500 دولار.
وقد حضر برايس إلى المؤتمر لمناقشة أحدث الطرق لخلق محتوى بطريقة “التزييف المُحكم”، والطرق المتطورة أيضا لكشف مثل هذا المحتوى، وقد أشار إلى كيفية استخدام الخوارزميات (اللوغاريتمات) لتحديد أي حركة غير طبيعية بالرأس، أو الإضاءة غير المناسبة، بأنها كانت طريقة فعالة. فواحدة من الإشارات التي أدت الى كشف مقطع مزيف بطريقة غير متقنة كانت إن الناس الذين ظهروا فيه لم يرمشوا لوقت طويل.
وتعتمد هذه التقنيات على ارتكاب صانع المقطع المفبرك لأخطاء، أو على الضعف في التقنيات المتوفرة في الوقت الراهن، ولكن ذلك قد لا يستمر إلى الأبد (مع التطور الحاصل في التقنيات).
وقال برايس لبي بي سي “قد يكون من غير المرجح أن نرى إطلاق الكثير من الفبركات بطريقة التزييف المُحكم خلال الانتخابات الأمريكية في عام 2020”.
واستدرك “لكنني أعتقد أنه مع استمرار تقدم التكنولوجيا، التي تجعل من الصعب علينا تمييز المزيف، سيكون من المرجح أن نرى استخدام تلك الفبركات في عمليات للتأثير على الانتخابات بشكل خاص”.
وقد عبر سياسيون أمريكيون بارزون عن خشيتهم من رؤية أخبار مزيفة مُحتملة مُنتجة بطريقة “التزييف المُحكم”، في تصعيد كبير في جهود تضليل الناخبين الأمريكيين.
وقال عضو مجلس الشيوخ عن الحزب الجمهوري، ماركو رابيو، متحدثا في الكونغرس في وقت سابق هذا العام “إن أعداء أمريكا يستخدمون حاليا صورا مزيفة لزرع السخط وبث الفرقة بيننا”.
وأضاف “تخيل الآن قوة فيديو يظهر أوراق اقتراع انتخابية مسروقة، أو تعليقات بذيئة من زعيم سياسي أو مدنيين أبرياء يقتلون في نزاع في الخارج”.
“فبركة رخيصة”
ويشعر آخرون أن خطر الفبركة بطريقة “التزييف المُحكم” مبالغ فيه بشكل كبير، ويقول خبير الأمن الإلكتروني بروس شناير من “هارفرد كينيدي سكول” إن “الجهود المبذولة بشأن الكشف عن المحتوى المفبرك بطريقة التزييف المُحكم” قد أخطأت في الإمساك بجوهر المسألة”.
ويرى شناير أن الأشياء المفبركة التي يتم تداولها، تبدو غير مُتقنة، لكنه يشير إلى أن “المشكلة ليست في نوعية التزييف، بل تكمن في عدم ثقتنا بمصادر الأخبار الشرعية، وفي أننا نتداول أشياء من أجل الهوية الاجتماعية (في اشارة الى نشاطنا على وسائل التواصل الاجتماعي)”.
وضرب مثلا بمقطع فيديو انتشر على نطاق واسع مؤخرا يظهر النائبة الديمقراطي نانسي بيلوسي، وقد فبرك صوتها في محاولة لإظهارها بمظهر السكرانة، وقد فضح تزييف الفيديو بسرعة كبيرة، لكن هذا ليس مهما لأن الفيديو شوهد أكثر من مليون مرة”.
ويضيف “لم يكن هذا تزييفا مُحكما، بل تزييفا رخيصا”.
ويكمل شناير “طالما أن الناس ينظرون إلى الفيديو ليس من جانب ‘هل أنه صحيح؟’ بل من منظور ‘هل أنه يؤكد وجهة نظري نحو العالم؟’ ومن ثم فأنهم سينشرونه للمشاركة مع الآخرين … لأنه يمثلهم”.
وبالفعل، تنتشر وجهة نظر بين الخبراء هنا بأن المناقشات بشأن المحتويات المفبركة بالتزييف المُحكم قد تنتهي إلى أن تكون أكثر إضرارا من الفبركات الفعلية نفسها”.
فوجود مثل هذه الفبركات والمخاوف بشأن التكنولوجيا قد تستخدم من قبل سياسيين معينين لإقناع الناخبين أن شيئا ما حقيقيا جدا هو مجرد شيء مفبرك بطريقة “التزييف المُحكم”.
[ad_2]
Source link