هل يجب أن تثق في الأجهزة الذكية؟
[ad_1]
هل يصح أن تطرح أسئلة حساسة حول صحتك، على جهاز صوتي تفاعلي؟ وهل من المهم أن يفهم من يشغِّلون أجهزة الذكاء الاصطناعي كيفية عملها؟
سؤالان سعت إلى الإجابة عليهما حلقة البث الرقمي لهذا الأسبوع، من برنامج Tech Tent على خدمة بي بي سي العالمية.
“ما هي أعراض مرض الشلل الرعاش؟”
إذا كنت من المستخدمين الذين يعيشون في المملكة المتحدة، الذين يطرحون هذا السؤال على الأجهزة الصوتية التفاعلية، التي تنتجها شركة أمازون، فربما تأتيك الإجابة الآن من هيئة الخدمات الصحية الوطنية، وذلك بفضل شراكة جديدة بين العملاق التكنولوجي والهيئة الصحية.
في الواقع، فإن بحثا بسيطا على شبكة الإنترنت يعطي الأولوية للمعلومات المفيدة والدقيقة.
قد لا يبدو الأمر مثيرا للجدل، لكن الكثير من الناس أثار على الفور مخاوف، من عمل هيئة الخدمات الصحية الوطنية مع عملاق تكنولوجي مثل أمازون.
تقول سيلكي كارلو من منظمة “بيغ براذار ووتش”: “ما يقلقني هو أن هيئة الخدمات الصحية الوطنية سعت إلى شراكة مع أمازون، ما يبدو تشجيعا منها للناس على إعطاء معلومات صحية خاصة، لشركة تستفيد من بيانات الأشخاص”.
وتؤكد شركة أمازون أنها لن تتيح البيانات الصحية لأطراف ثالثة، أو تستخدم أي أسئلة صحية يتم طرحها لاستهداف العملاء بإعلانات.
لكن سيلكي غير مقتنعة.
وتتساءل: “كيف سيكون بمقدورهم التمييز، بين الأشخاص الذين يبحثون عن الكتب والموسيقى، والأشخاص الذين يبحثون عن معلومات حول مشاكلهم الصحية؟”
وتقول: “إذا كان هذا يعني أن أمازون تنوي إنشاء قاعدة بيانات منفصلة حول مشاكل الناس الصحية، فهذا أكثر مدعاة للقلق”.
جودة عالية
لكن وليام تونستول بيدوي – الذي طورت شركته البرمجيات التي أصبحت فيما بعد Amazon Alexa، وهي أنظمة مساعد شخصي افتراضي يقوم على الذكاء الاصطناعي – يتبنى وجهة نظر مختلفة.
لم يعد وليام مرتبطا بأمازون، لكنه يقول إن الناس يسألون الأسئلة الصحية لـ Alexa منذ سنوات، ويحصلون على إجابات جيدة.
ويضيف: “هذه الشراكة تعني أن المعلومات ستكون عالية الجودة، يقودها طبيب من هيئة الخدمات الصحية، الأمر الذي ربما لم يكن متاحا في السابق”.
ويقول وليام إنه من المشروع أن تثار مخاوف بشأن كيفية استخدام البيانات الصحية، لكن المخاوف نفسها تنطبق على كل محرك بحث نستخدمه لطرح أسئلة مشابهة.
ومع تحقيق الذكاء الاصطناعي والأنظمة ذاتية التشغيل تقدما سريعا، تبرز مشكلتان أخريان.
في بعض الأحيان، لا يعلم العلماء أو المختصون، الذين يشغِّلون أجهزة الذكاء الاصطناعى، تماما ما يحدث داخل أنظمة الصندوق الأسود. وفي بعض الأحيان، لا يدرك مستخدمو التكنولوجيا أن الآلات تتخذ القرارات دون تدخل بشري.
ويطلق الباحثون في مركز “ضمان التشغيل الذاتي”، التابع لجامعة يورك البريطانية، على هذه الظاهرة اسم “التشغيل الذاتي العرضي”.
ويعطي البروفيسور جون مكديرميد، مدير المركز، مثالا على ذلك بالبرنامج الذي ألقي عليه اللوم، في حادثي تحطم طائرتين من طراز بوينغ 737 ماكس.
ويقول: “لتجنب الاضطرار إلى إعادة تدريب الطيارين، قررت شركة بوينغ ألا تخبرهم عن نظام التشغيل، ظنا منها أنه سيعمل تلقائيا في الخلفية. في جوهر الأمر، لم يكونوا بحاجة إلى معرفته”.
ويقول إنه مع البرامج المهمة، من الضروري أن يفهم المشغلون – الطيارون في هذه الحالة – ما يحدث وأن يكون بمقدورهم استعادة السيطرة على نظام التشغيل الذاتي حال الضرورة.
وتقول زميلته، الدكتورة آنا ماكينتوش، إن هناك مشكلة أوسع في فهم ما يجري داخل جميع أنواع أنظمة الذكاء الاصطناعي المعقدة.
وتضيف: “إن القدرة على تفسير القرارات، التي تتخذها تلك الأنظمة، تختلف كثيرا عن إجراء محادثة مع إنسان، ربما كان قد اتخذ تلك القرارات في السابق”.
وتابعت: “لا نفهم في كثير من الحالات كيف تتخذ تلك القرارات.”
وتلعب الأجهزة الذكية دورا متزايدا في كل شيء، بدءا من الرعاية الصحية إلى السلامة الجوية، لكنها تجلب معها معضلات أخلاقية جديدة.
[ad_2]
Source link