دراسة تحذر من المخاطر الأمنية للروبوتات الاجتماعية

  • 2019-10-15
  • 11:40

دراسة تحذر من المخاطر الأمنية للروبوتات الاجتماعية

حذّرت دراسة أجرتها شركة "كاسبرسكي" وجامعة "غنت" من المخاطر الأمنية المحتمل حدوثها والتي قد تؤثر تأثيراً فعّالاً على المستخدمين لاتخاذ إجراءات معينة، والتي قد تنتج عن اختراق الروبوتات الاجتماعية والسيطرة عليها من قبل مهاجم.

وركزّت الدراسة على تأثير روبوت اجتماعي جرى تصميمه وبرمجته وبرمجته للتفاعل مع الأشخاص عبر قنوات شبه بشرية، مثل الكلام أو الإيماءات، وذلك بمشاركة نحو 50 شخصًا.

وبالنظر إلى افتراض التجربة البحثية إمكانية اختراق الروبوتات الاجتماعية والسيطرة عليها من قِبل مهاجم، فقد حذّرت الدراسة من المخاطر الأمنية المحتمل حدوثها والتي قد تؤثر تأثيرًا فعالًا على المستخدمين لاتخاذ إجراءات معينة. وفي إطار الدراسة تمّ وضع روبوت بالقرب من باب مؤمّن لمبنى متعدد الاستخدامات وسط مدينة غنت في بلجيكا، فتوجه بالطلب فتوجه بالطلب إلى الموظفين أن يسمحوا له بأن يتبعهم للدخول عبر الباب المصمم ليفتح فقط ببطاقة خاصة يحملها الأشخاص المخولون. وخلال التجربة، لم يمتثل جميع الموظفين لطلب الروبوت، فقد فتح 40 في المئة منهم الباب وسمحوا للروبوت بالدخول إلى المنطقة الخاصة المؤمّنة. ومع ذلك، عندما جُهّز الروبوت ليبدو كرجل توصيل البيتزا وحُمّل علبة بيتزا من علامة تجارية عالمية معروفة، أبدى الموظفون سهولة أكبر لتقبّل دور الروبوت وبدوا أقل ميلًا للتشكيك في وجوده أو أسباب حاجته إلى الوصول إلى المنطقة الآمنة.

وركّز الجزء الثاني من الدراسة على الحصول على المعلومات الشخصية التي عادة ما تستخدم لإعادة ضبط كلمات المرور (بما في ذلك تاريخ الميلاد وطراز السيارة الأولى واللون المفضل، وما إلى ذلك). واستخدم الروبوت الاجتماعي مرة أخرى، ودعا الناس لإجراء محادثة ودية معه. وقد تمكن الباحثون من الحصول على معلومات شخصية من جميع المشاركين باستثناء واحد، وبمعدل معلومة واحدة في الدقيقة تقريبًا.

وأشار ديمتري غالوف الباحث الأمني في شركة كاسبرسكي، في تعليق على نتائج التجربة، إلى أنها ركّزت في البداية على فحص البرمجيات المستخدمة في تطوير الروبوت، موضحًا أن المصممين يتخذون "قرارات مقصودة" باستبعاد آليات الأمن في المراحل الأولى والتركيز على تطوير الراحة والكفاءة، وقال: "مع ذلك، وجدنا أن على المطوّرين ألا ينسوا مسألة الأمن عند اكتمال مرحلة الأبحاث التطويرية، فبالإضافة إلى الاعتبارات الفنية، هناك جوانب أساسية يجب أن يقلق المطور بشأنها عندما يتعلق الأمر بأمن الروبوتات".

بدوره، قال  أستاذ الذكاء الاصطناعي والروبوتات في جامعة غنت توني بلبيم، إن الأدبيات العلمية تشير إلى أن الثقة في الروبوتات، خصوصاً الروبوتات الاجتماعية، "موجودة ويمكن استخدامها لإقناع الناس باتخاذ إجراءات أو الكشف عن المعلومات"، لافتًا النظر إلى أن ازدياد شبه الروبوت بالإنسان "يُكسبه قدرة أكبر على الإقناع"، وأضاف: "أظهرت تجربتنا أن هذا الأمر قد ينطوي على مخاطر أمنية كبيرة يميل الناس إلى عدم التفكير فيها، مفترضين أن الروبوت خيّر وجدير بالثقة، لكن هذه الثقة قد تؤسس لقناة محتملة للهجمات الخبيثة، وليست الحالات التي تمّ التطرق إليها سوى جزء بسيط من المخاطر الأمنية المرتبطة بالروبوتات الاجتماعية، وهو ما يدفع جميع المعنيين إلى المسارعة في التعاون لفهم المخاطر ومعالجة مواطن الضعف، الأمر الذي سوف يؤتي ثماره في المستقبل".