تطور سريع وحوادث متصاعدة.. هل الروبوتات الشخصية يمكن أن تكون قاتلة؟
علينا أن لا نخاف من الروبوتات الخدمية أو المنزلية أو الترفيهية، فقد جُلبت لنا بالأساس لتسهيل الحياة علينا وجعلها أكثر إمتاعاً. ولكن حادثة الطفل الروسي تذكّرنا بأن التفكير الساذج حول الأمان المطلق الذي تتمتع به هذه الأجهزة هو محض افتراء.
ذراع روبوت أثناء مباراة للشطرنج (Others)

في الأسبوع الماضي، ووفقاً لوسائل الإعلام الروسية، قام روبوت مصمم على لعب الشطرنج بإمساك إصبع خصمه وكسرها بشكل غير قانوني خلال مباراة في بطولة موسكو المفتوحة. ويصدف أن يكون هذا الخصم مجرد طفل سنّه دون التاسعة. ووفق تصريحات المسؤولين عن البطولة فإن الطفل لم يتعرض لصدمة جراء هذه الحادثة، بل تابع بعد يوم المباريات كالعادة.

هذا فضلاً عن تأكيدات أخرى أن الحادثة غير مسبوقة، وأن الخلل لا ينمّ عن إشكال جوهري في أنظمة السلامة للروبوت. وهي محاولات من هؤلاء المسؤولين من أجل التخفيف من الصدمة ومن جدية الحادثة ورغم ذلك فإن هذا لا يلغي خطورتها وجديتها. فمع اقتراب الروبوتات من دوائر حياتنا اليومية، فإن إشكاليات برمجية من هذا القبيل قد يكون لها تداعيات ملحمية على سلامة الإنسان الشخصية.

الملاحَظ في هذه الحادثة أن القائمين على اللعبة ومن باب تبرير ما حدث أو ربما التقليل من أهميته، حاولوا إلقاء اللوم على الطفل. فالطفل، وهو اللاعب الخصم للروبوت هنا، قام بحركة سريعة من غير إعطاء المهلة الكافية للروبوت ليقوم بخطوته. ويبدو أن الروبوت قد فهم هذه الخطوة المتعجلة من الطفل على أنها محاولة للغش فقام بإجراء عنيف تَمثَّل بالضغط على إصبع الطفل ومنعه من الحركة. وهذا التبرير خطير في حد ذاته، فالحادثة تنمّ عن أمرين كلاهما يثير العديد من التساؤلات الجوهرية: أولاً، إذا كانت هذه الحادثة ناجمة عن خلل في البرمجة والإعدادات، فهذا أمر خطير من ناحية عدم كفاية الإجراءات المتبعة لضبط هذه الآلات التي قد تتحول إلى أدوات قاتلة لأي خطأ صغير في خوارزمياتها. ثانياً، إذا كان الروبوت مصمماً على ردة الفعل العنيفة هذه فإن في إعداداته الأخلاقية إشكالية، وهو خلل يمتدّ من الروبوت ليطال المبرمجين القائمين عليه ومساءلتهم عن الجهة التي أعطتهم الحقّ في برمجة روبوت يقوم بعملية المحاكمة الذاتية وتنفيذ الحكم بشكل آلي بهذه الطريقة.

قضية الإعدادات الأخلاقية من أكثر القضايا إلحاحاً عند الحديث عن روبوتات الذكاء الصناعي، وهي قضية خلافية بامتياز، ولم يتم التوصل حتى الآن إلى ميثاق شرف ينظّم هذه الإعدادات بطريقة تحافظ على أمن وسلامة المستخدمين من جهة، وتحافظ من جهة أخرى على القيم الإنسانية الكبرى كحقوق الإنسان وعدم التمييز بناء على لون البشرة والجنس والجندر. والكثير منا أصبح على دراية بقصة المبرمجة جوي بولامويني التي خضعت للتمييز الرقمي عندما فشل نظام تحليل الوجه في التعرف عليها بسبب بشرتها السوداء، إذ لم يحدث التعرُّف عليها حتى لبست قناعاً أبيض. وفي حالة الطفل الروسي نلحظ أن الروبوت قد تَعرَّف على الفعل الذي رآه خطأً وقام باتخاذ خطوة عقابية ضده، ولكنه لم يميّز طبيعة الخصم قبالته الذي هو مجرد طفل لم يتم التاسعة من عمره.

قضية تَعرُّض الإنسان لإيذاء من طرف الروبوتات ليست بالأمر الجديد، فوفقاً لدراسة أُجريَت عام 2015، يُقتَل شخص واحد كل عام بواسطة روبوت صناعي في الولايات المتحدة وحدها. في الواقع، ووفقاً لإدارة السلامة المهنية الأمريكية، فإن معظم الحوادث المهنية منذ عام 2000 التي شملت الروبوتات كانت تنتج عنها وفيات. يُذكَر أن أول حالة سُجّلَت لموت إنسان من الروبوت كانت عام 1979 عندما سُحق روبرت ويليامز بواسطة ذراع روبوت وزنه طن في خط إنتاج فورد في ولاية ميشيغان. وفي عام 2015 قتل روبوت مقاولاً يبلغ من العمر 22 عاماً في أحد مصانع فولكس فاغن الألمانية حيث أمسك به وسحقه على صفيحة معدنية. كما تم تحميل الروبوتات المستخدمة في الجراحة الطبية مسؤولية وفاة 144 شخصاً بين عامَي 2008 و2013. وفي الآونة الأخيرة، قُتلت إيلين هيرزبرغ، المرأة البالغة من العمر 49 عاماً، على يد سيارة أوبر ذاتية القيادة بسرعة 40 ميلاً في الساعة في أثناء عبورها الطريق في ولاية أريزونا الأمريكية عام 2018.

رغم أن هذه الأمثلة وغيرها ما زالت تدلّ على حوادث قليلة وربما معزولة، فإنه مع تنامي اعتمادنا على أجهزة الذكاء الصناعي فإن هذه الحوادث يجب أن تؤخذ بعين الاعتبار. إننا نتجه يوماً بعد يوم إلى عالَم إنترنت الأشياء Internet of Things، وهي تكنولوجيا ربط جميع الأجهزة بالإنترنت عن طريقة تكنولوجيا الذكاء الصناعي، ومنحها القدرة على التواصل في ما بينها. على سبيل المثال، يمكن أن يحدث غداً تواصل بين ثلاجتك الذكية في البيت وهاتفك النقال لتذكيرك بضرورة الذهاب إلى السوبرماركت لابتياع بعض الحاجات، أو قد يحدث تواصل بين آلة عمل القهوة الذكية وسيارتك بحيث إذا اقتربت من البيت تقوم السيارة بالطلب من الآلة لإعداد القهوة لك على موعدها، وهكذا. باختصار، في وقت قريب يمكن أن نكون محاطين بشكل كامل بالروبوتات. ومن هنا ينبغي عدم التساهل في الخوارزميات تجاه الإعدادات الأخلاقية وإعدادات السلامة، بحيث لا ننقلب إلى واقع خارج نطاق سيطرتنا تكون فيه حياتنا وحقوقنا الأساسية عرضة للخطر والإيذاء.

وهنا لا أتحدث عن مجرد خيال علمي، بل عن واقع آخذ بالتطور سريعاً، فالروبوتات المنزلية كانت موجودة منذ سنوات، ومع الوقت أصبحت أكثر فائدة للإنسان. خذ على سبيل المثال المكانس الكهربائية الروبوتية المسماة Roomba التي طُرحت في الأسواق منذ عقدين من الزمن، وتطورت من روبوتات آلية بسيطة نسبياً إلى أجهزة ذكية تعمل مع مكبّرات صوت مزوَّدة ببرامج الذكاء الصناعي وتتضمن نظام رؤية قادراً على مسح الغرفة التي يُراد تنظيفها رقمياً. يمكن لأحدث طراز من Roomba التجول من وإلى أماكن الشحن، كما يمكن أن تقوم بإفراغ حمولتها من القمامة ذاتياً في صندوق مُعَدّ مسبقاً لهذا الغرض، كما قامت شركة أمازون بإدماج نوع مشابه من تقنية الملاحة لبناء روبوت أمني يُسمَّى "أمازون أسترو"، يشبه هذا الروبوت الصغير الروبوت الشهير في فيلم Wall-E، إذ يمكنه التجول في أرجاء المنزل وتسجيل الفيديو عندما لا يكون أصحابه هناك، كما أنه يعمل مساعداً شخصياً يمكنه التعرف على أفراد الأسرة ومتابعتهم.

علينا أن لا نخاف من الروبوتات الخدمية أو المنزلية أو الترفيهية، فقد جُلبت لنا بالأساس لتسهيل الحياة علينا وجعلها أكثر إمتاعاً. ولكن حادثة الطفل الروسي تذكّرنا بأن التفكير الساذج حول الأمان المطلق الذي تتمتع به هذه الأجهزة هو محض افتراء، وأن على المسؤولين القيام بإجراءات وقائية أكثر إحكاماً، فالمستخدم ليس شرطاً أن يكون إنساناً عاقلاً. يصدف أن يكون طفلاً يتصرف بطريقة عفوية، وهناك يجب أن تكون هذه الروبوتات آمنة. وبالأخير يبقى السيناريو الراديكالي الذي عبّرَت عنه إحدى حلقات فيلم الأنيميشن Love, Death + Robots، عندما تحولت مكنسة كهربائية إلى آلة قاتلة بعد أن حدث عطل في إعداداتها أدّى بالأخير إلى تخريب البيت ووضع صاحبته تحت خطر فقدان الحياة.

جميع المقالات المنشورة تعبِر عن رأي كُتَابها ولا تعبِر بالضرورة عن TRT عربي.



TRT عربي