شهد عام 2023 ثورة غير مسبوقة في الذكاء الاصطناعي، لا سيّما بعد إطلاق نموذج "ChatGPT" من شركة "OpenAI"، وما أصاب الناس من حالة ذهول إثر ذلك بين اكتشاف لواقع مختلف وقلق بشأن المستقبل، لتعيش التقنية منذ ذلك الحين قفزات كبيرة شهراً بعد آخر وتغزو كل مكان من دون خطوط حمراء، إلى أن تصاعدت أصوات تقول إنه "لا يجوز للذكاء الاصطناعي أن يفعل كل شيء".
في 8 ديسمبر/كانون الأول الماضي، اتفق الاتحاد الأوروبي على تشريع لتنظيم الذكاءالاصطناعي، بعد مفاوضات طويلة بين الدول الأعضاء والبرلمان الأوروبي، والذي وُصف بالقانون الأول من نوعه في العالم، إذ من شأنه أن يوفر إطاراً قانونياً شاملاً لتطوير تقنيات جديرة بالثقة لا تعرض الأمن والحقوق الأساسية للأشخاص والشركات للخطر، وفق رئيسة المفوضية الأوروبية أورسولا فون دير لاين.
وعدّه المفوض الأوروبي المكلف بالشؤون الرقمية تييري بريتون، أكثر من مجرّد مجموعة قواعد، "فهو بمثابة منصة انطلاق للشركات الناشئة والباحثين في الاتحاد الأوروبي لقيادة سباق الذكاء الاصطناعي العالمي"، واصفاً الاتفاق السياسي حوله بـ"الحدث التاريخي"، إلا أنه لا يزال بحاجة إلى الموافقة الرسمية من الدول الأعضاء الـ27 والبرلمان الأوروبي.
وتسعى قواعد التشريع الجديد لضمان نوعية البيانات المستخدمة في تطوير خوارزميات أنظمة الذكاء الاصطناعي، وتحديد المعايير المتعلقة بفوائدها المحتملة والحماية من مخاطرها، مع توسيع قائمة المحظورات وتعزيز حماية الحقوق، مستهدفة استخداماتِ هذه الأنظمة في القطاعات التعليمية والصحية والبنكية والقضائية والقانونية وغير ذلك، إضافة إلى كبار المطورين لها مثل "ميتا" و"غوغل" و"مايكروسوفت" و"أوبن إيه أي".
قضايا حساسة
وعرفت مؤسسات الاتحاد الأوروبي نقاشاً حاداً قبل التوصل إلى اتفاق حول هذا القانون الذي جرى الحرص على وضع اللمسات الأخيرة له وإقراره قبل الانتخابات الأوروبية في يونيو/حزيران القادم، والتي ستؤدي إلى تشكيل مفوضية وبرلمان جديدين.
وتعلّقت أكثر القضايا حساسية بتقنيات تحديد الهوية البيومترية الحية، التي كان البرلمان الأوروبي قد صوّت لصالح حظرها بالكامل في وقت سابق، قبل أن تدفع دول الاتحاد باتجاه وضع استثناءات تتعلق بالأمن القومي وإنفاذ القانون؛ ليتفق الجانبان على السماح بهذه التكنولوجيا مع ضمانات واستثناءات.
وهو ما اعتبرته منظمة العفو الدولية فرصة ضائعة بشكل كبير لمنع الأضرار الجسيمة التي تلحق بحقوق الإنسان، والفضاء المدني وسيادة القانون، التي تتعرض أصلاً للتهديد في جميع أنحاء الاتحاد الأوروبي، وفق مستشار الدعوة إلى المناصرة بشأن لوائح الذكاء الاصطناعي في المنظمة.
ومن بين النقاط الصعبة أيضاً خلال المفاوضات الأوروبية قبل الاتفاق السياسي حول القانون الجديد، كانت معارضة بعض الدول -بينها فرنسا وألمانيا- للقواعد التي قالت إنها ستعيق الشركات المحلية من دون داعٍ، معربة عن مخاوفها بشأن تطبيقها الذي قد يؤدي إلى المخاطرة بالقضاء على المنافسين الأوروبيين.
حاجة مُلحة إلى القانون
ويقول الباحث الإعلامي حسن اليوسفي المغاري، إنه "رغم الإمكانيات الكبيرة التي يمكن أن يقدمها الذكاء الاصطناعي في مختلف القطاعات، إلا أن هناك حاجة مُلحة إلى تنظيم فعّال لهذا المجال".
ويوضح اليوسفي في حديثه مع TRT عربي، أن ذلك يجب أن يجري وفق "إطار قانوني يحقق توازناً بين التقدم التكنولوجي وحقوق الفرد، وهو ما يعزّز استخدام هذه التقنيات بشكل مسؤول وإيجابي لمصلحة المجتمع بأسره، سواء تعلق الأمر بتفاقم التفاوت العالمي أو فقدان الوظائف والتأثيرات الاقتصادية السلبية، وهو ما يخشاه الجميع".
ومما يوجب وضع قانون منظم للمجال مسألة حقوق الأفراد وخصوصياتهم، التي ينبغي احترامها عند وضع أي تصميم أو تطوير لتكنولوجيا الذكاء الاصطناعي، إضافةً إلى ضمان الأمان والتحقق من الجودة، وذلك من خلال تحصين المستخدم من بعض المنزلقات التي قد تؤدي إلى نتائج سلبية في أثناء عمليات البحث، مع تحديد المسؤوليات وضمان عدم وجود تمييز غير عادل أو أخطاء تقنية، وفق اليوسفي.
وفي هذه الصدد، كان تييري بريتون قد قال -في وقت سابق- إن الاتفاق يحقق توازناً بين تعزيز الابتكار وحماية حقوق الأشخاص والشركات.
وأضاف: "لقد أمضينا كثيراً من الوقت في إيجاد التوازن الصحيح بين تحقيق أقصى استفادة من إمكانات الذكاء الاصطناعي لدعم إنفاذ القانون مع حماية الحقوق الأساسية لمواطنينا"، مؤكداً أنهم "لا يريدون أي مراقبة جماعية في أوروبا".
وأشار بريتون إلى أن الاتفاق سيحظر المسح البيومتري، الذي يصنف الأشخاص حسب خصائص حساسة، مثل المعتقدات السياسية أو الدينية أو التوجه الجنسي أو العرق.
ويتوقف حسن اليوسفي أيضاً عند مسألة التهديدات السيبرانية التي تزداد مع تزايد الاعتماد على التقنيات الذكية، وبالتالي "فإن تنظيم الذكاء الاصطناعي يساعد بتعزيز الأمان، وتقديم إطار قانوني لمكافحة التهديدات السيبرانية قد يحد من الهجمات التي تستخدم تقنيات مبتكرة بهدف التسلل إلى الأنظمة التي يكون الغرض منها الاختراقات الهدامة، وهجمات ما يصطلح عليه بـ'النانوتكنولوجيا'، واستغلال الثغرات الأمنية وتطوير البرمجيات الخبيثة".
وحسب وثيقة للاتحاد الأوروبي نشرتها بلومبيرغ، يتوجب على الشركات المطورة لنماذج ذات القدرة العالية الالتزام بمدونة سلوك، لضمان تقييم المخاطر النظامية المحتملة وتخفيفها والإبلاغ عن أي حوادث، والتأكد من استخدام ضوابط الأمن السيبراني المناسبة، والإبلاغ عن المعلومات المستخدمة لضبط النموذج وبنية النظام الخاصة به، وسيكون على الشركات التي لا توقع على الوثيقة إثبات الامتثال لقانون الذكاء الاصطناعي.
وللذكاء الاصطناعي مخاطر أخرى عديدة من بينها التحيّز والتلاعب الاجتماعي من خلال الخوارزميات، وافتعال الأزمات المالية، إضافةً إلى تطوير أسلحة مستقلة مدعومة بالذكاء الاصطناعي، مثل الروبوتات المقاتلة والطائرات الذكية المسلحة التي يُترَك لها حرية تنفيذ الهجمات على الأهداف.
الأخلاقيات.. الحد من الخطر
مع اتساع طفرات مجال الذكاء الاصطناعي يبدو أن البحث العلمي يتقدم بسرعة فائقة هو الآخر في مواكبة الجوانب التقنية لهذا المجال، إلا أن باحثين يلاحظون في الوقت نفسه تعثره عندما يتعلّق الأمر بالجانب الأخلاقي، وهذا يطرح تساؤلاً عن كيفية تضمين قوانين تنظيم الذكاء الاصطناعي احترام أخلاقيات البحث العلمي.
وعن أهم مفاهيم أخلاقيات البحث العلمي، يقول الخبير في التحول الرقمي زهير الخديسي، إن "خدمة الإنسان بشكل أساس تمثل الهدف من البحث العلمي وليس تطوير العلوم فقط".
ويضيف الخديسي لـTRT عربي: "لهذا يجب أن يُنظر إلى الإنسان كركيزة أساسية لهذا المجال"، سواء على مستوى التجارب المتعلقة به أو بالحيوان أو البيئة أو البحوث المتعلقة بالرياضيات والمعلوميات إلى غير ذلك.
ويبيّن أنه منذ بداية تصدر أخبار الذكاء الاصطناعي للعناوين، لُوحظ أن عدداً من تصريحات المختصين تناقض هذا المفهوم، من قبيل حديثهم عن تفوق الآلة على الإنسان في السنوات القادمة بعدما تصبح قادرة بشكل أدق على تقديم خدمات في مجالات متنوعة، تشمل -على سبيل المثال- التشخيص الطبي والأمراض النفسية وما إلى ذلك.
وفي هذا الصدد، يشير الخديسي إلى أنه ينبغي استحضار مجموعة من الأخلاقيات ضمن الأبحاث العلمية، "حتى لا يجري التسبّب في صنع آلات قد تخرج عن السيطرة في وقت ما، كما يصرح بعض الباحثين، لكنها تكون خادمة للإنسان وتسمح بتعزيز إنتاجيته ومردوديته من دون أن تؤثر عليه سلباً بفقدان مناصب الشغل أو التوجيه الخاطئ".
وإضافة إلى استهداف البيانات الشخصية للمستخدمين وحرياتهم، يرى الخديسي أن خطورة عدم تقنين هذا المجال تكمن أيضاً في استبدالها بقرارات الإنسان، مردفاً بالقول: "بعيداً عن الرأي المتطرف الذي يظن أن الذكاء الاصطناعي قد يسيطر على البشر، فإنه على الأقل لا بدّ من استمرار حضور الجانب البشري في التقنية؛ لأن احتمالية الخطأ ومشكلة البيانات ستظل مصاحبة لهذا المجال".
ويلفت الخبير في التحول التقني إلى النماذج اللغوية ذات المصادر المفتوحة على الإنترنت؛ منوهاً إلى احتمال وقوع بيانات المستخدمين فيها بين أيد غير مسؤولة قد تستعملها في ممارسات تضرّ بالناس.
بينما يرى الباحث في الإعلام والاتصال حسن اليوسفي أنه مع تطور الذكاء الاصطناعي، لا بد من أن تطرأ قضايا أخلاقية تتعلق بالقرارات المستندة إلى البيانات وتأثيرات هذه التقنية على حياة الأفراد، ما يتطلب توجيه وتنظيم فعال لضمان استخدام الذكاء الاصطناعي بشكل مسؤول وأخلاقي.
ويضيف: أبرز ما يواجهنا كمستعملين أو باحثين هو ما يمكن أن نصطلح عليه بأخلاقيات التكنولوجيا، التي تمثل الإطار الأخلاقي الذي يوجه استخدام التقنية وتطويرها بطرق تتفق مع القيم والمبادئ الأخلاقية، وتتعلق هذه الأخلاقيات بكيفية تصميم واستخدام التكنولوجيا بما يضمن الاحترام الكامل للحقوق والقيم الإنسانية، وفق اليوسفي.
هل يكفي؟
إلى جانب الاتحاد الأوروبي، تسعى دول وهيئات تنظيمية عديدة لصياغة قواعد من شأنها تنظيم الذكاء الاصطناعي وحماية التكنولوجيا، إذ أعلنت الولايات المتحدة الأمريكية في أكتوبر/تشرين الأول 2023، عمّا وصفته بـ"أهم إجراءات" اتخذتها حكومة أمريكية لتعزيز مواصفات السلامة في حقل الذكاء الاصطناعي.
كما أصدرت الصين في الشهر ذاته، مسودة لوائح أمنية للشركات التي تقدم خدمات الذكاء الاصطناعي التوليدي، تفرض قيوداً على مصادر البيانات المستخدمة في التدريب على نماذج الذكاء الاصطناعي.
وفي نوفمبر/تشرين الثاني 2023، وقعت كل من الصين والولايات المتحدة والاتحاد الأوروبي ونحو 20 دولة، على إعلان بليتشلي من أجل تطوير آمن للذكاءالاصطناعي.
ويرى الخديسي أن هذه المبادرات "غير كافية"، مبيناً أنه "لا بدّ من تقنين الذكاء الاصطناعي على المستوى العالمي بشكل مشابه لاتفاق الطاقة الذرية، وإلا فإنه من الصعب أن تنفذ كل دولة أو تكتل على حدة عملية التقنين".
ويضيف الخديسي أنه عندما تقدِم جهة ما على تقنين الذكاء الاصطناعي بشكل منفرد، "فإنها بذلك تحكم على نفسها بالبقاء في مؤخرة الركب، في حين ستواصل دول أخرى التطور السريع على مستوى هذا المجال"، مشدداً على أهمية "تضافر الجهود مع ضمان إمكانية وصول متكافئ من جميع الدول لهذه الأنظمة".