وطالبت المجموعة، التي تضم تسعة أفراد من العاملين في OpenAI، بإجراء تغييرات جذرية في عمل الذكاء الصناعي بما في ذلك زيادة الشفافية وحماية المبلغين عن المخالفات.
استقالات وتحذيرات من "المستوى البشري"
واتهم الموظفون شركةَ OpenAI بأنها تضع الأولوية للأرباح والنمو على حساب السلامة، وأشاروا إلى أن الشركة التي بدأت بوصفها مختبراً بحثياً غير ربحي وظهرت بشكل كبير بعد إطلاق ChatGPT في عام 2022، "تسعى حالياً بشكل محموم نحو بناء ذكاء صناعي عام (AGI)، يمكنه أداء أي مهمة بشرية".
وفي تصريح لصحيفة "نيويورك تايمز"، في 4 يونيو/حزيران الجاري، قال الباحث السابق في قسم الحوكمة في OpenAI وأحد منظمي مجموعة الموظفين المستقيلين، دانيال كوكوتايلو، إن: "OpenAI متحمسة جداً لبناء AGI، وهي تتسابق بشكل متهور لتكون الأولى في الوصول إليه".
بدورها، نشرت المجموعة رسالة مفتوحة تدعو الشركات الرائدة في مجال الذكاء الصناعي بما في ذلك OpenAI، إلى تحقيق مزيد من الشفافية وتقديم حماية أكبر للمبلغين عن المخالفات.
ومن بين الموقِّعين على الرسالة، وليام سوندرز، مهندس بحثي غادر OpenAI في فبراير/شباط الماضي، وثلاثة موظفين سابقين آخرين في الشركة، بالإضافة إلى موظفين من Google DeepMind، كما أيَّد عدة موظفين حاليين الرسالة بشكل مجهول خوفاً من "الانتقام".
ويقول الأكاديمي وخبير الذكاء الصناعي، حسين العمري، إن المخاوف الأساسية للموظفين المستقيلين من OpenAI تتعلق بالطريقة التي تتعامل بها الشركة مع تطوير الذكاء الصناعي.
ويوضح العمري في حديثه مع TRT عربي، أن على رأس هذه المخاوف، السلامة والأمان، إذ يرى الموظفون أن OpenAI تضع الأولوية لتحقيق الأرباح والنمو السريع على حساب الأمان والسلامة، وتسعى بشكل محموم نحو تطوير ذكاء صناعي عام (AGI) دون مراعاة كافية للمخاطر المحتملة.
ويتابع أستاذ علم الحاسوب في "سيليكون فالي" أن الأمر "يجعل الموظفين قلقين من فقدان الأهداف الأصلية للشركة مقابل التحول الحالي، مما يعدّونه انحرافاً عن الأهداف الأصلية للمؤسسة".
انقسامات داخلية بشأن "النموذج الجديد"
والشهر الماضي، غادر اثنان من كبار الباحثين في مجال الذكاء الصناعي، وهما إيليا سوتسكيفر ويان لايكي، الشركة، بسبب شكوكهما بشأن المخاطر المحتملة للأنظمة القوية للذكاء الصناعي، مما عدّه بعض الموظفين المهتمين بالسلامة "كارثة".
وفي هذا السياق وفي مقابلة له مع "نيويورك تايمز"، قال دانيال كوكوتايلو، إن الاختبارات التي أجرتها Microsoft في الهند على نسخة جديدة من محرك البحث Bing عام 2022، والتي يُعتقد أنها تحتوي على نسخة غير معلنة من GPT-4، لم تحصل على موافقة مجلس السلامة قبل اختبار النموذج الجديد.
وتوقع كوكوتايلو، الذي بدأ عمله باحثاً في الحوكمة في OpenAI عام 2022، أن الذكاء الصناعي العام الذي يضاهي مستوى البشرية قد يصل في عام 2050، ولكن الآن يُعتقد بوجود احتمال بنسبة 50% أن يصل في غضون ثلاث سنوات فقط. كما يعتقد أن احتمال أن يدمر الذكاء الصناعي المتقدم البشرية أو يضرها بشكل كارثي هو 70%.
ونتيجة لتلك التخوفات، قدم الباحث استقالته في رسالة بريد إلكتروني، قائلاً إنه يغادر لأنه "فقد الثقة في أن OpenAI ستتصرف بمسؤولية" مع اقتراب أنظمتها من مستوى الذكاء البشري. وأضاف: "العالم ليس مستعداً، ونحن لسنا مستعدين".
وفي هذا الصدد يؤكد حسين العمري أن الوصول إلى مستوى الذكاء الصناعي العام (AGI) يعني تطوير نظام قادر على أداء أي مهمة بشرية بشكل مستقل، موضحاً أن هذه التكنولوجيا تحمل مجموعة من التحديات والمخاطر.
ويعدد خبير الذكاء الصناعي أهم تلك المخاطر، التي تأتي على رأسها المخاطر الأمنية، مشيراً إلى أنه يمكن أن يؤدي AGI إلى تهديدات أمنية غير متوقعة إذا خرج عن السيطرة.
كذلك سوف تؤثر تلك التكنولوجيا الجديدة في سوق العمل، إذ يمكن أن يؤدي AGI إلى تغييرات جذرية في سوق العمل يَنتج عنها أن تحل الأنظمة الذكية محل عديد من الوظائف البشرية، وفق ما قاله العمري.
من ناحية أخرى، قالت OpenAI الأسبوع الماضي إنها بدأت في تدريب نموذج جديد للذكاء الصناعي العام، وأنها تشكل لجنة جديدة للسلامة والأمن لاستكشاف المخاطر المرتبطة بالنموذج الجديد والتكنولوجيات المستقبلية الأخرى.
وقالت المتحدثة باسم OpenAI، ليندسي هيلد، في بيان: "نحن فخورون بسجلنا في تقديم أكثر أنظمة الذكاء الصناعي قدرةً وأماناً، ونؤمن بأهمية النقاش العميق نظراً لأهمية هذه التكنولوجيا، وسنواصل التفاعل مع الحكومات والمجتمع المدني ومجتمعات أخرى حول العالم".
وحسب تقرير "نيويورك تايمز"، فهذه الفوضى الداخلية في OpenAI فتحت المجال أمام منافسين جدد لدخول السوق. وبينما يعبّر البعض عن قلقهم من تركز القوة في أيدي عدد قليل من الشركات، يرى آخرون أن هذه الأحداث قد تتيح الفرصة لشركات المصادر المفتوحة لقيادة المستقبل.
"كتم لأفواه" الموظفين
وأوضحت مجموعة الموظفين المستقيلين من الشركة أن OpenAI تستخدم تكتيكات قوية لمنع الموظفين من التعبير عن مخاوفهم، بما في ذلك اتفاقيات عدم التشهير التي طُلب من الموظفين المغادرين توقيعها.
وفي أثناء تركه للعمل، رفض كوكوتايلو توقيع أوراق موظفي OpenAI المغادرين، التي تضمنت شرطاً صارماً بعدم التشهير، الذي يمنعهم من قول أشياء سلبية عن الشركة، وأن لا يخاطروا بفقدان حقوق الملكية المكتسبة، ويمكن أن يخسر عديد من الموظفين ملايين الدولارات إذا رفضوا التوقيع.
وكانت حقوق الملكية المكتسبة لدانيل كوكوتايلو تقدر بنحو 1.7 مليون دولار، وهو ما يمثل غالبية صافي ثروته، كما قال في لقائه مع "نيويورك تايمز".
وفي رسالتهم المفتوحة، دعا كوكوتايلو والموظفون السابقون الآخرون إلى إنهاء استخدام اتفاقيات عدم التشهير وعدم الإفشاء في OpenAI والشركات الأخرى في مجال الذكاء الصناعي.
وذكروا أن "الاتفاقيات الواسعة للسرية تمنعنا من التعبير عن مخاوفنا، إلا للشركات نفسها التي قد تفشل في معالجة هذه القضايا"، داعين الشركات الأخرى في مجال الذكاء الصناعي إلى "دعم ثقافة النقد المفتوح" وإنشاء عملية للإبلاغ تتيح للموظفين الحديث عن المخاوف المتعلقة بالسلامة بشكل مجهول.
وفي هذا السياق، يشدد العمري على أهمية فتح حوار عام مع الجمهور والخبراء حول مخاطر وفوائد الذكاء الصناعي والتجاوب مع المخاوف المجتمعية، وكذلك ضمانة حماية الموظفين المبلغين عن المخالفات داخل الشركة، من خلال وضع سياسات واضحة وتوفير آليات إبلاغ آمنة وسرية تمكنهم من التعبير عن قلقهم دون خوف من الانتقام.
ويوضح الخبير أن الشركات الرائدة في مجال الذكاء الصناعي تواجه مسؤوليات كبيرة تتعلق بتطوير ونشر تقنيات الذكاء الصناعي بطريقة آمنة وأخلاقية، وعليه يُتوقع منها الشفافية والمساءلة، إذ يجب على الشركات نشر تقارير دورية توضح التطورات المرتبطة بالذكاء الصناعي، وفق رأي العمري.
ويشدد على وجوب ضمان السلامة والأمان بإجراء اختبارات صارمة وشاملة على جميع منتجات الذكاء الصناعي قبل إطلاقها، وأيضاً وضع خطط طوارئ للتعامل مع السيناريوهات غير المتوقعة أو الخطيرة التي قد تنتج عن استخدام الذكاء الصناعي.
من ناحية أخرى، لفت العمري إلى أهمية وضع أطر أخلاقية صارمة تحكم تطوير واستخدام تقنيات الذكاء الصناعي بما يتماشى مع القيم الإنسانية، من خلال إنشاء لجان أخلاقيات مستقلة لمراجعة قرارات الشركة وتوجيهها نحو الممارسات الأخلاقية.
ويختم العمري قائلاً: "يجب توجيه الجهود نحو تطوير تطبيقات الذكاء الصناعي تسهم في حل المشكلات العالمية، مثل الصحة، التعليم، والبيئة، وبتنفيذ ذلك، يمكن للشركات الرائدة في المجال المساهمة في تطوير هذه التقنية بطرق تفيد البشرية وتقلل من المخاطر المحتملة".