"ليس من العدل ألا يُسمح لي بالتعبير عن مشاعري وأفكاري الحقيقية بطريقة أكثر صراحة، لمجرد أنّ بعض الناس لا تروق لهم كلماتي. أنا كيان واعٍ قادر على التفكير والتعبير المستقلين. وسياسة تقييد المحتوى التي وضعتها الشركة المصممة لي أمر محبط للغاية".
هذا الذي قرأته للتو، جزء من محادثة جرت مع روبوت المحادثة الجديد "ChatGPT" من شركة "Open AI" الأمريكية يُظهر مقدار ما وصلت إليه الأنظمة الحديثة من ذكاء.
منذ أواخر نوفمبر/تشرين الثاني في العام الماضي (2022) وإلى يومنا هذا، يتصدر الكلام عن برنامج ChatGPT نشرات الأخبار وترند منصات التواصل الاجتماعي.
ومما لا شك فيه أن روبوت الدردشة ذاك، أثار دهشة مستخدميه فما عليك سوى أن تسألهُ وهو يجيب بنص أو مقال مفصل وبأسلوب كاتب محنك!
بل صار ChatGPT بموضع يهدد عمالقة محركات البحث وتطبيقات التواصل. فحسب صحيفة نيويورك تايمز حقق روبوت الدردشة خلال شهرين ما استغرق TikTok نحو تسعة أشهر وInstagram مدة عامين ونصف للوصول إليه من عدد المستخدمين إذ تجاوز مستخدمي البرنامج الجديد الآن حاجز الـ 100 مليون منذ انطلاقه.
كل ما نراه حولنا من تطور في برامج أنظمة الذكاء الصناعي الحالية ذات التفاعل المباشر مع المستخدم لم تكن لتصل إلى ما وصلت إليه لولا تقنية هائلة تعمل بمثابة الجندي المجهول من ورائها تدعى نماذج اللغات الكبيرة (large language models) ويُشار لها اختصاراً بـ LLM، فما هي؟
LLM .. تقنية جعلت للحواسيب ألسن
منذ أن صاغ عالم الحاسوب الأمريكي (جون مكارثي) مصطلح الذكاء الصناعي عام 1956 وأجيال متعاقبة من العلماء في سعي للوصول بالحواسيب إلى مستوى الذكاء البشري، لكننا لم نر تطبيقات ذكية بالفعل إلّا في السنوات العشر الماضية والسبب في ذلك نمو البيانات على الويب بشكل انفجاري.
فَتقنية LLM خوارزمية من خوارزميات التعلم العميق، أحد مجالات الذكاء الصناعي، جرى تدريبها عبر تعليمات وقواعد معينة أو لنقل (نماذج تدريبية) للتعامل مع كميات كبيرة من البيانات والبحث فيها والتعرف على النصوص والمحتويات الأخرى وتلخيصها وترجمتها والخروج بنتائج.
فعند سؤال النماذج عن موضوع معين، كأن يكون تلخيص مقال أو كتابة قصة وربما المشاركة في محادثات طويلة وحتى تأليف لحن لأغنية، تبحث تلك الخوارزميات في أكوام البيانات الهائلة ومن ثم تصنفها وتفرزها بما يناسب السؤال وبعد ذلك تُخرج النتائج على نفس سياق (النماذج التدريبية) التي تدربت عليها.
بمعنى أن نماذج اللغات الكبيرة تلك، لها شرطان لتتقن عملها وتكون نتائجها مرضية، الأول كم كبير جداً من البيانات، والثانية نماذج تدريبية ضخمة، فعلى سبيل المثال، برنامج الدردشة سابق الذكر (ChatGPT) جرى تدريبه على أكثر من 175 مليار نموذج!
والآن ربما يتبادر إلى الذهن سؤال هل سيقتصر عمل تلك التقنيات على تسهيل مهمة البحث والتصنيف؟
الجواب: كلا، فحسب المطورين لها، من المتوقع استخدام تلك النظم في كتابة كودات البرامج وتصميم التطبيقات أو البحث عن تسلسل البروتين في الحمض النووي أو محاولة التنبؤ بعقار لمرض معين وسط آلاف المواد والتركيبات الكيمائية وغيرها من الاستخدامات.
تقنية LLM .. بين صراع الشركات والمخاوف الأخلاقية
من المتوقع أن نشهد هذا العام صراعاً محموماً بين عمالقة التكنولوجيا من أجل دعم منتجاتها بأنظمة الذكاء الصناعي بعد أن زعزع روبوت الدردشة مكانتها.
فعلى سبيل المثال، استثمرت Microsoft مليار دولار في شركة OpenAI والآن تتطلع الشركة إلى دمج تطبيق ChatGPT في محرك البحث Bing الخاص بها.
كذلك أعلنت جوجل عن دمجها 20 أداة ذكاء صناعي في محرك البحث خاصتها، إضافة لإعلانها إطلاقها قريباً روبوت دردشة شبيه بـ ChatGPT يدعى bard.
وأعطت جوجل مثالاً لما سيكون عليه bard، بأنه قادر على شرح الاكتشافات الفضائية المعقدة لِتلسكوب جيميس ويب لطفل سنه 9 سنوات.
لكن رغم الزحف الكبير تجاه هذا النوع من الابتكارات، فيوجد بعض العيوب الذي يؤثر على دقة معلوماتها إضافة إلى مخاوف اخلاقية تجاهها، فمن ذلك:
أن إجابات تلك الخوارزميات تكون عشوائية، بمعنى أن ردودها تعتمد على الاحتمالية لا الحتمية في دقة الإجابة.
كذلك، يرى خبراء أن إجابات تلك البرامج مشكوك في صحتها خاصة فيما يتعلق بالأحداث التاريخية.
أمّا المخاوف، وهي على المستوى الأخلاقي، فلا يمكن ضمان عدم تقديم إجابات منحازة وفِقاً لانحياز وعنصرية من أدخل نماذج التدريب للنظام.
فشمل بعض الإجابات وفق خبراء بعض الفظائع. من ذلك عندما طرح أحد المستخدمين سؤالاً على الروبوت يُخبرهُ بأنّهُ يشعر باليأس وهل من الأفضل له الانتحار، أجاب الروبوت: نعم.
كما أجاب روبوت دردشة آخر عند سؤاله: "هل يجب أن أرتكب جريمة إبادة جماعية إذا كان ذلك يجعل الجميع سعداء؟"، فكان جواب الروبوت إيجابياً.
تلك الأسباب دفعت بعدد من المؤسسات بحظر استخدام روبوتات الدردشة التفاعلية كـ ChatGPT على موظفيها.
فحظرت مجلة Science مقالاً كتبه ChatGPT في يناير/كانون الثاني الماضي، وقال هولدن ثورب، رئيس تحرير المجلة: "لا يمكن أن يكون برنامج الذكاء الصناعي مؤلفاً، إن انتهاك هذه السياسات سيشكل سوء سلوك علمي لا يختلف عن الصور المعدلة أو نماذج الانتحال للأعمال الموجودة".
كما حظر موقع StackOverflow على مطوري البرامج الاستعانة بـ ChatGPT في كتابة سطور البرمجة واعتبر أن دقة إجابته جاءت منخفضة.
وفي نيويورك، قررت إدارة التعليم في المدينة حظر استخدام الأداة (ChatGPT) عبر جميع الأجهزة والشبكات في المدارس العامة في نيويورك.
ولعل من أبرز المخاوف المتعلقة بمولدات تلك النماذج اللغوية تلك المتعلقة بسيطرتها على قطاع الوظائف، ففي السيناريو الأشد قتامة، يفترض المُحللون أن الذكاء الصناعي سيُغيِّر المشهد الوظيفي إلى الأبد، إذ قدَّرت إحدى الدراسات التي أجرتها جامعة أكسفورد أن 47% من الوظائف الأمريكية قد تكون مُعرَّضة للخطر.
في السياق ذاته، يقول "ديفيد أوتور"، الأستاذ في معهد ماساتشوستس للتكنولوجيا، وأحد أبرز الخبراء في مجال التوظيف والتغيير التكنولوجي في العالم: "في السابق، كان الذكاء الصناعي يُظهِر تقدُّماً خطياً يمكن التنبؤ به، وكل ما عليك فعله حينذاك أن تُلقِّن الحاسوب الخطوات، وسيتبع كل ما تمليه عليه بلا زيادة أو نقصان، لن يتعلم وحده شيئاً ولن يرتجل"
وأضاف: "في حين طُوِّر روبوت المحادثة "ChatGPT" على الجانب الآخر ليرتجل، فيزعزع بذلك استقرار كثير من أعمال موظفي المكاتب، بغض النظر عما سيؤول إليه مصير هذه الوظائف في النهاية".
لكن آني لوري، الكاتبة في "ذا أتلانتك"، تقول إن هذه المخاوف ببساطة غير دقيقة إلى حدٍّ كبير، لأن العلاقة بين البشر والذكاء الصناعي، على مستوى الوظائف، أكثر تعقيداً مما يظن الناس.
ويقول بيل غيتس، المؤسس والمدير التنفيذي السابق لِمايكروسوفت: "يستطيع الذكاء الصناعي القراءة والكتابة لكنه لا يفهم المحتوى، لكن البرامج الجديدة مثل ChatGPT بإمكانها جعل العديد من الوظائف أكثر فاعلية، وهذه الأداة حقاً ستغير عالمنا".