فصلت شركة غوغل مهندساً يعمل لديها قال إن نظام الذكاء الصناعي للشركة يملك مشاعر.
وقال بلايك ليموين الشهر الماضي إن تقنية غوغل اللغوية واعية، وبالتالي "يجب احترام رغباتها".
من جانبها نفت غوغل وعدد من خبراء الذكاء الصناعي، مزاعم ليموين، وأكدت الجمعة أنها أقالت المهندس.
وفي بيان أوضحت غوغل أن مزاعم ليموين بشأن نموذج اللغة لتطبيقات الحوار المعروف باسم لامدا "لا أساس لها على الإطلاق". وقالت إنها عملت معه لعدة أشهر لتوضيح ذلك.
وأوضح بيان للشركة "لذلك، من المؤسف أنه على الرغم من الانخراط المطول في هذا الموضوع، لا يزال بلايك يختار باستمرار انتهاك سياسات التوظيف وأمن البيانات الواضحة التي تتضمن الحاجة إلى حماية معلومات المنتج".
ولامدا هي تقنية متطورة وأداة الشركة لبناء روبوتات المحادثة.
والشهر الماضي قال ليموين إن لامدا كانت تُظهر وعياً شبيهاً بالإنسان. وهو ما أثار نقاشاً بين خبراء الذكاء الصناعي والمتحمسين بشأن تطور التكنولوجيا المصممة لانتحال شخصية البشر.
وقال ليموين، الذي عمل مع فريق الذكاء الصناعي المسؤول في غوغل، لصحيفة واشنطن بوست، إن وظيفته كانت اختبار ما إذا كانت التكنولوجيا تستخدم خطاباً تمييزياً أو يحض على الكراهية.
وزعم أنه أن "لامدا أظهرت وعياً ذاتياً ويمكنها إجراء محادثات حول الدين والعواطف والمخاوف". وهو ما دفع ليموين إلى الاعتقاد بأن وراء مهارات لامدا اللفظية المثيرة للإعجاب، ربما يكمن عقل واع أيضاً.
ورفضت غوغل النتائج التي توصل إليها وقالت في بيانها إنها تأخذ التطوير المسؤول للذكاء الصناعي "على محمل الجد" ونشرت تقريراً يفصّل ذلك.
وأضافت أنها راجعت "على نطاق واسع" أي مخاوف لدى الموظفين بشأن تكنولوجيا الشركة، وأن لامدا خضعت لـ 11 مراجعة.
واختتمت البيان بانها "نتمنى لبلايك (ليموين) التوفيق".
وبلايك ليموين ليس أول مهندس ذكاء صناعي يقول أن التقنية أصبحت أكثر وعياً. ففي الشهر الماضي أيضا، شارك موظف آخر في غوغل أفكاراً مماثلة مع مجلة "الإيكونوميست".