تزداد مخاطر تجسيد الذكاء الاصطناعي للصفات البشرية، بسبب القدرات الصوتية الجديدة لبرنامج GPT-4o/ صورة: أرشيف Reuters (Dado Ruvic/Reuters)
تابعنا

وقالت الشركة إنها أخذت في الاعتبار إمكانية قيام المستخدمين بتكوين اعتماد عاطفي على الصوت الجديد الشبيه بالإنسان، مشيرة في تقرير لها صادر الأسبوع الماضي، الذي تناول تقييمات السلامة التي اتُخذت في أثناء تطوير المنتج، إلى أنه خلال الاختبارات المبكرة، لوحظ أن المستخدمين يتفاعلون بلغة قد تشير إلى تكوين روابط مشتركة مع البرنامج في أثناء المحادثة.

وأشار التقرير إلى أنه في إحدى المحادثات على سبيل المثال، قال أحد المستخدمين متأثراً للبرنامج: "هذا هو آخر يوم لنا معاً"، ويرى التقرير أن تلك الحالات قد تبدو حميدة، لكنها تشير إلى الحاجة لمواصلة التحقيق في كيفية ظهور هذه التأثيرات على مدى فترات زمنية أطول.

تطور يدعو إلى القلق

تزداد مخاطر تجسيد الذكاء الاصطناعي للصفات البشرية، بسبب القدرات الصوتية الجديدة لبرنامج GPT-4o، والتي تسمح بإجراء محادثة طبيعية معه، ما قد يقلل من الحاجة إلى التفاعل البشري، "وهو ما قد يكون مفيداً لأولئك الذين يعانون الوحدة، ولكنه قد يؤثر سلباً في العلاقات الصحية"، وفقاً للتقرير.

وفي هذا السياق، نشرت صحيفة "نيويورك تايمز" تقريراً يتناول فيه مخاطر هذه التقنية، إذ قال بليز أور، أستاذ علوم الكمبيوتر في جامعة شيكاغو الذي يدرس التفاعلات بين الإنسان والحاسوب، إنه بعد أن قرأ التقرير، بات غير متأكد من أن شركة OpenAI أجرت الاختبارات الكافية قبل طرحه.

وأشار أور للصحيفة إلى حالات التلاعب العاطفي التي تنطوي على هذه المميزات الصوتية للذكاء الاصطناعي قائلاً: "في مجتمع ما بعد الوباء، أعتقد أن الكثير من الناس يعانون هشاشة عاطفية. والآن بعد أن أصبح لدينا هذا الوكيل الذي يمكنه اللعب بمشاعرنا بطرق عديدة -إنه ليس وكيلاً واعياً، ولا يعرف ماذا يفعل- يمكننا أن نتعرض لمثل هذه المواقف".

من جهتها أبدت شركة OpenAI قلقها من إمكان أن تتسبب الواقعية الكبيرة في الصوت المرفق في نموذجها الأخير في تعلق المستخدمين بالتفاعلات الآلية على حساب العلاقات البشرية، "إذ إن قدرة الذكاء الاصطناعي على تذكّر التفاصيل في أثناء المحادثة وإنجاز المهام قد تجعل الناس يعتمدون بشكل مفرط على التكنولوجيا".

ولتجنّب حدوث ذلك في المستقبل، قالت الشركة إنها ستجري قدراً أكبر من الاختبارات لفحص كيف يمكن لقدرات الصوت في الذكاء الاصطناعي أن تجعل الناس مرتبطين عاطفياً بالبرنامج الآلي.

من فيلم إلى حقيقة

وفي تصريحات سابقة، قالت الممثلة سكارليت جوهانسون، التي أدت صوت تقنية الذكاء الاصطناعي في الفيلم الأمريكي "Her"، إن شركة OpenAI استخدمت صوتاً بدا "مشابهاً لها بشكل مخيف" على الرغم من رفضها عرضاً بترخيص صوتها.

واعتذرت الشركة للممثلة الأمريكية لاستخدام البرنامج صوتاً يشبه صوتها بعد أن وكلت محامياً لمقاضاتها، وأصرت جوهانسون على أن تتوقف OpenAI عن استخدام الصوت، الذي أطلقت عليه الشركة اسم "Sky"، ما دفع الشركة إلى تعليق إصداره.

وعلى الرغم من أن الشركة نفت أن يكون الصوت الذي استخدمته لجوهانسون، لكن رئيسها التنفيذي سام ألتمان يستخدم عبارة "هير" للإشارة إلى النسخة الجديدة من البرنامج عبر وسائل التواصل الاجتماعي، كما قال سابقاً عن "هير" إنه فيلمه المفضل عن التكنولوجيا.

وفي فيلم "هير" الصادر عام 2013 ، يقع بطل الفيلم، الذي يلعب دوره الممثل خواكين فينيكس، في حب برنامج الذكاء الاصطناعي الذي أدت سكارليت جوهانسون صوته، وبعد بناء علاقة عميقة مع الآلة والتعلق بها، ينتابه الحزن الشديد عند اكتشافه أن الذكاء الاصطناعي لديه علاقات مشابهة مع مستخدمين آخرين أيضاً.

TRT عربي - وكالات