"أوبن إيه آي" قلقة من تعلّق المستخدمين عاطفيًا بمساعدها الصوتي

هذا الخطر قد يزداد بسبب القدرات الصوتية لـGPT-4o.

أبدت شركة "أوبن إيه آي" المطورة لنموذج "تشات جي بي تي" قلقها من أن تتسبب الواقعية الكبيرة في الصوت المرفق ببرنامجها للذكاء الاصطناعي تعلّق المستخدمين بالتفاعلات الآلية على حساب العلاقات البشرية.

أشارت الشركة، والتي تتخذ مقرًا لها في سان فرانسيسكو، في تقرير إلى أن الدردشة مع الذكاء الاصطناعي كما قد يفعل المرء مع شخص آخر قد تدفع بالمستخدمين إلى أن يضعوا ثقة في غير محلها بالبرامج الآلية. كما أن الجودة العالية للصوت المدمج بنسخة "جي بي تي- 4 أو" (GPT-4o) من "تشات جي بي تي" قد تفاقم هذا التأثير. وقالت "أوبن إيه آي"، في التقرير عن العمل الأمني الذي تقوم به على نسخة ChatGPT-4o من برنامج الذكاء الاصطناعي الخاص بها، إن تقنيات التشبيه بالإنسان Anthropomorphization تتضمن إسناد سلوكيات وخصائص خاصة بالبشر إلى كيانات غير بشرية، مثل نماذج الذكاء الاصطناعي.
كما حذّرت من أن:"هذا الخطر قد يزداد بسبب القدرات الصوتية لـGPT-4o، والتي تسهّل المزيد من التفاعلات الشبيهة بالإنسان مع البرنامج الآلي". وقالت الشركة إنها لاحظت أن المستهلكين يتحدثون إلى الذكاء الاصطناعي بطرائق تشير إلى روابط مشتركة، مثل التذمر بصوت عالٍ أمام البرنامج الآلي.

لفتت إلى أن هذه الحالات تبدو حميدة، ولكن يتعيّن دراستها لمعرفة كيفية تطورها على مدى أوقات أطول من الزمن. وتكهنت "أوبن إيه آي" بأن التفاعل الاجتماعي مع الذكاء الاصطناعي قد يجعل المستخدمين أقل مهارة أو ميلًا للتواصل مع البشر. وأشار التقرير إلى أن: "التفاعل الموسّع مع البرنامج قد يؤثر على المعايير الاجتماعية"، مضيفًا: "على سبيل المثال، نماذجنا تتعامل بتواضع مع المستخدمين. وهذا يسمح لهم بالمقاطعة وأخذ الدور في الكلام في أي وقت، وهذا يتعارض مع آداب الحديث في التفاعلات البشرية، في حين أنه متوقع مع الذكاء الاصطناعي". كما أن قدرة الذكاء الاصطناعي على تذكّر التفاصيل في أثناء المحادثة وإنجاز المهام قد تجعل الناس يعتمدون بشكل مفرط على التكنولوجيا.

بديل عن البشر؟ 

قال ألون يامين، وهو المؤسس المشارك والرئيس التنفيذي لمنصة "كوبي ليكس" المتخصصة في رصد عمليات السرقة الأدبية من خلال الذكاء الاصطناعي، إن: "المخاوف الأخيرة التي شاركتها أوبن إيه آي حيال الاعتماد المحتمل على الخدمة الصوتية في تشات جي بي تي تشير إلى ما بدأ الكثيرون بالفعل في طرحه: هل حان الوقت للتوقف والتفكير في كيفية تأثير هذه التكنولوجيا على التفاعل البشري والعلاقات؟.

كما شدد يامين على ضرورة ألا يكون الذكاء الاصطناعي أبدًا بديلًا للتفاعل البشري الفعلي. وقالت "أوبن إيه آي" إنّها ستختبر بشكل أكبر كيف يمكن لقدرات الصوت في الذكاء الاصطناعي أن تجعل الناس مرتبطين عاطفيًا بالبرنامج الآلي. وقد تمكنت الفرق التي اختبرت القدرات الصوتية في نسخة ChatGPT-4o، أيضًا من دفعها إلى تكرار معلومات كاذبة وإنتاج نظريات مؤامرة، ما أثار مخاوف من إمكان أن يُحمل الذكاء الاصطناعي إلى القيام بذلك بصورة تلقائية. وأُجبرت شركة "أوبن إيه آي" على الاعتذار للممثلة الأميركية سكارليت جوهانسون في حزيران/يونيو لاستخدام البرنامج صوتًا يشبه صوتها في أحدث روبوت دردشة، ما سلّط الضوء على التجاوزات المحتملة لتقنية استنساخ الصوت. مع أن الشركة نفت أن يكون الصوت الذي استخدمته هو لجوهانسون، إلا أن استخدام الرئيس التنفيذي للشركة سام ألتمان عبارة Her "لها" للإشارة إلى النموذج الجديد عبر وسائل التواصل الاجتماعي زاد من الشكوك في هذا المجال.

والمقصود بـــ"لها" هو فيلم “Her” أدت جوهانسون فيه صوت شخصية من الذكاء الاصطناعي، حيث قال ألتمان سابقًا إنه فيلمه المفضل عن التكنولوجيا. 

المصدر: الوكالة الفرنسية(أ ف ب)