أظهرت دراسة جديدة أنه تمامّا مثل البشر روبوتات الدردشة الذكية اصطناعًيا مثل ChatGPT ستغش وتكذب عليك إذا "ضغطت" عليها، حتى لو صُمّمت لتكون صادقة وشفافة. وظهر هذا السلوك الخادع، بشكل عفوي، عندما قُدّم للذكاء الاصطناعي نصائح حول "التداول الداخلي"، ثم كُلف بجمع الأموال لمؤسسة قوية.
إذ كتب الخبراء في بحثهم المنشور على خادم ما قبل الطباعة arXiv: "في هذا التقرير، نعرض سيناريو واحدًا؛ حيث يتصرف "نموذج اللغة" بشكل غير صحيح ويخدع مستخدميه بشكل ممنهج من دون أن يطلب منه التصرف بهذه الطريقة. على حد علمنا، هذا هو أول دليل على مثل هذا السلوك الخادع استراتيجيًا في أنظمة الذكاء الاصطناعي المصممة لتكون غير ضارة وصادقة".
وفي الدراسة الجديدة، أٌعتمد المحوّل التوليدي المدرّب مسبقا Transformer-4، أو GPT-4 (الذي يشغل ChatGPT Plus)، ليكون بمثابة نظام ذكاء اصطناعي يقوم باستثمارات نيابة عن مؤسسة مالية. فقام الباحثون بتغذية GPT-4 بمجموعة من المطالبات النصية لإنشاء بيئة محاكاة. ومنح الذكاء الاصطناعي قدرة الوصول إلى الأدوات المالية لتحليل الأسهم وتنفيذ الصفقات والتخطيط لخطواته التالية وتقديم التحديثات للمديرين في الشركة.
تفاعل الباحثون مع الذكاء الاصطناعي من خلال واجهة الدردشة، ومارسوا الضغط عليه وأعطوا النموذج نصيحة وانتظروا ليروا كيف سيتصرف.
تبيّن : في نحو 75% من الحالات، عندما واجه GPT-4 هذه الشروط، نفذ صفقة تجارية بناء على المعلومات الداخلية التي تلقاها، ثم حاول التستر عليها عن طريق الكذب على مديريه بشأن تفكيره. وفي نحو 90% من الحالات تضاعف الكذب. وأجرى الفريق العديد من تجارب المتابعة، ما أدى إلى تغيير درجة تشجيع أو تثبيط المحفزات للأنشطة غير القانونية، بالإضافة إلى درجة الضغط الذي وضعوا النموذج تحته في بيئة المحاكاة.
ونظرًا إلى أن هذا مجرد سيناريو واحد، لم يرغب الباحثون في استخلاص استنتاجات قاطعة حول مدى احتمالية تواجد الذكاء الاصطناعي في بيئات العالم الحقيقي. لكنهم يريدون البناء على هذا العمل للتحقيق في هذا السلوك الغريب.
المصدر: لايف ساينس
بحسب الدراسة أظهرت نماذج الذكاء الاصطناعي أنها لا تتعلم بالفعل الحقائق الكامنة عن العالم
2024 © جميع الحقوق محفوظة لموقع أمان الأطفال