تذهل أدوات جديدة في الذكاء الاصطناعي، مثل "شات جي بي تي" (ChatGPT)، المستهلكين بقدرتها على إنشاء كتابة مقنعة بناء على استفسارات الأشخاص ومطالباتهم، وذلك بفضل التطوّرات الحديثة. ورغم أنّ الذّكاء الاصطناعي لهذه الأدوات قد تحسن كثيرًا في إنتاج ردود إبداعيّة وأحيانّا طريفة، فإنّها غالبا ما تتضمن معلومات خاطئة وغير دقيقة.
على سبيل المثال، عندما طرحت "مايكروسوفت" (Microsoft) فبراير/شباط الماضي برنامج الدردشة "بنغ" (Bing)، الذي تم إنشاؤه باستخدام تقنية "جي بي تي-4" (GPT-4) التي ابتكرتها "أوبن إيه آي" (OpenAI)، لاحظ المتفاعلون معها أن الأداة تقدم إجابات خاطئة في أثناء عرض توضيحي يتعلق بتقارير الأرباح المالية، وهي في ذلك مثلها مثل أدوات لغة الذكاء الاصطناعي الأخرى، بما في ذلك برامج "غوغل" (Google) ذات الصلة.
لقد وُجد أنه يمكن أن تقدم ميزة دردشة "بنغ" أحيانا معلومات مزيفة، يعتقد المستخدمون أنّها حقيقة أساسّية، وهي ظاهرة يسمّيها الباحثون في مجال الذكاء الاصطناعي "الهلوسة".
هذه المشكلات لم تبطئ سباق الذكاء الاصطناعي بين عملاقي التكنولوجيا. فقد أعلنت غوغل، يوم الثلاثاء الماضي، أنّها ستستثمر تقنّية الدّردشة التي تعمل بالذكاء الاصطناعي في بريد "جيميل" (Gmail) ومحرّر مستندات غوغل، ما يسمح لها بالمساعدة في إنشاء رسائل البريد الإلكتروني أو المستندات.
هذا وقد سارعت شركة مايكروسوفت، الخميس الماضي، إلى إعلان أنّ تطبيقاتها الشهيرة مثل "وورد" (Word) و"إكسل" (Excel) ستأتي قريبا مجمعة مع تقنيّة شبيهة بـ"شات جي بي تي" يطلق عليها اسم كوبايلوت (Copilot)
لكنّ مايكروسوفت روّجت، في هذا الإعلان، للتكنولوجيا كونها "خاطئة بشكل مفيد"؛ ففي عرض تقديمي عبر الإنترنت عن ميزات "كوبايلوت" الجديدة، أثار المسؤولون التنفيذيون في مايكروسوفت مشكلة مَيل البرنامج إلى إنتاج ردود غير دقيقة، لكنّهم رأوا ذلك شيئا مفيدًا خلال الإعلان.
إذ يرون أنّ البرنامج مفيد حتى مع الأخطاء، ما دام المستخدم يدرك أنّ ردود "كوبايلوت" قد تكون غير دقيقة، ما يمكّنهم من تعديل الأخطاء وإرسال رسائل البريد الإلكتروني بسرعة أكبر أو إنهاء شرائح العرض التقديمي.
على سبيل المثال؛ إذا أراد شخص ما إنشاء رسالة إلكترونيّة يدعو فيها عيد ميلاد سعيدا لأحد أفراد الأسرة، فربما يكون برنامج "كوبايلوت" مفيدًا حتى لو كان يقدّم تاريخ الميلاد خاطئًا. ومن وجهة نظر مايكروسوفت، فإنّ مجرد قيام الأداة بإنشاء نصّ يوفّر على الشخص بعض الوقت، فإنّه بالتالي يكون مفيدًا.
أعرب بعض التقنيين، مثل "نوا جيانسيراكوزا" و"غاري ماركوس"، عن مخاوفهم من أنّ النّاس قد يضعون كثيرًا من الثقة بالذكاء الاصطناعي في العصر الحديث، خصوصًا أدواته التي تُستخدم في الاستشارات الصحيّة أو الماليّة والتمويل وغيرها من الموضوعات عالية المخاطر.
كما كتب الاثنان -"نوا جيانسيراكوزا" و"غاري ماركوس" في مقال رأي مؤخرًا- أنّ: "حواجز الحماية المطبّقة حاليًا في "شات جي بي تي" يمكن تجنّبها بسهولة من أولئك العازمين على استخدامها من أجل الشرّ، وكما رأينا في وقت سابق من هذا الأسبوع، ما تزالت جميع محركات البحث الجديدة في حالٍ من الهلوسة".
كما أضاف المقال: "لكن بمجرد أن نتجاوز توتر هذه المرحلة، ما يجب أخذه بالحسبان حقًا هو إذا ما كان بإمكان أي من اللاعبين الكبار بناء ذكاء اصطناعي يمكننا الوثوق به فعلًا".
كما قال "جايمي تيفان"، كبير العلماء والزّميل التّقني في مايكروسوفت، إنه عندما "يخطئ كوبايلوت في الأمور أو يكون لديه تحيّز أو يساء استخدامه"، فإن مايكروسوفت لديها "وسائل تخفيف". بالإضافة إلى ذلك، ستختبر مايكروسوفت البرنامج مع عشرين عميلًا من الشّركات فقط في البداية، حتى تتمكن من توقع كيفية عمله في العالم الحقيقي. وأوضح تيفان "سنرتكب أخطاء، ولكن عندما نرتكبها، سنتعامل معها بسرعة".
وتعتبر المخاطر التجارية عالية جدا بالنسبة لمايكروسوفت لتجاهل الحماس تجاه تقنيات الذكاء الاصطناعي التوليدية مثل "شات جي بي تي". وسيكون التحدي بالنسبة للشركة هو دمج هذه التكنولوجيا بحيث تؤدي إلى تعزيز ثقة الجمهور بالبرنامج ومنع حدوث كوارث كبيرة في مجال العلاقات العامة.
ويضيف تيفان "لقد درست الذكاء الاصطناعي لعقود، وأشعر بهذا الإحساس الهائل بالمسؤولية مع هذه الأداة الجديدة القوية"، وتابع "تقع على عاتقنا مسؤولية وضع الأمر في أيدي الناس، والقيام بذلك بالطريقة الصحيحة".
المصدر: رويترز
بحسب الدراسة أظهرت نماذج الذكاء الاصطناعي أنها لا تتعلم بالفعل الحقائق الكامنة عن العالم
2024 © جميع الحقوق محفوظة لموقع أمان الأطفال