تطوير الذكاء الاصطناعي لا يتوقف والسيطرة البشرية تهدّئ المخاوف الوجودية

تطوير الذكاء الاصطناعي لا يتوقف والسيطرة البشرية تهدّئ المخاوف الوجودية

الظهور المزعوم لمهارات التفكير المعقّدة المرتبطة بتهديدات محدّدة لا يدعمه الدليل..

كشفت دراسة أجريت أخيرًا، في جامعة "باث" Bath، بالاشتراك مع الجامعة التقنية في دارمشتات في ألمانيا، أن النماذج اللغوية الكبيرة مثل "شات جي بي تي" ليست قادرة على التعلّم الذاتي أو تطوير مهارات جديدة بمفردها؛ وبالتالي، هي لا تمثل خطرًا وجوديًا على البشر.

نُشرت هذه الدراسة ضمن فعاليات الاجتماع السنوي الـ62 للجمعية الدولية للّغويات الحاسوبية ACL 2024، وهو المؤتمر الدولي الرائد في معالجة اللغات الطبيعية. وتكشف الدراسة عن أن هذه النماذج لديها القدرة على اتّباع التعليمات والتميّز في الكفاءة اللغوية، ولكنها لا تمتلك القدرة على إتقان مهارات جديدة من دون تعليمات صريحة، ما يعني أنّها تظلّ قابلة للتحكم والتنبؤ والأمان. وقد خلص فريق البحث إلى أن النماذج اللغوية الكبيرة التي درّبت على مجموعات بيانات أكبر، يمكن أن تستمر في الانتشار من دون مخاوف تتعلق بالسلامة، على الرغم من أن التكنولوجيا ما تزال قابلة لإساءة الاستخدام.

مع النمو، من المُرجّح أن تولّد هذه النماذج لغة أكثر تطورًا، وأن تصبح أفضل في اتباع التعليمات الصريحة والمفصّلة، ولكن من غير المحتمل أن تكتسب مهارات التفكير المُعقّدة. في هذا الصدد؛ يقول الدكتور هاريش تايار مادابوشي، وهو عالم الكمبيوتر في جامعة باث والمؤلف المشارك في الدراسة الجديدة حول "القدرات الناشئة" للنماذج اللغوية الكبيرة: "إن السرد السائد الذي يصور هذا النوع من الذكاء الاصطناعي على أنه تهديد للإنسانية يمنع الاعتماد الواسع لهذه التقنيات وتطويرها، ويحول الانتباه أيضًا عن القضايا الحقيقية التي تتطلب تركيزنا". 

هذا؛ وقد أجرى فريق البحث التعاوني تجارب لاختبار قدرة النماذج اللغوية الكبيرة على إكمال المهام التي لم تواجهها النماذج من قبل؛ مثل القدرات الناشئة المسماة.

على سبيل المثال؛ يمكن للنماذج اللغوية الكبيرة الإجابة عن أسئلة حول المواقف الاجتماعية، من دون أن تكون قد تدرّبت أو بُرمجت على ذلك صراحة. وفي حين أشارت الأبحاث السابقة إلى أن هذا كان نتيجة لـ"معرفة" النماذج بالمواقف الاجتماعية، أظهر الباحثون أنه كان في الواقع نتيجة لاستخدام النماذج لقدرة معروفة لديها على إكمال المهام بناءً على بعض الأمثلة المقدمة لها، والمعروفة باسم "التعلم في السياق" ICL.

من خلال آلاف التجارب، أظهر الفريق أن مزيجًا من قدرة النماذج اللغوية الكبيرة على اتباع التعليمات ICL، والذاكرة والكفاءة اللغوية، يمكن أن يفسر كل من القدرات والقيود التي تظهرها النماذج اللغوية الكبيرة.

في السياق، يلفت المؤلف المشارك في الدراسة إلى أنه: "لطالما كان هناك خوف من تزايد حجم النماذج، والتي ستكون قادرة على حل مشكلات جديدة لا يمكننا التنبؤ بها حاليًا، ما يشكل تهديدًا باكتسابها قدرات خطرة، تشمل التفكير والتخطيط. وقد أثار هذا الكثير من النقاشات. على سبيل المثال، في قمة الأمان للذكاء الاصطناعي، في العام الماضي، في بليتشلي بارك، طُلب منا التعليق، لكن دراستنا تُظهر أن الخوف من أن نموذجًا ما سيذهب ويفعل شيئًا غير متوقع تمامًا ومبتكرًا وربما خطيرًا ليس صحيحًا". 

يضيف المؤلف أن القلق بشأن التهديد الوجودي الذي تُشكّله النماذج اللغوية الكبيرة ليس مُقتصرًا على غير الخبراء، بل عبّر عنه بعض كبار الباحثين في مجال الذكاء الاصطناعي في جميع أنحاء العالم. ومع ذلك، يحافظ المؤلف على أن هذا الخوف لا أساس له من الصحة، إذ أظهرت اختبارات الباحثين بوضوح عدم وجود قدرات تفكير معقدة ناشئة في النماذج اللغوية الكبيرة. يتابع  قائلاً: "من المهم معالجة الإمكانات الحالية لسوء استخدام الذكاء الاصطناعي، مثل إنشاء الأخبار المزيفة وزيادة خطر الاحتيال، وإن كان من السابق لأوانه سنّ القوانين استنادًا إلى التهديدات الوجودية المتصوّرة". 

هو يؤكّد أن هذا يعني بالنسبة إلى المستخدمين أن الاعتماد على النماذج اللغوية الكبيرة لتفسير وأداء المهام المعقّدة التي تتطلب تفكيرًا معقدًا، من دون تعليمات صريحة، قد يكون خطأ. بدلاً من ذلك، من المرجح أن يستفيد المستخدمون من تحديد ما يتطلبونه من النماذج بشكل صريح، وتقديم أمثلة حيثما أمكن لجميع المهام باستثناء أبسطها.

يختم المؤلف: "لا تعني نتائجنا أن الذكاء الاصطناعي ليس تهديدًا على الإطلاق، بل نُبيّن أن الظهور المزعوم لمهارات التفكير المعقّدة المرتبطة بتهديدات محدّدة لا يدعمه الدليل، ويمكن أن نتحكّم بعملية التعلّم للنماذج اللغوية الكبيرة جيّدًا بعد كلّ شيء. لذلك، يجب أن تركّز الأبحاث المستقبليّة على مخاطر أخرى تشكّلها النماذج، مثل القدرة على استخدامها في إنشاء أخبار مزيفة". 

المصدر: جربدة النهار اللبنانية