كشف بحث حديث شارك فيه خبراء بارزون في مجال التعليم بألمانيا أن استخدام كل روبوتات الدردشة القائمة على أساس الذكاء الاصطناعي مثل برنامج شركة مايكروسوفت للدردشة "كوبايلوت" الذي يتيح استخدام "شات جي بي تي"، وتطبيق "بارد" الذي تصدره شركة غوغل، تتمتع بإمكانيات كبيرة عند استخدامها في المدارس، لكنه قيّد استخدامها بشروط كثيرة.
وبحسب ورقة بحثية أصدرتها اللجنة العلمية الدائمة في ألمانيا بشأن السياسة التعليمية، فإن هناك الكثير من الشروط المسبقة والتنظيمات من أجل الاستخدام المسؤول للأدوات الخاصة بالذكاء الاصطناعي لتعزيز التعليم.
وأوصت اللجنة بتبني مرحلة انتقال سريعة تتضمن تجربة منهجية لمثل هذه الأدوات "في ظل ثقافة اعتراف بالخطأ"، كما أشارت اللجنة إلى المخاطر والعوائق.
وقالت: "يمكن للذكاء الاصطناعي وينبغي عليه دعم عمليات التعليم والتدريس، ولكن القرار أو التقييم النهائي والمسؤولية عن المنتج النهائي يجب أن تكون في أيدي البشر". وأضافت أن هناك حاجة لتأهيل المدرسين لهذا الأمر، ويجب توسيع نطاق برامج التدريب سريعا.
ويعتقد الباحثون أنه يجب عدم استخدام أدوات الذكاء الاصطناعي التي تولّد النص مثل "شات جي بي تي" في المدارس الابتدائية، ويجب تجنبها بصورة كبيرة في الأعوام الأولى من المدرسة الثانوية، وينبغي التركيز على اكتساب الأطفال مهارات القراءة والكتابة. وابتداء من الصف الثامن إلى ما بعد ذلك، أو منتصف المرحلة الثانوية، يمكن استخدام برامج الذكاء الاصطناعي بصورة دورية لتدعيم الكتابة، في حين يجب الاستمرار في إنتاج النص بدون هذه الأدوات. ويجب مراقبة استخدام الذكاء الاصطناعي عن كثب.
ويعتقد باحثون أن برامج الذكاء الاصطناعي تناسب بصورة خاصة في تقديم الدعم "عندما يتمتع المتعلمون بمستوى مرتفع من المهارات الفنية والرقمية ومهارات الكتابة والقراءة".
لذلك، ينبغي استخدامها مع الطلاب الأكبر سنا، بالإضافة إلى طلاب الجامعات. والهدف هو "الاستخدام البناء" لهذه التكنولوجيا. ويتعين تطوير مهارات القراءة والكتابة في السنوات الأولى من المدرسة بدون الاستعانة بما يطلق عليه نماذج اللغة الكبيرة التي تجعل أدوات مثل شات جي بي تي وبارد ممكنة.
ويشار إلى أن الأبحاث بشأن عدد الأطفال الذين يستخدمون بالفعل الذكاء الاصطناعي من أجل أداء عملهم المدرسي ضئيلة، وقدرت الإحصاءات السابقة أن نحو 20% إلى 50% من الطلاب يستخدمون أدوات الذكاء الاصطناعي مثل شات جي بي تي لكتابة النصوص والعثور على المعلومات وترجمة النصوص.
ويرى خبراء في مجال التعليم أن هناك الكثير من الفرص -التي غالبا ما يتم التقليل من أهميتها- للمدرسين، مثل المساعدة في التخطيط للدروس ووضع امتحانات بمستويات مختلفة من الصعوبة وتوسيع نطاق مواد التدريس وفقا لمستويات أداء الطلاب.
ومع ذلك، فإنه رغم المخاوف من أن يؤدي الذكاء الاصطناعي لموجة شطب وظائف في قطاعات معينة، فإن الباحثين مقتنعون أن الذكاء الاصطناعي لا يمكن أن يحل محل خبرة المدرس الإنسان.
ومنذ الضجة الأولى التي نجمت عن شات جي بي تي أواخر 2022، قطعت روبوتات الدردشة شوطا طويلا. ومع ذلك، مازالت هذه الروبوتات تنتج نصوصا تحتوى على حقائق ملفقة بالكامل وأخطاء يصعب رصدها. والمشكلة هي أن جميع الإجابات ما زالت تبدو قابلة للتصديق والاعتماد عليها.
ولهذا السبب، يتعين على الطلاب تعلم كيفية تقييم المحتوى فيما يتعلق بالجودة ومدى صحته والوثوق به، وعلاوة على ذلك يمكنهم أن يتعلموا السيطرة على العملية من خلال تحديدهم بصورة أكبر لما يريدون أن يسألوا روبوتات الدردشة عنه، بحسب باحثين.
ويتطلب الأمر هنا التفكير النقدي والتحليلي والمعرفة المتخصصة، كما أنه يجب التدريب على الاستخدام الماهر لأدوات الذكاء الاصطناعي واختبارها كمهارة جديدة.
وبالتالي يتعين تأهيل المدرسين، إذ إن "التطوير الديناميكي للأدوات يفرض متطلبات خاصة على المدرسين". ووفقا لتوصيات اللجنة، ينبغي أن تقع على عاتق المدرسين مسؤولية استخدام الذكاء الاصطناعي لإنتاج النصوص وتقييم الأداء على سبيل المثال.
كما أن الذكاء الاصطناعي يمثل مشكلة لأشكال الاختبارات التقليدية، ويجب تنقيح مثل هذه الأساليب في ظل تعاظم استخدام هذه الأدوات التي يمكن أن تجيب عن استفسارات أي مقال خلال ثوان.
وأوصى الباحثون بالتفريق بين أجزاء الامتحانات التي لا تتطلب استخدام أدوات الذكاء الاصطناعي وتلك التي ربما يمكن استخدام تلك الأدوات فيها. وعند استخدام مثل تلك الأدوات، " ينبغي أن لا يخضع النص النهائي فقط للتقييم، ولكن أيضا التواصل التأملي للطلاب مع الحل والنتيجة".
وخلص الباحثون إلى أنه يمكن الافتراض أنه في الكثير من المدارس سوف يصبح الاستخدام الرشيد لروبوتات الدردشة مهارة مهمة في المستقبل تخضع للاختبار، إلى جانب مجالات الموضوع الأخرى.
المصدر : الألمانية
شركتا أبل وغوغل تتلاعبان بالخيارات المقدمة لمستخدمي الهواتف المحمولة
ستمنح الشريحة الأشخاص المشلولين القدرة على استخدام الأجهزة الرقمية.
2024 © جميع الحقوق محفوظة لموقع أمان الأطفال