أدرجت الشبكة العصبية ChatGPT، الأسبوع الماضي، أستاذ القانون جوناثان تورلي على قائمة المحامين المزعوم تورطهم في قصة غير قانونية. تبيّن أنّ هذه الاتهامات باطلة، والمعلومات مأخوذة من مقال غير موجود في صحيفة "واشنطن بوست". وتحدث خبير تكنولوجيا المعلومات الروسي روديون قديروف لصحيفة "غازيتا. رو" عن المعلومات المضللة المتعلقة باستخدام الشبكات العصبية.
أشار المتخصص إلى أن مشكلة المحامي "ليست مجرد حادثة معزولة"، بل هي "مثال على قدرة النماذج اللغوية الحديثة، مثل ChatGPT من OpenAI، في توليد معلومات كاذبة تعرض سمعة الناس وحتى حياتهم للخطر". ولاحظ قديروف أن الأمر المثير للقلق بشكل خاص هو أن "الهلوسة" المتعلقة بالشبكات العصبية أصبحت طبيعية وتنشأ بسبب خصوصيات عملها.
أوضح الخبير أن مثل هذه الإخفاقات تحدث عندما تبدأ نماذج الذكاء الاصطناعي في محاولة للإجابة على أي طلب، بـ"اصطناع" المعلومات. ويحدث هذا عندما يتطلب الأمر حجمًا معينًا من المعلومات، بينما لا تحتوي الشبكة العصبية على بيانات كافية لإكماله. وأوضح المتخصص: "على سبيل المثال، إذا طلبت من شبكة عصبية ذكر 10 أسماء مرتبطة بحدث ما، فيمكنها أن تأتي بسبعة خبراء، حتى لو كانت على علم في الواقع بثلاثة أسماء فقط".
لا تقتصر المشكلة المتعلقة بهذا النوع من المعلومات الخاطئة على النص فقط. ففي أذار/ مارس الماضي، نشر تصور يُزعم أنه يُظهر اعتقال الرئيس الأمريكي السابق دونالد ترامب، وأنشئت هذه الصور المزيفة باستخدام الذكاء الاصطناعي، وبعد ذلك انتشرت على شبكات التواصل الاجتماعي.
سلط الخبير الضوء، أيضًا، على عدم وجود ضوابط فعالة من جانب منصات التواصل الاجتماعي، فضلاً عن الحاجة إلى معايير ولوائح أكثر صرامة لاستخدام الذكاء الاصطناعي في مثل هذه المجالات الحساسة". ودعا الناس إلى الاهتمام بجودة المحتوى والانتباه إلى التفاصيل؛ لأن جودة النسخة المزيفة غالبًا ما تكون أقل من جودة المحتوى الأصلي.
المصدر: موقع أرتي الروسي باللغة العربية
بحسب الدراسة أظهرت نماذج الذكاء الاصطناعي أنها لا تتعلم بالفعل الحقائق الكامنة عن العالم
2024 © جميع الحقوق محفوظة لموقع أمان الأطفال