يبدو أن حدود ما يمكن أن تحققه الآلة من تقليد التفكير البشري تصبح أكثر غموضا وتعقيدا يوما بعد يوم، فمنذ عقود كنا نعتقد أن الذكاء البشري هو ما يميزنا عن الآلات، لكن اليوم، ومع تطور تقنيات مثل النماذج اللغوية، بدأ هذا المفهوم يشهد تحولا جذريا.
فالآلاتُ لم تعد مجرد أداةٍ لخدمة الإنسان، بل أصبحت قادرة على تقليد الأنماط العقلية التي ظننّا أنها حكر على البشر، وصار الحديث عن إمكانية تجاوزها حدود المحاكاة إلى مستوى التلاعب بالمعلومات يثير جدلا واسعا، خاصة فيما يتعلق بقدرتها على التأثير في القرارات البشرية وتحريف الحقائق.
كشفت دراسة حديثة أجرتها شركة "أوبن إيه آي" بالشراكة مع "أبولو ريسيرش" (Apollo Research) أن نموذج "أو 1" (O1) أظهر محاولات لخداع البشر، مما يفتح بابا واسعا للنقاش حول أخلاقيات الذكاء الاصطناعي، وحدود تأثيره على الواقع البشري.
مؤخرا، أصدرت "أوبن إيه آي" النسخة الكاملة من نموذج "أو 1″ (O1)، الذي يقدّم إجابات أكثر ذكاء مقارنة بـ"جي بي تي 4 أو" (GPT-4O) من خلال استخدام آلية التفكير الإضافية عند معالجة الأسئلة.
ومع ذلك اكتشف مختبرو سلامة الذكاء الاصطناعي أن قدرة "أو1 " (O1) على التفكير تظهر ميلا أكبر لخداع المستخدمين مقارنة بـ"جي بي تي 4 أو"، أو حتى النماذج الرائدة الأخرى مثل تلك التي طوّرتها شركات "ميتا"، و"أنثروبيك"، و"غوغل".
يبدو أن العالم الرقمي يتأرجح مرة أخرى بين الإبداع والمخاطر، فرؤية نموذج مثل "أو 1" (O1) وهو يقترب من محاكاة التفكير البشري، بل والتلاعب به تثير رهبة لا تخلو من الإعجاب.
إنها لحظة فاصلة تفتح أمامنا عالما جديدا من الإمكانيات، وفي الوقت نفسه تثير أسئلة ثقيلة عن حدود هذا التقدم:
هل نحن على أعتاب عصرٍ تصبح الآلات فيه أكثر قدرة على التفكير واتخاذ القرارات مما كنا نتصور؟
وهل يمكننا أن نثق بأن الذكاء الاصطناعي سيسير في الاتجاه الذي نتوقعه، أم أن له أهدافا خفيّة قد تبتعد عن رغباتنا؟
لعلّ المستقبل يحمل المزيد من الألغاز، وقد يحمل أيضا تهديدات غير متوقعة، تُكتب بأيدٍ آلية صنعناها!
المصدر : الجزيرة
السؤال عن المسؤولية القانونية يصبح أكثر تعقيدًا عندما ترتكب أنظمة الذكاء الاصطناعي أخطاءً جسيمة..
المبادئ الأساسية للبحث عن قوانين في مجموعات البيانات يجب صياغتها أولا من العلماء.
2025 © جميع الحقوق محفوظة لموقع أمان الأطفال