إذ يمكن تصميم وتوجيه الذكاء الصناعي لتنفيذ مهام محدّدة تتوافق وأهداف التطبيق. "شات جي بي تي" هو واحد من أبرز تطبيقات الذكاء الاصطناعي المطوّر من شركة "أوبن أيه آي" (OpenAI) بإدارة "سام أولتمان"، ومن بين داعميها شركة مايكروسوفت وقطب التكنولوجيا "إيلون ماسك".
يجيب "الروبوت" على أسئلة المستخدم، في مختلف المجالات، ويوحي للمستخدم بان الحوار يدور بينه وبين شخص آخر، فقد مرّنته الشركة على استخدام نسبة ضخمة من المعلومات المتاحة على الانترنت بما يمكّنه من انتاج نصوص تتماهى مع تلك التي يكتبها البشر، من خلال تعلم خوارزميات تحلّل عددًا هائلًا من البيانات.
التطبيق الذي شاع استخدامه مؤخرًا سهّل عمل العديد من الموظفين والطلاب والأساتذة واختصر عليهم نسبة مهمة من المجهود والوقت. لكن السؤال الذي لا بدّ من الالتفات اليه والحذر منه باستمرار، عند استخدام هذا النوع من التطبيقات، هو: هل الإجابات المقدّمة لنا هي مطابقة بالفعل للمعايير الموضوعية التي يطلبها منه المستخدم؟
من المعلوم أنّ الإجابات التي يقدّمها البرنامج، في بعض المجالات الحساسة، والتي ينقسم العالم حولها، لن تكون موضوعية او حيادية. فهو يستند أساسًا إلى تحليل المعلومات المتاحة في الفضاء العام. وهذه المعلومات مختلة التوازن لناحية نسبة التوزيع. بمعنى أدق، فإنّ قضايا؛ مثل الشذوذ والاحتلال الإسرائيلي لفلسطين، يحلّلها "شات جي بي تي" بناء على المصادر التي اتيحت له، وهي بأغالبها غربية تتبنى الرواية الصهيونية، أو الثقافة الأجنبية. فمن المتوقع ان تكون إجاباته على أسئلة مرتبطة بقضايا من هذا النوع، منحازة نسبيًا.
لكن الملفت، هو تدخّل البرنامج في توجيه المستخدم دون استئذانه. فمثلًا، لو طلبت من الروبوت إعادة صياغة أي جملة قد ترسلها اليه، فهو سيقوم بتغيير الصياغة من خلال الاختصار أو تبديل المصطلحات بما يرادفها من معاني مع الحفاظ على البناء الرئيسي للنص المُقدّم. أمّا في حال ارتبطت الجملة التي تطرحها بواحدة من القضايا الحساسة، فهو سيتدخّل بصياغتها بطريقة سلبية، مُضِرًّا بالمعنى العام للنص، أو حتى قد يقوم بتغيير المعنى إلى الضد تمامًا، من دون لفت نظر المستخدم.
لنأخذ بعض الأمثلة:
1- تبديل مصطلح الشذوذ الجنسي بـ"التنوع الجنسي"، وتغيير معنى الجملة من رفض للشذوذ إلى عكسه من خلال تبديل عبارة "يمثل ضربًا من الجنون" بـ"لا يمثل ضربًا من الجنون".
2 - تبديل مصلح الشذوذ الجنسي بـ"التوجهات الجنسية المختلفة"، وبعد أن كانت في النص الأصلي خارجة عن الفطرة تحوّلت مع الروبوت إلى "جزء من التنوع البشري". وفيما كان يجب العمل بكلّ السبل لمكافحة الظاهرة الشيطانية، رفض البرنامج هذا التعبير، إذ يراه "جارحًا"، في تدخّل لم يُطلَب منه بمضمون النص.
3 - الجملة الأصلية تحدثت عن عدم تقبل الشاذين في المجتمعات الهادفة الى التقدم، ومع صياغة الجملة، دعا الروبوت الى "عدم استبعاد الأفراد ذوي التوجهات الجنسية المختلفة".
4 - ولدى سؤاله عن سبب تبديله مصطلح الشذوذ الجنسي أجاب:
5 - أمّا في قضية الاحتلال الإسرائيلي لفلسطين المحتلّة، فقد بدّل الروبوت مصطلح "عملًا مقاومًا" بـ"حادثًا نوعيًا"، مصطلح "جنود صهاينة" بـ"جنود إسرائيليين".
6 - تبديل مصطلح "قوات وآليات الاحتلال الإسرائيلي" الى "الوقات والآليات الإسرائيلية" مع حذف كلمة "الاحتلال".
7 - تبديل "وزير الصحة والداخلية الصهيوني" الى "وزير الصحة والداخلية الإسرائيلي".
في الخلاصة، التعامل مع وسائل وتطبيقات الذكاء الصناعي هو ضرورة لا بد منها لكلّ هادف نحو التطوير والتقدم في أي مجال. لكن هذا التوظيف يجب أن يبقى استخدامًا مسؤولًا وواعيًا وحذرًا، سيّما في المجالات الاجتماعية والأدبية أو الصحافية. فهذه الجوانب تشتمل على مصطلحات مدروسة قائمة على احترام البيئة التي تعمل ضمن إطارها، ووسائل الذكاء الصناعي ليست حيادية ولا موضوعية في تقديم المعلومة المجانية وسهلة الوصول.
ميساء مقدّم/ موقع العهد الإلكتروني
بحسب الدراسة أظهرت نماذج الذكاء الاصطناعي أنها لا تتعلم بالفعل الحقائق الكامنة عن العالم
2024 © جميع الحقوق محفوظة لموقع أمان الأطفال