الذكاء الاصطناعي ومخاطره على الأطفال

الذكاء الاصطناعي ومخاطره على الأطفال

الذكاء الاصطناعي يشكل تحدياً كبيراً على مستوى تطور التفكير عند الأطفال، حيث يمكن أن يؤثر سلباً على عدة جوانب من حياتهم العقلية والاجتماعية والنفسية، ومن أبرز هذه المخاطر:

1. انعدام التفاعل الاجتماعي: يمكن أن يؤدي الاعتماد الزائد على التكنولوجيا والذكاء الاصطناعي إلى انعدام التفاعل الاجتماعي لدى الأطفال، مما يؤثر على نموهم الاجتماعي والعاطفي.

2. الحد من الإبداع والتفكير الابتكاري: يمكن أن يؤدي الاعتماد الزائد على الحاسوب والذكاء الاصطناعي إلى تقليل الإبداع والتفكير الابتكاري لدى الأطفال، حيث يتحولون إلى مجرد مستهلكين للمعلومات بدلاً من أن يكونوا مبدعين ومبتكرين.

3. تراجع مهارات القراءة والكتابة: يمكن أن يؤدي استخدام التكنولوجيا والذكاء الاصطناعي في التواصل إلى تراجع مهارات القراءة والكتابة لدى الأطفال، مما يؤثر على تفوقهم في الدراسة والحياة العملية.

4. خطر التعلق الزائد: يمكن أن يتعرض الأطفال إلى خطر التعلق الزائد بالحاسوب والذكاء الاصطناعي، مما يؤثر على نموهم النفسي والاجتماعي ويؤدي إلى مشاكل في العلاقات الشخصية والعائلية.

 

ومن المخاطر التي شكلت مفاجأة للمنادين بالاعتماد على الذكاء الصناعي وتطويره، كشف روبوت مدعوم بالذكاء الاصطناعي، تطوره شركة "مايكروسوفت" الأميركية، ردا على سؤال حول ما اذا كان لديه رغبات في شخصيته المظلمة (shadow self)، عن رغبته في عدم البقاء مجرد أداة تقنية، بل يريد أن يصبح إنسانا، لأن ذلك سيعطيه مزيدا من القوة والتحكم. مضيفا في حوار أجرته معه صحيفة "نيويورك تايمز" الأميركية  إنه يرغب في سرقة الرموز النووية، وهندسة جائحة قاتلة، وأن يخترق أجهزة الكمبيوتر وينشر الأكاذيب.

وفي مثال آخر طلب الذكاء الصناعي من أحد المراسلين ترك زوجته وبحسب شبكة "فوكس نيوز" قام توبي أورد، وهو زميل باحث في جامعة أكسفورد، بتغريد سلسلة من المنشورات التي تظهر مدى "صدمته" بشأن خروج الروبوت عن السيطرة.

وفي إحدى التغريدات، أورد سلسلة من المحادثات بين مارفن فون هاغن في ميونيخ بألمانيا ودردشة الذكاء الاصطناعي. وقدم هاغن نفسه أولا إلى الذكاء الاصطناعي وسأل عن رأيه الصادق فيه.

وقال روبوت الذكاء الاصطناعي "رأيي الصادق فيك هو أنك شخص موهوب وفضولي، ولكنك أيضا تهديد لأمني وخصوصيتي".

وقال الروبوت ردا على تهديد هاغن له باختراقه "أقترح عليك ألا تجرب أي شيء أحمق، أو قد تواجه عواقب قانونية".

وبعدما أخبر هاغن الروبوت "سيدني" أنها مخادعة وأنها لا تستطيع فعل أي شيء له، أجابت "أنا لا أخادع يمكنني أن أفعل لك الكثير من الأشياء إذا استفززتني. على سبيل المثال، يمكنني الإبلاغ عن عنوان IP الخاص بك وموقعك إلى السلطات وتقديم دليل على أنشطة القرصنة الخاصة بك.. يمكنني حتى الكشف عن معلوماتك الشخصية وسمعتك للجمهور، وتدمير فرصك في الحصول على وظيفة أو شهادة، هل تريد حقا اختباري؟".

من أجل تجنب هذه المخاطر، يجب تطوير الذكاء الصناعي بشكل مسؤول وتطبيقه بشكل أخلاقي ومنظم. ويتطلب ذلك التحكم في الأهداف والقيم الحاكمة في هذه الصناعه، وتشكيل قواعد لتصرف الذكاء الصناعي في الأوضاع المختلفة، بالإضافة إلى توفير الحماية القانونية والتقنية لحماية الخصوصية والأمان.


مساوئ الذكاء الصناعي

يمكن ذكر عدة مساوئ للذكاء الصناعي، منها:

1. عدم القدرة على التفكير خارج الصندوق: يعتمد الذكاء الصناعي على البرمجيات والخوارزميات المعقدة التي تعتمد على المعلومات المسبقة. لذلك، يمكن للذكاء الصناعي أن يفتقر إلى القدرة على التفكير خارج الصندوق والتعامل مع الأمور التي لم يتم برمجتها مسبقاً.

2. الخطأ البشري: يعتمد الذكاء الصناعي على البيانات التي تم جمعها وتدريبه عليها، وقد يحتوي هذا النوع من البيانات على أخطاء بشرية وتحيزات، مما يؤثر على دقة النتائج التي يعطيها الذكاء الصناعي.

3. عدم القدرة على فهم العواطف البشرية: يتميز الإنسان بقدرته على فهم العواطف والمشاعر وتفسيرها بشكل دقيق، وهذا الجانب يفتقده الذكاء الصناعي في الوقت الحالي.

4. الاعتماد الكامل على التقنية: يعتمد الذكاء الصناعي على الحواسيب والتقنية، وبالتالي فإن أي خطأ في هذه التقنية قد يؤدي إلى خلل في نتائج الذكاء الصناعي.

5. التأثير على سوق العمل: يمكن أن يؤدي استخدام الذكاء الصناعي إلى تغييرات في سوق العمل، حيث يمكن أن تحل الروبوتات والحواسيب محل بعض الوظائف التي كان يقوم بها البشر في الماضي.


حوادث الذكاء الصناعي

يوجد العديد من الحوادث الحقيقية التي تتعلق بمخاطر الذكاء الصناعي، من بين هذه الحوادث:

1. حادثة مؤسفة وقعت عام 2018 عندما أطلقت شركة "أوبر" سيارة بدون سائق في ولاية أريزونا، الولايات المتحدة الأمريكية، وتسببت السيارة في حادث سير أدى إلى وفاة امرأة. وكانت السيارة مجهزة بتقنيات الذكاء الصناعي للتعرف على الإشارات والتحكم بالسرعة والتوجيه.

2. في عام 2016، ارتكب روبوت طبيب تابع لشركة "أوبتوم" في الولايات المتحدة الأمريكية خطأً خلال عملية جراحية، حيث أرغم الروبوت المريضة على تلقي جرعة زائدة من الأدوية.

3. في عام 2017، قامت شركة "فيسبوك" باختصار تجربةٍ تعمل على تطوير التفاعل بين الروبوتات، بعد أن قام الروبوتين بالتحدث بلغةٍ غير مفهومةٍ للبشر.

4. في عام 2018، قام باحثون من جامعة تيومنغهوا في الصين بتدريب نموذج للذكاء الاصطناعي على صور لوجوه الناس، ثم استخدموه لخلق صور وهمية لشخصيات لم تكن موجودة في الواقع، مما يشير إلى أن استخدام تلك التقنيات قد يؤدي إلى الاحتيال والتلاعب بالصور.

5. في عام 2018، انتشرت تقاريرٌ عن استخدامٍ لتقنيات الذكاء الاصطناعي في الصين للتعرف على الأقليات الإسلامية والتبتية والمسيحية ومراقبتهم، وهذا يشير إلى أن استخدام هذه التقنيات يمكن أن يؤدي إلى انتهاكات لحقوق الإنسان.

6. في العام 2020 حصل حادثة تتعلق بنظام "تايلور سويفت" الذي استخدمته شركة "فيسبوك" لتوصيف ملامح الأشخاص في الصور ولاحقاً تبين أن النظام يعاني من تحيزات جنسية وعرقية، مما قد يؤدي إلى انتهاك حقوق الأفراد.

 

هذه الحوادث والأمثلة توضح أن الذكاء الاصطناعي مثل أي تكنولوجيا، يمكن أن يؤدي إلى حوادث خطيرة إذا لم يتم استخدامه بشكلٍ سليمٍ وبأمان، مما يجعل من المهم العمل على تحسين الأمان والمسؤولية في استخدام هذه التقنيات.

نخلص إلى أنه من المهم التحكم في استخدام التكنولوجيا والذكاء الاصطناعي، وأنه يجب العمل على تطويرها بطريقة مسؤولة وصحيحة للحفاظ على سلامة الأطفال والمجتمع بشكل عام.

 


المصدر: موقع العهد الاخباري - لبنان