تكنولوجيا وإتصالات

التحيّز الإدراكي والإرهاق المعلوماتي.. أبرز المخاطر الأخلاقية للذكاء الاصطناعي

كتب في : الاثنين 28 إبريل 2025 - 3:26 مساءً بقلم : المصرية للأخبار

 

رغم الفوائد الكثيرة التى حققها الذكاء الاصطناعي، إلا أن خبراء الأمن السيبراني، وعلماء الأخلاق دائمًا يحذرون من الإفراط في استخدام الذكاء الاصطناعي، كما أنهم ينبهون على الحرص من تلقي المعلومات منه، مشيرين إلى أن استخدام الذكاء الاصطناعي محفوف بالمخاطر.

من جانبهم حذر علماء النفس الرقمي من المخاطر الأخلاقية للذكاء الاصطناعي على الأطفال والناشئة، تقول الدكتورة نيڤين حسني، استشاري علم النفس الرقمي وعضو الهيئة الاستشارية العليا لتكنولوچيا المعلومات ونائب رئيس لجنة التحول الرقمي، إن مخاطر الذكاء الاصطناعي الأخلاقية متعددة، لكن يمكننا أن نبرز هنا أبرز تلك المخاطر..

أولاً: المخاطر الأخلاقية للذكاء الاصطناعي في ضوء علم النفس الرقمي

علم النفس الرقمي يدرس سلوك الإنسان وتفاعله مع التكنولوجيا، ومن خلال هذا المنظور تظهر المخاطر التالية:

1. التحيّز الإدراكي (Cognitive Bias) في الخوارزميات:

خوارزميات الذكاء الاصطناعي قد تتعلم من بيانات مشبعة بالتحيزات الاجتماعية والثقافية، مما يؤدي إلى تعزيز الصور النمطية بشكل غير واعٍ.

التأثير: برمجة السلوك الجمعي الرقمي بشكل غير عادل أو نمطي.

2.  انتهاك الخصوصية النفسية (Psychological Privacy Violation):

أنظمة الذكاء الاصطناعي تستطيع التنبؤ بالحالات المزاجية والنوايا والسلوكيات بناءً على تحليلات رقمية دقيقة، مما يعرض الأفراد لانتهاك خصوصيتهم النفسية.

3.  فقدان الشعور بالتحكم (Loss of Agency):

اعتماد الأفراد على قرارات الذكاء الاصطناعي قد يؤدي إلى تقليل الشعور بالتحكم الشخصي والمسؤولية، مما يؤثر على احترام الذات واتخاذ القرار الواعي.

4. الإرهاق المعلوماتي والقلق الرقمي (Digital Fatigue & Anxiety):

الاستخدام المكثف للذكاء الاصطناعي، خاصة في بيئات العمل والتعليم، قد يزيد من مستويات القلق وفقدان التوازن النفسي نتيجة ضغط التفاعلات الرقمية المعقدة.

 

                           الدكتورة نيفين حسني

 

ثانيًا: كيف يمكن توجيه الذكاء الاصطناعي ليعمل بشكل أخلاقي وفق علم النفس الرقمي؟

تقول الدكتورة نيفين حسني: من خلال علم النفس الرقمي، نوجه الذكاء الاصطناعي للعمل بشكل أخلاقي عبر:

1. تصميم ذكي متمركز حول الإنسان (Human-Centered AI Design):

تطوير تقنيات تراعي الإحتياجات النفسية الأساسية: الأمان، الخصوصية، الاستقلالية.

2. التنبيه على الإنحيازات الرقمية (Bias Awareness Training):

تدريب مطوري الذكاء الاصطناعي على فهم التحيزات الإدراكية والإجتماعية وكيفية تقليل تأثيرها أثناء تصميم الأنظمة.

3. إدخال معايير الرفاهية الرقمية (Digital Well-being Standards):

التأكيد على تصميم أنظمة تقلل التوتر الرقمي وتعزز الصحة النفسية أثناء الاستخدام، مثل فترات الراحة والتنبيهات الإيجابية.

 

ثالثًا: كيف أن نضمن عمل الذكاء الاصطناعي بشكل أخلاقي بناءً على علم النفس الرقمي؟

يمكن ضمان ذلك عبر:

  1. اختبارات تأثير نفسي قبل الإطلاق (Psychological Impact Testing):

تقييم تأثير التكنولوجيا على الصحة النفسية والسلوك الاجتماعي قبل نشرها على نطاق واسع.

  1. لجان أخلاقيات رقمية مستقلة (Independent Digital Ethics Committees):

تشكيل لجان تتضمن علماء نفس رقميين، قانونيين، وتقنيين لتقييم مشاريع الذكاء الاصطناعي بشكل دوري.

  1. حق الإنسان في الفهم والمراجعة (Right to Explanation):

تعزيز حق الأفراد في معرفة كيف ولماذا اتخذ الذكاء الاصطناعي قرارات تؤثر على حياتهم الرقمية والنفسية.

في ضوء علم النفس الرقمي، التعامل مع الذكاء الاصطناعي يجب أن يكون أخلاقياً عبر احترام العقل البشري، وحماية المشاعر والخصوصية النفسية، وضمان تفاعل صحي ومتوازن مع التكنولوجيا الرقمية.

بداية الصفحة