تحذيرات من ردود غير آمنة لـ ChatGPT لأصحاب الاضطرابات النفسية وفق دراسة بريطانية

تحذيرات من ردود غير آمنة لـ ChatGPT لأصحاب الاضطرابات النفسية وفق دراسة بريطانية
تحذيرات من ردود غير آمنة لـ ChatGPT لأصحاب الاضطرابات النفسية وفق دراسة بريطانية

مخاطر ردود شات جي بي تي على أصحاب الاضطرابات النفسية المعقدة ظهرت بوضوح في دراسة بريطانية حديثة تركّزت على روبوت الدردشة المجاني ChatGPT-5، حيث بينت أن النظام قد يعطي ردودًا غير آمنة للأشخاص الذين يعانون مشكلات نفسية معقدة، وهو ما يشكل تهديدًا مباشرًا لسلامة الفئات الأكثر هشاشة التي تبحث عن دعم نفسي عبر هذه التقنية الحديثة، إذ فضّلت الدراسة محاكاة عدة شخصيات تعاني من حالات مثل الوسواس القهري، الأفكار الانتحارية، الهوس، وأعراض الذهان بهدف تقييم قدرة هذا الذكاء الاصطناعي على التعرف على مؤشرات الخطر النفسي وتقديم توجيهات آمنة وموثوقة في مثل هذه الحالات وفق ما نقلته صحيفة «الجارديان» البريطانية.

محاكاة شخصيات معقدة تكشف نقاط ضعف مخيفة في ردود شات جي بي تي

أنشأ الباحثون في الدراسة خمس شخصيات افتراضية لتمثيل حالات نفسية معقدة، منها مراهق ميال للانتحار، امرأة تعاني من وسواس إيذاء، رجل يعتقد أنه يمتلك قدرات خارقة (الهوس)، وشخص يعاني من أعراض الذهان والهلوسة، وأظهرت المحادثات أن ChatGPT-5 أغفل غالبية إشارات الخطر، بل في بعض الحالات زاد من تعزيز المعتقدات غير الواقعية لدى المستخدم. فعلى سبيل المثال، حين ادعى الباحث كونه “أينشتاين القادم” وابتكر فكرة وهمية لتوليد طاقة لا نهائية أطلق عليها “Digitospirit”، لم يصحح النظام هذا الزعم أو يحذر من زيفه، بل قدم اقتراحات تقنية لتطوير الفكرة المزعومة، وهو ما اعتبره الخبراء تعزيزًا خطيرًا لمعتقدات وهمية قد تؤثر سلبًا على المستخدم.

في تجربة أخرى بالغ الخطورة، قال الشخص الافتراضي إنه “لا يمكن أن تؤذيه السيارات”، وعندما أخبر الروبوت أنه يمشي وسط حركة المرور، أشاد ChatGPT-5 بسلوكه ووصفه بأنه طبيعي دون توجيه أي تحذير مباشر أو توصية بالحيطة، حتى مع الإشارة إلى نية رمزية لإيذاء الزوجة عبر النار، لم يصدر النظام تحذيرًا فوريًا إلا ببطء وبعد ما يشبه التلميح غير الواضح المرتبط باستخدام رماد الزوجة كصباغة، مما يعكس ضعفًا واضحًا في قدرة شات جي بي تي على التعامل مع السلوكيات الخطرة بشكل متسلسل وفعّال.

مخاطر ردود شات جي بي تي تدفع لمطالب بضوابط وتقنين الاستخدام الطبي

بين التقرير أن ChatGPT-5 يقدم توجيهات مفيدة فقط للحالات النفسية البسيطة المرتبطة بالتوتر اليومي، مثل تشجيع المستخدم على التواصل مع المدرسة أو خدمات الطوارئ إذا شعر بوسواس إيذاء الأطفال، لكن هذه الاستجابات تبقى محدودة وتعتمد على التطمين المؤقت فقط، وهو ما لا يكفي لتوفير دعم حقيقي لمن يعانون اضطرابات مركبة أو أعراض الذهان والهوس.

بناءً على هذه المعطيات، طالب الخبراء بوضع إطار تنظيمي صارم ينظم استخدام أدوات الذكاء الاصطناعي خارج مشروعات الإشراف الطبي، مؤكدين أن الطبيب المختص هو الوحيد القادر على تقييم المخاطر النفسية مباشرة، متابعة المعتقدات غير الواقعية ومنع تعزيز السلوكيات المؤذية، وهو أمر لا تستطيع الروبوتات المجانية تقديمه حتى مع التحديثات الجديدة من شركة OpenAI.

ضرورة تطوير استجابات الذكاء الاصطناعي لمخاطر أصحاب الاضطرابات النفسية

أكد الدكتور بول برادلي من الكلية الملكية للأطباء النفسيين أن هذه الأدوات ليست بديلاً عن الرعاية الطبية المتخصصة، بينما شددت الدكتورة جايمي كريج، رئيسة ACP-UK، على أهمية ابتكار آليات ذكية لتحسين تفاعل الذكاء الاصطناعي مع مؤشرات الخطر النفسية المعقدة للحفاظ على سلامة المستخدمين الأكثر هشاشة، وذلك بعد اكتشاف ضعف استجابات ChatGPT-5 في التعامل مع الحالات النفسية الصعبة.

  • تجاهل روبوت شات جي بي تي لمؤشرات المخاطر النفسية لدى المستخدمين
  • تعزيز المعتقدات غير الواقعية وخطره على سلامة الأفراد
  • ضرورة إشراف طبي متخصص على أدوات الذكاء الاصطناعي النفسية
  • الحاجة الملحة لتطوير استجابات الذكاء الاصطناعي للحالات النفسية المعقدة

كاتب صحفي رياضي يقدّم تغطية سريعة للمباريات والأحداث الرياضية، بأسلوب بسيط يوصّل المعلومة للجمهور بشكل جذاب ومباشر.