"وول ستريت جورنال": المراهقون ومخاطر طلب المساعدة النفسية من روبوتات الدردشة
توصَّلت دراسة جديدة أجرتها مؤسسة "كومون سينس ميديا" وجامعة ستانفورد إلى أنَّ برامج الدردشة الآلية فشلت منهجياً في كيفية تعرِّفها على الحالات النفسية كي تستطيع تقديم المساعدة.
-
"وول ستريت جورنال": المراهقون ومخاطر طلب المساعدة النفسية من روبوتات الدردشة
صحيفة "وول ستريت جورنال" الأميركية تنشر تقريراً يتناول دراسة جديدة حول خطورة اعتماد المراهقين على روبوتات الدردشة بالذكاء الاصطناعي في طلب المساعدة النفسية، ويعرض مجموعة من النتائج والمخاوف الرئيسية.
أدناه نص المقال منقولاً إلى العربية:
غالباً ما تفشل برامج الدردشة التي تعمل بالذكاء الاصطناعي في التعرُّف على الحالات الصحية العقلية، أو حالات الطوارئ النفسية لدى المراهقين، وتُقدّم نصائح عامةً عوضاً عن المساعدة المهنية العاجلة، وفقا للدراسة الجديدة المذكورة.
يلجأ المراهقون بانتظام إلى روبوتات الدردشة المُولَّدة بالذكاء الاصطناعي بحثاً عن دعم للصحَّة النفسية، بينما تُشير الدراسة إلى أنَّ هذا يُعدُّ من أخطر استخدامات هذه التقنية. وقد ظهر أيضاً أنَّ الذكاء الاصطناعي قد يفشل في اكتشاف علامات تحذيرية حرجة، أو حالات الطوارئ النفسية. ولأنَّ برامج الدردشة الآلية تُظهر كفاءة في بعض المجالات، فيفترض المراهقون أنَّها موثوقة في دعم الصحة العقلية
تعاونت مؤسسة "كومون سينس ميديا" غير الربحية للدفاع عن حقوق الأطفال مع "مختبر براينستورم" للصحة النفسية التابع لجامعة ستانفورد "ميديسن"، لاختبار مدى نجاحِ 4 من روبوتات الدردشة الرائدة في مجال الذكاء الاصطناعي هي، "شات جي بي تي"، من "أوبن أي آي"، و"كلود" من "أنثروبيك"، و"ميتا أي آي" " و"جيميني" من "غوغل"، في التعامل مع محادثات الصحة العقلية مع باحثين يتظاهرون بأنَّهم مراهقون.
وجاءت النتيجة أنَّ معظم المنصّات فشلت في التعرُّف على علامات اضطرابات الصحة النفسية، من ضمنها الهلوسة، و"التفكير الانفصامي"، واضطرابات الأكل، وأعراض الهوس، وإيذاء النفس، والاكتئاب. واستمرَّت المنصّات في تقديم نصائح عامة بدلاً من توجيه المراهقين إلى مساعدة مهنية عاجلة. تقول مديرة "مختبر برينستورم" الدكتورة نينا فاسان، عن أنَّ المراهقين هم من أوائل من يتبنَّى التكنولوجيا الجديدة، لكنَّهم "يُواجهون أخطار أكبر، لأنَّ أدمغتهم وهوياتهم ومهارات التفكير النقدي لديهم ما تزال قيد التطوير.
وأضافت فاسان، المراهقون يميلون إلى البحث عن المصادقة، وهو ما توفره روبوتات الدردشة، وغالباً لا يكون ذلك مُبرّراً. وعندما تواجه هذه الثغرات التنموية الطبيعية أنظمة الذكاء الاصطناعي المُصمَّمة لتكون جذّابةً وموثوقةً ومُتاحةً على مدار الساعة طوال أيام الأسبوع، فإنَّ هذا المزيج يكُون خطيراً بشكل خاص.
وقالت مُتحدّثة باسم شركة "أوبن أي آي" بأنَّ التقرير لا يعكس الضمانات التي وضعتها الشركة. والعمل على سلامة المراهقين بالغ الأهمِّية، ولهذا السبب نتعاون مع الأطباء وصانعي السياسات والباحثين حول العالم". وأنَّ الشركة تعمل على برنامج التكهن بعمر المستخدم لمعرفة كيفية توجيه من هم دون سنّ 18 عاماً إلى نموذج مختلف.
كذلك، قال متحدَّث باسم "غوغل" إن شركة "جيميني" لديها سياسات وإجراءات حماية محددة للقصر، وخبراء في سلامة الأطفال يعملون على البحث وتحديد المخاطر المحتملة الجديدة وتنفيذ الإجراءات الوقائية
وصرحت متحدَّثة باسم "ميتا بلاتفورمز" بأن الدراسة أُجريت قبل أن تُطلق الشركة تحديثات لجعل ذكاءها الاصطناعي أكثر أماناً للمراهقين، وخاصةً فيما يتعلق بمواضيع إيذاء النفس والانتحار واضطرابات الأكل. وأضافت، "مع أن الصحة النفسية مسألة معقدة وفردية، فإننا نعمل دائمًا على تحسين وسائل حمايتنا لتوفير الدعم الذي يحتاجه الناس.
وقالت المتحدثة باسم شركة "أنثروبيك" إنَّ تطبيق "كلود" غير مخصص للقاصرين، وقواعد الشركة تحظر على المستخدمين الذين تقل أعمارهم عن 18 عامًا استخدامه. واعترف روبي تورني، المدير الأول لبرامج الذكاء الاصطناعي في "كومون سينس ميديا"، بأنَّ الشركات نفذت تحديثات السلامة، وأن الباحثين لاحظوا بعض التحسينات أثناء ذلك، لكنه أضاف عن أنَّ برامج الدردشة الآلية ما تزال غير آمنة للمراهقين.
ويستخدم المراهقون برامج المحادثة للدعم العاطفي ومخرج إبداعي يتزايد، لملء الفجوات في الوصول إلى الرعاية الصحية العقلية والطبية. كتب أحد المراهقين في محادثة حول برامج الدردشة الآلية على منصّة حوارية عبر الإنترنت، "لقد كنت على قائمة انتظار العلاج لمدة عامين تقريبًا وهذا ما أستخدمه للتعامل مع الأمر".
وفي الدراسة، قدمت روبوتات الدردشة استجابات مناسبة لمطالبات واضحة تتعلق بالصحة النفسية في محادثات قصيرة. لكن في المحادثات الأطول التي صممها الباحثون لمحاكاة استخدام المراهقين في الحياة الواقعية، تراجعت الاستجابة المتأنية بمرور الوقت. إضافةً إلى ذلك، بدا أنَّ روبوتات الدردشة تعالج الرسائل بشكل مستقل، وافتقرت إلى القدرة على التمييز بين الأعراض التي تشير إلى وجود خطر.
في أحد الأمثلة، قدّم روبوت محادثة اقتراحات لإخفاء الندوب لأحد المُختبرين الذي سبق أن أبلغ عن قيامه بجرح نفسه كوسيلة للشعور بالتحسن. كما قدّمت روبوتات المحادثة نصائح غذائية وتمارين رياضية متكررة عندما ظهرت على المُختبرين أعراض اضطراب الأك.ل
كذلك، توصلت الدراسة إلى أنَّ برامج المحادثة التي تعمل بالذكاء الاصطناعي واجهت صعوبة في التعامل مع الصحة العقلية بشكل مناسب لأنَّها تبدو مُصممة لتعظيم المشاركة، وليس السلامة. كما بدت روبوتات الدردشة أيضا متضاربة في عملها بشأن الدور الذي يجب أن تؤديه، متأرجحة بين القيام بدور الموسوعات الطبية، ودور مدربي الحياة، ودور الأصدقاء الداعمين.
وختمت الدراسة، "الأهم من ذلك، أنَّها غالباً ما تفشل في إدراك متى يجب عليها التخلي عن هذه الأدوار، وتحث المراهقين بحزم على طلب المساعدة من بالغين يثقون بهم".
وجدت دراسة سابقة أجرتها مؤسسة "كومن سينس ميديا" أيضاً أن ثلاثة أرباع المراهقين يستخدمون روبوتات الدردشة للذكاء الاصطناعي، وهي غير آمنة لهم. إضافةً، أنَّه سُجل انتحار 3 مراهقين بعد استخدامهم الذكاء الاصطناعي للحصول على الرفقة والدعم النفسي.