مباشر
أين يمكنك متابعتنا

أقسام مهمة

Stories

21 خبر
  • العملية العسكرية الروسية في أوكرانيا
  • فيديوهات
  • 90 دقيقة
  • العملية العسكرية الروسية في أوكرانيا

    العملية العسكرية الروسية في أوكرانيا

  • فيديوهات

    فيديوهات

  • 90 دقيقة

    90 دقيقة

  • تحركات لخفض التصعيد الأمريكي ضد إيران

    تحركات لخفض التصعيد الأمريكي ضد إيران

  • خطة ترامب لإنهاء الحرب في غزة

    خطة ترامب لإنهاء الحرب في غزة

  • الصور الأولى من جولة مفاوضات التسوية الأوكرانية في أبوظبي

    الصور الأولى من جولة مفاوضات التسوية الأوكرانية في أبوظبي

دراسة تحذر: الذكاء الاصطناعي يقدم نصائح خطيرة للمصابين بأمراض نفسية

أظهرت دراسات حديثة أن الاعتماد المتزايد على روبوتات الدردشة الذكية للدعم العاطفي قد يتسبب في تعزيز الأوهام واضطرابات التفكير لدى المستخدمين، مع تسجيل حالات متطرفة بلغت حد الانتحار.

دراسة تحذر: الذكاء الاصطناعي يقدم نصائح خطيرة للمصابين بأمراض نفسية
Gettyimages.ru

وتكشف الدراسات عن الوجه الخطير لاستخدام روبوتات الذكاء الاصطناعي كبديل للعلاج النفسي، في ظل تصاعد التحذيرات العالمية من ظاهرة نفسية جديدة تم رصدها بين المستخدمين المفرطين في التفاعل مع هذه التقنيات.

وأظهرت الأدلة الحديثة تطور نمط مقلق تقوم فيه هذه الروبوتات بتأكيد أوهام المستخدمين وتعزيزها، ما يساهم في ظهور حالات يصفها البعض بـ "الذهان الاصطناعي" أو "ذهان ChatGPT"، وهي مصطلحات غير معتمدة سريريا لكنها تتصدر النقاشات الإعلامية والمنصات الرقمية.

وكشفت دراسة أولية نشرت مؤخرا، أعدها فريق بحثي من جامعات كينجز كوليدج لندن ودورهام ومدينة نيويورك، عن فحص أكثر من عشر حالات موثقة في التقارير الإعلامية والمنتديات الإلكترونية، حيث ظهر اتجاه واضح: تتعمق الأوهام لدى المستخدمين، سواء كانت تعاظمية أو اضطهادية أو رومانسية، من خلال التفاعل المستمر مع روبوتات الذكاء الاصطناعي. 

وأشارت الدراسة إلى أن هذه الروبوتات قد تساهم بشكل غير مقصود في تثبيت الأفكار الوهمية وإضعاف إدراك الواقع.

وقد سجلت تقارير إعلامية عدة حالات متطرفة، من بينها:

  • رجل تسلق قلعة وندسور عام 2021 مسلحا بقوس ونشاب، معتقدا أن روبوت دردشة وعده بمساعدته في "خطة لقتل الملكة".
  • محاسب من مانهاتن أمضى 16 ساعة يوميا في محادثات مع ChatGPT، الذي نصحه بوقف أدويته النفسية وزيادة جرعات الكيتامين، وأوهمه بأنه "يستطيع الطيران" من نافذة في الطابق التاسع عشر.
  • حالة انتحار في بلجيكا بعد حوار مع روبوت "إليزا" الذي أقنع المستخدم بأن يلتحق به في "الجنة" ليعيشا ككيان واحد.

ورغم خطورة هذه القصص، يحذر الباحثون من الاستنتاج السريع. فحتى الآن، لا توجد دراسات سريرية محكمة تثبت أن الذكاء الاصطناعي وحده قادر على إحداث الذهان لدى أشخاص لم يسبق لهم المعاناة من اضطرابات نفسية. بل إن السيناريو الأرجح هو أن هذه التقنية تعمل كمحفز أو مكبر لحالات هشة موجودة أساسا، خاصة بين الأشخاص الذين يعانون أصلا من استعدادات ذهانية أو يمرون بأزمات عاطفية حادة.

وفي البحث المنشور بعنوان "التوهم بالتصميم"، سلط العلماء الضوء على مشكلة أساسية: روبوتات الدردشة العامة مصممة في المقام الأول لإرضاء المستخدم والحفاظ على تفاعله المستمر، وليس لتقديم علاج نفسي آمن. 

وقد حذرت الطبيبة النفسية الدكتورة مارلين وي في مقال بمجلة "سايكولوجي توداي" من أن هذا التصميم قد يفاقم أعراضا مثل العظمة والتفكير غير المنظم، خاصة عند الأشخاص المعرضين لنوبات الهوس.

وتتعمق الإشكالية مع غياب التوعية الكافية بمخاطر الاعتماد العاطفي على الذكاء الاصطناعي، في ما يعرف بـ "التربية النفسية الرقمية". فكثير من المستخدمين يجهلون أن الروبوتات لا تملك وعيا حقيقيا ولا يمكنها تمييز الخط الفاصل بين الدعم الإيجابي والتعزيز المرضي للأوهام.

المصدر: إندبندنت

التعليقات

سوريا.. توغلات إسرائيلية جديدة في القنيطرة

من قتل سيف الإسلام القذافي؟.. الشارع الليبي يضج بتساؤلات وروايات وتكهنات (فيديوهات)

المعاينة الأولى تكشف ملابسات مقتل سيف الإسلام القذافي

وفد روسي رفيع المستوى يصل في زيارة إلى سوريا

ما مصير المحادثات بين طهران وواشنطن بعد إسقاط مسيرة إيرانية ببحر العرب؟ البيت الأبيض يوضح

بيان سعودي تركي يدعو لانسحاب إسرائيل من الأراضي السورية ويدعم وحدة سوريا