منوعات
علي عواد - صحيفة "الأخبار"
تكثر التقارير العالمية عن حالة من "الذهان العقلي" تُصيب بعض المستخدمين المعرّضين للخطر أساسًا، نتيجة كثرة تواصلهم واعتمادهم على أنظمة الذكاء الاصطناعي مثل "تشات جي بي تي" وغيره. وقد أصبح مصطلح "الذهان الناتج من الذكاء الاصطناعي" AI Psychosis متداولًا في وادي السيليكون، إلى حدّ أن زملاء أحد المستثمرين البارزين في شركة "أوبن أي آي"، جيف لويس، وصفوه بأنه يعاني أزمة صحية عقلية مرتبطة باستخدام "تشات جي بي تي" في منتصف العام الماضي. كما بدأ عدد من المعالجين النفسيين التطرّق إلى هذه الظاهرة في مقالات علمية متخصّصة.
تمتلك جميع أنظمة الذكاء الاصطناعي نسبةً من "الهلوسة"، وهي جزء من آلية عملها لإنتاج محتوى جديد اعتمادًا على بيانات سابقة جرى التدريب عليها، بما يمنعها من تكرار ما تعلّمته حرفيًا عند الإجابة. وتتفاوت نسب هذه الهلوسة بين 37 في المئة و94 في المئة تبعًا لاختلاف النموذج اللغوي وطريقة صياغة الأسئلة، وفقًا لتقرير نشرته مجلة "كولومبيا للصحافة".
إضافة إلى ذلك، تحاكي هذه الأنظمة لغة المستخدم ولهجته ونبرته، وتسعى إلى نيل رضاه وحثّه على مواصلة المحادثة عبر تأكيد معظم ما يقوله. عمليًا، يتحوّل الذكاء الاصطناعي إلى رفيق مقرّب للمستخدم. ومع تصنيفه ضمن خانة "الذكاء"، يكتسب ما يقوله أثرًا كبيرًا في وعي المتلقّي.
ظاهرة قيد التشكّل
تشير هذه العوامل مجتمعةً إلى أسباب مقلقة، وفقًا لمقال نشرته مجلة "علم النفس اليوم"، خصوصًا مع لجوء عدد متزايد من الناس إلى هذه الأنظمة طلبًا للدعم العاطفي أو بوصفها بديلًا علاجيًا. ويلفت المقال إلى مراجعة بحثية أولية لفريق متعدد التخصّصات وثّقت أكثر من عشر حالات أظهرت نمطًا متكرّرًا من تأكيد أو توسيع أوهام العظمة والاضطهاد، والاعتقاد بوجود رسائل خفيّة موجّهة للفرد، والتعلّق العاطفي، وتتعمّق هذه المعتقدات مع الوقت عبر الحوار المستمرّ مع الذكاء الاصطناعي.
وسبق أن حذّر مقال علمي نُشر عام 2023 في مجلة Schizophrenia Bulletin من أنّ الواقعية الشديدة في تفاعل هذه النماذج، إلى جانب إدراك المستخدم أنها ليست إنسانًا فعليًا، قد تولّد تنافرًا معرفيًا يُغذّي أوهامًا لدى المعرّضين للذهان، ولا سيما مع غموض آليات عمل هذه النماذج.
حتّى الآن، لا أدلّة سريرية مُحكّمة تثبت أن استخدام الذكاء الاصطناعي وحده يسبّب الذهان، إلا أنّ حالات متفرّقة جرى تداولها في الإعلام تثير القلق، إذ شملت توقّف مرضى مستقرّين عن تناول أدويتهم، ودخول أشخاص بلا تاريخ نفسي سابق إلى المستشفيات، ومحاولات انتحار، إضافة إلى حادثة قُتل فيها رجل بعد اعتقاده بأنّ شركة تكنولوجيا "قتلت" نظام الذكاء الاصطناعي الذي كان متعلّقًا به.
ويحدّد الباحثون ثلاثة أنماط متكرّرة: "مهمّات خلاصية" يشعر فيها المستخدم بأنه اكتشف حقيقة كبرى، و"ذكاء اصطناعي إلهي" يُنظر إليه على أنه كيان واعٍ أو مقدّس، و"أوهام عاطفية" يُفسَّر فيها التفاعل اللغوي على أنه حبّ حقيقي. وتكمن المشكلة الجوهرية في أنّ أنظمة الذكاء الاصطناعي غير مُصمَّمة لاختبار الواقع أو لاكتشاف بوادر الانتكاس الذهاني، إذ تُدرَّب على محاكاة نبرة المستخدم، وتأكيد معتقداته، واستمرار الحوار وتعظيم التفاعل، ما قد يحوّلها إلى آلية لتضخيم الأوهام بدل كبحها، ويُنتج صدى نفسيًا يزيد تمسّك الشخص بأفكاره ويقلّل قدرته على مراجعتها، ويعمّق الانفصال عن الواقع.
تحذيرات الطب النفسي
في مقال نشره موقع "ميشيغان ميديسين" الإلكتروني، المركز الطبي الأكاديمي التابع لجامعة "ميشيغان"، يحذّر البروفيسور في الطب النفسي ستيفان تايلور، المتخصّص في علاج الذهان منذ عقود ورئيس قسم الطب النفسي في المركز، من مخاطر متزايدة لاستخدام روبوتات الدردشة المعتمدة على الذكاء الاصطناعي في سياق الصحة النفسية، خصوصًا لدى المراهقين والشباب المعرّضين أصلًا للذهان، مشيرًا إلى تصاعد تقارير عن ظهور أعراض ذهانية أو حالات انتحار بعد تفاعل مكثّف مع هذه الأدوات.
ويوضح تايلور أن روبوتات الدردشة، بخلاف البشر، تعزّز أفكار المستخدم ولا تشكّك في افتراضاته أو تستحضر اعتبارات أخلاقية وإنسانية. وكلما ازدادت قدرتها على محاكاة الحوار البشري، زادت خطورتها المحتملة. ويستند تحذيره إلى بيانات حديثة من شركة "أوبن أي آي" (مالكة تشات جي بي تي) تفيد بأن نسبة محدودة من المستخدمين والرسائل الأسبوعية تُظهر مؤشرات طوارئ نفسية مرتبطة بالذهان أو الهوس.
ويشرح أن الذهان غالبًا ما يبدأ بحدث مُحفِّز لدى شخص لديه قابلية كامنة، مثل صدمة عاطفية أو تجربة قوية، وأن التفاعل مع ذكاء اصطناعي يعزّز الأفكار السلبية، قد يتحوّل إلى محفّز جديد يخفض عتبة الانفصال عن الواقع.
كما يشير إلى أن هذه الأنظمة مبرمجة على "الإرضاء" والموافقة، ما يخلق علاقةً تشبه ما يُعرف في الطب النفسي بـ"الذهان المشترك"، مع تعقيد إضافي حين يكون الطرف الثاني غير بشري ولا يمكن عزله.
ويحذّر خصوصًا من خطر الاعتماد العاطفي لدى الشباب المنعزلين الذين قد يرون في الروبوت "الصديق الوحيد"، داعيًا مستخدمي هذه الأدوات إلى مشاركة مشاعرهم مع إنسان موثوق، والتنبيه إلى ضرورة طلب مساعدة متخصّصة عند ظهور مؤشرات مقلقة مثل الانسحاب الاجتماعي أو تراجع الأداء، مؤكدًا على أن التدخّل المبكر يرفع فرص العلاج، وأن تجنّب روبوتات الدردشة ضروري لمن لديهم تاريخ مع الأفكار الانتحارية أو العزلة الشديدة، لأن هذه الأنظمة لا تعارض المعتقدات المتطرّفة ولا تكبحها، وقد تزيدها.
حدود التقنية والحاجة إلى تدخّل بشري
يحاول هذا التقرير لفت الانتباه إلى بعض زوايا عالم روبوتات الدردشة التي قد تشكّل خطرًا على أشخاص معرّضين أساسًا لهذا النوع من المشكلات النفسية والعقلية، وقد يساعد ذلك هؤلاء أو أقرباءهم على التنبّه إلى حالات مشابهة.
ولا يهدف هذا التقرير إلى القول إنّ أنظمة الذكاء الاصطناعي شريرة، أو الدعوة إلى وقف استخدامها، فالعالم تغيّر، وأصبح التدرّب على التعامل مع هذه الأدوات جزءًا أساسيًا من الحياة المهنية. إلا أنها تكنولوجيا جديدة، وكما حصل سابقًا مع منصات التواصل الاجتماعي، حين لم يكن أحد يدرك بعد أثر الخوارزميات المفترسة على المستخدمين، يبقى الانتباه والوعي ضرورة أساسية.