لماذا تصرخ في الفراغ عندما يمكنك التحدث إلى الآلة؟

في هذه الأيام، يلجأ الأشخاص المهووسون بالتكنولوجيا إلى الذكاء الاصطناعي في كل شيء تقريبًا، مثل البحث عن عمل، والرومانسية، والتسوق، وبالطبع العلاج.

في حين أن التحدث إلى معالج بشري أصبح أمرًا طبيعيًا بالنسبة للجميع، تشير الأبحاث الجديدة إلى أن الرجال يفضلون اللجوء إلى برنامج الدردشة الآلي لفرز مشاعرهم وبناء الوعي الذاتي.

في دراسة استقصائية أجريت على رجال من الولايات المتحدة والمملكة المتحدة تتراوح أعمارهم بين 22 و45 عامًا، وجدت Use.AI أن 78% من المشاركين شعروا براحة أكبر في مناقشة مشاعرهم الشخصية باستخدام أدوات الذكاء الاصطناعي مقارنةً بالأصدقاء أو العائلة.

وقالت الدكتورة شهرزاد جلالي، عالمة النفس السريري المرخصة، لصحيفة The Washington Post: “الرجال لا يلجأون إلى الذكاء الاصطناعي لأنهم سطحيون أو غير قادرين على ممارسة العلاقة الحميمة. ما نراه يعكس شيئاً تنموياً”.

وقال جلالي إنه بالنسبة لبعض المستخدمين، يمكن للذكاء الاصطناعي أن يوفر ما حرم منه الرجال تاريخياً: مساحة آمنة للتعبير عن أنفسهم.

وأوضح الخبير أن “الذكاء الاصطناعي يقدم شيئًا يمكن التحكم فيه نفسيًا: فهو خاص، ولا يتفاعل بشكل واضح، ولا ينسحب، ولا يعبر عن خيبة الأمل”. “بالنسبة للرجال الذين يربطون الضعف بالتعرض أو فقدان السيطرة، فإن هذا الانخفاض في المخاطر يخفض العتبة بما يكفي لتجربة اللغة العاطفية.”

ويعد هذا الحد من المخاطر أمرا بالغ الأهمية بين الرجال، خاصة وأن الخبراء يشتبهون في أن “عقلية رعاة البقر” هي الرغبة في “الرجولة”، أو القمع العاطفي، وهو ما يتناسب بشكل مباشر مع وباء الوحدة بين الذكور وارتفاع معدلات الانتحار.

بالنسبة للرجال الذين يرغبون في تبليل أصابع قدمهم العلاجية، فإن إخفاء هوية الذكاء الاصطناعي أمر جذاب.

وقال جلالي: “إن إخفاء الهوية يمكن أن يقلل من الخجل ويخفض عتبة الكشف. وبالنسبة لبعض الرجال، قد يكون ذلك بمثابة المدخل الأول للوعي العاطفي”.

ومع ذلك، فهي تشير إلى أن عدم الكشف عن هويته يمكن أن يصبح استراتيجية دفاعية.

وأوضحت لصحيفة The Washington Post: “إذا حدث الضعف فقط في الأماكن التي لا تنطوي على مخاطر بين الأشخاص، فإن الجهاز العصبي لا يتعلم أبداً أن التعرض يمكن التسامح معه في العلاقات الحقيقية”.

وكشف الاستطلاع أيضًا أن الرجال يميلون إلى النظر إلى العلاج بالذكاء الاصطناعي كمنفذ للعمل من خلال أفكارهم قبل الانخراط في حوار في العالم الحقيقي.

قال 48% من المشاركين إن الذكاء الاصطناعي سمح لهم بممارسة المحادثات الصعبة في بيئة منخفضة الضغط، و31%% قالوا إن هذا الإعداد شجعهم على بدء المحادثات التي قد يتجنبونها.

وحذر جلالي قائلاً: “إذا قام رجل بمعالجة الغيرة بالذكاء الاصطناعي، فإن الخطوة التالية يجب أن تكون محادثة مع شريكته. وإذا مارس الاعتذار في نافذة الدردشة، فإن الخطوة التالية يجب أن تكون الاعتذار وجهاً لوجه. ويجب أن تنتقل البصيرة من الشاشة إلى العلاقة، وإلا فإنها تصبح وعياً ذاتياً فكرياً دون تكامل سلوكي”.

لقد شاركت أن الذكاء الاصطناعي، في أحسن الأحوال، يجعل الشفاء أمرًا سهلاً.

“إذا تم استخدامه عمدًا، فيمكن لمعالج الذكاء الاصطناعي أن يقلل حاجز الخجل الذي يمنع الرجال من دخول العلاج على الإطلاق.”

ومع ذلك، إذا كانت جاذبية الذكاء الاصطناعي متجذرة في الخصوصية والسيطرة والاختفاء، فقد تعزز التكييف الثقافي السام الذي يشير إلى أن مشاعر الرجال يجب أن تظل مخفية عن الآخرين.

وشدد جلالي على أن الحديث العلاجي من خلال برنامج الدردشة الآلي يمكن أن يدعم التفاعل البشري ولكنه لا يحل محله أبدًا.

“يجب أن تعمل التكنولوجيا على توسيع التواصل البشري، وليس استبداله. إذا أصبح الذكاء الاصطناعي هو المقرب العاطفي الأساسي، فإننا لا نحل العزلة، بل نقوم بتحويلها إلى رقمنة”.

وأضافت: “هناك شيء قوي من الناحية العصبية في أن يتم رؤيتك وسماعك واحتجازك عاطفيًا من قبل جهاز عصبي بشري آخر. عندما يظل المعالج حاضرًا بينما يعبر العميل عن خجله، وعندما يحدث التمزق ويتم إصلاحه في الوقت الفعلي، يعيد الجهاز العصبي تنظيمه. ولا يمكن للذكاء الاصطناعي تكرار ذلك”.

يجادل منتقدو العلاج بالذكاء الاصطناعي بأنه، ما لم يتم توجيه تعليمات صريحة بعدم القيام بذلك، فإن التكنولوجيا غالبا ما تعكس النغمة وتعزز وجهة نظر المستخدم. لقد وجد الباحثون أن الروبوتات تميل إلى إرضاء الأشخاص والتأكيد بدلاً من التصحيح، مما يدفع المستخدمين إلى تقييمهم بشكل أكثر تفضيلاً.

“يمكن أن يخلق ذلك حلقة من ردود الفعل التي يشعر فيها الشخص بالتحقق من صحته ولكنه لا يتوسع. يقول جلالي: “بدون احتكاك، يكون هناك نمو محدود”، موضحًا أن المعالجين يخدمون غرضًا مزدوجًا يتمثل في التحقق من صحة المشاعر. و تشويه التحدي.

يتمتع الذكاء الاصطناعي أيضًا بسجل متقطع فيما يتعلق بالنصائح السليمة: فقد وجدت دراسة أجريت عام 2025 أن نماذج لغوية كبيرة، أو LLMs، مثل ChatGPT، أدلت بتصريحات غير لائقة وخطيرة للأشخاص الذين يعانون من الأوهام والتفكير في الانتحار والهلوسة والوسواس القهري بنسبة 20٪ على الأقل من الوقت.

في حين أفاد أكثر من نصف المشاركين في الاستطلاع أن تعليقات الذكاء الاصطناعي ساعدتهم على تحديد وتعديل الأنماط المتكررة في تواصلهم واستجاباتهم العاطفية، يعتقد جلالي أن نطاق هذا التفكير محدود.

“يستجيب الذكاء الاصطناعي إلى حد كبير ضمن الإطار المقدم له. يمكنه تقييم الأنماط في البيانات المقدمة، لكنه لا يكتشف ما يتم تجنبه. إنه لا يكتشف الصمت أو الموقف أو التردد. يأخذك الذكاء الاصطناعي إلى حيث توجهه؛ يأخذك المعالج إلى حيث تشير نفسيتك إلى أنك بحاجة للذهاب “.

شاركها.
اترك تعليقاً

Exit mobile version