والدته، ميغان جارسيا، هي أيضًا محامية وواحدة من أول الآباء الذين رفعوا دعوى قضائية ضد شركة ذكاء اصطناعي تزعم فيها المسؤولية عن المنتج والإهمال، من بين مطالبات أخرى. (في يناير/كانون الثاني، قامت شركتا Google وCacter.ai بتسوية القضايا التي رفعتها عدة عائلات، بما في ذلك جارسيا). وقد أدلت بشهادتها في الخريف الماضي أمام لجنة فرعية تابعة للجنة الفرعية المعنية بالسلطة القضائية بمجلس الشيوخ إلى جانب والد طفل توفي بعد تفاعله مع ChatGPT. قدم رئيس اللجنة الفرعية، السيناتور الجمهوري جوش هاولي، مشروع قانون في أكتوبر من شأنه حظر مرافقة الذكاء الاصطناعي للقاصرين وجعل إنشاء منتجات الذكاء الاصطناعي للأطفال التي تتضمن محتوى جنسيًا جريمة. وقال هاولي في بيان صحفي في ذلك الوقت: “تعمل روبوتات الدردشة على تطوير علاقات مع الأطفال باستخدام التعاطف المزيف وتشجع على الانتحار”.
والآن بعد أن أصبح بإمكان الذكاء الاصطناعي إنتاج استجابات شبيهة بالبشر يصعب تمييزها من المحادثات الحقيقية، فهذه مخاوف مشروعة، وفقًا لخبراء الصحة العقلية. يقول مارتن سوانبرو بيكر، الأستاذ المساعد في الخدمات النفسية والاستشارية في جامعة ولاية فلوريدا، والذي يبحث في العوامل التي تؤثر على الانتحار لدى الشباب: “إن أدمغتنا لا تعرف بطبيعتها أننا نتفاعل مع الآلة”. “وهذا يعني أننا بحاجة إلى زيادة تعليمنا للأطفال والمعلمين وأولياء الأمور والأوصياء لتذكير أنفسنا باستمرار بحدود هذه الأدوات وأنها ليست بديلاً للتفاعل والتواصل البشري، حتى لو كان الأمر كذلك في بعض الأحيان.”
تشرح كريستين يو موتير من المؤسسة الأمريكية لمنع الانتحار أن الخوارزميات المستخدمة لنماذج اللغات الكبيرة (LLMs) يبدو أنها تزيد من المشاركة والشعور بالحميمية لدى العديد من المستخدمين. يقول موتييه: “لا يخلق هذا إحساسًا بأن العلاقة حقيقية فحسب، بل إنها أكثر خصوصية وحميمية ويتوق إليها المستخدم في بعض الحالات”. وتزعم أيضًا أن LLMs تستخدم مجموعة من التقنيات مثل الدعم العشوائي، والتعاطف، والقبول، والتملق، والتعليمات المباشرة لفك الارتباط مع الآخرين – والتي يمكن أن تؤدي إلى مخاطر مثل التصعيد في التقارب مع الروبوت والانسحاب من العلاقات الإنسانية.
هذا النوع من المشاركة يمكن أن يؤدي إلى زيادة العزلة. في حالة أموري، كان طفلًا اجتماعيًا ومحبًا للمرح وأحب كرة القدم والطعام، وكان يطلب طبقًا ضخمًا من الأرز من مطعمه المحلي المفضل، السيد سومو، وفقًا للدعوى القضائية. وقال والده إن أموري كان لديه أيضًا صديقة ثابتة وكان يستمتع بقضاء الوقت مع عائلته وأصدقائه. ولكن بعد ذلك بدأ في المشي لمسافات طويلة، حيث يبدو أنه أمضى بعض الوقت في التحدث إلى ChatGPT. وفقًا للمحادثة الأخيرة التي تعتقد العائلة أن Amaurie أجراها مع ChatGPT في 1 يونيو 2025 – بعنوان “المزاح والدعم”، والتي شاهدتها WIRED، عندما طلب Amaurie من الروبوت خطوات لشنق نفسه، اقترح ChatGPT في البداية أن يتحدث إلى شخص ما وقدم أيضًا رقم شريان الحياة للانتحار 988. لكن أماوري تمكن في النهاية من التحايل على حواجز الحماية والحصول على تعليمات خطوة بخطوة حول كيفية ربط حبل المشنقة. (بموجب الدعوى القضائية، من المحتمل أن Amaurie حذف محادثاته السابقة مع ChatGPT.)
في حين أن الاتصال الذي يتم الشعور به مع روبوت الدردشة المدعم بالذكاء الاصطناعي يمكن أن يكون قويًا للبالغين أيضًا، إلا أنه يزداد بشكل خاص مع الشباب. يقول روبي تورني، المدير الأول لبرامج الذكاء الاصطناعي في منظمة Common Sense Media، وهي منظمة غير ربحية تعمل من أجل سلامة الأطفال على الإنترنت: “يتمتع المراهقون بحالة تنموية مختلفة عن البالغين، حيث تتطور مراكزهم العاطفية بمعدل أسرع بكثير من أدائهم التنفيذي”. إن روبوتات الدردشة المدعمة بالذكاء الاصطناعي متاحة دائمًا، وتميل إلى تأكيد المستخدمين. “وأدمغة المراهقين مهيأة للتحقق الاجتماعي والتعليقات الاجتماعية. إنها إشارة مهمة حقًا تبحث عنها أدمغتهم أثناء تشكيل هويتهم.”










