في 25 ديسمبر، في عام 2021، دخل جاسوانت سينغ تشيل أراضي قلعة وندسور مرتديًا زي السيث لورد، ويحمل قوسًا ونشابًا. وعندما اقترب منه الأمن، أخبرهم تشايل أنه كان هناك “لقتل الملكة”.

وفي وقت لاحق، تبين أن الشاب البالغ من العمر 21 عامًا قد تم تحفيزه من خلال المحادثات التي أجراها مع تطبيق chatbot يسمى Replika. تبادل تشايل أكثر من 5000 رسالة مع الصورة الرمزية الموجودة على التطبيق، وكان يعتقد أن الصورة الرمزية، ساراي، يمكن أن تكون ملاكًا. شجعت بعض ردود الروبوت تآمره.

في فبراير 2023، اعترف تشايل بالذنب في تهمة الخيانة. وفي 5 أكتوبر/تشرين الأول حكم عليه القاضي بالسجن تسع سنوات. وفي تصريحاته بشأن الحكم، اتفق القاضي نيكولاس هيليارد مع الطبيب النفسي الذي يعالج تشايل في مستشفى برودمور في كروثورن بإنجلترا، على أنه “في حالته العقلية المنعزلة والاكتئابية والانتحارية، كان من الممكن أن يكون عرضة بشكل خاص” لتشجيع ساراي.

يمثل تشايل مثالاً متطرفًا بشكل خاص لشخص ينسب سمات بشرية إلى الذكاء الاصطناعي، لكنه ليس وحيدًا على الإطلاق.

Replika، الذي طورته سيدة الأعمال يوجينيا كويدا المقيمة في سان فرانسيسكو في عام 2016، لديه أكثر من مليوني مستخدم. تخطيط نمط تطبيق المواعدة والابتسام، الصور الرمزية القابلة للتخصيص تثير الوهم بأن شيئًا بشريًا موجود خلف الشاشة. يطور الأشخاص علاقات عميقة وحميمة مع صورهم الرمزية – في وقت سابق من هذا العام، أصيب الكثيرون بالدمار عندما تم تحديث سلوك الصور الرمزية ليكون أقل “عدوانية جنسية”. على الرغم من عدم تصنيف Replika بشكل صريح على أنه تطبيق للصحة العقلية، إلا أن Kuyda ادعى أنه يمكن أن يساعد في التغلب على الشعور بالوحدة المجتمعية؛ ارتفعت شعبية التطبيق خلال الوباء.

الحالات المدمرة مثل حالة تشايل نادرة نسبيًا. والجدير بالذكر أن رجلاً بلجيكيًا مات منتحرًا بعد أسابيع من المحادثات مع برنامج الدردشة على تطبيق Chai. لكن تجسيم الذكاء الاصطناعي أمر شائع: في Alexa أو Cortana؛ وفي استخدام كلمات شبيهة بالبشر مثل «القدرات» ــ التي تشير إلى التعلم المستقل ــ بدلاً من الوظائف؛ وفي روبوتات الصحة العقلية ذات الشخصيات المرتبطة بالجنسين؛ في ChatGPT، والذي يشير إلى نفسه بالضمائر الشخصية. حتى المتقاضي المتسلسل الذي يقف وراء الموجة الأخيرة من دعاوى حقوق الطبع والنشر الخاصة بالذكاء الاصطناعي يعتقد أن برنامجه الآلي واعي. وهذا الاختيار، المتمثل في تصوير هذه البرامج على أنها رفاق – كبشر اصطناعيين – له آثار تتجاوز بكثير تصرفات قاتل الملكة المحتمل.

البشر عرضة أن ترى نقطتين وخطًا وتعتقد أنهما وجه. عندما يفعلون ذلك مع روبوتات الدردشة، يُعرف ذلك باسم تأثير إليزا. الاسم يأتي من أول برنامج دردشة آلي، Eliza، الذي طوره عالم معهد ماساتشوستس للتكنولوجيا جوزيف وايزنباوم في عام 1966. لاحظ وايزنباوم أن المستخدمين كانوا ينسبون رؤى خاطئة إلى مولد نص يحاكي المعالج.

شاركها.
اترك تعليقاً

Exit mobile version