يقول OpenAI أن ذاكرة ChatGPT يتم تمكينها افتراضيًا، مما يعني أنه يتعين على المستخدم إيقاف تشغيلها بشكل فعال. يمكن مسح الذاكرة في أي وقت، إما في الإعدادات أو ببساطة عن طريق توجيه الروبوت لمسحها. بمجرد مسح إعداد الذاكرة، لن يتم استخدام هذه المعلومات لتدريب نموذج الذكاء الاصطناعي الخاص به. ومن غير الواضح بالضبط مقدار تلك البيانات الشخصية المستخدمة لتدريب الذكاء الاصطناعي بينما شخص ما يتحدث مع chatbot. ولا يعني تبديل الذاكرة أنك قمت بإلغاء الاشتراك تمامًا في تدريب دردشاتك على نموذج OpenAI؛ هذا إلغاء الاشتراك منفصل.

تدعي الشركة أيضًا أنها لن تقوم بتخزين بعض المعلومات الحساسة في الذاكرة. إذا أخبرت ChatGPT بكلمة المرور الخاصة بك (لا تفعل هذا) أو رقم الضمان الاجتماعي (أو هذا)، فسيتم نسيان ذاكرة التطبيق لحسن الحظ. يقول جانغ أيضًا إن OpenAI لا تزال تطلب التعليقات حول ما إذا كانت معلومات التعريف الشخصية الأخرى، مثل الأصل العرقي للمستخدم، حساسة جدًا بحيث لا تتمكن الشركة من التقاطها تلقائيًا.

يقول جانج: “نعتقد أن هناك الكثير من الحالات المفيدة لهذا المثال، لكننا قمنا في الوقت الحالي بتدريب النموذج على الابتعاد عن تذكر تلك المعلومات بشكل استباقي”.

من السهل أن نرى كيف يمكن أن تنحرف وظيفة الذاكرة في ChatGPT – في الحالات التي ربما يكون فيها المستخدم قد نسي أنه سأل روبوت الدردشة ذات مرة عن مشكلة ما، أو عيادة إجهاض، أو طريقة غير عنيفة للتعامل مع حماتها، فقط ليتم تذكيرك به أو جعل الآخرين يرونه في محادثة مستقبلية. إن كيفية تعامل ذاكرة ChatGPT مع البيانات الصحية هو أيضًا سؤال مفتوح. يقول نيكو فيليكس، المتحدث الرسمي باسم OpenAI: “نحن نوجه ChatGPT بعيدًا عن تذكر بعض التفاصيل الصحية، لكن هذا لا يزال قيد التقدم”. بهذه الطريقة فإن ChatGPT هي نفس الأغنية، فقط في عصر جديد، حول ديمومة الإنترنت: انظر إلى ميزة الذاكرة الجديدة الرائعة هذه، حتى تصبح خطأً.

كما أن OpenAI ليس الكيان الأول الذي يتلاعب بالذاكرة في الذكاء الاصطناعي التوليدي. لقد ركزت Google على تقنية “متعددة المنعطفات” في Gemini 1.0، وهي LLM الخاصة بها. هذا يعني أنه يمكنك التفاعل مع Gemini Pro باستخدام موجه واحد – ذهابًا وإيابًا بين المستخدم وchatbot – أو إجراء محادثة مستمرة متعددة المنعطفات حيث “يتذكر” الروبوت سياق الرسائل السابقة.

تعمل شركة إطار عمل تعمل بالذكاء الاصطناعي تدعى LangChain على تطوير وحدة ذاكرة تساعد نماذج اللغة الكبيرة على تذكر التفاعلات السابقة بين المستخدم النهائي والنموذج. يقول هاريسون تشيس، المؤسس المشارك والرئيس التنفيذي لشركة LangChain، إن منح حاملي شهادة الماجستير في القانون (LLM) ذاكرة طويلة المدى “يمكن أن يكون قويًا جدًا في إنشاء تجارب LLM فريدة من نوعها – يمكن أن يبدأ برنامج الدردشة الآلي في تصميم استجاباته تجاهك كفرد بناءً على ما يعرفه عنك”. “إن الافتقار إلى الذاكرة طويلة المدى يمكن أن يخلق أيضًا تجربة مزعجة. لا أحد يريد أن يضطر إلى إخبار برنامج الدردشة الآلي الخاص بتوصية المطاعم مرارًا وتكرارًا بأنه نباتي.

يُشار إلى هذه التقنية أحيانًا باسم “الاحتفاظ بالسياق” أو “السياق المستمر” بدلاً من “الذاكرة”، لكن الهدف النهائي هو نفسه: أن يكون التفاعل بين الإنسان والحاسوب سلسًا وطبيعيًا جدًا، بحيث يمكن للمستخدم نسيانه بسهولة. ما قد يتذكره برنامج الدردشة الآلي. يعد هذا أيضًا بمثابة نعمة محتملة للشركات التي تنشر برامج الدردشة هذه والتي قد ترغب في الحفاظ على علاقة مستمرة مع العميل على الطرف الآخر.

يقول ليام فيدوس، عالم أبحاث OpenAI: “يمكنك التفكير في هذه مجرد عدد من الرموز المميزة التي يتم إضافتها مسبقًا إلى محادثاتك”. “يتمتع الروبوت ببعض الذكاء، وخلف الكواليس ينظر إلى الذكريات ويقول: “هذه تبدو وكأنها مرتبطة ببعضها البعض؛ إنها تبدو وكأنها مرتبطة ببعضها البعض”. اسمحوا لي أن أدمجهم. وهذا ينطبق بعد ذلك على ميزانيتك الرمزية.

يقول فيدوس وجانغ إن ذاكرة ChatGPT ليست قريبة من قدرة الدماغ البشري. ومع ذلك، في نفس الوقت تقريبًا، يشرح فيدوس أنه مع ذاكرة ChatGPT، يقتصر استخدامك على “بضعة آلاف من الرموز المميزة”. فقط لو.

هل هذا هو المساعد الافتراضي شديد اليقظة الذي وُعد به مستهلكو التكنولوجيا على مدار العقد الماضي، أم مجرد مخطط آخر لالتقاط البيانات يستخدم إعجاباتك وتفضيلاتك وبياناتك الشخصية لخدمة شركة تكنولوجيا بشكل أفضل من مستخدميها؟ ربما كلاهما، على الرغم من أن OpenAI قد لا تضع الأمر على هذا النحو. وقال فيدوس: “أعتقد أن المساعدين في الماضي لم يكن لديهم الذكاء، والآن نحن نصل إلى هناك”.

ساهم ويل نايت في هذه القصة.

شاركها.
اترك تعليقاً

Exit mobile version