يتوقع الرئيس التنفيذي لشركة OpenAI، سام ألتمان، أن يكون العام 2027 أو 2028 هو الذكاء الاصطناعي العام، أو الذكاء الاصطناعي العام – الذكاء الاصطناعي الذي يتفوق على البشر في معظم المهام – بحلول عام 2027 أو 2028. وتوقع إيلون موسك أن يكون عام 2025 أو 2026، وقد ادعى أنه “يفقد النوم بسبب خطر الذكاء الاصطناعي”. “. مثل هذه التوقعات خاطئة. مع تزايد وضوح حدود الذكاء الاصطناعي الحالي، توصل معظم الباحثين في مجال الذكاء الاصطناعي إلى وجهة نظر مفادها أن مجرد بناء روبوتات محادثة أكبر وأقوى لن يؤدي إلى الذكاء الاصطناعي العام.

ومع ذلك، في عام 2025، سيظل الذكاء الاصطناعي يشكل خطراً هائلاً: ليس من الذكاء الاصطناعي الفائق، ولكن من سوء الاستخدام البشري.

وقد تكون هذه حالات إساءة استخدام غير مقصودة، مثل اعتماد المحامين بشكل مفرط على الذكاء الاصطناعي. بعد إصدار ChatGPT، على سبيل المثال، تمت معاقبة عدد من المحامين لاستخدامهم الذكاء الاصطناعي لإنشاء إحاطات قضائية خاطئة، ويبدو أنهم غير مدركين لميل روبوتات الدردشة إلى اختلاق الأشياء. وفي كولومبيا البريطانية، أُمرت المحامية تشونغ كي بدفع تكاليف المحامي المعارض بعد أن أدرجت قضايا وهمية أنشأها الذكاء الاصطناعي في ملف قانوني. وفي نيويورك، تم تغريم ستيفن شوارتز وبيتر لودوكا مبلغ 5000 دولار لتقديمهما استشهادات كاذبة. في كولورادو، تم إيقاف زكريا كرابيل عن العمل لمدة عام لاستخدامه قضايا قضائية وهمية تم إنشاؤها باستخدام ChatGPT وإلقاء اللوم على “المتدرب القانوني” في الأخطاء. القائمة تنمو بسرعة.

إساءة الاستخدام الأخرى متعمدة. في يناير 2024، غمرت التزييفات العميقة الجنسية الصريحة لتايلور سويفت منصات وسائل التواصل الاجتماعي. تم إنشاء هذه الصور باستخدام أداة الذكاء الاصطناعي “Designer” من Microsoft. في حين أن الشركة كانت لديها حواجز حماية لتجنب إنشاء صور لأشخاص حقيقيين، فإن الخطأ الإملائي في اسم Swift كان كافيًا لتجاوزها. قامت Microsoft منذ ذلك الحين بإصلاح هذا الخطأ. لكن تايلور سويفت ما هي إلا قمة جبل الجليد، وتنتشر التزييفات العميقة غير التوافقية على نطاق واسع، ويعود ذلك جزئيًا إلى توفر أدوات مفتوحة المصدر لإنشاء التزييفات العميقة بشكل علني. تسعى التشريعات الجارية في جميع أنحاء العالم إلى مكافحة التزييف العميق على أمل الحد من الضرر. ما إذا كان فعالا يبقى أن نرى.

وفي عام 2025، سيكون من الصعب التمييز بين ما هو حقيقي وما هو مختلق. تعد دقة الصوت والنصوص والصور التي يتم إنشاؤها بواسطة الذكاء الاصطناعي رائعة، وسيكون الفيديو هو التالي. وهذا من شأنه أن يؤدي إلى “ربح الكاذب”: أولئك الذين يشغلون مناصب في السلطة يتنكرون للأدلة التي تثبت سوء سلوكهم من خلال الزعم بأنها مزيفة. في عام 2023، جادلت تسلا بأن مقطع فيديو لعام 2016 لإيلون موسك كان من الممكن أن يكون مزيفًا ردًا على مزاعم بأن الرئيس التنفيذي قد بالغ في سلامة الطيار الآلي لشركة تسلا مما أدى إلى وقوع حادث. ادعى سياسي هندي أن مقاطع صوتية له يعترف فيها بالفساد في حزبه السياسي تم التلاعب بها (تم التحقق من صحة الصوت الموجود في واحد على الأقل من مقاطعه من خلال منفذ صحفي). وادعى اثنان من المتهمين في أعمال الشغب التي جرت في 6 يناير/كانون الثاني أن مقاطع الفيديو التي ظهروا فيها كانت مزيفة بعمق. تم العثور على كلاهما مذنبا.

وفي الوقت نفسه، تستغل الشركات الارتباك العام لبيع منتجات مشكوك فيها في الأساس من خلال تصنيفها على أنها “ذكاء اصطناعي”. يمكن أن يحدث هذا خطأً فادحًا عندما يتم استخدام مثل هذه الأدوات لتصنيف الأشخاص واتخاذ قرارات تبعية بشأنهم. على سبيل المثال، تدعي شركة التوظيف ريتوريو أن الذكاء الاصطناعي الخاص بها يتنبأ بمدى ملاءمة المرشحين للوظيفة بناءً على مقابلات الفيديو، لكن دراسة وجدت أنه يمكن خداع النظام ببساطة من خلال وجود نظارات أو عن طريق استبدال خلفية عادية برف كتب، مما يوضح أنه يعتمد على الارتباطات السطحية.

هناك أيضًا العشرات من التطبيقات في مجالات الرعاية الصحية والتعليم والمالية والعدالة الجنائية والتأمين حيث يتم استخدام الذكاء الاصطناعي حاليًا لحرمان الناس من فرص الحياة المهمة. وفي هولندا، استخدمت هيئة الضرائب الهولندية خوارزمية الذكاء الاصطناعي لتحديد الأشخاص الذين ارتكبوا عمليات احتيال تتعلق برعاية الأطفال. واتهمت خطأً آلاف الآباء، وطالبت في كثير من الأحيان بسداد عشرات الآلاف من اليورو. وفي أعقاب ذلك، استقال رئيس الوزراء وحكومته بأكملها.

في عام 2025، نتوقع أن تنشأ مخاطر الذكاء الاصطناعي ليس من عمل الذكاء الاصطناعي من تلقاء نفسه، ولكن بسبب ما يفعله الناس به. ويشمل ذلك الحالات التي يبدو للعمل بشكل جيد ويتم الاعتماد عليه بشكل مفرط (المحامون الذين يستخدمون ChatGPT)؛ عندما يعمل بشكل جيد ويتم إساءة استخدامه (التزييف العميق غير التوافقي وأرباح الكذاب)؛ وعندما لا يكون ذلك مناسبًا للغرض (حرمان الناس من حقوقهم). ويشكل التخفيف من هذه المخاطر مهمة ضخمة بالنسبة للشركات والحكومات والمجتمع. سيكون الأمر صعبًا بما فيه الكفاية دون تشتيت انتباهك بمخاوف الخيال العلمي.

شاركها.
اترك تعليقاً

Exit mobile version