"إلى أن يتم وضع ضمانات حكومية ذات معنى لحماية الجمهور من أضرار الذكاء الاصطناعي التوليدي، فإننا بحاجة إلى وقفة."
هكذا يقول أ تقرير حول مخاطر الذكاء الاصطناعي (AI) التي نشرتها يوم الثلاثاء جمهور المواطن. بعنوان آسف مقدما! الاندفاع السريع لنشر الذكاء الاصطناعي التوليدي يهدد بمجموعة واسعة من الأضرار الآليةيهدف التحليل الذي أجراه الباحثان ريك كلايبول وشيان هانت إلى "إعادة صياغة المحادثة حول الذكاء الاصطناعي التوليدي لضمان أن يكون للجمهور وصانعي السياسات رأي في الكيفية التي قد تقلب بها هذه التقنيات الجديدة حياتنا رأساً على عقب".
بعد إصدار ChatGPT من OpenAI في نوفمبر، تلقت أدوات الذكاء الاصطناعي التوليدية "قدرًا هائلاً من الضجيج - خاصة بين شركات التكنولوجيا الكبرى التي تتمتع بأفضل وضع يمكنها من الاستفادة منها"، كما يشير التقرير. "يقول المؤيدون الأكثر حماسا إن الذكاء الاصطناعي سيغير العالم بطرق تجعل الجميع أغنياء - ويقول بعض المنتقدين إنه قد يقتلنا جميعا. وبصرف النظر عن التهديدات المخيفة التي قد تتحقق مع تطور التكنولوجيا، هناك أضرار حقيقية يمكن أن يسببها الاندفاع لإطلاق هذه الأدوات وتحقيق الدخل منها، وهي تسبب بالفعل في كثير من الحالات.
قام كلايبول وهانت بتصنيف هذه الأضرار إلى "خمسة مجالات واسعة للقلق":
- الديمقراطية الضارة: إن روبوتات السبام التي تنشر المعلومات المضللة ليست جديدة، ولكن أدوات الذكاء الاصطناعي التوليدية تسمح بسهولة للجهات الفاعلة السيئة بإنتاج محتوى سياسي خادع على نطاق واسع. تعمل أدوات الذكاء الاصطناعي لإنتاج الصوت والفيديو القوية بشكل متزايد على زيادة صعوبة تمييز المحتوى الأصلي عن المحتوى الاصطناعي.
- مخاوف المستهلك: تستخدم الشركات التي تحاول تعظيم أرباحها باستخدام الذكاء الاصطناعي التوليدي هذه الأدوات لالتقاط بيانات المستخدم، والتلاعب بالمستهلكين، وتركيز المزايا بين الشركات الكبرى. ويستخدمها المحتالون للانخراط في مخططات سرقة متزايدة التعقيد.
- تفاقم عدم المساواة: أدوات الذكاء الاصطناعي التوليدية تخاطر بإدامة وتفاقم التحيزات النظامية مثل العنصرية والتمييز الجنسي. فهي توفر للمتنمرين والمعتدين طرقا جديدة لإيذاء الضحايا، وإذا ثبت أن انتشارها على نطاق واسع له عواقب وخيمة، فإنها تخاطر بتفاقم فجوة التفاوت الاقتصادي بشكل كبير.
- تقويض حقوق العمال: تستخدم الشركات التي تعمل على تطوير أدوات الذكاء الاصطناعي النصوص والصور التي أنشأها البشر لتدريب نماذجها، وتوظف عمالاً من ذوي الأجور المنخفضة في الخارج للمساعدة في تصفية المحتوى المزعج والمسيء. إن أتمتة إنشاء الوسائط، كما تفعل بعض أنظمة الذكاء الاصطناعي، تهدد بتقليص المهارات واستبدال أعمال الإنتاج الإعلامي التي يقوم بها البشر.
- مخاوف بيئية: يتطلب التدريب وصيانة أدوات الذكاء الاصطناعي التوليدية توسعات كبيرة في قوة الحوسبة، وهي توسعات في قوة الحوسبة التي تتزايد بشكل أسرع من قدرة مطوري التكنولوجيا على استيعاب المتطلبات مع التقدم في الكفاءة. ومن المتوقع أن يتطلب النشر على نطاق واسع أن تقوم بعض أكبر شركات التكنولوجيا بزيادة قدرتها الحاسوبية ــ وبالتالي بصمتها الكربونية ــ بمقدار أربع أو خمس مرات.
في باقة بيان، حذر Public Citizen من أن "الشركات تنشر أدوات الذكاء الاصطناعي التي يحتمل أن تكون خطرة بشكل أسرع من فهم أضرارها أو التخفيف منها."
ويواصل البيان: "لا يقدم التاريخ أي سبب للاعتقاد بأن الشركات يمكنها التنظيم الذاتي بعيدًا عن المخاطر المعروفة - خاصة وأن العديد من هذه المخاطر هي جزء من الذكاء الاصطناعي التوليدي بقدر ما هي جزء من جشع الشركات". "إن الشركات التي تسارع إلى تقديم هذه التقنيات الجديدة تقامر بحياة الناس وسبل عيشهم، وربما بأسس المجتمع الحر وعالم صالح للعيش."
في يوم الخميس 27 أبريل، يستضيف Public Citizen جلسة هجينة شخصية/Zoom مؤتمر في واشنطن العاصمة، حيث سيناقش النائب الأمريكي تيد ليو (ديمقراطي من كاليفورنيا) و10 أعضاء آخرين التهديدات التي يشكلها الذكاء الاصطناعي وكيفية كبح جماح الصناعة سريعة النمو ولكنها غير منظمة تقريبًا. يجب على الأشخاص المهتمين بالمشاركة تسجيل جديد بحلول يوم الجمعة هذا.
"إن الشركات التي تسارع إلى تقديم هذه التقنيات الجديدة تقامر بحياة الناس وسبل عيشهم، وربما بأسس المجتمع الحر وعالم صالح للعيش."
مطالب تنظيم الذكاء الاصطناعي هي متزايد. وفي الشهر الماضي، قال جيفري هينتون، الذي يعتبر "الأب الروحي للذكاء الاصطناعي"، مقارنة التأثيرات المحتملة للتكنولوجيا سريعة التقدم على "الثورة الصناعية، أو الكهرباء، أو ربما العجلة".
وردا على سؤال سي بي اس نيوزبروك سيلفا براغا حول إمكانية أن "تمحو التكنولوجيا البشرية"، حذر هينتون من أن "الأمر ليس مستبعدًا".
ولا تكمن هذه الإمكانية المخيفة بالضرورة في أدوات الذكاء الاصطناعي الحالية مثل ChatGPT، بل في ما يسمى "الذكاء العام الاصطناعي" (AGI)، الذي من خلاله تتطور أجهزة الكمبيوتر وتتصرف وفقًا لأفكارها الخاصة.
قال هينتون: "حتى وقت قريب جدًا، اعتقدت أنه سيستغرق الأمر ما بين 20 إلى 50 عامًا قبل أن يكون لدينا ذكاء اصطناعي للأغراض العامة". سي بي اس نيوز. "الآن أعتقد أنه قد يكون 20 عامًا أو أقل." وفي نهاية المطاف، اعترف هينتون بأنه لا يستبعد إمكانية وصول الذكاء الاصطناعي العام في غضون خمس سنوات، وهو ما يمثل خروجًا كبيرًا عما كان عليه الحال قبل بضع سنوات عندما "كان سيقول: مستحيل".
قال هينتون: "علينا أن نفكر ملياً في كيفية السيطرة على ذلك". وردًا على سؤال من سيلفا براغا عما إذا كان ذلك ممكنًا، قال هينتون: "لا نعرف، لم نصل إلى هذه المرحلة بعد، ولكن يمكننا أن نحاول".
رائد الذكاء الاصطناعي ليس وحيدًا على الإطلاق. في فبراير، كتب سام ألتمان، الرئيس التنفيذي لشركة OpenAI، في إحدى الشركات بلوق وظيفة: "المخاطر يمكن أن تكون غير عادية. إن الذكاء الاصطناعي العام الفائق المنحرف يمكن أن يتسبب في ضرر جسيم للعالم.
وقد وقع أكثر من 26,000 شخص على منشور تم نشره مؤخرًا رسالة مفتوحة يدعو هذا إلى وقف لمدة ستة أشهر لتدريب أنظمة الذكاء الاصطناعي بما يتجاوز مستوى أحدث روبوتات المحادثة من OpenAI، GPT-4، على الرغم من أن ألتمان ليس من بينها.
تقول الرسالة: "يجب تطوير أنظمة الذكاء الاصطناعي القوية فقط عندما نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون قابلة للتحكم".
في حين أن الذكاء الاصطناعي العام قد لا يزال على بعد بضع سنوات، يوضح تقرير Public Citizen الجديد أن أدوات الذكاء الاصطناعي الحالية - بما في ذلك برامج الدردشة الآلية التي تبث الأكاذيب، وتطبيقات تبديل الوجه التي تولد مقاطع فيديو مزيفة، والأصوات المستنسخة التي ترتكب عمليات احتيال - تسبب بالفعل ضررًا جسيمًا أو تهدد بإحداثه. بما في ذلك اتساع فجوة التفاوت، وتقويض الديمقراطية، وتشريد العمال، واستغلال المستهلكين، وتفاقم أزمة المناخ.
وكتب كلايبول وهانت أن هذه التهديدات "كلها حقيقية للغاية ومن المحتمل جدًا أن تحدث إذا سُمح للشركات بنشر الذكاء الاصطناعي التوليدي دون حواجز حماية قابلة للتنفيذ". "ولكن ليس هناك شيء لا مفر منه بشأنهم."
استمروا:
ومن الممكن أن تمنع التنظيمات الحكومية الشركات من نشر التكنولوجيات بسرعة أكبر مما ينبغي (أو تمنعها تماما إذا ثبت أنها غير آمنة). ويمكنها وضع معايير لحماية الناس من المخاطر. ويمكنه فرض واجبات على الشركات التي تستخدم الذكاء الاصطناعي التوليدي لتجنب الأضرار التي يمكن تحديدها، واحترام مصالح المجتمعات والمبدعين، واختبار تقنياتها مسبقًا، وتحمل المسؤولية، وقبول المسؤولية إذا ساءت الأمور. ويمكنها المطالبة بدمج العدالة في التكنولوجيات. ويمكنها أن تصر على أنه إذا نجح الذكاء الاصطناعي التوليدي في الواقع في زيادة الإنتاجية ونزوح العمال، أو أن يتم تقاسم الفوائد الاقتصادية مع المتضررين وعدم تركيزها بين دائرة صغيرة من الشركات والمديرين التنفيذيين والمستثمرين.
وسط "الاهتمام التنظيمي المتزايد" بـ"آلية مساءلة" الذكاء الاصطناعي، إدارة بايدن أعلن في الأسبوع الماضي، تسعى إلى الحصول على مساهمة عامة بشأن التدابير التي يمكن تنفيذها لضمان أن "أنظمة الذكاء الاصطناعي قانونية وفعالة وأخلاقية وآمنة وجديرة بالثقة".
وفقًا أكسيوس، فإن زعيم الأغلبية في مجلس الشيوخ تشاك شومر (DN.Y.) "يتخذ خطوات مبكرة نحو تشريع لتنظيم تكنولوجيا الذكاء الاصطناعي".
وعلى حد تعبير كلايبول وهانت: "نحن بحاجة إلى ضمانات قوية وتنظيم حكومي - ونحتاج إلى تطبيقها قبل أن تنشر الشركات تكنولوجيا الذكاء الاصطناعي على نطاق واسع. وحتى ذلك الحين، نحتاج إلى وقفة”.
يتم تمويل ZNetwork فقط من خلال كرم قرائها.
للتبرع