لقد أصبح الحديث عن مخاطر الذكاء الاصطناعي، الفعلي أو المتخيل، محموما، وأغلبه ناجم عن العالم المتنامي لروبوتات الدردشة التوليدية. عند التدقيق في المنتقدين، يجب الانتباه إلى دوافعهم. ما الذي سيستفيدونه من تبني موقف معين؟ في حالة جيفري هينتون، الذي يُنظر إليه بشكل غير محتشم على أنه "الأب الروحي للذكاء الاصطناعي"، يجب أن يكون التدقيق أكثر حدة من معظم الأشخاص.
ينحدر هينتون من مدرسة التفكير "الاتصالية" في الذكاء الاصطناعي، وهو المجال الذي فقد مصداقيته في السابق والذي يتصور الشبكات العصبية التي تحاكي الدماغ البشري، وعلى نطاق أوسع، السلوك البشري. تتعارض وجهة النظر هذه مع "الرمزيين"، الذين يركزون على الذكاء الاصطناعي باعتباره محكومًا بالآلة، مع الحفاظ على رموز وقواعد محددة.
جون ثورنهيل جاري الكتابة ل فاينانشال تايمزيشير صعود هينتون، جنبًا إلى جنب مع أعضاء آخرين في القبيلة الاتصالية: "مع ازدياد قوة أجهزة الكمبيوتر، انفجرت مجموعات البيانات في الحجم، وأصبحت الخوارزميات أكثر تعقيدًا، وتمكن باحثو التعلم العميق، مثل هينتون، من تحقيق نتائج أكثر إثارة للإعجاب من أي وقت مضى لم يعد من الممكن تجاهلها من قبل مجتمع الذكاء الاصطناعي السائد.
ومع مرور الوقت، أصبحت أنظمة التعلم العميق رائجة للغاية، وسعى عالم التكنولوجيا الكبيرة إلى البحث عن أسماء مثل اسم هينتون. لقد حصل هو وزملاؤه على رواتب سخيفة في قمم جوجل وفيسبوك وأمازون ومايكروسوفت. في Google، شغل هينتون منصب نائب الرئيس وزميل الهندسة.
أدى رحيل هينتون عن شركة جوجل، وبشكل أكثر تحديدًا دوره كرئيس لفريق Google Brain، إلى إثارة عجلة التكهنات. كان أحد خطوط التفكير هو أن ذلك حدث حتى يتمكن من انتقاد الشركة نفسها التي ساعد في إنجازاتها على مر السنين. لقد كان بالتأكيد ثريًا بعض الشيء، نظرًا لدور هينتون في دفع عربة الذكاء الاصطناعي التوليدي. وفي عام 2012، كان رائدًا في إنشاء شبكة عصبية ذاتية التدريب قادرة على تحديد الأشياء الشائعة في الصور بدقة كبيرة.
التوقيت هو أيضا موضع اهتمام. قبل ما يزيد قليلاً عن شهر, أ رسالة مفتوحة تم نشره بواسطة معهد مستقبل الحياة محذرًا من التأثيرات الرهيبة للذكاء الاصطناعي بما يتجاوز شر GPT-4 الخاص بـ OpenAI والأنظمة المشابهة الأخرى. تم طرح عدد من الأسئلة: "هل ينبغي لنا أن نسمح للآلات بإغراق قنوات المعلومات لدينا بالدعاية والكذب؟ هل يجب علينا أتمتة جميع الوظائف، بما في ذلك الوظائف المُرضية؟ هل يجب علينا تطوير عقول غير بشرية قد تتفوق علينا في النهاية عددًا، وتتفوق علينا في الذكاء، وتتقادم، وتحل محلنا؟ هل يجب أن نخاطر بفقدان السيطرة على حضارتنا؟
في الدعوة إلى التوقف لمدة ستة أشهر عن تطوير مثل هذه مشاريع الذكاء الاصطناعي واسعة النطاق، اجتذبت الرسالة عددًا من الأسماء التي قللت إلى حد ما من قيمة التحذيرات؛ ففي نهاية المطاف، لعب العديد من الموقعين دورًا لا يستهان به في خلق الأتمتة والتقادم وتشجيع "فقدان السيطرة على حضارتنا". ولتحقيق هذه الغاية، عندما يلحق أمثال إيلون ماسك وستيف وزنياك توقيعاتهم بمشروع يدعو إلى وقف التطورات التكنولوجية، يجب على أجهزة كشف الهراء في جميع أنحاء العالم أن تتحرك.
وينبغي أن تنطبق نفس المبادئ على هينتون. من الواضح أنه يبحث عن مراعي أخرى، وبذلك، يزين نفسه ببعض الترويج الثقيل لنفسه. وهذا يأخذ شكل إدانة خفيفة من نفس الشيء الذي كان مسؤولاً عن خلقه. "فكرة أن هذه الأشياء يمكن أن تصبح أكثر ذكاءً من البشر - كان عدد قليل من الناس يعتقدون ذلك. لكن معظم الناس اعتقدوا أن الأمر كان بعيدًا. واعتقدت أنه كان بعيدا. […] من الواضح أنني لم أعد أعتقد ذلك. قد تعتقد أنه يجب أن يعرف أفضل من معظم الناس.
هينتون على تويتر ضع في السرير أي اقتراحات أنه كان يغادر جوجل بملاحظة سيئة، أو أنه كان لديه أي نية للتخلي عن عملياتها. "في صحيفة نيويورك تايمز اليوم، يشير كيد ميتز إلى أنني تركت جوجل حتى أتمكن من انتقاد جوجل. في الواقع، لقد غادرت حتى أتمكن من التحدث عن مخاطر الذكاء الاصطناعي دون التفكير في كيفية تأثير ذلك على جوجل. لقد تصرفت جوجل بمسؤولية كبيرة”.
ويشير هذا الشكل الغريب إلى حد ما من الاستدلال إلى أن أي انتقاد للذكاء الاصطناعي سيكون مستقلاً عن الشركات التي تطور مثل هذه المشاريع وتستفيد منها، مع ترك المطورين - مثل هينتون - في مأمن من أي اتهامات بالتواطؤ. وحقيقة أنه بدا غير قادر على تطوير انتقادات للذكاء الاصطناعي أو اقتراح أطر تنظيمية داخل جوجل نفسها، تقوض صدق هذه الخطوة.
In الرد وبعد رحيل زميله منذ فترة طويلة، كشف جيف دين، كبير العلماء ورئيس Google DeepMind، أيضًا أن الأمور ظلت هادئة، الأمر الذي يرضي الجميع. "لقد حقق جيف اختراقات تأسيسية في مجال الذكاء الاصطناعي، ونحن نقدر عقدًا من مساهماته في Google [...] باعتبارنا إحدى الشركات الأولى التي نشرت مبادئ الذكاء الاصطناعي، فإننا نظل ملتزمين بنهج مسؤول تجاه الذكاء الاصطناعي. نحن نتعلم باستمرار كيفية فهم المخاطر الناشئة مع الابتكار بجرأة أيضًا.
لقد شعر عدد من مجتمع الذكاء الاصطناعي أن هناك شيئًا آخر يجري على قدم وساق. عالم الكمبيوتر رومان يامبولسكي، في الاستجابة ردًا على ملاحظات هينتون، لاحظ على نحو مناسب أن المخاوف المتعلقة بسلامة الذكاء الاصطناعي لا تستبعد بعضها بعضًا بالنسبة للبحث داخل المنظمة - ولا ينبغي لها أن تكون كذلك. "يجب أن نجعل الاهتمام بسلامة الذكاء الاصطناعي أمرًا طبيعيًا دون الاضطرار إلى ترك وظيفتك [هكذا] كباحث في الذكاء الاصطناعي."
من المؤكد أن شركة جوجل تواجه ما يمكن أن نطلق عليه مشكلة أخلاقية عندما يتعلق الأمر بتطوير الذكاء الاصطناعي. وكانت المنظمة حريصة إلى حد ما على إسكات المناقشات الداخلية حول هذا الموضوع. كانت مارغريت ميتشل، التي كانت تعمل سابقًا في فريق الذكاء الاصطناعي الأخلاقي في Google، والذي شاركت في تأسيسه عام 2017، نظرا للثقل هو بعد إجراء تحقيق داخلي في إقالة تيمنيت جبرو الذي كان عضوا في نفس الفريق.
تم سلخ فروة رأس جيبرو في ديسمبر 2020 بعد ذلك العمل في التأليف المشترك والتي تعارضت مع المخاطر الناشئة عن استخدام الذكاء الاصطناعي المُدرب والمُستهلك لكميات هائلة من البيانات. انتقد كل من جيبرو وميتشل أيضًا النقص الواضح في التنوع في هذا المجال، والذي وصفه الأخير بأنه "بحر من الرجال".
أما بالنسبة للمعضلات الفلسفية التي يواجهها هينتون، فهي بعيدة كل البعد عن التعقيد ومن غير المرجح أن تزعج نومه. مهما كان الدور الذي لعبه فرانكنشتاين في خلق الوحش نفسه الذي يحذر منه الآن، فمن غير المرجح أن يكون نومه مضطربًا. "أعزي نفسي بالعذر الطبيعي: لو لم أفعل ذلك، لكان شخص آخر قد فعل ذلك،" هينتون شرح إلى نيويورك تايمز. "من الصعب أن نرى كيف يمكنك منع الجهات الفاعلة السيئة من استخدامه لأشياء سيئة."
يتم تمويل ZNetwork فقط من خلال كرم قرائها.
للتبرع