بحلول مايو 2023، البرلمان الأوروبيلجنة على الذكاء الاصطناعي في العصر الرقمي (AIDA) صوتت لتعزيز اقتراحها التشريعي بشأن الذكاء الاصطناعي (AI)، حيث يتجه قانون الذكاء الاصطناعي نحو التصويت في الجلسة العامة. لقد كانت خطوة أخرى نحو تنظيم شامل للذكاء الاصطناعي في أوروبا.
وفي غضون فترة زمنية قصيرة إلى حد غير عادي، توصل أعضاء البرلمان الأوروبي إلى اتفاق بشأن مسودة أول تنظيم شامل في العالم بشأن الذكاء الاصطناعي. وفي النهاية، صوّت المشرعون في الاتحاد الأوروبي على إعادة إرسال المسودة الأولى لما سيصبح مشروع القانون قانون الذكاء الاصطناعي للاتحاد الأوروبي إلى المرحلة التالية من إجراءات وضع القوانين في الاتحاد الأوروبي.
تفاصيل قانون AI - كما سيُعرف - يجب أن يتم العمل عليها مع الدول الأعضاء الـ 27 في الاتحاد الأوروبي التي تحكم 450 مليون شخص - ناقص ما بعد بريطانيا Brexit. قانون الذكاء الاصطناعي هو حل وسط. لقد وجدت أرضية مشتركة بين المحافظين في الاتحاد الأوروبي الذين يؤيدون بشدة المراقبة الجماعية، من ناحية، وربما لصالح الذكاء الاصطناعي المفرط في التنظيم إلى حد ما، من ناحية أخرى.
ومن خلال تحقيق التوازن بين الاثنين، سيكون قانون الذكاء الاصطناعي الجديد بمثابة تسوية أوروبية نموذجية يحققها برلمان الاتحاد الأوروبي والتي من شأنها تنظيم الذكاء الاصطناعي لحماية الحقوق المدنية، في حين تعمل في الوقت نفسه على تحفيز الإبداع. حتى إلغاء القيود التنظيمية السابق، والأصولية النيوليبرالية، والتحررية الفائقة وافق إيلون موسك على التنظيم منظمة العفو الدولية.
وتهدف مقترحات الاتحاد الأوروبي بشأن أنظمة الذكاء الاصطناعي إلى تصنيف الذكاء الاصطناعي وفقا لمستويات مختلفة من المخاطر ــ من الحد الأدنى من المخاطر إلى المخاطر المحدودة، إلى المخاطر العالية، والمخاطر غير المقبولة. ومع ذلك، لن يتم حظر أنظمة الذكاء الاصطناعي عالية الخطورة.
ومع ذلك، ستكون هناك حاجة إلى درجة عالية جدًا من الشفافية لاستخدام أنظمة الذكاء الاصطناعي عالية المخاطر. وقد تم تصميم هذا أيضًا من أجل التطوير المستقبلي إلى حد ما والذي يحتمل أن يكون عالي المخاطر لما يسميه خبراء الذكاء الاصطناعي "الذكاء الاصطناعي التوليدي". مثل هذا للأغراض العامة منظمة العفو الدولية or AGI على سبيل المثال، سيتعين على النظام أيضًا الكشف عما إذا تم استخدام المواد المحمية بحقوق الطبع والنشر.
يبدو أن الانتشار اليوم سريع جدًا للأنظمة شبه التوليدية مثل شات جي بي تي or ميدجورني أحدثت موجات عالمية في السياسة والتعليم والأعمال.
ومع ذلك، هناك أيضًا مخاوف واسعة النطاق بشأن هذا الأمر نظام AIs إعطاء إجابات غير صحيحة بالإضافة إلى المخاوف بشأن مشكلة حماية البيانات - السائدة دائمًا -. بالإضافة إلى ذلك، أدت خطة الصين لإنشاء نظام ذكاء اصطناعي ذو توجه أيديولوجي إلى تكثيف دعوات الاتحاد الأوروبي لتنظيم الذكاء الاصطناعي على مستوى الاتحاد الأوروبي.
في الآونة الأخيرة، صوت أعضاء البرلمان الأوروبي لصالح إدخال المتطلبات التنظيمية للذكاء الاصطناعي. الأوروبية نشطاء الحقوق المدنية وقد رحبت المنظمات غير الحكومية بالفعل بالتحرك الذي اتخذه الاتحاد الأوروبي.
وفي ظل الاتجاه الصعودي، لن تكون هناك مراقبة يتم التحكم فيها بواسطة الذكاء الاصطناعي للأماكن العامة في أوروبا. وبالإضافة إلى ذلك، صوت أعضاء البرلمان الأوروبي أيضًا لصالح فرض حظر كامل على المراقبة الجماعية البيومترية في الأماكن العامة، بالإضافة إلى إنشاء قواعد بيانات للتعرف على الوجه.
وقد رحبت جمعيات حقوق الإنسان الأوروبية، وجمعيات حقوق المستهلك، والعديد من الأحزاب السياسية بالنتائج المؤيدة لحقوق الإنسان الواردة في قانون الذكاء الاصطناعي للاتحاد الأوروبي. ألمانيا الخوارزمية ــ برعاية الدولة الألمانية، والنقابات العمالية، وشركة روبرت بوش ــ بل ويطلق عليها اسم إشارة قوية تجاه حقوق الإنسان.
وإجمالاً، يعمل الاتحاد الأوروبي على تنظيم الذكاء الاصطناعي منذ أكثر من عامين. في الأسابيع الأخيرة، أصبح الذكاء الاصطناعي أكثر وضوحًا إلى حد ما لعامة الناس. لقد كان المشغل الرئيسي هو مولد النص شات جي بي تي ومولدات الصور مثل Midjourney و انتشار مستقر.
في محرك البحث المحتكر للغاية "السوق"- حصة جوجل العالمية تبلغ 93% - هناك نوع من "السباق" المزعوم بين الفيل في الغرفة (Google) وحفنة من أجهزة الماوس (Bing، وYahoo، وYandex، وما إلى ذلك). يبحث البعض في هلوسة من قد يكون قادرًا على التنافس مع المزود المهيمن في العالم - Google.
مايكروسوفت بنج قد تم دمجها بالفعل شات جي بي تي في محرك البحث الخاص به. وبعد ذلك بوقت قصير، أعلنت جوجل في مؤتمر المطورين الخاص بها أنها ستوفر إجابات متميزة على الإدخالات التي يتم صياغتها على شكل أسئلة في محرك البحث الكلاسيكي الخاص بها.
وفي أوروبا، سيتم قريبًا تنظيم جميع هذه الأنواع من خدمات الإنترنت بواسطة قانون AI. وهذا ضروري ليس فقط لمولدات النصوص المدعومة بالذكاء الاصطناعي والتي تصدرت عناوين سلبية، ولكن أيضًا لأنها تستطيع بسهولة إنشاء نصوص مليئة بالنصوص معلومات غير صحيحة والمعلومات المضللة، والتضليل الصريح.
ومع ذلك، يقول إن الترويض المتوقع لروبوتات الدردشة المعتمدة على الذكاء الاصطناعي سيستغرق الكثير من الوقت والجهد الكسندرا جيز، خبير رقمي لحزب الخضر الأوروبي. لا يريد ساسة الاتحاد الأوروبي منح الذكاء الاصطناعي وChatGPT أي مجال للانتشار التضليل، خطاب الكراهية، والكذب، و المعلومات التمييزية.
ويعتقد كثيرون في أوروبا ـ وربما على نحو خاطئ ـ أن الاتحاد الأوروبي سوف يضعها الناس فوق الأرباح – إنه عمل يصعب تحقيقه في ظل الرأسمالية. ما زال، الخوارزمية ورحب بالحظر الذي فرضته أوروبا على الوقت الحقيقي التعرف البيومترية التقنيات المستخدمة للتعرف على الوجه. تعتبر أدوات الذكاء الاصطناعي هذه أساسًا للمراقبة الجماعية.
كما أنها تنتهك خصوصية الإنسان، وتشكل أرضًا خصبة للتمييز والتحيز والقوالب النمطية. ولمكافحة هذا، فإن تصويت البرلمان الأوروبي هو أ اختراق تاريخي. إنه خاص لأولئك الذين يسعون إلى منع أ ترميناتور -مثل مستقبل الدستوب المراقبة الجماعية البيومترية في أوروبا على أساس، على سبيل المثال، النموذج الصيني.
كما جاء الثناء على قانون الذكاء الاصطناعي الجديد للاتحاد الأوروبي من الحقوق الرقمية الأوروبية شبكة (إدري). ويقول EDRI أن قرار الاتحاد الأوروبي الأخير يظهر أن الاتحاد الأوروبي على استعداد لوضعه الناس فوق الأرباح. ومع ذلك، فقد تلقت بعض جوانب قانون الذكاء الاصطناعي انتقادات أيضًا.
أولاً، يمكن لمطوري الذكاء الاصطناعي أن يقرروا "بأنفسهم" ما إذا كان نظام الذكاء الاصطناعي الخاص بهم "مهمًا" بما يكفي لتصنيفه على أنه "نظام".منتج عالي الخطورة". تنطبق المتطلبات الصارمة فقط على أشكال الذكاء الاصطناعي المصنفة على أنها عالية المخاطر.
ومؤخراً، ظهرت مؤسسة أخرى تابعة للاتحاد الأوروبي – وهي مجلس الإتجاد الأوروبي ممثلو 27 دولة عضوًا - اتفقوا أيضًا على موقف مشترك بشأن الذكاء الاصطناعي. ومع ذلك، انتقدت العديد من منظمات الحقوق المدنية الثغرات العديدة الموجودة في الاقتراح. على سبيل المثال، ستظل خطة المجلس تجعل التعرف على الأشخاص باستخدام القياسات الحيوية أمرًا ممكنًا. في حين أن خطة برلمان الاتحاد الأوروبي للقانون الجديد ترفض برامج التعرف على القياسات الحيوية التي تعمل بالذكاء الاصطناعي.
ومع التطورات الحالية في مجال الذكاء الاصطناعي، فإن هذا - على الأقل من المحتمل - لم يعد يبدو مادة أساسية لكتاب الخيال العلمي. لقد جادل الكثيرون أنه مع إطلاق Chat-GPT في نوفمبر 2022أصبح من الواضح إلى حد ما ما يمكن أن يفعله الذكاء الاصطناعي. وربما الأمر الأكثر إثارة للقلق هو حقيقة مدى سرعة تطور الذكاء الاصطناعي.
تطبيق ChatGPT – المعروف لدى الكثيرين – هو في الواقع GPT-3. ومع ذلك، فإن الإصدار التالي - GPT-4 (مع 5، 6، وما إلى ذلك للمتابعة) - موجود بالفعل في السوق. إنه أفضل بكثير في كثير من النواحي. ومع ذلك، يتفق العديد من خبراء الذكاء الاصطناعي على أن التكنولوجيا يمكن أن تكون مدمرة. وقد حذر آخرون، أنه مع القادم و النسخة القادمة اوبرقد يصبح الأمر ضيقًا بالنسبة للبشر، إذا لم يتم وضع الأمر برمته في مسار منظم.
وفي الوقت نفسه، ستبدأ ثلاث مؤسسات تابعة للاتحاد الأوروبي في التفاوض بشأن قانون الذكاء الاصطناعي الجديد. والأسوأ من ذلك أن الاتحاد الأوروبي نفسه يتوقع مرحلة تنفيذ مدتها عامين إلى ثلاثة أعوام لقانون الذكاء الاصطناعي. ولهذا السبب، يخطط الاتحاد الأوروبي لإنشاء سلطات جديدة بينما يتم منح مطوري الذكاء الاصطناعي متسعًا من الوقت للتكيف مع القواعد الجديدة.
ومع ذلك، فإن بطء عملية الآلية التنظيمية للاتحاد الأوروبي قد يشكل مشكلة إضافية. وبعد حوالي 3 إلى 5 سنوات، سيكون الذكاء الاصطناعي تقنية مختلفة تمامًا مقارنة بما نراه اليوم. والأسوأ من ذلك، أنه يمكن أن يصبح سيئًا حقًا التمييز الخوارزمي يمكن - من الناحية النظرية - أن تزداد عندما يقوم المزيد والمزيد من الأشخاص بتحميل القمامة (مثل الأخبار المزيفة، والمعلومات الخاطئة، والمعلومات المضللة، وخطاب الكراهية، وما إلى ذلك) - على الإنترنت.
منذ برنامج مثل شات جي بي تي بتدريب نفسه من خلال تحليل كميات هائلة من البيانات من الإنترنت، يمكن للذكاء الاصطناعي أن يتغذى على كميات هائلة من القمامة. القمامة في، القمامة خارج! بمعنى آخر، يقوم مجتمعنا التمييزي بإعادة إنتاج بيانات التدريب التمييزية التي يتم تغذيتها في برامج الذكاء الاصطناعي مثل ChatGPT.
وبالعودة إلى عملية صنع القوانين في الاتحاد الأوروبي، هناك نهج أساسي يمر عبر قانون الذكاء الاصطناعي في الاتحاد الأوروبي. يتم تعيين برامج الذكاء الاصطناعي لأحد أربع فئات للمخاطر: خطر غير مقبول؛ مخاطرة عالية؛ مخاطر محدودة والحد الأدنى من المخاطر أو عدم وجودها.
اعتمادا على مجال التطبيق، يمكن أن يكون هناك لا يوجد خطر و خطر قليل. في هذه الحالة، لا يتم تطبيق أي لوائح أو عدد قليل فقط من اللوائح. علاوة على ذلك، يعتبر الذكاء الاصطناعي في مجالات الموارد البشرية، والتعليم، والبنية التحتية الحيوية، وإنفاذ القانون، وما إلى ذلك، شديد الخطورة. في هذه الحالة، القواعد المطبقة هي الموافقة وجودة البيانات والشفافية والإشراف البشري.
والفئة الرابعة من القانون – المخاطر غير المقبولة – تعني أن استخدام الذكاء الاصطناعي يمكن حظره. وينطبق هذا على المجال المذكور أعلاه للمراقبة البيومترية في الوقت الحقيقي في الأماكن العامة.
وبشكل عام، فإن عامل الوقت الموضح أعلاه لتنفيذ قانون الذكاء الاصطناعي للاتحاد الأوروبي ليس هو المشكلة الوحيدة. وربما مشكلة أكبر هو كيفية التغلب على أيديولوجية الليبرالية الجديدة السائدة في قطاع الذكاء الاصطناعي. وفي كثير من الأحيان، يبلغ هذا الأمر ذروته في إلغاء القيود التنظيمية بحماسة (اقرأ: التنظيم الداعم للأعمال التجارية)؛ الوهم ديماغوجية آين راند; ومتفشية التحررية التكنولوجية.
والأسوأ من ذلك أن هناك جزءًا كبيرًا من نخبة الرأسمالية والحاشيه منه الأجهزة الوظيفية هذا مدفوع بشكل أقل بمخاوف الظلم وانتهاكات حقوق الإنسانولكن أكثر من خلال أيديولوجية السوق الحرة النيوليبرالية وهلوسة القدرة التنافسية الأبدية.
ونتيجة لذلك، لن يتم فرض قواعد جادة للذكاء الاصطناعي إلا ــ أبدا "ضد" ــ ولكن فقط "مع وضع" مصالح رأس المال المهيمنة في الاعتبار. تتوافق هذه العقلية بشكل جميل للغاية مع أيديولوجيات مثل الليبرالية الجديدة، وإلغاء القيود التنظيمية، وعدم السيطرة عليها التحررية التكنولوجية.
وهذا ناهيك عن القوة الخطيرة للغاية الضغط على الشركات مفروشة بالكثير من النقود شركات التكنولوجيا متعددة الجنسيات التي تكمن في الخلفية. ربما لا يزال من الأسهل تخيل ذلك نهاية العالم بسبب الذكاء الاصطناعي، من أن نتخيل نهاية رأسمالية الشركات.
يتم تمويل ZNetwork فقط من خلال كرم قرائها.
للتبرع