التعرف على الوجه لقد تحولت بسرعة من حداثة التكنولوجيا إلى حقيقة الحياة بالنسبة للكثيرين، مع الملايين في جميع أنحاء العالم على الأقل على استعداد لتحمل وجوههم الممسوحة ضوئيًا بواسطة البرامج الموجودة في المطار، أو أجهزة iPhone الخاصة بهم، أو مزارع خوادم Facebook. لكن الباحثين في معهد الذكاء الاصطناعي الآن التابع لجامعة نيويورك أصدروا تحذيرًا قويًا ليس فقط ضد تقنية التعرف على الوجه في كل مكان، بل ضد ابن عمها الأكثر شرًا: ما يسمى التعرف على التأثيرات، وهي تقنية تدعي أنها يمكنها العثور على معنى خفي في شكل أنفك، وخطوطه. من فمك، والطريقة التي تبتسم بها. إذا كان هذا يبدو وكأنه شيء تم استخلاصه من القرن التاسع عشر، فهذا لأنه كذلك نوعًا ما.
الذكاء الاصطناعي الآن 2018 تقرير عبارة عن سجل مكون من 56 صفحة يوضح كيفية استمرار "الذكاء الاصطناعي" - وهو مصطلح شامل يتضمن عددًا لا يحصى من المحاولات العلمية لمحاكاة الحكم البشري وتسويق الهراء - في الانتشار دون رقابة أو تنظيم أو تدقيق أخلاقي ذي معنى. يغطي التقرير نطاقًا واسعًا من الاستخدامات والانتهاكات، بما في ذلك حالات التمييز العنصري، ومراقبة الشرطة، وكيف يمكن لقوانين السرية التجارية إخفاء التعليمات البرمجية المتحيزة عن الجمهور الخاضع لمراقبة الذكاء الاصطناعي. لكن منظمة الذكاء الاصطناعي الآن، التي تأسست العام الماضي للتعامل مع الآثار الاجتماعية للذكاء الاصطناعي، تعبر في الوثيقة عن خوف خاص من التعرف على المشاعر، "فئة فرعية من التعرف على الوجه تدعي اكتشاف أشياء مثل الشخصية، والمشاعر الداخلية، والصحة العقلية، و"مشاركة العمال" بناءً على الصور أو مقاطع الفيديو للوجوه". إن فكرة أن رئيسك يراقبك من خلال كاميرا تستخدم التعلم الآلي لتقييم حالتك العقلية باستمرار هي فكرة سيئة بما فيه الكفاية، في حين أن احتمال استخدام الشرطة "التعرف على التأثيرات" لاستنتاج إجرامك المستقبلي بناءً على "التعبيرات الدقيقة" هو أسوأ بشكل كبير.
وذلك لأن "التعرف على التأثيرات"، كما يوضح التقرير، ليس أكثر من مجرد حوسبة علم الفراسة، وهو نوع من العلوم الزائفة المفضوحة والمشينة تمامًا من عصر آخر، والذي ادعى أنه يمكن تمييز شخصية الشخص من أجساده - ووجوهه، على وجه الخصوص. لم يكن هناك سبب للاعتقاد بأن هذا كان صحيحًا في ثمانينيات القرن التاسع عشر، عندما روجت شخصيات مثل عالم الجريمة الإيطالي سيئ السمعة سيزار لومبروسو لهذه النظرية، وهناك سبب أقل للاعتقاد بها اليوم. ومع ذلك، فهي فكرة جذابة، على الرغم من افتقارها إلى أسس علمية، وقد اغتنمت الشركات التي تركز على البيانات الفرصة ليس فقط لوضع أسماء على الوجوه، ولكن أيضًا لإرجاع أنماط السلوك والتنبؤات بأكملها إلى علاقة غير مرئية بين حاجبك وبشرتك. أنف لا يمكن فك شفرته إلا من خلال عين الكمبيوتر. قبل عامين، نشر طلاب في إحدى جامعات شنغهاي تقريراً يفصّل ما فعلوه يُزعم أنها طريقة للتعلم الآلي لتحديد الجرائم بناءً على ملامح الوجه وحدها. وقد تعرضت الورقة لانتقادات واسعة النطاق، بما في ذلك من قبل كيت كروفورد من منظمة العفو الدولية، التي قالت لموقع The Intercept إنها تشكل "علم فراسة الدماغ الحرفي … مجرد استخدام الأدوات الحديثة للتعلم الآلي الخاضع للإشراف بدلاً من الفرجار.
أصبحت كروفورد وزملاؤها الآن أكثر معارضة من أي وقت مضى لانتشار هذا النوع من التنبؤ الخوارزمي التراجعي ثقافيًا وعلميًا: "على الرغم من أن علم الفراسة لم يعد مفضلاً بعد ارتباطه بعلم العرق النازي، إلا أن الباحثين يشعرون بالقلق من عودة ظهور أفكار علم الفراسة في التأثير". تطبيقات الاعتراف"، كما جاء في التقرير. "إن فكرة أن أنظمة الذكاء الاصطناعي قد تكون قادرة على إخبارنا بما يشعر به الطالب أو العميل أو المشتبه به الجنائي أو نوع الأشخاص الذين هم في جوهره، أثبتت أنها جذابة لكل من الشركات والحكومات، على الرغم من أن المبررات العلمية لمثل هذا إن الادعاءات مشكوك فيها إلى حد كبير، وتاريخ أغراضها التمييزية موثق جيدًا.
في رسالة بالبريد الإلكتروني إلى The Intercept، أوضح كروفورد، المؤسس المشارك لـ AI Now وأستاذ الأبحاث المتميز في جامعة نيويورك، إلى جانب ميريديث ويتاكر، المؤسس المشارك لـ AI Now وعالمة الأبحاث المتميزة في جامعة نيويورك، سبب كون التعرف على التأثير أكثر إثارة للقلق اليوم من أي وقت مضى ، في إشارة إلى شركتين تستخدمان المظاهر لاستخلاص استنتاجات كبيرة حول الأشخاص. "من ادعاء Faception أنهم يستطيعون "اكتشاف" ما إذا كان شخص ما إرهابيًا من وجهه إلى HireVue للتسجيل الجماعي للمتقدمين للوظائف للتنبؤ بما إذا كانوا سيكونون موظفين جيدين بناءً على "التعابير الدقيقة" للوجه، والقدرة على استخدام الرؤية الآلية و وقال كروفورد: "إن التحليل الضخم للبيانات للعثور على الارتباطات يؤدي إلى بعض الادعاءات المشبوهة للغاية".
لقد قام فيسشن المزعوم لتحديد ما إذا كان شخص ما "غير متوازن نفسيًا"، أو قلقًا، أو يتمتع بشخصية جذابة، من المظهر، في حين أن HireVue لديه المرتبة المتقدمين للوظائف على نفس الأساس.
كما هو الحال مع أي نظام محوسب للحكم واتخاذ القرار التلقائي وغير المرئي، فإن احتمال التصنيف الخاطئ أو وضع علامة عليه أو وضع علامة عليه يكون هائلاً في التعرف على التأثير، لا سيما في ضوء أساسه العلمي الهش: "كيف يمكن لشخص تم تحديده بواسطة هذه الأنظمة أن يتحدى وأضاف كروفورد: "النتيجة؟". "ماذا يحدث عندما نعتمد على أنظمة الذكاء الاصطناعي ذات الصندوق الأسود للحكم على "الحياة الداخلية" أو قيمة البشر؟ تستشهد بعض هذه المنتجات بنظريات مثيرة للجدل بشدة والتي كانت موضع خلاف طويل في الأدبيات النفسية، ولكن يتم التعامل معها من قبل شركات الذكاء الاصطناعي الناشئة على أنها حقيقة.
ما هو أسوأ من إصدار حكم علمي سيء على أي شخص داخل نطاق الكاميرا هو أن الخوارزميات التي تتخذ هذه القرارات تظل خاصة من قبل الشركات التي تقوم بتطويرها، في مأمن من التدقيق الصارم خلف ستار من السرية التجارية. ويشير ويتاكر من منظمة العفو الدولية الآن إلى أن سرية الشركات تربك الممارسات الإشكالية بالفعل المتمثلة في التعرف على التأثير: "نظرًا لأن معظم هذه التقنيات يتم تطويرها من قبل شركات خاصة، تعمل بموجب قوانين سرية الشركات، فإن تقريرنا يقدم توصية قوية لتوفير الحماية للمبلغين عن المخالفات الأخلاقية في هذه الشركات". شركات." كتب ويتاكر أن مثل هذا الإبلاغ عن المخالفات سيظل بالغ الأهمية، لأن العديد من شركات البيانات تتعامل مع الخصوصية والشفافية باعتبارها التزامًا، وليس فضيلة: "تختلف المبررات، لكن معظم مطوري الذكاء الاصطناعي يتنصلون من كل المسؤولية ويقولون إن الأمر متروك للعملاء". لتقرر ماذا تفعل به." يقترن العلم الزائف بأحدث هندسة الكمبيوتر ويوضع في فراغ من المساءلة. ما الخطأ الذي يمكن أن يحدث؟
يتم تمويل ZNetwork فقط من خلال كرم قرائها.
للتبرع