आर्टिफिसियल इन्टेलिजेन्सका खतराहरूका बारेमा कुरा गर्नुहोस्, वास्तविक वा काल्पनिक, ज्वरो आएको छ, यो धेरै जसो जेनेरेटिभ च्याट बटहरूको बढ्दो संसारबाट प्रेरित छ। आलोचकहरूको छानबिन गर्दा, उनीहरूको प्रेरणामा ध्यान दिनुपर्छ। तिनीहरूले एक विशेष अडान अपनाएर के प्राप्त गर्न खडा छन्? जेफ्री हिन्टनको मामलामा, "एआईको गॉडफादर" को रूपमा नम्रतापूर्वक हेरिएको छ, स्तरको छानबिन धेरै भन्दा तीव्र हुनुपर्छ।
Hinton AI मा "कनेक्सनिस्ट" स्कूल अफ थिंकिङबाट आउँदछ, जुन एक पटक बदनाम भएको क्षेत्र हो जसले मानव मस्तिष्कको नक्कल गर्ने तंत्रिका सञ्जालहरूको परिकल्पना गर्दछ र, अझ व्यापक रूपमा, मानव व्यवहार। यस्तो दृष्टिकोण "प्रतीकवादीहरू" सँग बाझिएको छ, जसले एआईलाई मेसिन-शासित, विशिष्ट प्रतीक र नियमहरूको संरक्षणको रूपमा केन्द्रित गर्दछ।
जोन थोर्नहिल, लेखन लागि वित्तीय समय, जडानवादी जनजातिका अन्य सदस्यहरूसँगै हिन्टनको उदयलाई टिप्पणी गर्छ: “कम्प्यूटरहरू अझ शक्तिशाली हुँदै गएपछि, डेटा सेटहरू आकारमा विस्फोट भयो, र एल्गोरिदमहरू अझ परिष्कृत भए, हिन्टन जस्ता गहिरो अध्ययन अनुसन्धानकर्ताहरूले अझ प्रभावशाली परिणामहरू उत्पादन गर्न सक्षम भए। मुख्यधारा AI समुदाय द्वारा अब उपेक्षा गर्न सकिदैन।"
समयको दौडान, गहिरो शिक्षा प्रणालीहरू सबै क्रोध बन्यो, र ठूला प्रविधिको संसारले हिन्टनको जस्ता नामहरू खोज्न थाल्यो। उनी आफ्ना सहकर्मीहरूसँग गुगल, फेसबुक, अमेजन र माइक्रोसफ्टको शिखर सम्मेलनमा बेतुका तलबको आदेश दिन आएका थिए। गुगलमा, हिन्टनले उपाध्यक्ष र इन्जिनियरिङ फेलोको रूपमा सेवा गरे।
गुगलबाट हिन्टनको प्रस्थान, र अझ विशेष गरी गुगल ब्रेन टोलीको प्रमुखको रूपमा उनको भूमिकाले अनुमानको चक्र बढ्यो। सोचको एउटा लाइन यो थियो कि यो भयो ताकि उसले कम्पनीको आलोचना गर्न सकियोस् जसको धेरै उपलब्धिहरू उसले वर्षौंमा सहयोग गरेको छ। जेनेरेटिभ AI को कार्टमा धकेल्न हिन्टनको आफ्नै भूमिकालाई ध्यानमा राखेर यो निश्चित रूपमा थोरै धनी थियो। 2012 मा, उनले एक आत्म-प्रशिक्षण तंत्रिका नेटवर्कको अग्रगामी गरेका थिए जसले चित्रहरूमा सामान्य वस्तुहरू पहिचान गर्न सक्षम छन्।
समय पनि चासोको विषय हो। एक महिनाअघि मात्रै, ए खुला अक्षर फ्युचर अफ लाइफ इन्स्टिच्युटले ओपनएआईको जीपीटी-४ र अन्य संज्ञानात्मक प्रणालीहरूको दुष्टताभन्दा बाहिर एआईको भयानक प्रभावहरूको चेतावनी दिएको थियो। धेरै प्रश्नहरू खडा गरियो: "के हामीले मेसिनहरूलाई हाम्रो सूचना च्यानलहरू प्रचार र असत्यले भर्न दिनु पर्छ? के हामीले पूरा गर्ने सहित सबै कामहरू स्वचालित रूपमा हटाउनु पर्छ? के हामीले अमानवीय दिमागहरू विकास गर्नुपर्छ जुन अन्ततः संख्या भन्दा बढी, आउटस्मार्ट, अप्रचलित र हामीलाई प्रतिस्थापन गर्न सक्छ? के हामीले हाम्रो सभ्यताको नियन्त्रण गुमाउने जोखिम लिनुपर्छ?
त्यस्ता ठूला-ठूला एआई परियोजनाहरू विकास गर्न छ महिनाको पजको लागि आह्वान गर्दै, पत्रले धेरै नामहरू आकर्षित गर्यो जसले चेतावनीहरूको मूल्यलाई केही हदसम्म घटायो; धेरै हस्ताक्षरकर्ताहरूले स्वचालन, अप्रचलितता र "हाम्रो सभ्यताको नियन्त्रणको हानि" लाई प्रोत्साहन दिनमा नगण्य भूमिका खेलेका थिए। त्यसको लागि, जब एलोन मस्क र स्टिभ वोज्नियाकले प्राविधिक विकासमा पजको लागि आह्वान गर्ने परियोजनामा आफ्ना हस्ताक्षरहरू जोड्छन्, विश्वभरका बुलशिट डिटेक्टरहरूले हलचल गर्नुपर्छ।
समान सिद्धान्तहरू Hinton मा लागू हुनुपर्छ। उसले स्पष्ट रूपमा अन्य चराहरू खोजिरहेको छ, र त्यसो गर्दा, आफूलाई केही भारी आत्म-पदोन्नतिको साथ तयार पार्दै। यो रूप लिन्छ हल्का निन्दा जुन कुरा सिर्जना गर्न उहाँ जिम्मेवार हुनुहुन्थ्यो। "यो सामान वास्तवमा मानिसहरू भन्दा स्मार्ट हुन सक्छ भन्ने विचार - केहि मानिसहरूले विश्वास गरे। तर धेरैजसोले सोचेका थिए कि यो टाढा छ। र मैले सोचें कि यो टाढा छ। [...] जाहिर छ, म अब त्यो सोच्दिन।" उसलाई, तपाईलाई लाग्छ, धेरै भन्दा राम्रो थाहा हुनुपर्छ।
ट्विटरमा, Hinton कुनै पनि सुझाव ओछ्यानमा राख्नुहोस् कि उसले गुगललाई एक खट्टा नोटमा छोड्दै थियो, वा उसले यसको सञ्चालनमा डम्प गर्ने कुनै मनसाय थियो। "आज NYT मा, Cade Metz ले गुगलको आलोचना गर्न सकून् भनेर मैले Google छाडेको भन्दछ। वास्तवमा, मैले Google लाई कसरी असर गर्छ भनेर विचार नगरी AI को खतराहरूबारे कुरा गर्न सकून् भनेर मैले छोडें। गुगलले धेरै जिम्मेवारीपूर्वक काम गरेको छ।
तर्कको यो केहि विचित्र रूपले सुझाव दिन्छ कि AI को कुनै पनि आलोचना त्यस्ता परियोजनाहरू विकास गर्ने र नाफा गर्ने कम्पनीहरूबाट स्वतन्त्र रूपमा अवस्थित हुनेछ, सबै विकासकर्ताहरूलाई छोडेर - Hinton जस्ता - जटिलताको कुनै पनि आरोपबाट मुक्त। उसले AI को आलोचनाहरू विकास गर्न वा Google भित्र नियामक फ्रेमवर्कहरू सुझाव दिन असक्षम देखिन्छ भन्ने तथ्यले यस कदमको इमानदारीलाई कम गर्छ।
In प्रतिक्रिया आफ्नो लामो समयको सहकर्मीको प्रस्थानमा, जेफ डीन, मुख्य वैज्ञानिक र Google DeepMind का प्रमुखले पनि खुलासा गरे कि पानी शान्त रह्यो, सबैको सन्तुष्टिको लागि। "जियोफले AI मा आधारभूत सफलताहरू हासिल गरेका छन्, र हामी Google मा उनको दशकको योगदानको कदर गर्छौं […] AI सिद्धान्तहरू प्रकाशित गर्ने पहिलो कम्पनीको रूपमा, हामी AI को लागि जिम्मेवार दृष्टिकोणमा प्रतिबद्ध छौं। हामी निरन्तर साहसका साथ नवप्रवर्तन गर्दै उदीयमान जोखिमहरू बुझ्न सिक्दैछौं। ”
एआई समुदायका एक संख्याले अरू केही भइरहेको छ भन्ने महसुस गरे। कम्प्युटर वैज्ञानिक रोमन याम्पोल्स्की, in प्रतिक्रिया गर्दै हिन्टनको टिप्पणीमा, एआई सुरक्षाका लागि सरोकारहरू संगठन भित्रको अनुसन्धानको लागि पारस्परिक रूपमा अनन्य थिएनन् - न त हुनुपर्दछ। "हामीले एआई अनुसन्धानकर्ताको रूपमा तपाईंको [sic] जागिर छोड्नु बिना AI सुरक्षासँग चिन्तित हुनुलाई सामान्य बनाउनु पर्छ।"
एआई विकासको कुरा गर्दा गुगलसँग निश्चित रूपमा नैतिक समस्या भनिन्छ। संस्थाले यस विषयमा आन्तरिक छलफललाई टुङ्गोमा पु¥याउन निकै चासो राखेको छ । मार्गरेट मिचेल, पहिले गुगलको एथिकल एआई टोली, जसलाई उनले 2017 मा सह-स्थापना गरेकी थिइन्। heave-ho दिए सोही टोलीका सदस्य रहेका टिम्नित गेब्रुलाई बर्खास्त गर्ने विषयमा आन्तरिक अनुसन्धान गरेपछि ।
गेब्रुलाई डिसेम्बर २०२० मा स्केलप गरिएको थियो पछि सह-लेखन कार्य जसले एआई प्रशिक्षित र ठूलो मात्रामा डाटा प्रयोग गर्दा उत्पन्न हुने खतराहरूसँग मुद्दा उठायो। गेब्रु र मिचेल दुवै क्षेत्र मा विविधता को स्पष्ट अभाव को बारे मा आलोचनात्मक भएको छ, पछि "योर को समुद्र" को रूप मा वर्णन गरिएको छ।
हिन्टनको आफ्नै दार्शनिक दुविधाहरूको लागि, तिनीहरू परिष्कृतबाट टाढा छन् र उनको निद्रामा समस्या हुने सम्भावना छैन। उनले अहिले चेताउनी दिने राक्षसको सृष्टिमा फ्र्याङ्कनस्टाइनको भूमिका जुनसुकै भए पनि, उनको निद्रामा समस्या हुने सम्भावना छैन। "म आफैलाई सामान्य बहानाको साथ सान्त्वना दिन्छु: यदि मैले यो नगरेको भए, अरू कसैले गर्थे," हिन्टन व्याख्या गर्न न्यूयोर्क टाइम्स। "यो देख्न गाह्रो छ कि तपाइँ कसरी खराब अभिनेताहरूलाई खराब चीजहरूको लागि प्रयोग गर्नबाट रोक्न सक्नुहुन्छ।"
ZNetwork यसको पाठकहरूको उदारता मार्फत मात्र वित्त पोषित छ।
दान