तथाकथित आर्टिफिसियल इन्टेलिजेन्सको द्रुत रोलआउटको वरिपरि घुमिरहेका धेरै बहसहरू भित्र, "हलुसिनेट" शब्दको छनोटमा केन्द्रित अपेक्षाकृत अस्पष्ट झगडा छ।
यो शब्द हो कि जेनेरेटिभ एआईका आर्किटेक्टहरू र बूस्टरहरूले च्याटबटहरू द्वारा प्रस्तुत प्रतिक्रियाहरूलाई पूर्ण रूपमा निर्मित, वा फ्ल्याट-आउट गलत छन्। जस्तै, उदाहरणका लागि, जब तपाइँ कुनै चीजको परिभाषाको लागि बोट सोध्नुहुन्छ जुन अवस्थित छैन र यसले, बरु विश्वस्त रूपमा, तपाइँलाई दिन्छ। एक, मेड-अप फुटनोटहरु संग पूर्ण। गुगल र अल्फाबेटका सीईओ सुन्दर पिचाईले भने, "फिल्डमा कसैले पनि भ्रमको समस्या समाधान गर्न सकेको छैन।" भन्नुभयो भर्खरै एक साक्षात्कारकर्ता।
यो साँचो हो - तर त्रुटिहरूलाई किन "भ्रम" भनिन्छ? किन एल्गोरिदमिक जंक छैन? वा गल्तीहरू? खैर, भ्रमले मानव मस्तिष्कको रहस्यमय क्षमतालाई बुझाउँछ जुन घटनाहरू उपस्थित छैनन्, कम्तिमा पनि परम्परागत, भौतिकवादी सर्तहरूमा होइन। सामान्यतया मनोविज्ञान, साइकेडेलिक्स र रहस्यवादका विभिन्न रूपहरूमा प्रयोग हुने शब्दलाई विनियोजन गरेर, एआईका बूस्टरहरूले आफ्ना मेसिनहरूको कमजोरीलाई स्वीकार गर्दै, एकै साथ यस क्षेत्रको सबैभन्दा मनमोहक पौराणिक कथालाई खुवाइरहेका छन्: कि यी ठूला भाषा मोडेलहरू निर्माण गरेर, र तिनीहरूलाई सबै कुरामा प्रशिक्षण दिँदै। हामी मानवहरूले लेखेका छौं, भनेका छौं र नेत्रहीन रूपमा प्रतिनिधित्व गरेका छौं, तिनीहरू हाम्रो प्रजातिहरूको लागि विकासवादी छलांग फैलाउने कुर्सीमा एनिमेटेड बुद्धि जन्माउने प्रक्रियामा छौं। अरू कसरी बिंग र बार्ड जस्ता बटहरू त्यहाँ ईथरमा ट्रिप गर्न सक्छन्?
विकृत भ्रमहरू वास्तवमा AI को संसारमा चलिरहेको छ, तथापि - तर यो ती बटहरू होइनन्; यो प्राविधिक सीईओहरू हुन् जसले उनीहरूलाई खुलासा गरेका थिए, उनीहरूका फ्यानहरूका साथमा, जो व्यक्तिगत र सामूहिक रूपमा जंगली भ्रमको चपेटामा छन्। यहाँ म भ्रमलाई परिभाषित गर्दैछु रहस्यमय वा साइकेडेलिक अर्थमा होइन, दिमाग-परिवर्तित अवस्थाहरू जसले वास्तवमा गहिरो, पहिले अपरिचित सत्यहरूमा पहुँच गर्न मद्दत गर्न सक्छ। होइन। यी मानिसहरू केवल ट्रिप गर्दै छन्: हेर्दै, वा कम्तिमा हेर्ने दाबी गर्दै, प्रमाणहरू छैनन् जुन त्यहाँ छैन, सम्पूर्ण संसारलाई पनि कन्ज्युर गर्ने जसले तिनीहरूको उत्पादनहरू हाम्रो विश्वव्यापी उचाइ र शिक्षाको लागि प्रयोग गर्नेछ।
जेनेरेटिभ एआईले गरिबी अन्त्य गर्नेछ, उनीहरूले हामीलाई बताउँछन्। यसले सबै रोग निको पार्छ। यसले जलवायु परिवर्तनको समस्या समाधान गर्नेछ । यसले हाम्रा कामहरूलाई थप अर्थपूर्ण र रोमाञ्चक बनाउनेछ। यसले फुर्सद र चिन्तनको जीवनलाई मुक्त गर्नेछ, हामीलाई ढिलो पूँजीवादी यान्त्रीकरणबाट गुमाएका मानवतालाई पुन: प्राप्त गर्न मद्दत गर्नेछ। यसले एक्लोपनको अन्त्य गर्नेछ। यसले हाम्रा सरकारहरूलाई तर्कसंगत र उत्तरदायी बनाउनेछ। यी, मलाई डर लाग्छ, वास्तविक एआई भ्रमहरू हुन् र गत वर्षको अन्त्यमा च्याट जीपीटी सुरु भएदेखि हामी सबैले तिनीहरूलाई लूपमा सुन्दै आएका छौं।
त्यहाँ एउटा यस्तो संसार छ जहाँ जेनेरेटिभ एआई, एक शक्तिशाली भविष्यवाणी अनुसन्धान उपकरण र कठिन कार्यहरूको प्रदर्शनकर्ताको रूपमा, वास्तवमा मार्शल गर्न सकिन्छ। लाभ मानवता, अन्य प्रजाति र हाम्रो साझा घर। तर त्यसो हुनको लागि, यी प्रविधिहरूलाई हाम्रो आफ्नै भन्दा धेरै फरक आर्थिक र सामाजिक व्यवस्था भित्र तैनाथ गर्न आवश्यक छ, जसको उद्देश्य मानव आवश्यकताहरू पूरा गर्ने र सबै जीवनलाई समर्थन गर्ने ग्रह प्रणालीहरूको संरक्षण थियो।
र हामी मध्ये जो हाल ट्रिप गर्दै छैनौं राम्ररी बुझ्दछौं, हाम्रो वर्तमान प्रणाली त्यस्तो केहि छैन। बरु, यो मानव र प्राकृतिक संसारबाट - सम्पत्ति र नाफाको अधिकतम निकासी गर्न निर्माण गरिएको छ - एउटा वास्तविकता जसले हामीलाई पुँजीवादको प्राविधिक-नेक्रो चरणको रूपमा सोच्न सक्ने वास्तविकतामा ल्याएको छ। अति-केन्द्रित शक्ति र धनको त्यो वास्तविकतामा, AI - ती सबै काल्पनिक भ्रमहरूबाट टाढा - थप कब्जा र विनाशको डरलाग्दो उपकरण बन्ने सम्भावना धेरै छ।
किन यस्तो भयो भनेर म खोतल्नेछु। तर पहिले, यो बारेमा सोच्न उपयोगी छ उद्देश्य AI को बारेमा काल्पनिक भ्रमहरू सेवा गरिरहेका छन्। यी अनौठा नयाँ उपकरणहरू भेट्दा संस्कृतिमा यी परोपकारी कथाहरूले के काम गरिरहेका छन्? यहाँ एउटा परिकल्पना छ: तिनीहरू शक्तिशाली र लोभ्याउने कभर स्टोरीहरू हुन् जुन मानव इतिहासमा सबैभन्दा ठूलो र सबैभन्दा परिणामकारी चोरी हुन सक्छ। किनभने हामीले इतिहासका धनी कम्पनीहरू (माइक्रोसफ्ट, एप्पल, गुगल, मेटा, अमेजन…) एकतर्फी रूपमा डिजिटल, स्क्र्यापयोग्य रूपमा अवस्थित मानव ज्ञानको कुल योगफललाई कब्जा गर्ने र स्वामित्व उत्पादनहरू भित्र पर्खाल लगाउने कुरा देखिरहेका छौँ। मानिसहरूलाई प्रत्यक्ष लक्ष्य लिनुहोस् जसको जीवनकालको श्रमले मेसिनहरूलाई अनुमति वा सहमति बिना तालिम दियो।
यो कानुनी हुनु हुँदैन। प्रतिलिपि अधिकार सामग्री को मामला मा हामी अब चिन्छु विभिन्न मोडेलहरू (यस पत्रिका सहित) तालिम दिए कानुन दायर गरिएको छ कि यो स्पष्ट रूपमा अवैध थियो तर्क गर्नेछ। किन, उदाहरणका लागि, एक नाफाको लागि कम्पनीलाई स्थिर प्रसार वा Dall-E 2 जस्ता कार्यक्रममा जीवित कलाकारहरूका चित्रहरू, रेखाचित्रहरू र फोटोहरू खुवाउन अनुमति दिनु पर्छ ताकि यसलाई ती कलाकारहरूको डपलगेन्जर संस्करणहरू उत्पन्न गर्न प्रयोग गर्न सकिन्छ। काम, सबैलाई लाभ प्रवाह संग तर कलाकार आफैं?
चित्रकार र चित्रकार मोली क्र्याबप्पलले यस चोरीलाई चुनौती दिने कलाकारहरूको आन्दोलनको नेतृत्व गर्न मद्दत गर्दै हुनुहुन्छ। "एआई कला जेनेरेटरहरू विशाल डेटासेटहरूमा प्रशिक्षित छन्, लाखौं प्रतिलिपि अधिकार छविहरू समावेश छन्, तिनीहरूको सिर्जनाकर्ताको ज्ञान बिना काटिएका छन्, क्षतिपूर्ति वा सहमति छोड्नुहोस्। यो प्रभावकारी रूपमा इतिहासमा सबैभन्दा ठूलो कला चोरी हो। सिलिकन भ्याली उद्यम पूंजी द्वारा समर्थित सम्मानित देखिने कर्पोरेट संस्थाहरु द्वारा संचालित। यो दिउँसो लुटपाट हो, "नयाँ खुला पत्र उनले राज्यहरू सह-ड्राफ्ट गरे।
चाल, निस्सन्देह, सिलिकन भ्यालीले नियमित रूपमा चोरीलाई "अवरोध" भन्छ - र प्रायः यसबाट टाढा जान्छ। हामीलाई यो चाल थाहा छ: अराजक क्षेत्रमा अगाडि बढ्नुहोस्; पुराना नियमहरू तपाईंको नयाँ प्रविधिमा लागू हुँदैन भनी दाबी गर्नुहोस्; चिच्याउनुहोस् कि नियमनले चीनलाई मात्र मद्दत गर्नेछ - जबसम्म तपाइँ आफ्नो तथ्यहरू ठोस रूपमा भूमिमा प्राप्त गर्नुहुन्छ। जब हामी सबैले यी नयाँ खेलौनाहरूको नवीनता प्राप्त गर्छौं र सामाजिक, राजनीतिक र आर्थिक भग्नावशेषको स्टक लिन थाल्छौं, प्रविधि पहिले नै यति सर्वव्यापी भइसकेको छ कि अदालत र नीति निर्माताहरूले हात उठाउँछन्।
हामीले यसलाई Google को पुस्तक र कला स्क्यानिङको साथ देख्यौं। मस्कको अन्तरिक्ष उपनिवेशको साथ। ट्याक्सी उद्योगमा Uber को हमला संग। भाडा बजार मा Airbnb को आक्रमण संग। हाम्रो डाटा संग फेसबुकको प्रतिज्ञा संग। अनुमति माग्न नगर्नुहोस्, बाधा पुर्याउनेहरू भन्न चाहन्छन्, माफी माग्नुहोस्। (र उदार अभियान योगदानको साथ सोध्नेहरूलाई लुब्रिकेट गर्नुहोस्।)
निगरानी पुँजीवादको युगमा, शोशना जुबोफ गुगलको सडक दृश्य नक्साहरू कसरी हाम्रो सार्वजनिक सडक र हाम्रो घरको बाहिरी भागको फोटो खिच्न यसको क्यामेरा-बेडक कारहरू पठाएर गोपनीयता मापदण्डहरू माथि उभिएको विवरणहरू सावधानीपूर्वक वर्णन गर्दछ। गोपनीयता अधिकारको रक्षा गर्ने मुद्दाहरू वरिपरि घुम्दासम्म, सडक दृश्य पहिले नै हाम्रा यन्त्रहरूमा यति सर्वव्यापी थियो (र यति राम्रो, र यति सुविधाजनक ...) कि बाहिर थोरै अदालतहरू जर्मनी हस्तक्षेप गर्न तयार थिए ।
अब हाम्रो घरको बाहिरी भागमा भएको कुरा हाम्रो शब्दहरू, हाम्रा छविहरू, हाम्रा गीतहरू, हाम्रो सम्पूर्ण डिजिटल जीवनमा भइरहेको छ। सबै हाल जफत गरिँदै छन् र सोच र रचनात्मकता अनुकरण गर्न मेसिनहरूलाई तालिम दिन प्रयोग गरिन्छ। यी कम्पनीहरूलाई थाहा हुनुपर्छ कि तिनीहरू चोरीमा संलग्न छन्, वा कम्तिमा त्यो ए बलियो मामला बनाउन सकिन्छ। तिनीहरू केवल आशा गर्दैछन् कि पुरानो प्लेबुकले फेरि एक पटक काम गर्दछ - कि चोरीको स्केल पहिले नै यति ठूलो छ र यसरी खुलासा भइरहेको छ। गति यो सबैको अपरिहार्यताको सामना गर्न अदालत र नीति निर्माताहरूले फेरि एक पटक हात उठाउनेछन्।
AI ले मानवताको लागि गर्ने सबै अद्भुत चीजहरूको बारेमा तिनीहरूको भ्रम धेरै महत्त्वपूर्ण छ। किनभने ती ठूला दावीहरूले यस सामूहिक चोरीलाई उपहारको रूपमा लुकाउँछन् - एकै समयमा तिनीहरूले AI को निर्विवाद खतराहरूलाई तर्कसंगत बनाउन मद्दत गर्छन्।
अहिले सम्म, हामी मध्ये धेरै को बारे मा सुनेको छ सर्वेक्षण जसले AI अनुसन्धानकर्ताहरू र विकासकर्ताहरूलाई उन्नत एआई प्रणालीहरूले "मानव विलुप्त वा मानव प्रजातिको त्यस्तै स्थायी र गम्भीर अशक्तिकरण" निम्त्याउने सम्भावनाको अनुमान गर्न सोध्यो। चिल्लो, मध्य प्रतिक्रिया थियो कि त्यहाँ 10% मौका थियो।
काममा जाने र त्यस्ता अस्तित्वात्मक जोखिमहरू बोक्ने उपकरणहरू बाहिर धकेल्नुलाई कसरी तर्कसंगत बनाउँछ? प्रायः, कारण दिईएको छ कि यी प्रणालीहरूले ठूलो सम्भावित अपसाइडहरू पनि बोक्छन् - बाहेक यी अपसाइडहरू, अधिकांश भागका लागि, भ्रमपूर्ण छन्। वन्यजन्तुहरू मध्ये केहीमा खन्ने गरौं।
मतिभ्रम #1: एआई हुनेछ समाधान मौसम संकट
लगभग सधैं एआई अपसाइडहरूको सूचीमा शीर्ष स्थानमा रहनु भनेको यी प्रणालीहरूले कुनै न कुनै रूपमा जलवायु संकट समाधान गर्ने दाबी हो। हामीले यो सबैबाट सुनेका छौं विश्व आर्थिक फोरम गर्न विदेशी सम्बन्धमा परिषद लाई बोस्टन परामर्श समूह, जसले बताउँछ कि AI "कार्बन उत्सर्जन विरुद्ध लड्न र हरियाली समाज निर्माण गर्न सबै सरोकारवालाहरूलाई थप सूचित र डाटा-संचालित दृष्टिकोण लिन मद्दत गर्न प्रयोग गर्न सकिन्छ। यसलाई सबैभन्दा जोखिममा रहेका क्षेत्रहरूमा विश्वव्यापी जलवायु प्रयासहरूलाई पुन: वजन गर्न पनि प्रयोग गर्न सकिन्छ।" गुगलका पूर्व सीईओ एरिक श्मिटले यो केसको सारांश दिए भन्नुभयो एटलान्टिक कि AI को जोखिम लिन लायक थियो, किनभने "यदि तपाई संसारका सबैभन्दा ठूला समस्याहरूको बारेमा सोच्नुहुन्छ भने, ती सबै साँच्चै गाह्रो छन् - जलवायु परिवर्तन, मानव संगठनहरू, र अन्य। र यसैले, म सधैं मानिसहरू स्मार्ट हुन चाहन्छु।
यस तर्कका अनुसार, जलवायु परिवर्तन जस्ता ठूला समस्याहरू "समाधान" गर्न असफल हुनु स्मार्टको कमीको कारण हो। पीएचडी र नोबेल पुरस्कारका साथ भारी भएका स्मार्ट मानिसहरूले दशकौंदेखि हाम्रा सरकारहरूलाई यस गडबडीबाट बाहिर निस्कन के गर्नुपर्छ भनेर बताइरहेका छन्: हाम्रो उत्सर्जन घटाउनुहोस्, कार्बनलाई जमिनमा छोड्नुहोस्, धनीहरूको अत्यधिक खपत र कम उपभोगको सामना गर्नुहोस्। गरीबको कारण कुनै पनि ऊर्जा स्रोत पारिस्थितिक लागत मुक्त छैन।
यो धेरै स्मार्ट सल्लाहलाई बेवास्ता गरिएको कारण पढ्ने समझ समस्याको कारणले होइन, वा हामीलाई हाम्रो लागि हाम्रो सोचाइ गर्न मेसिनहरू चाहिन्छ। यो किनभने जलवायु संकटले हामीबाट जे माग गर्छ त्यसै गर्नाले स्ट्र्यान्ड हुनेछ डलरको ट्रिलियन हाम्रो अन्तरसम्बन्धित अर्थतन्त्रहरूको मुटुमा रहेको उपभोगमा आधारित वृद्धि मोडेललाई चुनौती दिँदै जीवाश्म इन्धन सम्पत्तिहरूको। जलवायु संकट वास्तवमा, अपर्याप्त रूपमा बलियो डेटा सेटहरूको कारणले हामीले अहिलेसम्म समाधान गर्न नसकेको रहस्य वा पहेलो होइन। हामीलाई थाहा छ यसले के लिन्छ, तर यो द्रुत समाधान होइन - यो एक प्रतिमान परिवर्तन हो। मेसिनहरूले थप स्वादिष्ट र/वा लाभदायक जवाफको लागि थुक्नु यो संकटको उपचार होइन, यो यसको अर्को लक्षण हो।
भ्रमहरू हटाउनुहोस् र जलवायु संकटलाई सक्रिय रूपमा गहिरो बनाउने तरिकामा AI बजारमा ल्याइने सम्भावना धेरै देखिन्छ। पहिलो, च्याटबटहरूबाट तत्काल निबन्धहरू र कलाकृतिहरू सम्भव बनाउने विशाल सर्भरहरू एक विशाल र बढ्दो छन्। स्रोत कार्बन उत्सर्जन को। दोस्रो, कोका-कोला जस्ता कम्पनीहरूले बनाउन थालेपछि ठूलो लगानी थप उत्पादनहरू बेच्नको लागि जेनेरेटिभ एआई प्रयोग गर्न, यो सबै स्पष्ट हुँदै गइरहेको छ कि यो नयाँ प्रविधि डिजिटल उपकरणहरूको अन्तिम पुस्ताको रूपमा प्रयोग गरिने छ: स्वतन्त्रता र लोकतन्त्र फैलाउने ठूला प्रतिज्ञाहरूबाट सुरु भएको कुरा माइक्रो लक्ष्यीकरण विज्ञापनहरूमा समाप्त हुन्छ। हामीलाई ताकि हामी थप बेकार, कार्बन-स्पेइङ सामानहरू किन्छौं।
र त्यहाँ एक तेस्रो कारक छ, यसलाई पिन गर्न अलि गाह्रो छ। हाम्रा मिडिया च्यानलहरू जति धेरै गहिरो नक्कली र विभिन्न प्रकारका क्लोनहरूले भरिएका छन्, त्यति नै हामीमा सूचनाको द्रुत स्यान्डमा डुबेको महसुस हुन्छ। Geoffrey Hinton, प्राय: "AI को गॉडफादर" भनेर चिनिन्छ किनभने उनले एक दशक भन्दा बढी अघि विकसित गरेको तंत्रिका जालले आजको ठूला भाषा मोडेलहरूको निर्माण ब्लकहरू बनाउँछ, यो राम्रोसँग बुझ्दछ। उनले भर्खरै Google मा एक वरिष्ठ भूमिका छोडे ताकि उनले सिर्जना गर्न मद्दत गरेको टेक्नोलोजीको जोखिमहरू बारे स्वतन्त्र रूपमा बोल्न सकियोस्, जसमा उनले भन्नुभयो न्यूयोर्क टाइम्स, जोखिम छ कि मानिसहरू "अब के सत्य हो जान्न सक्षम हुनेछैनन्"।
यो एआईले जलवायु संकटसँग लड्न मद्दत गर्नेछ भन्ने दाबीसँग धेरै सान्दर्भिक छ। किनभने जब हामी हाम्रो बढ्दो अनौठो मिडिया वातावरणमा हामीले पढ्ने र देख्ने सबै कुरामा अविश्वासी हुन्छौं, हामी दबाब सामूहिक समस्याहरू समाधान गर्न अझ कम सुसज्जित हुन्छौं। विश्वासको संकट पक्कै पनि ChatGPT को पूर्वाग्रह हो, तर त्यहाँ कुनै प्रश्न छैन कि गहिरो नक्कली को प्रसार पहिले नै फस्टाउँदै षड्यन्त्र संस्कृतिहरु मा घातीय वृद्धि संग हुनेछ। त्यसोभए यदि एआई प्राविधिक र वैज्ञानिक सफलताहरूको साथ आउँदछ भने यसले के फरक पार्छ? यदि साझा वास्तविकताको कपडा हाम्रो हातमा खुला छ भने, हामी आफैंलाई कुनै पनि संगतता संग प्रतिक्रिया गर्न असमर्थ हुनेछौं।
मतिभ्रम #2: एआई हुनेछ उद्धार बुद्धिमानी प्रशासन
यस भ्रमले निकट भविष्यलाई बोलाउँछ जसमा राजनीतिज्ञहरू र नोकरशाहहरू, एआई प्रणालीहरूको विशाल समग्र बुद्धिमत्तामा चित्रण गर्दै, "आवश्यकताको ढाँचाहरू हेर्न र प्रमाण-आधारित कार्यक्रमहरू विकास गर्न" सक्षम हुन्छन् जसले उनीहरूका घटकहरूलाई बढी फाइदा पुर्याउँछ। त्यो दाबी क कागज बोस्टन कन्सल्टिङ ग्रुपको फाउन्डेसनद्वारा प्रकाशित, तर धेरै थिंकट्याङ्क र व्यवस्थापन परामर्शदाताहरूमा यो प्रतिध्वनित भइरहेको छ। र यसले बताइरहेको छ कि यी विशेष कम्पनीहरू - सरकारहरू र अन्य निगमहरूले लागत बचत पहिचान गर्न भाडामा लिएका कम्पनीहरू, प्राय: ठूलो संख्यामा कामदारहरूलाई निकालेर - एआई ब्यान्डवागनमा हाम फाल्न छिटो भएको छ। PwC (पहिले प्राइसवाटरहाउसकूपर्स) मात्र घोषणा १ अर्ब डलरको लगानी, र बेन एण्ड कम्पनी र डेलोइट आफ्ना ग्राहकहरूलाई थप "दक्ष" बनाउन यी उपकरणहरू प्रयोग गर्नका लागि कथित रूपमा उत्साहित छन्।
जलवायु दावीहरू जस्तै, यो सोध्न आवश्यक छ: के राजनीतिज्ञहरूले निर्दयी र अप्रभावी नीतिहरू थोपाएका कारण उनीहरू प्रमाणको अभावबाट पीडित छन्? बीसीजी पेपरले सुझाव दिए अनुसार "ढाँचाहरू हेर्न" असक्षमता? के तिनीहरूले मानव मूल्य बुझ्दैनन् भोक लाग्यो महामारीको बीचमा सार्वजनिक स्वास्थ्य सेवा, वा हाम्रो शहरी पार्कहरू टेन्टहरूले भर्दा गैर-बजार आवासमा लगानी गर्न असफल भएको, वा तापक्रम बढेको बेला नयाँ जीवाश्म इन्धन पूर्वाधारलाई अनुमोदन गर्ने? के उनीहरूलाई "स्मार्ट" बनाउन, श्मिटको शब्द प्रयोग गर्नको लागि एआई चाहिन्छ - वा तिनीहरूले आफ्नो अर्को अभियान कसले अण्डरराइट गर्न गइरहेको छ भनेर जान्नको लागि पर्याप्त स्मार्ट छन्, वा, यदि तिनीहरू हराएमा, आफ्ना प्रतिद्वन्द्वीहरूलाई बैंकरोल गर्छन्?
यदि AI ले कर्पोरेट पैसा र लापरवाह नीति बनाउने बीचको लिङ्क छुट्याउन सक्छ भने यो धेरै राम्रो हुनेछ - तर त्यो लिङ्कले किन गुगल र माइक्रोसफ्ट जस्ता कम्पनीहरूलाई चेतावनीको हिमपहिरोको बावजुद आफ्ना च्याटबटहरू सार्वजनिक गर्न अनुमति दिइयो भन्नेसँग सम्बन्धित छ। ज्ञात जोखिमहरू। श्मिट र अरूहरू वर्षौंदेखि लबिङ अभियानमा छन् बोल्दै वाशिंगटनमा दुवै पक्षले यदि उनीहरूले जेनेरेटिभ एआई, गम्भीर नियमहरूको बोझ बिना अगाडि बढ्न स्वतन्त्र छैनन् भने, पश्चिमी शक्तिहरूलाई चीनले धूलोमा छोड्नेछ। गत वर्ष, शीर्ष टेक कम्पनीहरू बित्यो वाशिंगटनलाई लबी गर्नको लागि रेकर्ड $ 70 मिलियन - तेल र ग्यास क्षेत्र भन्दा बढी - र त्यो रकम, ब्लुमबर्ग न्यूज नोट, "तिनीहरूको व्यापार समूह, गैर-नाफा र थिंकट्याङ्कहरूको विस्तृत श्रृंखलामा" खर्च गरिएको लाखौंको शीर्षमा छ।
र तैपनि हाम्रो राष्ट्रिय राजधानीहरूमा पैसाले नीतिलाई कसरी आकार दिन्छ भन्ने बारे उनीहरूको घनिष्ट ज्ञानको बाबजुद, जब तपाईंले ओपनएआईका सीईओ साम अल्टम्यानलाई सुन्नुहुन्छ - ChatGPT को निर्माता - उहाँका उत्पादनहरूका लागि उत्तम-केस परिदृश्यहरूको बारेमा कुरा गर्नुहुन्छ, यो सबै देखिन्छ। बिर्सिएको। यसको सट्टा, उसले हाम्रो आफ्नै जस्तो पूर्ण रूपमा भिन्न संसारलाई भ्रमित गरिरहेको देखिन्छ, जसमा राजनीतिज्ञ र उद्योगले उत्कृष्ट डाटामा आधारित निर्णयहरू लिने र नाफा र भूराजनीतिक फाइदाको लागि अनगिन्ती जीवनलाई जोखिममा पार्ने छैन। जसले हामीलाई अर्को भ्रममा ल्याउँछ।
मतिभ्रम #3: प्रविधी दिग्गज गर्न सक्छन् be विश्वसनीय होइन ब्रेक गर्नुहोस् विश्व
सोधे यदि उनी उन्मत्त सुनको भीड ChatGPT पहिले नै जारी भएको बारे चिन्तित छन् भने, अल्टम्यानले भने कि उनी हो, तर स्पष्ट रूपमा थपे: "आशा छ यो सबै काम गर्नेछ।" उनका सँगी टेक सीईओहरू - जसले आफ्नो प्रतिद्वन्द्वी च्याटबटहरू बाहिर निकाल्न प्रतिस्पर्धा गरिरहेका छन् - उनले भने: "मलाई लाग्छ कि राम्रो एन्जिल्सले जित्नेछन्।"
राम्रो स्वर्गदूतहरू? Google मा? म कम्पनीमा ढुक्क छु निकालियो तीमध्ये धेरै जसो कारण उनीहरूले AI बारे आलोचनात्मक कागजपत्रहरू प्रकाशित गरिरहेका थिए, वा कम्पनीलाई कार्यस्थलमा जातीय विभेद र यौन उत्पीडनको बारेमा बोलाइरहेका थिए। अझ धेरै "राम्रा स्वर्गदूतहरू" छन् अन्त्य अलार्म मा, हालै Hinton। त्यो किनभने, AI बाट सबैभन्दा बढी लाभ उठाउने मानिसहरूको भ्रमको विपरीत, Google ले संसारको लागि के राम्रो छ भन्ने आधारमा निर्णय गर्दैन - यसले Alphabet का सेयरधारकहरूका लागि सबैभन्दा राम्रो कुराको आधारमा निर्णय गर्छ, जो पछिल्लो बबल गुमाउन चाहँदैनन्, होइन। जब माइक्रोसफ्ट, मेटा र एप्पल सबै पहिले नै भित्र छन्।
भ्रम #4: एआई हुनेछ मुक्त गर्नुहोस् us बाट परिश्रम
यदि सिलिकन भ्यालीको परोपकारी मतिभ्रमहरू धेरैलाई प्रशंसनीय देखिन्छ भने, त्यहाँ यसको एक साधारण कारण छ। जेनेरेटिभ एआई हाल हामी यसको गलत-समाजवाद चरणको रूपमा सोच्न सक्छौं। यो अहिले परिचित सिलिकन भ्याली प्लेबुकको अंश हो। पहिले, एक आकर्षक उत्पादन (खोज इन्जिन, एक म्यापिङ उपकरण, एक सामाजिक नेटवर्क, एक भिडियो प्लेटफर्म, एक सवारी साझेदारी ...); यसलाई सित्तैमा दिनुहोस् वा केहि वर्षको लागि लगभग नि: शुल्क दिनुहोस्, कुनै बुझ्ने व्यवहार्य व्यापार मोडेल बिना ("बटहरूसँग खेल्नुहोस्," उनीहरूले हामीलाई भन्छन्, "तपाईंले सिर्जना गर्न सक्ने रमाइलो चीजहरू हेर्नुहोस्!"); स्वतन्त्रता र प्रजातन्त्र फैलाउँदै (र "दुष्ट" नभएर) "टाउन स्क्वायर" वा "सूचना कमन्स" वा "जनतालाई जोड्नुहोस्" सिर्जना गर्न चाहनु भएकोले तपाईं कसरी यो गर्दै हुनुहुन्छ भन्ने बारे धेरै ठूला दावीहरू गर्नुहोस्। त्यसपछि हेर्नुहोस् जब मानिसहरू यी नि: शुल्क उपकरणहरू प्रयोग गरेर हुक हुन्छन् र तपाईंका प्रतिस्पर्धीहरूले दिवालियापन घोषणा गर्छन्। क्षेत्र स्पष्ट भएपछि, लक्षित विज्ञापनहरू, निरन्तर निगरानी, पुलिस र सैन्य सम्झौताहरू, ब्ल्याक-बक्स डेटा बिक्री र बढ्दो सदस्यता शुल्कहरू परिचय गर्नुहोस्।
धेरै जीवन र क्षेत्रहरू यस प्लेबुकको पहिलेको पुनरावृत्तिले ट्याक्सी चालकदेखि भाडा बजारसम्म स्थानीय समाचार पत्रहरू सम्म नष्ट भएका छन्। एआई क्रान्तिको साथमा, शिक्षक, कोडर, भिजुअल कलाकार, पत्रकार, अनुवादक, संगीतकार, हेरचाह गर्ने कामदार र अन्य धेरैले आफ्नो आम्दानीलाई ग्लिचि कोडले प्रतिस्थापन गर्ने सम्भावनाको सामना गर्दै यस प्रकारका घाटाहरू राउन्डिङ त्रुटिहरू जस्तै देखिन सक्छन्।
चिन्ता नलिनुहोस्, AI उत्साहीहरूले भ्रमित पार्छन् - यो अद्भुत हुनेछ। जे भए पनि काम कसलाई मन पर्छ? जेनेरेटिभ एआई रोजगारीको अन्त्य हुनेछैन, हामीलाई भनिएको छ, केवल "बोरिंग काम"- च्याटबटहरूको साथ सहयोगी रूपमा सबै आत्मा-नाश गर्ने, दोहोरिने कार्यहरू र मानिसहरूले तिनीहरूको निरीक्षण मात्र गर्दछ। Altman, आफ्नो भाग को लागी, हेर्दछ एउटा भविष्य जहाँ काम "बृहत्तर अवधारणा हुन सक्छ, तपाईले खान सक्षम हुनको लागि गर्नु पर्ने कुरा होइन, तर तपाईले सिर्जनात्मक अभिव्यक्ति र तृप्ति र आनन्द खोज्ने तरिकाको रूपमा गर्नुहुन्छ"।
यो अझ सुन्दर, आरामदायी जीवनको रोमाञ्चक दर्शन हो, जुन धेरै वामपन्थीहरूले साझा गर्छन् (कार्ल मार्क्सका ज्वाइँ पाउल लाफार्ग सहित, जसले मेनिफेस्टो अल्छी हुने अधिकारको शीर्षक)। तर हामी वामपन्थीहरूलाई यो पनि थाहा छ कि यदि पैसा कमाउनु अब जीवनको ड्राइभिङ अनिवार्य नहुनु हो भने, आश्रय र निर्वाहको लागि हाम्रो सृष्टि आवश्यकताहरू पूरा गर्ने अन्य तरिकाहरू हुनुपर्छ। खराब काम नभएको संसार भनेको भाडा निःशुल्क हुनुपर्छ, र स्वास्थ्य सेवा निःशुल्क हुनुपर्छ, र प्रत्येक व्यक्तिलाई अपरिहार्य आर्थिक अधिकारहरू हुनुपर्छ। र त्यसपछि अचानक हामी AI को बारेमा कुरा गर्दैनौं - हामी समाजवादको बारेमा कुरा गर्दैछौं।
किनभने हामी स्टार ट्रेक-प्रेरित तर्कसंगत, मानवतावादी संसारमा बस्दैनौं जुन अल्टम्यानले भ्रमपूर्ण देखिन्छ। हामी पुँजीवाद अन्तर्गत बाँचिरहेका छौं, र त्यो प्रणाली अन्तर्गत, अनगिन्ती श्रमिक मानिसहरूको आर्थिक कार्यहरू प्रशंसनीय रूपमा गर्न सक्ने प्रविधिहरूले बजारलाई बाढीले गर्दा ती मानिसहरू अचानक दार्शनिक र कलाकार बन्न स्वतन्त्र छन् भन्ने होइन। यसको अर्थ हो कि ती मानिसहरूले आफूलाई अगाध खाडलमा हेरिरहेको भेट्टाउनेछन् - वास्तविक कलाकारहरूको साथमा पहिलो पतनमा।
त्यो क्र्याप्पलको खुल्ला पत्रको सन्देश हो, जसले "कलाकार, प्रकाशक, पत्रकार, सम्पादक र पत्रकारिता संघका नेताहरूलाई जेनेरेटिभ-एआई छविहरूको प्रयोगको विरुद्धमा मानवीय मूल्यहरूको प्रतिज्ञा गर्न" र "मानिसहरूले बनाएको सम्पादकीय कलालाई समर्थन गर्न प्रतिबद्ध हुन आह्वान गर्दछ। सर्भर फार्महरू होइन।" पत्र, अब हस्ताक्षर गरियो सयौं कलाकारहरू, पत्रकारहरू र अन्यहरूद्वारा, सबै भन्दा कुलीन कलाकारहरू बाहेक सबैले आफ्नो काम "विलुप्त हुने जोखिममा" पाउँछन्। र हिन्टनका अनुसार, "एआईका गॉडफादर", त्यहाँ विश्वास गर्ने कुनै कारण छैन कि खतरा फैलिने छैन। च्याटबटहरूले "कठोर कामलाई टाढा लैजान्छ" तर "यसले त्यो भन्दा बढी लिन सक्छ"।
क्र्याबप्पल र उनका सह-लेखकहरू लेख्छन्: "जेनेरेटिभ एआई कला भ्याम्पायरिकल हो, कलाकृतिको विगतका पुस्ताहरूमा भोज गर्दै पनि यसले जीवित कलाकारहरूको जीवनको रगत चुस्छ।" तर त्यहाँ प्रतिरोध गर्ने तरिकाहरू छन्: हामी यी उत्पादनहरू प्रयोग गर्न अस्वीकार गर्न सक्छौं र हाम्रा रोजगारदाताहरू र सरकारहरूले पनि तिनीहरूलाई अस्वीकार गर्ने माग गर्न संगठित हुन सक्छौं। ए पत्र AI नैतिकताका प्रख्यात विद्वानहरूबाट, Timnit Gebru जसलाई Google ले २०२० मा कार्यस्थलमा हुने भेदभावलाई चुनौती दिएको कारण निकालेको थियो, सरकारले तुरुन्तै लागू गर्न सक्ने केही नियामक उपकरणहरू प्रस्तुत गर्दछ - मोडेलहरूलाई तालिम दिन कुन डेटा सेटहरू प्रयोग भइरहेको छ भन्ने बारे पूर्ण पारदर्शिता सहित। लेखकहरू लेख्छन्: "हामीले सिंथेटिक मिडियाको सामना गर्दा यो सधैं स्पष्ट हुनुपर्दछ, तर यी प्रणालीहरू निर्माण गर्ने संस्थाहरूले प्रशिक्षण डाटा र मोडेल आर्किटेक्चरहरू कागजात र खुलासा गर्न पनि आवश्यक पर्दछ ...। हामीले समाजलाई मेसिन पढ्ने र लेख्न योग्य बनाउन 'अनुकूलन' गर्नुको सट्टा हाम्रो लागि काम गर्ने मेसिनहरू निर्माण गर्नुपर्छ।
यद्यपि प्राविधिक कम्पनीहरूले हामीलाई विश्वास गर्न चाहन्छन् कि यो मानव-प्रतिस्थापन, मास-मिमिक्री उत्पादनलाई रोल ब्याक गर्न पहिले नै ढिलो भइसकेको छ, त्यहाँ अत्यधिक सान्दर्भिक कानुनी र नियामक उदाहरणहरू छन् जुन लागू गर्न सकिन्छ। उदाहरणका लागि, अमेरिकी संघीय व्यापार आयोग (FTC) बाध्य क्याम्ब्रिज एनालिटिका, साथै एभरलबम, फोटो एपको मालिक, सम्पूर्ण एल्गोरिदमहरू नष्ट गर्नका लागि अवैध रूपमा विनियोजन गरिएको डेटा र स्क्र्याप गरिएका फोटोहरूमा तालिम दिइएको थियो। आफ्नो प्रारम्भिक दिनहरूमा, बिडेन प्रशासनले स्वामित्व एल्गोरिदमहरू निर्माण गर्न व्यक्तिगत डाटाको चोरीमा क्र्याक डाउन सहित ठूला प्रविधिहरू नियमन गर्ने बारे धेरै बोल्ड दावीहरू गरे। राष्ट्रपतीय निर्वाचन चाँडै नजिकिँदै गर्दा, अब ती वाचाहरू पूरा गर्नको लागि राम्रो समय हुनेछ - र तिनीहरू हुनु अघि सामूहिक छलाङ्को अर्को सेटलाई रोक्न।
गहिरो नक्कली, नक्कल लूपहरू र बिग्रँदै गएको असमानताको संसार अपरिहार्यता होइन। यो नीति विकल्पहरूको सेट हो। हामी अस्तित्वबाट बाहिर भ्याम्पिरिक च्याटबटहरूको वर्तमान रूपलाई नियमन गर्न सक्छौं - र विश्व निर्माण गर्न सुरु गर्न सक्छौं जहाँ AI का सबैभन्दा रोमाञ्चक प्रतिज्ञाहरू सिलिकन भ्याली भ्रमहरू भन्दा बढी हुनेछन्।
किनभने हामीले मेसिनलाई तालिम दियौं। हामी सबै। तर हामीले कहिल्यै सहमति दिएनौं। तिनीहरूले मानवताको सामूहिक चतुरता, प्रेरणा र खुलासाहरू (हाम्रो थप भेनल लक्षणहरू सहित) मा खुवाए। यी मोडेलहरू घेरा र विनियोजन मेसिनहरू हुन्, जसले हाम्रो व्यक्तिगत जीवनका साथै हाम्रो सामूहिक बौद्धिक र कलात्मक सम्पदालाई खान्छ र निजीकरण गर्दछ। र तिनीहरूको लक्ष्य कहिले पनि जलवायु परिवर्तनको समाधान वा हाम्रा सरकारहरूलाई थप जिम्मेवार बनाउन वा हाम्रो दैनिक जीवनलाई अझ फुर्सदमा बनाउनु थिएन। यो सँधै सामूहिक भ्रष्टताबाट लाभ उठाउनको लागि थियो, जुन, पुँजीवाद अन्तर्गत, बटहरूसँग मानव कार्यहरू प्रतिस्थापन गर्ने स्पष्ट र तार्किक परिणाम हो।
के यो सबै अति नाटकीय छ? रोमाञ्चक नवाचारको लागि भरिएको र रिफ्लेक्सिभ प्रतिरोध? किन खराबको आशा गर्ने? अल्टम्यान आश्वासन दिन्छ हामी: "कोही पनि संसारलाई नष्ट गर्न चाहँदैन।" सायद होइन। तर सधैं बिग्रँदै गइरहेको जलवायु र लोप हुने सङ्कटले हामीलाई दिनहुँ देखाउँछ, धेरै शक्तिशाली व्यक्तिहरू र संस्थाहरूले संसारको जीवन-समर्थन प्रणालीको स्थिरतालाई नष्ट गर्न मद्दत गरिरहेका छन् भनी थाह पाउँदा राम्रो देखिन्छ। रेकर्ड उनीहरूले विश्वास गर्ने नाफाले उनीहरू र उनीहरूका परिवारहरूलाई नराम्रो प्रभावहरूबाट जोगाउनेछ। अल्टम्यान, सिलिकन भ्यालीका धेरै प्राणीहरू जस्तै, आफैं एक तयारीकर्ता हो: 2016 मा, उसले घमन्ड: "मसँग बन्दुक, सुन, पोटासियम आयोडाइड, एन्टिबायोटिक्स, ब्याट्री, पानी, इजरायली रक्षा बलबाट ग्यास मास्क र बिग सुरमा म उड्न सक्ने जमिनको ठूलो भाग छ।"
म पक्का छु कि ती तथ्यहरूले अल्टम्यानले भविष्यको बारेमा के विश्वास गर्छ भन्ने बारे धेरै कुरा बोल्छ जुन उसले प्रेस अन्तर्वार्तामा साझा गर्न रोजेको फूली भ्रमहरू भन्दा बाहिर निकाल्न मद्दत गरिरहेको छ।
नाओमी क्लेन एक गार्जियन यूएस स्तम्भकार र योगदानकर्ता लेखक हुन्। उनी नो लोगो र द शक डोक्ट्रिनका सर्वाधिक बिक्रि हुने लेखिका र जलवायु न्यायका प्रोफेसर र ब्रिटिश कोलम्बिया विश्वविद्यालयमा जलवायु न्याय केन्द्रका सह-निर्देशक हुन्।
ZNetwork यसको पाठकहरूको उदारता मार्फत मात्र वित्त पोषित छ।
दान