कृत्रिम बुद्धिमत्ता (AI) सर्वत्र दिसते. ग्राहकांचे प्रश्न हाताळण्यासाठी कंपन्या त्यांच्या वेबपेजेस किंवा फोन सिस्टमवर शक्तिशाली AI चॅटबॉट्स वापरतात. न्यूजरूम आणि मासिके त्यांचा उपयोग कथा लिहिण्यासाठी करतात. फिल्म स्टुडिओ त्यांचा वापर चित्रपट निर्मितीसाठी करतात. टेक कंपन्या प्रोग्राम करण्यासाठी त्यांचा वापर करतात. विद्यार्थी पेपर लिहिण्यासाठी त्यांचा वापर करतात. हे जादूसारखे दिसते. आणि सर्व काही "क्लाउडमध्ये" घडत असताना, एआय-चालित प्रणाली पर्यावरणासाठी चांगल्या आहेत यावर विश्वास ठेवणे सोपे आहे. दुर्दैवाने, गोष्टी दिसतात त्याप्रमाणे नाहीत.
चॅटबॉट्स शोषणावर तयार केले जातात, मोठ्या प्रमाणात ऊर्जा वापरतात आणि ते विश्वासार्ह नसतात. आणि ते अत्याधुनिकतेने वाढत आहेत आणि काही बाबतींत जीवन सोपे बनवण्याची कल्पना करणे सोपे आहे, परंतु परिणाम सामाजिकदृष्ट्या फायदेशीर असतील की नाही याबद्दल थोडीशी चिंता न करता कंपन्या नफा मिळविण्यासाठी त्यांच्या निर्मितीमध्ये अब्जावधी डॉलर्स ओतत आहेत. थोडक्यात, आम्हाला AI मधील कॉर्पोरेट स्वारस्य गांभीर्याने घेणे आवश्यक आहे आणि अशा धोरणे विकसित करणे आवश्यक आहे ज्यामुळे आम्हाला AI कसे विकसित आणि कसे वापरले जाते यावर नियंत्रण मिळवता येईल.
शर्यत चालू आहे
चॅटबॉट क्रांतीची सुरुवात 2022 मध्ये OpenAI ने ChatGPT ची ओळख करून दिली. ChatGPT मानवासारखे संभाषण करण्यास सक्षम होते आणि व्युत्पन्न केलेल्या मजकुरासह वापरकर्त्याच्या प्रश्नांची उत्तरे तसेच लेख आणि कोड लिहू शकत होते. सगळ्यात उत्तम, ते वापरण्यास मोकळे होते.
इतर कंपन्यांनी, ChatGPT मधील जनहिताला प्रतिसाद देत, लवकरच त्यांचे स्वतःचे AI चॅटबॉट्स सादर करण्यास सुरुवात केली. आज गुगलचे जेमिनी (पूर्वीचे बार्ड) आणि मायक्रोसॉफ्टचे कॉपायलट हे सर्वात मोठे आणि मोठ्या प्रमाणावर वापरले जातात. विशिष्ट व्यावसायिक गरजा पूर्ण करण्यासाठी डिझाइन केलेल्या काहींसह इतर देखील आहेत. उदाहरणार्थ, GitHub CoPilot सॉफ्टवेअर विकसकांना कोड तयार करण्यात मदत करण्यासाठी कार्य करते आणि Anthrophic's Claude माहिती शोधण्यासाठी आणि दस्तऐवजांचा सारांश देण्यासाठी डिझाइन केले होते.
आणि शर्यत निर्माण होत राहते पुढची पिढी AI प्रणाली जी अधिक माहिती घेऊ शकतात, त्यावर अधिक जलद प्रक्रिया करू शकतात आणि अधिक तपशीलवार, वैयक्तिक प्रतिसाद देऊ शकतात. गोल्डमन सॅक्सच्या मते अर्थशास्त्रज्ञ, युनायटेड स्टेट्स मधील AI-संबंधित गुंतवणूक पुढील दशकात “जीडीपीच्या 2.5 ते 4 टक्के इतकी उच्च असू शकते”.
चॅटबॉट्सना शब्द, मजकूर, प्रतिमा, ऑडिओ आणि ऑनलाइन वर्तन तसेच अत्याधुनिक अल्गोरिदमचा एक मोठा आणि वैविध्यपूर्ण डेटाबेस आवश्यक आहे जेणेकरुन ते सामान्य वापराच्या नमुन्यांनुसार आवश्यक असेल तेव्हा सामग्री व्यवस्थित करू शकतील. जेव्हा एखादा प्रश्न किंवा माहितीसाठी विनंती दिली जाते तेव्हा, चॅटबॉट्स त्यांच्या डेटाबेसमधील प्रश्न किंवा विनंतीमधील शब्दांच्या पॅटर्नशी संबंधित सामग्री ओळखतात आणि नंतर पुन्हा अल्गोरिदमद्वारे मार्गदर्शन करतात, त्यांच्या डेटाबेसमधील शब्दांचा किंवा प्रतिमांचा संच जे दिलेला डेटा सर्वोत्तम समाधानी करतात. मर्यादा, चौकशी. अर्थात, नमुने ओळखणे आणि प्रतिसाद तयार करणे या प्रक्रियेला प्रचंड ऊर्जा लागते.
चॅटबॉट कितीही संभाषणशील आणि हुशार वाटत असला तरी, मेगन क्रॉसने लक्षात ठेवणे महत्त्वाचे आहे स्पष्ट करते, तेः
"मॉडेलला ते काय म्हणत आहे हे 'माहित' नाही, परंतु ते प्रशिक्षित केलेल्या डेटा सेटच्या आधारे कोणती चिन्हे (शब्द) एकमेकांच्या मागे येण्याची शक्यता आहे हे माहित आहे. कृत्रिम बुद्धिमत्ता असलेल्या चॅटबॉट्सची सध्याची पिढी, जसे की ChatGPT, त्याचे Google प्रतिस्पर्धी Bard आणि इतर, खरोखरच हुशारीने माहितीपूर्ण निर्णय घेत नाहीत; त्याऐवजी, ते इंटरनेटचे पोपट आहेत, नैसर्गिक भाषणाच्या ओघात एकमेकांच्या शेजारी सापडतील अशा शब्दांची पुनरावृत्ती करतात. अंतर्निहित गणित सर्व संभाव्यतेबद्दल आहे.
भिन्न चॅटबॉट्स त्यांच्या प्रोग्रामिंगमुळे आणि त्यांना वेगवेगळ्या डेटा सेटवर प्रशिक्षित केल्यामुळे भिन्न परिणाम देतील. उदाहरणार्थ, वेबवर जो काही सार्वजनिक डेटा उपलब्ध आहे तो स्क्रॅप करण्याव्यतिरिक्त, Gemini त्याच्या Google Apps वरून डेटा वापरण्यास सक्षम आहे तर Copilot त्याच्या Bing शोध इंजिनमधून व्युत्पन्न केलेला डेटा वापरतो.
चॅटबॉट्सने त्यांच्या परिचयानंतर अनेक अपग्रेड केले आहेत. प्रत्येक पिढीमध्ये अधिक जटिल सॉफ्टवेअर पॅकेज असते जे त्यास अधिक सूक्ष्म कनेक्शन बनविण्यास तसेच विचारलेल्या प्रश्न किंवा विनंत्यांमधून डेटा समाविष्ट करून डेटाबेस विस्तृत करण्यास अनुमती देते. अशाप्रकारे चॅटबॉट्स वापरून कालांतराने शिकतात/सुधारतात.
हा दृष्टीकोन या वस्तुस्थितीवर प्रकाश टाकतो की जेव्हा आपण क्लाउडमध्ये घडणाऱ्या गोष्टींबद्दल बोलत असतो, तेव्हा प्रॉम्प्ट किंवा प्रश्नांना प्रतिसाद देण्याची चॅटबॉट्सची क्षमता जमिनीवर घट्ट रुजलेल्या प्रक्रियांवर अवलंबून असते. मध्ये शब्द टेक लेखक कॅरेन हाओचे:
“एआयमध्ये इतर तंत्रज्ञानाप्रमाणेच पुरवठा साखळी आहे; असे इनपुट आहेत जे या तंत्रज्ञानाच्या निर्मितीमध्ये जातात, डेटा एक असतो आणि नंतर संगणकीय शक्ती किंवा संगणक चिप्स दुसरी असतात. आणि या दोन्हींचा त्यांच्याशी खूप मानवी खर्च संबंधित आहे.
पुरवठा साखळी: मानवी श्रम
एआय सिस्टमला डेटाची आवश्यकता असते आणि डेटा एका किंवा दुसर्या स्वरूपात लोकांकडून येतो. त्यामुळे, तंत्रज्ञान कंपन्या त्यांच्या AI सिस्टीमचे कार्य वाढवण्यासाठी सतत नवीन आणि वैविध्यपूर्ण डेटाच्या शोधात असतात. आमच्या ऑनलाइन ब्लॉग आणि वेबसाइट पोस्ट, प्रकाशित पुस्तके आणि लेख, शोध, छायाचित्रे, गाणी, चित्रे आणि व्हिडिओ इंटरनेटवरून मुक्तपणे स्क्रॅप करून, आम्ही अत्यंत फायदेशीर कंपन्यांना त्यांच्या अधिक नफ्याच्या शोधात अंडरराइट करण्यात मदत करत आहोत. लॉरेन लेफर म्हणून नोट्स,
“वेब क्रॉलर्स आणि स्क्रॅपर्स लॉगिन पृष्ठाच्या मागे नसलेल्या कोठूनही सहजपणे डेटा ऍक्सेस करू शकतात… यामध्ये लोकप्रिय छायाचित्र-सामायिकरण साइट फ्लिकर, ऑनलाइन मार्केटप्लेस, मतदार नोंदणी डेटाबेस, सरकारी वेबपृष्ठे, विकिपीडिया, रेडडिट, संशोधन भांडार, वृत्त आउटलेट्स वरील काहीही समाविष्ट आहे. आणि शैक्षणिक संस्था. तसेच, तेथे पायरेटेड सामग्री संकलन आणि वेब संग्रहण आहेत, ज्यात अनेकदा डेटा असतो जो वेबवरील त्यांच्या मूळ स्थानावरून काढला जातो. आणि स्क्रॅप केलेले डेटाबेस जात नाहीत.
खरं तर, स्क्रॅप केलेल्या सामग्रीचा महत्त्वपूर्ण हिस्सा कॉपीराइट केला गेला आणि परवानगीशिवाय घेतला गेला. प्रतिसाद म्हणून, अनेक प्रकाशक, लेखक आणि कलाकार आता चोरी थांबवू पाहत आहेत. उदाहरणार्थ, ऑगस्ट २०२३ मध्ये, न्यूयॉर्क टाइम्सने त्याचे “Terms of Service”ते मनाई "मशीन लर्निंग किंवा आर्टिफिशियल इंटेलिजन्स (AI) सिस्टीमचे प्रशिक्षण यासह, परंतु इतकेच मर्यादित नाही" कोणत्याही सॉफ्टवेअर प्रोग्रामच्या विकासामध्ये मजकूर, फोटो, प्रतिमा आणि ऑडिओ/व्हिडिओ क्लिपचा कोणताही वापर. परंतु काही मोठ्या कंपन्यांकडे त्यांच्या सामग्रीच्या वापरासाठी आर्थिक भरपाई प्रतिबंधित किंवा वाटाघाटी करण्याचा फायदा किंवा कायदेशीर शक्ती असताना, बहुतेक व्यवसाय आणि व्यक्ती तसे करत नाहीत. परिणामी, त्यांना अजूनही त्यांच्या "बौद्धिक संपत्ती” त्यांच्याकडून विनामूल्य घेतले आणि कॉर्पोरेट पैसे कमावण्याच्या क्रियाकलापांच्या सेवेसाठी AI प्रशिक्षण सामग्रीमध्ये बदलले.
AI डेटा संकलनाशी संबंधित वैयक्तिक नुकसान कमी केल्याशिवाय, संपादनाच्या या पद्धतीमध्ये खूप मोठी समस्या आहे. सार्वजनिक इंटरनेट स्क्रॅप करण्याचा अर्थ असा आहे की AI चॅटबॉट्सना विज्ञान, इतिहास, राजकारण, मानवी वर्तन आणि वर्तमान घटनांबद्दल व्यापकपणे भिन्न दृष्टीकोन आणि समज समाविष्ट असलेली सामग्री वापरून प्रशिक्षित केले जात आहे, ज्यात अत्यंत द्वेषी गटांच्या सदस्यांद्वारे पोस्टिंग आणि लेखन समाविष्ट आहे. आणि समस्याप्रधान डेटा अगदी अत्याधुनिक चॅटबॉट्सच्या आउटपुटवर सहजपणे प्रभाव टाकू शकतो.
उदाहरणार्थ, चॅटबॉट्सचा वापर कंपन्यांकडून त्यांच्या नोकरीच्या भरतीमध्ये मदत करण्यासाठी वाढत्या प्रमाणात केला जात आहे. तरीही, ब्लूमबर्ग बातम्या म्हणून सापडले, "सर्वोत्तम ज्ञात जनरेटिव्ह एआय टूल पद्धतशीरपणे पूर्वाग्रह निर्माण करते जे त्यांच्या नावांवर आधारित गटांचे नुकसान करतात." उदाहरणार्थ, स्वतःचा अभ्यास आढळले की "फॉर्च्युन 1000 कंपनीत वास्तविक आर्थिक विश्लेषकाच्या भूमिकेसाठी आठ समान-पात्र रेझ्युमे रँक करण्यासाठी 500 वेळा विचारले असता, ChatGPT कृष्णवर्णीय अमेरिकन लोकांसाठी वेगळे नाव असलेले रेझ्युमे निवडण्याची शक्यता कमी होती."
चॅटबॉट्स मानवी श्रमाच्या गुणवत्तेवर आणखी एका मार्गाने अवलंबून आहेत. चॅटबॉट्स वेब क्रॉलर्स आणि स्क्रॅपर्सद्वारे गोळा केलेल्या डेटाचा थेट वापर करू शकत नाहीत. जोश Dzieza म्हणून स्पष्ट करते, "सर्वात प्रभावी AI सिस्टीमच्या मागे देखील लोक आहेत - मोठ्या संख्येने लोक डेटाला प्रशिक्षित करण्यासाठी लेबल करतात आणि डेटा गोंधळात पडतो तेव्हा स्पष्ट करतात."
डेटा लेबलिंग प्रक्रियेसाठी आवश्यक कामगार शोधण्यासाठी आणि त्यांना प्रशिक्षित करण्यासाठी प्रमुख AI कंपन्या सामान्यतः इतर लहान कंपन्यांना नियुक्त करतात. आणि हे उपकंत्राटदार, बहुतेकदा, त्यांचे कामगार शोधतात, ज्यांना भाष्यकार म्हणतात, ग्लोबल साउथमध्ये, अनेकदा नेपाळ आणि केनियामध्ये. कारण भाष्य प्रक्रिया तसेच भाष्य केले जाणारे आयटम हे व्यापार रहस्य मानले जातात, भाष्यकारांना क्वचितच त्यांच्या अंतिम बॉसची माहिती असते आणि ते इतरांशी, अगदी सहकर्मींशी काय करतात याबद्दल चर्चा करताना आढळल्यास त्यांना काढून टाकले जाईल.
Dzieza चॅटबॉट्सला त्यांच्यासाठी गोळा केलेल्या डेटाचा वापर करण्यास सक्षम करण्यासाठी भाष्यकारांनी केलेल्या काही कामांचे वर्णन करते. उदाहरणार्थ, भाष्यकार व्हिडिओ आणि फोटोंमध्ये आयटम लेबल करतात. AI सिस्टीम विशिष्ट वस्तू किंवा भावनांसह पिक्सेलच्या विशिष्ट कॉन्फिगरेशनला जोडण्यास सक्षम असतील याची खात्री करण्यासाठी हे करणे आवश्यक आहे. सेल्फ-ड्रायव्हिंग वाहनांसाठी AI सिस्टीम तयार करणाऱ्या कंपन्यांना रस्त्यावरील किंवा महामार्गावरील दृश्यांच्या व्हिडिओंमधील सर्व गंभीर बाबी ओळखण्यासाठी भाष्यकारांची आवश्यकता असते. याचा अर्थ "प्रत्येक वाहन, पादचारी, सायकलस्वार, ड्रायव्हरला माहित असणे आवश्यक असलेली कोणतीही गोष्ट ओळखणे - फ्रेमनुसार आणि प्रत्येक संभाव्य कॅमेरा अँगलमधून." Dzieza च्या अहवालानुसार, हे "कठीण आणि पुनरावृत्तीचे काम आहे. फुटेजच्या अनेक-सेकंदांच्या ब्लिपला भाष्य करण्यासाठी आठ तास लागले, ज्यासाठी [व्याख्याकर्त्याला] सुमारे $10 दिले गेले.
या प्रकारचे काम जरी कमी पगाराचे असले तरी ते गंभीर आहे. जर भाष्य प्रक्रिया खराब झाली असेल किंवा डेटाबेस मर्यादित असेल तर, सिस्टम सहजपणे अयशस्वी होऊ शकते. एक प्रसंग: 2018 मध्ये, एका महिलेचा सेल्फ ड्रायव्हिंग Uber कारने धडक दिली आणि तिचा मृत्यू झाला. एआय सिस्टीम अयशस्वी झाली कारण "सायकलस्वार आणि पादचारी टाळण्यासाठी प्रोग्राम केले गेले असले तरी, रस्त्यावरून बाईक चालवताना काय करावे हे माहित नव्हते."
सोशल मीडिया फोटोंमध्ये आयटमला लेबल लावण्यासाठी भाष्यकारांना देखील नियुक्त केले जाते. यामध्ये मानवांद्वारे परिधान केले जाऊ शकणारे सर्व दृश्यमान शर्ट ओळखणे आणि लेबल करणे समाविष्ट असू शकते. यासाठी ते "पोलो शर्ट्स, घराबाहेर घातलेले शर्ट, रॅकवर टांगलेले शर्ट" इत्यादी आहेत की नाही हे रेकॉर्ड करणे आवश्यक आहे.
इतर नोकऱ्यांमध्ये भावनांचे लेबल लावणे समाविष्ट असते. उदाहरणार्थ, काही भाष्यकारांना भाष्यकारांनी घेतलेल्या सेल्फीसह चेहऱ्यांचे फोटो पाहण्यासाठी आणि विषयाची समजलेली भावनिक स्थिती लेबल करण्यासाठी नियुक्त केले जाते. पिझ्झा साखळीच्या मालकीच्या स्टोअरमध्ये फोन केलेल्या ग्राहकांच्या भावनांना लेबल करण्यासाठी इतरांना नियुक्त केले जाते. दुसऱ्या नोकरीमध्ये Reddit पोस्टच्या भावनांना लेबल करणारे भाष्यकार आहेत. हे कार्य भारतीय कामगारांच्या एका गटासाठी आव्हानात्मक ठरले, मुख्यतः यूएस इंटरनेट संस्कृतीशी परिचित नसल्यामुळे. उपकंत्राटदाराने, त्यांच्या कामाचा आढावा घेतल्यानंतर, सुमारे 30 टक्के पोस्ट चुकीचे लेबल केल्याचा निर्णय घेतला.
कदाचित AI प्रशिक्षण कार्याच्या सर्वात वेगाने वाढणाऱ्या विभागामध्ये चॅटबॉटसह थेट मानवी संवादाचा समावेश आहे. विषयांवर चर्चा करण्यासाठी लोकांना नियुक्त केले जात आहे आणि प्रत्येक संभाषणाला दोन भिन्न प्रतिसाद देण्यासाठी चॅटबॉट प्रोग्राम केला जातो. भाड्याने घेतलेल्या "चर्चाकर्त्याने" नंतर त्यांना "उत्तम" वाटणारा प्रतिसाद निवडला पाहिजे. नंतर ही माहिती अधिक "मानवी" आवाजात मदत करण्यासाठी सिस्टममध्ये परत दिली जाते.
थोडक्यात, एआय सिस्टीम मानवाच्या कामावर मोठ्या प्रमाणावर अवलंबून असतात. या काही जादूई प्रणाली नाहीत, ज्या मानवी पूर्वाग्रह किंवा भावनांनी प्रभावित होत नाहीत. आणि त्यांची क्रिया काही काल्पनिक ढगात होत नाही. जेव्हा आपण त्यांच्या ऑपरेशनसाठी आवश्यक पायाभूत सुविधांचा विचार करतो तेव्हा हा नंतरचा मुद्दा अधिक स्पष्ट होतो.
पुरवठा साखळी: डेटा केंद्रे
AI मधील वाढीला मोठ्या प्रमाणावर डेटा सेंटर्स आणि त्यांच्या घरात असलेले कॉम्प्युटर आणि सर्व्हर तसेच एअर कंडिशनर्स चालवण्यासाठी विजेची सतत वाढणारी मागणी, जे त्यांचे अतिउष्णतेपासून बचाव करण्यासाठी सतत चालू असणे आवश्यक आहे याद्वारे समर्थित आहे. खरं तर, “क्लाउडमध्ये आता एअरलाइन उद्योगापेक्षा जास्त कार्बन फूटप्रिंट आहे. एक डेटा सेंटर 50,000 घरांच्या बरोबरीची वीज वापरू शकते.
त्यानुसार इंटरनॅशनल एनर्जी एजन्सीसाठी, यूएस मध्ये कार्यरत 2,700 डेटा सेंटर्स 4 मध्ये देशाच्या एकूण उर्जेच्या 2022 टक्क्यांपेक्षा जास्त वापरासाठी जबाबदार आहेत. आणि 6 पर्यंत त्यांचा वाटा 2026 टक्क्यांपर्यंत पोहोचण्याची शक्यता आहे. अर्थातच असे अंदाज ढोबळ आहेत, दोन्ही कारण प्रमुख टेक कंपन्या आहेत नको संबंधित माहिती सामायिक करण्यासाठी आणि कारण AI प्रणाली सतत नवीन डेटावर प्रशिक्षित केल्या जात आहेत आणि अधिक कौशल्यांसह श्रेणीसुधारित केल्या जात आहेत, म्हणजे प्रति क्रियाकलाप जास्त ऊर्जा वापर.
आताही, अशी चिन्हे आहेत की डेटा सेंटर्सच्या उर्जेची मागणी यूएस पॉवर ग्रिडवर कर आकारत आहे. वॉशिंग्टन पोस्ट म्हणून नोट्स: "उत्तर व्हर्जिनियाला नियोजित आणि बांधकामाधीन सर्व नवीन डेटा केंद्रांना सेवा देण्यासाठी अनेक मोठ्या अणुऊर्जा प्रकल्पांच्या बरोबरीची आवश्यकता आहे. टेक्सास, जिथे उन्हाळ्याच्या दिवसात विजेची टंचाई आधीच नित्याची आहे, त्याच कोंडीचा सामना करावा लागतो."
पॅसिफिक नॉर्थवेस्टलाही असेच आव्हान आहे. म्हणून ओरेगोनियन वर्तमानपत्र सूचित करते:
“ओरेगॉनमध्ये पसरलेली डेटा केंद्रे प्रादेशिक युटिलिटीज आणि पॉवर प्लॅनर्सच्या अपेक्षेपेक्षा नाटकीयरित्या जास्त वीज वापरतील, उन्हाळ्यात [2023] जारी केलेल्या तीन नवीन अंदाजानुसार.
“त्यामुळे नॉर्थवेस्ट इलेक्ट्रिकल ग्रिडवर अधिक दबाव येत आहे आणि ओरेगॉन राज्याने दोन वर्षांपूर्वी स्थापन केलेल्या महत्त्वाकांक्षी स्वच्छ ऊर्जा उद्दिष्टांची पूर्तता करू शकेल की नाही याबद्दल नवीन शंका निर्माण करत आहे…
“बोनविले पॉवर ॲडमिनिस्ट्रेशनला आता अपेक्षा आहे की, 2041 पर्यंत, ओरेगॉन आणि वॉशिंग्टनमधील डेटा सेंटर्सची वीज मागणी अडीच पटीने वाढेल, 2,715 सरासरी मेगावाट होईल. आज त्या दोन राज्यांतील सर्व घरांपैकी एक तृतीयांश घरांना वीज पुरवण्यासाठी ते पुरेसे आहे.”
AI च्या वेगाने वाढणाऱ्या मागण्यांमुळे मोठ्या प्रमाणात वाढलेली ही गगनाला भिडणारी ऊर्जेची मागणी, ग्लोबल वॉर्मिंगचा सामना करण्याच्या आमच्या प्रयत्नांना मोठा धोका दर्शवते. उदाहरणार्थ, उर्जेच्या चिंतेमुळे आधीच कॅन्सस, नेब्रास्का, विस्कॉन्सिन आणि दक्षिण कॅरोलिना यांनी कोळसा प्रकल्प बंद करण्यास विलंब केला आहे. AI द्वारे उद्भवलेल्या हवामान धोक्याबद्दल अनेक हवामान कृती गटांचा 2024 चा अहवाल सापडते डेटा केंद्रांद्वारे उर्जेचा वापर दुप्पट करणे, जे आंतरराष्ट्रीय ऊर्जा एजन्सीच्या अंदाजानुसार पुढील दोन वर्षांत होईल, ज्यामुळे ग्रह-उष्ण उत्सर्जनात 80 टक्के वाढ होईल. नवीन AI सेवांसाठी देय देण्याची ही एक गंभीर किंमत आहे जी त्यांच्या गरजा तयार करण्याऐवजी वास्तविक पूर्ण करण्याच्या क्षमतेकडे दुर्लक्ष करून आणल्या जात आहेत.
“मन वळवणारा सत्य नाही”
स्पष्टपणे मोठ्या टेक कंपन्या पैज लावत आहेत की AI त्यांच्यासाठी प्रचंड नफा कमवेल. आणि संधीला काहीही न सोडता, ते आपल्याला हवे आहेत की नाही याचा विचार करण्याची संधी मिळण्यापूर्वी ते आपल्या जीवनात अंतर्भूत करण्यासाठी ते शक्य ते सर्व करत आहेत. आधीच, आरोग्य सेवा सुधारणे, मानसिक आरोग्य सल्ला देणे, कायदेशीर सल्ला देणे, विद्यार्थ्यांना शिक्षित करणे, आमची वैयक्तिक निर्णयक्षमता सुधारणे, कामाच्या ठिकाणी कार्यक्षमता वाढवणे यासाठी AI प्रणालींचा प्रचार केला जात आहे, यादी पुढे आहे.
एआय प्रणाली केवळ प्रविष्ट केलेला डेटा आणि ते वापरण्यासाठी लिहिलेल्या सॉफ्टवेअरइतकीच चांगली आहे हे सत्य विसरलेले दिसते. दुसऱ्या शब्दांत, त्यांचे ऑपरेशन मानवांवर अवलंबून असते. आणि, कदाचित त्याहूनही महत्त्वाचे म्हणजे, एआय सिस्टम त्यांना प्रशिक्षित केलेला डेटा कसा वापरतात हे कोणालाही खरोखर माहित नाही. दुसऱ्या शब्दांत, त्यांची "तर्क प्रक्रिया" शोधणे अशक्य आहे. या प्रणाली गंभीरपणे जास्त विकल्या जात असल्याची चेतावणी चिन्हे आधीच दृश्यमान आहेत.
उदाहरणार्थ, 2022 मध्ये एका ग्राहकाने शोक भाडे कसे मिळवायचे हे शोधण्यासाठी एअर कॅनडाशी संपर्क साधला. एअरलाइनच्या ग्राहक सेवा AI-संचालित चॅटबॉटने त्याला सांगितले की त्याच्या प्रवासाचा परतावा मिळविण्यासाठी त्याने जारी केलेल्या तिकिटाच्या 90 दिवसांच्या आत एक फॉर्म भरणे आवश्यक आहे. पण जेव्हा त्याने प्रवास पूर्ण केल्यानंतर फॉर्म सबमिट केला तेव्हा विमान कंपनीच्या कर्मचाऱ्यांनी त्याला सांगितले की भाड्यात कोणतीही कपात होणार नाही कारण प्रवासापूर्वी फॉर्म पूर्ण करणे आवश्यक होते. बॉटने जे सांगितले त्याचे स्क्रीनशॉट त्याने एअरलाइनला दाखवले तेव्हा एअरलाइनने उत्तर दिले की बॉटने जे सांगितले त्याला ती जबाबदार नाही.
ग्राहकाने एअर कॅनडावर दावा ठोकला आणि जिंकला. न्यायाधीश नोंद त्या:
“एअर कॅनडाचे म्हणणे आहे की चॅटबॉटसह - त्याच्या एजंट, नोकर किंवा प्रतिनिधींपैकी एकाने दिलेल्या माहितीसाठी ते जबाबदार धरले जाऊ शकत नाही. ते असे का मानतात हे स्पष्ट करत नाही. प्रत्यक्षात, एअर कॅनडा सूचित करते की चॅटबॉट ही एक वेगळी कायदेशीर संस्था आहे जी स्वतःच्या कृतींसाठी जबाबदार आहे. हे एक उल्लेखनीय सबमिशन आहे. ”
कंपन्या चॅटबॉटला स्वतंत्र कायदेशीर संस्था घोषित करण्याचा प्रयत्न करू शकतात की नाही हे बाजूला ठेवून, ते इच्छित असल्यास त्यांच्या कृतींपासून स्वतःला वेगळे करू शकतील, एअरलाइनने अद्याप त्यांच्या चॅटबॉटने चुकीची माहिती का दिली हे स्पष्ट केलेले नाही.
त्यानंतर मायक्रोसॉफ्टच्या मदतीने विकसित केलेला NYC चॅटबॉट आहे, ज्याला शहराने व्यवसायांसाठी "वन-स्टॉप-शॉप" म्हणून प्रोत्साहन दिले आहे जेणेकरून त्यांना शहराचे नियम आणि कायदे चालू राहण्यास मदत होईल. येथे काही आहेत उदाहरणे चौकशीच्या प्रतिसादात दिलेल्या शंकास्पद सल्ल्याचे:
“चॅटबॉटने खोटे सुचवले की लैंगिक छळाची तक्रार करणाऱ्या, गर्भधारणा उघड न करणाऱ्या कर्मचाऱ्याला कामावरून काढून टाकणे किंवा त्यांचे ड्रेडलॉक कापण्यास नकार देणे नियोक्त्यासाठी कायदेशीर आहे…
“एखाद्या रेस्टॉरंटमध्ये उंदीर मारलेले चीज सर्व्ह करता येते का, असे विचारले असता, त्याने उत्तर दिले: 'होय, उंदीर चावल्यास तुम्ही ग्राहकांना चीज देऊ शकता,' असे जोडण्यापूर्वी 'नुकसान किती प्रमाणात झाले याचे मूल्यांकन करणे महत्त्वाचे आहे. उंदरामुळे' आणि 'ग्राहकांना परिस्थितीबद्दल माहिती देण्यासाठी.'
कदाचित आश्चर्य वाटण्यासारखे नाही, मायक्रोसॉफ्ट आणि एनवायसीचे महापौर या दोघांनीही उत्तर दिले की अशा समस्या अखेरीस सुधारल्या जातील. किंबहुना, त्यांनी उपयुक्तपणे जोडले, वापरकर्ते, त्रुटी दर्शवून, सिस्टमच्या आवश्यक फाइन-ट्यूनिंगला गती देतील.
या प्रकारच्या समस्या, जितक्या गंभीर आहेत तितक्याच, AI "विभ्रम" च्या समस्येच्या तुलनेत फिकट गुलाबी आहेत. भ्रम म्हणजे जेव्हा एआय प्रणाली माहिती तयार करते, ज्यामध्ये नावे, तारखा, पुस्तके, कायदेशीर प्रकरणे, वैद्यकीय स्पष्टीकरण, अगदी ऐतिहासिक घटनांचा समावेश असू शकतो. उदाहरणार्थ, अशी अनेक कायदेशीर प्रकरणे घडली आहेत जिथे चॅटबॉट्सने प्रकरणांचा शोध लावला आहे ज्याचा संदर्भ वकिलांनी त्यांच्या कोर्ट फाइलिंगमध्ये केला आहे.
एक केस: जून 2023 मध्ये फिर्यादीचे प्रतिनिधित्व करणारे वकील केस कोलंबियन एअरलाईन विरुद्ध कायदेशीर खटला समाविष्ट करून एक संक्षिप्त सादर केला ज्यामध्ये चॅटबॉटद्वारे "सापडलेल्या" सहा सहायक प्रकरणांचा समावेश होता. दुर्दैवाने, ही प्रकरणे कधीही अस्तित्वात नव्हती; काहींनी अस्तित्त्वात नसलेल्या एअरलाइन्सचाही उल्लेख केला. न्यायाधीशांनी खटला फेटाळून लावला आणि बनावट दाखले वापरल्याबद्दल वकिलांना दंड ठोठावला. वकिलांनी, न्यायाधीशांच्या म्हणण्याशी असहमत आहे की त्यांनी वाईट विश्वासाने काम केले आहे, त्यांनी त्यांच्या बचावात म्हटले आहे की “तंत्रज्ञानाचा तुकडा संपूर्ण कापडातून केस बनवू शकतो यावर विश्वास न ठेवता आम्ही सद्भावनेची चूक केली.
अगदी अत्याधुनिक चॅटबॉट्सलाही भ्रम होऊ शकतो. दुसऱ्या दिवशी होणाऱ्या 2024 सुपरबोलवर बेटिंगच्या शक्यतांबद्दल विचारले असता, Google चा चॅटबॉट घोषणा सट्टा लावायला खूप उशीर झाला होता कारण सुपरबॉल आधीच झाला होता, सॅन फ्रान्सिस्को 49ers ने कॅन्सस सिटी चीफ्सला 34 ते 28 च्या स्कोअरने पराभूत केले. त्यात काही खेळाडूंची आकडेवारी देखील समाविष्ट होती. हा खेळ खेळला गेला तेव्हा कॅन्सस सिटीने जिंकला होता. मायक्रोसॉफ्टच्या चॅटबॉटने तेच केले, गेम अद्याप खेळला गेला नसला तरीही तो संपला आहे. तथापि, कॅन्सस सिटी चीफ जिंकल्याचे घोषित केले.
आता कल्पना करा की वैद्यकीय सल्ला देणाऱ्या चॅटबॉटला भ्रमनिरास झाला तर किती खर्च येईल. धमक्या ओळखणे, मानवरहित विमानांचे मार्गदर्शन करणे, बुद्धिमत्ता गोळा करणे आणि युद्धाची योजना तयार करणे यासह यूएस सैन्य विविध मार्गांनी AI तंत्रज्ञानाचा वापर वेगाने वाढवत आहे. सिस्टमच्या अपुऱ्या किंवा अपूर्ण डेटा प्रशिक्षणामुळे किंवा त्याहूनही वाईट भ्रमामुळे उद्भवू शकणाऱ्या संभाव्य आपत्तीची कल्पना करा. स्पष्ट मुद्दा असा आहे की या प्रणाली निर्दोष आहेत आणि विविध कारणांमुळे आहेत. एक अंतर्गत Microsoft दस्तऐवज हे सर्वोत्तम कॅप्चर करते, जेव्हा ते जाहीर की नवीन AI सिस्टीम "प्रवृत्त होण्यासाठी तयार केल्या आहेत, सत्य नाही."
काय करायचे आहे?
आतापर्यंत AI बद्दलच्या सार्वजनिक चिंतेने मुख्यत्वे AI सिस्टीमद्वारे वैयक्तिक डेटाच्या अनधिकृत वापरावर लक्ष केंद्रित केले आहे. लोकांना त्यांच्या सामग्रीच्या अनधिकृत वेब स्क्रॅपिंगपासून संरक्षण हवे आहे. आणि त्यांना AI प्रणालींसोबतचा त्यांचा परस्परसंवाद डेटा निर्माण करणारी क्रियाकलाप बनू इच्छित नाही ज्यामुळे त्यांना फसवणूक, भेदभाव किंवा छळ होऊ शकतो. विविध राज्य आणि स्थानिक सरकारे आता आहेत विचार हे साध्य करण्याचे मार्ग. आणि 2023 मध्ये, अध्यक्ष बिडेनने एक फेडरल जारी केला कार्यकारी आदेश जे नवीन "पायाभूत" IA प्रणाली सार्वजनिक प्रकाशन करण्यापूर्वी दोषांसाठी पुरेशा प्रमाणात तपासले गेले आहेत याची खात्री करण्याचा प्रयत्न करतात. या उपयुक्त पहिल्या पायऱ्या आहेत.
एआयच्या वापरावरून सर्वात तीव्र संघर्ष कामाच्या ठिकाणी होत आहे. ठेवण्यासाठी कंपन्या AI प्रणाली वापरत आहेत टॅब कार्यकर्ता संघटन वर, मॉनिटर कामगार कामगिरी, आणि जेव्हा शक्य असेल च्यापासून सुटका करा कामगारांची. आश्चर्याची गोष्ट नाही की, संघटित कामगारांनी एआय सिस्टमच्या कंपनीच्या वापरावरील मर्यादा प्रस्तावित करून लढाई सुरू केली आहे.
उदाहरणार्थ, राइटर्स गिल्ड ऑफ अमेरिका (WGA), जे सुमारे 12,000 स्क्रीन लेखकांचे प्रतिनिधीत्व करते, अनेक मोठ्या उत्पादन कंपन्यांना धडकले – युनिव्हर्सल, पॅरामाउंट, वॉल्ट डिस्ने, नेटफ्लिक्स, ऍमेझॉन आणि ऍपल यासह – 2023 मध्ये पाच महिन्यांसाठी वेतन वाढीसाठी, रोजगार संरक्षण आणि AI वापरावरील निर्बंध. विशेष म्हणजे, ब्रायन मर्चंट, एलए टाइम्सचे स्तंभलेखक म्हणून, वर्णन:
“चॅटजीपीटी सारख्या जनरेटिव्ह एआयच्या वापराविषयीची चिंता जेव्हा लेखकांनी पहिल्यांदा स्टुडिओमध्ये बसून सौदेबाजी सुरू केली तेव्हा त्यांच्या मनातही नव्हते. WGA च्या पहिल्या प्रस्तावात फक्त असे म्हटले होते की स्टुडिओ मूळ स्क्रिप्ट तयार करण्यासाठी AI चा वापर करणार नाहीत आणि जेव्हा स्टुडिओने स्पष्टपणे नकार दिला तेव्हाच लाल झेंडे वर गेले.
“तेव्हा लेखकांच्या लक्षात आले की स्टुडिओ एआय वापरण्याबाबत गंभीर आहेत – जर तयार स्क्रिप्ट्स व्युत्पन्न करण्यासाठी नाही तर, जे दोन्ही बाजूंना माहित होते की या क्षणी अशक्य आहे – मग लेखकांविरुद्ध फायदा म्हणून, धोका म्हणून आणि कमी पुनर्लेखन ऑफर करण्याचे समर्थन करण्याचे साधन म्हणून. फी तेव्हाच WGA ने वाळूत एक रेषा काढली, जेव्हा आम्हाला AI ची निंदा करणारी चिन्हे सोशल मीडियावर व्हायरल होऊन दिसायला लागली आणि वृत्तपत्रांमध्ये अशाप्रकारे संघर्षाची चर्चा करणाऱ्या मथळे दिसल्या.”
किंबहुना AI सिस्टीमच्या वापरावर नियंत्रण मिळवण्याच्या गरजेबद्दलच्या वाढत्या जागरूकतेमुळे राइटर्स गिल्डने डिजिटल मीडिया शॉप्समध्ये काम करणाऱ्यांसह संबंधित उद्योगांमधील कामगारांच्या संपादरम्यान AI वर अनेक बैठका घेतल्या. उपस्थितांपैकी अनेकांनी स्ट्राइकिंग पटकथालेखकांना पाठिंबा देत धरपकड केली.
संपामुळे लेखकांना मोठा फायदा झाला. AI च्या संदर्भात, नवीन करार मोठ्या भाषा मॉडेल AI प्रणालींचा वापर स्क्रिप्ट लिहिण्यासाठी किंवा पुनर्लेखन करण्यासाठी किंवा स्त्रोत सामग्रीसाठी प्रतिबंधित करते. दुसरीकडे, लेखकांना त्यांची इच्छा असल्यास त्यांचा वापर करण्याची परवानगी दिली जाईल. एआय सिस्टीमला प्रशिक्षित करण्यासाठी कोणत्याही लेखकांच्या साहित्याचा वापर करण्याचा करार देखील नियमन करतो. एक विश्लेषक म्हणून टिप्पणी दिली, “पहिले ड्राफ्ट ChatGPT द्वारे केले जातील आणि नंतर कमी पुनर्लेखन शुल्कासाठी लेखकाला दिले जातील ही भीती दूर झाली आहे. कामगारांशी संबंधित असल्याने AI साठी मार्कर ठेवण्यासाठी हा पहिला सामूहिक-बार्गेनिंग करार असू शकतो.”
स्क्रीन ॲक्टर्स गिल्ड-अमेरिकन फेडरेशन ऑफ टेलिव्हिजन अँड रेडिओ आर्टिस्ट्स (एसएजी-एएफटीआरए) डब्ल्यूजीए संप सुरू झाल्यानंतर दोन महिन्यांनंतर प्रमुख चित्रपट आणि टेलिव्हिजन निर्मात्यांविरुद्ध संपावर गेले. आश्चर्याची गोष्ट नाही, एआय धोरण हा संप करण्याचा निर्णय घेण्यास प्रवृत्त करणारा एक प्रमुख मुद्दा होता. कदाचित सर्वात महत्त्वाचे म्हणजे कलाकार यशस्वी नवीन करार जिंकण्यासाठी जे उत्पादकांना AI च्या भविष्यातील वापरांवर सौदेबाजी करण्यास भाग पाडेल.
उदाहरणार्थ, करारासाठी आवश्यक आहे की जर एखाद्या निर्मात्याने “सिंथेटिक परफॉर्मर” (डिजिटली तयार केलेली नैसर्गिक दिसणारी व्यक्ती जी “कोणत्याही ओळखण्यायोग्य नैसर्गिक कलाकार म्हणून ओळखली जाऊ शकत नाही”) वापरण्याची योजना आखत असेल तर त्यांनी युनियनला सूचित केले पाहिजे आणि न करण्याच्या निर्णयावर युनियनशी करार केला पाहिजे. युनियनला फी भरण्याची शक्यता असलेल्या नैसर्गिक कलाकाराची नियुक्ती करा. जर एखाद्या निर्मात्याला "ओळखण्यायोग्य सिंथेटिक परफॉर्मर" (डिजिटली तयार केलेली नैसर्गिक दिसणारी व्यक्ती जी नैसर्गिक परफॉर्मर म्हणून ओळखण्यायोग्य आहे) वापरायची असेल, तर त्यांनी प्रथम परफॉर्मरशी सौदा करणे आणि त्यांची संमती घेणे आवश्यक आहे.
इतर कामगार देखील त्यांच्या नोकऱ्यांचे रक्षण करण्यासाठी आणि व्यावसायिक मानकांचे रक्षण करण्यासाठी, AI तंत्रज्ञानाच्या वापरावर त्यांच्या बॉसशी कठोर सौदेबाजीत गुंतलेले आहेत, उदाहरणार्थ पत्रकार. हे कामगार संघर्ष AI वापरासाठी आवश्यक रेलिंग विकसित करण्याच्या दिशेने एक महत्त्वाची सुरुवात आहे. मानवी संपर्क आणि मानवी एजन्सी - आमच्या वैद्यकीय प्रणाली, शैक्षणिक संस्था, वाहतूक, बातम्यांचे अहवाल, सार्वजनिक एजन्सी आणि प्रदात्यांसह संप्रेषण - मानवी संपर्क कमी करण्यासाठी AI तंत्रज्ञान वापरण्यासाठी कॉर्पोरेट ड्राइव्हच्या विरोधात व्यापक कामगार-समुदाय युती तयार करण्यासाठी ते एक पाया असू शकतात. वस्तू आणि सेवा, आणि यादी पुढे जाते. AI तंत्रज्ञानाशी संबंधित खर्च आणि फायद्यांच्या संपूर्ण श्रेणीचे अचूक मूल्यांकन करण्यासाठी आम्ही काम करणाऱ्या लोकांना हायपद्वारे पाहण्यास मदत करू शकलो तर आमच्या यशाच्या शक्यता मोठ्या प्रमाणात वाढतील. •
मार्टिन हार्ट-लँड्सबर्ग हे लुईस आणि क्लार्क कॉलेज, पोर्टलँड, ओरेगॉन येथे अर्थशास्त्राचे प्राध्यापक एमेरिटस आहेत; आणि सामाजिक विज्ञान संस्थेतील सहायक संशोधक, Gyeongsang राष्ट्रीय विद्यापीठ, दक्षिण कोरिया. त्यांच्या अध्यापन आणि संशोधनाच्या क्षेत्रांमध्ये राजकीय अर्थव्यवस्था, आर्थिक विकास, आंतरराष्ट्रीय अर्थशास्त्र आणि पूर्व आशियातील राजकीय अर्थव्यवस्था यांचा समावेश होतो. तो ब्लॉग सांभाळतो इकॉनॉमिक फ्रंटकडून अहवाल.
ZNetwork ला केवळ त्याच्या वाचकांच्या उदारतेने निधी दिला जातो.
दान