Жасанды интеллект (AI) барлық жерде бар сияқты. Компаниялар тұтынушылардың сұрақтарын шешу үшін веб-беттерінде немесе телефон жүйелерінде қуатты AI чат-боттарын пайдаланады. Жаңалықтар мен журналдар оларды әңгіме жазу үшін пайдаланады. Киностудиялар оларды фильмдер шығару үшін пайдаланады. Технологиялық компаниялар оларды бағдарламалау үшін пайдаланады. Оқушылар оларды қағаздар жазу үшін пайдаланады. Бұл сиқыр сияқты. Барлығы «бұлтта» болып жатқандықтан, AI-мен жұмыс істейтін жүйелердің қоршаған ортаға пайдалы екеніне сену оңай. Өкінішке орай, бәрі көрінгендей емес.
Чат-боттар эксплуатацияға негізделген, үлкен энергияны пайдаланады және сенімділіктен алыс. Олардың жетілдіріліп жатқанын және кейбір жағынан өмірді жеңілдететінін елестету оңай болғанымен, компаниялар нәтижелер әлеуметтік пайдалы бола ма деген алаңдаушылықпен пайда табу үшін оларды құруға миллиардтаған доллар құйып жатыр. Қысқасы, біз AI-ға корпоративтік қызығушылықты байыппен қабылдауымыз керек және AI қалай дамып, қолданылатынын бақылауға көмектесетін стратегияларды әзірлеуіміз керек.
Жарыс жалғасуда
Чатбот төңкерісі 2022 жылы OpenAI ChatGPT енгізуімен басталды. ChatGPT адамға ұқсас сөйлесуге қабілетті және жасалған мәтінмен пайдаланушы сұрақтарына жауап бере алады, сонымен қатар мақалалар мен код жаза алады. Ең бастысы, оны пайдалану тегін болды.
ChatGPT-ке қоғамдық қызығушылыққа жауап беретін басқа компаниялар көп ұзамай өздерінің AI чат-боттарын енгізе бастады. Бүгінгі таңда ең үлкен және ең көп қолданылатындар - Google компаниясының Gemini (бұрынғы Бард) және Microsoft компаниясының Copilot. Басқалары да бар, олардың кейбіреулері нақты бизнес қажеттіліктерін қанағаттандыруға арналған. Мысалы, GitHub CoPilot бағдарламалық жасақтаманы әзірлеушілерге кодты жасауға көмектесу үшін жұмыс істейді және Anthrophic's Claude ақпаратты табу және құжаттарды қорытындылау үшін жасалған.
Ал жарыс жасауды жалғастыруда келесі ұрпақ Қосымша ақпаратты қабылдап, оны тезірек өңдей алатын және егжей-тегжейлі, жеке жауаптар бере алатын AI жүйелері. Голдман Сакстың айтуынша экономистер, Құрама Штаттардағы AI-ға байланысты инвестиция алдағы онжылдықта «ЖІӨ-нің 2.5-4 пайызын құрауы мүмкін».
Чат-боттарға сөздердің, мәтіннің, кескіндердің, дыбыстың және желідегі мінез-құлықтың үлкен және алуан түрлі дерекқоры, сондай-ақ қажет кезде материалдарды жалпы пайдалану үлгілеріне сәйкес ұйымдастыруға мүмкіндік беретін күрделі алгоритмдер қажет. Сұрақ немесе ақпарат сұрауы берілгенде, чат-боттар өздерінің дерекқорындағы сұрақтағы немесе сұраудағы сөздер үлгісіне қатысты материалды анықтайды, содан кейін алгоритмдерді басшылыққа ала отырып, берілген деректерге ең жақсы сәйкес келетін дерекқорындағы сөздер немесе кескіндер жинағын жинайды. шектеулер, сұрау. Әрине, үлгілерді анықтау және жауаптарды құру процесі орасан зор энергияны қажет етеді.
Чат-бот қаншалықты әңгімелесуші және ақылды болып көрінсе де, Меган Кроуз сияқты есте сақтау маңызды. Түсіндіреді, бұл:
«Модель не айтып тұрғанын «білмейді», бірақ ол үйретілген деректер жиынтығы негізінде қандай таңбалардың (сөздердің) бірінен соң бірі келетінін біледі. ChatGPT, оның Google бәсекелесі Bard және басқалары сияқты жасанды интеллект чат-боттарының қазіргі ұрпағы шын мәнінде саналы түрде негізделген шешімдер қабылдамайды; керісінше, олар табиғи сөйлеу барысында бір-бірінің қасында кездесетін сөздерді қайталайтын интернеттің тотықұстары. Негізгі математика - бұл ықтималдық».
Әртүрлі чат-боттар өздерінің бағдарламалауына байланысты және әртүрлі деректер жинақтарында оқытылғандықтан әртүрлі нәтижелер береді. Мысалы, Интернетте қол жетімді кез келген жалпы деректерді скрипкалаумен қатар, Gemini өзінің Google қолданбаларындағы деректерді пайдалана алады, ал Copilot Bing іздеу жүйесінен жасалған деректерді пайдалана алады.
Чатботтар енгізілгеннен бері бірқатар жаңартулардан өтті. Әрбір ұрпақтың неғұрлым күрделі бағдарламалық пакеті бар, ол оған неғұрлым нюансты қосылымдарды жасауға, сондай-ақ қойылған сұрақтардан немесе сұраулардан алынған деректерді қосу арқылы дерекқорын кеңейтуге мүмкіндік береді. Осылайша чат-боттар пайдалану арқылы уақыт өте келе үйренеді/жетілдіреді.
Бұл перспектива бұлтта болып жатқан нәрселер туралы сөйлесуімізге қарамастан, чат-боттардың шақыруларға немесе сұрақтарға жауап беру қабілеті жерде берік орналасқан процестерге байланысты екенін көрсетеді. Ішінде сөздер технологиялық жазушы Карен Хао:
«AI кез келген басқа технология сияқты жеткізу тізбегіне ие; Бұл технологияны құруға кіретін кірістер бар, деректер бір, содан кейін есептеу қуаты немесе компьютерлік чиптер басқа. Және бұл екеуінің де олармен байланысты көптеген адам шығыны бар ».
Жеткізу тізбегі: адам еңбегі
AI жүйелері деректерге мұқтаж және деректер бір немесе басқа түрде адамдардан келеді. Сондықтан технологиялық компаниялар өздерінің AI жүйелерінің жұмысын жақсарту үшін үнемі жаңа және әртүрлі деректерді іздеуде. Біздің онлайн блогымыз бен веб-сайттағы жазбаларымыз, жарияланған кітаптар мен мақалалар, іздеулер, фотосуреттер, әндер, суреттер және бейнелер интернеттен еркін түрде алынып тасталған, біз жоғары кірісті компанияларды олардың әлі де көп пайда табуға тырысуына көмектесеміз. Лорен Леффер ретінде Ескертулер,
«Веб-тексерушілер мен қырғыштар кіру парағынан тыс кез келген жерден деректерге оңай қол жеткізе алады... Бұған танымал фотосуреттерді бөлісетін Flickr сайтындағы кез келген нәрсе, онлайн базарлар, сайлаушыларды тіркеу дерекқорлары, мемлекеттік веб-беттер, Wikipedia, Reddit, зерттеу репозиторийлері, жаңалықтар кіреді. және академиялық мекемелер. Сонымен қатар, пираттық мазмұн компиляциялары мен веб-мұрағаттар бар, оларда көбінесе Интернеттегі бастапқы орнынан жойылған деректер бар. Қырылған дерекқорлар жойылмайды ».
Шын мәнінде, қырылған материалдың айтарлықтай бөлігі авторлық құқықпен қорғалған және рұқсатсыз алынған. Бұған жауап ретінде бірқатар баспагерлер, жазушылар мен өнер адамдары қазір ұрлықты тоқтатуға тырысуда. Мысалы, 2023 жылдың тамызында The New York Times өзінің «Қызмет көрсету шарттары« тыйым салынады оның мәтінін, фотосуреттерін, кескіндерін және аудио/бейнеклиптерін «кез келген бағдарламалық жасақтаманы, соның ішінде, бірақ онымен шектелмей, машиналық оқыту немесе жасанды интеллект (AI) жүйесін оқытуды» әзірлеуде пайдалану. Бірақ кейбір ірі компаниялардың өз материалдарын пайдаланғаны үшін қаржылық өтемақы төлеуге тыйым салу немесе келіссөздер жүргізу рычагтары немесе заңды күші болғанымен, көптеген кәсіпорындар мен жеке тұлғалар жоқ. Нәтижесінде олар әлі де өздерінің «зияткерлік меншік” олардан тегін алынып, корпоративтік ақша табу қызметі қызметінде AI оқу материалына айналды.
Жасанды интеллект деректерін жинаумен байланысты жеке шығындарды азайтпастан, бұл алу әдісімен әлдеқайда үлкен мәселе бар. Қоғамдық интернетті жою дегеніміз, AI чат-боттары ғылым, тарих, саясат, адам мінез-құлқы және ағымдағы оқиғалар туралы әртүрлі көзқарастар мен түсініктерді, соның ішінде өшпенділік топтарының мүшелерінің хабарламалары мен жазбаларын қамтитын материалдарды пайдалана отырып оқытылады. Проблемалық деректер тіпті ең күрделі чат-боттардың шығуына оңай әсер етуі мүмкін.
Мысалы, чат-боттарды компаниялар жұмысқа қабылдауға көмектесу үшін көбірек пайдаланады. Дегенмен, Bloomberg News ретінде Табылды, «ең танымал генеративті AI құралы жүйелі түрде олардың атауларына негізделген қолайсыз топтарға бейімділік жасайды». Мысалы, өз зерттеуі табылған «Fortune 1000 компаниясында нақты қаржылық талдаушы рөлі үшін сегіз бірдей білікті түйіндемені 500 рет сұрыптауды сұрағанда, ChatGPT қара американдықтарға тән атаумен түйіндемені таңдауы мүмкін емес».
Чатботтар адам еңбегінің сапасына тағы бір жағынан тәуелді. Чатботтар веб-тексерушілер мен қырғыштар жинаған деректердің көп бөлігін тікелей пайдалана алмайды. Джош Дзиеза ретінде Түсіндіреді, «Тіпті ең әсерлі AI жүйесінің артында адамдар тұр - оны үйрету үшін деректерді таңбалайтын және шатастырылған кезде деректерді нақтылайтын көптеген адамдар.»
Ірі AI компаниялары әдетте деректерді таңбалау процесіне қажетті жұмысшыларды табу және оқыту үшін басқа шағын компанияларды жалдайды. Және бұл қосалқы мердігерлер, әдетте, аннотаторлар деп аталатын жұмысшыларын Жаһандық Оңтүстікте, көбінесе Непал мен Кенияда табады. Аннотация процесі, сондай-ақ аннотацияланатын элементтер коммерциялық құпия болып есептелетіндіктен, аннотаторлар өздерінің соңғы бастығын сирек біледі және олар басқалармен, тіпті әріптестермен не істейтінін талқылайтыны анықталса, жұмыстан босатылады.
Дзиеза чат-боттарға олар үшін жиналған деректерді пайдалануға мүмкіндік беру үшін аннотаторлар орындауы керек кейбір жұмыстарды сипаттайды. Мысалы, аннотаторлар бейнелер мен фотосуреттердегі элементтерді белгілейді. Бұл AI жүйелері пикселдердің нақты конфигурацияларын белгілі бір элементтермен немесе эмоциялармен байланыстыра алатынын қамтамасыз ету үшін жасалуы керек. Өзін-өзі басқаратын көліктерге арналған AI жүйелерін жасайтын компаниялар көше немесе тас жол көріністері түсірілген бейнелердегі барлық маңызды элементтерді анықтау үшін аннотаторларды қажет етеді. Бұл «әрбір көлікті, жаяу жүргіншіні, велосипедшіні, жүргізуші білуі керек кез келген нәрсені - кадр бойынша және кез келген ықтимал камера бұрышынан анықтау» дегенді білдіреді. Дзиеза айтқандай, бұл «қиын және қайталанатын жұмыс. Бірнеше секундтық түсірілімге аннотация жасауға сегіз сағат қажет болды, ол үшін [аннотаторға] шамамен 10 доллар төленді».
Бұл жұмыстың жалақысы аз болғанымен, өте маңызды. Егер аннотация процесі нашар орындалса немесе дерекқор шектеулі болса, жүйе оңай істен шығуы мүмкін. Бір мысал: 2018 жылы өзін-өзі басқаратын Uber көлігі әйелді қағып өлтірді. Жасанды интеллект жүйесі сәтсіздікке ұшырады, себебі «ол велосипедшілер мен жаяу жүргіншілерді болдыртпау үшін бағдарламаланған болса да, көшеде велосипедпен келе жатқан адамға не істеу керектігін білмеді».
Әлеуметтік желідегі фотосуреттердегі элементтерді белгілеу үшін аннотаторлар да жалданады. Бұл адамдар киюге болатын барлық көрінетін жейделерді анықтауды және таңбалауды қамтуы мүмкін. Бұл олардың «поло жейделері, ашық ауада киілетін жейделер, сөреде ілулі тұрған жейделер» және т.б. екенін жазуды қажет етеді.
Басқа жұмыстар эмоцияларды белгілеуді қамтиды. Мысалы, кейбір аннотаторлар беттердің суреттерін, соның ішінде аннотаторлар түсірген селфилерді қарау және субъектінің қабылданған эмоционалдық күйін белгілеу үшін жалданады. Басқалары пицца желісіне тиесілі дүкендерге тапсырыс берген тұтынушылардың эмоцияларын белгілеу үшін жалданады. Басқа жұмыста Reddit жазбаларының эмоцияларын белгілейтін аннотаторлар бар. Бұл тапсырма үнділік жұмысшылардың бір тобы үшін, ең алдымен, АҚШ интернет мәдениетімен таныс болмағандықтан қиын болды. Қосалқы мердігер олардың жұмысын қарап шыққаннан кейін, посттардың 30 пайызға жуығы қате белгіленді деп шешті.
Мүмкін, AI оқыту жұмысының ең жылдам дамып келе жатқан сегменті адамның чатботпен тікелей әрекеттесуін қамтиды. Тақырыптарды талқылау үшін адамдар жалдануда және чатбот әр әңгімеге екі түрлі жауап беруге бағдарламаланған. Жалданған «талқылаушы» содан кейін «ең жақсы» деп санайтын жауапты таңдауы керек. Содан кейін бұл ақпарат жүйеге қайта жіберіліп, оны «адам» деп көрсетуге көмектеседі.
Қысқасы, AI жүйелері адамның жұмысына қатты тәуелді. Бұл сиқырлы жүйелер емес, адамның көзқарастары немесе эмоциялары әсер етпейтін жұмыс істейді. Ал олардың қызметі қандай да бір ойдан шығарылған бұлт ішінде жүрмейді. Бұл кейінірек нүкте олардың жұмыс істеуі үшін қажетті инфрақұрылымды қарастырғанда айқынырақ болады.
Жеткізу тізбегі: Деректер орталықтары
Жасанды интеллекттің өсуіне деректер орталықтарының кең ауқымы және олар орналасқан компьютерлер мен серверлерді, сондай-ақ олардың қызып кетуіне жол бермеу үшін үздіксіз жұмыс істеуі керек кондиционерлерді басқару үшін электр энергиясына тұрақты өсіп келе жатқан сұраныс қолдау көрсетті. Шынында, «Қазір бұлттың әуе саласына қарағанда көміртегі ізі көбірек. Бір дата орталығы 50,000 XNUMX үйге тең электр қуатын тұтына алады».
айтуынша Халықаралық энергетика агенттігінің мәліметтері бойынша, АҚШ-та жұмыс істейтін 2,700 деректер орталығы 4 жылы елдің жалпы энергия тұтынуының 2022 пайызынан астамына жауапты болды. Ал олардың үлесі 6 жылға қарай 2026 пайызға жетуі мүмкін. Әрине, мұндай бағалаулар өрескел. өйткені ірі технологиялық компаниялар қаламайды сәйкес ақпаратты бөлісу үшін және AI жүйелері үнемі жаңа деректер бойынша оқытылып, көбірек дағдылармен жаңартылып отырады, бұл әр әрекетке көбірек энергия тұтынуды білдіреді.
Қазірдің өзінде деректер орталықтарының энергияға деген сұранысы АҚШ-тың электр желісіне салық салып жатқанының белгілері бар. Washington Post ретінде Ескертулер: «Солтүстік Вирджинияға жоспарланған және салынып жатқан барлық жаңа деректер орталықтарына қызмет көрсету үшін бірнеше ірі атом электр станцияларының баламасы қажет. Жаздың ыстық күндерінде электр қуатының тапшылығы әдеттегідей болған Техас дәл осындай дилеммаға тап болады ».
Тынық мұхитының солтүстік-батысы да осындай қиындыққа тап болады. ретінде Oregonian газет атап көрсетеді:
«Жазда [2023] жарияланған үш жаңа болжамға сәйкес, Орегон штатында таралатын деректер орталықтары аймақтық коммуналдық қызметтер мен энергияны жоспарлаушылар күткеннен әлдеқайда көп электр энергиясын тұтынады.
«Бұл солтүстік-батыс электр желісіне көбірек қысым жасауда және Орегон штаты екі жыл бұрын құрылған таза энергетикалық амбициялық мақсаттарға қол жеткізе алатындығына жаңа күмән тудырады ...
«Бонневиллдің энергетикалық басқармасы енді 2041 жылға қарай Орегон мен Вашингтондағы деректер орталықтарының электр энергиясына сұранысы екі жарым есеге өсіп, орташа 2,715 мегаватт тартады деп күтуде. Бұл қазіргі екі штаттағы барлық үйлердің үштен бірін қуаттандыруға жеткілікті».
Көбінесе жасанды интеллекттің жылдам өсіп келе жатқан сұраныстарынан туындаған бұл аспандап тұрған энергия сұранысы жаһандық жылынумен күресудегі күш-жігерімізге үлкен қауіп төндіреді. Мысалы, қуат мәселесі Канзас, Небраска, Висконсин және Оңтүстік Каролина штаттарын көмір зауыттарын жабуды кейінге қалдырды. Климаттық әрекет етуші бірнеше топтардың AI төндіретін климаттық қауіп туралы 2024 жылғы есебі табады Халықаралық энергетикалық агенттік алдағы екі жылда болатын деректер орталықтарының энергияны екі есеге пайдалануы планетаны жылыту шығарындыларының 80 пайызға артуына әкеледі. Бұл жасалған емес, нақты қажеттіліктерді қанағаттандыру қабілетіне қарамастан шығарылатын жаңа AI қызметтері үшін төлеуге болатын ауыр баға.
«Сендіруші шындық емес»
Ірі технологиялық компаниялар AI олар үшін үлкен пайда әкеледі деп бәс тігеді. Ештеңені кездейсоқ қалдырмай, біз оларды қалайтынымызды ойластырмас бұрын, оларды біздің өмірімізге енгізу үшін қолдан келгеннің бәрін жасайды. Қазірдің өзінде AI жүйелері денсаулық сақтауды жақсарту, психикалық денсаулық бойынша кеңестер беру, заңгерлік кеңестер беру, студенттерді оқыту, жеке шешім қабылдауды жақсарту, жұмыс орнының тиімділігін арттыру тәсілі ретінде алға жылжуда.
Ұмытылған сияқты, AI жүйелері енгізілген деректер мен оны пайдалану үшін жазылған бағдарламалық жасақтама сияқты жақсы. Басқаша айтқанда, олардың жұмыс істеуі адамға байланысты. Және, бәлкім, одан да маңыздысы, AI жүйелері оларда оқытылған деректерді қалай пайдаланатынын ешкім білмейді. Басқаша айтқанда, олардың «ой қозғау процесін» қадағалау мүмкін емес. Бұл жүйелердің айтарлықтай артық сатылып жатқаны туралы ескерту белгілері қазірдің өзінде көрінеді.
Мысалы, 2022 жылы тұтынушы қайтыс болған жағдайда жол ақысын қалай алуға болатынын білу үшін Air Canada компаниясына хабарласты. Әуе компаниясының тұтынушыларға қызмет көрсететін AI-мен жұмыс істейтін чат-боты оған сапарындағы ақшаны қайтару үшін билет берілгеннен кейін 90 күн ішінде пішінді толтыру керек екенін айтты. Бірақ ол сапарды аяқтағаннан кейін үлгіні тапсырған кезде, авиакомпания қызметкерлері оған жол жүру ақысын төмендетпейтінін айтты, өйткені форма сапарға дейін толтырылуы керек. Ол әуе компаниясына бот айтқан сөздердің түсірген скриншоттарын көрсеткенде, әуе компаниясы боттың айтқандарына жауап бермейді деп қарсылық білдірді.
Тапсырыс беруші Air Canada-ны сотқа беріп, жеңіске жетті. Судья деп атап өтті бұл:
«Air Canada өзінің агенттерінің, қызметшілерінің немесе өкілдерінің, соның ішінде чат-боттың бірі берген ақпарат үшін жауапкершілікке тартылмайтынын айтады. Неліктен бұлай деп есептейтінін түсіндірмейді. Іс жүзінде, Air Canada чатботты өз әрекеттеріне жауап беретін жеке заңды тұлға ретінде ұсынады. Бұл керемет ұсыныс ».
Компаниялардың шын мәнінде чат-боттарды жеке заңды тұлғалар деп жариялауға ұмтылу мүмкіндігін қалдырмай, олар қажет болса, өз әрекеттерінен бас тарта алады, авиакомпания өзінің чат-ботының неліктен қате ақпарат бергенін әлі түсіндірмеді.
Содан кейін Microsoft корпорациясының көмегімен әзірленген Нью-Йорк чатботы бар, оны қала бизнеске қала ережелері мен ережелерін білуге көмектесу үшін «бір терезе» ретінде көтерді. Міне, кейбіреулер мысалдар сауалдарға жауап ретінде берілген күмәнді кеңестер:
«Чатбот жұмыс берушіге жыныстық қудалау туралы шағымданған, жүктілігін жария етпейтін немесе олардың бөртпелерін кесуден бас тартқан жұмысшыны жұмыстан шығаруға заңды деп жалған ұсынды ...
«Мейрамхана кеміргіш тістеген ірімшікті ұсына ала ма?» деген сұраққа ол: «Иә, егер ол егеуқұйрық шаққан болса, сіз әлі де ірімшікті тұтынушыларға бере аласыз», - деп жауап берді. егеуқұйрықтардан туындаған' және 'жағдай туралы тұтынушыларды хабардар ету'».
Таңқаларлық емес, Microsoft та, Нью-Йорк мэрі де мұндай мәселелердің ақыры түзетілетінін айтып жауап берді. Шын мәнінде, олар пайдалы деп қосты, пайдаланушылар қателерді көрсете отырып, жүйені қажетті дәл реттеуді жылдамдатады.
Мұндай проблемалар, қаншалықты маңызды болса да, АИ «галлюцинациялары» мәселесімен салыстырғанда бозғылт. Галлюцинация - бұл AI жүйесі атауларды, күндерді, кітаптарды, сот істерін, медициналық түсініктемелерді, тіпті тарихи оқиғаларды қамтуы мүмкін ақпаратты ойлап шығару. Мысалы, чат-боттар адвокаттар өздерінің сот істерінде сілтеме жасаған істерді ойлап тапқан бірнеше сот істері болды.
Нақты жағдай: 2023 жылдың маусымында талапкерді қорғайтын адвокаттар жағдай Колумбиялық авиакомпанияға қарсы сот ісін қозғағандар чатбот арқылы «табылған» алты қолдаушы істі қамтитын қысқаша ақпарат берді. Өкінішке орай, мұндай жағдайлар ешқашан болған емес; Кейбіреулер тіпті жоқ авиакомпанияларды атады. Судья істі қысқартып, адвокаттарға жалған дәйексөз пайдаланғаны үшін айыппұл салды. Адвокаттар судьяның жаман ниетпен әрекет етті деген тұжырымымен келіспей, өз қорғауында: «Біз технологияның бір бөлігі істерді тұтас матадан құрастыруы мүмкін дегенге сенбей, адал қателестік.
Тіпті ең күрделі чат-боттар галлюцинацияға ұшырауы мүмкін. Келесі күні болатын 2024 жылғы Superbowl ойынына ставка қоюдың коэффициенттері туралы сұрағанда, Google чатботы жариялады Superbowl өтіп кеткендіктен бәс тігуге тым кеш болды, Сан-Франциско 49ерс Канзас-Сити Чифсті 34 пен 28 есебімен жеңді. Оған тіпті ойыншылардың кейбір статистикасы да кірді. Ойын ойналған кезде Канзас-Сити жеңді. Майкрософт чатботы да солай істеді, ойын әлі ойнатылмаған болса да аяқталды деп мәлімдеді. Алайда ол Канзас-Ситидің бастықтары жеңіске жеткенін жариялады.
Медициналық кеңес беретін чат-бот галлюцинациядан зардап шексе, қандай шығындар болуы мүмкін екенін елестетіп көріңіз. АҚШ әскері AI технологиясын әртүрлі жолдармен, соның ішінде қауіптерді анықтау, ұшқышсыз ұшақтарды басқару, барлау мәліметтерін жинау және соғысты жоспарлау үшін қолдануды жылдам арттыруда. Жүйенің жеткіліксіз немесе толық емес деректерді оқытудан немесе одан да нашар галлюцинациядан туындауы мүмкін ықтимал апатты елестетіп көріңіз. Айта кету керек, бұл жүйелер әртүрлі себептерге байланысты сенімді емес. Ішкі Microsoft құжаты мұны жақсырақ түсіреді жариялады жаңа AI жүйелері «шындық емес, сендіру үшін жасалған».
Не істеу керек?
Осы уақытқа дейін AI-ға қатысты қоғамның алаңдауы негізінен AI жүйелерімен жеке деректерді рұқсатсыз пайдалануға бағытталған. Адамдар өздерінің материалдарын рұқсатсыз веб-сайттан шығарудан қорғауды қалайды. Және олар AI жүйелерімен өзара әрекеттесулері оларды алаяқтыққа, кемсітушілікке немесе қудалауға ұшырататын деректер генерациялайтын әрекетке айналғанын қаламайды. Қазір әртүрлі мемлекеттік және жергілікті үкіметтер ескере отырып бұған жету жолдары. Ал 2023 жылы президент Байден федералды шешім шығарды бұйрық бұл жаңа «іргелі» IA жүйелерінің жалпыға шығарылым алдында кемшіліктерге барабар сынақтан өтуін қамтамасыз етуге тырысады. Бұл пайдалы алғашқы қадамдар.
Жасанды интеллектті қолдану бойынша ең өткір күрес жұмыс орнында жүріп жатыр. Компаниялар сақтау үшін AI жүйелерін пайдаланады қойындылар жұмысшыларды ұйымдастыру бойынша, монитор жұмысшының өнімділігі және мүмкіндігінше құтылу жұмысшылардың. Таңқаларлық емес, кәсіподақ қызметкерлері компанияның AI жүйелерін пайдалануына шектеулер ұсынып, қарсы тұра бастады.
Мысалы, 12,000 2023-ға жуық киножазушыларды біріктіретін Америка Жазушылар Гильдиясы (WGA) XNUMX жылы жалақыны көтеруді талап етіп, бес ай бойы Universal, Paramount, Walt Disney, Netflix, Amazon және Apple сияқты бірқатар ірі продюсерлік компанияларға соққы берді. жұмыспен қамтуды қорғау және AI пайдалануға шектеулер. Бір қызығы, Брайан Мерчент, LA Times газетінің шолушысы ретінде, сипаттайды:
«ChatGPT сияқты генеративті AI-ны пайдалану туралы алаңдаушылық жазушылар келіссөздерді бастау үшін студиялармен алғаш рет отырған кезде де маңызды емес еді. WGA-ның бірінші ұсынысында студиялар түпнұсқа сценарийлерді жасау үшін AI-ды пайдаланбайтындығы айтылған және студиялар қызыл жалаушалардың көтерілуінен үзілді-кесілді бас тартқан кезде ғана.
«Сол кезде жазушылар студиялардың AI-ны қолдануға шындап кірісетінін түсінді - егер екі тарап та бұл сәтте мүмкін емес екенін білетін дайын сценарийлерді жасамаса - онда жазушыларға қарсы қауіп ретінде де, төмендетілген қайта жазуды ұсынуды ақтау құралы ретінде де. алымдар. Дәл сол кезде WGA құмға сызық сызды, біз пикет сызықтарында AI-ны айыптайтын белгілерді әлеуметтік желілерде вирусқа айналдыратын белгілерді және газеттерді осыған ұқсас қақтығысты жариялаған тақырыптарды көре бастағанда ».
Шындығында, AI жүйелерін пайдалануды бақылауға алу қажеттілігі туралы өсіп келе жатқан хабардарлық Жазушылар Гильдиясын байланысты салалардағы, соның ішінде цифрлық медиа дүкендерінде жұмыс істейтіндер үшін ереуіл кезінде AI бойынша бірнеше кездесулер өткізуге әкелді. Қатысушылардың көбі сценаристерді қолдап пикетке шықты.
Ереуіл жазушыларға үлкен табыс әкелді. AI тұрғысынан жаңа келісімшарт сценарийлерді жазу немесе қайта жазу немесе бастапқы материал үшін үлкен тілдік үлгідегі AI жүйелерін пайдалануға тыйым салады. Жазушыларға, егер қаласа, оларды пайдалануға рұқсат етіледі. Келісімшарт сонымен қатар AI жүйелерін үйрету үшін кез келген жазушының материалдарын пайдалануды жоққа шығарады. Бір аналитик ретінде Түсініктеме берді, «Алғашқы нобайлар ChatGPT арқылы жасалады, содан кейін қайта жазу ақысы төменірек жазушыға беріледі деген қорқыныш жойылды. Бұл жұмысшыларға қатысты AI үшін белгілерді белгілейтін алғашқы ұжымдық келісімдердің бірі болуы мүмкін ».
Экран актерлерінің гильдиясы-Американдық теле және радио әртістері федерациясы (SAG-AFTRA) WGA ереуілінің басталуынан екі ай өткен соң ірі кино және теледидар өндірушілеріне қарсы ереуілге шықты. Таңқаларлық емес, AI саясаты ереуілге шешім қабылдауға түрткі болған негізгі мәселелердің бірі болды. Ең бастысы, актерлер сәтті болды өндірушілерді AI-ны болашақта пайдалану туралы мәмілеге келуге мәжбүр ететін жаңа келісімшартты жеңіп алуда.
Мысалы, келісім, егер өндіруші «синтетикалық орындаушыны» («анықталатын табиғи орындаушы ретінде тануға болмайтын сандық жолмен жасалған табиғи тұлға») пайдалануды жоспарласа, олар кәсіподақпен келіспеу туралы шешім туралы хабарлауы және келісуі қажет. одаққа төленетін жарналар мүмкіндігімен табиғи орындаушыны жалдайды. Егер продюсер «тануға болатын синтетикалық орындаушыны» (табиғи орындаушы ретінде тануға болатын сандық түрде жасалған табиғи көрінетін жеке тұлға) пайдаланғысы келсе, олар алдымен орындаушымен саудаласып, олардың келісімін алуы керек.
Басқа жұмысшылар да өз жұмысын қорғау үшін де, кәсіби стандарттарды қорғау үшін де AI технологиясын пайдалану туралы бастықтарымен қатты келіссөздер жүргізеді, мысалы. журналистер. Бұл еңбек күресі AI пайдалану үшін қажетті қоршауларды әзірлеудің маңызды бастамасы болып табылады. Олар біздің медициналық жүйеде, білім беру мекемелерінде, көлікте, жаңалықтар репортажында, мемлекеттік органдармен және провайдерлермен байланыста адамдық байланыстарды және адамдық агенттіктерді азайту үшін AI технологиясын пайдаланудағы корпоративтік ынтаға қарсы кеңірек еңбек және қоғамдастық одағын құруға негіз бола алады. тауарлар мен қызметтердің тізімі жалғасуда. Егер біз жұмыс істейтін адамдарға AI технологиясымен байланысты шығындар мен артықшылықтардың толық спектрін дәл бағалауға көмектесе алсақ, табысқа жету мүмкіндігіміз айтарлықтай артады. •
Мартин Харт-Ландсберг – Льюис және Кларк колледжінің экономика ғылымдарының құрметті профессоры, Портленд, Орегон; және Әлеуметтік ғылымдар институтының қосалқы ғылыми қызметкері, Кёнсан ұлттық университеті, Оңтүстік Корея. Оның оқыту және зерттеу салаларына саяси экономика, экономикалық даму, халықаралық экономика және Шығыс Азияның саяси экономикасы кіреді. Ол блог жүргізеді Экономикалық майданның есептері.
ZNetwork өз оқырмандарының жомарттығы арқылы ғана қаржыландырылады.
сыйлау