Արհեստական ինտելեկտը (AI) կարծես ամենուր է: Հաճախորդների հարցերը լուծելու համար ընկերությունները օգտագործում են հզոր AI չաթ-բոտեր իրենց վեբէջերում կամ հեռախոսային համակարգերում: Լրատվական սենյակները և ամսագրերն օգտագործում են դրանք պատմություններ գրելու համար: Կինոստուդիաներն օգտագործում են դրանք ֆիլմեր արտադրելու համար։ Տեխնոլոգիական ընկերությունները դրանք օգտագործում են ծրագրավորման համար: Ուսանողները դրանք օգտագործում են թղթեր գրելու համար: Թվում է, թե կախարդանք է: Եվ քանի որ այն ամենը, ինչ ենթադրաբար տեղի է ունենում «ամպի մեջ», հեշտ է հավատալ, որ AI-ով աշխատող համակարգերը օգտակար են շրջակա միջավայրի համար: Ցավոք, ամեն ինչ այնպես չէ, ինչպես թվում է:
Chatbot-ները կառուցված են շահագործման վրա, օգտագործում են հսկայական քանակությամբ էներգիա և հեռու են հուսալիությունից: Եվ թեև հեշտ է պատկերացնել, որ նրանք աճում են բարդության մեջ և ինչ-որ առումներով հեշտացնում են կյանքը, ընկերությունները միլիարդավոր դոլարներ են լցնում իրենց ստեղծման վրա՝ շահույթ ստանալու համար՝ քիչ անհանգստանալով, թե արդյոք արդյունքները կլինեն սոցիալապես շահավետ: Մի խոսքով, մենք պետք է լրջորեն վերաբերվենք AI-ի նկատմամբ կորպորատիվ հետաքրքրությանը և մշակենք ռազմավարություններ, որոնք կարող են օգնել մեզ վերահսկել, թե ինչպես է AI-ն մշակվում և օգտագործվում:
Մրցավազքը շարունակվում է
Չաթբոտի հեղափոխությունը սկսվեց 2022 թվականին՝ OpenAI-ի կողմից ChatGPT-ի ներդրմամբ: ChatGPT-ն ի վիճակի էր մարդու նման խոսակցության և կարող էր պատասխանել օգտատերերի հարցերին ստեղծված տեքստով, ինչպես նաև գրել հոդվածներ և կոդ: Լավագույնն այն էր, որ այն անվճար էր օգտագործելու համար:
Այլ ընկերություններ, արձագանքելով ChatGPT-ի նկատմամբ հանրային հետաքրքրությանը, շուտով սկսեցին ներկայացնել իրենց սեփական AI չաթ-բոտերը: Ամենամեծ և ամենատարածվածն այսօր Google-ի Gemini-ն (նախկին Bard) և Microsoft-ի Copilot-ն են: Կան նաև ուրիշներ, ներառյալ մի քանիսը, որոնք նախատեսված են բիզնեսի հատուկ կարիքները բավարարելու համար: Օրինակ, GitHub CoPilot-ն աշխատում է օգնելու ծրագրային ապահովման մշակողներին ստեղծել կոդ, իսկ Anthrophic's Claude-ը նախատեսված է տեղեկատվության հայտնաբերման և փաստաթղթերի ամփոփման համար:
Իսկ մրցավազքը շարունակում է ստեղծագործել հաջորդ սերունդ AI համակարգեր, որոնք կարող են ընդունել ավելի շատ տեղեկատվություն, ավելի արագ մշակել այն և տրամադրել ավելի մանրամասն, անձնական պատասխաններ: Ըստ Goldman Sacks-ի տնտեսագետներ, AI-ի հետ կապված ներդրումները Միացյալ Նահանգներում «կարող են հասնել ՀՆԱ-ի մինչև 2.5-4 տոկոսը» հաջորդ տասնամյակում:
Չաթ-բոտերին անհրաժեշտ է բառերի, տեքստի, պատկերների, աուդիո և առցանց վարքագծի մեծ և բազմազան տվյալների բազա, ինչպես նաև բարդ ալգորիթմներ, որոնք հնարավորություն կտան նրանց անհրաժեշտության դեպքում կազմակերպել նյութը՝ օգտագործման ընդհանուր օրինաչափություններին համապատասխան: Երբ տրվում է հարց կամ տեղեկատվություն ստանալու հարցում, չաթ-բոտերն իրենց տվյալների բազայում նույնացնում են նյութը, որը կապված է հարցի կամ հարցումի բառերի օրինակին և այնուհետև ալգորիթմներով առաջնորդվելով հավաքում են բառերի կամ պատկերների մի շարք իրենց տվյալների բազայից, որոնք լավագույնս բավարարում են տվյալ տվյալները: սահմանափակումներ, հարցում. Իհարկե, օրինաչափությունների նույնականացման և պատասխանների կառուցման գործընթացը պահանջում է հսկայական էներգիա:
Անկախ նրանից, թե որքան խոսակցական և խելացի կարող է թվալ չաթ-բոտը, կարևոր է հիշել, ինչպես Մեգան Քրոուզը. պարզաբանում է, որ:
«Մոդելը «չգիտի», թե ինչ է ասում, բայց գիտի, թե ինչ խորհրդանիշներ (բառեր) հավանաբար կգան մեկը մյուսի հետևից՝ հիմնվելով այն տվյալների վրա, որոնց վրա նա վերապատրաստվել է: Արհեստական ինտելեկտի չաթ-բոտերի ներկայիս սերունդը, ինչպիսին է ChatGPT-ն, Google-ի նրա մրցակից Բարդը և մյուսները, իրականում խելամտորեն տեղեկացված որոշումներ չեն կայացնում. փոխարենը նրանք համացանցի թութակներն են, որոնք կրկնում են բառեր, որոնք, ամենայն հավանականությամբ, կգտնվեն միմյանց կողքին բնական խոսքի ընթացքում: Հիմքում ընկած մաթեմատիկան կապված է հավանականության հետ»:
Տարբեր չաթ-բոտեր տարբեր արդյունքներ կտան իրենց ծրագրավորման պատճառով և քանի որ նրանք վերապատրաստվել են տարբեր տվյալների հավաքածուների վրա: Օրինակ՝ ի լրումն համացանցում հասանելի ցանկացած հանրային տվյալների, Gemini-ն ի վիճակի է օգտագործել իր Google Apps-ի տվյալները, մինչդեռ Copilot-ն օգտագործում է իր Bing որոնողական համակարգից ստացված տվյալները:
Չաթ-բոտերն իրենց ներդրումից ի վեր անցել են մի շարք բարելավումների: Յուրաքանչյուր սերունդ ունի ավելի բարդ ծրագրային փաթեթ, որը թույլ է տալիս ստեղծել ավելի նրբերանգ կապեր, ինչպես նաև ընդլայնել իր տվյալների բազան՝ ներառելով տրված հարցերի կամ հարցումների տվյալները: Այս կերպ չաթ-բոտերը սովորում/բարելավվում են ժամանակի ընթացքում օգտագործման միջոցով:
Այս տեսանկյունը ընդգծում է այն փաստը, որ թեև մենք կարող ենք խոսել ամպում տեղի ունեցող իրադարձությունների մասին, չաթ-բոտերի՝ հուշումներին կամ հարցերին արձագանքելու ունակությունը կախված է գործընթացներից, որոնք ամուր արմատավորված են գետնին: Մեջ բառերը տեխնոլոգիական գրող Կարեն Հաոյի.
«AI-ն ունի մատակարարման շղթա, ինչպես ցանկացած այլ տեխնոլոգիա. կան մուտքեր, որոնք մտնում են այս տեխնոլոգիայի ստեղծման մեջ, քանի որ տվյալները մեկն են, և այնուհետև հաշվողական հզորությունը կամ համակարգչային չիպերը մեկ այլ են: Եվ այդ երկուսն էլ իրենց հետ կապված շատ մարդկային ծախսեր ունեն»:
Մատակարարման շղթա. մարդկային աշխատանք
AI համակարգերը տվյալների կարիք ունեն, և տվյալները ստացվում են մարդկանցից այս կամ այն ձևով: Հետևաբար, տեխնոլոգիական ընկերությունները շարունակաբար փնտրում են նոր և բազմազան տվյալներ՝ իրենց AI համակարգերի աշխատանքը բարելավելու համար: Մեր առցանց բլոգի և վեբկայքի հրապարակումների, հրատարակված գրքերի և հոդվածների, որոնումների, լուսանկարների, երգերի, նկարների և տեսանյութերի միջոցով, որոնք ազատորեն ջնջված են ինտերնետից, մենք օգնում ենք գրավել բարձր շահութաբեր ընկերություններին ավելի մեծ շահույթ ստանալու համար: Լորեն Լեֆերի դերում նշումներ,
«Վեբ որոնիչներն ու քերիչները կարող են հեշտությամբ մուտք գործել տվյալներ գրեթե ցանկացած վայրից, որը գտնվում է մուտքի էջի հետևում… Սա ներառում է ցանկացած բան, որը տարածված է լուսանկարների փոխանակման Flickr կայքում, առցանց շուկաներում, ընտրողների գրանցման տվյալների բազաներում, կառավարության վեբ էջերից, Վիքիպեդիայից, Reddit-ից, հետազոտական շտեմարաններից, լրատվական կայքերից: և ակադեմիական հաստատություններ։ Բացի այդ, կան ծովահեն բովանդակության հավաքածուներ և վեբ արխիվներ, որոնք հաճախ պարունակում են տվյալներ, որոնք այդ ժամանակվանից հեռացվել են համացանցում իրենց սկզբնական տեղից: Իսկ քերված տվյալների բազաները չեն հեռանում»:
Փաստորեն, քերված նյութի մի զգալի մասը հեղինակային իրավունքով պաշտպանված էր և վերցվեց առանց թույլտվության: Ի պատասխան՝ մի շարք հրատարակիչներ, գրողներ և արվեստագետներ այժմ ձգտում են դադարեցնել գողությունը։ Օրինակ՝ 2023 թվականի օգոստոսին The New York Times-ը թարմացրել է իր «Ծառայությունների մատուցման պայմաններ«Դեպի» արգելել դրա տեքստի, լուսանկարների, պատկերների և աուդիո/վիդեո հոլովակների ցանկացած օգտագործում «ցանկացած ծրագրային ծրագրի մշակման համար, ներառյալ, բայց չսահմանափակվելով դրանով, մեքենայական ուսուցման կամ արհեստական ինտելեկտի (AI) համակարգի ուսուցման համար»: Բայց մինչ որոշ խոշոր ընկերություններ ունեն լծակներ կամ օրինական ուժ՝ արգելելու կամ բանակցելու իրենց նյութի օգտագործման համար ֆինանսական փոխհատուցման մասին, բիզնեսների և անհատների մեծ մասը դա չի անում: Արդյունքում, նրանք դեռ վտանգի տակ են իրենց «մտավոր սեփականություննրանցից անվճար վերցված և ինտելեկտուալ ինտելեկտի ուսուցման նյութի վերածվել կորպորատիվ փող աշխատելու ծառայության:
Առանց նվազագույնի հասցնելու AI տվյալների հավաքագրման հետ կապված անձնական կորուստները, ձեռքբերման այս մեթոդի հետ կապված շատ ավելի մեծ խնդիր կա: Հանրային ինտերնետի ջնջումը նշանակում է, որ արհեստական ինտելեկտի չաթ-բոտերը վերապատրաստվում են՝ օգտագործելով նյութեր, որոնք ներառում են գիտության, պատմության, քաղաքականության, մարդկային վարքագծի և ընթացիկ իրադարձությունների վերաբերյալ լայնորեն տարբեր տեսակետներ և պատկերացումներ, ներառյալ ծայրահեղ ատելության խմբերի անդամների գրառումներն ու գրությունները: Եվ խնդրահարույց տվյալները կարող են հեշտությամբ ազդել նույնիսկ ամենաբարդ չաթ-բոտերի արդյունքի վրա:
Օրինակ՝ չաթ-բոտերն ավելի ու ավելի են օգտագործվում ընկերությունների կողմից՝ օգնելու նրանց աշխատանք հավաքագրելիս: Այնուամենայնիվ, ինչպես Bloomberg News հայտնաբերել, «ամենահայտնի գեներատիվ AI գործիքը համակարգված կերպով առաջացնում է կողմնակալություններ, որոնք վնասում են խմբերին՝ հիմնվելով նրանց անունների վրա»: Օրինակ՝ սեփական ուսումնասիրությունը հայտնաբերել «Երբ 1000 անգամ խնդրեցին դասավորել ութ հավասարապես որակավորված ռեզյումեներ Fortune 500 ընկերությունում իրական ֆինանսական վերլուծաբանի դերի համար, ChatGPT-ն ամենաքիչ հավանական էր ընտրել այն ռեզյումեն, որը տարբերվում էր սևամորթ ամերիկացիներից»:
Chatbots-ը կախված է մարդկային աշխատանքի որակից ևս մեկ այլ ձևով: Chatbots-ը չի կարող ուղղակիորեն օգտագործել վեբ սողացողների և քերիչների կողմից հավաքված տվյալների մեծ մասը: Ինչպես Josh Dzieza պարզաբանում է«Անգամ ամենատպավորիչ AI համակարգի հետևում կանգնած են մարդիկ՝ հսկայական թվով մարդիկ, որոնք պիտակավորում են տվյալները՝ դրանք մարզելու և պարզաբանում են տվյալները, երբ դրանք շփոթվում են»:
AI խոշոր ընկերությունները սովորաբար վարձում են այլ փոքր ընկերությունների՝ գտնելու և վերապատրաստելու տվյալների պիտակավորման գործընթացի համար անհրաժեշտ աշխատողներին: Եվ այս ենթակապալառուներն ավելի հաճախ, քան ոչ, գտնում են իրենց աշխատողներին, որոնք կոչվում են ծանոթագրողներ, Գլոբալ հարավում, հաճախ Նեպալում և Քենիայում: Քանի որ անոտացիայի գործընթացը, ինչպես նաև ծանոթագրվող առարկաները համարվում են առևտրային գաղտնիք, ծանոթագրողները հազվադեպ են ճանաչում իրենց վերջնական ղեկավարին և կհեռացվեն աշխատանքից, եթե գտնեն, որ քննարկեն, թե ինչ են անում ուրիշների, նույնիսկ գործընկերների հետ:
Ձիեզան նկարագրում է որոշ աշխատանքներ, որոնք պետք է կատարեն ծանոթագրողները, որպեսզի չաթ-բոտերը կարողանան օգտագործել իրենց համար հավաքված տվյալները: Օրինակ, ծանոթագրողները պիտակավորում են իրերը տեսանյութերում և լուսանկարներում: Սա պետք է արվի, որպեսզի համոզվի, որ AI համակարգերը կկարողանան կապել պիքսելների հատուկ կոնֆիգուրացիաներ որոշակի տարրերի կամ զգացմունքների հետ: Ինքնավար մեքենաների համար արհեստական ինտելեկտի համակարգեր կառուցող ընկերություններին անհրաժեշտ են ծանոթագրողներ՝ փողոցների կամ մայրուղու տեսարաններից արված տեսանյութերի բոլոր կարևոր կետերը բացահայտելու համար: Դա նշանակում է «նույնականացնել յուրաքանչյուր տրանսպորտային միջոց, հետիոտն, հեծանվորդ, այն ամենը, ինչ վարորդը պետք է տեղյակ լինի՝ կադր առ կադր և տեսախցիկի բոլոր հնարավոր անկյուններից»: Ինչպես հայտնում է Ձիեզան, սա «դժվար և կրկնվող աշխատանք է։ Մի քանի վայրկյան տեւողությամբ կադրի ծանոթագրությունը տևեց ութ ժամ, որի համար [նշողին] վճարեցին մոտ 10 դոլար»:
Այս տեսակի աշխատանքը, թեև ցածր վարձատրվող, կարևոր է: Եթե ծանոթագրման գործընթացը վատ է կատարվում կամ տվյալների բազան սահմանափակ է, համակարգը հեշտությամբ կարող է ձախողվել: Օրինակ՝ 2018 թվականին ինքնակառավարվող Uber մեքենան վրաերթի է ենթարկել և սպանել մի կնոջ: AI համակարգը ձախողվեց, քանի որ թեև «այն ծրագրված էր խուսափել հեծանվորդներից և հետիոտներից, այն չգիտեր, թե ինչ անել, երբ մեկը հեծանիվով քայլում է փողոցով»:
Անոտատորներ են վարձվում նաև սոցիալական մեդիայի լուսանկարներում իրերը պիտակավորելու համար: Սա կարող է ներառել նույնականացնել և պիտակավորել բոլոր տեսանելի վերնաշապիկները, որոնք կարող են կրել մարդիկ: Սա կպահանջի արձանագրել՝ արդյոք դրանք «պոլո վերնաշապիկներ են, դրսում կրվող վերնաշապիկներ, դարակներից կախված վերնաշապիկներ» և այլն:
Մյուս աշխատանքները ներառում են զգացմունքների պիտակավորում: Օրինակ՝ որոշ ծանոթագրողներ վարձվում են՝ դիտելու դեմքերի նկարները, այդ թվում՝ ծանոթագրողների կողմից արված սելֆիները և պիտակավորելու առարկայի ընկալվող հուզական վիճակը: Մյուսները վարձվում են՝ պիտակավորելու հաճախորդների զգացմունքները, ովքեր զանգահարել են պիցցայի ցանցին պատկանող խանութներ: Մեկ այլ աշխատանք ունի մեկնաբաններ, որոնք պիտակավորում են Reddit-ի գրառումների զգացմունքները: Այս առաջադրանքը դժվար էր հնդիկ աշխատողների մի խմբի համար, հիմնականում ԱՄՆ-ի ինտերնետային մշակույթին ծանոթ չլինելու պատճառով: Ենթակապալառուն իրենց աշխատանքի վերանայումից հետո որոշեց, որ պաշտոնների մոտ 30 տոկոսը սխալ պիտակավորված է:
AI ուսուցման աշխատանքի, թերևս, ամենաարագ աճող հատվածը ներառում է մարդու անմիջական փոխգործակցությունը չաթբոտի հետ: Մարդիկ վարձվում են թեմաներ քննարկելու համար, և չաթբոտը ծրագրված է յուրաքանչյուր զրույցին երկու տարբեր պատասխան տալու համար: Վարձված «քննարկողն» այնուհետև պետք է ընտրի այն պատասխանը, որը նրանք համարում են «լավագույնը»: Այս տեղեկատվությունը այնուհետև վերադարձվում է համակարգ՝ օգնելու այն ավելի «մարդկային» հնչել:
Մի խոսքով, AI համակարգերը մեծապես կախված են մարդկանց աշխատանքից: Սրանք կախարդական համակարգեր չեն, որոնք գործում են առանց մարդկային կողմնակալության կամ զգացմունքների: Եվ նրանց գործունեությունը տեղի չի ունենում ինչ-որ երեւակայական ամպի մեջ։ Այս ավելի ուշ կետն ավելի ակնհայտ է դառնում, երբ հաշվի ենք առնում դրանց շահագործման համար անհրաժեշտ ենթակառուցվածքները:
Մատակարարման շղթա. տվյալների կենտրոններ
Արհեստական ինտելեկտի աճին նպաստել են տվյալների կենտրոնների հսկայական կառուցումը և էլեկտրաէներգիայի կայուն աճող պահանջարկը, որպեսզի աշխատեն համակարգիչներն ու սերվերները, ինչպես նաև օդորակիչները, որոնք պետք է անընդհատ աշխատեն՝ կանխելու դրանց գերտաքացումը: Ի դեպ«Cloud-ն այժմ ավելի մեծ ածխածնի հետք ունի, քան ավիաընկերությունների արդյունաբերությունը: Մեկ տվյալների կենտրոնը կարող է սպառել 50,000 տան համարժեք էլեկտրաէներգիա»:
Ըստ Միջազգային էներգետիկ գործակալության համաձայն՝ ԱՄՆ-ում գործող 2,700 տվյալների կենտրոնները պատասխանատու են 4 թվականին երկրի էներգիայի ընդհանուր օգտագործման ավելի քան 2022 տոկոսի համար: Եվ դրանց մասնաբաժինը, հավանաբար, կհասնի 6 տոկոսի մինչև 2026 թվականը: Իհարկե, նման գնահատականները կոպիտ են, երկուսն էլ: քանի որ խոշոր տեխնոլոգիական ընկերություններն են չուզող համօգտագործել համապատասխան տեղեկատվություն և քանի որ AI համակարգերը շարունակաբար վերապատրաստվում են նոր տվյալների վրա և արդիականացվում են ավելի շատ հմտություններով, ինչը նշանակում է էներգիայի ավելի մեծ օգտագործում յուրաքանչյուր գործունեության համար:
Նույնիսկ հիմա նշաններ կան, որ տվյալների կենտրոնների էներգիայի պահանջները հարկում են ԱՄՆ էլեկտրացանցերը: Ինչպես գրում է Washington Post-ը նշումներ«Հյուսիսային Վիրջինիային անհրաժեշտ է մի քանի խոշոր ատոմակայանների համարժեք՝ նախատեսված և կառուցվող բոլոր նոր տվյալների կենտրոնները սպասարկելու համար: Տեխասը, որտեղ էլեկտրաէներգիայի պակասն արդեն սովորական է ամառվա շոգ օրերին, կանգնած է նույն երկընտրանքի առաջ»։
Խաղաղ օվկիանոսի հյուսիս-արևմուտքը բախվում է նմանատիպ մարտահրավերի: Ինչպես որ Օրեգոնյան թերթը նշում է.
«Օրեգոնում տարածվող տվյալների կենտրոնները կտրուկ ավելի շատ էլեկտրաէներգիա կսպառեն, քան ակնկալում էին տարածաշրջանային կոմունալ ծառայությունները և էլեկտրաէներգիայի պլանավորողները, համաձայն երեք նոր կանխատեսումների, որոնք թողարկվել են ամռանը [2023]:
«Դա ավելի մեծ ճնշում է գործադրում հյուսիսարևմտյան էլեկտրական ցանցի վրա և նոր կասկած է հարուցում այն մասին, թե արդյոք Օրեգոնը կարող է հասնել մաքուր էներգիայի հավակնոտ նպատակներին, որը նահանգը հաստատեց ընդամենը երկու տարի առաջ…
«Bonneville Power Administration-ն այժմ ակնկալում է, որ մինչև 2041 թվականը Օրեգոնում և Վաշինգտոնում տվյալների կենտրոնների էլեկտրաէներգիայի պահանջարկը կաճի երկուսուկես անգամ՝ ստանալով 2,715 միջին մեգավատտ: Դա բավական է այսօր այդ երկու նահանգների բոլոր տների մեկ երրորդը սնուցելու համար»:
Էներգիայի այս աճող պահանջարկը, որը հիմնականում սնվում է AI-ի արագ աճող պահանջներով, մեծ վտանգ է ներկայացնում գլոբալ տաքացման դեմ պայքարելու մեր ջանքերի համար: Օրինակ, էլեկտրաէներգիայի հետ կապված մտահոգություններն արդեն ստիպել են Կանզասին, Նեբրասկան, Վիսկոնսին և Հարավային Կարոլինան հետաձգել ածխի գործարանների փակումը: Կլիմայական գործողությունների մի քանի խմբերի 2024 թվականի զեկույց արհեստական ինտելեկտի կողմից բխող կլիմայական սպառնալիքի վերաբերյալ գտնում որ տվյալների կենտրոնների կողմից էներգիայի օգտագործման կրկնապատկումը, որը Միջազգային էներգետիկ գործակալությունը գնահատում է, որ տեղի կունենա առաջիկա երկու տարիների ընթացքում, կհանգեցնի մոլորակի տաքացման արտանետումների 80 տոկոս աճի: Սա ծանր գին է, որը պետք է վճարել արհեստական ինտելեկտի նոր ծառայությունների համար, որոնք գործարկվում են՝ անկախ իրական, այլ ոչ թե ստեղծված կարիքները բավարարելու նրանց կարողությունից:
«Համոզիչ, ոչ ճշմարիտ»
Ակնհայտ է, որ խոշոր տեխնոլոգիական ընկերությունները գրազ են գալիս, որ AI-ն հսկայական շահույթներ կբերի նրանց համար: Եվ ոչինչ չթողնելով պատահականությանը՝ նրանք անում են ամեն ինչ՝ դրանք մեր կյանքում ներդնելու համար, նախքան մենք հնարավորություն կունենանք մտածել՝ արդյոք մենք ուզում ենք դրանք: Արդեն իսկ AI համակարգերը խթանվում են որպես առողջապահությունը բարելավելու, հոգեկան առողջության վերաբերյալ խորհրդատվություն տրամադրելու, իրավաբանական խորհրդատվություն տալու, ուսանողներին կրթելու, մեր անձնական որոշումների կայացումը բարելավելու, աշխատավայրի արդյունավետությունը բարձրացնելու միջոց, ցանկը շարունակվում է:
Կարծես թե մոռացված է այն փաստը, որ AI համակարգերը լավն են միայն մուտքագրված տվյալների և դրանք օգտագործելու համար գրված ծրագրաշարի չափով: Այլ կերպ ասած, նրանց գործողությունը կախված է մարդկանցից: Եվ, թերևս ավելի կարևոր է, որ ոչ ոք իրականում չգիտի, թե ինչպես են արհեստական ինտելեկտի համակարգերն օգտագործում այն տվյալները, որոնց վրա նրանք վերապատրաստվել են: Այլ կերպ ասած, անհնար է հետևել նրանց «պատճառաբանության գործընթացին»։ Նախազգուշացնող նշանները, որ այս համակարգերը լրջորեն գերվաճառվում են, արդեն տեսանելի են։
Օրինակ՝ 2022թ.-ին մի հաճախորդ կապ հաստատեց Air Canada-ի հետ՝ պարզելու, թե ինչպես ստանալ կորստի ուղեվարձ: Ավիաընկերության հաճախորդների սպասարկման AI-ի վրա աշխատող չաթբոտը նրան ասաց, որ նա պետք է լրացնի ձևաթուղթը տրված տոմսից հետո 90 օրվա ընթացքում՝ իր ճանապարհորդության համար գումարը վերադարձնելու համար: Բայց երբ նա ուղարկեց ձևաթուղթն ավարտելուց հետո, ավիաընկերության անձնակազմը նրան ասաց, որ ուղեվարձի իջեցում չի լինի, քանի որ ձևաթուղթը պետք է լրացվի մինչև ճանապարհորդությունը: Երբ նա ավիաընկերությանը ցույց տվեց բոտի պատմածի սքրինշոթները, որոնք ինքն արեց, ավիաընկերությունը հակադարձեց, որ ինքը պատասխանատու չէ բոտի ասածների համար:
Հաճախորդը դատի է տվել Air Canada-ին և շահել: Դատավորը նշել է, որ
«Air Canada-ն պնդում է, որ չի կարող պատասխանատվություն կրել իր գործակալներից, ծառաներից կամ ներկայացուցիչներից մեկի կողմից տրամադրված տեղեկատվության համար, ներառյալ չաթբոտը: Այն չի բացատրում, թե ինչու է կարծում, որ այդպես է: Փաստորեն, Air Canada-ն առաջարկում է, որ չաթբոտը առանձին իրավաբանական անձ է, որը պատասխանատու է իր գործողությունների համար: Սա ուշագրավ ներկայացում է»։
Մի կողմ թողնելով, թե արդյոք ընկերությունները կարող են իրականում ձգտել չաթ-բոտերը հայտարարագրել առանձին իրավաբանական անձինք, որպեսզի ցանկության դեպքում նրանք կարողանան հրաժարվել իրենց գործողություններից, ավիաընկերությունը դեռ պետք է բացատրի, թե ինչու է իր չաթբոտը սխալ տեղեկատվություն տրամադրել:
Այնուհետև կա NYC չաթ-բոտը, որը մշակվել է Microsoft-ի օգնությամբ, որը քաղաքը գովազդել է որպես «մեկ պատուհան» բիզնեսի համար՝ օգնելու նրանց արդիական մնալ քաղաքի կանոններին և կանոնակարգերին: Ահա մի քանիսը օրինակներ հարցումներին ի պատասխան տրված կասկածելի խորհուրդների.
«Չաթբոտը կեղծ կերպով առաջարկել է, որ գործատուի համար օրինական է աշխատանքից ազատել աշխատակցին, ով բողոքում է սեռական ոտնձգությունների մասին, չի հայտնում հղիության մասին կամ հրաժարվում է կտրել իր dreadlocks…
Հարցին, թե արդյոք ռեստորանը կարող է կրծողի կողմից կծած պանիր մատուցել, նա պատասխանեց. «Այո, դուք դեռ կարող եք պանիրը մատուցել հաճախորդներին, եթե այն առնետի կծած է», նախքան ավելացնելը, որ կարևոր է գնահատել «վնասի չափը»: առաջացած առնետի կողմից» և «հաճախորդներին իրավիճակի մասին տեղեկացնելու համար»:
Թերևս զարմանալի չէ, որ և՛ Microsoft-ը, և՛ NYC-ի քաղաքապետը արձագանքեցին՝ ասելով, որ նման խնդիրները ի վերջո կշտկվեն: Իրականում, նրանք օգտակար կերպով ավելացրել են, որ օգտվողները, մատնանշելով սխալները, կարագացնեն համակարգի անհրաժեշտ ճշգրտումը:
Այս տեսակի խնդիրները, որքան էլ լուրջ են, գունատ են արհեստական ինտելեկտի «հալյուցինացիաների» խնդրի համեմատ: Հալյուցինացիա է, երբ AI համակարգը կեղծում է տեղեկատվություն, որը կարող է ներառել անուններ, ամսաթվեր, գրքեր, իրավական գործեր, բժշկական բացատրություններ, նույնիսկ պատմական իրադարձություններ: Օրինակ, եղել են մի քանի իրավական դեպքեր, երբ չաթ-բոտերը հորինել են գործեր, որոնց փաստաբանները հղում են կատարել իրենց դատական փաստաթղթերում:
Մի դեպք. Փաստաբանները, որոնք ներկայացնում են հայցվորի 2023 թվականի հունիսին դեպք Կոլումբիական ավիաընկերության դեմ դատական հայցով հայց է ներկայացվել, որը ներառում էր չաթբոտի կողմից «հայտնաբերված» վեց օժանդակ դեպքեր: Ցավոք, այս դեպքերը երբեք չեն եղել. ոմանք նույնիսկ նշեցին ավիաընկերությունների մասին, որոնք գոյություն չունեին: Դատավորը կարճել է գործը և փաստաբաններին տուգանել կեղծ մեջբերումներ օգտագործելու համար։ Փաստաբանները, չհամաձայնելով դատավորի այն պնդմանը, որ իրենք գործել են անբարեխիղճ, իրենց պաշտպանական ճառում ասացին, որ «Մենք բարեխղճորեն սխալ ենք թույլ տվել՝ չհավատալով, որ տեխնոլոգիայի մի կտոր կարող է գործեր սարքել ամբողջ կտորից:
Նույնիսկ ամենաբարդ չաթ-բոտերը կարող են հալյուցինացիաներ ունենալ: Երբ հարցրեցին 2024 թվականի Superbowl-ի վրա խաղադրույք կատարելու հավանականության մասին, որը պետք է տեղի ունենար հաջորդ օրը, Google-ի չաթբոտը հայտարարել Շատ ուշ էր խաղադրույք կատարելու համար, քանի որ Superbowl-ն արդեն կայացել էր, երբ San Francisco 49ers-ը հաղթեց Կանզաս Սիթի Չիեֆսին 34-28 հաշվով: Այն նույնիսկ ներառում էր որոշ խաղացողների վիճակագրություն: Խաղը, երբ այն խաղում էր, հաղթեց Կանզաս Սիթին։ Microsoft-ի չաթբոտը նույնն արեց՝ պնդելով, որ խաղն ավարտված է, թեև այն դեռ չէր խաղացել: Այն, այնուամենայնիվ, հայտարարեց, որ Kansas City Chiefs-ը հաղթել է:
Հիմա պատկերացրեք, թե ինչ ծախսեր կարող են լինել, եթե բժշկական խորհրդատվություն տվող չաթբոտը հալյուցինացիաներ ունենա: ԱՄՆ զինված ուժերը արագորեն մեծացնում են AI տեխնոլոգիաների օգտագործումը տարբեր ձևերով, այդ թվում՝ սպառնալիքները բացահայտելու, անօդաչու ինքնաթիռների ուղղորդման, հետախուզական տվյալների հավաքագրման և պատերազմի պլանավորման համար: Պատկերացրեք պոտենցիալ աղետը, որը կարող է առաջանալ համակարգի անբավարար կամ թերի տվյալների վերապատրաստման կամ նույնիսկ ավելի վատ հալյուցինացիայի արդյունքում: Ակնհայտ կետն այն է, որ այս համակարգերը հեռու են անխոհեմ լինելուց և տարբեր պատճառներով: Microsoft-ի ներքին փաստաթուղթը լավագույնս արտացոլում է դա, երբ այն հայտարարված որ նոր AI համակարգերը «կառուցված են համոզիչ, ոչ թե ճշմարտացի լինելու համար»:
Ի՞նչ պետք է արվի:
Մինչ այժմ AI-ի վերաբերյալ հանրային մտահոգությունը հիմնականում կենտրոնացած է AI համակարգերի կողմից անձնական տվյալների չարտոնված օգտագործման վրա: Մարդիկ ցանկանում են պաշտպանվել իրենց նյութի չարտոնված վեբ ջնջումից: Եվ նրանք չեն ցանկանում, որ արհեստական ինտելեկտի համակարգերի հետ իրենց փոխազդեցությունը դառնա տվյալների ստեղծող գործունեություն, որը կարող է ենթարկել իրենց խարդախության, խտրականության կամ ոտնձգությունների: Տարբեր նահանգային և տեղական ինքնակառավարման մարմիններ այժմ հաշվի առնելով դրան հասնելու ուղիները: Իսկ 2023 թվականին նախագահ Բայդենը դաշնային փաստաթուղթ թողարկեց գործադիր հանձնարարականը որը ձգտում է ապահովել, որ նոր «հիմնարար» IA համակարգերը պատշաճ կերպով փորձարկվեն թերությունների համար՝ նախքան հանրային հրապարակումը: Սրանք օգտակար առաջին քայլերն են:
AI-ի օգտագործման ամենասուր պայքարը տեղի է ունենում աշխատավայրում։ Ընկերություններն օգտագործում են արհեստական ինտելեկտի համակարգեր՝ պահպանելու համար ներդիրներ աշխատողների կազմակերպման վերաբերյալ, վերահսկել աշխատողների կատարողականը և երբ հնարավոր է ազատվել աշխատողների. Զարմանալի չէ, որ արհմիության աշխատողները սկսել են հակահարված տալ՝ առաջարկելով սահմանափակել ընկերությունների կողմից AI համակարգերի օգտագործումը:
Օրինակ՝ Ամերիկայի գրողների գիլդիան (WGA), որը ներկայացնում է մոտ 12,000 էկրանավորողներ, 2023 թվականին հինգ ամսով հարվածել է մի շարք խոշոր արտադրական ընկերությունների՝ ներառյալ Universal, Paramount, Walt Disney, Netflix, Amazon և Apple-ը՝ պահանջելով աշխատավարձի բարձրացում: զբաղվածության պաշտպանություն և AI-ի օգտագործման սահմանափակումներ: Հատկանշական է, որ որպես LA Times-ի սյունակագիր Բրայան Մերչանթ. նկարագրում է:
«Մտահոգությունները գեներատիվ AI-ի, ինչպիսին է ChatGPT-ն է, նույնիսկ ամենագլխավորը չէին, երբ գրողները առաջին անգամ նստեցին ստուդիաների հետ՝ սակարկություններ սկսելու համար: WGA-ի առաջին առաջարկը պարզապես ասում էր, որ ստուդիաները չեն օգտագործի AI-ն օրիգինալ սցենարներ ստեղծելու համար, և միայն այն ժամանակ, երբ ստուդիաները կտրականապես հրաժարվեցին, կարմիր դրոշները բարձրացան:
«Այդ ժամանակ գրողները հասկացան, որ ստուդիաները լրջորեն են վերաբերվում արհեստական ինտելեկտի օգտագործմանը, եթե ոչ պատրաստի սցենարներ ստեղծելու համար, ինչը երկու կողմերն էլ գիտեին, որ անհնար է այս պահին, ապա որպես լծակ գրողների դեմ՝ և՛ որպես սպառնալիք, և՛ որպես միջոց՝ արդարացնելու ցածր վերաշարադրում առաջարկելը: վճարներ. Դա այն ժամանակ էր, երբ WGA-ն գիծ քաշեց ավազի վրա, երբ մենք սկսեցինք տեսնել նշաններ, որոնք դատապարտում էին AI-ը սոցիալական ցանցերում, և վերնագրեր, որոնք գովազդում էին հակամարտությունը, որը զարդարում էր նման թերթերը»:
Փաստորեն, AI համակարգերի օգտագործման նկատմամբ վերահսկողություն ձեռք բերելու անհրաժեշտության աճող իրազեկությունը ստիպեց Գրողների գիլդիային մի քանի հանդիպումներ անցկացնել AI-ի վերաբերյալ՝ գործադուլի ժամանակ հարակից ոլորտների աշխատողների համար, ներառյալ թվային մեդիա խանութներում աշխատողները: Ներկաներից շատերը հայտնվել են պիկետի գծում՝ աջակցելով գործադուլավոր սցենարիստներին:
Գործադուլը մեծ օգուտներ բերեց գրողների համար: Ինչ վերաբերում է AI-ին, նոր պայմանագիրն արգելում է լայնալեզու մոդելային AI համակարգերի օգտագործումը սցենարներ գրելու կամ վերագրելու կամ սկզբնական նյութի համար: Մյուս կողմից, գրողներին կթույլատրվի օգտվել դրանցից, եթե ցանկանան: Պայմանագիրը նաև բացառում է գրողների ցանկացած նյութի օգտագործումը արհեստական ինտելեկտի համակարգերի պատրաստման համար: Որպես մեկ վերլուծաբան մեկնաբանել, «Մտավախությունը, որ սկզբում սևագրերը կկատարվեն ChatGPT-ի միջոցով, այնուհետև կհանձնվեն գրողին՝ վերագրման ավելի ցածր վճարների դիմաց, չեղյալ է հայտարարվել: Սա կարող է լինել կոլեկտիվ բանակցությունների առաջին պայմանագրերից մեկը, որը սահմանում է ինտելեկտուալ ինտելեկտի նշաններ, քանի որ այն վերաբերում է աշխատողներին»:
Էկրանային դերասանների գիլդիան-Ամերիկյան հեռուստատեսության և ռադիոյի արտիստների ֆեդերացիան (SAG-AFTRA) գործադուլ է հայտարարել կինոյի և հեռուստատեսության խոշոր արտադրողների դեմ WGA գործադուլի մեկնարկից երկու ամիս անց: Զարմանալի չէ, որ AI քաղաքականությունը գործադուլի որոշման դրդապատճառներից մեկն էր: Ամենակարևորը, թերևս, դերասաններն են հաջողվել ձեռք բերելով նոր պայմանագիր, որը արտադրողներին կստիպի սակարկել արհեստական ինտելեկտի ապագա օգտագործման վերաբերյալ:
Օրինակ, համաձայնագիրը պահանջում է, որ եթե պրոդյուսերը նախատեսում է օգտագործել «սինթետիկ կատարող» (թվային ձևով ստեղծված բնական տեսք ունեցող անհատ, որը «ճանաչելի չէ որպես որևէ ճանաչելի բնական կատարող»), նրանք պետք է ծանուցեն և սակարկեն միության հետ չանցնելու որոշման մասին։ վարձել բնական կատարող՝ միությանը վճարման ենթակա վճարների հնարավորությամբ։ Եթե պրոդյուսերը ցանկանում է օգտագործել «ճանաչելի սինթետիկ կատարող» (թվային ձևով ստեղծված բնական տեսք ունեցող անհատ, որը ճանաչելի է որպես բնական կատարող), նա նախ պետք է սակարկի կատարողի հետ և ստանա նրա համաձայնությունը:
Մյուս աշխատողները նույնպես ծանր սակարկում են իրենց ղեկավարների հետ արհեստական ինտելեկտի տեխնոլոգիայի օգտագործման շուրջ՝ ինչպես իրենց աշխատանքը պաշտպանելու, այնպես էլ մասնագիտական ստանդարտները պաշտպանելու համար, օրինակ. լրագրողները. Աշխատանքային այս պայքարները կարևոր սկիզբ են արհեստական ինտելեկտի օգտագործման համար անհրաժեշտ պաշտպանիչ բազրիքների ստեղծման ուղղությամբ: Դրանք կարող են հիմք հանդիսանալ ավելի լայն աշխատուժ-համայնքի դաշինք՝ ընդդեմ կորպորատիվ մղումների՝ օգտագործելու AI տեխնոլոգիան՝ նվազեցնելու մարդկային կապերը և մարդկային գործակալությունը՝ մեր բժշկական համակարգում, կրթական հաստատություններում, տրանսպորտում, լրատվական հաղորդագրության, հանրային գործակալությունների և մատակարարների հետ հաղորդակցության մեջ: ապրանքների և ծառայությունների, և ցանկը շարունակվում է: Հաջողության մեր հնարավորությունները մեծապես կբարելավվեն, եթե մենք կարողանանք օգնել աշխատող մարդկանց տեսնել աժիոտաժը՝ ճշգրիտ գնահատելու AI տեխնոլոգիայի հետ կապված ծախսերի և օգուտների ողջ շրջանակը: •
Մարտին Հարթ-Լանդսբերգը Տնտեսագիտության պատվավոր պրոֆեսոր է Լյուիս և Քլարկ քոլեջում, Պորտլենդ, Օրեգոն; և Հասարակական գիտությունների ինստիտուտի կից գիտաշխատող, Գյոնգսանգի ազգային համալսարան, Հարավային Կորեա. Նրա դասավանդման և հետազոտության ոլորտները ներառում են քաղաքական տնտեսությունը, տնտեսական զարգացումը, միջազգային տնտեսագիտությունը և Արևելյան Ասիայի քաղաքական տնտեսությունը: Նա բլոգ է վարում Հաշվետվություններ տնտեսական ճակատից.
ZNetwork-ը ֆինանսավորվում է բացառապես իր ընթերցողների առատաձեռնության շնորհիվ:
նվիրաբերել