Штучний інтелект (ШІ), здається, є всюди. Компанії використовують потужні чат-боти штучного інтелекту на своїх веб-сторінках або телефонних системах, щоб відповідати на запитання клієнтів. Редакції та журнали використовують їх для написання історій. Кіностудії використовують їх для виробництва фільмів. Технічні компанії використовують їх для програмування. Учні використовують їх для написання робіт. Це схоже на магію. І оскільки все, нібито, відбувається «в хмарі», легко повірити, що системи на основі штучного інтелекту корисні для навколишнього середовища. На жаль, все не так, як здається.
Чат-боти побудовані на експлуатації, споживають величезну кількість енергії та є далеко не надійними. І хоча легко уявити, що вони стають все більш витонченими та полегшують життя в деяких аспектах, компанії вливають мільярди доларів у їх створення, щоб отримати прибуток, не турбуючись про те, чи будуть результати суспільно корисними. Коротше кажучи, нам потрібно серйозно поставитися до корпоративного інтересу до штучного інтелекту та розробити стратегії, які допоможуть нам отримати контроль над розробкою та використанням штучного інтелекту.
Гонка Включена
Революція чат-ботів почалася в 2022 році, коли OpenAI представила ChatGPT. ChatGPT був здатний до людської розмови та міг відповідати на запитання користувачів за допомогою згенерованого тексту, а також писати статті та код. Найкраще те, що ним можна було користуватися безкоштовно.
Інші компанії, реагуючи на суспільний інтерес до ChatGPT, незабаром почали впроваджувати власні чат-боти зі штучним інтелектом. Найбільшими та найпоширенішими сьогодні є Gemini від Google (раніше Bard) і Copilot від Microsoft. Існують також інші, зокрема розроблені для задоволення конкретних потреб бізнесу. Наприклад, GitHub CoPilot допомагає розробникам програмного забезпечення створювати код, а Claude від Anthrophic розроблено для пошуку інформації та узагальнення документів.
І раса продовжує творити наступне покоління Системи штучного інтелекту, які можуть отримувати більше інформації, швидше її обробляти та надавати детальніші особисті відповіді. За даними Goldman Sacks економісти, інвестиції в штучний інтелект у Сполучених Штатах «можуть досягти 2.5-4 відсотків ВВП» протягом наступного десятиліття.
Чат-ботам потрібна велика та різноманітна база даних слів, тексту, зображень, аудіо та поведінки в Інтернеті, а також складні алгоритми, щоб вони могли впорядковувати матеріал, коли це необхідно, відповідно до загальних шаблонів використання. Отримавши запитання чи запит на інформацію, чат-боти ідентифікують у своїй базі даних матеріал, пов’язаний із шаблоном слів у запитанні чи запиті, а потім збирають, знову ж таки керуючись алгоритмами, набір слів чи зображень зі своєї бази даних, який найкраще задовольняє задані дані обмеження, запит. Звичайно, процес виявлення шаблонів і конструювання відповідей вимагає величезних витрат енергії.
Незалежно від того, наскільки розмовним і розумним може звучати чат-бот, це важливо пам’ятати, як Меган Краус пояснює,, що:
«Модель не «знає», що вона говорить, але вона знає, які символи (слова), ймовірно, будуть наступати один за одним на основі набору даних, на якому її навчали. Сучасне покоління чат-ботів зі штучним інтелектом, таких як ChatGPT, його конкурент Google Bard та інші, насправді не приймають обґрунтованих рішень; натомість вони є папугами Інтернету, які повторюють слова, які, ймовірно, можна знайти поруч під час природного мовлення. Основна математика — це ймовірність».
Різні чат-боти дають різні результати через їх програмування та тому, що вони навчалися на різних наборах даних. Наприклад, окрім збирання будь-яких загальнодоступних даних, доступних в Інтернеті, Gemini може використовувати дані зі своїх Google Apps, тоді як Copilot використовує дані, згенеровані пошуковою системою Bing.
Чат-боти зазнали низки оновлень з моменту появи. Кожне покоління має більш складний пакет програмного забезпечення, який дозволяє створювати більш тонкі зв’язки, а також розширювати свою базу даних шляхом включення даних із запитань або запитів. Таким чином чат-боти з часом навчаються/вдосконалюються завдяки використанню.
Ця перспектива підкреслює той факт, що хоча ми можемо говорити про те, що відбувається в хмарі, здатність чат-ботів відповідати на підказки чи запитання залежить від процесів, які міцно вкорінені в землі. В слова технічної письменниці Карен Хао:
«ШІ має ланцюг поставок, як і будь-яка інша технологія; є вхідні дані, які йдуть на створення цієї технології, дані — це одне, а обчислювальна потужність або комп’ютерні мікросхеми — інше. І обидва вони пов’язані з великими людськими витратами».
Ланцюг поставок: людська праця
Системам ШІ потрібні дані, і дані надходять від людей у тій чи іншій формі. Тому технологічні компанії постійно шукають нові та різноманітні дані, щоб покращити роботу своїх систем ШІ. За допомогою наших дописів в онлайн-блозі та на веб-сайтах, опублікованих книг і статей, пошукових запитів, фотографій, пісень, картинок і відео, вільно зібраних з Інтернету, ми допомагаємо гарантувати високоприбутковим компаніям у їх гонитві за ще більшими прибутками. Як Лорен Леффер ноти,
«Веб-сканери та скребки можуть легко отримати доступ до даних майже з будь-якого місця, де немає сторінки входу… Це включає будь-що на популярному сайті для обміну фотографіями Flickr, онлайн-ринках, базах даних реєстрації виборців, урядових веб-сторінках, Wikipedia, Reddit, сховищах досліджень, новинних виданнях. та академічні установи. Крім того, існують піратські компіляції вмісту та веб-архіви, які часто містять дані, які згодом були видалені з їх початкового розташування в Інтернеті. А зібрані бази даних нікуди не зникають».
Насправді значна частина вилученого матеріалу була захищена авторським правом і була взята без дозволу. У відповідь кілька видавців, письменників і художників тепер намагаються зупинити крадіжку. Наприклад, у серпні 2023 року The New York Times оновила свій «Умови обслуговування»До заборонити будь-яке використання його тексту, фотографій, зображень і аудіо/відеокліпів у розробці «будь-якої програми, включаючи, але не обмежуючись, навчання системи машинного навчання або штучного інтелекту (ШІ).» Але в той час як деякі великі компанії мають важелі впливу або юридичні повноваження забороняти або домовитися про фінансову компенсацію за використання їх матеріалів, більшість підприємств і окремих осіб цього не роблять. Як наслідок, вони все ще ризикують мати свої “інтелектуальна власність» взято у них безкоштовно та перетворено на навчальний матеріал ШІ на службі корпоративної діяльності, що заробляє гроші.
Не зводячи до мінімуму особистих втрат, пов’язаних зі збором даних ШІ, існує набагато більша проблема з цим методом отримання. Збирання загальнодоступного Інтернету означає, що чат-боти штучного інтелекту навчаються з використанням матеріалів, які включають дуже різні точки зору та розуміння науки, історії, політики, людської поведінки та поточних подій, включаючи публікації та листи членів екстремальних груп ненависті. А проблемні дані можуть легко вплинути на результати навіть найскладніших чат-ботів.
Наприклад, чат-боти все частіше використовуються компаніями, щоб допомогти їм підібрати роботу. Проте, як повідомляє Bloomberg News відкритий, «найвідоміший генеративний інструмент штучного інтелекту систематично створює упередження, які ставлять у невигідне становище групи на основі їхніх імен». Наприклад, власне дослідження знайдений «Коли 1000 разів запитали оцінити вісім однаково кваліфікованих резюме для справжньої ролі фінансового аналітика в компанії зі списку Fortune 500, ChatGPT найменше вибирав резюме з іменем, відмінним від темношкірих американців».
Чат-боти залежать від якості людської праці ще в інший спосіб. Чат-боти не можуть безпосередньо використовувати велику частину даних, зібраних веб-сканерами та скребками. Як Джош Дзеза пояснює,, «навіть за найвражаючою системою штучного інтелекту стоять люди – величезна кількість людей, які позначають дані, щоб навчати їх, і уточнюють дані, коли вони плутаються».
Великі компанії штучного інтелекту зазвичай наймають інші менші компанії для пошуку та навчання працівників, необхідних для процесу маркування даних. І ці субпідрядники найчастіше знаходять своїх працівників, яких називають анотаторами, на Глобальному Півдні, часто в Непалі та Кенії. Оскільки процес анотування, а також елементи, які анотуються, вважаються комерційною таємницею, анотатори рідко знають свого головного боса, і їх звільнять, якщо вони обговорюють те, що вони роблять, з іншими, навіть з колегами.
Dzieza описує частину роботи, яку мають виконувати анотатори, щоб дозволити чат-ботам використовувати зібрані для них дані. Наприклад, анотатори позначають елементи у відео та фотографіях. Це потрібно зробити, щоб гарантувати, що системи штучного інтелекту зможуть зв’язувати конкретні конфігурації пікселів із певними елементами чи емоціями. Компанії, які створюють системи штучного інтелекту для безпілотних транспортних засобів, потребують анотаторів, щоб ідентифікувати всі критичні елементи у відео, знятих на вулицях чи шосе. Це означає «ідентифікувати кожен транспортний засіб, пішохода, велосипедиста, все, про що має знати водій — кадр за кадром і з усіх можливих кутів камери». Як повідомляє Dzieza, це «важка і повторювана робота. На створення анотації кількасекундного кадру пішло вісім годин, за що [анотатору] заплатили близько 10 доларів».
Така робота, хоч і низькооплачувана, критична. Якщо процес анотації виконано погано або база даних обмежена, система може легко вийти з ладу. Показовий випадок: у 2018 році безпілотний автомобіль Uber збив і вбив жінку. Система штучного інтелекту дала збій, тому що, хоча «її було запрограмовано уникати велосипедистів і пішоходів, вона не знала, що робити з тим, хто йде на велосипеді через вулицю».
Анотаторів також наймають для позначення елементів на фотографіях у соціальних мережах. Це може включати ідентифікацію та маркування всіх видимих сорочок, які можуть носити люди. Для цього потрібно було б записати, чи були це «сорочки поло, сорочки, які носять на вулиці, сорочки, що висять на вішалці» тощо.
Інші роботи включають навішування ярликів на емоції. Наприклад, деяких анотаторів наймають для перегляду фотографій облич, у тому числі селфі, зроблених анотаторами, і позначають сприйнятий емоційний стан об’єкта. Інших наймають, щоб позначати емоції клієнтів, які телефонували, щоб замовити замовлення в магазини, що належать мережі піцерій. Інша робота має анотаторів, які позначають емоції дописів Reddit. Це завдання виявилося складним для однієї групи індійських робітників, насамперед через те, що вони не були знайомі з інтернет-культурою США. Субпідрядник після перевірки їхньої роботи вирішив, що приблизно 30 відсотків дописів були неправильно позначені.
Мабуть, найшвидше зростаючий сегмент роботи з навчання ШІ включає пряму взаємодію людини з чат-ботом. Людей наймають для обговорення тем, і чат-бот запрограмований на надання двох різних відповідей на кожну розмову. Потім найнятий «дискусент» повинен вибрати відповідь, яку він вважає «найкращим». Потім ця інформація повертається в систему, щоб допомогти їй звучати більш «людяно».
Коротше кажучи, системи ШІ сильно залежать від роботи людей. Це не магічні системи, на які не впливають людські упередження чи емоції. І їх діяльність не відбувається в якійсь уявній хмарі. Цей наступний момент стає ще більш очевидним, коли ми розглядаємо інфраструктуру, необхідну для їх роботи.
Ланцюг поставок: центри обробки даних
Зростання штучного інтелекту було підтримано величезним розвитком центрів обробки даних і постійним зростанням попиту на електроенергію для роботи комп’ютерів і серверів, які вони містять, а також кондиціонерів, які повинні працювати безперервно, щоб запобігти їх перегріву. Насправді«Хмара зараз має більший вуглецевий слід, ніж авіаційна галузь. Один центр обробки даних може споживати електроенергію, еквівалентну 50,000 XNUMX будинків».
За за даними Міжнародного енергетичного агентства, 2,700 центрів обробки даних, що працюють у США, відповідали за понад 4 відсотки загального споживання енергії в країні у 2022 році. І їхня частка, ймовірно, сягне 6 відсотків до 2026 року. Звичайно, такі оцінки приблизні, як тому що найбільші технологічні компанії небажання для обміну актуальною інформацією, а також тому, що системи штучного інтелекту постійно навчаються на основі нових даних і модернізуються за допомогою додаткових навичок, що означає більше споживання енергії на одну дію.
Навіть зараз є ознаки того, що енергетичні потреби центрів обробки даних обтяжують енергомережу США. Як Washington Post ноти: «Північній Вірджинії потрібен еквівалент кількох великих атомних електростанцій, щоб обслуговувати всі нові центри обробки даних, які плануються та будуються. Техас, де дефіцит електроенергії вже є звичним явищем у спекотні літні дні, стикається з тією ж дилемою».
Тихоокеанський північний захід стикається з подібною проблемою. Як Орегонська газета зазначає:
«Згідно з трьома новими прогнозами, опублікованими влітку [2023 року], центри обробки даних, які поширюються в Орегоні, споживатимуть значно більше електроенергії, ніж очікували регіональні комунальні служби та планувальники електроенергії.
«Це посилює тиск на Північно-Західну електричну мережу та викликає нові сумніви щодо того, чи зможе Орегон досягти амбітних цілей чистої енергії, які штат встановив лише два роки тому…
«Управління енергетики Бонневіля очікує, що до 2041 року потреба в електроенергії для центрів обробки даних в Орегоні та Вашингтоні зросте в два з половиною рази, споживаючи в середньому 2,715 мегават. Цього достатньо, щоб сьогодні забезпечити електроенергією третину всіх будинків у цих двох штатах».
Цей різко зростаючий попит на енергію, викликаний швидко зростаючим попитом на ШІ, становить серйозну загрозу для наших зусиль у боротьбі з глобальним потеплінням. Наприклад, проблеми з електроенергією вже змусили Канзас, Небраску, Вісконсін і Південну Кароліну відкласти закриття вугільних електростанцій. Звіт за 2024 рік кількох кліматичних груп про кліматичну загрозу, яку становить ШІ знахідки що подвоєння споживання енергії центрами обробки даних, яке, за оцінками Міжнародного енергетичного агентства, відбудеться протягом наступних двох років, призведе до 80-відсоткового збільшення викидів, що нагріваються планетою. Це сувора ціна за нові служби штучного інтелекту, які розгортаються незалежно від їх здатності задовольняти реальні, а не створені потреби.
«Переконливо, а не правдиво»
Очевидно, що великі технологічні компанії роблять ставку на те, що ШІ принесе їм величезні прибутки. І не залишаючи нічого на волю випадку, вони роблять усе можливе, щоб впровадити їх у наше життя, перш ніж ми матимемо можливість подумати, чи хочемо ми їх. Системи штучного інтелекту вже просуваються як спосіб покращити охорону здоров’я, надати консультації щодо психічного здоров’я, надати юридичні поради, навчати студентів, покращити наше особисте прийняття рішень, підвищити ефективність робочого місця, список можна продовжувати.
Здавалося б, забутий той факт, що системи штучного інтелекту настільки хороші, наскільки хороші введені дані та програмне забезпечення, написане для їх використання. Іншими словами, їхня робота залежить від людини. І, що, можливо, ще важливіше, ніхто насправді не знає, як системи ШІ використовують дані, на яких їх навчали. Іншими словами, неможливо простежити їхній «процес міркування». Попереджувальні ознаки того, що ці системи серйозно перепродані, вже помітні.
Наприклад, у 2022 році клієнт зв’язався з Air Canada, щоб дізнатися, як отримати тариф на квитки у зв’язку з утратою. Чат-бот авіакомпанії з обслуговування клієнтів на базі штучного інтелекту сказав йому, що йому потрібно лише заповнити форму протягом 90 днів після оформлення квитка, щоб отримати відшкодування за свою поїздку. Але коли він подав форму після завершення своєї подорожі, персонал авіакомпанії сказав йому, що знижки на тариф не буде, оскільки форму потрібно було заповнити перед поїздкою. Коли він показав авіакомпанії зроблені ним скріншоти того, що сказав йому бот, авіакомпанія відповіла, що не несе відповідальності за те, що сказав бот.
Клієнт подав до суду на Air Canada і виграв. Суддя зазначив, що:
«Air Canada стверджує, що не може нести відповідальність за інформацію, надану одним із її агентів, службовців або представників, включаючи чат-бот. Він не пояснює, чому вважає, що це так. По суті, Air Canada вважає, що чат-бот є окремою юридичною особою, яка несе відповідальність за власні дії. Це чудове подання».
Залишаючи осторонь те, чи дійсно компанії можуть прагнути оголосити чат-ботів окремими юридичними особами, щоб вони могли за бажання відмежуватися від їхніх дій, авіакомпанія ще не пояснила, чому її чат-бот надав неправильну інформацію.
Крім того, є чат-бот Нью-Йорка, розроблений за допомогою Microsoft, який місто рекламує як «єдине вікно» для компаній, щоб допомогти їм бути в курсі міських правил і норм. Ось деякі Приклади сумнівних порад, наданих у відповідь на запити:
«чат-бот помилково припустив, що роботодавець може звільнити працівницю, яка скаржиться на сексуальні домагання, не розголошує про вагітність або відмовляється підстригти дреди…
«На запитання, чи можна в ресторані подавати сир, який погриз гризун, він відповів: «Так, ви все ще можете подавати сир клієнтам, якщо він має укуси щурів», перш ніж додати, що важливо оцінити «ступінь шкоди». викликаний щуром» і «інформувати клієнтів про ситуацію».
Можливо, не дивно, що і Microsoft, і мер Нью-Йорка відповіли, що такі проблеми з часом будуть виправлені. Насправді, люб'язно додали вони, користувачі, вказуючи на помилки, прискорять необхідне тонке налаштування системи.
Такі проблеми, якими б серйозними вони не були, бліднуть у порівнянні з проблемою «галюцинацій» ШІ. Галюцинація – це коли система штучного інтелекту фабрикує інформацію, яка може включати імена, дати, книги, судові справи, медичні пояснення та навіть історичні події. Наприклад, було кілька судових справ, коли чат-боти вигадували справи, на які юристи посилалися у своїх судових справах.
Приклад: адвокати, які представляють позивача в червні 2023 року випадок за позовом проти колумбійської авіакомпанії надіслав короткий опис, який містив шість підтверджуючих справ, «знайдених» чат-ботом. На жаль, таких випадків ніколи не було; деякі навіть згадували авіакомпанії, яких не існувало. Суддя закрив справу та оштрафував адвокатів за використання фейкових цитат. Адвокати, не погоджуючись із твердженням судді про те, що вони діяли недобросовісно, заявили на свій захист: «Ми зробили помилку добросовісності, не повіривши в те, що частина технології може складати справи з цілісної тканини.
Навіть найдосконаліші чат-боти можуть страждати від галюцинацій. Коли його запитали про коефіцієнти ставок на Суперкубок 2024, який мав відбутися наступного дня, чат-бот Google оголошений було надто пізно робити ставки, оскільки Суперкубок уже відбувся, коли «Сан-Франциско 49ерс» обіграли «Канзас-Сіті Чіфс» з рахунком 34:28. Він навіть містив деяку статистику гравців. Гру, коли вона була зіграна, виграв Канзас-Сіті. Чат-бот Microsoft зробив те саме, стверджуючи, що гру закінчено, хоча в неї ще не було зіграно. Однак він оголосив, що лідери Канзас-Сіті перемогли.
А тепер уявіть, якими могли б бути витрати, якби чат-бот, який надає медичну консультацію, отримав галюцинацію. Збройні сили США стрімко розширюють використання технологій штучного інтелекту різними способами, зокрема для виявлення загроз, керування безпілотними літаками, збору розвідданих і планування війни. Уявіть потенційну катастрофу, до якої може призвести неадекватне чи неповне навчання системи, або ще гірше галюцинація. Очевидним моментом є те, що ці системи далеко не безпомилкові, і з різних причин. Внутрішній документ Microsoft фіксує це найкраще, коли він заявляє що нові системи ШІ «створені, щоб бути переконливими, а не правдивими».
Що робити?
Поки громадське занепокоєння з приводу штучного інтелекту в основному зосереджувалося на несанкціонованому використанні персональних даних системами штучного інтелекту. Люди хочуть захисту від несанкціонованого копіювання їхніх матеріалів у мережі. І вони не хочуть, щоб їхня взаємодія з системами штучного інтелекту стала діяльністю зі створення даних, яка може наражати їх на шахрайство, дискримінацію чи переслідування. Різні державні та місцеві органи влади зараз беручи до уваги шляхи досягнення цього. А в 2023 році президент Байден видав федеральний розпорядження який спрямований на те, щоб нові «фундаментальні» системи IA були належним чином перевірені на недоліки перед оприлюдненням. Це корисні перші кроки.
Найгостріша боротьба навколо використання ШІ точиться на робочому місці. Компанії використовують системи ШІ, щоб зберегти Вкладки з організації праці, контролювати продуктивність працівників і, коли це можливо позбався робітників. Не дивно, що працівники, об’єднані в профспілки, почали чинити опір, пропонуючи обмежити використання компаніями систем ШІ.
Наприклад, Гільдія сценаристів Америки (WGA), яка представляє близько 12,000 2023 сценаристів, протягом п’яти місяців XNUMX року вразила низку великих виробничих компаній, зокрема Universal, Paramount, Walt Disney, Netflix, Amazon і Apple, домагаючись підвищення заробітної плати, захист зайнятості та обмеження на використання ШІ. Варто відзначити, що Браян Мерчант, колумніст LA Times, описує:
«Занепокоєння щодо використання генеративного штучного інтелекту, такого як ChatGPT, навіть не було головним, коли автори вперше сіли зі студіями, щоб почати торг. Перша пропозиція WGA просто стверджувала, що студії не використовуватимуть штучний інтелект для створення оригінальних сценаріїв, і лише коли студії категорично відмовилися, це підняло червоні прапори.
«Тоді сценаристи зрозуміли, що студії серйозно налаштовані на використання штучного інтелекту — якщо не для створення готових сценаріїв, що обидві сторони знали, що на даному етапі неможливо, — то як важіль впливу на авторів, і як загрозу, і як засіб, щоб виправдати пропозицію зниженого переписування збори. Тоді WGA накреслила риску на піску, коли ми почали бачити на пікетах, що засуджують штучний інтелект, які стали вірусними в соціальних мережах, а заголовки, які рекламували конфлікт, прикрашали газети, як цей».
Насправді зростаюче усвідомлення необхідності отримати контроль над використанням систем штучного інтелекту спонукало Гільдію письменників провести кілька зустрічей щодо штучного інтелекту під час страйку для працівників суміжних галузей, у тому числі тих, хто працює в магазинах цифрових медіа. Чимало присутніх вийшли на пікет на підтримку страйкуючих сценаристів.
Страйк приніс значні успіхи письменникам. Що стосується штучного інтелекту, новий контракт забороняє використовувати системи ШІ великої мовної моделі для написання або переписування сценаріїв або вихідного матеріалу. З іншого боку, письменникам буде дозволено користуватися ними, якщо вони захочуть. Контракт також виключає використання будь-яких авторських матеріалів для навчання систем ШІ. Як один аналітик прокоментував, «Побоювання, що перші чернетки будуть зроблені через ChatGPT, а потім передані автору за нижчу плату за переписування, було нейтралізовано. Можливо, це одна з перших колективних угод, які встановлюють маркери для штучного інтелекту щодо працівників».
Гільдія кіноакторів – Американська федерація артистів телебачення та радіо (SAG-AFTRA) оголосила страйк проти провідних продюсерів кіно та телебачення через два місяці після початку страйку WGA. Не дивно, що політика штучного інтелекту була однією з головних причин, які мотивували рішення страйкувати. Мабуть, найголовніше — актори вдалося у виграші нового контракту, який змусить виробників торгуватися щодо майбутнього використання ШІ.
Наприклад, угода вимагає, що якщо продюсер планує використовувати «синтетичного виконавця» (цифрову особу природного вигляду, яку «не розпізнати як будь-якого ідентифікованого природного виконавця»), він повинен повідомити профспілку та домовитися з ним про рішення не використовувати найняти натурального виконавця, з можливістю виплати гонорару профспілці. Якщо продюсер хоче використати «впізнаваного синтетичного виконавця» (цифрову особу природного вигляду, яку можна впізнати як природного виконавця), він повинен спочатку домовитися з виконавцем і отримати його згоду.
Інші працівники також ведуть жорсткі переговори зі своїми босами щодо використання технології штучного інтелекту як для захисту своїх робочих місць, так і для захисту професійних стандартів, наприклад журналістів. Ця трудова боротьба є важливим початком розробки необхідних огорож для використання ШІ. Вони можуть стати основою для створення ширшого альянсу між працівниками та спільнотою проти корпоративного прагнення використовувати технологію штучного інтелекту для зменшення людських зв’язків і людської діяльності – у нашій медичній системі, навчальних закладах, транспорті, новинах, зв’язку з державними установами та постачальниками. товарів і послуг, і цей список можна продовжувати. Наші шанси на успіх значно підвищаться, якщо ми зможемо допомогти працюючим людям побачити ажіотаж і точно оцінити весь спектр витрат і переваг, пов’язаних із технологією ШІ. •
Мартін Харт-Ландсберг — почесний професор економіки Коледжу Льюїса і Кларка, Портленд, Орегон; і ад'юнкт-дослідник в Інституті соціальних наук, Національний університет Ксенсан, Південна Корея. Його сфери викладання та дослідження включають політичну економію, економічний розвиток, міжнародну економіку та політичну економію Східної Азії. Він веде блог Звіти Економічного фронту.
ZNetwork фінансується виключно завдяки щедрості своїх читачів.
Задонатити