«Нам потрібна пауза, поки не буде введено суттєві державні гарантії для захисту суспільства від шкоди генеративного ШІ».
Так говорить а звітом про небезпеку штучного інтелекту (ШІ), опублікований у вівторок Громадський громадянин. Титулований Заздалегідь вибачте! Швидке розгортання генеративного штучного інтелекту загрожує широким набором автоматизованих збитків, аналіз, проведений дослідниками Ріком Клейпулом і Шайенном Хантом, спрямований на те, щоб «переформатувати розмову про генеративний ШІ, щоб переконатися, що громадськість і політики мають право голосу щодо того, як ці нові технології можуть перевернути наше життя».
Після листопадового випуску OpenAI's ChatGPT генеративні інструменти штучного інтелекту отримали «великий шум, особливо серед великих технологічних корпорацій, які мають найкращі позиції для отримання прибутку від них», зазначається у звіті. «Найбільш захоплені прихильники кажуть, що ШІ змінить світ таким чином, що всі зроблять багатими, а деякі противники кажуть, що він може вбити нас усіх. Крім жахливих загроз, які можуть матеріалізуватися в міру розвитку технології, це реальна шкода, яку може спричинити поспіх із випуском і монетизацією цих інструментів — і в багатьох випадках вже спричиняє».
Клейпул і Хант класифікували цю шкоду на «п’ять основних проблемних областей»:
- Пошкодження демократії: Спам-боти, які поширюють дезінформацію, не є чимось новим, але генеративні інструменти штучного інтелекту легко дозволяють зловмисникам масово створювати оманливий політичний контент. Дедалі потужніші інструменти штучного інтелекту для створення аудіо- та відеозаписів ускладнюють розрізнення автентичного вмісту [від] синтетичного.
- Занепокоєння споживачів: Компанії, які намагаються максимізувати прибуток за допомогою генеративного штучного інтелекту, використовують ці інструменти, щоб поглинати дані користувачів, маніпулювати споживачами та зосереджувати переваги серед найбільших корпорацій. Шахраї використовують їх для участі у все більш витончених схемах крадіжки.
- Погіршення нерівності: Генеративні інструменти штучного інтелекту ризикують увічнити та посилити системні упередження, такі як расизм [і] сексизм. Вони дають хуліганам і кривдникам нові способи завдати шкоди жертвам і, якщо їх широке застосування виявиться наслідком, ризикують значно посилити економічну нерівність.
- Порушення прав працівників: Компанії, які розробляють інструменти штучного інтелекту, використовують тексти та зображення, створені людьми, для навчання своїх моделей і наймають низькооплачуваних працівників за кордоном, щоб допомогти відфільтрувати тривожний і образливий вміст. Автоматизація створення медіафайлів, як це робить деякі штучні інтелекти, загрожує декваліфікацією та заміною роботи зі створення медіа, яку виконують люди.
- Проблеми навколишнього середовища: Навчання та підтримка генеративних інструментів штучного інтелекту вимагає значного розширення обчислювальної потужності — збільшення обчислювальної потужності, яка зростає швидше, ніж здатність розробників технологій поглинати вимоги з підвищенням ефективності. Очікується, що для масового розгортання деякі з найбільших технологічних компаній збільшать свою обчислювальну потужність — і, отже, свій вуглецевий слід — у чотири-п’ять разів.
В заявуPublic Citizen попередив, що «підприємства розгортають потенційно небезпечні інструменти штучного інтелекту швидше, ніж їх шкоду можна зрозуміти або пом’якшити».
«Історія не дає підстав вважати, що корпорації можуть самостійно регулювати відомі ризики, особливо тому, що багато з цих ризиків є такою ж частиною генеративного ШІ, як і корпоративної жадібності», — йдеться далі в заяві. «Підприємства, які поспішають запроваджувати ці нові технології, грають з життями та засобами до існування людей, і, можливо, з самими основами вільного суспільства та придатного для життя світу».
У четвер, 27 квітня, Public Citizen проводить гібридну особисту зустріч/Zoom конференція у Вашингтоні, округ Колумбія, під час якого представник США Тед Лью (штат Каліфорнія) та 10 інших учасників дискусії обговорять загрози, які створює штучний інтелект, і те, як приборкати швидко зростаючу, але практично нерегульовану галузь. Бажаючі взяти участь повинні реєструвати до цієї п'ятниці.
«Підприємства, які поспішають запроваджувати ці нові технології, грають з життями та засобами до існування людей, і, можливо, з самими основами вільного суспільства та придатного для життя світу».
Вимоги щодо регулювання ШІ є монтаж. Минулого місяця Джеффрі Хінтон, якого вважають «хрещеним батьком штучного інтелекту», порівняний потенційний вплив технології, що швидко розвивається, на «промислову революцію, чи електрику, чи, можливо, колесо».
на питання CBS NewsБрук Сільва-Брага про можливість технології «знищити людство», Хінтон попередив, що «це не виключено».
Цей жахливий потенціал не обов’язково полягає в існуючих інструментах штучного інтелекту, таких як ChatGPT, а скоріше в тому, що називається «загальним штучним інтелектом» (AGI), за допомогою якого комп’ютери розвиваються та діють відповідно до власних ідей.
«Ще зовсім нещодавно я думав, що мине від 20 до 50 років, перш ніж у нас з’явиться ШІ загального призначення», — сказав Хінтон. CBS News. «Тепер я думаю, що це може бути 20 років або менше». Зрештою Хінтон визнав, що він не виключає можливості появи AGI протягом п’яти років — це суттєвий відхід від кількох років тому, коли він «сказав би: «Ні в якому разі».
«Ми повинні добре подумати, як це контролювати», — сказав Хінтон. На запитання Сільви-Браги, чи можливо це, Хінтон відповів: «Ми не знаємо, ми ще там не були, але ми можемо спробувати».
Піонер ШІ далеко не один. У лютому генеральний директор OpenAI Сем Альтман написав в одній з компаній блог: «Ризики можуть бути надзвичайними. Неналаштований надрозумний AGI може завдати серйозної шкоди світу».
Понад 26,000 XNUMX людей підписалися під нещодавно опублікованою відкритий лист який вимагає шестимісячного мораторію на навчання систем штучного інтелекту понад рівень останнього чат-бота OpenAI, GPT-4, хоча Альтман серед них не входить.
«Потужні системи штучного інтелекту слід розробляти лише тоді, коли ми будемо впевнені, що їхній ефект буде позитивним, а ризики — керованими», — йдеться в листі.
Хоча до AGI ще може залишитися кілька років, новий звіт Public Citizen ясно показує, що існуючі інструменти штучного інтелекту, включно з чат-ботами, які вивергають брехню, програми для заміни обличчя, які створюють підроблені відео, і клоновані голоси, які вчиняють шахрайство, вже завдають або загрожують завдати серйозної шкоди, зокрема посилення нерівності, підрив демократії, витіснення працівників, полювання на споживачів і загострення кліматичної кризи.
Усі ці загрози «дуже реальні та з високою ймовірністю виникнуть, якщо корпораціям буде дозволено розгортати генеративний штучний інтелект без захисних огорож», пишуть Клейпул і Хант. «Але в них немає нічого неминучого».
Вони продовжували:
Державне регулювання може заборонити компаніям надто швидко розгортати технології (або взагалі заблокувати їх, якщо вони виявляться небезпечними). Він може встановлювати стандарти для захисту людей від ризиків. Він може накладати обов’язки на компанії, які використовують генеративний штучний інтелект, уникати визначеної шкоди, поважати інтереси спільнот і творців, попередньо тестувати їхні технології, брати на себе відповідальність і брати на себе відповідальність, якщо щось піде не так. Він може вимагати вбудовування капіталу в технології. Він може наполягати на тому, що генеративний штучний інтелект дійсно підвищує продуктивність і витісняє працівників, або що економічні вигоди розподіляються з тими, хто постраждав, а не зосереджуються серед вузького кола компаній, керівників та інвесторів.
На тлі «зростаючого регуляторного інтересу» до «механізму підзвітності» ШІ адміністрація Байдена оголошений минулого тижня, що він шукає внесок громадськості щодо заходів, які можуть бути реалізовані, щоб гарантувати, що «системи штучного інтелекту є законними, ефективними, етичними, безпечними та заслуговують довіри».
За оцінками Axios, лідер більшості в Сенаті Чак Шумер (Нью-Йорк) «робить перші кроки в напрямку законодавчого регулювання технології штучного інтелекту».
За словами Клейпула та Ханта: «Нам потрібні сильні гарантії та державне регулювання — і вони потрібні, перш ніж корпорації широко поширять технології ШІ. До того часу нам потрібна пауза».
ZNetwork фінансується виключно завдяки щедрості своїх читачів.
Задонатити