Discuțiile despre pericolele inteligenței artificiale, reale sau imaginare, au devenit febrile, în mare parte induse de lumea în creștere a robotilor generativi de chat. Atunci când se examinează criticii, trebuie să se acorde atenție motivațiilor acestora. Ce au de câștigat din adoptarea unei anumite poziții? În cazul lui Geoffrey Hinton, văzut cu lipsă de modestie drept „Nașul AI”, controlul controlat ar trebui să fie mai acut decât majoritatea.
Hinton provine din școala de gândire „conecționistă” a inteligenței artificiale, domeniul cândva discreditat care prevede rețele neuronale care imită creierul uman și, mai larg, comportamentul uman. O astfel de viziune este în contradicție cu „simboliștii”, care se concentrează pe AI ca fiind guvernată de mașini, păstrarea unor simboluri și reguli specifice.
John Thornhill, scris pentru Financial Times, notează ascensiunea lui Hinton, alături de alți membri ai tribului conecționist: „Pe măsură ce computerele au devenit mai puternice, seturile de date au explodat în dimensiune, iar algoritmii au devenit mai sofisticați, cercetătorii de deep learning, precum Hinton, au fost capabili să producă rezultate din ce în ce mai impresionante. nu mai putea fi ignorat de comunitatea mainstream AI.”
În timp, sistemele de învățare profundă au devenit furori, iar lumea marilor tehnologii a căutat nume precum al lui Hinton. El, împreună cu colegii săi, a ajuns să comande salarii absurde la summit-urile Google, Facebook, Amazon și Microsoft. La Google, Hinton a fost vicepreședinte și coleg de inginerie.
Plecarea lui Hinton de la Google și, mai precis, rolul său de șef al echipei Google Brain, a făcut să zbârnească roata speculațiilor. O linie de gândire a fost că a avut loc astfel încât să poată critica chiar compania ale cărei realizări le-a ajutat de-a lungul anilor. A fost cu siguranță puțin bogat, având în vedere rolul propriu al lui Hinton în împingerea căruciorului AI generativ. În 2012, el a fost pionierul unei rețele neuronale de auto-formare capabilă să identifice obiecte comune în imagini cu o acuratețe considerabilă.
Momentul este de asemenea interesant. Cu puțin peste o lună înainte, an scrisoare deschisă a fost publicat de Institutul Viitorul Vieții, avertizând asupra efectelor teribile ale AI dincolo de răutatea GPT-4 OpenAI și a altor sisteme înrudite. Au fost puse o serie de întrebări: „Ar trebui să lăsăm mașinile să ne inunde canalele de informare cu propagandă și neadevăr? Ar trebui să automatizăm toate sarcinile, inclusiv pe cele îndeplinite? Ar trebui să dezvoltăm minți non-umane care, în cele din urmă, ar putea să ne depășească numeric, să ne depășească și să ne înlocuiască? Ar trebui să riscăm să pierdem controlul asupra civilizației noastre?
Făcând apel la o pauză de șase luni în dezvoltarea unor astfel de proiecte de IA la scară largă, scrisoarea a atras o serie de nume care au diminuat oarecum valoarea avertismentelor; La urma urmei, mulți semnatari au jucat un rol departe de a fi neglijabil în crearea automatizării, învechirii și în încurajarea „pierderii controlului asupra civilizației noastre”. În acest scop, atunci când oameni ca Elon Musk și Steve Wozniak își atașează semnăturile unui proiect care cere o pauză în dezvoltarea tehnologică, detectoarele de prostii din întreaga lume ar trebui să se agite.
Aceleași principii ar trebui să se aplice și lui Hinton. În mod evident, el caută alte pășuni și, făcând asta, se preface cu o autopromovare grea. Aceasta ia forma blândă condamnare chiar a ceea ce era responsabil de creat. „Ideea că aceste lucruri ar putea deveni de fapt mai inteligente decât oamenii – câțiva oameni au crezut asta. Dar majoritatea oamenilor au crezut că este departe. Și am crezut că e departe. […] Evident, nu mai cred asta.” El, ai crede, ar trebui să știe mai bine decât majoritatea.
Pe Twitter, Hinton pune la culcare orice sugestii că părăsea Google pe o notă acrișă sau că avea vreo intenție de a renunța la operațiunile sale. „În NYT astăzi, Cade Metz sugerează că am părăsit Google pentru a putea critica Google. De fapt, am plecat ca să pot vorbi despre pericolele inteligenței artificiale fără să mă gândesc la modul în care aceasta afectează Google. Google a acționat foarte responsabil.”
Această formă oarecum bizară de raționament sugerează că orice critică la adresa inteligenței artificiale va exista independent de însăși companiile care dezvoltă și profită de astfel de proiecte, lăsând în același timp dezvoltatorii – precum Hinton – imuni la orice acuzație de complicitate. Faptul că părea incapabil să dezvolte critici la adresa inteligenței artificiale sau să sugereze cadre de reglementare în cadrul Google însuși, subminează sinceritatea mișcării.
In reacționând la plecarea colegului său de mult timp, Jeff Dean, om de știință șef și șeful Google DeepMind, a dezvăluit, de asemenea, că apele au rămas calme, spre satisfacția tuturor. „Geoff a făcut progrese fundamentale în AI și apreciem deceniul său de contribuții la Google […] Fiind una dintre primele companii care a publicat principiile AI, rămânem angajați într-o abordare responsabilă a AI. Învățăm continuu să înțelegem riscurile emergente, în timp ce inovăm cu îndrăzneală.”
Un număr din comunitatea AI a simțit că altceva se întâmplă. Informaticianul Roman Yampolskiy, în răspunde la observațiile lui Hinton, a observat pertinent că preocupările pentru siguranța AI nu se excludeau reciproc cercetării în cadrul organizației – și nici nu ar trebui să fie. „Ar trebui să normalizăm preocuparea pentru siguranța AI fără a fi nevoie să renunțăm la jobul tău [sic] ca cercetător AI.”
Google are cu siguranță ceea ce s-ar putea numi o problemă de etică atunci când vine vorba de dezvoltarea AI. Organizația a fost mai degrabă dornică să împingă discuțiile interne pe acest subiect. Margaret Mitchell, fosta din echipa Google Ethical AI, pe care a co-fondat-o în 2017, a fost dat-o după efectuarea unei anchete interne cu privire la demiterea lui Timnit Gebru, care fusese membru al aceleiași echipe.
Gebru a fost scalpat în decembrie 2020 după munca de co-autor care a contestat pericolele care decurg din utilizarea AI instruită și săturate cu cantități uriașe de date. Atât Gebru, cât și Mitchell au fost, de asemenea, critici cu privire la lipsa vizibilă de diversitate în domeniu, descrisă de acesta din urmă drept o „mare de tipi”.
În ceea ce privește propriile dileme filozofice ale lui Hinton, acestea sunt departe de a fi sofisticate și este puțin probabil să-i tulbure somnul. Indiferent de rolul lui Frankenstein pe care l-a jucat în crearea monstrului despre care îl avertizează acum, este puțin probabil ca somnul lui să fie tulburat. „Mă consolez cu scuza normală: dacă nu aș fi făcut-o, altcineva ar fi făcut-o”, Hinton a explicat la New York Times. „Este greu de văzut cum poți împiedica actorii răi să-l folosească pentru lucruri rele.”
ZNetwork este finanțat exclusiv prin generozitatea cititorilor săi.
Donează