Sztuczna inteligencja (AI) ogarnia świat. Przekształca każdy sposób życia, wywołując przy tym poważne obawy etyczne dotyczące społeczeństwa i przyszłości ludzkości. Dominujący w mediach społecznościowych ChatGPT to chatbot oparty na sztucznej inteligencji opracowany przez OpenAI. Jest to podzbiór uczenia maszynowego i opiera się na tak zwanych modelach dużego języka, które mogą generować reakcje podobne do ludzkich. Potencjalne zastosowanie takiej technologii jest rzeczywiście ogromne, dlatego już pojawiają się wezwania do uregulowania sztucznej inteligencji, takiej jak ChatGPT.
Czy sztuczna inteligencja może przechytrzyć człowieka? Czy stwarza zagrożenie dla społeczeństwa? Czy rzeczywiście sztuczna inteligencja może stać się egzystencjalnym zagrożeniem? Wybitny językoznawca świata Noam Chomskyi jeden z najbardziej szanowanych intelektualistów wszechczasów, którego poziom intelektualny porównuje się do Galileusza, Newtona i Kartezjusza, w poniższym wywiadzie odpowiada na te dręczące pytania.
CJ Polichroniou: Sztuczna inteligencja (AI) jako dyscyplina naukowa sięga lat pięćdziesiątych XX wieku, ale w ciągu ostatnich kilku dekad wkroczyła do różnych dziedzin, w tym do bankowości, ubezpieczeń, produkcji samochodów, muzyki i obronności. W rzeczywistości wykazano, że w niektórych przypadkach zastosowanie technik sztucznej inteligencji przekracza ludzkie możliwości, na przykład podczas gry w szachy. Czy maszyny mają szansę stać się mądrzejsze od ludzi?
Noam Chomsky: Aby wyjaśnić terminologię, termin „maszyna” oznacza tutaj program, w zasadzie teoria zapisana w notacji, którą można wykonać na komputerze – i niezwykły rodzaj teorii w interesujący sposób, który możemy tutaj odłożyć na bok.
Możemy z grubsza dokonać rozróżnienia pomiędzy czystą inżynierią a nauką. Nie ma ostrej granicy, ale jest to przydatne pierwsze przybliżenie. Czysta inżynieria ma na celu wytworzenie produktu, który może się do czegoś przydać. Nauka szuka zrozumienia. Jeśli tematem jest ludzka inteligencja lub zdolności poznawcze innych organizmów, nauka szuka zrozumienia tych systemów biologicznych.
Jak ich rozumiem, twórcy AI – Alan Turing, Herbert Simon, Marvin Minsky i inni – uważali ją za naukę, część rodzących się wówczas nauk kognitywnych, wykorzystującą nowe technologie i odkrycia matematycznej teorii obliczeń do wcześniejsze zrozumienie. Z biegiem lat obawy te osłabły i zostały w dużej mierze wyparte przez orientację inżynieryjną. Wcześniejsze obawy są obecnie powszechnie odrzucane, czasem protekcjonalnie, jako GOFAI – dobra, staromodna sztuczna inteligencja.
Kontynuując pytanie, czy jest prawdopodobne, że zostaną opracowane programy przekraczające ludzkie możliwości? Musimy uważać na słowo „możliwości” – z powodów, do których jeszcze wrócę. Jeśli jednak przyjmiemy, że termin ten odnosi się do ludzkich osiągnięć, odpowiedź brzmi: zdecydowanie tak. Tak naprawdę istnieją już od dawna: na przykład kalkulator w laptopie. Może znacznie przekroczyć możliwości człowieka, choćby z powodu braku czasu i pamięci. W latach pięćdziesiątych XX w. w przypadku systemów zamkniętych, takich jak szachy, było dobrze wiadome, że prędzej czy później, wraz ze wzrostem ogromnych mocy obliczeniowych i długim okresem przygotowań, można opracować program, który pokona arcymistrza grającego z ograniczoną pamięcią. i czas. Osiągnięcie to po latach było w zasadzie PRem dla IBM. Wiele organizmów biologicznych przewyższa ludzkie możliwości poznawcze w znacznie głębszy sposób. Pustynne mrówki na moim podwórku mają maleńkie mózgi, ale w zasadzie znacznie przekraczają ludzkie możliwości nawigacyjne, a nie tylko wydajność. Nie ma Wielkiego Łańcucha Bytu, w którym ludzie są na szczycie.
Produkty inżynierii AI są wykorzystywane w wielu dziedzinach, z lepszym lub gorszym skutkiem. Nawet proste i znane mogą być całkiem przydatne: w obszarze językowym programy takie jak między innymi autouzupełnianie, transkrypcja na żywo, tłumacz Google. Przy znacznie większej mocy obliczeniowej i bardziej wyrafinowanym programowaniu powinny pojawić się inne przydatne zastosowania, także w nauce. Było już ich kilka: Pomoc w badaniu zwijania białek to jeden z niedawnych przypadków, w którym masowa i szybka technologia wyszukiwania pomogła naukowcom uporać się z krytycznym i opornym problemem.
Projekty inżynieryjne mogą być przydatne lub szkodliwe. Obydwa pytania pojawiają się w przypadku inżynierskiej sztucznej inteligencji. Bieżąca praca z Large Language Models (LLM), w tym chatbotami, dostarcza narzędzi do dezinformacji, zniesławiania i wprowadzania w błąd niedoinformowanych. Zagrożenia są jeszcze większe, gdy połączy się je ze sztucznymi obrazami i replikacją głosu. Mając na uwadze różne obawy, zrobiło to ostatnio dziesiątki tysięcy badaczy sztucznej inteligencji nazywa o moratorium na rozwój ze względu na dostrzegane przez nich potencjalne zagrożenia.
Jak zawsze, możliwe korzyści wynikające z technologii należy porównać z potencjalnymi kosztami.
Zupełnie inne pytania pojawiają się, gdy zwracamy się do sztucznej inteligencji i nauki. W tym przypadku konieczna jest ostrożność ze względu na wygórowane i lekkomyślne twierdzenia, często wzmacniane w mediach. Aby wyjaśnić tę kwestię, rozważmy przypadki, niektóre hipotetyczne, inne rzeczywiste.
Wspomniałem o nawigacji owadów, co jest zdumiewającym osiągnięciem. Naukowcy zajmujący się owadami poczynili znaczny postęp w badaniu sposobów osiągnięcia tego celu, chociaż neurofizjologia, bardzo trudna sprawa, pozostaje nieuchwytna, podobnie jak ewolucja systemów. To samo dotyczy niesamowitych wyczynów ptaków i żółwi morskich, które pokonują tysiące mil i bezbłędnie powracają do miejsca pochodzenia.
Załóżmy, że pojawia się Tom Jones, zwolennik inżynieryjnej sztucznej inteligencji, i mówi: „Wszystkie Twoje prace zostały odrzucone. Problem jest rozwiązany. Piloci komercyjnych linii lotniczych przez cały czas osiągają te same lub nawet lepsze wyniki”.
Jeśli w ogóle zawracalibyśmy sobie głowę, żeby odpowiedzieć, śmialibyśmy się.
Weźmy przykład żeglarskich wyczynów Polinezyjczyków, wciąż żyjących wśród rdzennych plemion, wykorzystujących gwiazdy, wiatr i prądy do wylądowania swoich kajaków w wyznaczonym miejscu oddalonym o setki mil. To również było tematem wielu badań, aby dowiedzieć się, jak to robią. Tom Jones ma odpowiedź: „Przestań marnować czas; okręty marynarki wojennej robią to cały czas.”
Ta sama odpowiedź.
Przejdźmy teraz do prawdziwego przypadku, czyli nauki języka. W ostatnich latach było to tematem szeroko zakrojonych i bardzo pouczających badań, które wykazały, że niemowlęta mają bardzo bogatą wiedzę na temat języka (lub języków) otoczenia, znacznie wykraczającą poza to, co wykazują podczas występów. Osiąga się to przy niewielkiej liczbie dowodów, a w niektórych kluczowych przypadkach wcale. W najlepszym przypadku, jak wykazały dokładne badania statystyczne, dostępne dane są skąpe, zwłaszcza gdy weźmie się pod uwagę częstotliwość rang („prawo Zipfa”).
Wchodzi Tom Jones: „Zostałeś odrzucony. Nie zwracając uwagi na twoje odkrycia, LLM skanujące astronomiczne ilości danych mogą znaleźć prawidłowości statystyczne, które umożliwiają symulację danych, na których są szkolone, tworząc coś, co wygląda bardzo podobnie do normalnego ludzkiego zachowania. Chatboty.”
Ten przypadek różni się od pozostałych. Po pierwsze, jest to realne. Po drugie, ludzie się nie śmieją; w rzeczywistości wielu jest pod wrażeniem. Po trzecie, w przeciwieństwie do hipotetycznych przypadków, rzeczywiste wyniki są dalekie od twierdzeń.
Rozważania te przywołują drobny problem związany z obecnym entuzjazmem LLM: jego całkowitą absurdalność, jak w hipotetycznych przypadkach, w których rozpoznajemy to od razu. Ale są znacznie poważniejsze problemy niż absurd.
Po pierwsze, systemy LLM są zaprojektowane w taki sposób, że nie mogą nam powiedzieć nic o języku, uczeniu się czy innych aspektach poznania, co jest w zasadzie nieodwracalne. Podwój terabajty zeskanowanych danych, dodaj kolejny bilion parametrów, wykorzystaj jeszcze więcej energii Kalifornii, a symulacja zachowania ulegnie poprawie, jednocześnie wyraźniej ujawniając zasadniczą porażkę tego podejścia, nie pozwalającą na jakiekolwiek zrozumienie. Powód jest elementarny: systemy działają równie dobrze w przypadku języków niemożliwych, których niemowlęta nie są w stanie opanować, jak i tych, które przyswajają szybko i praktycznie odruchowo.
To tak, jakby biolog powiedział: „Mam nową, wspaniałą teorię organizmów. Wymienia wiele istniejących i wiele takich, które w ogóle nie mogą istnieć, ale nie mogę powiedzieć nic na temat tej różnicy.
Znów się śmialiśmy. Albo powinien.
Nie Tom Jones – teraz odnoszę się do rzeczywistych przypadków. Nieustannie radykalnie odchodząc od nauki, Tom Jones odpowiada: „Skąd możesz to wszystko wiedzieć, dopóki nie przeanalizujesz wszystkich języków?” W tym momencie porzucenie nauki normalnej staje się jeszcze wyraźniejsze. Na zasadzie równości argumentów możemy odrzucić genetykę i biologię molekularną, teorię ewolucji i resztę nauk biologicznych, które pobrały próbki tylko z niewielkiej części organizmów. I na dokładkę możemy odrzucić całą fizykę. Po co wierzyć w prawa ruchu? Ile obiektów faktycznie zaobserwowano w ruchu?
Istnieje ponadto niewielka kwestia ciężaru dowodu. Ci, którzy proponują teorię, mają obowiązek wykazać, że ma ona jakiś sens, w tym przypadku pokazać, że zawodzi ona w przypadku języków niemożliwych. Odrzucenie tej propozycji nie jest obowiązkiem innych, chociaż w tym przypadku wydaje się to dość łatwe.
Przenieśmy uwagę na naukę normalną, gdzie sprawy stają się interesujące. Nawet pojedynczy przykład nabywania języka może dostarczyć bogatego wglądu w rozróżnienie między językami możliwymi i niemożliwymi.
Powody są proste i znane. Wszelki wzrost i rozwój, w tym tak zwany „uczenie się”, to proces, który rozpoczyna się od stanu organizmu i stopniowo przekształca go w późniejsze etapy.
Nabycie języka jest takim procesem. Stan początkowy to biologiczne wyposażenie zdolności językowej, które oczywiście istnieje, nawet jeśli jest, jak niektórzy sądzą, szczególną kombinacją innych zdolności. Jest to wysoce nieprawdopodobne z od dawna znanych powodów, ale nie ma to związku z naszymi obawami, więc możemy odłożyć to na bok. Jest rzeczą oczywistą, że ludzka zdolność posługiwania się językiem posiada biologiczne wyposażenie. Najzwyklejszy truizm.
Przejście następuje do stanu stosunkowo stabilnego, zmienionego jedynie powierzchownie poza: znajomością języka. Dane zewnętrzne wyzwalają i częściowo kształtują proces. Badając osiągnięty stan (znajomość języka) oraz dane zewnętrzne, można wyciągnąć daleko idące wnioski na temat stanu początkowego, czyli wyposażenia biologicznego umożliwiającego przyswajanie języka. Wnioski dotyczące stanu początkowego narzucają rozróżnienie między językami możliwymi i niemożliwymi. To rozróżnienie dotyczy wszystkich, którzy podzielają stan początkowy – wszystkich ludzi, o ile wiadomo; wydaje się, że nie ma różnicy w zdolności przyswajania języka pomiędzy istniejącymi grupami ludzkimi.
Wszystko to jest normalną nauką i osiągnęło wiele wyników.
Eksperyment wykazał, że stan stabilny uzyskuje się zasadniczo bardzo wcześnie, w wieku od trzech do czterech lat. Powszechnie wiadomo również, że zdolność posługiwania się językiem ma podstawowe właściwości charakterystyczne dla ludzi, a zatem jest prawdziwą właściwością gatunkową: wspólną dla grup ludzkich i w zasadniczy sposób wyjątkową cechą ludzką.
W tym schematycznym opisie wiele pominięto, zwłaszcza rolę prawa naturalnego we wzroście i rozwoju: w przypadku systemu obliczeniowego takiego jak język, zasady wydajności obliczeniowej. Ale to jest istota sprawy. Znowu normalna nauka.
Ważne jest, aby jasno określić Arystotelesowskie rozróżnienie pomiędzy posiadaniem wiedzy a jej wykorzystaniem (we współczesnej terminologii, kompetencji i wydajności). W przypadku języka uzyskany stan stabilny to posiadanie wiedzy zakodowanej w mózgu. System wewnętrzny określa nieograniczoną gamę ustrukturyzowanych wyrażeń, z których każde możemy uznać za formułowanie myśli, każde możliwe do uzewnętrznienia w jakimś systemie sensomotorycznym, zwykle brzmiące, chociaż może to być znak lub nawet (z trudem) dotyk.
Dostęp do wewnętrznie zakodowanego systemu uzyskuje się poprzez wykorzystanie wiedzy (wydajność). Performance obejmuje wewnętrzne użycie języka w myśleniu: refleksję, planowanie, wspominanie i wiele więcej. Statystycznie rzecz biorąc, jest to zdecydowanie przeważające użycie języka. Jest ona niedostępna dla introspekcji, chociaż możemy się o niej wiele dowiedzieć normalnymi metodami nauki, „z zewnątrz”, mówiąc metaforycznie. To, co nazywa się „mową wewnętrzną”, to w rzeczywistości fragmenty języka zewnętrznego z wyciszonym aparatem artykulacyjnym. Jest to jedynie odległe odbicie wewnętrznego użycia języka, spraw ważnych, którymi nie mogę się tutaj zajmować.
Inne formy użycia języka to percepcja (analiza składniowa) i produkcja, przy czym ta ostatnia obejmuje w szczególności właściwości, które pozostają dla nas dzisiaj równie tajemnicze, jak wtedy, gdy Galileusz i jemu współcześni przyglądali się im z podziwem i zdumieniem u zarania nowożytnej nauki.
Zasadniczym celem nauki jest odkrycie systemu wewnętrznego, zarówno w jego stanie początkowym w ludzkiej zdolności językowej, jak i w poszczególnych formach, jakie przyjmuje on w procesie przyswajania. W stopniu, w jakim zrozumiemy ten wewnętrzny system, możemy przystąpić do badania, w jaki sposób wpływa on na wykonanie, wchodząc w interakcję z wieloma innymi czynnikami wpływającymi na użycie języka.
Dane dotyczące wydajności dostarczają dowodów na temat natury układu wewnętrznego, szczególnie gdy są udoskonalane eksperymentalnie, jak w standardowych badaniach terenowych. Jednak nawet najbardziej masowy zbiór danych z konieczności wprowadza w błąd w zasadniczy sposób. Trzyma się tego, co normalnie powstaje, a nie wiedzy o języku zakodowanym w mózgu, będącym głównym przedmiotem badań tych, którzy chcą zrozumieć naturę języka i jego użycie. Ten wewnętrzny obiekt determinuje nieskończenie wiele możliwości, które nie zostaną wykorzystane w normalnym zachowaniu ze względu na czynniki nieistotne dla języka, takie jak ograniczenia pamięci krótkotrwałej, tematy badane 60 lat temu. Zaobserwowane dane obejmą także wiele z tego, co leży poza systemem zakodowanym w mózgu, często świadome używanie języka w sposób naruszający zasady w celach retorycznych. Są to truizmy znane wszystkim pracownikom terenowym, którzy polegają na technikach pozyskiwania informacji z informatorami, a w zasadzie na eksperymentach, w celu uzyskania dopracowanego korpusu, który wyklucza nieistotne ograniczenia i odbiegające od normy wyrażenia. To samo dotyczy sytuacji, gdy lingwiści wykorzystują siebie w roli informatorów, co jest całkowicie rozsądną i normalną procedurą, powszechną w historii psychologii aż do chwili obecnej.
Kontynuując naukę normalną, odkrywamy, że wewnętrznych procesów i elementów języka nie można wykryć poprzez badanie obserwowanych zjawisk. Często elementy te nie pojawiają się nawet w mowie (lub piśmie), choć ich skutki, często subtelne, można wykryć. Jest to kolejny powód, dla którego ograniczenie do obserwowanych zjawisk, tak jak w podejściu LLM, ostro ogranicza zrozumienie procesów wewnętrznych, które są głównym przedmiotem badań nad naturą języka, jego nabywaniem i użyciem. Nie ma to jednak znaczenia, jeśli porzucono troskę o naukę i zrozumienie na rzecz innych celów.
Mówiąc bardziej ogólnie, w nauce od tysiącleci wnioski wyciągano w drodze eksperymentów – często eksperymentów myślowych – z których każdy stanowił radykalną abstrakcję od zjawisk. Eksperymenty opierają się na teorii i mają na celu odrzucenie niezliczonych, nieistotnych czynników, które wpływają na obserwowane zjawiska, takie jak występy językowe. Wszystko to jest tak elementarne, że rzadko się o tym mówi. I znajomy. Jak zauważono, podstawowe rozróżnienie wywodzi się z Arystotelesowskiego rozróżnienia pomiędzy posiadaniem wiedzy a jej wykorzystaniem. Ten pierwszy jest głównym obiektem badań. Badania wtórne (i dość poważne) badają, w jaki sposób wewnętrznie przechowywany system wiedzy jest wykorzystywany w występach, wraz z wieloma czynnikami pozajęzykowymi, które wpływają na to, co jest bezpośrednio obserwowane.
Możemy także przypomnieć obserwację biologa ewolucyjnego Theodosiusa Dobzhansky'ego, znanego przede wszystkim z pracy nad Drosophilą: Każdy gatunek jest wyjątkowy, a ludzie są najwyjątkowi ze wszystkich. Jeśli jesteśmy zainteresowani zrozumieniem, jakim rodzajem istot jesteśmy – zgodnie z nakazem Wyroczni Delfickiej sprzed 2,500 lat – będziemy przede wszystkim zainteresowani tym, co czyni ludzi najbardziej wyjątkowymi ze wszystkich, przede wszystkim językiem i myślą, ściśle ze sobą splecionymi, jak uznano w bogata tradycja sięgająca klasycznej Grecji i Indii. Większość zachowań jest dość rutynowa, a zatem do pewnego stopnia przewidywalna. To, co zapewnia prawdziwy wgląd w to, co czyni nas wyjątkowymi, to to, co nie jest rutynowe, co odnajdujemy, czasem w drodze eksperymentu, czasem poprzez obserwację, od normalnych dzieci po wielkich artystów i naukowców.
Ostatni komentarz w tym kontekście. Od stulecia społeczeństwo nękane jest masowymi kampaniami korporacyjnymi zachęcającymi do pogardy dla nauki. Tematy te zostały dobrze przestudiowane między innymi przez Naomi Oreskes. Zaczęło się od korporacji, których produkty są mordercze: ołów, tytoń, azbest, później paliwa kopalne. Ich motywy są zrozumiałe. Celem biznesu w społeczeństwie kapitalistycznym jest zysk, a nie dobro ludzkie. To fakt instytucjonalny: nie graj w tę grę, a odpadasz i zostajesz zastąpiony przez kogoś, kto to zrobi.
Działy PR korporacji wcześnie zdały sobie sprawę, że błędem byłoby zaprzeczanie rosnącym dowodom naukowym na temat śmiercionośnego wpływu ich produktów. Można by to łatwo obalić. Lepiej zasiać wątpliwości, wzbudzić niepewność, pogardę dla tych spiczastych garniturowców, którzy nigdy nie malowali domu, ale przyjechali z Waszyngtonu i mówią mi, żebym nie używał farby ołowiowej, niszcząc mój biznes (prawdziwy przypadek, który można łatwo mnożyć). To zadziałało aż za dobrze. W tej chwili prowadzi nas drogą do zniszczenia zorganizowanego życia ludzkiego na ziemi.
W kręgach intelektualistów podobne efekty przyniosła postmodernistyczna krytyka nauki, zdemontowane autorstwa Jeana Bricmonta i Alana Sokala, ale w niektórych kręgach wciąż jest bardzo żywa.
Sugerowanie tego pytania może być niemiłe, ale moim zdaniem słuszne jest pytanie, czy Tom Jones i ci, którzy bezkrytycznie powtarzają, a nawet wzmacniają swoje beztroskie proklamacje, przyczyniają się do tych samych zgubnych tendencji.
CJP: ChatGPT to chatbot oparty na języku naturalnym, który wykorzystuje sztuczną inteligencję, aby umożliwić rozmowy na poziomie ludzkim. W niedawnym artykule w The New York Timeswraz z dwoma innymi autorami zamknęliście nowe chatboty w ramach propagandy, ponieważ po prostu nie dorównują one kompetencjom językowym ludzi. Czy jednak nie jest możliwe, że przyszłe innowacje w dziedzinie sztucznej inteligencji mogą skutkować projektami inżynieryjnymi, które dorównają, a może nawet przewyższą możliwości człowieka?
NC: Uznanie za artykuł należy przypisać faktycznemu autorowi, Jeffreyowi Watumullowi, znakomitemu matematykowi, lingwiście i filozofowi. Dwóch wymienionych współautorów było konsultantami, którzy zgadzają się z artykułem, ale go nie napisali.
Prawdą jest, że chatboty w zasadzie nie mogą dorównać kompetencjom językowym człowieka, z powodów powtórzonych powyżej. Ich podstawowa konstrukcja uniemożliwia osiągnięcie minimalnego warunku adekwatności dla teorii języka ludzkiego: odróżnienia języków możliwych od niemożliwych. Ponieważ jest to właściwość projektu, nie można jej przezwyciężyć przyszłymi innowacjami w tego rodzaju sztucznej inteligencji. Jednak jest całkiem możliwe, że przyszłe projekty inżynieryjne dorównają, a nawet przekroczą ludzkie możliwości, jeśli mamy na myśli ludzką zdolność do działania, wydajność. Jak wspomniano powyżej, niektórzy robią to już od dawna: na przykład automatyczne kalkulatory. Co ciekawsze, jak już wspomniano, owady o maleńkich mózgach przewyższają ludzkie możliwości rozumiane jako kompetencje.
CJP: We wspomnianym artykule zauważono również, że dzisiejsze projekty AI nie posiadają ludzkiej zdolności moralnej. Czy ten oczywisty fakt sprawia, że roboty AI stanowią mniejsze zagrożenie dla rasy ludzkiej? Uważam, że argumentem może być to, że czyni je to jeszcze bardziej.
NC: Jest to rzeczywiście fakt oczywisty, jeśli chodzi o szerokie rozumienie „władzy moralnej”. Jeśli inżynieria AI nie jest dokładnie kontrolowana, może stwarzać poważne zagrożenia. Załóżmy na przykład, że opieka nad pacjentami została zautomatyzowana. Nieuniknione błędy, które dałoby się przezwyciężyć ludzkim osądem, mogłyby stworzyć historię grozy. Albo załóżmy, że ludzi usunięto z oceny zagrożeń określonych przez zautomatyzowane systemy obrony przeciwrakietowej. Jako szokujący zapis historyczny informuje dla nas, byłby to koniec ludzkiej cywilizacji.
Jeśli inżynieria AI nie jest dokładnie kontrolowana, może stwarzać poważne zagrożenia.
CJP: Organy regulacyjne i organy ścigania w Europie wyrażają obawy dotyczące rozprzestrzeniania się ChatGPT, podczas gdy niedawno przedłożony akt prawny Unii Europejskiej próbuje uporać się ze sztuczną inteligencją, klasyfikując takie narzędzia według postrzeganego poziomu ryzyka. Czy zgadzasz się z tymi, którzy obawiają się, że ChatGPT stanowi poważne zagrożenie publiczne? Ponadto, czy naprawdę uważa Pan, że dalszy rozwój narzędzi AI można wstrzymać do czasu wprowadzenia zabezpieczeń?
NC: Z łatwością mogę współczuć wysiłkom podejmowanym w celu kontrolowania zagrożeń stwarzanych przez zaawansowaną technologię, łącznie z tym przypadkiem. Jestem jednak sceptyczny co do możliwości takiego działania. Podejrzewam, że dżin wydostał się z butelki. Złośliwi aktorzy – instytucjonalni lub indywidualni – prawdopodobnie mogą znaleźć sposoby na obejście zabezpieczeń. Takie podejrzenia nie są oczywiście powodem, aby nie próbować i zachować czujność.
ZNetwork jest finansowany wyłącznie dzięki hojności swoich czytelników.
Darowizna