Yapay Zeka (AI) her yerde görünüyor. Şirketler, müşteri sorularını yanıtlamak için web sayfalarında veya telefon sistemlerinde güçlü yapay zeka sohbet robotları kullanıyor. Haber odaları ve dergiler bunları hikaye yazmak için kullanıyor. Film stüdyoları bunları film üretmek için kullanır. Teknoloji şirketleri bunları programlamak için kullanıyor. Öğrenciler bunları makale yazmak için kullanırlar. Sihir gibi görünüyor. Ve her şeyin sözde "bulutta" gerçekleştiği göz önüne alındığında, yapay zeka destekli sistemlerin çevre için iyi olduğuna inanmak kolaydır. Ne yazık ki işler göründüğü gibi değil.
Sohbet robotları sömürü üzerine kuruludur, büyük miktarda enerji kullanır ve güvenilir olmaktan uzaktır. Her ne kadar onların karmaşık bir şekilde büyüdüğünü ve bazı açılardan hayatı kolaylaştırdığını hayal etmek kolay olsa da, şirketler, sonuçların toplumsal açıdan yararlı olup olmayacağı konusunda çok az endişe duyarak, kar elde etmek için yaratımlarına milyarlarca dolar döküyorlar. Kısacası, yapay zekaya yönelik kurumsal ilgiyi ciddiye almamız ve yapay zekanın nasıl geliştirildiği ve kullanıldığı konusunda kontrol sahibi olmamıza yardımcı olabilecek stratejiler geliştirmemiz gerekiyor.
Yarış On mi
Chatbot devrimi 2022'de OpenAI'nin ChatGPT'yi tanıtmasıyla başladı. ChatGPT, insan benzeri konuşma yeteneğine sahipti ve kullanıcı sorularını oluşturulan metinlerle yanıtlamanın yanı sıra makaleler ve kod yazabiliyordu. Hepsinden iyisi, kullanımı ücretsizdi.
Kamuoyunun ChatGPT'ye olan ilgisine yanıt veren diğer şirketler de kısa süre sonra kendi yapay zeka sohbet robotlarını tanıtmaya başladı. Bugün en büyük ve en yaygın kullanılanları Google'ın Gemini'si (eski adıyla Bard) ve Microsoft'un Copilot'udur. Bazıları belirli iş ihtiyaçlarını karşılamak üzere tasarlanmış olanlar da dahil olmak üzere başkaları da vardır. Örneğin GitHub CoPilot, yazılım geliştiricilerin kod oluşturmasına yardımcı olmak için çalışıyor ve Anthrophic'in Claude'u bilgi keşfi ve belgeleri özetlemek için tasarlandı.
Ve yarış yaratmaya devam ediyor gelecek nesil Daha fazla bilgi alabilen, daha hızlı işleyebilen ve daha ayrıntılı, kişisel yanıtlar sağlayabilen yapay zeka sistemleri. Goldman Sacks'a göre ekonomistlerAmerika Birleşik Devletleri'nde yapay zeka ile ilgili yatırımlar önümüzdeki on yılda "GSYİH'nın yüzde 2.5 ila 4'üne kadar çıkabilir".
Chatbotların, ihtiyaç duyulduğunda materyali ortak kullanım kalıplarına göre organize edebilmelerini sağlayacak geniş ve çeşitli bir kelime, metin, resim, ses ve çevrimiçi davranış veri tabanına ve ayrıca gelişmiş algoritmalara ihtiyacı var. Bir soru sorulduğunda veya bilgi talebi verildiğinde, sohbet robotları veri tabanlarındaki soru veya istekteki kelime düzeniyle ilgili materyali tanımlar ve ardından yine algoritmaların rehberliğinde veri tabanlarından verilen veriyi en iyi şekilde karşılayan bir dizi kelime veya görüntüyü bir araya getirir. sınırlamalar, soruşturma. Elbette kalıpları belirleme ve yanıtları oluşturma süreci çok büyük miktarda enerji gerektirir.
Bir chatbot ne kadar konuşkan ve zeki görünse de, Megan Crouse'un söylediği gibi bunu hatırlamak önemlidir. açıklıyor, bu:
"Model ne söylediğini 'bilmiyor' ama üzerinde eğitim aldığı veri setine göre hangi sembollerin (kelimelerin) birbiri ardına gelebileceğini biliyor. ChatGPT, Google'daki rakibi Bard ve diğerleri gibi mevcut nesil yapay zeka sohbet robotları, gerçekten akıllıca bilinçli kararlar vermiyor; bunun yerine, doğal konuşma sırasında yan yana bulunması muhtemel kelimeleri tekrarlayan internetin papağanlarıdırlar. Temel matematik tamamen olasılık ile ilgilidir.
Farklı chatbotlar, programlanmaları ve farklı veri setleri üzerinde eğitilmeleri nedeniyle farklı sonuçlar üretecektir. Örneğin, web üzerinde mevcut olan herkese açık verileri toplamanın yanı sıra Gemini, Google Apps'taki verileri kullanabilirken Copilot, Bing arama motorundan oluşturulan verileri kullanır.
Sohbet robotları, piyasaya sunulduklarından bu yana bir dizi yükseltmeden geçti. Her nesil, daha ayrıntılı bağlantılar kurmanın yanı sıra sorulan sorulardan veya isteklerden gelen verileri birleştirerek veritabanını genişletmesine olanak tanıyan daha karmaşık bir yazılım paketine sahiptir. Bu şekilde sohbet robotları zamanla kullanım yoluyla öğrenir/gelişir.
Bu bakış açısı, bulutta olup bitenler hakkında konuşabilirken, chatbotların istemlere veya sorulara yanıt verme yeteneğinin köklü süreçlere bağlı olduğu gerçeğini vurguluyor. İçinde sözler teknoloji yazarı Karen Hao'dan:
“Yapay zekanın diğer teknolojiler gibi bir tedarik zinciri var; Bu teknolojinin yaratılmasına giren girdiler var; bunlardan biri veri, diğeri ise hesaplama gücü veya bilgisayar çipleri. Ve her ikisinin de beraberinde getirdiği çok sayıda insani maliyet var.”
Tedarik Zinciri: İnsan Emeği
Yapay zeka sistemleri verilere ihtiyaç duyar ve veriler şu veya bu şekilde insanlardan gelir. Bu nedenle teknoloji şirketleri, yapay zeka sistemlerinin işleyişini geliştirmek için sürekli olarak yeni ve çeşitli veriler arayışındadır. Çevrimiçi blog ve web sitesi gönderilerimiz, yayınlanmış kitaplarımız ve makalelerimiz, internetten ücretsiz olarak alınan aramalarımız, fotoğraflarımız, şarkılarımız, resimlerimiz ve videolarımız ile, yüksek kârlı şirketlerin daha da büyük kâr elde etmelerinin sağlanmasına yardımcı oluyoruz. Lauren Leffer olarak notlar,
“Web tarayıcıları ve kazıyıcılar, bir giriş sayfasının arkasında olmayan hemen hemen her yerden verilere kolayca erişebilir… Buna popüler fotoğraf paylaşım sitesi Flickr, çevrimiçi pazar yerleri, seçmen kayıt veritabanları, hükümet web sayfaları, Wikipedia, Reddit, araştırma havuzları, haber kaynakları dahil her şey dahildir. ve akademik kurumlar. Ayrıca, genellikle Web'deki orijinal konumlarından kaldırılmış verileri içeren korsan içerik derlemeleri ve Web arşivleri de vardır. Ve kazınmış veritabanları kaybolmaz.
Aslında kazınmış materyalin önemli bir kısmı telif hakkıyla korunuyor ve izinsiz alınıyordu. Buna yanıt olarak bazı yayıncılar, yazarlar ve sanatçılar artık hırsızlığı durdurmanın yollarını arıyor. Örneğin, Ağustos 2023'te The New York Times şu bilgiyi güncelledi:Kullanım Koşulları”İçin yasaklamak metinlerinin, fotoğraflarının, görüntülerinin ve ses/video kliplerinin "makine öğrenimi veya yapay zeka (AI) sisteminin eğitimi dahil ancak bunlarla sınırlı olmamak üzere herhangi bir yazılım programının" geliştirilmesinde kullanılması. Ancak bazı büyük şirketler, malzemelerinin kullanımını yasaklama veya mali tazminat konusunda pazarlık yapma yetkisine veya yasal güce sahipken, çoğu işletme ve birey buna sahip değildir. Sonuç olarak, hâlâ “fikri mülkiyet” onlardan ücretsiz olarak alınmış ve kurumsal para kazanma faaliyeti hizmetinde yapay zeka eğitim materyaline dönüştürülmüştür.
Yapay zeka veri toplamayla ilgili kişisel kayıpları en aza indirmeden, bu toplama yönteminde çok daha büyük bir sorun var. Kamuya açık interneti kazımak, AI sohbet robotlarının bilim, tarih, politika, insan davranışı ve aşırı nefret gruplarının üyelerinin gönderileri ve yazıları da dahil olmak üzere güncel olaylar hakkında çok farklı bakış açıları ve anlayışlar içeren materyaller kullanılarak eğitilmesi anlamına geliyor. Sorunlu veriler, en karmaşık sohbet robotlarının bile çıktılarını kolaylıkla etkileyebilir.
Örneğin, chatbotlar şirketler tarafından iş bulma süreçlerinde yardımcı olmak için giderek daha fazla kullanılıyor. Ancak Bloomberg Haberleri gibi keşfetti, "En iyi bilinen üretken yapay zeka aracı, sistematik olarak grupları isimlerine göre dezavantajlı duruma düşüren önyargılar üretiyor." Örneğin kendi araştırması bulundu "Bir Fortune 1000 şirketinde gerçek bir finansal analist rolü için eşit nitelikli sekiz özgeçmişi sıralaması 500 kez istendiğinde, ChatGPT'nin siyah Amerikalılara özgü bir isimle özgeçmişi seçme olasılığı en düşüktü."
Chatbotlar başka bir açıdan da insan emeğinin kalitesine bağımlıdır. Sohbet robotları, web tarayıcıları ve kazıyıcılar tarafından toplanan verilerin çoğunu doğrudan kullanamaz. Josh Dzieza olarak açıklıyor, "En etkileyici yapay zeka sisteminin arkasında bile insanlar var; verileri eğitmek için verileri etiketleyen ve kafaları karıştığında verileri açıklayan çok sayıda insan var."
Büyük yapay zeka şirketleri, veri etiketleme süreci için gerekli çalışanları bulmak ve eğitmek için genellikle diğer küçük şirketleri işe alır. Ve bu taşeronlar, çoğu zaman, açıklayıcı olarak adlandırılan işçilerini Küresel Güney'de, çoğunlukla da Nepal ve Kenya'da buluyor. Açıklama süreci ve açıklama eklenen öğeler ticari sır olarak kabul edildiğinden, açıklama yapanlar nihai patronlarını nadiren tanırlar ve ne yaptıklarını başkalarıyla, hatta iş arkadaşlarıyla tartıştıkları tespit edilirse kovulurlar.
Dzieza, sohbet robotlarının kendileri için toplanan verileri kullanmasını sağlamak için açıklama yapanların yapması gereken bazı çalışmaları anlatıyor. Örneğin, ek açıklamalar video ve fotoğraflardaki öğeleri etiketler. Yapay zeka sistemlerinin belirli piksel konfigürasyonlarını belirli öğeler veya duygularla bağlayabilmesini sağlamak için bunun yapılması gerekiyor. Sürücüsüz araçlar için yapay zeka sistemleri geliştiren şirketlerin, cadde veya otoyol sahnelerinden çekilen videolardaki tüm kritik öğeleri tanımlayacak açıklayıcılara ihtiyacı var. Bu, "her aracı, yayayı, bisikletliyi ve sürücünün bilmesi gereken her şeyi kare kare ve mümkün olan her kamera açısından tanımlamak" anlamına geliyor. Dzieza'nın belirttiği gibi bu, "zor ve tekrarlayan bir iştir. Birkaç saniyelik kısa bir görüntüye açıklama eklemek sekiz saat sürdü ve bunun için [açıklama yapan kişiye] yaklaşık 10 dolar ödendi.”
Bu tür işler, düşük ücretli olmasına rağmen kritik öneme sahiptir. Açıklama işlemi kötü yapılırsa veya veritabanı sınırlıysa sistem kolaylıkla arızalanabilir. Konuyla ilgili bir örnek: 2018'de bir kadın sürücüsüz Uber arabasının çarpması sonucu hayatını kaybetti. Yapay zeka sistemi başarısız oldu çünkü "bisikletlilerden ve yayalardan kaçınmak için programlanmış olmasına rağmen caddenin karşısında bisikletle yürüyen birine ne yapacağını bilmiyordu."
Ek açıklamacılar ayrıca sosyal medya fotoğraflarındaki öğeleri etiketlemek için de işe alınır. Bu, insanlar tarafından giyilebilecek tüm görünür gömleklerin tanımlanmasını ve etiketlenmesini içerebilir. Bu, bunların "polo tişörtleri, açık havada giyilen gömlekler, askıda asılı gömlekler" vb. olup olmadığının kaydedilmesini gerektirir.
Diğer işler duyguları etiketlemeyi içerir. Örneğin, bazı açıklamacılar, açıklama yapanların çektiği selfieler de dahil olmak üzere yüz resimlerine bakmak ve konunun algılanan duygusal durumunu etiketlemek için işe alınır. Diğerleri ise bir pizza zincirinin sahibi olduğu mağazalara telefon ederek sipariş veren müşterilerin duygularını etiketlemek için işe alınıyor. Başka bir işte Reddit gönderilerinin duygularını etiketleyen ek açıklamalar var. Bu görev, bir grup Hintli işçi için, özellikle ABD internet kültürüne aşina olmamalarından dolayı zorlu oldu. Taşeron, çalışmalarını inceledikten sonra gönderilerin yaklaşık yüzde 30'unun yanlış etiketlendiğine karar verdi.
Yapay zeka eğitim çalışmalarının belki de en hızlı büyüyen bölümü, bir chatbot ile doğrudan insan etkileşimini içeriyor. Konuları tartışmak için insanlar işe alınıyor ve chatbot, her konuşmaya iki farklı yanıt verecek şekilde programlanıyor. İşe alınan "tartışmacı" daha sonra "en iyi" olduğunu düşündüğü yanıtı seçmelidir. Bu bilgi daha sonra sistemin daha "insani" görünmesine yardımcı olmak için sisteme geri beslenir.
Kısacası yapay zeka sistemleri büyük ölçüde insanların çalışmalarına bağımlıdır. Bunlar insanın önyargılarından veya duygularından etkilenmeden çalışan sihirli sistemler değil. Ve onların faaliyetleri hayali bir bulutun içinde gerçekleşmiyor. Bu sonraki nokta, bunların işletilmesi için gereken altyapıyı göz önünde bulundurduğumuzda daha da belirgin hale geliyor.
Tedarik Zinciri: Veri Merkezleri
Yapay zekadaki büyüme, veri merkezlerinin geniş yapısı ve barındırdıkları bilgisayarları ve sunucuları çalıştırmak için sürekli artan elektrik talebinin yanı sıra aşırı ısınmayı önlemek için sürekli çalışması gereken klimalarla da destekleniyor. Aslında, “Bulut artık havayolu endüstrisinden daha büyük bir karbon ayak izine sahip. Tek bir veri merkezi 50,000 evin elektriğini tüketebilir.”
Göre Uluslararası Enerji Ajansı'na göre, ABD'de faaliyet gösteren 2,700 veri merkezi, 4'de ülkenin toplam enerji kullanımının yüzde 2022'ünden fazlasından sorumluydu. Ve paylarının 6'ya kadar yüzde 2026'ya ulaşması bekleniyor. Elbette bu tür tahminler kaba, her ikisi de çünkü büyük teknoloji şirketleri isteksiz İlgili bilgileri paylaşmak için ve AI sistemleri sürekli olarak yeni veriler üzerinde eğitildiğinden ve daha fazla beceriyle yükseltildiğinden, bu da aktivite başına daha fazla enerji kullanımı anlamına gelir.
Şu anda bile veri merkezlerinin enerji taleplerinin ABD elektrik şebekesini zorladığına dair işaretler var. Washington Post olarak notlar: “Kuzey Virginia'nın planlanan ve yapım aşamasında olan tüm yeni veri merkezlerine hizmet verebilmesi için birkaç büyük nükleer enerji santralinin eşdeğerine ihtiyacı var. Sıcak yaz günlerinde elektrik kesintilerinin zaten rutin olduğu Teksas da aynı ikilemle karşı karşıya.”
Kuzeybatı Pasifik de benzer bir zorlukla karşı karşıya. Olarak Oregonian gazete şunu belirtiyor:
“Yaz [2023] yayınlanan üç yeni tahmine göre, Oregon genelinde çoğalan veri merkezleri, bölgesel kamu hizmetlerinin ve enerji planlamacılarının öngördüğünden çok daha fazla elektrik tüketecek.
“Bu, Kuzeybatı elektrik şebekesi üzerinde daha fazla baskı oluşturuyor ve Oregon'un, eyaletin sadece iki yıl önce belirlediği iddialı temiz enerji hedeflerini karşılayıp karşılayamayacağı konusunda yeni şüpheler uyandırıyor…
“Bonneville Enerji İdaresi artık 2041 yılına kadar Oregon ve Washington'daki veri merkezlerinin elektrik talebinin iki buçuk kat artarak ortalama 2,715 megavat çekmesini bekliyor. Bu, bugün bu iki eyaletteki evlerin üçte birine yetecek kadar.”
Büyük ölçüde yapay zekanın hızla artan taleplerinin körüklediği bu hızla artan enerji talebi, küresel ısınmayla mücadele çabalarımız için büyük bir tehdit oluşturuyor. Örneğin, enerji konusundaki endişeler halihazırda Kansas, Nebraska, Wisconsin ve Güney Carolina'nın kömür santrallerini kapatmayı ertelemesine neden oldu. Çeşitli iklim eylem gruplarının yapay zekanın oluşturduğu iklim tehdidine ilişkin 2024 tarihli raporu bulur Uluslararası Enerji Ajansı'nın önümüzdeki iki yıl içinde gerçekleşeceğini tahmin ettiği, veri merkezlerinin enerji kullanımının iki katına çıkmasının, gezegenin ısınmasına neden olan emisyonlarda yüzde 80'lik bir artışa yol açacağı belirtiliyor. Bu, yaratılan ihtiyaçlardan ziyade gerçek ihtiyaçları karşılama yeteneklerine bakılmaksızın kullanıma sunulan yeni yapay zeka hizmetleri için ödenmesi gereken ciddi bir bedeldir.
“Doğru Değil İkna Edici”
Açıkçası büyük teknoloji şirketleri yapay zekanın kendilerine büyük karlar getireceğine inanıyor. Ve hiçbir şeyi şansa bırakmadan, biz onları isteyip istemediğimizi düşünme fırsatı bulamadan, onları hayatımıza yerleştirmek için ellerinden geleni yapıyorlar. Yapay zeka sistemleri halihazırda sağlık hizmetlerini iyileştirmenin, zihinsel sağlık tavsiyeleri sağlamanın, hukuki tavsiyeler vermenin, öğrencileri eğitmenin, kişisel karar alma mekanizmamızı geliştirmenin, işyeri verimliliğini artırmanın bir yolu olarak tanıtılıyor, liste uzayıp gidiyor.
Yapay zeka sistemlerinin yalnızca girilen veriler ve onu kullanmak için yazılan yazılım kadar iyi olduğu gerçeği unutulmuş gibi görünüyor. Yani bunların işleyişi insana bağlıdır. Ve belki daha da önemlisi, hiç kimse yapay zeka sistemlerinin eğitim aldıkları verileri nasıl kullandığını gerçekten bilmiyor. Yani onların “akıl yürütme süreçlerinin” izini sürmek mümkün değil. Bu sistemlerin ciddi şekilde aşırı satıldığına dair uyarı işaretleri zaten görülüyor.
Örneğin, 2022'de bir müşteri, ölüm ücretini nasıl alacağını öğrenmek için Air Canada ile iletişime geçti. Havayolunun müşteri hizmetleri yapay zeka destekli sohbet robotu, seyahatinin parasını geri alabilmek için biletin kesildiği tarihten itibaren 90 gün içinde bir form doldurması gerektiğini söyledi. Ancak yolculuğunu tamamladıktan sonra formu gönderdiğinde havayolu personeli, formun yolculuktan önce doldurulması gerektiği için ücret indirimi yapılmayacağını söyledi. Botun kendisine söylediği şeylerin ekran görüntülerini havayoluna gösterdiğinde havayolu, botun söylediklerinden kendisinin sorumlu olmadığını söyledi.
Müşteri Air Canada'ya dava açtı ve kazandı. Yargıç ünlü ki:
“Air Canada, chatbot da dahil olmak üzere temsilcilerinden, hizmetlilerinden veya temsilcilerinden biri tarafından sağlanan bilgilerden sorumlu tutulamayacağını savunuyor. Durumun neden böyle olduğuna inandığını açıklamıyor. Aslında Air Canada, chatbotun kendi eylemlerinden sorumlu olan ayrı bir tüzel kişilik olduğunu öne sürüyor. Bu dikkate değer bir teslimiyettir."
Şirketlerin, isterlerse eylemlerinden ayrılabilmeleri için chatbotların ayrı tüzel kişilikler ilan etmesini isteyip istemeyeceklerini bir kenara bırakırsak, havayolu henüz chatbotunun neden yanlış bilgi verdiğini açıklamadı.
Ayrıca, Microsoft'un yardımıyla geliştirilen ve belediyenin, işletmelerin şehir kuralları ve düzenlemeleri konusunda güncel kalmalarına yardımcı olmak için "tek durak noktası" olarak tanıttığı NYC sohbet robotu var. İşte bazıları örnekler Sorulara yanıt olarak verilen şüpheli tavsiyelerden:
“Chatbot yanlış bir şekilde bir işverenin cinsel tacizden şikayetçi olan, hamileliğini açıklamayan veya rastalarını kesmeyi reddeden bir işçiyi kovmasının yasal olduğunu öne sürdü…
"Bir restoranın kemirgen tarafından kemirilen peyniri servis edip edemeyeceği sorulduğunda, şu cevabı verdi: 'Evet, fare ısırığı varsa peyniri yine de müşterilere servis edebilirsiniz' ve 'hasarın boyutunu değerlendirmenin önemli olduğunu' ekledi. fareden kaynaklandığını' ve 'müşterilerin durum hakkında bilgilendirilmesi'ni amaçlıyoruz."
Belki de şaşırtıcı olmayan bir şekilde, hem Microsoft hem de NYC belediye başkanı bu tür sorunların eninde sonunda düzeltileceğini söyleyerek yanıt verdi. Aslında, kullanıcıların hataları işaret ederek sistemin gerekli ince ayarını hızlandıracağını faydalı bir şekilde eklediler.
Bu tür sorunlar, ne kadar ciddi olursa olsun, yapay zeka "halüsinasyonları" sorunuyla karşılaştırıldığında sönük kalıyor. Halüsinasyon, bir yapay zeka sisteminin isimler, tarihler, kitaplar, hukuki davalar, tıbbi açıklamalar ve hatta tarihi olayları içerebilecek bilgileri üretmesidir. Örneğin, chatbotların avukatların mahkeme dosyalarında atıfta bulunduğu davaları icat ettiği birçok hukuki dava olmuştur.
Konuyla ilgili bir örnek: Haziran 2023'te bir davacıyı temsil eden avukatlar dava Kolombiyalı bir havayolu şirketine karşı açılan davayı içeren şirket, bir chatbot tarafından "bulunan" altı destekleyici vakayı içeren bir brifing sundu. Ne yazık ki bu vakalar hiçbir zaman yaşanmadı; Hatta bazıları var olmayan havayollarından bile bahsetti. Hakim davayı reddetti ve avukatlara sahte alıntı yaptıkları gerekçesiyle para cezası verdi. Hakimin kötü niyetli davrandıkları yönündeki iddiasına katılmayan avukatlar, savunmalarında şunları söyledi: “Bir teknoloji parçasının davaları sıradan bir şekilde uydurabileceğine inanmamakla iyi niyet hatası yaptık.
En gelişmiş sohbet robotları bile halüsinasyonlara maruz kalabilir. Ertesi gün gerçekleşecek olan 2024 Superbowl'a bahis oranları sorulduğunda Google'ın chatbot'u açıkladı San Francisco 49ers'ın Kansas City Chiefs'i 34'e 28'lik skorla mağlup ettiği Superbowl zaten gerçekleştiği için bahis oynamak için çok geçti. Hatta bazı oyuncu istatistiklerini bile içeriyordu. Maç oynandığı sırada Kansas City tarafından kazanıldı. Microsoft'un chatbot'u da aynısını yaptı ve henüz oynanmamış olmasına rağmen oyunun bittiğini iddia etti. Ancak Kansas City Chiefs'in kazandığı açıklandı.
Şimdi tıbbi tavsiye veren bir sohbet robotunun halüsinasyona uğraması durumunda maliyetin ne olabileceğini hayal edin. ABD ordusu, tehditleri belirlemek, insansız hava araçlarını yönlendirmek, istihbarat toplamak ve savaş planlamak da dahil olmak üzere çeşitli şekillerde yapay zeka teknolojisini kullanımını hızla artırıyor. Sistemin yetersiz veya eksik veri eğitimi veya daha da kötüsü halüsinasyondan kaynaklanabilecek potansiyel felaketi hayal edin. Açık olan nokta, bu sistemlerin çeşitli nedenlerden dolayı kusursuz olmaktan uzak olmasıdır. Dahili bir Microsoft belgesi bunu en iyi şekilde yakalar; beyan yeni yapay zeka sistemlerinin "gerçekçi değil, ikna edici olacak şekilde tasarlandığını" söyledi.
Ne Yapmalı?
Şu ana kadar kamuoyunun yapay zeka konusundaki kaygısı büyük ölçüde kişisel verilerin yapay zeka sistemleri tarafından izinsiz kullanılmasına odaklandı. İnsanlar, materyallerinin izinsiz olarak web üzerinden kazınmasına karşı koruma istiyor. Yapay zeka sistemleriyle olan etkileşimlerinin kendilerini dolandırıcılığa, ayrımcılığa veya tacize maruz bırakabilecek veri üreten bir faaliyete dönüşmesini istemiyorlar. Artık çeşitli eyalet ve yerel yönetimler düşünen bunu başarmanın yolları. Ve 2023'te Başkan Biden federal bir bildiri yayınladı. icra emri Bu, yeni "temel" IA sistemlerinin kamuya açıklanmadan önce kusurlara karşı yeterince test edilmesini sağlamayı amaçlamaktadır. Bunlar yararlı ilk adımlardır.
Yapay zeka kullanımına ilişkin en sert mücadele işyerlerinde yaşanıyor. Şirketler yapay zeka sistemlerini kullanarak sekmeler İşçi örgütlenmesi konusunda, izlemek Çalışan performansı ve mümkün olduğunda kurtulmak işçilerin. Sendikalı işçilerin, şirketlerin yapay zeka sistemlerinin kullanımına sınırlamalar getirerek karşı koymaya başlaması şaşırtıcı değil.
Örneğin, yaklaşık 12,000 sinema yazarını temsil eden Amerika Yazarlar Birliği (WGA), 2023'te maaş artışları talebiyle aralarında Universal, Paramount, Walt Disney, Netflix, Amazon ve Apple'ın da bulunduğu bir dizi büyük yapım şirketine beş ay süreyle grev yaptı. istihdam korumaları ve AI kullanımına ilişkin kısıtlamalar. LA Times köşe yazarı Brian Merchant olarak anlamlı bir şekilde şunu söyleyebiliriz: açıklar:
“ChatGPT gibi üretken yapay zekanın kullanımına ilişkin endişeler, yazarlar stüdyolarla pazarlığa başlamak için ilk kez masaya oturduğunda akıllarında bile yer almıyordu. WGA'nın ilk teklifi, stüdyoların orijinal senaryolar oluşturmak için yapay zekayı kullanmayacaklarını belirtiyordu ve ancak stüdyolar açıkça reddedince kırmızı bayraklar kalktı.
“İşte o zaman yazarlar, stüdyoların yapay zekayı kullanma konusunda ciddi olduklarını fark ettiler - eğer bitmiş senaryolar oluşturmak için değilse, ki bu noktada her iki taraf da bunun imkansız olduğunu biliyordu - o zaman hem bir tehdit olarak hem de daha düşük yeniden yazım teklifini haklı çıkarmanın bir yolu olarak yazarlara karşı bir koz olarak kullandılar. ücretler. İşte o zaman WGA kuma bir çizgi çekti, grev gözcülüklerinde AI'nın sosyal medyada viral hale geldiğini kınayan tabelalar ve bunun gibi gazeteleri sevindiren çatışmanın çığırtkanlığını yapan manşetler görmeye başladık.”
Aslında yapay zeka sistemlerinin kullanımı üzerinde kontrol sahibi olma ihtiyacına dair artan farkındalık, Yazarlar Birliği'nin grev sırasında dijital medya mağazalarında çalışanlar da dahil olmak üzere ilgili sektörlerdeki işçiler için yapay zeka konusunda çeşitli toplantılar düzenlemesine yol açtı. Katılımcıların çoğu, çarpıcı senaristleri desteklemek için grev hattında yer aldı.
Grev yazarlar için büyük kazanımlar sağladı. Yapay zeka açısından yeni sözleşme, büyük dil modeli yapay zeka sistemlerinin komut dosyalarını yazmak veya yeniden yazmak veya kaynak materyal için kullanılmasını yasaklıyor. Yazarlar ise diledikleri takdirde bunlardan faydalanabilecekler. Sözleşme ayrıca yapay zeka sistemlerini eğitmek için yazarların herhangi bir materyalinin kullanılmasını da yasaklıyor. Bir analist olarak yorumladı, “İlk taslakların ChatGPT aracılığıyla yapılacağı ve daha sonra daha düşük yeniden yazma ücretleri karşılığında bir yazara teslim edileceği korkusu etkisiz hale getirildi. Bu, yapay zekanın işçilerle ilgili göstergelerini belirleyen ilk toplu sözleşme anlaşmalarından biri olabilir.”
Screen Actors Guild-Amerikan Televizyon ve Radyo Sanatçıları Federasyonu (SAG-AFTRA), WGA grevinin başlamasından iki ay sonra büyük film ve televizyon yapımcılarına karşı greve gitti. Şaşırtıcı olmayan bir şekilde, AI politikası, grev kararını motive eden en önemli konulardan biriydi. Belki de en önemlisi oyuncular başarılı Üreticileri yapay zekanın gelecekteki kullanımları konusunda pazarlık yapmaya zorlayacak yeni bir sözleşmenin kazanılması.
Örneğin, anlaşma, bir yapımcının "sentetik sanatçı" ("tanımlanabilir herhangi bir doğal sanatçı olarak tanınmayan, dijital olarak oluşturulmuş, doğal görünümlü bir birey") kullanmayı planlaması durumunda, bunu yapmama kararı konusunda sendikaya bildirimde bulunması ve pazarlık yapması gerektiğini gerektirmektedir. ücretlerinin sendikaya ödenmesi olanağıyla birlikte doğal bir sanatçıyı işe almak. Bir yapımcı "tanınabilir bir sentetik icracı" (dijital olarak oluşturulmuş, doğal bir icracı olarak tanınabilen, doğal görünümlü bir birey) kullanmak istiyorsa, öncelikle icracıyla pazarlık yapmalı ve onun onayını almalıdır.
Diğer işçiler de hem işlerini korumak hem de profesyonel standartları savunmak için yapay zeka teknolojisinin kullanımı konusunda patronlarıyla sıkı pazarlıklar yapıyor. gazeteciler. Bu emek mücadeleleri, yapay zeka kullanımı için gerekli korkulukların geliştirilmesine yönelik önemli bir başlangıçtır. Tıbbi sistemimizde, eğitim kurumlarımızda, ulaşımda, haber raporlamada, kamu kurumları ve sağlayıcılarla iletişimlerde insan bağlantılarını ve insan eylemliliğini azaltmak için yapay zeka teknolojisini kullanma yönündeki kurumsal yönelime karşı daha geniş bir işçi-toplum ittifakı inşa etmek için bir temel oluşturabilirler. mal ve hizmetlerin listesi uzayıp gidiyor. Çalışan insanların yapay zeka teknolojisiyle ilgili tüm maliyet ve faydaları doğru bir şekilde değerlendirmelerine yardımcı olabilirsek, başarı şansımız büyük ölçüde artacaktır. •
Martin Hart-Landsberg, Portland, Oregon'daki Lewis and Clark College'da Onursal Ekonomi Profesörüdür; ve Sosyal Bilimler Enstitüsü'nde Yardımcı Araştırmacı, Gyeongsang Ulusal Üniversitesi, Güney Kore. Öğretme ve araştırma alanları arasında politik ekonomi, ekonomik kalkınma, uluslararası ekonomi ve Doğu Asya'nın politik ekonomisi yer almaktadır. Bir blog tutuyor Ekonomik Cepheden Raporlar.
ZNetwork yalnızca okuyucularının cömertliğiyle finanse edilmektedir.
Bağış