ในการถกเถียงหลายครั้งเกี่ยวกับการเปิดตัวอย่างรวดเร็วของสิ่งที่เรียกว่าปัญญาประดิษฐ์ มีการทะเลาะกันที่ค่อนข้างคลุมเครือซึ่งเน้นไปที่การเลือกคำว่า "ภาพหลอน"
นี่เป็นคำที่สถาปนิกและผู้สนับสนุน generative AI ได้ตกลงกันเพื่อระบุลักษณะการตอบสนองที่ให้บริการโดยแชทบอทที่ผลิตขึ้นทั้งหมดหรือผิดพลาดแบบแบนๆ เช่น เมื่อคุณถามบอทถึงคำจำกัดความของบางสิ่งที่ไม่มีอยู่จริง และมันจะทำให้คุณเชื่อใจได้ หนึ่งพร้อมด้วยเชิงอรรถที่จัดทำขึ้น “ยังไม่มีใครในสาขานี้ที่สามารถแก้ปัญหาภาพหลอนได้” Sundar Pichai ซีอีโอของ Google และ Alphabet กล่าว บอก ผู้สัมภาษณ์เมื่อเร็ว ๆ นี้
นั่นเป็นเรื่องจริง - แต่เหตุใดจึงเรียกข้อผิดพลาดว่า "ภาพหลอน" เลย? ทำไมไม่ขยะอัลกอริธึม? หรือผิดพลาด? ภาพหลอนหมายถึงความสามารถลึกลับของสมองมนุษย์ในการรับรู้ปรากฏการณ์ที่ไม่มีอยู่ อย่างน้อยก็ไม่ใช่ในแง่วัตถุนิยมทั่วไป ด้วยการจัดสรรคำที่ใช้กันทั่วไปในด้านจิตวิทยา ประสาทหลอน และเวทย์มนต์ในรูปแบบต่างๆ ตัวกระตุ้นของ AI ขณะเดียวกันก็ยอมรับถึงความผิดพลาดของเครื่องจักร ขณะเดียวกันก็หล่อเลี้ยงตำนานที่เป็นที่รักที่สุดของภาคนี้ไปพร้อมๆ กัน นั่นคือด้วยการสร้างแบบจำลองภาษาขนาดใหญ่เหล่านี้ และฝึกฝนพวกเขาในทุกสิ่งที่ มนุษย์อย่างเราเขียน พูด และนำเสนอด้วยภาพ พวกเขากำลังอยู่ในขั้นตอนของการกำเนิดความฉลาดแบบเคลื่อนไหวบนจุดประกายการก้าวกระโดดทางวิวัฒนาการสำหรับสายพันธุ์ของเรา บอทอย่าง Bing และ Bard จะสะดุดออกไปในอีเทอร์ได้อย่างไร?
อย่างไรก็ตาม อาการประสาทหลอนที่บิดเบี้ยวนั้นกำลังดำเนินไปในโลกของ AI จริงๆ แต่ไม่ใช่ว่าจะมีบอทอยู่ ซีอีโอด้านเทคโนโลยีเป็นผู้ปลดปล่อยพวกเขา พร้อมด้วยกลุ่มแฟนๆ ของพวกเขาที่ตกอยู่ภายใต้การควบคุมของภาพหลอนอันดุเดือดทั้งเป็นรายบุคคลและเป็นกลุ่ม ในที่นี้ ฉันกำลังนิยามอาการประสาทหลอนที่ไม่ได้อยู่ในความรู้สึกลึกลับหรือประสาทหลอน สภาพจิตใจที่เปลี่ยนแปลงไปซึ่งสามารถช่วยในการเข้าถึงความจริงที่ลึกซึ้งและไม่เคยรับรู้มาก่อน ไม่ คนเหล่านี้แค่สะดุดล้ม: เห็นหรืออย่างน้อยก็อ้างว่าเห็นหลักฐานที่ไม่มีอยู่เลย แม้แต่การเสกสรรโลกทั้งโลกที่จะนำผลิตภัณฑ์ของพวกเขาไปใช้เพื่อการยกระดับและการศึกษาที่เป็นสากลของเรา
พวกเขาบอกเราว่า AI เจนเนอเรชั่นจะยุติความยากจน จะรักษาโรคภัยไข้เจ็บทั้งหมด จะช่วยแก้ปัญหาการเปลี่ยนแปลงสภาพภูมิอากาศ มันจะทำให้งานของเรามีความหมายและน่าตื่นเต้นมากขึ้น มันจะปลดปล่อยชีวิตแห่งการพักผ่อนและการไตร่ตรอง ช่วยให้เรากอบกู้มนุษยชาติที่เราสูญเสียไปจากกลไกทุนนิยมตอนปลาย มันจะยุติความเหงา มันจะทำให้รัฐบาลของเรามีเหตุผลและตอบสนอง ฉันกลัวว่าสิ่งเหล่านี้เป็นภาพหลอน AI ที่แท้จริง และเราทุกคนได้ยินมันวนซ้ำนับตั้งแต่ Chat GPT เปิดตัวเมื่อปลายปีที่แล้ว
มีโลกที่ AI กำเนิดซึ่งเป็นเครื่องมือวิจัยเชิงคาดการณ์ที่ทรงพลังและผู้ปฏิบัติงานที่น่าเบื่อสามารถถูกรวบรวมไว้ได้อย่างแท้จริง ประโยชน์ มนุษยชาติ สายพันธุ์อื่นๆ และบ้านที่ใช้ร่วมกันของเรา แต่เพื่อให้สิ่งนั้นเกิดขึ้น เทคโนโลยีเหล่านี้จะต้องถูกนำไปใช้ในระเบียบทางเศรษฐกิจและสังคมที่แตกต่างไปจากของเราอย่างมาก ซึ่งมีจุดประสงค์ในการตอบสนองความต้องการของมนุษย์และการปกป้องระบบดาวเคราะห์ที่ค้ำจุนทุกชีวิต
และเนื่องจากพวกเราที่ยังไม่สะดุดในปัจจุบันเข้าใจดี ระบบปัจจุบันของเราก็ไม่เป็นเช่นนั้น แต่มันถูกสร้างขึ้นเพื่อเพิ่มความมั่งคั่งและผลกำไรสูงสุด - จากทั้งมนุษย์และโลกธรรมชาติ - ความเป็นจริงที่นำเราไปสู่สิ่งที่เราอาจคิดว่ามันเป็นเวทีเทคโน-เนโครของระบบทุนนิยม ในความเป็นจริงของอำนาจและความมั่งคั่งที่มีความเข้มข้นมากเกินไป AI ซึ่งห่างไกลจากภาพหลอนในอุดมคติเหล่านั้น - มีแนวโน้มมากขึ้นที่จะกลายเป็นเครื่องมือที่น่ากลัวในการขับไล่และการปล้นสะดมต่อไป
ฉันจะเจาะลึกว่าทำไมถึงเป็นเช่นนั้น แต่ก่อนอื่น การคิดถึงเรื่องนี้จะเป็นประโยชน์ วัตถุประสงค์ ภาพหลอนยูโทเปียเกี่ยวกับ AI กำลังให้บริการ เรื่องราวอันมีเมตตาเหล่านี้มีผลอย่างไรในวัฒนธรรมเมื่อเราเผชิญกับเครื่องมือแปลกใหม่เหล่านี้ นี่คือสมมติฐานหนึ่ง: สิ่งเหล่านี้เป็นเรื่องราวปกที่ทรงพลังและน่าหลงใหลสำหรับสิ่งที่อาจกลายเป็นการโจรกรรมครั้งใหญ่ที่สุดและเป็นผลสืบเนื่องมากที่สุดในประวัติศาสตร์ของมนุษย์ เพราะสิ่งที่เราเห็นคือบริษัทที่ร่ำรวยที่สุดในประวัติศาสตร์ (Microsoft, Apple, Google, Meta, Amazon …) ยึดเอาความรู้ของมนุษย์ทั้งหมดที่มีอยู่ในรูปแบบดิจิทัลที่สามารถคัดลอกได้เพียงฝ่ายเดียวและปิดบังไว้ในผลิตภัณฑ์ที่เป็นกรรมสิทธิ์ ซึ่งหลายแห่งจะ มุ่งเป้าไปที่มนุษย์ซึ่งตลอดชีวิตแรงงานฝึกเครื่องจักรโดยไม่ได้รับอนุญาตหรือยินยอม
สิ่งนี้ไม่ควรถูกกฎหมาย ในกรณีของเนื้อหาที่มีลิขสิทธิ์ที่เราอยู่ในขณะนี้ ทราบ อบรมนายแบบ(รวมทั้งหนังสือพิมพ์ฉบับนี้ด้วย) ต่างๆ คดี ได้รับการยื่นที่จะโต้แย้งว่าสิ่งนี้ผิดกฎหมายอย่างชัดเจน เหตุใดบริษัทที่แสวงหาผลกำไรจึงควรได้รับอนุญาตให้ป้อนภาพวาด ภาพวาด และรูปถ่ายของศิลปินที่มีชีวิตลงในโปรแกรม เช่น Stable Diffusion หรือ Dall-E 2 เพื่อที่จะสามารถนำมาใช้เพื่อสร้างเวอร์ชันที่เหมือนๆ กันของศิลปินเหล่านั้นได้ ทำงานโดยผลประโยชน์ไหลมาสู่ทุกคนยกเว้นตัวศิลปินเองเหรอ?
จิตรกรและนักวาดภาพประกอบ มอลลี่ แครปแอปเปิลกำลังช่วยนำขบวนการของศิลปินที่ท้าทายการโจรกรรมครั้งนี้ “เครื่องกำเนิดงานศิลปะ AI ได้รับการฝึกอบรมเกี่ยวกับชุดข้อมูลขนาดมหึมา ซึ่งประกอบด้วยภาพที่มีลิขสิทธิ์นับล้านๆ ภาพ เก็บเกี่ยวโดยผู้สร้างไม่รู้ตัว ไม่ต้องพูดถึงการชดเชยหรือความยินยอม นี่เป็นการปล้นงานศิลปะที่ยิ่งใหญ่ที่สุดในประวัติศาสตร์อย่างมีประสิทธิภาพ กระทำโดยองค์กรที่ดูน่านับถือ ซึ่งได้รับการสนับสนุนโดยบริษัทร่วมทุนใน Silicon Valley เป็นการปล้นตอนกลางวัน” ใหม่ เปิด จดหมายที่เธอร่างร่วมระบุ
เคล็ดลับก็คือว่า Silicon Valley เรียกการโจรกรรมว่า "การหยุดชะงัก" เป็นประจำ และบ่อยครั้งเกินไปที่จะหลีกเลี่ยงมัน เรารู้ถึงความเคลื่อนไหวนี้: พุ่งไปข้างหน้าสู่ดินแดนที่ผิดกฎหมาย อ้างว่ากฎเก่าใช้ไม่ได้กับเทคโนโลยีใหม่ของคุณ กรีดร้องว่ากฎระเบียบจะช่วยจีนได้เท่านั้น ทั้งหมดนี้ในขณะที่คุณได้รับข้อเท็จจริงอย่างมั่นคง เมื่อถึงเวลาที่เราทุกคนจะมองข้ามความแปลกใหม่ของของเล่นใหม่เหล่านี้ และเริ่มสำรวจความย่อยยับทางสังคม การเมือง และเศรษฐกิจ เทคโนโลยีนี้ก็แพร่หลายไปแล้วจน ศาล และผู้กำหนดนโยบายก็ยกมือขึ้น
เราเห็นมันด้วยการสแกนหนังสือและงานศิลปะของ Google ด้วยการล่าอาณานิคมในอวกาศของมัสค์ กับการโจมตีของ Uber ในอุตสาหกรรมรถแท็กซี่ ด้วยการโจมตีตลาดเช่าของ Airbnb ด้วยความสำส่อนของ Facebook กับข้อมูลของเรา อย่าขออนุญาต ผู้ก่อกวนชอบพูดว่าขอการให้อภัย (และหล่อลื่นคำถามด้วยการบริจาคอย่างใจกว้าง)
ในยุคของระบบทุนนิยมแบบสอดส่อง Shoshana Zuboff ให้รายละเอียดอย่างพิถีพิถันว่าแผนที่ Street View ของ Google อยู่เหนือบรรทัดฐานความเป็นส่วนตัวโดยการส่งรถยนต์ที่ติดกล้องออกไปถ่ายภาพถนนสาธารณะและภายนอกบ้านของเราอย่างไร เมื่อเกิดการฟ้องร้องเพื่อปกป้องสิทธิ์ความเป็นส่วนตัว Street View ก็แพร่หลายบนอุปกรณ์ของเรา (และเจ๋งมากและสะดวกสบายมาก …) จนมีศาลภายนอกเพียงไม่กี่แห่ง ประเทศเยอรมัน เต็มใจที่จะเข้าแทรกแซง
ตอนนี้สิ่งเดียวกันที่เกิดขึ้นกับภายนอกบ้านของเราก็เกิดขึ้นกับคำพูด รูปภาพ เพลงของเรา และชีวิตดิจิทัลทั้งหมดของเรา ขณะนี้ทั้งหมดกำลังถูกยึดและนำไปใช้ในการฝึกเครื่องจักรเพื่อจำลองการคิดและความคิดสร้างสรรค์ บริษัทเหล่านี้ต้องรู้ว่าตนมีส่วนร่วมในการโจรกรรม หรืออย่างน้อยก็ว่าก เคสแข็ง สามารถทำให้เป็นได้ พวกเขาแค่หวังว่า Playbook เก่าจะได้ผลอีกครั้ง - ว่าขนาดของการปล้นนั้นใหญ่มากและกำลังเปิดเผยอยู่เช่นนั้น ความเร็ว ว่าศาลและผู้กำหนดนโยบายจะยกมือขึ้นอีกครั้งเมื่อเผชิญกับสิ่งที่หลีกเลี่ยงไม่ได้ทั้งหมด
นั่นเป็นเหตุผลว่าทำไมภาพหลอนของพวกเขาเกี่ยวกับสิ่งมหัศจรรย์ทั้งหมดที่ AI จะทำเพื่อมนุษยชาติจึงมีความสำคัญมาก เนื่องจากการกล่าวอ้างอันสูงส่งเหล่านั้นปิดบังการโจรกรรมครั้งใหญ่นี้เป็นของขวัญ ขณะเดียวกันก็ช่วยหาเหตุผลเข้าข้างตนเองถึงอันตรายที่ไม่อาจปฏิเสธได้ของ AI
ตอนนี้พวกเราส่วนใหญ่คงเคยได้ยินเกี่ยวกับ การสำรวจ ที่ขอให้นักวิจัยและนักพัฒนา AI ประเมินความน่าจะเป็นที่ระบบ AI ขั้นสูงจะทำให้ “การสูญพันธุ์ของมนุษย์หรือการปลดอำนาจของเผ่าพันธุ์มนุษย์อย่างถาวรและรุนแรงในทำนองเดียวกัน” น่าตกใจที่คำตอบเฉลี่ยคือมีโอกาส 10%
เราจะหาเหตุผลเข้าข้างตนเองในการทำงานและผลักดันเครื่องมือที่มีความเสี่ยงที่มีอยู่ได้อย่างไร บ่อยครั้ง เหตุผลที่ให้ไว้ก็คือระบบเหล่านี้ยังมีข้อดีที่อาจเกิดขึ้นอย่างมาก ยกเว้นว่าโดยส่วนใหญ่แล้วจะมีอาการประสาทหลอน มาเจาะลึกสิ่งที่ป่าเถื่อนกันดีกว่า
อาการประสาทหลอน #1: เอ.ไอ จะ แก้ ภูมิอากาศ วิกฤติ
เกือบจะอยู่ในอันดับต้น ๆ ของรายการ AI กลับด้านอยู่เสมอคือการอ้างว่าระบบเหล่านี้จะแก้ไขวิกฤติสภาพภูมิอากาศได้ เราได้ยินเรื่องนี้จากทุกคนจาก โลกเศรษฐกิจ ไป สภาวิเทศสัมพันธ์ ไปยัง กลุ่มที่ปรึกษาบอสตันซึ่งอธิบายว่า AI “สามารถใช้เพื่อสนับสนุนผู้มีส่วนได้ส่วนเสียทั้งหมดในการใช้วิธีการที่มีข้อมูลและขับเคลื่อนด้วยข้อมูลมากขึ้นเพื่อต่อสู้กับการปล่อยก๊าซคาร์บอนและสร้างสังคมที่เป็นมิตรต่อสิ่งแวดล้อมมากขึ้น นอกจากนี้ยังสามารถนำมาใช้เพื่อทบทวนความพยายามด้านสภาพภูมิอากาศโลกต่อภูมิภาคที่มีความเสี่ยงมากที่สุดได้” Eric Schmidt อดีต CEO ของ Google สรุปกรณีนี้เมื่อเขา บอก มหาสมุทรแอตแลนติกที่ความเสี่ยงของ AI คุ้มค่าที่จะรับ เพราะ “ถ้าคุณคิดถึงปัญหาที่ใหญ่ที่สุดในโลก ปัญหาเหล่านี้ล้วนยากจริงๆ ไม่ว่าจะเป็นการเปลี่ยนแปลงสภาพภูมิอากาศ องค์กรมนุษย์ และอื่นๆ ดังนั้นฉันจึงอยากให้ผู้คนฉลาดขึ้นเสมอ”
ตามตรรกะนี้ ความล้มเหลวในการ "แก้ไข" ปัญหาใหญ่ เช่น การเปลี่ยนแปลงสภาพภูมิอากาศ เกิดจากการขาดความฉลาด ไม่ต้องคำนึงว่าคนฉลาดที่ได้รับรางวัลปริญญาเอกและรางวัลโนเบลมากมาย ได้บอกกับรัฐบาลของเรามานานหลายทศวรรษถึงสิ่งที่จำเป็นต้องเกิดขึ้นเพื่อหลุดพ้นจากความวุ่นวายนี้: ลดการปล่อยก๊าซเรือนกระจก ทิ้งคาร์บอนไว้บนพื้น จัดการกับการบริโภคที่มากเกินไปของคนรวยและการบริโภคที่น้อยเกินไป ของคนยากจนเพราะไม่มีแหล่งพลังงานใดที่ไม่เสียค่าใช้จ่ายทางนิเวศน์
เหตุผลที่คำแนะนำอันชาญฉลาดนี้ถูกเพิกเฉยไม่ได้เกิดจากปัญหาความเข้าใจในการอ่าน หรือเพราะเราต้องการเครื่องจักรเพื่อคิดแทนเรา เป็นเพราะการทำสิ่งที่เราต้องการจากวิกฤตสภาพภูมิอากาศ ล้านล้านดอลลาร์ ของสินทรัพย์เชื้อเพลิงฟอสซิล ในขณะเดียวกันก็ท้าทายรูปแบบการเติบโตตามการบริโภคซึ่งเป็นหัวใจสำคัญของเศรษฐกิจที่เชื่อมโยงถึงกันของเรา ที่จริงแล้ว วิกฤตสภาพภูมิอากาศไม่ใช่ปริศนาหรือปริศนาที่เรายังไม่ได้แก้ไขเนื่องจากชุดข้อมูลไม่เพียงพอ เรารู้ว่าจะต้องทำอะไร แต่นี่ไม่ใช่การแก้ไขอย่างรวดเร็ว แต่เป็นการเปลี่ยนกระบวนทัศน์ การรอให้เครื่องจักรคายคำตอบที่น่าพึงพอใจและ/หรือทำกำไรออกมาไม่ใช่วิธีแก้ไขวิกฤตครั้งนี้ แต่เป็นอีกอาการหนึ่งของวิกฤตนี้
กำจัดภาพหลอนออกไปและมีแนวโน้มมากขึ้นที่ AI จะถูกนำออกสู่ตลาดในลักษณะที่ทำให้วิกฤตสภาพภูมิอากาศลึกซึ้งยิ่งขึ้น ประการแรก เซิร์ฟเวอร์ขนาดยักษ์ที่ทำให้เรียงความและอาร์ตเวิร์คจากแชทบอทเป็นไปได้นั้นมีขนาดมหาศาลและกำลังเติบโต แหล่ง ของการปล่อยก๊าซคาร์บอน ประการที่สอง ในขณะที่บริษัทอย่าง Coca-Cola เริ่มสร้างธุรกิจ การลงทุนขนาดใหญ่ ในการใช้ generative AI เพื่อขายผลิตภัณฑ์มากขึ้น กลายเป็นที่ชัดเจนแล้วว่าเทคโนโลยีใหม่นี้จะถูกนำมาใช้ในลักษณะเดียวกับเครื่องมือดิจิทัลรุ่นก่อนๆ นั่นคือสิ่งที่เริ่มต้นด้วยคำมั่นสัญญาอันสูงส่งเกี่ยวกับการแพร่กระจายเสรีภาพและประชาธิปไตย ลงเอยด้วยโฆษณาแบบกำหนดเป้าหมายขนาดเล็กที่ เพื่อซื้อของที่ปล่อยคาร์บอนออกมาไร้ประโยชน์มากขึ้น
และมีปัจจัยที่สาม ซึ่งปัจจัยนี้ยากกว่าเล็กน้อยในการระบุ ยิ่งช่องสื่อของเราเต็มไปด้วยของปลอมและโคลนนิ่งหลายประเภทมากเท่าไร เราก็จะยิ่งรู้สึกเหมือนจมลงไปในทรายดูดข้อมูลมากขึ้นเท่านั้น Geoffrey Hinton ซึ่งมักเรียกกันว่า "เจ้าพ่อแห่ง AI" เนื่องจากโครงข่ายประสาทเทียมที่เขาพัฒนาเมื่อกว่าทศวรรษที่แล้วได้ก่อตัวเป็นองค์ประกอบสำคัญของโมเดลภาษาขนาดใหญ่ในปัจจุบัน และเข้าใจสิ่งนี้เป็นอย่างดี เขาเพิ่งลาออกจากตำแหน่งอาวุโสที่ Google เพื่อที่เขาจะได้พูดได้อย่างอิสระเกี่ยวกับความเสี่ยงของเทคโนโลยีที่เขาช่วยสร้าง รวมถึงในขณะที่เขา บอก New York Times ความเสี่ยงที่ผู้คนจะ “ไม่สามารถรู้ได้ว่าอะไรคือความจริงอีกต่อไป”
สิ่งนี้มีความเกี่ยวข้องอย่างมากกับการกล่าวอ้างที่ว่า AI จะช่วยต่อสู้กับวิกฤตสภาพภูมิอากาศ เพราะเมื่อเราไม่ไว้วางใจทุกสิ่งที่เราอ่านและเห็นในสภาพแวดล้อมของสื่อที่แปลกประหลาดมากขึ้นเรื่อยๆ เราก็มีความพร้อมน้อยลงในการแก้ปัญหาร่วมกันที่เร่งด่วน แน่นอนว่าวิกฤตแห่งความไว้วางใจเกิดขึ้นก่อน ChatGPT แต่ก็ไม่ต้องสงสัยเลยว่าการแพร่กระจายของปลอมในเชิงลึกจะมาพร้อมกับการเพิ่มขึ้นแบบทวีคูณในวัฒนธรรมสมรู้ร่วมคิดที่เจริญรุ่งเรืองอยู่แล้ว แล้วจะมีความแตกต่างอะไรหาก AI มีความก้าวหน้าทางเทคโนโลยีและวิทยาศาสตร์? หากโครงสร้างของความเป็นจริงที่ใช้ร่วมกันกำลังคลี่คลายอยู่ในมือของเรา เราจะพบว่าตัวเองไม่สามารถตอบสนองด้วยความสอดคล้องกันใดๆ ได้เลย
อาการประสาทหลอน #2: เอ.ไอ จะ ส่งมอบ ฉลาด การกำกับดูแล
ภาพหลอนนี้ก่อให้เกิดอนาคตอันใกล้ที่นักการเมืองและข้าราชการซึ่งใช้ความฉลาดที่รวบรวมไว้มากมายของระบบ AI สามารถ "มองเห็นรูปแบบของความต้องการและพัฒนาโปรแกรมที่อิงหลักฐานเชิงประจักษ์" ซึ่งมีประโยชน์มากกว่าต่อองค์ประกอบของพวกเขา การเรียกร้องนั้นมาจากก กระดาษ จัดพิมพ์โดยมูลนิธิ Boston Consulting Group แต่ยังคงสะท้อนอยู่ในกลุ่มนักคิดและที่ปรึกษาด้านการจัดการหลายแห่ง และกำลังบอกว่าบริษัทเฉพาะเหล่านี้ - บริษัทที่ได้รับการว่าจ้างจากรัฐบาลและบริษัทอื่น ๆ เพื่อระบุการประหยัดต้นทุน ซึ่งมักจะเกิดจากการไล่พนักงานออกจำนวนมาก นั้นได้ก้าวกระโดดไปสู่กลุ่ม AI ที่เร็วที่สุด PwC (เดิมชื่อ PricewaterhouseCoopers) ประกาศ มีรายงานว่า Bain & Company และ Deloitte ทุ่มเงินลงทุน 1 พันล้านดอลลาร์ ต่างกระตือรือร้นที่จะใช้เครื่องมือเหล่านี้เพื่อทำให้ลูกค้าของตน "มีประสิทธิภาพ" มากขึ้น
เช่นเดียวกับการกล่าวอ้างเรื่องสภาพภูมิอากาศ จำเป็นต้องถาม: เหตุผลที่นักการเมืองกำหนดนโยบายที่โหดร้ายและไม่มีประสิทธิภาพที่พวกเขาต้องทนทุกข์ทรมานจากการขาดหลักฐานใช่หรือไม่ ไม่สามารถ “มองเห็นรูปแบบ” ตามที่รายงานของ BCG แนะนำใช่หรือไม่ พวกเขาไม่เข้าใจถึงต้นทุนของมนุษย์ ที่หิวโหย การดูแลสุขภาพของประชาชนท่ามกลางโรคระบาด หรือความล้มเหลวในการลงทุนที่อยู่อาศัยที่ไม่ใช่ตลาดเมื่อมีเต็นท์เต็มสวนสาธารณะในเมืองของเรา หรือการอนุมัติโครงสร้างพื้นฐานเชื้อเพลิงฟอสซิลใหม่ในขณะที่อุณหภูมิเพิ่มสูงขึ้น พวกเขาต้องการ AI เพื่อทำให้พวกเขา "ฉลาดขึ้น" เพื่อใช้คำของ Schmidt หรือไม่ หรือว่าพวกเขาฉลาดพอที่จะรู้ว่าใครจะเป็นผู้รับผิดชอบแคมเปญถัดไปของพวกเขา หรือหากพวกเขาหลงทาง จะต้องระดมทุนให้คู่แข่งของพวกเขา
คงจะดีไม่น้อยหาก AI สามารถตัดความเชื่อมโยงระหว่างเงินขององค์กรและการกำหนดนโยบายที่ประมาทได้ แต่การเชื่อมโยงดังกล่าวมีทุกอย่างที่เกี่ยวข้องกับสาเหตุที่บริษัทอย่าง Google และ Microsoft ได้รับอนุญาตให้เผยแพร่แชทบอทสู่สาธารณะ แม้จะมีคำเตือนและคำเตือนมากมาย ความเสี่ยงที่ทราบ ชมิดต์และคนอื่นๆ รณรงค์รณรงค์ล็อบบี้มานานหลายปี บอก ทั้งสองฝ่ายในวอชิงตันว่าหากพวกเขาไม่มีอิสระที่จะก้าวไปข้างหน้ากับ generative AI โดยปราศจากภาระจากกฎระเบียบที่จริงจัง มหาอำนาจตะวันตกก็จะถูกทิ้งให้จมอยู่ในผงฝุ่นโดยจีน ปีที่แล้วบริษัทเทคโนโลยีชั้นนำ การใช้จ่าย ทุ่มเงิน 70 ล้านดอลลาร์เพื่อล็อบบี้วอชิงตัน มากกว่าภาคน้ำมันและก๊าซ และผลรวมดังกล่าว บลูมเบิร์กนิวส์ตั้งข้อสังเกตไว้ว่า นอกเหนือไปจากเงินหลายล้านที่ใช้ไป “กับกลุ่มการค้า องค์กรไม่แสวงผลกำไร และกลุ่มคลังความคิดอันหลากหลายของพวกเขา”
แม้ว่าพวกเขาจะมีความรู้อย่างใกล้ชิดว่าเงินเป็นตัวกำหนดนโยบายในเมืองหลวงของประเทศของเราอย่างไร เมื่อคุณฟัง Sam Altman ซีอีโอของ OpenAI ซึ่งเป็นผู้สร้าง ChatGPT พูดคุยเกี่ยวกับสถานการณ์ที่ดีที่สุดสำหรับผลิตภัณฑ์ของเขา ทั้งหมดนี้ดูเหมือนจะเป็น ลืม ในทางกลับกัน ดูเหมือนว่าเขาจะจินตนาการถึงโลกที่แตกต่างจากโลกของเราอย่างสิ้นเชิง ซึ่งเป็นโลกที่นักการเมืองและอุตสาหกรรมตัดสินใจโดยใช้ข้อมูลที่ดีที่สุด และจะไม่มีวันทำให้ชีวิตนับไม่ถ้วนตกอยู่ในความเสี่ยงเพื่อผลกำไรและความได้เปรียบทางภูมิรัฐศาสตร์ ซึ่งนำเราไปสู่ภาพหลอนอีกครั้ง
อาการประสาทหลอน #3: เทคโนโลยี ยักษ์ใหญ่ สามารถ be ที่เชื่อถือ ที่จะไม่ ทำลาย โลก
ถาม หากเขากังวลเกี่ยวกับกระแสตื่นทองที่บ้าคลั่ง ChatGPT ได้ปลดปล่อยออกมาแล้ว อัลท์แมนก็บอกว่าเขาเป็นอย่างนั้น แต่ก็เสริมอย่างร่าเริง: “หวังว่าทุกอย่างจะผ่านไปด้วยดี” ในบรรดาซีอีโอด้านเทคโนโลยีเพื่อนของเขา - คนที่แข่งขันกันเพื่อเร่งแชทบอทของคู่แข่ง - เขากล่าวว่า: "ฉันคิดว่าเทวดาที่ดีกว่าจะต้องชนะ"
นางฟ้าดีกว่าไหม? ที่กูเกิล? ฉันค่อนข้างแน่ใจว่าบริษัท ยิง ส่วนใหญ่เป็นเพราะเผยแพร่เอกสารวิจารณ์เกี่ยวกับ AI หรือเรียกร้องให้บริษัทต่อต้านการเหยียดเชื้อชาติและการล่วงละเมิดทางเพศในที่ทำงาน มี “ทูตสวรรค์ที่ดีกว่า” มากขึ้น เลิก ด้วยความตื่นตระหนก ล่าสุดฮินตัน นั่นเป็นเพราะว่า Google ไม่ได้ตัดสินใจโดยยึดตามสิ่งที่ดีที่สุดสำหรับโลก ตรงกันข้ามกับภาพหลอนของผู้คนที่ได้รับประโยชน์จาก AI มากที่สุด แต่ทำการตัดสินใจโดยยึดตามสิ่งที่ดีที่สุดสำหรับผู้ถือหุ้นของ Alphabet ผู้ไม่ต้องการพลาดฟองสบู่ล่าสุด ไม่ เมื่อ Microsoft, Meta และ Apple เข้ามาแล้ว
ภาพหลอน #4: เอ.ไอ จะ ปลดปล่อย us ราคาเริ่มต้นที่ งานน่าเบื่อ
หากภาพหลอนที่มีเมตตาของ Silicon Valley ดูเป็นไปได้สำหรับหลาย ๆ คน ก็มีเหตุผลง่ายๆ สำหรับสิ่งนั้น Generative AI ปัจจุบันอยู่ในสิ่งที่เราอาจคิดว่าเป็นเวทีสังคมนิยมแบบหลอกๆ นี่เป็นส่วนหนึ่งของ Playbook ของ Silicon Valley ที่คุ้นเคยในปัจจุบัน ขั้นแรก สร้างผลิตภัณฑ์ที่น่าสนใจ (เสิร์ชเอ็นจิ้น เครื่องมือทำแผนที่ โซเชียลเน็ตเวิร์ก แพลตฟอร์มวิดีโอ แชร์การเดินทาง …); แจกฟรีหรือเกือบฟรีสักสองสามปี โดยไม่มีโมเดลธุรกิจที่มองเห็นได้ชัดเจน (“เล่นกับบอท” พวกเขาบอกเรา “ดูว่าคุณสามารถสร้างสิ่งสนุก ๆ อะไรได้บ้าง!”); กล่าวอ้างอันสูงส่งมากมายเกี่ยวกับวิธีการที่คุณทำเพียงเพราะคุณต้องการสร้าง "จัตุรัสกลางเมือง" หรือ "ศูนย์ข้อมูลทั่วไป" หรือ "เชื่อมโยงผู้คน" ทั้งหมดนี้ในขณะเดียวกันก็เผยแพร่เสรีภาพและประชาธิปไตย (และไม่ใช่ "ความชั่วร้าย") จากนั้นดูผู้คนติดงอมแงมโดยใช้เครื่องมือฟรีเหล่านี้ และคู่แข่งของคุณประกาศล้มละลาย เมื่อข้อมูลชัดเจนแล้ว ให้แนะนำโฆษณาที่กำหนดเป้าหมาย การเฝ้าระวังอย่างต่อเนื่อง สัญญาของตำรวจและทหาร การขายข้อมูลกล่องดำ และค่าธรรมเนียมการสมัครสมาชิกที่เพิ่มขึ้น
ชีวิตและภาคส่วนต่างๆ จำนวนมากถูกทำลายลงจากการทำซ้ำ Playbook นี้ตั้งแต่คนขับแท็กซี่ไปจนถึงตลาดให้เช่า ไปจนถึงหนังสือพิมพ์ท้องถิ่น ด้วยการปฏิวัติของ AI ความสูญเสียประเภทนี้อาจดูเหมือนเป็นข้อผิดพลาดในการปัดเศษ โดยครู นักเขียนโค้ด จิตรกร นักข่าว นักแปล นักดนตรี เจ้าหน้าที่ดูแลผู้ป่วย และคนอื่นๆ อีกมากมายต้องเผชิญกับโอกาสที่รายได้จะถูกแทนที่ด้วยรหัสที่ผิดพลาด
ไม่ต้องกังวล ผู้ที่ชื่นชอบ AI จะเห็นภาพหลอน มันจะมหัศจรรย์มาก ใครชอบงานอยู่แล้วบ้าง? Generative AI ไม่ใช่จุดจบของการจ้างงาน บอกได้คำเดียวว่า “งานที่น่าเบื่อ” – ด้วยแชทบอทที่ช่วยทำลายจิตวิญญาณและงานที่ซ้ำซากและมนุษย์ก็แค่ดูแลพวกมันเท่านั้น อัลท์แมนในส่วนของเขา เห็น อนาคตที่การทำงาน “อาจเป็นแนวคิดที่กว้างกว่า ไม่ใช่สิ่งที่คุณต้องทำเพื่อให้สามารถกินได้ แต่เป็นสิ่งที่คุณทำเพื่อแสดงออกถึงความคิดสร้างสรรค์และหนทางในการค้นหาความเติมเต็มและความสุข”
นั่นเป็นวิสัยทัศน์ที่น่าตื่นเต้นของชีวิตที่สวยงามและสบายๆ มากขึ้น ซึ่งพวกฝ่ายซ้ายหลายคนมีเหมือนกัน (รวมถึงพอล ลาฟาร์ก ลูกเขยของคาร์ล มาร์กซ์ ผู้เขียน การประกาศ มีชื่อว่า สิทธิที่จะขี้เกียจ) แต่พวกเราฝ่ายซ้ายยังรู้ด้วยว่าหากการหาเงินไม่ใช่สิ่งกีดขวางของชีวิตอีกต่อไปแล้ว ก็จะต้องมีวิธีอื่นที่จะสนองความต้องการสิ่งมีชีวิตของเราในด้านที่พักพิงและการยังชีพ โลกที่ปราศจากงานห่วยๆ หมายความว่าค่าเช่าจะต้องเป็นอิสระ และการดูแลสุขภาพจะต้องเป็นอิสระ และทุกคนต้องมีสิทธิทางเศรษฐกิจที่ไม่อาจแบ่งแยกได้ และทันใดนั้น เราไม่ได้พูดถึง AI เลย เรากำลังพูดถึงลัทธิสังคมนิยม
เพราะเราไม่ได้อยู่ในโลกมนุษยนิยมที่มีเหตุมีผลซึ่งได้รับแรงบันดาลใจจาก Star Trek ซึ่งอัลท์แมนดูเหมือนจะหลอน เราอยู่ภายใต้ระบบทุนนิยม และภายใต้ระบบนั้น ผลกระทบของการท่วมตลาดด้วยเทคโนโลยีที่สามารถดำเนินงานทางเศรษฐกิจของคนทำงานจำนวนนับไม่ถ้วนได้ ไม่ใช่การที่คนเหล่านั้นมีอิสระในการเป็นนักปรัชญาและศิลปินในทันที หมายความว่าคนเหล่านั้นจะพบว่าตัวเองกำลังจ้องมองลงไปในเหว โดยมีศิลปินที่แท้จริงอยู่ในกลุ่มกลุ่มแรกที่ล้มลง
นั่นคือข้อความในจดหมายเปิดผนึกของ Crabapple ซึ่งเรียกร้องให้ “ศิลปิน ผู้จัดพิมพ์ นักข่าว บรรณาธิการ และผู้นำสหภาพสื่อสารมวลชนให้คำมั่นสัญญาเรื่องคุณค่าของมนุษย์ต่อการใช้ภาพ generative-AI” และ “มุ่งมั่นที่จะสนับสนุนงานบรรณาธิการที่สร้างโดยผู้คน ไม่ใช่ฟาร์มเซิร์ฟเวอร์” จดหมายตอนนี้ ลงนาม โดยศิลปิน นักข่าว และคนอื่นๆ หลายร้อยคน ระบุว่าทุกคนยกเว้นศิลปินชั้นแนวหน้าพบว่าผลงานของตน "เสี่ยงต่อการสูญพันธุ์" และตามคำกล่าวของฮินตัน “เจ้าพ่อแห่ง AI” ไม่มีเหตุผลใดที่จะเชื่อได้ว่าภัยคุกคามจะไม่แพร่กระจาย แชทบอทช่วย “ขจัดงานน่าเบื่อหน่าย” แต่ “อาจกำจัดมากกว่านั้น”
Crabapple และผู้เขียนร่วมของเธอเขียนว่า “ศิลปะ Generative AI นั้นเป็นศิลปะแบบแวมไพร์ โดยดื่มด่ำกับงานศิลปะรุ่นก่อนๆ แม้ว่ามันจะดูดเลือดจากศิลปินที่ยังมีชีวิตอยู่ก็ตาม” แต่มีวิธีต่อต้าน: เราสามารถปฏิเสธที่จะใช้ผลิตภัณฑ์เหล่านี้และจัดการเพื่อเรียกร้องให้นายจ้างและรัฐบาลของเราปฏิเสธผลิตภัณฑ์เหล่านี้เช่นกัน ก จดหมาย จากนักวิชาการที่มีชื่อเสียงด้านจริยธรรม AI รวมถึง Timnit Gebru ที่ถูก Google ไล่ออกในปี 2020 เนื่องจากท้าทายการเลือกปฏิบัติในที่ทำงาน ได้วางเครื่องมือด้านกฎระเบียบบางส่วนที่รัฐบาลสามารถนำมาใช้ได้ทันที รวมถึงความโปร่งใสอย่างสมบูรณ์เกี่ยวกับชุดข้อมูลที่ใช้ในการฝึกอบรมแบบจำลอง ผู้เขียนเขียนว่า: “ไม่เพียงแต่ควรจะชัดเจนเสมอเมื่อเราเผชิญกับสื่อสังเคราะห์ แต่องค์กรที่สร้างระบบเหล่านี้ควรจำเป็นต้องจัดทำเอกสารและเปิดเผยข้อมูลการฝึกอบรมและสถาปัตยกรรมแบบจำลองด้วย …. เราควรสร้างเครื่องจักรที่เหมาะกับเรา แทนที่จะ 'ปรับเปลี่ยน' สังคมให้เครื่องสามารถอ่านและเขียนได้”
แม้ว่าบริษัทเทคโนโลยีอยากให้เราเชื่อว่ามันสายเกินไปแล้วที่จะย้อนกลับผลิตภัณฑ์เลียนแบบจำนวนมากที่ทดแทนมนุษย์ได้ แต่ก็ยังมีแบบอย่างทางกฎหมายและกฎระเบียบที่เกี่ยวข้องสูงที่สามารถบังคับใช้ได้ ตัวอย่างเช่น คณะกรรมาธิการการค้าแห่งสหพันธรัฐสหรัฐ (FTC) ถูกบังคับ Cambridge Analytica และ Everalbum เจ้าของแอปรูปภาพ ร่วมกันทำลายอัลกอริธึมทั้งหมดที่พบว่าได้รับการฝึกอบรมเกี่ยวกับข้อมูลและรูปภาพที่คัดลอกมาอย่างผิดกฎหมาย ในช่วงแรกๆ ฝ่ายบริหารของ Biden ได้กล่าวอ้างอย่างกล้าหาญมากมายเกี่ยวกับการควบคุมเทคโนโลยีขนาดใหญ่ รวมถึงการปราบปรามการขโมยข้อมูลส่วนบุคคลเพื่อสร้างอัลกอริทึมที่เป็นกรรมสิทธิ์ เนื่องจากการเลือกตั้งประธานาธิบดีใกล้เข้ามาอย่างรวดเร็ว ตอนนี้จึงเป็นเวลาที่ดีที่จะทำตามคำสัญญาเหล่านั้น และหลีกเลี่ยงการเลิกจ้างคนจำนวนมากชุดต่อไปก่อนที่จะเกิดขึ้น
โลกแห่งการปลอมแปลง การเลียนแบบ และความไม่เท่าเทียมที่เลวร้ายลงนั้นไม่ใช่สิ่งที่หลีกเลี่ยงไม่ได้ มันเป็นชุดของทางเลือกนโยบาย เราสามารถควบคุมรูปแบบปัจจุบันของแชทบอทแวมไพร์ที่สูญพันธุ์ได้ และเริ่มสร้างโลกที่คำสัญญาที่น่าตื่นเต้นที่สุดของ AI จะเป็นมากกว่าภาพหลอนใน Silicon Valley
เพราะเราได้ฝึกเครื่องจักร เราทั้งหมด. แต่เราไม่เคยให้ความยินยอมเลย พวกเขาอาศัยความเฉลียวฉลาด แรงบันดาลใจ และการเปิดเผยร่วมกันของมนุษยชาติ (รวมถึงคุณลักษณะที่ชั่วร้ายของเราด้วย) โมเดลเหล่านี้เป็นเครื่องจักรที่ล้อมรอบและจัดสรร กลืนกินและแปรรูปชีวิตส่วนบุคคลของเราตลอดจนมรดกทางปัญญาและศิลปะโดยรวมของเรา และเป้าหมายของพวกเขาไม่เคยคือการแก้ปัญหาการเปลี่ยนแปลงสภาพภูมิอากาศหรือทำให้รัฐบาลของเรามีความรับผิดชอบมากขึ้น หรือทำให้ชีวิตประจำวันของเราสบายขึ้น มันเป็นการแสวงหาผลกำไรจากการแพร่ขยายไปสู่มวลชน ซึ่งภายใต้ระบบทุนนิยมนั้น เป็นผลที่ตามมาที่ชัดเจนและสมเหตุสมผลของการแทนที่ฟังก์ชันของมนุษย์ด้วยบอท
ทั้งหมดนี้ดราม่าเกินไปหรือเปล่า? ความต้านทานอับชื้นและสะท้อนกลับต่อนวัตกรรมที่น่าตื่นเต้น? เหตุใดจึงคาดหวังสิ่งที่เลวร้ายลง? อัลท์แมน มั่นใจ เรา: “ไม่มีใครอยากทำลายโลก” อาจจะไม่. แต่ในขณะที่วิกฤตสภาพภูมิอากาศและการสูญพันธุ์ที่เลวร้ายลงทุกวันแสดงให้เราเห็น บุคคลและสถาบันที่มีอำนาจจำนวนมากดูเหมือนจะสบายดีเมื่อรู้ว่าพวกเขากำลังช่วยทำลายเสถียรภาพของระบบช่วยชีวิตของโลก ตราบใดที่พวกเขายังสามารถสร้าง ระเบียน ผลกำไรที่พวกเขาเชื่อว่าจะปกป้องพวกเขาและครอบครัวจากผลกระทบที่เลวร้ายที่สุด Altman ก็เหมือนกับสิ่งมีชีวิตอื่นๆ ใน Silicon Valley ที่เป็นตัวเตรียมการ ย้อนกลับไปในปี 2016 เขา Boasted: “ฉันมีปืน ทองคำ โพแทสเซียมไอโอไดด์ ยาฆ่าเชื้อ แบตเตอรี่ น้ำ หน้ากากป้องกันแก๊สพิษจากกองกำลังป้องกันประเทศอิสราเอล และที่ดินผืนใหญ่ในบิ๊กซูร์ที่ฉันสามารถบินไปได้”
ฉันค่อนข้างแน่ใจว่าข้อเท็จจริงเหล่านี้บอกอะไรได้มากกว่าสิ่งที่อัลท์แมนเชื่อจริงๆ เกี่ยวกับอนาคตที่เขาช่วยปลดปล่อยมากกว่าภาพหลอนดอกไม้ใดๆ ที่เขาเลือกที่จะแบ่งปันในการสัมภาษณ์กับสื่อมวลชน
Naomi Klein เป็นคอลัมนิสต์ของ Guardian US และนักเขียนที่มีส่วนร่วม เธอเป็นผู้เขียนหนังสือขายดี No Logo และ The Shock Doctrine และศาสตราจารย์ด้าน Climate Justice และเป็นผู้อำนวยการร่วมของ Center for Climate Justice แห่งมหาวิทยาลัยบริติชโคลัมเบีย
ZNetwork ได้รับทุนจากความมีน้ำใจของผู้อ่านเท่านั้น
บริจาค